Documentos de Académico
Documentos de Profesional
Documentos de Cultura
------------------------------------------------------------------------------------------------------------------------------
Steven J. Miller
Resumen
El Método de mínimos cuadrados es un procedimiento para determinar la
mejor línea de ajuste a los datos; La prueba utiliza cálculo simple y álgebra lineal.
El problema básico es encontrar la línea recta que mejor se ajuste a, y = ax + b
dado que, n ∊ {1, ... , N}, los pares ordenados (xn , yn ) son observados. El método
se generaliza fácilmente para encontrar el mejor ajuste de la forma.
y = a1 f1 (x) + · · · + cK fK (x); (0.1)
Contenido
1
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
100 .
…
80 .
.
60 . .
.
40 ..
..
20 . .
. .
5 10 15 20
Figura 1: 100 observaciones “simuladas” de desplazamiento y fuerza. (k = 5).
2
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
Es la mejor aproximación a los datos.
1
= ∑𝑁
𝑛=1 𝑥𝑛 (2.2)
𝑁
Considere las siguientes dos secuencias de datos: {10, 20, 30, 40, 50} y {30, 30,
30, 30, 30}. Ambos conjuntos tienen la misma media; sin embargo, el primer
conjunto de datos tiene mayor variación sobre la media. Esto lleva al concepto
de varianza, que es una herramienta útil para cuantificar cuánto fluctúa un
conjunto de datos sobre su media. La varianza de {x1 , . . . , xN }, denotado por
σ2x , es:
𝑁
1
𝜎2x = ∑(𝑥𝑖 − 𝑥)2 (2.3)
𝑁
𝑛=1
𝑁
1
𝜎𝑥 = √ ∑(𝑥𝑖 − 𝑥)2 (2.4)
𝑁
𝑛=1
3
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
𝑁
1
∑(𝑥𝑖 − 𝑥)2 (2.5)
𝑁
𝑛=1
𝑁
1
∑ |𝑥𝑛 − 𝑥|2 (2.6)
𝑁
𝑛=1
Los errores grandes reciben un valor mayor que los errores más pequeños
(debido a la cuadratura). Por lo tanto, nuestro procedimiento favorece a muchos
medios, favorece muchos errores medianos sobre unos pocos errores grandes.
Si usamos valores absolutos, mida el error (vea la ecuación (2.6)) luego todos
los errores. Ponderados por igual, sin embargo, la función de valor absoluto no
4
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
Esto es solo N veces la varianza del conjunto de datos {𝑦1 − (𝑎𝑥1 + 𝑏), … , 𝑦𝑁 −
(𝑎𝑥𝑁 + 𝑏)} ,Si no hay diferencia si estudiamos o no la varianza de N veces la
varianza como nuestro error, y notemos que El error es una función de dos
variables.
El objetivo es encontrar valores de 𝑎 y 𝑏 que minimicen el error. En el cálculo
multivariable aprendemos que esto nos obliga a encontrar los valores de (𝑎, 𝑏)
de tal manera que.
𝜕𝐸 𝜕𝐸
= 0, = 0. (3.11)
𝜕𝑎 𝜕𝑏
No tenemos que preocuparnos por los puntos del límite |𝑎| 𝑦 |𝑏| y crecer, el
ajuste claramente empeorará cada vez más. Por lo tanto, no necesitamos
verificar el límite.
Diferenciando 𝐸(𝑎, 𝑏) rendimientos.
𝑁
𝜕𝐸
= ∑ 2(𝑦𝑛 − (𝑎𝑥𝑛 + 𝑏). (−𝑥𝑛 )
𝜕𝑎
𝑛=1
𝑁
𝜕𝐸
= ∑ 2(𝑦𝑛 − (𝑎𝑥𝑛 + 𝑏). 1, (3.12)
𝜕𝑏
𝑛=1
𝜕𝐸 𝜕𝐸
Ajuste = = 0 (y dividiendo por 2) rendimientos
𝜕𝑎 𝜕𝑏
𝑁
(∑ 𝑥𝑛2 ) 𝑎 + (∑ 𝑥𝑛 ) 𝑏 = ∑ 𝑥𝑛 𝑦𝑛
𝑛=1 𝑛=1 𝑛=1
𝑁 𝑁 𝑁
(∑ 𝑥𝑛 ) 𝑎 + (∑ 1) 𝑏 = ∑ 𝑦𝑛 (3.14)
𝑛=1 𝑛=1 𝑛=1
Como
𝑁
1
𝑋 = ∑ 𝑥𝑛 , (3.18)
𝑁
𝑛=1
Encontramos eso:
𝑁
6
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
𝑁
1
= 𝑁 . ∑(𝑥𝑛 − 𝑥)2
2
(3.19)
𝑁
𝑛=1
Donde la última igualdad se sigue del álgebra simple. Así, mientras todos los xn
no sean iguales, det M será distinto de cero y M invertible.
Por lo tanto, encontramos que, siempre que las x no sean todas iguales, los
mejores valores de ajuste de a y b se obtiene resolviendo un sistema lineal de
ecuaciones; La solución se da en (3.16).
y=4.99x+.48; (3.20)
𝐸𝑎𝑏𝑠 (𝑎, 𝑏) = ∑𝑁
𝑛=1 |𝑦𝑛 − (𝑎𝑥𝑛 + 𝑏)| (3.21)
Luego las técnicas numéricas dan como resultado que el mejor valor de ajuste
de a es 5.03 y el mejor valor de ajuste de b es menor que 10−10 en valor absoluto.
La diferencia entre estos valores y los del método de mínimos cuadrados se
encuentra en el mejor valor de ajuste de b (el menos importante de los dos
parámetros), Y se debe a las diferentes formas de ponderar los errores.
7
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
Ejercicio 3.3. Si las x no son todas iguales, ¿el determinante debe ser distinto
de cero para el mejor ajuste? ¿Cuadrático o el mejor ajuste cúbico?
∑𝑁 𝑓(𝑥𝑛 )2 ∑𝑁
𝑛=1 𝑓(𝑥𝑛 )𝑔(𝑥𝑛 ) 𝑎 ∑𝑁
𝑛=1 𝑓(𝑥𝑛 )𝑦𝑛
( 𝑁 𝑛=1 ) ( ) = ( ) (3.22)
∑𝑛=1 𝑓(𝑥𝑛 )𝑔(𝑥𝑛 ) 𝑁
∑𝑛=1 𝑔(𝑥𝑛 ) 2 𝑏 𝑁
∑𝑛=1 𝑔(𝑥𝑛 )𝑦𝑛
Ejercicio 3.5. El método de prueba generaliza más allá del caso cuando se
espera que y es una combinación lineal de k funciones fijas. Las funciones no
necesitan ser lineales; todo lo que se requiere es que tenemos una combinación
lineal, digamos a1f1(x)+ · · · +aKfK(x). Uno entonces determina la a1, . . ., aK que
minimizan la varianza (la suma de cuadrados de los errores) por cálculo y
álgebra lineal. Encuentre la ecuación matricial que deben cumplir los mejores
coeficientes de ajuste (a1, ..., aK).
8
Universidad Nacional Santiago Antúnez de Mayolo Métodos Numéricos
------------------------------------------------------------------------------------------------------------------------------
Referencias
[BD] P. Bickel and K. Doksum, Mathematical Statistics: Basic Ideas and
Selected Topics, Holden-Day, San Francisco, 1977.
[CaBe] G. Casella and R. Berger, Statistical Inference, 2nd edition,
Duxbury Advanced Series, Pacific Grove, CA, 2002.
[Du] R. Durrett, Probability: Theory and Examples, 2nd edition, Duxbury
Press, 1996.
[Fe] W. Feller, An Introduction to Probability Theory and Its Applications,
2nd edition, Vol. II, John Wiley & Sons, New York, 1971.
[Kel] D. Kelley, Introduction to Probability, Macmillan Publishing
Company, London, 1994.
[LF] R. Larson and B. Farber, Elementary Statistics: Picturing the World,
Prentice-Hall, Englewood Cliffs, NJ, 2003.
[MoMc] D. Moore and G. McCabe, Introduction to the Practice of Statistics,
W. H. Freeman and Co., London, 2003.