Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El método de mínimos cuadrados se aplica para ajustar rectas a una serie de datos presentados como
puntos en el plano.
Supongamos que se tienen los siguientes datos para las variables 𝑥, 𝑦
𝑥1 𝑥2 .... 𝑥𝑛
𝑦1 𝑦2 .... 𝑦𝑛
Esta situación se puede presentar en estudios experimentales, donde se estudia la variación de cierta
magnitud x en función de otra magnitud y.
Teóricamente es de esperarse que la relación entre estas variables sea lineal, del tipo
𝑦 = 𝑚𝑥 + 𝑏
El método de mínimos cuadrados nos proporciona un criterio con el cual podremos obtener la mejor
recta que representa a los puntos dados.
Se desearía tener
𝑦𝑖 = 𝑚𝑥𝑖 + 𝑏
𝑦𝑖 ≠ 𝑚𝑥𝑖 + 𝑏
Se pide que la suma de los cuadrados de las diferencias (las desviaciones) sea la menor posible.
𝑦𝑖 − (𝑚𝑥𝑖 + 𝑏)
𝑦 = 𝑚𝑥 + 𝑏
𝑦𝑖 (𝑥𝑖 , 𝑦𝑖 )
𝑦𝑖 − (𝑚𝑥𝑖 + 𝑏)
𝑥𝑖 𝑥
Los valores de m y b que cumplan con esta propiedad determinan la recta que mejor representa el
comportamiento lineal de los puntos (𝑥𝑖 , 𝑦𝑖 )
𝑦 = 𝑚𝑥 + 𝑏
En conclusión, el método de mínimos cuadrados es una técnica de análisis numérico enmarcada dentro
de la optimización matemática, en la que dados un conjunto de pares ordenados (𝑥𝑖 , 𝑦𝑖 ) y una familia de
funciones, se intenta encontrar la función continua dentro de dicha familia que mejor se aproxime a los
datos
Ejemplo: Calcular la mejor aproximación de un conjunto de valores experimentales (𝑥𝑖 , 𝑦𝑖 ), (𝑥𝑖 , 𝑦𝑖 ),∙ ∙ ∙ ∙
, (𝑥𝑛 , 𝑦𝑛 ) por una recta general, que no necesariamente pase por el origen. Podemos expresar la
relación entre ambas magnitudes con la ecuación de la recta pendiente-ordenada al origen.
𝑦 = 𝑚𝑥 + 𝑏
Calculemos la suma de las distancias de cada punto del gráfico a la recta elevada al cuadrado, que nos da
una idea de que tan cerca está la recta de los datos experimentales 𝒚𝒊 − (𝒎𝒙𝒊 + 𝒃)
De aquí surgen una serie de ecuaciones que nos auxiliaran para encontrar la función de la recta que se
ajustará a nuestros datos experimentales.
Pendiente:
𝑁𝑆𝑥𝑦 − 𝑆𝑥 𝑆𝑦
𝑚=
𝑁𝑆𝑥 2 − 𝑆𝑥 𝑆𝑥
Ordenada al origen
𝑆𝑦 𝑆𝑥 2 − 𝑆𝑥 𝑆𝑥𝑦
𝑏=
𝑁𝑆𝑥 2 − 𝑆𝑥 𝑆𝑥
Coeficiente de correlación lineal. (este coeficiente puede tomar valores dese -1 hasta 1, entre más se
acerque a 1 o a -1, indica que hay una buena correlación entre los puntos y la línea recta)
𝑁𝑆𝑥𝑦 − 𝑆𝑥 𝑆𝑦
𝑟=
√𝑁𝑆𝑥2 − 𝑆𝑥 𝑆𝑥 ∗ √𝑁𝑆𝑦2 − 𝑆𝑦 𝑆𝑦
Desarrollemos el ejemplo.
Recordemos que
𝑦 = 𝑚𝑥 + 𝑏
b m r
0.53269231 0.88269231 0.97455158
β² expresa el error que estamos generando al calcular cada una de las magnitudes y nos sirve para
estimar el error en la pendiente y en la ordenada al origen.
x y
1 1.5
2 2
3 4
5 4.6
6 4.7
8 8.5
9 8.8
10 9
En el caso de nuestro ejemplo, el valor obtenido del coeficiente de correlación lineal “r” es:
r = 0.97455158
Este valor nos indica que es una muy buena correlación y los datos se aproximan a una línea recta, en el
caso de que el valor de correlación lineal fuera muy pequeño, esto indicaría que no hay una buena
correlación para completar una función de tipo lineal y tendríamos que hacer otro tipo de aproximación
𝑁 𝛽2
𝑒(𝑚) = √ ∗ = 0.08288836
𝑁𝑆𝑥 𝑆𝑥 − 𝑆𝑥 𝑆𝑥 𝑁 − 2
𝑆𝑥 2 𝛽2
𝑒(𝑏) = √ ∗ = 0.52423201
𝑁𝑆𝑥 2 − 𝑆𝑥 𝑆𝑥 𝑁 − 2
𝒚 = 𝒎𝒙 + 𝒃
𝒚 = 𝟎. 𝟖𝟖𝟐𝟕𝒙 + 𝟎. 𝟓𝟑𝟐𝟕
De esta manera se calcula una función lineal y se hace la aproximación o ajuste por el método de
mínimos cuadrados cuando tenemos una serie de datos.