Está en la página 1de 14

Regresión Polinomial

AJUSTE DE CURVAS

El análisis de regresión engloba a un conjunto de métodos estadísticos usados tanto la


variable de respuesta como la la(s) variable(s) predictiva(s) sean contínuas y se requiere
predecir valores de la primera en función de valores observados de las segundas. En
esencia, el análisis de regresión consiste en ajustar un modelo a los datos, estimando
coeficientes a partir de las observaciones, con el fin de predecir valores de la variable de
respuesta a partir de una (regresión simple) o más variables (regresión múltiple)
predictivas o explicativas.
El análisis de regresión juega un papel central en la estadística moderna y se usa para:
• Identificar a las variables predictivas relacionadas con una variable de respuesta
• Describir la forma de la relación entre estas variables y para derivar una función
matemática óptima que modele esta relación
• predecir la variable de respuesta a partir de la(s) explicativas o predictoras
Tipos de regresión
El término regresión puede ser confuso porque existen muchas variantes especializadas de
regresión. Además, R tiene muchas funciones para ajustar una gran gama de modelos de
regresión.
Tabla 1. Algunos tipos básicos de regresión (hay muchos más)

Tipo de Tipo de regresión


regresión

Lineal Predicción de una variable de respuesta cuantitativa a partir de


simple una variable predictora cuantitativa

Polinomial Predicción de una variable de respuesta cuantitativa a partir de


una variable predictora cuantitativa, donde la relación se modela
como una función polinomial de orden n

Lineal Predicción de una variable de respuesta cuantitativa a partir de


múltiple dos o más variables predictoras cuantitativas

Multivariada Predicción de más de una variable de respuesta cuantitativa a


partir de una o más variables predictoras cuantitativas

MCs José Machuca Mines


Regresión Polinomial

Logística Predicción de una variable categórica a partir de una o más


predictoras

De Poisson Predicción de una variable de respuesta que representa un conteo


a partir de una o más predictoras

No lineal Predicción de una variable de respuesta cuantitativa a partir de


una o más predictoras, donde el modelo no es lineal

Robusta Predicción de una variable de respuesta cuantitativa a partir de


una o más predictoras, usando una aproximación resistente al
efecto de observaciones influyentes

En esta sección se trata los métodos que se enmarcan en el rubro de modelos de regresión
de mínimos cuadrados ordinarios (OLS). El énfasis está en los modelos lineales simple y
polinomiales, es decir, modelos en los se analizan el comportamiento de la variable de
respuesta cuantitativa en función de una variable predictora o regresora cuantitativa,
asumiendo una relación lineal o curvilínea entre ellas.

Regresión polinomial
Si se conocen datos cartesianos [ (𝑥0 , 𝑦0 ), (𝑥1 , 𝑦1 ), (𝑥2 , 𝑦2 ), … , (𝑥𝑛 , 𝑦𝑛 )], con 𝑥0 , 𝑥1 , 𝑥2 , … 𝑥𝑛
números distintos y se plantea determinar un polinomio 𝑃𝑚 (𝑥)
𝑃𝑚 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 + ⋯ + 𝑎𝑚 𝑥 𝑚 ; 𝑐𝑜𝑛 𝑚 < 𝑛
Tal que la suma de los errores al cuadrado
𝑛 𝑛

𝑆(𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚 ) = ∑(𝑃𝑚 (𝑥𝑖 ) − 𝑦𝑖 )2 = ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 − 𝑦𝑖 )2


𝑖=0 𝑖=0

Sea mínima
EI grado m del polinomio 𝑃𝑚 (𝑥) se puede escoger previamente con base en algún resultado
teórico, alguna expectativa o por la aplicación que se pretenda dar al polinomio. En
cualquier caso, se puede elegir el grado que parezca mejor. En muchos casos el grado es
igual a 1 uno y el polinomio obtenido se consiste en una curva lineal (recta) que mejor se
ajusta o la recta de mínimos cuadrados para la tabla de datos.
Una condición necesaria para la función 𝑆(𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚 ) sea mínima consiste en que las
derivadas parciales de 𝑆(𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚 ) con respecto a los coeficientes 𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚
sean nulas.
MCs José Machuca Mines
Regresión Polinomial

Resultan entonces m + 1 ecuaciones lineales con incógnitas 𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚 es decir:


𝑛
𝜕𝑆
= 2 ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 − 𝑦𝑖 ) = 0
𝜕𝑎0
𝑖=0
𝑛
𝜕𝑆
= 2 ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 − 𝑦𝑖 )𝑥𝑖 = 0
𝜕𝑎1
𝑖=0
𝑛
𝜕𝑆
= 2 ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 − 𝑦𝑖 )𝑥𝑖2 = 0
𝜕𝑎2
𝑖=0


𝑛
𝜕𝑆
= 2 ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 − 𝑦𝑖 )𝑥𝑖𝑚 = 0
𝜕𝑎𝑚
𝑖=0

Operando y adaptando las ecuaciones anteriores se obtiene:


𝑛

∑ 𝑎0 = (𝑛 + 1)𝑎0
𝑖=0
𝑛 𝑛 𝑛 𝑛

∑ 𝑎0 + (∑ 𝑥𝑖 ) 𝑎1 + ⋯ + (∑ 𝑥𝑖𝑚 ) 𝑎𝑚 = ∑ 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0 𝑖=0
𝑛 𝑛 𝑛 𝑛

(∑ 𝑥𝑖 ) 𝑎0 + (∑ 𝑥𝑖2 ) 𝑎1 + ⋯+ (∑ 𝑥𝑖𝑚+1 ) 𝑎𝑚 = ∑ 𝑥𝑖 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0 𝑖=0
𝑛 𝑛 𝑛 𝑛

(∑ 𝑥𝑖2 ) 𝑎0 + (∑ 𝑥𝑖3 ) 𝑎1 + ⋯+ (∑ 𝑥𝑖𝑚+2 ) 𝑎𝑚 = ∑ 𝑥𝑖2 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0


𝑛 𝑛 𝑛 𝑛

(∑ 𝑥𝑖𝑚 ) 𝑎0 + (∑ 𝑥𝑖𝑚+1 ) 𝑎1 + ⋯ + (∑ 𝑥𝑖2𝑚 ) 𝑎𝑚 = ∑ 𝑥𝑖𝑚 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0

Este es un sistema de m+1 ecuaciones lineales con m+1 incógnitas 𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑚


denominado sistema de ECUACIONES LINEALES. Este sistema de ecuaciones lineales o
normales se puede escribir en forma simplificada como sigue
𝑚 𝑛 𝑛
𝑗+𝑘 𝑗
∑ 𝑎𝑗 ∑ 𝑥𝑖 = ∑ 𝑥𝑖 𝑦𝑖 ; 𝑘 = 0, 1, 2, ⋯ , 𝑚
𝑗=0 𝑖=0 𝑖=0

Estas ecuaciones se pueden obtener a partir de

𝑃𝑚 (𝑥𝑖 ) = 𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚 = 𝑦𝑖


MCs José Machuca Mines
Regresión Polinomial

Multiplicando a ambos extremos por 𝑥𝑖𝑘 ; 𝑘 = 0, 1, 2, ⋯ , 𝑚

𝑎0 𝑥𝑖𝑘 + 𝑎1 𝑥𝑖1+𝑘 + 𝑎2 𝑥𝑖2+𝑘 + ⋯ + 𝑎𝑚 𝑥𝑖𝑚+𝑘 = 𝑥𝑖𝑘 𝑦𝑖

Luego sumando sobre i.


𝑛 𝑛 𝑛 𝑛 𝑛

𝑎0 ∑ 𝑥𝑖𝑘 + 𝑎1 ∑ 𝑥𝑖1+𝑘 + 𝑎2 ∑ 𝑥𝑖2+𝑘 + ⋯ + 𝑎𝑚 ∑ 𝑥𝑖𝑚+𝑘 = ∑ 𝑥𝑖𝑘 𝑦𝑖 ; 𝑘 = 0, 1, 2, ⋯ , 𝑚


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0

La matriz de coeficientes del sistema de ecuaciones normales es simétrica y no singular.


siempre que los valores de 𝑥𝑖 ; 𝑖 = 0, 1, 2, ⋯ , 𝑛 sean distintos, por lo tanto, el sistema tiene
solución única. Aunque la matriz puede estar mal condicionada cuando m es grande.
Una manera de medir el error para estimar la bondad del ajuste aplicando mínimos
cuadrados, es mediante las siguientes expresiones.
El error E
𝑛

𝐸 = ∑(𝑃𝑚 (𝑥𝑖 ) − 𝑦𝑖 )2
𝑖=0

Error cuadrático medio

∑𝑛𝑖=0(𝑃𝑚 (𝑥𝑖 ) − 𝑦𝑖 )2
𝐸𝑅𝑀𝑆 = √
𝑛+1

El coeficiente de correlación r se expresa mediante la siguiente ecuación


(𝑛 + 1) ∑𝑛+1 𝑛+1 𝑛+1
𝑖=0 𝑥𝑖 𝑦𝑖 − (∑𝑖=0 𝑥𝑖 )(∑𝑖=0 𝑦𝑖 )
𝑟=
2 2
√(𝑛 + 1) ∑𝑛+1 2 𝑛+1
𝑖=0 𝑥𝑖 − (∑𝑖=0 𝑥𝑖 )
√(𝑛 + 1) ∑𝑛+1 2 𝑛+1
𝑖=0 𝑦𝑖 − (∑𝑖=0 𝑦𝑖 )

MCs José Machuca Mines


Regresión Polinomial

APLICACIÓN
Se ha realizado una cantidad finita de experimentos obteniendo 26 valores reales para las
coordenadas (𝑥𝑖 , 𝑦𝑖 ) que se muestran en la siguiente figura y se requiere obtener las
ecuaciones de regresiones: lineal, cuadrática y cúbica. Determinar además cuál es la
regresión más precisa, en base de los errores al cuadrado.

Distribución de los datos obtenidos en coordenadas cartesianas X-Y

Solución
Primero se deben expresar las ecuaciones correspondientes de las funciones polinómicas
candidatas a obtener.
Ecuación lineal:
𝑃1 (𝑥) = 𝑎0 + 𝑎1 𝑥
Ecuación cuadrática:
𝑃2 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2
Ecuación cúbica:
𝑃3 (𝑥) = 𝑎0 + 𝑎1 𝑥 + 𝑎2 𝑥 2 + 𝑎3 𝑥 3
El sistema de ecuaciones lineales (normales) para obtener a la vez se obtengan las
ecuaciones de las regresiones: lineal, cuadrática y cúbica para 26 valores de pares
ordenados se expresan como:

MCs José Machuca Mines


Regresión Polinomial
25 25 25 25 25

∑ 𝑎0 + (∑ 𝑥𝑖 ) 𝑎1 + (∑ 𝑥𝑖2 ) 𝑎2 + (∑ 𝑥𝑖3 ) 𝑎3 = ∑ 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 25

(∑ 𝑥𝑖 ) 𝑎0 + (∑ 𝑥𝑖2 ) 𝑎1 + (∑ 𝑥𝑖3 ) 𝑎2 + (∑ 𝑥𝑖4 ) 𝑎3 = ∑ 𝑥𝑖 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 25

(∑ 𝑥𝑖2 ) 𝑎0 + (∑ 𝑥𝑖3 ) 𝑎1 + (∑ 𝑥𝑖4 ) 𝑎2 + (∑ 𝑥𝑖5 ) 𝑎3 = ∑ 𝑥𝑖2 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 25

(∑ 𝑥𝑖3 ) 𝑎0 + (∑ 𝑥𝑖4 ) 𝑎1 + (∑ 𝑥𝑖5 ) 𝑎2 + (∑ 𝑥𝑖6 ) 𝑎3 = ∑ 𝑥𝑖3 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0

Las expresiones lineales anteriores también se pueden expresar mediante una


representación matricial
Para la regresión lineal:
25 25

𝑛+1 ∑ 𝑥𝑖 𝑎0 ∑ 𝑦𝑖
𝑖=0 𝑖=0
25 25 [ ]= 25

∑ 𝑥𝑖 ∑ 𝑥𝑖2 𝑎1 ∑ 𝑥𝑖 𝑦𝑖
[ 𝑖=0 𝑖=0 ] [ 𝑖=0 ]
Para la regresión cuadrática:
25 25 25

𝑛+1 ∑ 𝑥𝑖 ∑ 𝑥𝑖2 𝑎0 ∑ 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0
25 25 25 25

∑ 𝑥𝑖 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 𝑎1 = ∑ 𝑥𝑖 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25

∑ 𝑥𝑖2 ∑ 𝑥𝑖3 ∑ 𝑥𝑖4 [𝑎2 ] ∑ 𝑥𝑖2 𝑦𝑖


[ 𝑖=0 𝑖=0 𝑖=0 ] [ 𝑖=0 ]
Para la regresión cúbica:

MCs José Machuca Mines


Regresión Polinomial
25 25 25 25

𝑛+1 ∑ 𝑥𝑖 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 𝑎0 ∑ 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 25

∑ 𝑥𝑖 ∑ 𝑥𝑖2 ∑ 𝑥𝑖3 ∑ 𝑥𝑖4 𝑎1 ∑ 𝑥𝑖 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 = 25

∑ 𝑥𝑖2 ∑ 𝑥𝑖3 ∑ 𝑥𝑖4 ∑ 𝑥𝑖5 𝑎2 ∑ 𝑥𝑖2 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0 𝑖=0 𝑖=0
25 25 25 25 25

∑ 𝑥𝑖3 ∑ 𝑥𝑖4 ∑ 𝑥𝑖5 ∑ 𝑥𝑖6 [𝑎3 ] ∑ 𝑥𝑖3 𝑦𝑖


[ 𝑖=0 𝑖=0 𝑖=0 𝑖=0 ] [ 𝑖=0 ]
Los valores de los pares cartesianos X-Y son los siguientes:
(𝑋𝑖 , 𝑌𝑖 ) = [(-5.00, -16.40), (-4.20, -14.86), (-3.40, -10.74), (-2.60, -8.40), (-1.80, -6.06),
(-1.00, -4.06), (-0.20, -1.73), (0.60, 3.30), (1.40, 5.26), (2.20, 6.94), (3.00, 10.62),
(3.80, 15.08), (4.60, 18.85), (5.40, 21.38), (6.20, 25.40), (7.00, 28.60), (7.80, 31.83),
(8.60, 33.87), (9.40, 36.98), (10.20, 36.85), (11.00, 39.86), (11.80, 40.81), (12.60, 42.03),
(13.40, 43.81), (14.20, 44.49), (15.00, 45.07)]
O sea:
𝑋𝑖 =[ -5.00 -4.20 -3.40 -2.60 -1.80 -1.00 -0.20 0.60 1.40 2.20 3.00 3.80 4.60 5.40 6.20
7.00 7.80 8.60 9.40 10.20 11.00 11.80 12.60 13.40 14.20 15.00]
𝑌𝑖 =[-16.40 -14.86 -10.74 -8.40 -6.06 -4.06 -1.73 3.30 5.26 6.94 10.62 15.08 18.85
21.38 25.40 28.60 31.83 33.87 36.98 36.85 39.86 40.81 42.03 43.81 44.49 45.07];
De los datos el coeficiente de correlación r es igual a
r=0.9915

Realizando el cálculo de las sumatorias se obtiene:

MCs José Machuca Mines


Regresión Polinomial

Solución de regresión lineal


26 130 𝑎0 468.780
[ ] [𝑎 ] = [ ]
130 1586 1 5499.196
La ecuación matricial anterior es equivalente a:
26 130 𝑎0 468.780
[ ] [𝑎 ] = [ ]
0 936 1 3155.296
La solución es:
𝑎0 = 1.1747863 , 𝑎1 = 3.371042735
La ecuación de la curva de regresión lineal es igual a
𝑦 = 1.1747863 + 3.371042735𝑥
Solución de regresión cuadrática
26 130 1586 𝑎0 468.780
[ 130 1586 𝑎
17290 ] [ 1 ] = [ 5499.196 ]
1586 17290 217182.992 𝑎2 58581.0264
La ecuación matricial anterior es equivalente a:
26 130 1586 𝑎0 468.780
[0 936 9360 ] [ 𝑎1 ] = [ 3155.296 ]
0 0 26836.992 𝑎2 −1567.5136
La solución es:
𝑎0 = 1.817281937, 𝑎1 = 3.955129655 𝑎2 = −0.05840869
La ecuación de la curva de regresión lineal es igual a
𝑦 = 1.817281937 + 3.955129655𝑥 − 0.05840869𝑥 2
Solución de regresión cúbica
26 130 1586 17290 𝑎0 468.780
130 1586 17290 217182.992 𝑎1 5499.196
[ ] [𝑎 ] = [ ]
1586 17290 217182.992 2764574.8 2 58581.0264
17290 217182.992 2764574.8 36532380.0608 𝑎3 721588.7416

La ecuación matricial anterior es equivalente a:


26 130 1586 17290 𝑎0 468.780
0 936 9360 130732.992 𝑎1 3155.296
[ ] [𝑎 ] = [ ]
0 0 26836.992 402554.88 2 −1567.5136
0 0 0 736468.402176 𝑎3 −7343.757312
La solución es:
𝑎0 = −0.16068167, 𝑎1 = 3.85214312, 𝑎2 = 0.09116508, 𝑎2 = −0.009971585
MCs José Machuca Mines
Regresión Polinomial

La ecuación de la curva de regresión lineal es igual a


𝑦 = −0.16068167 + 3.85214312𝑥 + 0.09116508𝑥 2 − 0.009971585𝑥 3

La suma de errores al cuadrado o errores E de cada ajuste es


𝑛

𝐸1 = 𝑆𝐿𝑖𝑛𝑒𝑎𝑙 = ∑(𝑎0 + 𝑎1 𝑥𝑖 − 𝑦𝑖 )2 = 182.1515


𝑖=0
𝑛

𝐸2 = 𝑆𝐶𝑢𝑎𝑑𝑟á𝑡𝑖𝑐𝑎 = ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 − 𝑦𝑖 )2 = 90.5951


𝑖=0
𝑛

𝐸3 = 𝑆𝐶ú𝑏𝑖𝑐𝑎 = ∑(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + 𝑎3 𝑥𝑖3 − 𝑦𝑖 )2 = 17.3662


𝑖=0

El error cuadrático medio para cada regresión polinómica es

∑𝑛𝑖=0(𝑎0 + 𝑎1 𝑥𝑖 − 𝑦𝑖 )2
𝐸1𝑅𝑀𝑆 = √ = 2.6469
𝑛+1

MCs José Machuca Mines


Regresión Polinomial

∑𝑛𝑖=0(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 − 𝑦𝑖 )2
𝐸2𝑅𝑀𝑆 =√ = 1.8667
𝑛+1

∑𝑛𝑖=0(𝑎0 + 𝑎1 𝑥𝑖 + 𝑎2 𝑥𝑖2 + 𝑎3 𝑥𝑖3 − 𝑦𝑖 )2


𝐸3𝑅𝑀𝑆 =√ = 0.8173
𝑛+1

Regresión lineal múltiple


Una extensión útil de la regresión lineal es el caso en el polinomio es una función lineal de
dos o más variables independientes. La expresión general de regresión múltiple se formula
como
𝑓(𝒙) = 𝑎0 + 𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯ + 𝑎𝑚 𝑥𝑚 + 𝑒
De forma particular se ilustra un ejemplo de una función lineal de 𝑥1 y 𝑥2 como
𝑓(𝒙) = 𝑎0 + 𝑎1 𝑥1 + 𝑎2 𝑥2 + 𝑒
Este es el caso más simple de una regresión bidimensional, la “línea” de regresión se
convierte en un “plano”.

Los “mejores” valores para los coeficientes se determinan al minimizar la suma de los
cuadrados de los errores considerando 𝑓𝑖 (𝒙) = 𝑦𝑖 .
𝑛

𝑆𝑞 (𝑎0 , 𝑎1 , 𝑎2 ) = ∑(𝑎0 + 𝑎1 𝑥1𝑖 + 𝑎2 𝑥2𝑖 − 𝑦𝑖 )2


𝑖=0

Derivando con respecto a cada uno de los coeficientes se obtiene

MCs José Machuca Mines


Regresión Polinomial
𝑛
𝜕𝑆𝑞
= 2 ∑(𝑎0 + 𝑎1 𝑥1𝑖 + 𝑎2 𝑥2𝑖 − 𝑦𝑖 ) = 0
𝜕𝑎0
𝑖=0
𝑛
𝜕𝑆𝑞
= 2 ∑(𝑎0 + 𝑎1 𝑥1𝑖 + 𝑎2 𝑥2𝑖 − 𝑦𝑖 )𝑥1𝑖 = 0
𝜕𝑎1
𝑖=0
𝑛
𝜕𝑆𝑞
= 2 ∑(𝑎0 + 𝑎1 𝑥1𝑖 + 𝑎2 𝑥2𝑖 − 𝑦𝑖 )𝑥2𝑖 = 0
𝜕𝑎2
𝑖=0

Los coeficientes que generan la suma mínima de los cuadrados de los residuos se obtienen
al igualar a cero las derivadas parciales y expresando el resultado en forma matricial.
𝑛 𝑛 𝑛

𝑛+1 ∑ 𝑥1𝑖 ∑ 𝑥2𝑖 𝑎0 ∑ 𝑦𝑖


𝑖=0 𝑖=0 𝑖=0
𝑛 𝑛 𝑛 𝑛
2
∑ 𝑥1𝑖 ∑ 𝑥1𝑖 ∑ 𝑥1𝑖 𝑥2𝑖 𝑎1 = ∑ 𝑥1𝑖 𝑦𝑖
𝑖=0 𝑖=0 𝑖=0 𝑖=0
𝑛 𝑛 𝑛 𝑛
2
∑ 𝑥2𝑖 ∑ 𝑥1𝑖 𝑥2𝑖 ∑ 𝑥2𝑖 [𝑎2 ] ∑ 𝑥2𝑖 𝑦𝑖
[ 𝑖=0 𝑖=0 𝑖=0 ] [ 𝑖=0 ]

Ejemplo
Se han registrado los siguientes datos.
X=[-3.00, -2.50, -2.00, -1.50, -1.00, -0.50, 0, 0.50, 1.00, 1.50, 2.00, 2.50, 3.00, 3.50, 4.00,
4.50, 5.00, 5.50, 6.00, 6.50, 7.00, 7.50, 8.00, 8.50, 9.00]
Y=[-3.55, -1.67, 0.23, 1.23, 1.27, 1.50, 4.06, 3.83, 6.21, 4.60, 7.10, 8.65, 8.04, 9.51,
10.06, 11.47, 12.71, 14.15, 13.65, 16.16, 16.32, 17.22, 18.23, 18.96, 22.37]
Z=[-5.99, -5.30, -4.53, -5.46, -3.65, -3.16, -2.75, -0.44, 2.13, 2.97, 3.79, 4.53, 5.07,
7.00, 9.10, 10.24, 10.66, 12.43, 13.18, 12.34, 14.89, 15.42, 15.60, 16.92, 18.24]
Realizar una regresión lineal múltiple.

Solución
Los cálculos a realizar son
n=24
𝑎11 = 25
24

𝑎12 = 𝑎21 = ∑ 𝑋𝑖 = 75.00


𝑖=0
MCs José Machuca Mines
Regresión Polinomial
24

𝑎13 = 𝑎31 = ∑ 𝑌𝑖 = 222.31


𝑖=0
24

𝑎22 = ∑ 𝑋𝑖2 = 550.00


𝑖=0
24

𝑎23 = 𝑎32 = ∑ 𝑋𝑖 𝑌𝑖 = 1290.645


𝑖=0
24

𝑎33 = ∑ 𝑌𝑖2 = 3189.1123


𝑖=0
24

𝑏1 = ∑ 𝑍𝑖 = 143.23
𝑖=0
24

𝑏2 = ∑ 𝑋𝑖 𝑍𝑖 = 1134.775
𝑖=0
24

𝑏3 = ∑ 𝑌𝑖 𝑍𝑖 = 2621.8982
𝑖=0

Expresando la ecuación matricial numéricamente se obtiene:


25.00 75.00 222.31 𝑎0 143.23
[ 75.00 550.00 𝑎
1290.645 ] [ 1 ] = [ 1134.775 ]
222.31 1290.645 3189.1123 𝑎2 2621.8982
La solución es:
𝑎0 = 0.22863942, 𝑎1 = 2.7864928 𝑎2 = −0.32150126
La ecuación de la curva de regresión lineal es igual a
𝑧 = 0.2286394224 + 2.7864928 𝑥 − 0.32150126y
De forma gráfica se obtiene

MCs José Machuca Mines


Regresión Polinomial

MCs José Machuca Mines


Regresión Polinomial

MCs José Machuca Mines

También podría gustarte