Está en la página 1de 13

Universidad Autónoma de Querétaro

Facultad de Ingenierı́a
Ingenierı́a Fı́sica

Regresión Polinomial

Alumno: Correo electrónico:


Ubaldo López Mejı́a angelhernandezlopez894@gmail.com

11 de mayo de 2020
Índice general

Capı́tulos Página
1. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1. Regresión Polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2. Regresión Lineal Múltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Formulación general de una matriz para mı́nimos cuadrados lineales . . . . . . . . . . 3
2. Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1. Regresión Polinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2. Regresión lineal múltiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3. Problemario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.1. Problema 17.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4. Código . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2/11

1. Resumen
1.1. Regresión Polinomial
El procedimiento de mı́nimos cuadrados se puede extender fácilmente al ajuste de datos con un polinomio
de grado superior. Por ejemplo, suponga que ajustamos un polinomio de segundo grado o cuadrático:

y = a0 + a1 x + a2 x2 + e

En este caso, la suma de los cuadrados de los residuos es


n
X
Sr = (y − a0 − a1 xi − a2 x2i )2 (1)
i=1

Obtenemos la derivada de la anterior ecuación con respecto a cada uno de los coeficientes desconocidos
del polinomio,

∂Sr
= −2 (yi − a0 − a1xi − a2 x2i )
P
∂a0

∂Sr
= −2 [(yi − a0 − a1xi − a2 x2i )xi ]
P
∂a1

∂Sr
= −2 [(yi − a0 − a1xi − a2 x2i )x2i ]
P
∂a1
Estas ecuaciones se igualan a cero y se reordenan para desarrollar el siguiente conjunto de ecuaciones
normales:

x2i a2 =
P P P
(n)a0 + ( xi ) ai + yi
P P 2 P 3 P
( xi ) a 0 + xi a1 + xi a2 = xi yi (2)
 P 3 P 4
x2i a0 + xi a2 = x2i yi
P P
xi a1 +

donde todas las sumatorias van desde i = 1 hasta n. Observe que las tres ecuaciones anteriores son lineales
y tienen tres incógnitas: a0 , a1 y a2 . Los coeficientes de las incógnitas se evalúan de manera directa, a partir
de los datos observados. En este caso, observamos que el problema de determinar un polinomio de segundo
grado por mı́nimos cuadrados es equivalente a resolver un sistema de tres ecuaciones lineales simultáneas.
El caso bidimensional se extiende con facilidad a un polinomio de m-ésimo grado como sigue

y = a0 + a1 x + a2 x2 + · · · + am xm + e

El análisis anterior se puede extender fácilmente a este caso más general. Ası́, se reconoce que la deter-
minación de los coeficientes de un polinomio de m-ésimo grado es equivalente a resolver un sistema de m + 1
ecuaciones lineales simultáneas. En este caso, el error estándar se formula como sigue:
s
Sr
Sy/x = (3)
n − (m + 1)

1.2. Regresión Lineal Múltiple


Una extensión útil de la regresión lineal es el caso en el que y es una función lineal de dos o más variables
independientes. Por ejemplo, y podrı́a ser una función lineal de x1 y x2 , como en

y = a0 + a1 x1 + a2 x2 + e

Métodos Numéricos 2 angelhernandezlopez894@gmail.com


3/11

Los “mejores” valores para los coeficientes se determinan al realizar la suma de los cuadrados de los
residuos,
n
X
Sr = (yi − a0 − a1 x1i − a2 x2i )2 (4)
i=1

y derivando con respecto a cada uno de los coeficientes desconocidos,

∂Sr P
= −2 (yi − a0 − a1x1i − a2 x2i )
∂a0

∂Sr P
= −2 [(yi − a0 − a1x1i − a2 x2i )x1i ]
∂a1

∂Sr P
= −2 [(yi − a0 − a1x1i − a2 x2i )x2i ]
∂a1
Los coeficientes que dan la suma mı́nima de los cuadrados de los residuos se obtienen al igualar a cero
las derivadas parciales y expresando el resultado en forma matricial:
 P P    P 
n x1i x2i 
 a0 
 
 yi  
    
 

P    P 
x21i
P P
 x1i x1i x2i  a1 =
 x1i yi (5)

 


 
 

P P P 2    
P 

x2i x1i x2i x2i a2 x2i yi
   

El caso bidimensional anterior fácilmente se extiende a m dimensiones ası́

y = a0 + a1 x1 + a2 x2 + · · · + am xm + e

donde el error estándar se formula como


s
Sr
Sy/x =
n − (m + 1)

La regresión lineal múltiple tiene además utilidad en la obtención de ecuaciones de potencias de la forma
general

y = a0 xa1 1 xa2 2 · · · xamm

Tales ecuaciones son extremadamente útiles cuando se ajustan datos experimentales. Para usar regresión
lineal múltiple, la ecuación se transforma al aplicar logaritmos:

log y = log a0 + a1 log x1 + a2 log x2 + · · · + am log xm

1.3. Formulación general de una matriz para mı́nimos cuadrados lineales


La ecuación

y = a0 z0 + a1 z1 + a2 z2 + · · · + am zm + e (6)

se expresa en notación matricial como

{Y } = [Z]{A} + {E}

donde [Z] es una matriz de los valores calculados de las funciones z en los valores medidos de las variables
independientes,

angelhernandezlopez894@gmail.com 3 Métodos Numéricos


4/11

 
z01 z11 ··· zm1
 z02 z12 ··· zm2 
[Z] =  .
 
.. .. .. 
 .. . . . 
z0n z1n ··· zmn
donde m es el número de variables en el modelo y n es el número de datos.
El vector columna {Y } contiene los valores observados de la variable dependiente

{Y }T = y1
 
y2 ··· yn
El vector columna {A} contiene los coeficientes desconocidos

{A}T = a0
 
a1 ··· am
y el vector columna {E} contiene los residuos

{E}T = e1
 
e2 ··· en
La suma de los cuadrados de los residuos en este modelo se definen como
 2
n
X m
X
Sr = yi − aj zji 
i=1 j=0

Esta cantidad se minimiza tomando las derivadas parciales con respecto a cada uno de los coeficientes
e igualando a cero la ecuación resultante. El resultado de este proceso son las ecuaciones normales, que se
expresan en forma matricial como

[[Z]T [Z]]{A} = {[Z]T {Y }} (7)

2. Ejercicios Resueltos
2.1. Regresión Polinomial
Ajustar a un polinomio de segundo grado los datos dados en las dos primeras columnas de la tabla 1.

xi yi (yi − y)2 (yi − a0 − a1 xi − a2 x2i )2


0 2.1 544.44 0.14332
1 7.7 314.47 1.00286
2 13.6 140.03 0.08158
3 27.2 3.12 0.80491
4 40.9 239.22 0.61951
5
P 61.1 1272.11 0.09439
152.6 2513.39 3.74657

Tabla 1: Cálculos para un análisis de error del ajuste cuadrático por mı́nimos cuadrados

A partir de los datos dados,

x4i = 979
P P
m=2 xi = 15
P P
n=6 yi = 152,6 xi yi = 585,6

x2i = 55 x2i yi = 2488,8


P P
x = 2,5

x3i = 225
P
y = 25,433

Métodos Numéricos 4 angelhernandezlopez894@gmail.com


5/11

Entonces, las ecuaciones lineales simultáneas son


    
6 15 55 a0   152,6 
15 55 225 a1 = 585,6
55 225 979 a2 2488,8
   

Resolviendo estas ecuaciones con una técnica como la eliminación de Gauss se tiene a0 = 2,47857,
a1 = 2,35929 y a2 = 1,86071. Por lo tanto, la ecuación cuadrática por mı́nimos cuadrados en este caso es

y = 2,47857 + 2,35929x + 1,86071x2


El error estándar de la estimación con base en la regresión polinomial es
r
3,74657
sy/x = = 1,12
6−3
El coeficiente de determinación es
2513,39 − 3,74657
r2 = = 0,99851
2513,39
y el coeficiente de correlación es r = 0,99925.
Estos resultados indican que con el modelo se explicó el 99,851 % de la incertidumbre original. Este
resultado apoya la conclusión de que la ecuación cuadrática representa un excelente ajuste, como también
es evidente en la figura 1.

Figura 1: Ajuste de un polinomio de segundo grado.

2.2. Regresión lineal múltiple


Los siguientes datos se calcularon con la ecuación y = 5 + 4x1 –3x2 :
x1 x2 y
0 0 5
2 1 10
2.5 2 9
1 3 0
4 6 3
7 2 27
Utilice la regresión múltiple para ajustar estos datos.
Las sumatorias requeridas se calculan en la tabla (2). El resultado es

angelhernandezlopez894@gmail.com 5 Métodos Numéricos


6/11

    
6 16,5 14 a0   54 
16,5 76,25 48 a1 = 243,5
14 48 54 a2 100
   

que se resuelve mediante un método como el de eliminación de Gauss, obteniéndose

a0 = 5 a1 = 4 a2 = −3

que es consistente con la ecuación original, de la cual se obtienen los datos.

y x1 x2 x21 x22 x1 x2 x1 y x2 y
5 0 0 0 0 0 0 0
10 2 1 4 1 2 20 10
9 2.5 2 6.26 4 5 22.5 18
0 1 3 1 9 3 0 0
3 4 6 16 36 24 12 18
P 27 7 2 49 4 14 189 54
54 16.5 14 76.25 54 48 243.5 100

Tabla 2: Cálculos requeridos para desarrollar las ecuaciones normales

En las siguientes figuras se muestra el plano que surge de la regresión lineal múltiple.

Figura 2: Plano de la regresión lineal múltiple.

Métodos Numéricos 6 angelhernandezlopez894@gmail.com


7/11

Figura 3: Plano de la regresión lineal múltiple.

3. Problemario

3.1. Problema 17.17

Ajuste una ecuación cúbica a los datos siguientes

x 3 4 5 7 8 9 11 12
y 1.6 3.6 4.4 3.4 2.2 2.8 3.8 4.6

Tabla 3: Datos a evaluar

Además de los coeficientes, determine r2 y Sy/x .


Se obtienen los siguientes datos

a3 = 0,04667602
a2 = −1,04120692
a1 = 7,14381722
a0 = −11,48870718
Sy/x = 0,570031
r2 = 0,828981

Entonces la ecuación serı́a

y = 0,04667602x3 − 1,04120692x2 + 7,14381722x − 11,48870718

La lı́nea se muestra en la siguiente figura.

angelhernandezlopez894@gmail.com 7 Métodos Numéricos


8/11

Figura 4: Gráfica de regresión polinomial cúbica.

El modelo explica el 82,8981 % de la incertidumbre original.

4. Código
Código usado para la regresión polinomial.
1 im po rt numpy a s np
2 from m a t p l o t l i b im por t p y p l o t
3 im po rt p y l a b a s p l
4
5 n=i n t ( i n p u t ( ’ \ n I n t r o d u z c a e l número de d a t o s : ’ ) )
6 g=i n t ( i n p u t ( ’ \ n I n t r o d u z c a e l grado d e l p o l i n o m i o : ’ ) )
7 m=g
8
9 x=np . z e r o s ( n )
10 y=np . z e r o s ( n )
11
12 p r i n t ( ” \ n I n t r o d u z c a cada dato x : ” )
13 f o r i in range (n) :
14 x [ i ] = input ()
15
16 p r i n t ( ” \ n I n t r o d u z c a cada dato y : ” )
17
18 f o r i in range (n) :
19 y [ i ] = input ()
20
21 # A j u s t e a una r e c t a ( v a r i a b l e 1 , v a r i a b l e 2 , grado )
22 p = np . p o l y f i t ( x , y , g )
23
24 p r i n t ( ’ \n [ a2 , a1 , a0 ]=\n ’ )
25 print (p)
26
27 Sr = [ ]
28
29 f o r i in range (n) :
30 Sr . append ( ( y [ i ]−p [ 3 ] − p [ 2 ] ∗ x [ i ]−p [ 1 ] ∗ x [ i ]∗∗2 −p [ 0 ] ∗ x [ i ] ∗ ∗ 3 ) ∗ ∗ 2 )
31
32 s r=sum ( Sr )

Métodos Numéricos 8 angelhernandezlopez894@gmail.com


9/11

33
34 syx=np . s q r t ( s r / ( n−(m+1) ) )
35
36 ym=sum ( y ) /n
37 Ym= [ ]
38
39 f o r i in range (n) :
40 Ym. append ( ( y [ i ]−ym) ∗ ∗ 2 )
41
42 ym1=sum (Ym)
43
44 r 2 =(ym1−s r ) /ym1
45
46 r=np . s q r t ( r 2 )
47
48 p r i n t ( ’ \ n E r r o r e s t a n d a r de l a e s t i m a c i o n : ’ , syx )
49 p r i n t ( ’ \ n C o e f i c i e n t e de d e t e r m i n a c i o n : ’ , r 2 )
50 p r i n t ( ’ \ n C o e f i c i e n t e de c o r r e l a c i o n : ’ , r )
51
52 p r i n t ( ’ \ nEl modelo e x p l i c a e l ’ , r 2 ∗ 1 0 0 , ’ % de l a i n c e r t i d u m b r e o r i g i n a l ’ )
53
54 x r=np . a r a n g e ( 0 , 1 0 0 )
55 y r=p [ 0 ] ∗ x r ∗∗3+p [ 1 ] ∗ x r ∗∗2+p [ 2 ] ∗ x r+p [ 3 ]
56
57 p l . s c a t t e r ( x , y , c o l o r= ’ b l a c k ’ )
58 p l . p l o t ( xr , yr , ’ b ’ )
59 pl . xlim ( [ x [ 0 ] , x [ n − 1 ] ] )
60 pl . ylim ( [ y [ 0 ] , y [ n − 1 ] ] )
61 #p l . x t i c k s ( ( ) )
62 #p l . y t i c k s ( ( ) )
63 p l . show ( )
Listing 1: Regresión Polinomial Cúbica

angelhernandezlopez894@gmail.com 9 Métodos Numéricos


Código para graficar en 3d.
1 from m p l t o o l k i t s . mplot3d im po rt Axes3D # Permite a g r e g a r e j e t r i d i m e n s i o n a l e s
2
3 f i g = p y p l o t . f i g u r e ( f i g s i z e =(8 , 6 ) ) # A j u s t e s d e l g r á f i c o
4 ax = Axes3D ( f i g )
5
6 x1 = np . a r r a y ( [ 0 , 2 , 2 . 5 , 1 , 4 , 7 ] ) # Datos e j e X
7 x2 = np . a r r a y ( [ 0 , 1 , 2 , 3 , 6 , 2 ] ) # Datos e j e Y
8 y = np . a r r a y ( [ 5 , 1 0 , 9 , 0 , 3 , 2 7 ] )
9
10 d e f f ( x1 , x2 ) :
11 r e t u r n 5+4∗x1−3∗x2
12
13 x r 1 = np . l i n s p a c e ( −6 , 6 , 3 0 )
14 x r 2 = np . l i n s p a c e ( −6 , 6 , 3 0 )
15
16 X, Y = np . m e s h g r i d ( xr1 , x r 2 )
17 Z = f (X, Y)
18
19 f i g=p y p l o t . f i g u r e ( )
20 #ax=p y p l o t . a x e s ( p r o j e c t i o n = ’3d ’ )
21 ax . s c a t t e r ( x1 , x2 , y , marker= ’ o ’ , c= ’ r ’ )
22 ax . contour3D (X, Y, Z , 5 0 , cmap= ’ b i n a r y ’ )
23 ax . s e t x l a b e l ( ’ $ x 1 $ ’ ) # Etiqueta del e j e X
24 ax . s e t y l a b e l ( ’ $ x 2 $ ’ ) # Etiqueta del e j e Y
25 ax . s e t z l a b e l ( ’ $y$ ’ ) # E t i q u e t a d e l e j e Z ( Var . R e s p u e s t a )
26 ax . v i e w i n i t ( 1 0 , 1 5 )
27 fig
Listing 2: Gráfica 3d
11

Bibliografı́a

[1] Steven C. Chapra & Raymund P.Conale, Métodos numéricos para ingenieros, 6a ed., J. Peters, Ed.
México: McGraw-Hill, 2011, pp. 429-439.

También podría gustarte