Está en la página 1de 23

Departamento de Informática

FCEFN-UNSJ
D
Dra. María
M í L.L G
Gordillo
dill
2015

Clase 5
¿Para qué ajustar datos?
1. Datos: valores discretos en un continuo. Se requiere estimar
(aproximar) entre los valores discretos.

2. Versión simplificada de f(x) en [P,Q] ( r aproxima a f(x) en [P,Q]). 

f(x)
P Q
¿Para qué ajustar datos?
Análisis de tendencia: Se desarrollan relaciones predictivas a partir de datos 
experimentales, para predecir valores sobre puntos de variable dependiente 
no tabulados:
t b l d

Extrapolación
p ((fuera de los límites de los datos 
observados)
p
Interpolación (dentro del rango de los datos)
g

Regresión por mínimos cuadrados (tb. en el rango de 
g p ( g
datos)
Ajuste de datos
j
Razones
para
ajustar
j
a) El grado de error asociado con los datos (origen de los
datos mismos)
b) Cantidad de datos tabulados.

1. Los datos exhiben “mucho” error o ruido, se los ajusta por una curva que
representa la tendencia general: MÉTODO DE MÍNIMOS CUADRADOS.
2 Muchos
2. M h d t
datos (
(aunque sean muy precisos)
i ) ajuste
j t por MÉTODO DE
MÍNIMOS CUADRADOS.
3.   Datos muy precisos, y no demasiados: se los ajusta a una curva que pasa 
por cada uno de los puntos datos MÉTODO DE INTERPOLACIÓN.
d d l t d t MÉTODO DE INTERPOLACIÓN
a) b)




c) Dependencia no funcional
d)


D
Dependencia
d i funcional
f i l

Dependencia funcional
Figura 1.
Regresión o Relación

¿Cuándo existe regresión (relación) entre x e y?
Se deduce observando el conjunto de datos o nube de puntos {xi,yi}i=1…,m
i=1 m .
(Primera idea acerca de si hay relación (dependencia) de y respecto de x.

R l ió o dependencia
Relación d d i de d y respecto de
d x:
• Dependencia funcional y = f ( x )
• Dependencia no funcional (relación que no es función).

1° Dependencia funcional :  la relación es función y = f ( x ) (Fig. 1.(c), y  1.(d)): los puntos de la 


nube aparecen sobre la gráfica de una función  y=f ( x ). 

Ej: ‐ en Fig. 1.(c) la función sería  y = a +b x .
‐ en Fig. 1.(e) la función sería  y = a +b x+c x2 .
Regresión o Relación
o Relación

2° Dependencia no funcional : no existe una dependencia funcional perfecta 
pero ocurre otro tipo de dependencia o relación menos rigurosa (Figura 
1.(a) y 1.(b)).
Ejemplos:
y = a +b x +e (Fig. 1.(a )), o y = a +b x +c x2+e (Fig. 1.(b )) 

e error o (residuo), debido a diferentes causas:
error o (residuo) debido a diferentes causas:

1‐ no incluir variables en el modelo importantes a la hora de explicar el 
comportamiento de y, cuyos efectos sean diferentes a la sola implicancia 
de x en y;
2- errores aleatorios o de medida (falta de precisión en los datos);

3‐ mala especificación  del modelo.
Ejemplo: Nube de puntos
Supongamos tener las alturas y los pesos de 30 individuos representados
en el siguiente diagrama; queremos ajustar los datos a un polinomio de
grado 1, (debido a la tendencia que se observa en la nube de puntos.

Variable dependiente y (peso)

100
90
Pesa 83 kg.
80
70
60
50

Pesa4054 kg.
30
140 150 160 170 180 190 200

Mide 163 cm. Mide 197 cm.

V i bl independiente
Variable i d di t x (altura)
( lt )

8
Ejemplo: Nube de puntos
Si queremos utilizar polinomios de grado 1 en el ajuste:
¿cuál es la recta que aproxima o ajusta mejor esos datos?
III
I

100
90 II

80
70
60
50
Tomar un criterio de
40 aproximación que diga no
solo la ordenada al origen de
30 la recta sino también su
140 150 160 170 180 pendiente
190 200

9
Ajuste por Mínimos cuadrados
Ajuste por Mínimos cuadrados
(En este curso sólo utilizaremos polinomios para ajustar datos por el método de los mínimos cuadrados)
El método consiste en determinar los coeficientes de un polinomio de un
grado previamente determinado de modo tal que se minimice la suma
de los cuadrados de los errores:

Sea yˆ ( x)=P( x)  a0  a1 x  a2 x 2    an x n el polinomio a determinar para ajustar


los datos ( xi , yi ) . Para cada i, el error cometido será  i  yˆi  yi  yˆi  P( xi ) 
m
i 1

Para determinar P ( x) hay que establecer los coeficientes a0 , a1 ,...an .


DEFINICIÓN :
m m
Residuo: R(a0 , a1 , a2 , , an )    i   ( yˆi  yi ) 2
2

i 1 i 1
m
  (a0  a1 xi  a2 xi 2    an xi n  yi ) 2
i 1
Ajuste por Mínimos cuadrados
Ajuste por Mínimos cuadrados

P(x)

(x j , 
yj )

(x j , y j )
Ajuste por Mínimos cuadrados
Ajuste por Mínimos cuadrados
Observaciones:
1  R  R(a0 , a1, a2 ,, an ) es una función de las n 1var iables a0 , a1, a2 ,, an
en los reales mayores o iguales que cero.

2 Minimizar la suma de los cuadrados de los errores es hallar exactamente


p a0 , a1, a2 ,, an , qque hace qque R(a0 , a1, a2 ,, an ) sea el
la (n 1))  upla
mínimo valor de la función residuo R.

3  Para minimizar una función de varias variables se debe encontrar las


derivadas parciales respecto a c/u de ellas, e igualarlas a 0.

Método de los mínimos cuadrados
Método de los mínimos cuadrados

R R R R
 0,
0  00,  00,   , 0
a0  a1 a 2 an

R  m 2  m n

ak ak  i 1
 0 1i 2i
( a  a x  a x 2
   a x
n i
n
 yi )  a  t i

 ( a x t
 yi ) 2

k i 1 t 0
m n
 m n

= (at xit  yi )2  2(at xit  yi ) (at xit  yi )
i 1 t 0 ak i 1 t 0 ak
m n
=2(at xit  yi ) xik  0 (I)  k  0,1,2,, n
i 1 t 0
Método de los mínimos cuadrados:
Ecuaciones Normales
Ecuaciones Normales
Se conocen como ecuaciones normales a las obtenidas en (I):

R m n m n m
  2( at xit  yi ) xik  0   a x t k
  yi xik  k  0,1, 2, , n
ak i 1 t 0
t i
i 1 t  0 i 1

Ellas constituyen un SEL de n+1 ecuaciones con n+1 incógnitas, los coeficientes
a0,a1,…an:
 n
 m
 m

k  0   

x a t 

i
t
 yi
 t0 i 1 i1

 n
 m
 m
k  1   

x i
t1
a t 

 yixi
 t0 i1 i1
 n
 m
 m

k  2   

x i
t 2
a t 

 y i x i2 (II)
 t0 i 1 i1

 


n
 m
 m

k  n  
t0

 i1
x i
t n
a t 

 i 1
y i x in


 n
 m
 m

   

x a t 
i

t
 yi
 t0 i 1 i 1

 n
 m
 m
   

x it  1  a t 

 yi xi
 t0 i 1 i 1
 n
 m
 m

   

x it  2  a t 

 y i x i2 (II)
 t0 i1 i1
 

 n
 m
 m

   

x i
tn
a t 

 y i x in
 t0 i1 i 1



Matricialmente:
m m m
m  i1
x i i1
x i
2
   i1
x i
n

 ao   m 
 yi 


m
x 
m
x 2

m
x 3
  
m
x n 1 a   i1 
m 
i1
i
i1
i
i1
i
i1
i
 1   yi xi 
 i1 
 a2 
m m m m

 x i
2
 x i
3
 x i
4
   x i
n  2
 m
  yi xi2 

i1 i1 i1 i1
 
  
m m  i1 
 x i
3
 x i
4
    
  
  
i1 i1

     
m m m m
   m

 i i 
n


i1
x i
n
 i1
x i
n 1
 i1
x i
n  2
  i1
x i
2 n

 an   i1
y x

Método de los mínimos cuadrados
Observar que:
La matriz de los coeficientes es no singular  det( A)  0 
• La matriz de los coeficientes es no singular 
• Luego existe una única solución para el SEL obtenido 
a partir de las ecuaciones normales.
• Esta solución es un vector que contiene los 
coeficientes del polinomio de ajuste por m.c, de 
acuerdo al grado que hallamos determinado.
d l d h ll d t i d
• Si se aumenta el grado del polinomio en 1, se debe 
agregar una fila y una columna a la matriz porque
agregar una fila y una columna a la matriz, porque 
habrá un coeficiente más. También se debe agregar 
una fila a los términos independientes.
Regresión por mínimos cuadrados
Regresión por mínimos cuadrados

Regresion por minimos cuadrados


2.6
Lineal
2.4 Cuadratico
Cubico
2.2

1.8
f(x)

1.6

1.4

1.2

0.8

-4 -3 -2 -1 0 1 2 3 4
x
Regresión por mínimos cuadrados
Regresión por mínimos cuadrados
Regresion por minimos cuadrados
2.6
Lineal
2.4 Cuadratico
Cubico
2.2
quinto

1.8
f(x))

1.6

1.4

1.2

0.8

-4 -3 -2 -1 0 1 2 3 4
x
Elección del grado óptimo para el polinomio 
por mínimos cuadrados
í
Dados m p
puntos en el p
plano ((nube de p
puntos))
¿Cómo elegimos el grado del polinomio (n) por mínimos cuadrados
que ajusta estos datos? Siempre debe ocurrir que n+1 < m
m
Calculamos: e i
2

 n2  i 1

m  n 1
Se resuelven las ecuaciones normales para n=1, n=2… etc, hasta 
que  n2 y  n21 difieran en una cantidad predeterminada Cuándo
que                  difieran en una cantidad predeterminada. Cuándo 
esto ocurre se elige a n cómo el grado óptimo para el polinomio de 
ajuste.
Sistemas rectangulares de Ecuaciones Lineales:
(Ax=b A IRnxm , n>m
A b con AIR > )
Si Ax  b  Ax  b  0  Ax  b 2  0 (I)

Si n  m   x : Ax  b (en gral.)  no se cumple (I)

Utilizamos mínimos cuadrados para encontramos x


solución aprox. de Ax  b :

x   m : Ax  b 2
sea mínimo
Sistemas rectangulares de Ecuaciones Lineales: 

E n c o n tra r x : A x  b
2
m ín im o  e n c o n tra r x : A t
. A  x  A t b
S i n d e m o s t r a c i ó n : A t . A e s d e f i n i d a p o s i t i v a , lu e g o s u d e t e r m i n a n t e e s d i s t i n t o d e c e r o .
P o r l o t a n t o  A t . A  x  A t b t i e n e s o lu c i ó n ú n i c a .

E je m p lo :
 1  1  2 .1 
 1   x1      6  2   x1    5 .6 
  2
  . 2 5   x 2   7 .9 
 2  5 . 3  =
 2 1 /2   x 2    1 .2    5    
     At A A tb
A b

E n S c i la b d a e l m i s m o r e s u l t a d o s i h a c e m o s A \ b ( a u n q u e A s e a r e c t a n g u la r ) ,
o s i s e u t i li z a A '* A \ A '* b ( e s t a e s l a s o l u c i ó n por mínimos cuadrados)

--> x = A \b
x =
- 0 .4 9 4 5 4 5 5
1 .3 1 6 3 6 3 6

=
- - > x = A '* A \A '* b

x =
- 0 .4 9 4 5 4 5 5
1 .3 1 6 3 6 3 6
Sistemas rectangulares de Ecuaciones Lineales: 

Matemáticamente se demuestra que la solución x de (AtA)x=Atb
es la que produce la norma mínima del residuo, es decir si x es 
Ax  b
solución de Ax=b ((AtA)x=Atb), entonces                   es mínima.
La demostración no está al alcance de este curso. Pero si podemos 
mostrar que un vector y distinto de x
mostrar que un vector y distinto de x produce una norma mayor 
produce una norma mayor
Ay  b
para su residuo                   . En el ejemplo anterior sea
 1  - 0.4945455 
y  x
 2   1.3163636 
Calculemos ambos residuos:
‐‐>norm(A*x‐b)
>norm(A x b)
ans =  4.5575512
‐‐>y=[‐1;2];norm(A*y‐b)
ans =    5.1127292
Podemos observar que x produce un residuo menor
Para estudiar:

Capítulo 8
Capítulo 8 : Ajuste de curvas(Shoichiro
: Ajuste de curvas(Shoichiro
Nakamura):8.1; 8.2 y 8.3
Estas diapositivas: Sistemas de Ecuaciones 
Estas diapositivas: Sistemas de Ecuaciones
Lineales rectangulares

También podría gustarte