Está en la página 1de 23

 

 





$
#

"
!
[1]

>

>
>

>







Supongamos que tenemos los siguientes





?



datos:






Gráfico


x y


4,0 102,56
4,1 115,00 230,00
4,2 112,18
4,3 118,36 210,00
4,4 128,31 190,00
4,5 125,11
4,6 138,41 170,00
4,7 150,25
150,00
4,8 155,26
y

4,9 162,39 130,00


5,0 165,47
5,1 178,60 110,00
5,2 179,65 90,00
5,3 182,21
5,4 192,40 70,00
5,5 195,14
50,00
5,6 200,52
3,5 4,0 4,5 5,0 5,5 6,0 6,5
5,7 207,20
5,8 221,36 x
5,9 220,87
=
0

9
6

%&'

()*

'

-.

(
/

14

:;

8<

%&'

()*

'

-.

(
2
J
Q
P
J
O
N
[2]

k
k

k
M
L
G
K
J
K
J

Evidentemente, realizar una interpolación


I
H

l
G
F

polinomial para esta cantidad de datos no


E

D
C

resulta práctico; además la distribución de


B
A
@

puntos no sigue un patrón bien definido.


Por lo tanto, lo que conviene hacer es
l

aproximar una curva que se adapte lo mejor


posible a los datos disponibles, proponiendo
una función de la forma:
h(x ) = c0φ 0 (x ) + c1φ1 (x ) + c2φ 2 (x ) + + cnφ n (x )

m
n
= ∑ c jφ j (x )
j =0
j
]

f
c

RST

UVW

Z[

U
\

^a

gh

ei

RST

UVW

Z[

U
_
x

~
x
}
|
[3]

™
™

™
{
z
u
y
x
y
x

Esto se suele conocer como “Mejor


w
v

š
u
t

Aproximación” (Best Approximation).


s

r
q

Para efectuar esta aproximación vamos a


p
o

š
n

tener en cuenta el residuo, es decir:


ri = yi − h(xi ); 0 ≤ i ≤ m
Buscaremos que el residuo sea mínimo.
š

La pregunta es: ¿qué debemos hacer


š

mínimo? Recordemos que el residuo es un


vector.
˜
‹

”
‘

€‚ƒ

„…†

…‡

‚ˆ

€
Š

Œ

•–

“—

€‚ƒ

„…†

…‡

‚ˆ

€

¥
¬
«
¥
ª
©
[4]

Æ
Æ

Æ
¨
§
¢
¦
¥
¦
¥

Dado que se trata de un vector, lo que


¤
£

Ç
¢
¡

debemos hacer mínimo es la norma del


 

Ÿ
ž

mismo.

œ
›

Hay varias normas conocidas:


Ç

La norma l1:
È

m m
r 1 = ∑ ri = ∑ yi − h (xi )
i=0 i =0
La norma l∞:
È

r ∞
= max yi − h(xi )
0 ≤i ≤ m

La norma l2:
È

m m

∑r ∑ [y ( )]
2 2
r2= i = i − h xi
i =0 i =0
Å
¸

Á
¾

­®¯°

±²³

²´

¯µ

­
·

¹¼

ÂÃ

ÀÄ

­®¯°

±²³

²´

¯µ

­
º
Ó
Ú
Ù
Ó
Ø
×
[5]

ô
ô

ô
Ö
Õ
Ð
Ô
Ó
Ô
Ó

Cada una tiene su aplicación:


Ò
Ñ

õ
Ð
Ï

La norma l1 es muy útil cuando queremos


Î

ö
Í
Ì

descartar datos con errores de medición.


Ë
Ê
É

La norma l∞ es muy útil cuando, por el contrario,


ö

debemos considerar el mayor error en la


aproximación.
Las aproximaciones basadas en las normas
õ

anteriores llevan a problemas de


Programación Lineal, que son mucho más
complejos que hacer mínima la norma l2.
ó
æ

ï
ì

ÛÜÝÞ

ßàá

àâ

Ýã

Û
å

çê

ðñ

îò

ÛÜÝÞ

ßàá

àâ

Ýã

Û
è



[6]

'

"

#






&
%

&
%
þ




Una particularidad es que si n=m , entonces



ÿ

(
þ
ý

hay una sola curva que aproxima a los datos,


ü

pues para las tres normas el mínimo es cero.


ú
ù
ø
÷

Es decir, lo que tenemos es el caso de


Interpolación, ya visto.
En cambio, para m>n, tendremos diferentes
(

aproximaciones, según la norma aplicada.


Utilizar la última norma para minimizar el
(

residuo, define el Método de los Mínimos


Cuadrados (o Aproximación por Cuadrados
Mínimos).
!











3
:
9
[7]

U
3
8
7
6
5

W
U

U
V

W
U

U
0
4
3
4
3

Para empezar definamos:


2
1

X
0
/

ai ; j = φ j (xi ); i = 0;1; 2; ; m
.

y j = 0;1; 2; ; n
-
,

Y
+
*
)

Entonces:
X

n n
h(xi ) = ∑ c jφ j (xi ) = ∑ c j ai ; j
j=0 j =0

Si aproximamos por mínimos cuadrados


X

debemos minimizar:
2
m
 n

∑  yi − ∑ c j ai ; j 
i =0  j =0 
S
F

O
L

;<=

>?@

CD

>
E

GJ

PQ

NR

;<=

>?@

CD

>
H
d
k
j
[8]

†
d
i
h
g
f

ˆ
†

†
‡

ˆ
†

†
a
e
d
e

Es decir, debemos obtener los coeficientes cj


d
c
b

‰
a
`

que hacen mínima la norma euclídea del


_

^
]

residuo.
\
[
Z

Definamos la siguiente matriz:


‰

 a0 ; 0 a0 ;1 a0 ; n 


 
 a a1;1 a1;n 


1; 0
A=
 
Œ

‹
 
am ;0 am ;1 Š
am ;n 
„
w

€
}

lmno

pqr

qs

nt

l
v

x{

‚

lmno

pqr

qs

nt

l
y
˜
Ÿ
ž
[9]

º
˜

œ
›
š

¼
º
»

¼
º
•
™
˜
™
˜

Armemos el siguiente sistema:


—
–

½
•
”
“

 a0 ;0 a0 ;1 a 0 ; n   c0   y 0 
‘


Â

Ž

    
 a a1;1 a1; n   c1   y1 

Â
1; 0
Ac − y = 0 ⇒ =
 Á
   

¾
    
a m ;0 am ;1 a m ;n  cn   y m 

¿
Esto significa imponer que el residuo sea
½

nulo, es decir:
r =0
¸
«

´
±

 ¡¢£¤

¥¦

¥§

¢¨©

 
ª

¬¯

µ¶

³·

 ¡¢£¤

¥¦

¥§

¢¨©

 
­
Í
Ô
Ó
[10]

ï
Í
Ò
Ñ
Ð
Ï

ñ
ð

ñ
Ê
Î
Í
Î
Í

Este sistema no tiene solución única puesto


Ì
Ë

ò
Ê
É

que m>n. Por lo tanto, no podemos imponer


È

Ç
Æ

esta condición.
Å
Ä
Ã

La condición que se debe imponer entonces


ò

es: Encontrar los cj que minimicen la


expresión:
2 2
r 2 = y − Ac 2
í
à

é
æ

ÕÖ×ØÙ

ÚÛ

ÚÜ

×ÝÞ

Õ
ß

áä

êë

èì

ÕÖ×ØÙ

ÚÛ

ÚÜ

×ÝÞ

Õ
â
ý


[11]


ý


ÿ

!


!

ú
þ
ý
þ
ý

Recordemos como se obtenía un mínimo para


ü
û

"
ú
ù

una función escalar:


ø

÷
ö

d [ f ( c )]
õ
ô
ó

= 0; j = 0;1; 2; ;n
dc j

#
Como:
"

f (c ) = r = y − Ac
2 2

2
m
 n

f (c ) = r = ∑  yi − ∑ ai ; j c j 
2

i =0  j =0 

























.
5
4
[12]

P
.
3
2
1
0

R
P

P
Q

R
P

P
+
/
.
/
.

La condición para obtener un mínimo es:


-
,

S
+
*
)

d [ f (c )]  
(

m n

= 2∑  yi − ∑ ai ; j c j (− ai ;k ) = 0
'

2
&

= r
%
$

d ck i = 0  j =0  
Esto se puede escribir como:
S

m n m

∑a ∑a i ;k i; j c j = ∑ ai ;k yi ; k = 0;1; 2; ;n

T
i =0 j =0 i =0
N
A

J
G

6789:

;<

;=

8>?

6
@

BE

KL

IM

6789:

;<

;=

8>?

6
C
_
f
e
[13]


_
d
c
b
a

ƒ



‚

ƒ



\
`
_
`
_

En forma matricial queda:


^
]

„
\
[
Z

AT Ac = AT y
Y
X
W
V
U

Si definimos:
„

= T
B A A; b = T
A y
Por lo tanto, nos queda:
„

Bc = b
Es decir, un sistema de ecuaciones lineales.
„


r

{
x

ghijk

lm

ln

iop

g
q

sv

|}

z~

ghijk

lm

ln

iop

g
t

–
•
[14]

±

”
“
’
‘

³
±
²

³
±
Œ




Por ejemplo, para B tenemos:



Ž


´
Œ
‹
Š

a0 ;0 a1;0 am ;0   a0;0 a0 ;1 a0 ;n 


‰
ˆ

¹
‡

a am ;1   a1;0 a1;1 a1;n 


†
…

 a1;1

¹
0 ;1
B= A A=
T
  
¸

¸
  
a0 ;n a1;n am ;n  am ;0 am ;1 am ;n 
¹

¹
φ0 (x0 ) φ0 (x1 ) φ0 (xm ) φ0 (x0 ) φ1 (x0 ) φ n (x0 )
¹

¹
φ (x ) φ (x ) φ1 (xm )  φ 0 (x1 ) φ1 (x1 ) φ n (x1 ) 
= 1 0
¹

¹
1 1

  
¸


  
φ n (x0 ) φ n (x1 ) φ n (xm ) φ 0 (xm ) φ1 (xm ) φ n (xm )
¹

µ
¯
¢

«
¨

—˜™š›

œ

œž

™Ÿ 

—
¡

£¦

¬­

ª®

—˜™š›

œ

œž

™Ÿ 

—
¤
Ä
Ë
Ê
[15]

æ
Ä
É
È
Ç
Æ

è
ç

è
Á
Å
Ä
Å
Ä

Podemos definir entonces que:


Ã
Â

é
Á
À

m
B jk = ∑ φ j (xi )φ k (xi )
¿

¾
½
¼
»

i =0
º

Análogamente:
é

m
b j = ∑ yiφ j (xi )
i =0
Una forma de notación es:
é

B jk = ∑ φ j (xi )φ k (xi ) = (φ j (xi );φ k (xi ))


m

i =0

b j = ∑ yiφ j (xi ) = (yi ;φ j (xi ))


m

i =0
ä
×

à
Ý

ÌÍÎÏÐ

ÑÒ

ÑÓ

ÎÔÕ

Ì
Ö

ØÛ

áâ

ßã

ÌÍÎÏÐ

ÑÒ

ÑÓ

ÎÔÕ

Ì
Ù
ô
û
ú
[16]


ô
ù
ø
÷
ö







ñ
õ
ô
õ
ô

Si aplicamos el método a un polinomio,


ó
ò


ñ
ð

tendremos:
ï

n
í

p(x ) = c0 + c1 x + c2 x 2 + + cn x n = ∑ c jφ j (x ); φ j (x ) = x j
ì
ë
ê


j =0

Podemos ver que la matriz A resultante es la




matriz de Vandermonde:
φ 0 (x0 ) φ1 (x0 ) φ 2 (x0 ) 
φ n (x0 ) 1 x0 x02 x0n 


 φ (x ) φ (x ) φ (x )
 0 1 1 1 2 1 φ n (x1 ) 1 x1 x12 n
x1 
=



   



   n
φ0 (xm ) φ1 (xm ) φ 2 (xm ) φ n (xm ) 1 xm xm2 xm 






üýþÿ



ü




üýþÿ



ü

)
0
/
[17]

K
)
.
-
,
+

M
K

K
L

M
K

K
&
*
)
*

Así, la matriz B queda de la forma:


)
(
'

N
&
%
$

1 1 1 1  1 x0 x02 x0n 
#
"

O
 
xm  1 x1 n

O
!

x0 x1 x2 x12 x1 


B= 

O
  
P

P
 n n  
 x 0 x1n x2n xm  1 xm xm2 n
xm 

O
Por lo que las componentes de B se pueden
N

calcular con la expresión:


m m
B jk = ∑ φ j (xi )φ k (xi ) = ∑ x ij x ki
i =0 i =0
I
<

E
B

1234

567

68

39

1
;

=@

FG

DH

1234

567

68

39

1
>
[
b
a
[18]

}
[
`
_
^
]


}

}
~


}

}
X
\
[
\

La componente B0;0 es:


[
Z
Y

€
X
W
V

m m m m
B0 ;0 = ∑ φ 0 (xi )φ 0 (xi ) = ∑ x 0i x 0i =∑1 × 1 = ∑1 = m
U
T
S
R
Q

i =0 i =0 i =0 i =0

Las componentes B0;1 y B1;0 son:


€

m m m m
B0 ;1 = ∑ φ 0 (xi )φ1 (xi ) = ∑ x 0i x1i =∑1 × x i = ∑ x i
i=0 i=0 i=0 i=0

m m m m
B1;0 = ∑ φ1 (xi )φ 0 (xi ) = ∑ x1i x 0i =∑ x i × 1 = ∑ x i
i =0 i =0 i =0 i =0
{
n

w
t

cdef

ghi

hj

ek

c
m

or

xy

vz

cdef

ghi

hj

ek

c
p
‹
’
‘
[19]

­
‹


Ž


¯
­
®

¯
­
ˆ
Œ
‹
Œ

Por lo tanto, se cumple que:


‹
Š

°
‰
ˆ
‡

B j ; k = Bk ; j
†

…
„
ƒ
‚


Análogamente, se tiene:
°

m m
b j = ∑ yi φ j (xi ) = ∑ yi x ij
i =0 i =0
En consecuencia, la matriz B del sistema de
°

ecuaciones tiene las siguientes


características:
Es simétrica.
±

Es definida positiva.
±

Es densa (salvo excepciones).


±

«
ž

§
¤

“”•–

—˜™

˜š

•›

“


Ÿ¢

¨©

¦ª

“”•–

—˜™

˜š

•›

“
 
¼
Ã
Â
[20]

Þ
¼
Á
À
¿
¾

à
ß

à
¹
½
¼
½
¼

VENTAJAS
»
º

á
¹
¸

Es sencillo de entender.
·

â

µ

Se pueden usar todo tipo de funciones, inclusive


´

â
³
²

polinómicas.
Dado que la matriz de coeficientes es simétrica
â

definida positiva, se puede aplicar el método de


Cholesky.
DESVENTAJAS
á

La función no pasa por los datos, salvo


â

excepciones.
Si se aproxima con polinimios de grado superior,
â

el sistema se vuelve mal condicionado e inestable.


Ü
Ï

Ø
Õ

ÄÅÆÇ

ÈÉÊ

ÉË

ÆÌ

Ä
Î

ÐÓ

ÙÚ

×Û

ÄÅÆÇ

ÈÉÊ

ÉË

ÆÌ

Ä
Ñ
í
ô
ó
í
ò
ñ
[21]





ð
ï
ê
î
í
î

Obtener una aproximación por cuadrados mínimos,


í
ì


ë
ê

tomando un polinomio de grado 3, de los valores de


é
è

Y para X=1,5 y X=1,8:


ç
æ
å
ä
ã

X Y
1,0 0,7651977
1,3 0,6200860
1,6 0,4554022
1,9 0,2818186
2,2 0,1103623



õö÷ø

ùúû

úü

÷ý

õ
ÿ

õö÷ø

ùúû

úü

÷ý

õ


!


[22]

<

<


<

<
;

;
;

;







Burden, R.L. y Faires, J.D.. Análisis Numérico.






=



International Thomson. Sexta edición. 1998.







González, H.. Análisis numérico. Primer curso.





=


Nueva Librería. 2002.


Samarski, A.A.. Introducción a los métodos
=

numéricos. Mir. 1986.


:
-

6
3

"#

$%

&'

'

$*

"%
,

.1

78

59

"#

$%

&'

'

$*

"%
/

También podría gustarte