Está en la página 1de 90

Tema 1

Preliminares

Indice
1. Introduccion

2. Teoremas basicos

3. Errores

3.1 Fuentes usuales de error


3.2 Representacion de numeros
3.3 Tipos de errores

4. Propagacion del error

5. Condicionamiento y Estabilidad

6. Normas de computacion para el curso

1
1 Introduccion

Calculo numerico (Analisis Numerico, Metodos Numericos):

Nace con el hombre, pero se desarrolla junto con las maquinas de


calculo.

Estudia metodos numericos para resolver problemas matematicos de


las ciencias, tecnicas e ingeniera.

Problemas que aborda:

Finito-dimensionales

Resolucion de ecuaciones y sistemas de ecuaciones


Interpolacion y Aproximacion
Calculo de valores y vectores propios

Infinito-dimensionales

Derivacion numerica.
Integracion numerica.
Resolucion numerica de E.D.O. y E.D.P.

Objetivo:
Obtener la solucion, exacta o con aceptable aproximacion, con el menor
esfuerzo/tiempo posible.


Ejemplo1: Metodo numerico (metodo iterativo) para calcular 5:
 
1 5
xn+1 = xn + .
2 xn

2
Aplicacion: (con 10 cifras)

x0 = 2,
x1 = 2.25,
x2 = 2.236111111,
x3 = 2.236067978,
x4 = 2.236067977.

El valor exacto de 5 es 2.2360679774997896964..

Prerrequisitos de la materia:

Algebra lineal: espacios vectoriales, base, dimension, dependencia


lineal, matrices, sistemas de ecuaciones lineales, valores propios.

Calculo infinitesimal e integral en una y dos variables.

3
2 Teoremas basicos
Teorema de Bolzano Sea f C[a, b] tal que f (a)f (b) < 0 entonces existe
c (a, b) tal que f (c) = 0.

Teorema del valor intermedio Sea f C[a, b] y L un real comprendido


entre f (a) y f (b). Entonces existe c [a, b] tal que f (c) = L.

Teorema de Rolle Sea f C 1 [a, b] tal que f (a) = f (b). Entonces existe
c [a, b] tal que f 0 (c) = 0.

Teorema del valor medio Sea f C 1 [a, b]. Entonces existe c [a, b] tal
f (b) f (a)
que f 0 (c) = .
ba

Primer Teorema del valor medio del calculo integral Sea f C[a, b]
entonces existe c (a, b) tal que
Z b
1
f (c) = f (x)dx.
ba a

Segundo Teorema del valor medio del calculo integral Sean f, g


C[a, b] tal que g(x) 0, para todo x [a, b]. Entonces existe c (a, b) tal
que Z b Z b
f (x)g(x)dx = f (c) g(x)dx.
a a

Teorema de Taylor (formula de Taylor) Sean f C n+1 [a, b] y x0 [a, b]


fijo. Entonces para todo x [a, b] existe c = c(x) comprendido entre x0 y x,
tal que f (x) = Pn (x) + Rn (x), donde
n
X f k (x0 ) f (n+1)
Pn (x) = (x x0 )k , Rn (x) = (x x0 )n+1 .
k=0
k! (n + 1)!


X c
Suma de series geometricas Si r < 1 entonces crn = , siendo
n=0
1r
divergente en caso contrario.

4
3 Errores

3.1 Fuentes usuales de error


Idealizacion: rozamientos, vientos, atracciones, gravedad, rela-
tividad, efectos despreciables.

Experimental-incertidumbre: lectura aparatos, interferencias,


estimaciones estadsticas.

Humano: equivocaciones aritmeticas o de propagacion.

Discretizacion: aproximacion de un proceso matematico infinito por


uno finito.

Redondeo: las maquinas tienen una precision limitada.

3.2 Representacion de numeros


Numeros en notacion binaria
156310 = 1 103 + 5 102 + 6 101 + 3 100
= 1 21 0 + 1 29 + 1 24 + 1 23 + 1 21 + 1 20
= 110000110112 .

Algoritmo de conversion decimal-binario

Invertase el orden de la sucesion de restos de dividir por 2 reiteradamente.

Numeros no enteros
1563.2510 = 11000011011.012
0.710 = 0.101102 (periodico en binario).

Otras bases usuales: 8, 16.

5
Notacion cientfica (Representacion en punto flotante)

z = (0.d1 d2 . . . dn ) e .
donde

= 1 (signo),

N {0, 1} (base),

e Z,
n
X
0.d1 d2 . . . dn = di i , di N, 0 di < (mantisa).
i=1

Normalizacion: d1 > 0.
, n y son caractersticas de la maquina.
La precision depende de n y de .

Ejemplo 2
Sea una maquina con = 2, n = 4, e {3, 2, 1, 0, 1, 2, 3}.
Los numeros representables seran:

6
3.3 Tipos de errores
Definicion 1 Sea x la representacion de x R en una maquina dada.
Se define el error absoluto de tal representacion como

ea = |x x |

y el error relativo como

|x x |
er = .
|x|

El error relativo es mas intuitivo y da mejor idea de la precision.

Definicion 2 Metodos de representacion/operacion:


El error de truncatura aparece cuando se prescinde de las cifras de
la mantisa a partir de una dada:

(0.d1 . . . dn dn+1 . . .) = 0.d1 . . . dn .

El error de redondeo aparece cuando se corta la sucesion de deci-


males de la mantisa mediante el redondeo de la ultima cifra:



0.d1 . . . dn si dn+1 < ,


2
(0.d1 . . . dn dn+1 . . .) =

0.d1 . . . dn + n

si dn+1 .
2

Propiedad 1 El error relativo de repretacion esta acotado


por truncatura: por n+1 ,
n+1
por redondeo: por .
2

7
Ejemplo 3

Con = 10 y n = 5,
 
= 0.31415 mediante truncatura, con error < 0.0001,
10
 
= 0.31416 mediante redondeo, con error < 0.0005.
10

Definicion 3 Si d es el mayor entero para el cual

|x x | d+1
<
|x| 2
se dice que x aproxima a x con d dgitos significativos.

Ejemplos
1. = 10, x = 3.141592, x = 3.14,
|x x | 102
0.000507 <
|x| 2
luego x aproxima a x con 3 dgitos significativos.
2. = 10, x = 106 , x = 999996,
|x x | 105
0.000004 <
|x| 2
luego x aproxima a x con 6 dgitos significativos.
3. = 10, x = 0.000012, x = 0.000009,
|x x | 100
0.25 <
|x| 2

luego x aproxima a x con 1 dgito significativo.

d
Definicion 4 Si d es el mayor entero para el cual |x x | < se dice
2
que x aproxima a x con d decimales.

Con cuantos decimales se realizan las aproximaciones de los ejemplos


anteriores?

8
4 Propagacion del error
Consideremos una maquina en la que = 10, n = 6, mediante error de
truncatura. Por tanto, el error relativo caracterstico de representacion es de
106+1 = 105 .
Sean a = 1001 y b = 1000. Entonces

a2 b2 1002000 1000000 = 2000,


2001 2000
con error 5 104 .
20001
Pero
a2 b2 = (a b)(a + b) = a + b = 2001,
con error 0.

Luego procesos matematicos equivalentes pueden no ser computacionalmente


equivalentes.

Si a = 1, b = 108 y c = 108 , entonces

a + (b + c) = 1,

(a + b) + c = 0.

Por otro lado a + b = b, luego es a = 0?.

Ejercicio
n
X
Se desea obtener ai con n muy grande (miles de millones). Cual es la
i=1
mejor forma de ordenar los calculos?

1. Si los ai son todos del mismo signo y magnitudes parecidas,

2. Si los ai son todos del mismo signo y magnitudes muy diversas,

3. Si los ai son de cualquier signo y magnitudes parecidas,

4. Si los ai son de cualquier signo y magnitudes muy diversas?

9
Advertencia
Las operaciones de sumar (absoluta), multiplicar y dividir introducen error
relativo de magnitud igual al de representacion, pero la resta (absoluta) puede
introducir un error relativo gigantesco.

5 Condicionamiento y Estabilidad
Definicion 5 Un proceso esta bien condicionado si pequenas variaciones
en sus datos de entrada provocan pequenas variaciones en la solucion, y mal
condicionado si las mismas condiciones provocan grandes variaciones en la
solucion.

Un proceso de calculo es estable si los errores de representacion y re-


dondeo introducidos tanto a la entrada como durante las operaciones inter-
medias no provocan perturbacion importante en los resultados; e inestable
en caso contrario.

Solo si se tiene un problema bien condicionado y se resuelve con un proceso


estable se puede tener garanta de precision en el resultado.

Por
 1 ejemplo, es facil demostrar por induccion que la sucesion de valores
2n n0
puede generarse indistintamente a partir de los siguientes algorit-
mos:

(I) s0 = 1, sn = 21 sn1 , n 1.

(II) s0 = 1, s1 = 12 , sn = 23
s
2 n1
11
s ,
2 n2
n 2.

Sin embargo, con el segundo (operando con 6 cifras de precision) el decimo-


sexto termino es s15 = 113, frente al valor 2115 ' 0.00031.

Analogamente, la sucesion 31n n0 puede generarse a partir del algo-




ritmo
1 10
s0 = 1, s1 = , sn = sn1 sn2 ,
3 3
n 2, que tambien es inestable.

10
6 Normas de computacion para el curso
Salvo indicacion contraria, se debe trabajar con todas las cifras de la
calculadora, incluso si se pide poca precision.

En particular, si se pide un resultado con 5 cifras decimales de precision,


NO se deben redondear los calculos intermedios a 5 decimales.

Para procesos iterativos de aproximaciones sucesivas, se detendra el


proceso cuando se repitan:

Tantas cifras como la precision requerida, si el proceso tiene ase-


gurada una convergencia rapida (velocidad superior a la lineal,
que ya se vera).
Tantas cifras como la precision requerida MAS DOS, si el proceso
converge lentamente (velocidad lineal).

Ojo a las funciones trigonomtricas: hay que poner siempre la calcu-


ladora en modo radianes.

11
Tema 2
Resolucion de Ecuaciones
No Lineales

Indice
1. Introduccion

2. Metodo de Biseccion

2.1 Algoritmo del Metodo de Biseccion


2.2 Analisis de Metodo de Biseccion

3. Metodo de Regula-Falsi

3.1 Algoritmo del Metodo de Regula-Falsi


3.2 Analisis de Metodo de Regula-Falsi

4. Metodo de la Secante

5. Metodo de Newton-Raphson

6. Metodos Iterativos

6.1 Algoritmo de los Metodos Iterativos


6.2 Interpretacion Grafica
6.3 Convergencia de los Metodos Iterativos
6.4 Convergencia Global del Metodo de Newton-Raphson
6.5 Aplicacion del Teorema de convergencia global

7. Aceleracion de la convergencia

7.1 Aceleracion de Aitken


7.2 Aceleracion de Steffensen

1
1 Introduccion
Problema: Oscilacion amortiguada de una estructura

Supongamos que la oscilacion de una estructura, dotada de un sistema de


amortiguacion, ante un movimiento oscilatorio, viene dada por la funcion
t
y(t) = 10 e 2 cos 2t.

En que instante t la posicion de la estructura es y(t) = 4?

Se trata de resolver la ecuacion


t
10 e 2 cos 2t = 4.

de incognita t.
Este problema es imposible de resolver por medios analticos sencillos.

Sea f : R R. Consideraremos la ecuacion en una variable

f (x) = 0.

Definicion 1 El numero s se dice una solucion de la ecuacion si


se verifica que f (s) = 0, es decir, si s es una raz de la funcion f .

2
2 Metodo de Biseccion
2.1 Algoritmo del metodo de Biseccion
El metodo de Biseccion para la resoluci0on de la ecuacion f (x) = 0 se basa
en el Teorema de Bolzano que nos asegura la existencia de, al menos, una
raz de una funcion f (x) en un cierto intervalo [a, b], bajo ciertas condiciones.

Teorema de Bolzano Sea f : [a, b] R una funcion continua en [a, b]


tal que f (a)f (b) < 0. Entonces existe c (a, b) tal que f (c) = 0.

Supongamos que f (x) es continua y cambia de signo en los extremos de [a, b].
Basandonos en el anterior teorema, podemos aproximar una solucion de la
ecuacion f (x) = 0 dividiendo el intervalo inicial en dos subintervalos iguales
y eligiendo aquel en el que f (x) cambia de signo. Despues se repite el proceso
hasta que se verifique algun criterio de parada.

Algoritmo del Metodo de Biseccion

1. a0 = a, b0 = b

2. Para n = 0, 1, . . ., hacer:
1
mn = (an + bn )
2
Si f (an )f (mn ) < 0, tomar an+1 = an , bn+1 = mn ; en caso
contrario, tomar an+1 = mn , bn+1 = bn .

Ejemplo
Resolver mediante al algoritmo de biseccion la ecuacion

ex x = 0

en [0, 1].

3
2.2 Analisis del Metodo de Biseccion
Calculo previo del numero de interaciones
Recordemos que

Se define el error absoluto de una aproximacion s0 respecto del valor


exacto s como
e = |s0 s|.

Para garantizar que el error del Metodo de Biseccion sea menor o igual que
un cierto valor de tolerancia se aplica el siguiente resultado:

Teorema1 (Error absoluto maximo del Metodo de Biseccion)

Sea f : [a, b] R una funcion continua en [a, b] tal que f (a)f (b) < 0
y f (s) = 0, para algun s (a, b). Sea {mn }n=0,1,... la sucesion de aproxima-
ciones de s obtenidas mediante el Metodo de Biseccion y en = |s mn |, para
n = 0, 1, . . .. Entonces

ba
en .
2n+1

Esquema de Demostracion

4
1
en = |mn s| mn an = bn mn = (bn an ) =
2
1
(bn1 an1 ) = . . . =
22
1
n+1
(b0 a0 ).
2
Luego
b.a
en .
2n+1


Por tanto, para garantizar que en < , se debe verificar que

ba
log
n 1.
log2

Ejemplo: Resolucion aproximada del problema de la oscilacion amortiguada


de una estructura

Se trata de resolver la ecuacion


t
f (t) = 10 e 2 cos 2t 4 = 0.

Supongamos que deseamos que en = 103 . Como f (0) = 6 > 0 y


f (1) = 6.524 < 0 entonces podemos tomar [a, b] = [0, 1].

5
El numero de iteraciones que debemos realizar para asegurar la tolerancia de
error considerada es:
1
log
n 103 1 8.966,
log2
es decir, n = 9.

3 Metodo de Regula-Falsi
3.1 Algoritmo del Metodo de Regula-Falsi
Se trata de realizar un refinamiento del Metodo de de Biseccion, eligiendo
la aproxiamcion m a distancias de a y b proporcionales a f (a) y f (b).
La ecuacion de la recta que pasa por los puntos (a, f (a)) y (b, f (b)) es

y f (a) x1
= ,
f (b) f (a) ba

de donde se tiene que el corte con el eje OX es, haciendo x = 0 y despejando


y, el valor

af (b) bf (a)
m= .
f (b) f (a)

6
Se verifica que:

mn converge mas rapidamente a s que en el Metodo de Biseccion.

Un extremo es fijo.

La amplitud de los intervalos no tiene a cero.

No admite acotacion del error.

Luego el algoritmo es el siguiente

Algoritmo del Metodo de Regula-Falsi

1. a0 = a, b0 = b

2. Para n = 0, 1, . . ., hacer:
an f (bn ) bn f (an )
mn =
f (bn ) f (an )
Si f (an )f (mn ) < 0, tomar an+1 = an , bn+1 = mn ; en caso
contrario, tomar an+1 = mn , bn+1 = bn .

4 Metodo de la secante
Se trata de un metodo iterativo en el que, en cada paso, se calcula una
aproximacion de la solucion en lugar de un intervalo que la contiene.

7
Se parte de x0 = a y x1 = b y se calcula, iterativamente para cada n 1,
la interseccion de la secante que une los puntos (xn1 , f (xn1 ) y (xn , f (xn ))
con el eje de abscisa, obteniendose la abscisa

xn1 f (xn ) xn f (xn1 )


xn+1 = .
f (xn ) f (xn1 )

Por tanto el algoritmo es el siguiente:

Algoritmo del Metodo de la Secante

1. x0 = a, x1 = b
xn1 f (xn ) xn f (xn1 )
2. Para n = 1, 2 . . ., hacer xn+1 =
f (xn ) f (xn1 )

Ejemplo

Calculemos mediante 5 pasos del metodo de la secante una aproximacin de


la solucion del problema de la oscilacion amortiguada de una estructura.

Se trataba de calcular la solucion de la ecuacion


t
f (t) = 10 e 2 cos 2t 4 = 0.

8
Tomando x0 = 0 y x1 = 1, se obtiene la siguiente sucesion de aproximaciones:

x2 = 0.479078
x3 = 0.517905
x4 = 0.513640
x5 = 0.513652,

con lo cual podemos afirmar que una aproximacion con cuatro decimales
exactas de la solucion es 0.5126.

5 Metodo de Newton-Raphson
Se trata de llevar el lmite el metodo de la secante y, por tanto, en cada
iteracion n, considerar la recta tangente a f (x) en (xn , f (xn )) y tomar como
siguiente aproximacion xn+1 la interseccion de dicha tangente con el eje de
abscisas. Por tanto, teniendo en cuenta que la ecuacion de la recta tangete
a la grafica de f (x) en el punto (xn , f (xn )) es

y f (xn ) = f 0 (xn )(x xn ),

se tiene que

f (xn )
xn+1 = xn .
f 0 (xn )

Luego el algoritmo del Metodo de Newton-Raphson es

Algoritmo del Metodo de Newton-Raphson

1. Dado x0
f (xn )
2. Para n = 1, 2 . . ., hacer xn+1 = xn
f 0 (xn )

9
Observaciones sobre el Metodo de Newton-Raphson

Es el mas rapido

Requiere que f 0 (s) 6= 0

Elegir x0 puede ser delicado

La acotacion del error es complikcada

El criterio de parada mas usual es la repeticion de cifras.

Ejemplos A continuacion presentamos la solucion aproximada de algunas


ecuaciones con el metodo:

Que ha ocurrido en el tercer caso?


Obviamente se ha presentado un caso de divergencia:

10
Tambien se podra haber presentado un caso de oscilacion como el siguiendo
grafico indica:

11
6 Metodos Iterativos
Se trata de transformar la ecuacion f (x) = 0 (calculo de una raz de la
funcion f (x)) en una ecuacion del tipo x = g(x) (calculo de un punto fijo de
la funcion g(x)) de forma que sean equivalentes, es decir, tengan la misma
solucion.
Ejemplo (Metodo de Newton-Raphson)
Si f (x) es una funcion de clase C 1 y s una raz (f (s) = 0) tal que f 0 (s) 6= 0,
entonces, resolver f (x) = 0 es un problema equivalente a calcular un punto
f (x)
fijo de la funcion g(x) = x 0 ya que f (s) = 0 si y solo si g(s) = s, como
f (x)
se puede comprobar facilmente.

6.1 Algoritmo de los metodos iterativos


Los metodos iterativos se basan en el calculo de un punto fijo para una cierta
funcion g(x). El siguiente resultado determina condiciones suficientes para
la existencia de un punto fijo para g(x).

Teorema del punto fijo Sea g : [a, b] R una funcion derivable verifi-
cando:

g([a, b]) (a, b),

maxx[a,b] |g 0 (x)| < 1.

Entonces existe un unico s [a, b] tal que g(s) = s y, ademas, para todo
x0 [a, b], la sucesion {xn } generada por la iteracion xn+1 = g(xn ) con-
verge a s.

Demostracion Sea h(x) = g(x) x, para todo x [a, b]. Entonces h(x)
es continua y verifica que h(a) > 0 y h(b) < 0, por lo que se verifican las
condiciones del Teorema de Bolzano. En consecuencia, existe un s (a, b)
tal que h(s) = 0, es decir g(s) = s.
Para demostrar la unicidad, supongamos que existe dos valores s, t (a, b)
tales que g(s) = s y g(t) = t, entonces, por el Teorema del Valor Medio,
existe c (s, t) tal que g(t) g(s) = g 0 (c)(t s), es decir, g 0 (c) = 1, lo que
contradice la segunda condicion.

12
Sea ahora {xn } la sucesion generada a partir de x0 [a, b] mediante la
iteracion xn+1 = g(xn , para m 0, y sea L = maxx[a,b] |g 0 (x)| < 1.
Se verifica entonces que

en = |xn s| = |g(xn1 ) g(s)| = |g 0 (x)|en1


Len1 L2 en2 Ln e0 .

Algoritmo de un Metodo Iterativo

1. Dado x0 [a, b]

2. Para n = 1, 2 . . ., hacer xn+1 = g(xn )

6.2 Interpretacion grafica de los metodos iterativos


Seun sea g(x) y se elija x0 , los metodos iterativos pueden ser convergentes o
divergentes y, en ambos casos pueden variar en forma espiral o en escalera,
como se indican en los siguientes graficos.

13
6.3 Convergencia de los metodos iterativos
Definicion 2 Se define el orden de convergencia de una sucesion {xn } hacia
un valor s como aquel numero real p 1 tal que
em+1
lim p = 6= 0, .
n+ en

Se deduce que si {xn } s con orden de convergenia p 1 entonces

dn+1 epn , n +.

Algunos ordenes de convergencia de los metodos estudiados son los sigu-


ientes:

14
Teorema de Convergencia Local Sea g : [a, b] R una funcion de clase
C 1 en un entorno del punto fijo s. Si |g 0 (s)| < 1, entonces existe > 0
tal que en el intervalo [s , s + ] se dan las condiciones del teorema del
punto fijo.

Demostracion Basta tomar L tal que |g 0 (s)| < L < 1 y > 0 tal que
|g 0 (x)| L, para todo x [s , s + ]. 

Teorema de Convergencia Cuadratica Sea g : [a, b] R una funcion


de clase C 2 en un entorno del punto fijo s. Si |g 0 (s) = 0, entonces la
convergencia {xn } s es al menos cuadratica.

Demostracion Teniendo en cuenta que

en+1 = |xn+1 s| = |g(xn ) g(s)|


1
= |g 0 (s)(xn s) + g 00 (cn )(xn s)2 |
2
1
0 + g 00 (cn )e2n ;
2
concluimos que
en+1 1 1
lim = lim |g 00 (cn )| = |g 00 (s)| =
6 .
n en n+ 2 2


15
6.4 Convergencia global del metodo de Newton-Raph-
son

Teorema de Convergencia LOCAL para el Metodo de Newton-


Raphson
Sea f : [a, b] R una funcion de clase C 2 en un entorno de s tal que
f (s) = 0 y f 0 (s) 6= 0. Entonces existe > 0 tal que, para todo x0
[s , s + ], la sucesion del metodo de Newton-Raphson converge a s.
Ademas, si f es de clase C 3 [a, b], la convergencia es al menos cuadratica.

Teorema de Convergencia GLOBAL para el Metodo de Newton-


Raphson
Sea f C 2 [a, b] verificando

1. f (a)f (b) < 0,

2. f 0 (x) 6= 0, para x [a, b],

3. f 00 (x)f 00 (y) 0, para todo x, y [a, b],


 
|f (a)| |f (b)|
4. max , b a.
|f 0 (a)| |f 0 (b)|
Entonces existe un unico s [a, b] tal que f (s) = 0 y, para todo x0 [a, b],
la sucesion del metodo de Newton-Raphson converge a s. Ademas, si f
C 3 [a, b] la convergencia es al menos cuadratica

Demostracion Por [1.], aplicando el Teoreme de Bolzeno, existe al menos


una raz s para f (x); y por [2.], aplicando el Teorema de Rolle, la raz s es
unica.
Asimismo, por [2.] y [3.], f 0 y f 00 conserva su signo en [a,b].
Supongamos que f 0 (x) > 0 y f 00 (x) 0, para todo x [a, b] (en el resto de
los casos se razona analogamente).

16
f (x) 0 f (x)f 00 (x)
Tomando g(x) = x se tiene que g (x) = , y por ser f (x)
f 0 (x) (f 00 (x))2
creciente, se verifica que g(x) es decreciente en [a, s] y creciente en [s, a].
Entonces

si x [a, s], s = g(s) g(x) g(a) = b por [4.], luego g(x) [s, b];

si x [s, b], s = g(s) g(x) g(b) = b po definicion de g, luego


g(x) [s, b].

Por tanto, para todo x0 [a, b], la sucesion del metodo de Newton-Raphson
{xn } [s, b].
f (xn )
Ademas xn+1 = g(xn ) = xn < xn , luego la sucexsion es estric-
f 0 (xn )
tamente creciente y acotada. En consecuencia tiene lmite, es decir, existe
s0 [s, b] tal que lim = s0 .
n+

Finalmente, tomando lmite en xn+1 = g(xn ), se llega a que s0 = g(s0 ) y, por


la unicidad del punto fijo s, concluimos que s = s0 , es decir, lim xn = s. 
n+

6.5 Aplicacion del teorema de convergencia global

Problema: Calcular la raz positiva de c


Se trata de hallar la raz positiva de la ecuacion f (x) = x2 c = 0. Veamos
si se verifican las cuatro condiciones del teorema de convergencia tomando
0 < a < b tales que a2 < c < b2

1. f (a)f (b) = (a2 c)(b2 c) < 0.

2. f 0 (x) = 2x > 0, para todo x [a, b].

3. f 00 (x) = 2 6= 0, para todo x [a, b].


|f (b)| b2 c b2 a2 (b + a)(b a)
4. 0
= = b a, luego se verifica
|f (b)| 2b 2b 2b
esta hipotesis.

En conclusion, el metodo de Newton-Raphson aplicado a f (x) = x2 c en


un intervalo 0 < a < b, con a2 < c < b2 , converge a la raz positiva de c.

17
7 Aceleracion de la convergencia
7.1 Metodo de Aitken

Teorema de aceleracion de Aitken


Sea {xn } s al menos linealmente. Se define

(xn+1 xn )2
bn = xn
x .
xn+2 2xn+1 + xn

Entonces {b
xn } s mas rapidamente en el sentido

ebn
lim = 0,
n+ en

bn s y en = xn s.
siendo ebn = x

en+1
Demostracion Supongamos que = kn con lim kn = y || < 1.
en n+
Entonces

(xn+1 xn )2
bn s = xn
ebn = x s=
xn+2 2xn+1 + xn
((xn+1 s) (xn s))2 (en+1 en )2
xn s = en =
(xn+2 s) 2(xn+1 s) + (xn s) en+2 2en+1 + en
e2n (kn 1)2 kn (kn+1 kn )
en = en ,
en (kn+1 kn 2kn + 1) kn+1 kn 2kn + 1

ebn
luego 0. 
en

7.2 Metodo de Steffensen


Dado x0 , consideremos el metodo iterativo xn+1 = g(xn ). Sean x1 y x2 las
dos primeras aproximaciones.

18
Definimos
(x1 x0 )2
x000 = x0 ,
x2 2x1 + x0

Y, en general, para cada n >= 0, se define


(n+1)
x0 = x00n
(n+1) (n+1)
x1 = g(x0 ),
(n+1) (n+1)
x2 = g(x1 ),
(n+1) (n+1) 2
(n+1) (x1 x0 )
x00n+1 = x0 (n+1) (n+1) (n+1)
.
x2 2x1 + x0

Entonces {x00n } s mas rapidamente que los anteriores metodos. El metodo


as definido se denomina metodo de Steffensen.

Ejemplo La siguiente tabla muestra las sucesiones de aproximaciones obtenidas


mediante el metodo de iteracion funcional xn+1 = g(xn ), el metodo de acel-
eracion de Aitken y el de superaceleracion de Steffensen.
En concreto se considera g(x) = ex y x0 = 0.5 (que tiene convergencia
lineal):

19
Tema 3
Resolucin de Sistemas de
Ecuaciones Lineales

ndice

1. Introduccin
2. Mtodo de Gauss
2.1 Resolucin de sistemas triangulares
2.2 Triangulacin por el mtodo de Gauss
2.3 Variante Gauss-Jordan
2.4 Comentarios al mtodo de Gauss
3. Inestabilidad del Mtodo de Gauss y Estrategias de Pivote
3.1 Pivote parcial
3.2 Pivote total
4. Condicionamiento de sistemas de ecuaciones lineales
5. Otros mtodos directos
5.1 Factorizacin LU
5.2 Mtodo de Cholesky
6. Mtodos iterativos usuales
6.1 Mtodo de Jacobi
6.2 Mtodo de Gauss-Seidel
6.3 Mtodo de relajacin

1
1. Introduccin

El objetivo de este tema es la resolucin de un sistema de n ecua-


ciones lineales con n incgnitas:

a11 x1 + a12 x2 + + a1n xn = b1 ,

a21 x1 + a22 x2 + + a2n xn = b2 ,

...

an1 x1 + an2 x2 + + ann xn = bn ,

donde son conocidos la matriz de coecientes



a11 a12 a1n
a21 a22 a2n
A = .. .. . . .

. . . ..


an1 an2 ann

y el vector de trminos independientes



b1
b2
b = ..

.
bn

En notacin matricial, el sistema de ecuaciones lineales se escribe:

Ax = b.

y se puede resolver por dos tipos de mtodos:


Mtodos directos: son mtodos que, en un nmero nito de opera-
ciones, obtienen la solucin exacta.
Mtodos iterativos: son mtodos que generan una sucesin de apro-
ximaciones {x(m) } que converge a la solucin del sistema: x = A1 b.
Recordemos que el Mtodo de Cramer para la resolucin de un sistema
de n con n incgnitas x1 , . . . , xn consiste en calcular las incgnitas mediante
la frmula
det Ai
xi = , i = 1, . . . , n,
det A
2
siendo A la matriz de coecientes y Ai la matriz que resulta de sustituir
la columna i-sima de la matriz de coecientes por el vector de trminos
independientes.

Teniendo en cuenta que el coste de un proceso de clculo se puede estimar


mediante el nmero total de operaciones aritmticas necesarias, entonces el
coste de un determinante de orden n es n!n 1 y, por tanto, el coste del
Mtodo de Cramer es (n + 1)n! 1. A continuacin aparece una tabla con
el tiempo estimado para resolver con el mtodo de Cramer un sistema de
orden n, para distintos valores de n, con una mquina que realice unas 106
operaciones por segundo:

Algunos costes del mtodo de Cramer


n Coste del Mtodo de Cramer Tiempo (106 oper/s)
5 3600 3,6 milisegundos
10 4 108 6 minutos 39 segundos
20 1,02 1021 32,4 millones de aos

Por ltimo, recordemos algunas deniciones sobre matrices

Ann = (aij ) se dice si verica


Ortogonal AT = A1

Simtrica AT = A

Diagonal si i 6= j entonces aij = 0


Tridiagonal si |i j| > 1 entonces aij = 0
Triangular superior si i > j entonces aij = 0
Hessenberg superior si i > j + 1 entonces aij = 0
(Semi)Denida positiva xt Ax() > 0, x 6= 0

(Estrictamente)Diagonalmente dominante
X
|aij |(<)|aii |, i
j6=i

3
2. El mtodo de Gauss

2.1. Resolucin de Sistemas Triangulares

Sea Ux = b un sistema de ecuaciones lineales con solucin nica (det U 6=


0) en el que la matriz de coecientes Unn es triangular superior. Entonces
las componentes de la solucin se pueden calular mediante el mtodo de
sustitucin regresiva, es decir, se despeja la ltima incgnita de la ltima
ecuacin, se sustituye en la penltima ecuacin; despus se despeja de esta
ecuacin la penltima incngnita y se repite el proceso hacia arriba hasta
calcular el valor de la primera incgnita.

Algoritmo del Mtodo de Sustitucin Regresiva


n
X
bi uij xj
j=i+1
xi = , i = n, n 1, . . . , 1.
uii

Ejemplo: Consideremos el sistema de ecuaciones lineales


3x1 + 2x2 2x3 + 4x4 = 5,
3x2 5x3 3x4 = 0,
4x3 + x4 = 3,
2x4 = 6.

Entonces, aplicando el mtodo de sustitucin regresiva se tiene:


6
x4 = = 3,
2
3 x4 3
x3 = = ,
4 2
5x3 + 3x4 1
x2 = = ,
3 2
5 2x2 + 2x3 4x4
x1 = = 7.
3

4
2.2. Triangulacin por el Mtodo de Gauss

Se trata de transformar el sistema de ecuaciones lineales Ax = b en otro


equivalente Ux = c que sea triangular superior.
El mtodo se realiza por etapas:
1 etapa: Transformar a21 , a31 , . . . , an1 en ceros.
2 etapa: Transformar a(2)
32 , . . . , an2 en ceros.
(2)

3 etapa: Transformar a(3)


43 , . . . , an3 en ceros
(3)

..
.
etapa n-1: Transformar a(n1)
n,n1 en cero.

Las transformaciones en cero de cada etapa se relizarn mediante ope-


raciones elementales: para transformar a(k)
ik en cero usado como pivote
(k)
aik
akk , se multiplica la ecuacin nmero k por y se le suma la ecuacin
(k)
(k)
akk
nmero i.

Para evitar pivotes nulos se permite permutar las ecuaciones desde la nmero
k hasta la n.

Ejemplo: A continuacin resolvemos por el mtodo de Gauss el sistema de


ecuaciones lineales cuya matriz ampliada es

2 3 2 1 0
1
3 2 1 2

2 2 0 1 2
1 1 1 0 1

1 etapa:
23 2 1 0
3 3
0 3 2
2 2
0 5 2 0 2

5 1
0 0 1
2 2

5
2 etapa:
3 2
2 1 0
3 3
0 3 2
2 2
0 0 12 5 14



3

13
0 0 5 3
3
3 etapa:
3 2
2 1 0
3 3
0 3 2
2 2
0 0 12 5 14



3

11 43
0 0 0
2 18
Solucin:
14



33

4


33


23


33

86
33

El coste del mtodo de Gauss (fase de triangulacin) es

4n3 + 3n2 7n 2n3


 
c(Gaussn ) = =O .
6 3

Faltara aadirle el coste de la sustitucin regresiva. En la siguiente tabla


se calculan algunos costes y tiempos de triangulacin con el mtodo de Gauss
en una mquina que realice 106 operaciones por segundo.

6
Algunos costes con el mtodo de Gauss
n Coste del Mtodo de Gauss Tiempo (106 oper/s)
5 90 90 microsegundos
10 705 0,7 milisegundos
20 5510 5,5 milisegundos
100 671550 0,67 segundos
1000 667 millones 11 minutos

2.3. Variante de Gauss-Jordan

Se trata de transformar el sistema de ecuaciones lineales Ax = b en un


sistema equivalente Dx = c, con D una matriz diagonal.
En cada etapa k se deben hacer cero las posiciones a(k)
1k , . . . , ak1,k , ak+1,k , . . . , ank ,
(k) (k) (k)

donde k = 1, . . . , n (n etapas).
El coste del mtodo de Gauss-Jordan es n3 + n2 2n, a falta de aadir n
divisiones para calcular las incgnitas.

2.4. Comentarios al mtodo de Gauss

Aplicaciones del mtodo de Gauss


Resolucin de sistemas de ecuaciones lineales con solucin nica (det A 6=
0).
Resolucin de sistemas de ecuaciones lineales sin saber si det A 6= 0.
Discusin general de sistemas de ecuaciones lineales.
Resolucin simultnea de sistemas de ecuaciones lineales.
Clculo eciente de determinantes.
Clculo eciente de inversas.

Inconvenientes del mtodo de Gauss


No adecuado para sistemas muy grandes (dispersos).
Inestable.

7
3. Inestabilidad del Mtodo de Gauss y Estrate-
gia de Pivote

Consideremos el sistema de ecuaciones lineales de matriz ampliada


 
0,0001 1 1
1 1 2
 
1,00010...
cuya solucin exacta es .
0,99990...

Si aplicamos el mtodo de Gauss con una mquina que admite solo 3 deci-
males se tiene la siguiente triangulacin:
 
0,0001 1 1
0 10000 10000
 
0
y se obtiene como solucin .
1

3.1. Pivote parcial

Pivote Parcial Se busca la ecuacin i>k tal que |aik | = max |ark | y se
krn
permuta con la ecuacin k.

   
0,0001 1 1 exacta 1,00010...

1 1 2 0,99990
Efectuando un cambio de la
     
1 1 2 1 1 2 p.p. 1
.
0,0001 1 1 0 1 1 1
Pero    
0,0001 1 1 p.p. 0
.
0,0001 0,0001 0,0002 1
Pivote parcial con escalado: Igual que el pivote parcial, reescalando las
ecuaciones antes del pivotaje para que
(1) (2) (n)
max |aij | = max |a2j | = = max |anj |.

8
3.2. Pivote total

Se toma (i, j) tal que


(k)
|aij | = max |a(k)
rs |,
krn
ksn

y se permutan las ecuaciones i y k , y las incgnitas j y k .

4. Condicionamiento de Sistemas de Ecuaciones


Lineales

Para entender el concepto de condicionamiento, consideremos el siguiente


ejemplo de R.S. Wilson: Se trata del sistema de ecuaciones lineales cuya
matriz ampliada y solucin exacta son:

10 7 8 7 32 1
7 5 6 5 23 1
sol.exacta


8 ,
6 10 9 33 1
7 5 9 10 31 1

mientras que si se produce una pequea variacin en los trminos indepen-


dentes (datos) se produce una gran modicacin en la solucin (resultados):

10 7 8 7 32,1 9,2
7 5 6 5 22,9 12,6
sol.exacta
.
8 6 10 9 33,1 4,5
7 5 9 10 30,9 1,1
Esto indica que el mtodo de resolucin de sistemas de ecuaciones empleado
(Gauss) estn mal condicionado.

9
5. Otros mtodos directos

5.1. Factorizacin LU
Resolucin de un sistema factorizado en LU
Si A = LU, con L una matriz triangular inferior (low) y U una matriz
triangular superior (upper), entonces el sistema de ecuaciones lineales Ax =
b se puede resover en dos fases:

a) Ly = b,

b) Ux = y,

con un coste de 2n2 operaciones.

Ejemplo:

1 0 0 0 2 3 3 0 7
2 2 0 0 0 3 2 2 x = 16 .


3 0 2 0 0 0 1 1 17
5 2 1 1 0 0 0 2 39
Aplicando el algoritmo de resolucin de un sistema factorizado en LU , obte-
nemos

1 0 0 0 7 7
2 2 0 0 16 = y = 1 .


3 0 2 0 17 2
5 2 1 1 39 0

2 3 3 0 7 1
= x = 1 .
0 3 2 2 1

0 0 1 1 2 2
0 0 0 2 0 0

10
Algoritmo del la Factorizacin LU
Para k = 1, . . . , n,
k1
X
`kk ukk = akk `kr urk ;
r=1
k1
X
aik `ir urk
r=1
`ik = , i = k + 1, . . . , n;
ukk
k1
X
akj `kr urj
r=1
ukj = , j = k + 1, . . . , n.
`kk

4n3 + 2n 2n3
Coste general de la factorizacin: = O( ), (a falta de aadir
6 3
n2 + n2 ).

Algunas variantes:
Variante de Doolittle: L tiene diagonal de 1.
Variante de Crout: U tiene diagonal de 1.

Factorizacin LU para matrices tridiagonales


Si A = LU es tridiagonal (aij = 0 si |i j| > 1), entonces L y U tambin
lo son y, para k = 1, . . . , n,
`kk ukk = akk `k,k1 uk1,k ;
ak+1,k
`k+1,k = ;
ukk
ak,k+1
uk,k+1 = .
`kk

Coste: 4n 3 para factorizar y 2(3n 2) para resolver.

11
5.2. Mtodo de Cholesky

Se trata de un mtodo de descomposicin LU en el caso en que la matriz


A sea simtrica y denida positiva. Basta con tomar U = LT y, por tanto,

A = LLt .

Mtodo de Cholesky
Para k = 1, . . . , n,
v
u
u k1
X
`kk = ta kk `2k,r ;
r=1
k1
X
ai,k `ir `kr
r=1
`i,k = , i = k + 1, . . . , n.
`kk

n3
Coste: O( ).
3
Propiedades
Sirve para saber si una matriz simtrica es denida postiva
Es estable.

12
6. Mtodos iterativos usuales

Consisten en descomponer la matriz de coecientes A en la forma A =


D L U, donde D = diag(A), L es triangular inferior con `ij = aij , para
i > j , y U es triangular superior, con uij = aij , para i < j . Suponemos que
A y D son invertibles.

6.1. Mtodo de Jacobi

De Ax = b se tiene que (DLU)x = b y, por tanto, Dx = (L+U)x+b.


Luego
x = D1 (L + U)x + D1 b.
Teniendo en cuenta la anterior igualdad se deduce el siguiente mtodo inter-
ativo
x(m+1) = BJ x(m) + cJ ,
siendo a12 a1n
0
a a11 a11
21 a2n
0

1 a22 a22

BJ = D (L + U) = ,
.. .. .. ..
a . . . .


n1 an2
0
ann ann

b1
a11
b2

cJ = D1 b =

a22. .

..

bn
ann
Por tanto, el valor de cada incgnita en cada paso del mtodo m es
X (m)
bi aij xj
(m+1) j6=i
xi = , i = 1, . . . , n.
aii

13
6.2. Mtodo de Gauss-Seidel

De Ax = b se tiene que (DLU)x = b y, por tanto, (DL)x = Ux+b.


Luego
x = (D L)1 Ux + (D L)1 b.
Teniendo en cuenta la anterior igualdad se deduce el siguiente mtodo inter-
ativo
(D L)x(m+1) = Ux(m) + b,
que se trata de un sistema triangular inferior en cada paso, que se resuelve
por sustitucin progresiva. Por tanto, el valor de cada incgnita en cada paso
del mtodo m es
X (m+1)
X (m)
bi aij xj aij xj
(m+1) j<i j>i
xi = , i = 1, . . . , n.
aii

6.3. Mtodo de relajacin

En este caso, dado R, se considera la descomposicin de la matriz de


coecientes en la forma:
1 1
A= D D L U.

Luego
(D L)x = ((1 )D + U)x + b.
Teniendo en cuenta la anterior igualdad se deduce el siguiente mtodo inter-
ativo
(D L)x(m+1 = ((1 )D + U)x(m) + b.
que se trata de un sistema triangular inferior en cada paso, que se resuelve
por sustitucin progresiva. Por tanto, el valor de cada incgnita en cada paso
del mtodo m es
X (m+1)
X (m)
bi aij xj aij xj
(m+1) j<i j>i (m)
xi = + (1 )xi , i = 1, . . . , n.
aii
Se pueden demostrar los sisguientes resultados de convergencia:

14
Teorema: Si A es estrictamente diagonalmente dominante entonces los
mtodos de Jacobi y Gauss-Seidel convergen.

Teorema: Si el mtodo de relajacin converge entonces [0, 2].

15
UNIVERSIDAD DE GRANADA
DEPARTAMENTO DE MATEMTICA APLICADA
www.ugr.es/local/mateapli

INTERPOLACIN

2006-2007 Jos Martnez Aroza

Introduccin

Interpolar (D.R.A.E.): Averiguar el valor aproximado de una magnitud


en un intervalo cuando se conocen algunos de los valores que toma
a uno y otro lado de dicho intervalo, y no se conoce la ley de variacin
de la magnitud.

Interpolacin 2/90
Introduccin
ventas

800

600

400

200

meses
2 4 6 8

Interpolacin 3/90

Introduccin
ventas

800

600

400

200

meses
2 4 6 8

Interpolacin 4/90
Interpolacin Lagrangiana

Problema de Interpolacin Lagrangiana (versin previa):


Dados los nodos { x0 , x1 ,, x n } y sus valores respectivos { y 0 , y1 ,, y n },
obtngase una funcin p(x ) sencilla que verifique p( xi ) = yi , i = 0,1,, n .

10

1 2 3 4

-5

Interpolacin 5/90

Interpolacin Lagrangiana
p : funcin interpoladora o interpolante

Sencilla = hay que fijar un espacio de funciones F .


Problema bien planteado dim F = n + 1 = n de datos.

Problema de Interpolacin Lagrangiana (P.I.L.):


Dados los nodos { x0 , x1 ,, x n } y sus valores respectivos { y 0 , y1 ,, y n },
y dado (o fijado) un espacio de funciones F con dim F = n + 1,
obtngase una funcin p F que verifique p ( xi ) = yi , i = 0,1,, n .

Problema de Interpolacin Polinomial Lagrangiana (P.I.P.L.):


Dados los nodos { x0 , x1 ,, x n } y sus valores respectivos { y 0 , y1 ,, y n },
obtngase un polinomio p Pn tal que p( x i ) = y i , i = 0,1, , n .

Interpolacin 6/90
Interpolacin Lagrangiana
Resolucin del P.I.L.:
n
Se escoge una base { 0 , 1 ,, n } de F y se busca p = a j j que cumpla las
j =0
condiciones de interpolacin
p( x0 ) = y0 a0 0 ( x0 ) + a11 ( x0 ) + + an n ( x0 ) = y0

p( x1 ) = y1 a0 0 ( x1 ) + a11 ( x1 ) + + an n ( x1 ) = y1
p( xn ) = y0 a0 0 ( xn ) + a11 ( xn ) + + an n ( xn ) = yn

(Sistema lineal ( n + 1) ( n + 1) con incgnitas a j .)

El P.I.L. es unisolvente (solucin nica) el sistema es C.D.


Solucin = coeficientes de la funcin interpoladora.

Interpolacin 7/90

Interpolacin Lagrangiana

x 1 0 1 3
, F = P3 = 1, x, x , x
2 3
Ejemplo: .
y 0 1 2 4

Polinomio buscado: p ( x ) = a 0 + a1 x + a 2 x 2 + a 3 x 3 .

Sistema:
a0 a1 + a2 a3 = 0
a0 = 1

a0 + a1 + a2 + a3 = 2
a0 + 3a1 + 9a 2 + 27a 3 = 4

p ( x ) = x 3 2 x 2 2 x + 1.

Interpolacin 8/90
Interpolacin Lagrangiana

-2 -1 1 2 3 4

-5

- 10

Interpolacin 9/90

Interpolacin Lagrangiana

Unisolvencia del P.I.P.L.: Usando la base {1, x,, x }, el


n

determinante de la matriz de coeficientes es el det. de Vandermonde

1 x 0 x 02 x 0n

1 x1 x12 x1
n
det = ( xi x j );
i> j

1 x n x n2 x nn
det 0 las abscisas x i no se repiten (no hay dos iguales).

Demostracin: restando a cada columna la anterior x0 ,


1 0 0 1 x1 x1n 1 n
1 x x n 1
x ( x1 x0 )
= det 1 0 1
= det
1 xn n 1
( xi x0 ) .
xn i =1
1 xn x0 xnn 1 ( xn x0 )

Interpolacin 10/90
Interpolacin Lagrangiana

Para no tener que resolver s.e.l. se emplean frmulas de interpolacin, que dan
directamente el polinomio de interpolacin.

Frmulas clsicas: la Frmula de Lagrange y la Frmula de Newton.


Diferentes expresiones, pero el mismo objetivo: el polinomio de interpolacin.

Interpolacin 11/90

Frmula de Lagrange

FRMULA DE LAGRANGE

Interpolacin 12/90
Frmula de Lagrange

Dados los nodos {x0 , x1 ,, x n }, los polinomios fundamentales de Lagrange


0 , 1 ,, n Pn son aquellos que verifican

0 ( x0 ) = 1, 0( x1 ) = 0,
( xn ) = 0 0

1 ( x0 ) = 0, 1 ( x1 ) = 1,

1 ( xn ) = 0 , es decir,
1 si i = j
( xi ) = ij =
0 si i j
j

n ( x0 ) = 0, n ( x1 ) = 0, n ( xn ) = 1

(delta de Kronecker). Una vez obtenidos, la solucin del P.I.P.L. es la

Frmula de Lagrange
n
p( x ) = y 0 0 ( x ) + y1 1 ( x ) + + yn n ( x) = y j j ( x).
j =0

n n
En efecto, p ( x i ) = y
j =0
j j ( x i ) = y j ij = y i .
j =0

Interpolacin 13/90

Frmula de Lagrange
Construccin de los polinomios fundamentales de Lagrange:

0 se anula en x1 , , x n
es divisible por ( x x1 ), ( x x 2 ), , ( x x n )
0 = K ( x x1 )( x x 2 ) ( x x n ) , con K = cte.

1
Se escoge K para que ( x0 ) = 1 K = ,
( x 0 x1 )( x 0 x 2 ) ( x0 xn )
0

x x1 x x2 x xn n
x xi
por tanto 0 ( x) = = .
x0 x1 x0 x2 x0 xn i =1 x0 xi
n
x xi
En general j ( x) = (hay un error).
i =0 x j xi
Ejercicio: demostrar que { 0 , 1 , , n } es una base de Pn .

Interpolacin 14/90
Frmula de Lagrange

x 1 0 1 3
Ejemplo: , unisolvente en P3 .
y 0 1 2 4

x 0 x 1 x 3 1 3
= = ( x 4 x 2 + 3x )
1 0 11 1 3
0
8
x +1 x 1 x 3 1
= = ( x 3 2 x 2 x + 4)
0 +1 0 1 0 3
1
3
x +1 x 0 x 3 1
= = ( x 3 2 x 2 3x )
1+1 1 0 1 3
2
4
x +1 x 0 x 1 1
3 = = ( x3 x)
3 +1 3 + 0 3 1 24

p=0 0 +1 1 2 2 +4 3 = x3 2 x2 2 x + 1

Interpolacin 15/90

Frmula de Lagrange

-2 -1 1 2 3 4

-1

-2

Interpolacin 16/90
Frmula de Lagrange
Ventaja de la frmula de Lagrange: Los polinomios fundamentales slo dependen
de los nodos {x0 , x1 ,, x n }; varios P.I.P.L. con el mismo conjunto de abscisas
comparten los mismos polinomios fundamentales.
600
Crdito
500

400

300 Contado

200

100 Gastos

1 2 3 4

Inconveniente de la frmula de Lagrange: Si se aade nueva informacin (un


nuevo punto), hay que reconstruir casi todo.

Interpolacin 17/90

Frmula de Newton

FRMULA DE NEWTON

Interpolacin 18/90
Frmula de Newton
Objetivo: construir el pol. de interp. p (x ) gradualmente, partiendo de un solo dato
( x 0 , y 0 ) e ir aadiendo datos progresivamente.
p 0 P0 : polin. que interpola en {x 0 },
p1 P1 : polin. que interpola en {x 0 , x1 },
p 2 P2 : polin. que interpola en {x 0 , x1 , x 2 },

p n = p Pn : polin. que interpola en {x 0 , x1 , , x n }.

Se trata de obtener pk conocido pk 1 , k = 1,, n .

Interpolacin 19/90

Frmula de Newton
4

1 2 3 4 5

-1

Interpolacin 20/90
Frmula de Newton
4

1 2 3 4 5

-1

Interpolacin 21/90

Frmula de Newton
4

1 2 3 4 5

-1

Interpolacin 22/90
Frmula de Newton
4

1 2 3 4 5

-1

Interpolacin 23/90

Frmula de Newton
4

1 2 3 4 5

-1

Interpolacin 24/90
Frmula de Newton
Construccin progresiva
p 0 ( x ) = y 0 P0 interpola en x 0 (cumple p 0 ( x 0 ) = y 0 ).
p1 ( x ) P1 interpola en {x0 , x1}; q1 = p1 p0 P 1 se anula en x 0
q1 ( x ) = A1 ( x x 0 ) , con A1 adecuado para que
y p 0 ( x1 )
p1 ( x1 ) = p 0 ( x1 ) + q1 ( x1 ) = y1 A1 = 1 .
x1 x 0
p 2 = p1 + q 2 P2 interpola en x0 , x1 , x2 ; q 2 P2 se anula en x 0 y x1
q 2 ( x ) = A2 ( x x 0 )( x x1 ) con A2 adecuado para que
y 2 p1 ( x 2 )
p 2 ( x 2 ) = p1 ( x 2 ) + q 2 ( x 2 ) = y 2 A2 = .
( x 2 x 0 )( x 2 x1 )
en general p k = p k 1 + q k Pk , q k se anula en x 0 , , x k 1
y k p k 1 ( x k )
q k ( x ) = Ak ( x x 0 ) ( x x k 1 ) con Ak = .
( x k x 0 ) ( x k x k 1 )

Interpolacin 25/90

Frmula de Newton

Conviniendo A0 = y 0 se tiene

p( x ) = p n ( x ) = A0 + A1 ( x x 0 ) + A2 ( x x 0 )( x x1 )
+ + An ( x x 0 ) ( x x n 1 )

es decir

n k 1
p( x ) = Ak ( x x i ) ,
k =0 i =0

que es la frmula de Newton (preliminar).

Interpolacin 26/90
Frmula de Newton

x 1 0 1 3
Ejemplo: ; A0 = y0 = 0 p0 ( x ) = 0;
y 0 1 2 4
y1 p0 ( x1 ) 1 0
A1 = = = 1 p1 ( x ) = 0 + 1( x + 1) = x + 1;
x1 x0 0 +1

y2 p1 ( x2 ) 22
A2 = = = 2
( x2 x0 )( x2 x1 ) (1 + 1)(1 0)
p2 ( x ) = p1 ( x ) 2( x + 1)( x 0) = ( x + 1) 2( x + 1) x;

y3 p2 ( x3 ) 4 + 20
A3 = = =1
( x3 x0 )( x3 x1 )( x3 x2 ) 4 3 2
p3 ( x ) = p2 ( x ) + 1( x + 1) x ( x 1)
= x 3 2 x 2 2 x + 1.

Interpolacin 27/90

Diferencias divididas

Notacin: Ak = f [ x 0 , , x k ] diferencia dividida de f en x 0 , , x k .

Frmula de Newton: (definitiva)


n k 1
p( x ) = f [ x 0 , , x k ] ( x x i ) .
k =0 i =0

Interpolacin 28/90
Diferencias divididas

Propiedad de las diferencias divididas:

n
f ( xk )
f [ x0 , , x n ] = n
.
k =0
(x
i =0
k xi )
i k

Consecuencia: f [ x0 ,, xn ] es simtrica respecto de x0 ,, xn .

Demostracin: identificando coef. de gr. n en las frmulas de Lagrange y Newton:


n k 1 n n
x xi
p( x ) = f [ x0 ,, xk ] ( x xi ) = y j .
k =0 i =0 j =0 i =0 x j xi
i j

Interpolacin 29/90

Diferencias divididas

Propiedad de las diferencias divididas:


f [ x1 ,, xn ] f [ x0 ,, xn 1 ]
f [ x0 , , x n ] = .
x n x0

Demostracin: identificando coef. de gr. n 1 en las frmulas de Newton directa e


inversa de gr. n :
n k 1 n n
p( x ) = f [ x0 ,, xk ] ( x xi ) = f [ xn ,, xn k ] ( x xi )
k =0 i =0 k =0 i = k +1

n 1 n
f [ x0 ,, xn 1 ] f [ x0 ,, xn ] xi = f [ xn ,, x1 ] f [ x0 ,, xn ] xi .
i =0 i =1

Interpolacin 30/90
Diferencias divididas
Tabla de diferencias divididas

x0 f [ x0 ] = y0
f [ x0 , x1 ]
x1 f [ x1 ] = y1 f [ x0 , x1 , x2 ]
f [ x1 , x2 ]
x2 f [ x2 ] = y 2 f [ x0 , , x n ]

f [ x n 1 , x n ]
xn f [ xn ] = y n

Interpolacin 31/90

Diferencias divididas

x 1 0 1 3
Ejemplo: ;
y 0 1 2 4

1 0
1
0 1 2
3 1
1 2 2
3
3 4

p( x ) = 0 + 1( x + 1) 2( x + 1) x + 1( x + 1) x ( x 1) .

Interpolacin 32/90
El error de interpolacin

EL ERROR DE INTERPOLACIN EN EL P.I.P.L.

Interpolacin 33/90

El error de interpolacin

Sean zi = f ( xi ) los datos de un P.I.P.L., provenientes de una funcin f ( x ) .

Definicin: Error de interpolacin E ( x ) = f ( x ) p( x ) .


n
Teorema: E ( x ) = f [ x0 , x1 ,, xn , x ] ( x ) , donde ( x ) = ( x xi ) .
i =0

Demostracin: Ampliando la frmula de Newton con xn +1 se tiene


yn +1 p( xn +1 )
f [ x0 , , xn +1 ] = n
f [ x0 , , xn +1 ] ( xn +1 ) = E ( xn +1 ) ,
(x
i =0
n +1 xi )

vlido xn +1 .

Interpolacin 34/90
El error de interpolacin

Teorema: Sea f C [a , b] y
n
x0 , , xn [a, b]. Entonces [a, b] tal que
f ( n ) ( )
f [ x0 , , xn ] = .
n!

Demostracin: E ( x ) C [a , b] y se anula en
n
x0 , , xn n + 1 veces;
aplicando el T. de Rolle E ( x ) C
n 1
[a , b] se anula n veces;

E ( n ) ( x ) C 0 [a , b] se anula 1 vez.

n +1
Consecuencia: Si f C [a , b] entonces
f ( n +1) ( )
E ( x) = ( x) .
( n + 1)!

Interpolacin 35/90

Interpolacin por recurrencia

INTERPOLACIN POR RECURRENCIA

Interpolacin 36/90
Interpolacin por recurrencia
Interpolacin por recurrencia:

C {x0 , x1 ,, xn }, sea pC (x ) el interpolante en los puntos de C .

Teorema (Lema de Aitken): Sean xi , x j C . Entonces

( x x j ) pC { x i } ( x ) ( x xi ) pC { x j } ( x )
pC { x i , x j } ( x ) = .
xi x j

Demostracin: basta comprobar.

Principal aplicacin: evaluacin del interpolante sin construirlo.

Interpolacin 37/90

Interpolacin por recurrencia


Mtodo de Neville:

x x0 p{ x 0 } ( x ) = y0
p{ x 0 , x1 } ( x )
x x1 p{ x1 } ( x ) = y1 p{ x 0 , x1 , x 2 } ( x )
p{ x1 , x 2 } ( x )
x x2 p{ x 2 } ( x ) = y2 p{ x 0 ,, x n } ( x )

p{ x n 1 , x n } ( x )
x xn p{ x n } ( x ) = yn

Interpolacin 38/90
Interpolacin por recurrencia

x 1 0 1 3
Ejemplo del mtodo de Neville: en x=2
y 0 1 2 4

3 0
3
2 1 9
5 3 p ( 2 ) = 3
1 2 1
1
1 4

Interpolacin 39/90

Interpolacin por recurrencia


Mtodo de Aitken:

x x0 p{ x 0 } ( x ) = y0
x x1 p{ x1 } ( x ) = y1 p{ x 0 , x1 } ( x )
x x2 p{ x 2 } ( x ) = y2 p{ x 0 , x 2 } ( x ) p{ x 0 , x1 , x 2 } ( x )

x xn p{ x n } ( x ) = yn p{ x 0 , x n } ( x ) p{ x 0 , x1 , x n } ( x ) p{ x 0 ,, x n } ( x )

Ejemplo del mtodo de Aitken:

3 0
2 1 3
p ( 2 ) = 3
1 2 3 9
1 4 3 3 3

Interpolacin 40/90
Resumen de soluciones para el P.I.P.L.

RESUMEN DE SOLUCIONES PARA EL P.I.P.L.

Interpolacin 41/90

Resumen de soluciones para el P.I.P.L.

Con la base cannica {1, x, x ,, x }


2 n

n
Solucin: (sistema de ecuaciones lineales) p ( x ) = a x
j =0
j
j

Con la base de Lagrange { 0 , 1 , , n }


n
Solucin: frmula de Lagrange p ( x ) = y
j =0
j j ( x)

Con base de Newton {1, ( x x0 ), ( x x0 )( x x1 ),, ( x x0 ) ( x xn 1 )}


Solucin: frmula de Newton
n k 1
p( x ) = f [ x 0 , , x k ] ( x x i ) .
k =0 i =0

Interpolacin 42/90
Evaluacin de polinomios

EVALUACIN DE POLINOMIOS

Interpolacin 43/90

Evaluacin de polinomios
n 1
Para evaluar p ( x ) = an x + an 1 x + + a1 x + a0 se requieren:
n

n( n 1)
multiplicaciones para potencias
2
n multiplicaciones por coeficientes

n sumas de monomios

n 2 + 3n
operaciones
2
...y los errores de redondeo se amplifican.

Interpolacin 44/90
Evaluacin de polinomios
Expresin equivalente:

p( x ) = a0 + x ( a1 + x ( a2 + x ( ( an 1 + x ( an ) ))) .

Algoritmo de Horner para evaluar p ( x ) en el punto x = r :

s = a[[n]];
For[i=n-1, i>=0, i--, s = s*r+a[[i]] ];

Algoritmo de Horner para la frmula de Newton

p( x ) = A0 + ( x x0 )( A1 + ( x x1 )( ( An 1 + ( x xn 1 )( An ) )))
s = A[[n]];
For[i=n-1, i>=0, i--, s = s*(r-x[[i]]) + A[[i]] ];

Interpolacin 45/90

Otros Problemas de Interpolacin

OTROS PROBLEMAS DE INTERPOLACIN

Interpolacin 46/90
Otros Problemas de Interpolacin
Problema de Interpolacin de Taylor

Obtngase p Pn conocidos los valores de p ( a ), p( a ), p( a ),, p


(n)
(a ) .

Solucin 1: Con la base cannica Solucin 2: Con la base de Newton


{1, x, x 2 ,, x n } resulta el sistema {1, ( x a ), ( x a ) 2 ,, ( x a ) n }
triangular superior: resulta el sistema diagonal:

1 a a2 an p(a ) 0! 0 0 p(a )
0 1! p( a )
0 1 2a na n 1 p( a )
0


0 0 0 n! p ( n ) ( a ) 0 0 n! p ( n ) ( a )

Solucin: el desarrollo polinomial de Taylor.

Interpolacin 47/90

Otros Problemas de Interpolacin

Problema de Interpolacin de Hermite clsico


Obtngase p P
2 n +1 conocidos los valores de
p( x0 ), p( x0 ), p( x1 ), p( x1 ),, p( xn ), p( xn ) .

Solucin: Con la base de Newton


{1, ( x x0 ), ( x x0 ) 2 , ( x x0 ) 2 ( x x1 ), ( x x0 ) 2 ( x x1 ) 2 ,
, ( x x0 ) 2 ( x x1 ) 2 ( x xn )}
x 1 2 3 2
Ejemplo: y 1 2 3
1.5
y 1 1 1
1

unisolvente en P5 . 0.5

0.5 1 1.5 2

Interpolacin 48/90
Otros Problemas de Interpolacin
Enfoque de Langrange en el caso polinomial con datos tipo Hermite clsico:
Datos: z0 , z1 , , zn , z0 , z1, , zn ; espacio interpolador: V = P
2 n +1 .

Base de Lagrange: { A0 , A1 , , An , B0 , B1 , , Bn } cumpliendo

Aj ( xi ) = ij , Aj ( xi ) = 0,
B j ( xi ) = 0, B j ( xi ) = ij .
n
x xk
Sean j ( x) = los polinomios fundamentales del problema clsico;
k =0 x j xk
k j

Aj = (1 2( x x j ) j ( x j ) ) 2
j ( x ),
B j = ( x x j ) 2j ( x ).
Frmula de Lagrange: p( x ) = z j Aj ( x ) + z j B j ( x ) .
j j
Ejercicio: comprobar.

Interpolacin 49/90

Otros Problemas de Interpolacin

Diferencia dividida generalizada: sup. f C n [a , b] y x0 x1 xn ;


f [ x1 , , xn ] f [ x0 , , xn 1 ]
si x0 < xn
f [ x0 , , xn ] = xn x0
(n)
si x0 = xn

1
n! f ( x0 )

Enfoque de Newton: cada serie f ( xi ), f ( xi ), , f ( k ) ( xi ) genera el fragmento


xi f [ xi ] = f ( xi )
f [ xi , xi ] = f ( xi )
xi f [ xi ] = f ( xi ) f [ xi , xi , xi ] = 1
2! f ( xi )
f [ xi , xi ] = f ( xi )
xi f [ xi ] = f ( xi ) 1
k! f ( k ) ( xi )

f [ xi , xi ] = f ( xi )
xi f [ xi ] = f ( xi )

Interpolacin 50/90
Otros Problemas de Interpolacin

x 1 2 3
Ejemplo: y 1 2 3 unisolvente en P5 .
y 1 1 1
Base: {1,( x 1),( x 1) ,( x 1) ( x 2),( x 1) ( x 2) ,( x 1) ( x 2) ( x 3)}
2 2 2 2 2 2

Tabla de diferencias divididas generalizadas:

1 1
1
1 1 2
1 4
2 2 2 3
1 2 3
2 2 2 3
1 4
3 3 2
1
3 3

Interpolacin 51/90

El Problema General de Interpolacin

EL PROBLEMA GENERAL DE INTERPOLACIN

Interpolacin 52/90
El Problema General de Interpolacin

Definicin: Dado V espacio vectorial sobre R , una forma lineal sobre V es


L :V R verificando
L( f + g ) = L( f ) + L( g ) , R f , g V .

Ejemplos: (V = espacio de funciones R R )

L1 ( f ) = f (7),
L2 ( f ) = f ( x0 ),
L3 ( f ) = f ( 2),
b
L4 ( f ) = f ( x ) dx,
a

L5 ( f ) = f (0).

Interpolacin 53/90

El Problema General de Interpolacin

Problema General de Interpolacin (P.G.I.):


Sea V un espacio vectorial real de dimensin finita n . Dadas las formas
lineales {L1 , L2 , , Ln } sobre V y los valores reales {z1 , z2 , , zn },
obtngase p V que verifique Li ( p ) = zi , i = 1, 2, , n .

Teorema: Sea {v1 , v2 , , vn } una base de V . El P.G.I. es unisolvente si y slo


si el determinante de Gram
det( Li ( v j ))
es no nulo.

Demostracin: Si p = a j v j , entonces a j Li ( v j ) = zi , i = 1, 2,, n es un


j j

sistema de ecuaciones lineales cuyo determinante es el de Gram.

Interpolacin 54/90
El Problema General de Interpolacin
Casos particulares usuales:

V = Pn interpolacin polinomial
V = 1,cos x,sen x,cos 2 x,sen 2 x, interpolacin trigonomtrica

Li ( f ) = f ( xi ) datos lagrangianos
L2i ( f ) = f ( xi ), L2 i 1 ( f ) = f ( xi ) datos tipo Hermite clsico
Li ( f ) = f ( i ) ( x0 ) datos tipo Taylor

Caractersticas del P.G.I.:

el n de datos es finito
las condiciones de interpolacin son lineales
la dimensin del espacio interpolador es igual al n de datos.

Interpolacin 55/90

El Problema General de Interpolacin


Construccin de la solucin del P.G.I.
Enfoque directo: con el sistema de Gram a L (v ) = z , i = 1, 2,, n .
j
j i j i

Enfoque de Lagrange: sea una base { 1 , 2 , , n } de V tal que Li ( j ) = ij ;


entonces p = zj j (frmula de Lagrange).
j

Enfoque de Newton: sea una base {w1 , w2 , , wn } de V con Li ( w j ) = 0 i < j


y L j ( w j ) 0 j ; entonces p = a j w j (frmula de Newton), donde
j

k 1
zk Lk a j w j
a1 =
z1
, ak =
j =1 , k = 2, , n .
L1 ( w1 ) Lk ( wk )

Ejercicio: Comprobar todo.

Interpolacin 56/90
Interpolacin mediante splines

INTERPOLACIN MEDIANTE FUNCIONES SPLINE

Interpolacin 57/90

Interpolacin mediante splines


Los polinomios de alto grado interpolacin adoptan comportamientos anmalos.

20

15

10

5 10 15 20

Interpolacin 58/90
Interpolacin mediante splines
Los polinomios de alto grado interpolacin adoptan comportamientos anmalos.

20

15

10

5 10 15 20

Interpolacin 59/90

Interpolacin mediante splines


Los polinomios de alto grado interpolacin adoptan comportamientos anmalos.

20

15

10

5 10 15 20

Interpolacin 60/90
Funciones spline

Definicin: Un spline de grado n y clase m con nodos {x0 ,, x N } es una funcin


s(x ) definida en [a , b] = [ x0 , x N ] verificando:
1. si = s [ xi 1 , xi ] es un polinomio de grado n (i = 1,2,, N )
2. s C m [ a , b] .

Convenio: salvo indicacin expresa, se sobreentiende m = n 1.


Espacios de splines en los nodos {x0 ,, x N }
de grado n y clase m : S n m ( x0 ,, x N ) .
de grado n (y clase m = n 1): S n ( x0 ,, x N ) .
Casos usuales:
n = 1: grado 1 (clase 0 = continua) poligonal spline lineal
n = 2 : grado 2 (clase 1 = derivable) spline cuadrtico
n = 3: grado 3 (clase 2 = derivable 2 veces) spline cbico
n = 3, m = 1: spline cbico de clase 1 (caso especial).

Interpolacin 61/90

Funciones spline

2 4 6 8

Interpolacin 62/90
Funciones spline

2 4 6 8

Interpolacin 63/90

Funciones spline

2 4 6 8

Interpolacin 64/90
Funciones spline

1 2 3 4 5 6

Interpolacin 65/90

Construccin de splines por trozos

CONSTRUCCIN DE SPLINES POR TROZOS

Interpolacin 66/90
Construccin de splines por trozos
Expresin a trozos:
s1 ( x ) Pn si x [ x 0 , x1 ]
s ( x ) Pn si x [ x1 , x 2 ]
s( x ) = 2

s N ( x ) Pn si x [ x N 1 , x N ]
Restricciones de suavidad:

si( k ) ( xi ) = si(+k1) ( xi ) i = 1,, N 1, k = 0,, m

por tanto

dim S n m ( x0 ,, x N ) = ( n + 1) N ( m + 1)( N 1)
= N (n m) + m + 1

Interpolacin 67/90

Construccin de splines por trozos

Caso lineal ( n = 1): Cada trozo si ( x ) = ai x + bi aporta dos incgnitas;


dos ecuaciones: si ( xi 1 ) = yi 1 (extremo izdo.) y si ( xi ) = yi (extremo dcho.)
subproblema 2 2 .

Construccin directa:
x xi l x x
si ( x ) = yi + yi 1 i , i = 1,, N
hi hi
con hi = xi xi 1 , i = 1,, N .

x 1 0 1 3
Ejemplo:
y 0 1 2 4
s1 ( 1) = 0, s1 (0) = 1 s1 ( x ) = x + 1
s2 ( 0) = 1, s2 (1) = 2 s2 ( x ) = 3x + 1
s3 ( 1) = 2, s3 (3) = 4 s3 ( x ) = 3x 5

Interpolacin 68/90
Construccin de splines por trozos

Caso cuadrtico ( n = 2 ): Cada trozo si ( x ) = ai x 2 + bi x + ci aporta tres incgnitas


total 3N ;
Ecuaciones:
Interpolacin (clase 0 ): 2 por trozo (extremos izdo. y dcho.)
Clase 1: si( xi ) = si+1 ( xi ) i = 1,, N 1 son N 1 ecuaciones.
total 2 N + N 1 = 3N 1 ecuaciones falta una ecuacin!.
Se aade una ecuacin adicional para cuadrar el problema.

Construccin directa con s( x0 ) = d 0 :


wi d i 1
si ( x ) = yi 1 + d i 1 ( x xi 1 ) + ( x xi 1 ) 2 , i = 1,, N
hi
y i yi 1
con wi = , d i = 2 wi d i 1 , i = 1,, N , d 0 = y0 .
hi

Interpolacin 69/90

Construccin de splines por trozos

Caso cbico ( n = 3): Cada trozo si ( x ) = ai x 3 + bi x 2 + ci x + d i aporta cuatro


incgnitas total 4 N ;
Ecuaciones:
Interpolacin (clase 0 ): 2 por trozo (extremos izdo. y dcho.)
Clase 1: si( xi ) = si+1 ( xi ) i = 1,, N 1 son N 1 ecuaciones.
Clase 2 : si( xi ) = si+1 ( xi ) i = 1,, N 1 son N 1 ecuaciones.
total 2 N + 2( N 1) = 4 N 2 ecuaciones faltan dos ecuaciones!.

Ecuaciones adicionales tpicas:


s( a ) = s(b) = 0 spline natural
prolongable mediante rectas de clase 2 en todo R .
s( a ) = y0 , s(b) = y N spline de extremo sujeto
pendientes fijas de entrada y salida.
s( a ) = s(b), s( a ) = s(b) spline peridico
prolongable por periodicidad de clase 2 en todo R .

Interpolacin 70/90
Construccin de splines por trozos
Construccin directa del spline cbico natural o sujeto:
wi d i 1
si ( x ) = yi 1 + d i 1 ( x xi 1 ) + ( x xi 1 ) 2
hi
d i 1 + d i 2 wi
+ 2
( x xi 1 ) 2 ( x xi ), i = 1,, N
hi
siendo d i la solucin del s.e.l. tridiagonal simtrico
1 1 1 1 w w
d i 1 + 2 + d i + d i +1 = 3 i +1 + i , i = 1,, N 1
hi hi hi +1 hi +1 hi +1 hi
con las ecuaciones adicionales
natural: d 0 = y0 , d N = y N ;
sujeto: 2d 0 + d1 = 3w1 , d N 1 + 2d N = 3wN .

Interpolacin 71/90

Construccin de splines por trozos


Caso especial:
n = 3, m = 1 para datos tipo Hermite clsico (valor y derivada en cada punto).
Para cada trozo si ( x ) se tienen 4 incgnitas y 4 ecuaciones
( 2 valores y 2 derivadas), formando un subproblema 4 4 .

Caso general (P.I.L. en S n


m
( x0 ,, x N ) ): Hay N ( n + 1) incgnitas;
Ecuaciones:
Interpolacin+continuidad: 2 N ( = N + 1 interpolacin + N 1 clase 0 ).
Suavidad de clase 1: N 1
Suavidad de clase 2: N 1

Suavidad de clase m: N 1
Total ecuaciones: 2 N + m( N 1) = ( m + 2) N m ;
si m = n 1 entonces siempre faltan m ecuaciones adicionales.
Se obtiene un sistema N ( n + 1) N ( n + 1) .

Interpolacin 72/90
Construccin de splines por trozos
Teoremas de unisolvencia:

P.I.L. en S1 ( x0 ,, x N )

P.I.L. en S 2 ( x0 ,, x N ) con s( xi ) = d i para algn i {0,1,, N }

P.I.L. en S 3 ( x0 ,, x N ) natural

P.I.L. en S 3 ( x0 ,, x N ) sujeto

P.I.L. en S 3 ( x0 ,, x N ) peridico

Hermite clsico en S 3 ( x0 ,, x N )
1

Interpolacin 73/90

Construccin de splines mediante Potencias truncadas

CONSTRUCCIN DE SPLINES POR POTENCIAS TRUNCADAS

Interpolacin 74/90
Construccin de splines mediante Potencias truncadas
Potencia truncada
xn si x0
( x) =
n
+
0 si x<0
Ejemplos: ( x ) + , ( x 2) 2+ , ( x 2 2) + , ( 2 x 2 ) + , ( x 3)3+ , ( x 4)3+
5

-2 2 4 6

Interpolacin 75/90

Construccin de splines mediante Potencias truncadas

Ejercicios: x = ( x)+ + ( x)+ , x = ( x)+ ( x)+ .

Propiedad: ( x r ) n+ es un spline de grado n con un nodo en r .

Bases de splines:

S1 ( x0 ,, x N ) = 1, x, ( x x1 ) + , ( x x2 ) + ,, ( x x N 1 ) +
S 2 ( x0 ,, x N ) = 1, x, x 2 , ( x x1 ) 2+ , ( x x2 ) 2+ ,, ( x x N 1 ) 2+
S 3 ( x0 ,, x N ) = 1, x, x 2 , x 3 , ( x x1 )3+ , ( x x2 )3+ ,, ( x x N 1 )3+
S n ( x0 ,, x N ) = 1, x, x 2 ,, x n , ( x x1 ) n+ , ( x x2 ) n+ ,, ( x x N 1 ) n+

S 31 ( x0 ,, x N ) = 1, x, x 2 , x 3 , ( x x1 ) 2+ , ( x x2 ) 2+ ,, ( x x N 1 ) 2+ ,
( x x1 )3+ , ( x x2 )3+ ,, ( x x N 1 )3+

Interpolacin 76/90
Construccin de splines mediante Potencias truncadas

x 1 0 1 3
Ejemplo: Spline cbico natural para
y 0 1 2 4

s ( x ) = a + bx + cx 2 + dx 3 + A( x )3+ + B ( x 1)3+

sistema lineal

1 1 1 1 0 0 0
1 0 0 0 0 0 1
1 1 1 1 1 0 2
1 3 9 27 27 8 4
0 0 2 6 0 0 0

0 0 2 18 18 12 0

Solucin: s( x ) =
1
(23 37 x 90 x 2 30 x 3 + 88( x )3+ 72( x 1)3+ )
23

Interpolacin 77/90

Construccin de splines mediante Potencias truncadas

x 1 0 1 3
Ejemplo: Spline cbico sujeto horizontal para
y 0 1 2 4

s ( x ) = a + bx + cx 2 + dx 3 + A( x )3+ + B ( x 1)3+

sistema lineal

1 1 1 1 0 0 0
1 0 0 0 0 0 1
1 1 1 1 1 0 2
1 3 9 27 27 8 4
0 1 2 3 0 0 0

0 1 6 27 27 12 0

Solucin: s( x ) =
1
(22 27 x 120 x 2 71x 3 + 152( x )3+ 120( x 1)3+ )
22

Interpolacin 78/90
Construccin de splines mediante Potencias truncadas
4

-1 1 2 3

-1

-2

Interpolacin 79/90

Construccin de splines mediante Potencias truncadas


4

-1 1 2 3

-1

-2

Interpolacin 80/90
Construccin de splines mediante Potencias truncadas
4

-1 1 2 3

-1

-2

Interpolacin 81/90

Construccin de splines mediante Potencias truncadas


4

-1 1 2 3

-1

-2

Interpolacin 82/90
Interpolacin de Hermite con Splines

INTERPOLACIN DE HERMITE CON SPLINES

Interpolacin 83/90

Interpolacin de Hermite con Splines

x 0 1 2 4
Ejemplo: y 0.5 1 2 1.5 en S 31 (0,1,2,4)
y 0 0 0 0

1.5

0.5

1 2 3 4

- 0.5

Interpolacin 84/90
Propiedades extremales de los splines cbicos

PROPIEDADES EXTREMALES DE LOS SPLINES CBICOS

Interpolacin 85/90

Propiedades extremales de los splines cbicos


Condiciones comunes:
Sean los nodos a = x0 < x1 < < x N = b . Sea s(x ) el spline cbico
natural o sujeto que interpola los nodos con datos y 0 , , y N , y adicionales
s( a ) = s(b) = 0 o bien s( a ) = y0 , s(b) = y N .
Sea f C [a , b] cualquier otra funcin que interpole los mismos datos,
2

incluyendo los adicionales. Sea E ( x ) = f ( x ) s ( x ) .

Lema:
b
s( x ) E ( x )dx = 0.
a

Interpolacin 86/90
Propiedades extremales de los splines cbicos
Demostracin:
N
s( x ) E ( x )dx =
(por partes)
s( x ) E ( x )dx =
b xi
a
i =1
x i 1 u = s, dv = E dx
N

i =1
(
= s( x ) E ( x ) xii 1
x xi

x i 1
s( x ) E ( x )dx )
N
= s(b) E (b) s( a ) E ( a ) Ki
xi
E ( x )dx
x i 1
i =1

si es natural: s( a ) = s(b) = 0 , si es sujeto: E ( a ) = E (b) = 0 , y adems


xi
E ( x )dx = E ( x ) xi = 0 .
x
x i 1 i 1

Interpolacin 87/90

Propiedades extremales de los splines cbicos

Teorema (propiedad extremal):

b b
a
s( x ) 2 dx f ( x ) 2 dx .
a

Demostracin:

f ( x ) 2 dx = (E ( x ) + s( x ) ) dx
b b

2
a a
b b
= E ( x ) 2 dx + s( x ) 2 dx + 0
a a
b
s( x ) 2 dx.
a

Interpolacin 88/90
Propiedades extremales de los splines cbicos

Teorema (estudio del error):

( f (t)dt ) x [a, b]
3 1
b
E ( x) h 2 2
,
a

donde h = max ( xi xi 1 ) es el dimetro de la particin.


1 i N

Demostracin:

E ( xi ) = 0 i ci [ xi 1 , xi ] E ( ci ) = 0 , i = 1,, N ,
luego
x
ci
E (t )dt = E ( x ) x [a , b].

Interpolacin 89/90

Propiedades extremales de los splines cbicos


Por otro lado (abreviando) se tiene

E 2 E 2 = ( f s ) = f 2 s 2 2 s E f 2 ;
x b b b b b b

2
ci a a a a a a

por la desigualdad de Cauchy-Schwarz u, v u v fg f 2 g2


x x x b
E ( x ) ci
E (t ) 2 dt 12 dt h E (t ) 2 dt h f (t ) 2 dt
ci xi a

x
y como x i 1
E (t )dt = E ( x ) E ( xi 1 ) = E ( x ) , entonces se tiene

( f (t) dt ) ( x x
1 1
x x b
E ( x) = E (t )dt E (t ) dt h 2 2 2
i 1 )
x i 1 x i 1 a

( f (t) dt ) .
3 1
b
h 2 2 2
a

Interpolacin 90/90