Está en la página 1de 189

E.T.S.

DE INGENIERIA INFORMATICA

Apuntes de

CALCULO NUMERICO
para la titulacion de

INGENIERIA TECNICA EN INFORMATICA

DE SISTEMAS

Fco. Javier Cobos Gavala


Contenido

Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1 Ecuaciones no lineales 7
1.1 Errores y condicionamiento en problemas numericos . . . . . . 8
1.2 Metodo y algoritmo de la biseccion: analisis de errores . . . . 12
1.3 Punto fijo e iteracion funcional . . . . . . . . . . . . . . . . . . 19
1.4 Analisis del metodo de Newton-Raphson . . . . . . . . . . . . 25
1.4.1 Metodo de Newton generalizado . . . . . . . . . . . . . 31
1.5 Un problema mal condicionado: ceros de un polinomio . . . . 34
1.5.1 Sucesiones de Sturm . . . . . . . . . . . . . . . . . . . 38
1.5.2 Algoritmo de Horner . . . . . . . . . . . . . . . . . . . 41
1.6 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 43
1.7 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 54

2 Sistemas de ecuaciones lineales 61


2.1 Normas vectoriales y matriciales . . . . . . . . . . . . . . . . . 61
2.1.1 Normas vectoriales . . . . . . . . . . . . . . . . . . . . 62
2.1.2 Distancia inducida por una norma . . . . . . . . . . . . 62
2.1.3 Convergencia en espacios normados . . . . . . . . . . . 63
2.1.4 Normas matriciales . . . . . . . . . . . . . . . . . . . . 64
2.1.5 Transformaciones unitarias . . . . . . . . . . . . . . . . 66
2.1.6 Radio espectral . . . . . . . . . . . . . . . . . . . . . . 67

3
4 Contenido

2.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . 71


2.2.1 Numero de condicion . . . . . . . . . . . . . . . . . . . 74
2.3 Metodos directos de resolucion de sistemas lineales . . . . . . 80
2.3.1 Factorizacion LU . . . . . . . . . . . . . . . . . . . . . 80
2.3.2 Factorizacion de Cholesky . . . . . . . . . . . . . . . . 84
2.4 Metodos iterados de resolucion de sistemas lineales . . . . . . 87
2.4.1 Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . . 92
2.4.2 Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . . 93
2.4.3 Metodos de relajacion (SOR) . . . . . . . . . . . . . . 93
2.5 Factorizaciones ortogonales . . . . . . . . . . . . . . . . . . . . 95
2.5.1 Factorizacion QR de Gram-Schmidt . . . . . . . . . . . 95
2.5.2 Factorizacion QR mediante rotaciones . . . . . . . . . 96
2.5.3 Factorizacion QR de Householder . . . . . . . . . . . . 98
2.6 Sistemas superdeterminados. Problema de los mnimos cuadrados107
2.6.1 Transformaciones en sistemas superdeterminados . . . 110
2.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 112
2.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 122

3 Interpolacion 141
3.1 Interpolacion polinomial . . . . . . . . . . . . . . . . . . . . . 142
3.1.1 Interpolacion de Lagrange . . . . . . . . . . . . . . . . 145
3.1.2 Interpolacion de Newton . . . . . . . . . . . . . . . . . 148
3.1.3 Interpolacion de Hermite . . . . . . . . . . . . . . . . . 157
3.2 Interpolacion por splines . . . . . . . . . . . . . . . . . . . . . 160
3.2.1 Splines cubicos . . . . . . . . . . . . . . . . . . . . . . 161
3.3 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 164
3.4 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 168

4 Integracion numerica 171


4.1 Formulas de cuadratura . . . . . . . . . . . . . . . . . . . . . 172
4.2 Formulas de Newton-Cotes . . . . . . . . . . . . . . . . . . . . 174
Contenido 5

4.2.1 Formula del trapecio . . . . . . . . . . . . . . . . . . . 177


4.2.2 Formula de Simpson . . . . . . . . . . . . . . . . . . . 178
4.3 Formulas compuestas . . . . . . . . . . . . . . . . . . . . . . . 179
4.3.1 Simpson para n par . . . . . . . . . . . . . . . . . . . . 179
4.3.2 Trapecios para n impar . . . . . . . . . . . . . . . . . . 180
4.4 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 181
4.5 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 186

Bibliografa 189
1. Ecuaciones no lineales

Dada una funcion no nula f : C C, resolver la ecuacion f (x) = 0 es hallar


los valores x que anulan a dicha funcion. A estos valores x se les denomina
races o soluciones de la ecuacion, o tambien, ceros de la funcion f (x).
Los metodos de resolucion de ecuaciones y sistemas de ecuaciones se clasifican
en

Metodos directos

Proporcionan la solucion mediante un numero finito de operaciones ele-


mentales.
2 b b2 4ac
ax + bx + c = 0 = x =
2a
Metodos iterados

Construyen una sucesion (xn ) convergente a la solucion x de la ecuacion


o del sistema.

Sin embargo, el siglo XIX, Abel probo que no existe ninguna formula equi-
valente (en termino de races) para resolver ecuaciones de grado superior a
cuatro.

Ademas, si la ecuacion no es polinomica no podemos resolverla mas que me-


diante metodos iterados que, incluso en el caso de las polinomicas de grado no
superior a cuatro, son mas eficientes.

Definicion 1.1 [Multiplicidad de una raz]

Una solucion x de la ecuacion f (x) = 0 se dice que tiene multiplicidad n si


f (x) = f 0 (x) = f 00 (x) = = f (n1 (x) = 0 y f (n (x) 6= 0
Si la multiplicidad es 1, diremos que se trata de una raz simple.

7
8 Ecuaciones no lineales

Todos los metodos numericos de resolucion de ecuaciones presentan dificulta-


des cuando la ecuacion tiene races multiples, ya que todos ellos se basan en
los cambios de signo de la funcion y estos son difcilmente detectables en un
entorno de una raz multiple.
Ese hecho nos lleva a un mal condicionamiento del problema.

1.1 Errores y condicionamiento en problemas


numericos
Cualquier problema numerico se resuelve a traves de un algoritmo que nos
proporciona unos resultados a partir de unos datos iniciales. Es decir, se trata
de realizar un proceso del tipo

Datos = Algoritmo = Resultados

Dado que cualquier algoritmo puede cometer errores, no solo por el algoritmo
en s, sino porque los datos pueden venir afectados de algun tipo de error
(redondeo, etc.) es muy importante el estudio de los distintos tipos de error
que puedan cometerse con vista a la fiabilidad de los resultados.

Definicion 1.2 [Errores absoluto y relativo]

Supongamos que el valor exacto de un dato es x y disponemos de un valor


aproximado x.

Se denomina error absoluto de x a la distancia que lo separa del valor


exacto x, es decir |x x|.

Observese que si solo disponemos del dato de que el error es, por ejemplo,
de 1m. no sabemos nada acerca de la fiabilidad del resultado, ya que no
es lo mismo decir que se ha cometido un error de un metro al medir la
altura de una persona que al medir la distancia entre dos galaxias.

Debemos reflejar de alguna manera lo que se esta evaluando en el dato


del error.

Se denomina error relativo de x al


cociente entre el error absoluto y el
x x
objeto evaluado, es decir, . En el caso x = 0 solo se utiliza el
x
error absoluto.
Errores y condicionamiento en problemas numericos 9

En la mayora de los procesos numericos utilizaremos como error el error abso-


luto ya que lo que nos interesa conocer es el numero de cifras decimales exactas
que posee la solucion de un determinado problema.

Evidentemente cualquier algoritmo que trabaje con unos datos afectados de


algun tipo de error nos proporcionara unos resultados que tambien vendran
afectados de errores. Estos errores pueden depender solo de los datos iniciales
o tambien del proceso que se ha realizado.
Supongamos que, queremos evaluar f (x) y damos un dato aproximado x. Es
evidente que, en general, si x 6= x sera f (x) 6= f (x).
Dado que f (x) f (x) ' (x x)f 0 (x), se tiene que

|f (x) f (x)| ' |x x| |f 0 (x)|

por lo que aunque el error del dato sea muy pequeno, si la derivada f 0 (x) es
muy grande, el resultado obtenido f (x) puede diferir mucho del valor exacto
f (x).
Para el problema inverso, es decir conocido f (x) buscar el valor de x (resolver
una ecuacion) se tendra que
1
|x x| ' |f (x) f (x)|
|f 0 (x)|

por lo que si |f 0 (x)| fuese muy pequeno el error de la solucion puede ser muy
grande.
Ademas el problema no esta en el algoritmo que se aplique para evaluar f (x)
sino en el propio problema a resolver.

Definicion 1.3 [Condicionamiento de un problema]

Diremos que un problema esta mal condicionado si pequenos errores en los


datos producen grandes errores en los resultados.

Se trata entonces de definir algun numero que nos indique el condicionamiento


del problema. A este numero lo llamaremos numero de condicion del problema
y lo denotaremos por .

En el ejemplo anterior es evidente que

(x) = |f 0 (x)|
10 Ecuaciones no lineales

As pues, un problema (en ambos sentidos) estara mejor condicionado mientras


mas se acerque a 1 su numero de condicion.

Ejemplo 1.1 Si queremos calcular la tangente de 89 590 lo primero que de-


bemos hacer es expresar el angulo en radianes, por lo que necesariamente
debemos redondear el dato (el numero hay que redondearlo), por lo que el
dato vendra afectado de un error de redondeo.
Utilicemos el metodo que utilicemos, dado que | tg xtg x| ' |1+tg 2 x||xx|
y tg x + cuando x , el problema estara mal condicionado.
tg a + tg b
Sin embargo si tenemos en cuenta que tg (a + b) = podemos
1 tg a tg b
reducir nuestro problema al calculo de la tangente de 44 590 resultando este
un proceso bien condicionado, ya que tg 45 = 1. 

Definicion 1.4 Estabilidad de un algoritmo

Respecto al algoritmo que se utiliza para resolver un determinado problema,


diremos que es inestable cuando los errores que se cometen en los diferentes
pasos del algoritmo hacen que el error total que se genera sea muy grande.

Si, por el contrario los errores que se producen en los distintos pasos no alteran
de forma significativa el resultado del problema, diremos que el algoritmo es
estable.

Ejemplo 1.2 Supongamos que se quiere calcular la integral


1
x10
Z
I10 = dx
0 a+x
1
xn
Z
Llamando In = dx observamos que
0 a+x
1 1
xn xn1 (x + a a)
Z Z
In = dx = dx =
0 a+x 0 a+x
Z 1 n1 Z 1 n1 Z 1 Z 1 n1
x (x + a) x n1 x
= dx a dx = x dx a dx =
0 a+x 0 a+x 0 0 a+x
 n 1
x 1
= aIn1 = aIn1
n 0 n
Errores y condicionamiento en problemas numericos 11

por lo que podemos pensar en la posibilidad de calcular I10 de forma recursiva


mediante el siguiente algoritmo:


a+1
I0 = ln


a
Algoritmo
1
In = aIn1

n

11
Sin embargo, dado que para a = 10 es I0 = ln = 0.09531017980432 . . .
10
y el numero 0.09531017980432 . . . no podemos introducirlo en el ordenador
de manera exacta, debemos cometer algun error introduciendo un numero
aproximado I 0 de tal forma que cometemos un error inicial 0 = |I 0 I0 |.
El error n que se cometera al calcular In vendra dado por

1 1
n = |I n In | = aI n1 ( aIn1 ) = | a(I n1 In1 )| = |a|n1
n n
es decir,
n = |a|n1 = |a|2 n2 = = |a|n 0
por lo que si tomamos las 10 primeras cifras decimales de I0 , es decir, si
tomamos
I 0 = 0.0953101798 con 0 < 1010
obtendremos un error en la decima iteracion

10 < 1010 1010 = 1

en otras palabras,

I 10 no tiene ninguna cifra decimal exacta

Se trata pues de un algoritmo muy inestable. 

Observese que si el algoritmo es inestable no va a generar un resultado fiable,


por lo que deberemos utilizar otro algoritmo. Sin embargo, por muy estable
que sea el algoritmo, si el problema esta mal condicionado lo unico que pode-
mos hacer es plantear un problema equivalente al nuestro pero con la seguridad
de que se trata de un problema bien condicionado.
12 Ecuaciones no lineales

1.2 Metodo y algoritmo de la biseccion: ana-


lisis de errores
Teorema 1.1 [Teorema de Bolzano]

Si f es una funcion continua en el intervalo cerrado [a, b] y f (a) f (b) < 0,


existe un punto (a, b) en el cual f () = 0.

Nuestro problema se reduce a localizarla. Para ello, supongamos que esta


separada, es decir, que en el intervalo [a, b] es la unica raz que existe. Esto
podemos garantizarlo, por ejemplo, viendo que f 0 (x) 6= 0 en todo el intervalo,
ya que entonces, el Teorema de Rolle nos garantiza la unicidad de la raz.

Teorema 1.2 [Teorema de Rolle]

Si f (x) es una funcion continua en el intervalo [a, b], derivable en (a, b) y


f (a) = f (b), existe un punto (a, b) para el que f 0 () = 0.

En efecto, si f (x) tuviese dos races 1 y 2 en el intervalo [a, b], verificara


las hipotesis del teorema de Rolle en el intervalo [1 , 2 ] [a, b], por lo que
debera existir un punto (1 , 2 ) = (a, b) en el que se anulara la
derivada, por lo que si f 0 (x) 6= 0 en todo el intervalo [a, b], no pueden existir
dos races de la ecuacion en dicho intervalo.

Metodo de la biseccion o dicotoma

Supongamos que tenemos separada una raz x de la ecuacion f (x) = 0 en el


intervalo [a1 , b1 ] = [a, b] es decir

sig f (a) 6= sig f (b) y f 0 (x) 6= 0 x [a, b]

a1 + b 1
Tomando el punto medio x1 =
2

Si f (x1 ) = 0, hemos encontrado la solucion: x = x1 .

Si f (x1 ) 6= 0, solo en uno de los dos subintervalos [a1 , x1 ] o [x1 , b1 ] se pro-


ducira un cambio de signo en los extremos y el teorema de Bolzano nos
asegura que la raz se encuentra en el subintervalo en el que se produce
dicho cambio de signo, al cual lo renombramos como [a2 , b2 ]
Metodo y algoritmo de la biseccion: analisis de errores 13

Reiterando el procedimiento podemos construir una sucesion de interva-


los [an , bn ] con amplitudes
|b a|
|bn an | = 0 cuyos puntos medios xn x
2n
Cota del error a priori

El error cometido, tomando como raz de la ecuacion el punto medio xn del


intervalo [an , bn ] obtenido en la en la iteracion n-esima, viene dado por
ba
n
2n
1
por lo que si b a = 1 y n = 10 se tiene que 10 10 < 103 , es decir,
2
en 10 iteraciones obtenemos tres cifras decimales exactas, por lo que podemos
estimar el error de una determinada iteracion sin necesidad de realizarlas pre-
viamente.

Lo verdaderamente importante de esta formula del error a priori es que nos


permite conocer el numero de iteraciones que van a ser necesarias para obtener
la raz con una determinada precision.

As, por ejemplo, si queremos obtener la solucion de la ecuacion f (x) = 0 en


el intervalo [a, b] de amplitud 1 con 14 cifras decimales exactas, debera ser
1
n n
< 1014 2n > 1014 = n 47
2
es decir, deberemos detenernos en la iteracion 47.

Algoritmo de la biseccion
ai + b i
Para i = 1, . . . , n, . . ., Ii = [ai , bi ] y mi = (punto medio de Ii ) con
2

[ai , mi ] si sig(f (ai )) 6= sig(f (mi ))
I1 = [a, b] y Ii+1 =
[mi , bi ] si sig(f (bi )) 6= sig(f (mi ))

El proceso debe repetirse hasta que

f (mi ) = 0 o bien bi ai < con > 0 prefijado.

Un algoritmo para MatLab con entradas a, b, y f (x) y salida la raz m sera


el siguiente:
14 Ecuaciones no lineales

Algoritmo de la Biseccion

while (b-a)/2>
m = a+(b-a)/2;
if f(m) == 0
a = m;
b = m;
end
if sign f(a) == sign f(m)
a = m;
else
b = m;
end
end
m

El hecho de calcular el punto medio de [a, b] como m = a + (b a)/2 es debido


a que para valores muy pequenos de a y b puede darse el caso de que (a + b)/2
se encuentre fuera del intervalo.

Metodo de la Regula falsi

Una variante del metodo de la biseccion es el metodo de la regula falsi , de la


falsa posicion o metodo de la cuerda consistente en dividir el intervalo [a, b] en
dos subintervalos [a, c] [c, b] donde el punto c, a diferencia del punto medio
del metodo de la biseccion, es el punto de corte de la recta secante que pasa
por los puntos (a, f (a)) y (b, f (b)) con el eje de abscisas OX.
Y
(b, f (b))
f (b) t



(c, 
0)
t
O 
 X


t

f (a) 
(a, f (a))

Figura 1.1: Metodo de la regula f alsi.


Metodo y algoritmo de la biseccion: analisis de errores 15

La pendiente de dicha secante viene determinada por

f (b) f (a) 0 f (b)


m= =
ba cb
Segun se utilicen los puntos (a, f (a)) y (b, f (b)) o (c, 0) y (b, f (b)) respectiva-
mente.
Despejando el valor de c obtenemos que

ba af (b) bf (a)
c = b f (b) =
f (b) f (a) f (b) f (a)

pudiendose dar los mismos casos que en el metodo de la biseccion, es decir:

Si f (c) = 0 la raz buscada es c.

Si f (a) y f (c) tienen signos contrarios, la raz se encuentra en el intervalo


[a, c].

Si son f (c) y f (b) los que tienen signos contrarios, la raz esta en el
intervalo [c, b].

El algoritmo con entradas a, b, y f (x) y salida la raz c sera el siguiente:

Algoritmo de la Regula falsi

c = a;
while abs f(c)>
c = (a*f(b)-b*f(a))/(f(b)-f(a));
if f(c) == 0
a = c;
b = c;
end
if sign f(a) == sign f(c)
a = c;
else
b =c;
end
end
c
16 Ecuaciones no lineales

En este caso las amplitudes de los intervalos [an , bn ] no se van reduciendo a la


mitad como en el caso del metodo de dicotoma, por lo que ya no es valida
la formula del error a priori, siendo necesario encontrar otra forma de poder
estimar el error que se comete en cada iteracion.

Error a posteriori

Supongamos conocido que la funcion f (x) tiene un cero en el intervalo [a, b] y


que por cualquier metodo hemos aproximado la solucion como xn .
Lo primero que se nos ocurre para comprobar si es valido el resultado es
calcular f (xn ) y, en general, obtendremos que f (xn ) 6= 0 ya que no tendremos
exactamente la raz x sino una aproximacion.
Supongamos que obtenemos f (xn ) = 2.2345.

estamos cerca o lejos de la raz buscada?

Si la pendiente de la funcion en dicho punto f 0 (xn ) es grande estaremos cerca


de ella, pero si es pequena estaremos lejos.

f (x)
f (x)

x x
xn

Figura 1.2: El error es inversamente proporcional a la pendiente.

As pues, el error es inversamente proporcional a la pendiente de la funcion,


en otras palabras,
|f (xn )|
0
|f (x)|

Donde debemos medir la pendiente?


Si la medimos en un punto en concreto puede que sea muy grande y pensemos
que estamos muy cerca de la solucion cuando aun estamos muy lejos.
Metodo y algoritmo de la biseccion: analisis de errores 17

f (x)

f (x)

x x
xn

Figura 1.3: Se debe tomar el mnimo valor de la pendiente.

Debemos, por tanto, tomar el mnimo valor de la pendiente en todo el intervalo,


para decir que
|f (xn )|
n (1.1)
mn |f 0 (x)|
x(a,b)

Veamos ahora una justificacion formal de la formula anterior.

Teorema 1.3 [Teorema del valor medio]

Si f (x) es una funcion continua en el intervalo [a, b] y derivable en (a, b),


f (b) f (a)
existe un punto c (a, b) tal que = f 0 (c).
ba

Sea x una solucion de la ecuacion f (x) = 0 y sea xn una aproximacion de ella


obtenida por un metodo iterado cualquiera.

Supongamos f (x) continua en el intervalo cerrado [xn , x] o [x, xn ] (dependiendo


de que x sea mayor o menor que xn ) y derivable en el abierto.
Existe entonces un punto c (xn , x) o c (x, xn ) tal que

f (x) f (xn )
= f 0 (c).
x xn
18 Ecuaciones no lineales

f (xn )
Como f (x) = 0, nos queda que x xn = , obteniendose:
f 0 (c)
)
|f (xn )| |f (xn )| |f (xn )| (x, xn )
n = 0 0 con (a, b)
|f (c)| mn |f (x)| mn |f 0 (x)| (xn , x)
(x, xn ) x(a,b)
x (xn , x)

Lo unico que debemos exigir es que la derivada de la funcion no se anule en


ningun punto del intervalo (a, b).

Tengase en cuenta que si la funcion esta mal condicionada es decir, si |f 0 (x)| es


muy grande, el calculo de f (xn ) estara muy mal condicionado ya que cualquier
error en el valor de xn hace que lo que estemos calculando sea f (xn ) en un
punto x0n muy cercano a xn verificandose que

|f (x0n ) f (xn )| ' |x0n xn | |f 0 (xn )|

es decir, puede que obtengamos por ejemplo que f (xn ) = k y sin embargo su
verdadero valor difiera mucho de k debido a la fuerte pendiente existente en
dicho punto, con lo que obtendremos una cota erronea del error.
Debemos, por tanto, asegurarnos de que nuestro problema esta bien condicio-
nado, es decir, no existen en el intervalo pendientes muy grandes (condiciona-
miento directo) ni muy pequenas (condicionamiento inverso) para garantizar
la fiabilidad del error a posteriori.

Aplicando el metodo de la regula falsi al calculo de la raz de 3, se obtienen


14 cifras decimales exactas, en solo 14 iteraciones frente a las 47 necesarias
mediante el metodo de la biseccion.

Sin embargo, en el metodo de la regula falsi la convergencia no tiene porque


ser mas rapida que en el de la biseccion.
Ambos metodos son de convergencia lenta siendo necesario, por tanto, buscar
otros metodos cuya convergencia sea mas rapida.
Dichos metodos estan basados en el denominado Teorema del punto fijo que
estudiamos en la siguiente seccion.
Punto fijo e iteracion funcional 19

1.3 Punto fijo e iteracion funcional


Definicion 1.5 [Funcion contractiva]

Una funcion f : R R se dice contractiva si verifica que

|f (x1 ) f (x2 )| q |x1 x2 | x 1 , x2 R con q<1

q recibe el nombre de factor de contractividad.

Lema 1.4 [Caracterizacion de las funciones contractivas]

Si una funcion f (x) continua en [a, b] y derivable en (a, b) verifica que

|f 0 (x)| q < 1 x [a, b]

es contractiva en dicho intervalo.

Demostracion. Para cualquier par de puntos x1 , x2 [a, b]


(
[x1 , x2 ]
f (x1 ) f (x2 ) = (x1 x2 )f 0 (c) con c = c [a, b]
[x2 , x1 ]

|f (x1 ) f (x2 )| = |x1 x2 | |f 0 (c)| q |x1 x2 | con q < 1


por lo que es contractiva en [a, b].

Definicion 1.6 [Punto fijo]

Se dice que x es un punto fijo de la funcion f (x) si f (x) = x.

Teorema 1.5 [Teorema del punto fijo]

Sea (x) una funcion continua en [a, b], derivable en (a, b), con ([a, b]) [a, b]
tal que |0 (x)| q < 1 x [a, b], y sea x0 un punto cualquiera del intervalo
[a, b]. La sucesion

x 0 , x1 , x2 , . . . , x n , . . . con xn+1 = (xn )

converge al unico punto fijo de la funcion (x) en [a, b].


20 Ecuaciones no lineales

Demostracion.

Convergencia
(
[xn , xn+1 ]
xn+1 xn = (xn ) (xn1 ) = (xn xn1 )0 (c) con c
[xn+1 , xn ]

y por tanto, con c [a, b].

|xn+1 xn | = |xn xn1 | |0 (c)| q|xn xn1 |

por lo que
|x2 x1 | q|x1 x0 |
|x3 x2 | q|x2 x1 | q 2 |x1 x0 |
..
.
|xn+1 xn | q n |x1 x0 |
..
.

|x0 | + |x1 x0 | + |x2 x1 | + + |xn+1 xn | +

|x0 | + |x1 x0 | + q|x1 x0 | + + q n |x1 x0 | + =

= |x0 | + |x1 x0 |(1 + q + + q n + ) con q < 1 =


1
|x0 | + |x1 x0 | + + |xn+1 xn | + |x0 | + |x1 x0 |
1q

por lo que la serie

Sn = x0 + (x1 x0 ) + (x2 x1 ) + + (xn+1 xn ) +

es convergente por ser absolutamente convergente. Dado que

S1 = x 0
S2 = x0 + (x1 x0 ) = x1
..
.
Sn+1 = Sn + (xn xn1 ) = xn
..
.

la convergencia de Sn nos garantiza la de la sucesion (xn ).


Punto fijo e iteracion funcional 21

Convergencia al punto fijo

x = lim xn = (x) = (lim xn ) = lim (xn ) = lim xn+1 = (x)

es decir

(x) = x = x = lim xn es punto fijo de (x) en [a, b]

Unicidad

Sea x0 otro punto fijo de (x) en [a, b]].

|x x0 | = |(x) (x0 )| = |(x x0 )0 (c)| = |(x x0 )| |0 (c)| con c [a, b]

|x x0 |(1 |0 (c)|) = 0
y dado que |0 (c)| q < 1 = 1 |0 (c)| =
6 0, obtenemos que
0 0
|x x | = 0 y, por tanto, que x = x .

En otras palabras, x es el unico punto fijo de la funcion (x) en el


intervalo [a, b].

Interpretacion geometrica del teorema del punto fijo

Dependiendo de los valores que toma 0 (x) en el intervalo [a, b], podemos
distinguir cuatro casos:

a) 0 (x) < 1 b) 1 < 0 (x) < 0

c) 0 < 0 (x) < 1 d) 0 (x) > 1

pudiendose observar (vease la Fig. 1.4) que en los casos (a) y (d) la sucesion
resulta ser divergente ya que |0 (x) > 1|.
En los casos (b) y (c), en los que |0 (x)| q < 1 el metodo converge
monotonamente en (b) y de forma oscilatoria en (c).

Aplicacion a la resolucion de ecuaciones

Si se desea resolver la ecuacion f (x) = 0, se escribe esta de la forma x = (x),


donde (x) es una funcion contractiva, y partiendo de un determinado valor
inicial x0 , se construye la sucesion xn+1 = (xn ).
22 Ecuaciones no lineales

Figura 1.4: Esquema de la convergencia para el teorema del punto fijo.

El teorema del punto fijo nos garantiza la convergencia de esta sucesion al


punto fijo de la funcion (x) o lo que es lo mismo, a la raz de la ecuacion
f (x) = 0.

Para acotar el error de una determinada iteracion utilizamos la formula (1.1)


del error a posteriori.

Ejemplo 1.3 El calculo de la raz cuadrada de 3 equivale al calculo de la raz


positiva de la ecuacion x2 = 3. Aunque mas adelante veremos metodos cuya
convergencia es mas rapida, vamos a realizar los siguientes cambios:
3+x
x2 = 3 = x + x2 = x + 3 = x(1 + x) = 3 + x = x =
1+x
Es decir, hemos escrito la ecuacion de la forma x = (x) con
3+x
(x) =
1+x
Dado que sabemos que la raz de 3 esta comprendida entre 1 y 2 y que
2 2 1
|0 (x)| = 2
2 = < 1 para cualquier x [1, 2]
(1 + x) 2 2
Punto fijo e iteracion funcional 23

2 2 2
|0 (x)| = 2
2 = para cualquier x [1, 2]
(1 + x) 3 9
podemos garantizar que partiendo de x0 = 1 el metodo convergera a la raz
cuadrada de 3 y que el error a posteriori sera fiable.
3 + xn
As pues, partiendo de x0 = 1 y haciendo xn+1 = obtenemos:
1 + xn

x1 = 2 x14 = 1.73205079844084
x2 = 1.66666666666667 x15 = 1.73205081001473
x3 = 1.75000000000000 x16 = 1.73205080691351
x4 = 1.72727272727273 x17 = 1.73205080774448
x5 = 1.73333333333333 x18 = 1.73205080752182
x6 = 1.73170731707317 x19 = 1.73205080758148
x7 = 1.73214285714286 x20 = 1.73205080756550
x8 = 1.73202614379085 x21 = 1.73205080756978
x9 = 1.73205741626794 x22 = 1.73205080756863
x10 = 1.73204903677758 x23 = 1.73205080756894
x11 = 1.73205128205128 x24 = 1.73205080756886
x12 = 1.73205068043172 x25 = 1.73205080756888
x13 = 1.73205084163518 x26 = 1.73205080756888

|f (xn )|
El error vendra dado por n < donde f (x) = x2 3, por lo que
mn |f 0 (x)|
x[1,2]

|x226 3|
26 < = 4.884981308350688 1015 < 1014
2

es decir, 3 = 1.73205080756888 con todas sus cifras decimales exactas. 

Habamos visto que el metodo de la regula falsi solo necesitaba de 14 iteraciones


mientras que ahora hemos necesitado 26.

A que se debe que la convergencia haya sido muy lenta?

La respuesta es bien sencilla: a la mala eleccion de la funcion (x).

De que dependera la velocidad de convergencia?


24 Ecuaciones no lineales

Orden de convergencia
x 1
(x) = en [1, 1] es contractiva ya que |0 (x)| = < 1 x [1, 1]
2 2
x0 = 1 = x1 = 0.5 x2 = 0.25 x3 = 0.125 = x4 = 0.0625

Observamos que la convergencia a cero es lenta y ello es debido a que

0 (0) 6= 0 = convergencia lineal o de primer orden.

x2 0
x 1
(x) = en [1, 1] es contractiva: | (x)| = < 1 x [1, 1]

4 2 2
x0 = 1 x1 = 0.25 x2 = 0.015625 x3 = 6.105 . . . 105

La convergencia a cero es ahora rapida debido a que


x
(x) = 0 (0) = 0
2 convergencia de segundo orden.
1
(x) = 00 (0) 6= 0
00
2

x3
2
x 1
(x) = en [1, 1] es contractiva: |0 (x)| = < 1 x [1, 1]
6 2 2

x0 = 1 x1 = 0.16666 x2 = 0.00077 x3 = 7.6565 1011

La convergencia a cero es ahora muy rapida debido a que


x2

0 0
(x) = (0) = 0
2


(x) = x (0) = 0 = convergencia de tercer orden.
00 00


000 (x) = 1 000 (0) 6= 0

EL orden de convergencia nos lo da el orden de la primera derivada de la


funcion (x) que no se anula en su punto fijo x.
3+x
La funcion (x) = que obtuvimos para calcular 3 en el Ejemplo 1.3
1+x
verifica que
1 1
0 (x) = 2
= 0
( 3) = 6= 0
(1 + x) (1 + 3)2
por lo que ha resultado una convergencia de primer orden (similar a la de los
metodos de la biseccion y la regula falsi).
Analisis del metodo de Newton-Raphson 25

Como elegir una funcion de iteracion (x) que nos garantice una convergen-
cia, al menos, de segundo orden?

Vamos a ver como el metodo de Newton-Raphson, generalmente conocido como


metodo de Newton, nos permite escribir la ecuacion f (x) = 0 de la forma
x = (x) de tal manera que la convergencia sea, al menos de segundo orden.

1.4 Analisis del metodo de Newton-Raphson


Si tratamos de resolver la ecuacion f (x) = 0 y lo que obtenemos no es la
solucion exacta x sino solo una aproximacion xn tal que x = xn + h tendremos
que
f (xn ) f (xn )
f (x) ' f (xn ) + h f 0 (xn ) = h ' = x ' xn
f 0 (xn ) f 0 (xn )
obteniendose la denominada formula de Newton-Raphson
f (xn )
xn+1 = xn (1.2)
f 0 (xn )

Hemos transformado la ecuacion f (x) = 0 en x = (x) con


f (x)
(x) = x
f 0 (x)

f (xn )
Si partiendo de x0 [a, b] la sucesion (xn ) con xn+1 = (xn ) = xn
f 0 (xn )
converge entonces (x) es contractiva.
Ademas:
f (lim xn ) f (lim xn )
lim xn+1 = lim xn 0
= = 0 = f (lim xn ) = 0
lim f (xn ) lim f 0 (xn )
es decir, lim xn = x.

Interpretacion geometrica: Metodo de la tangente

Si trazamos la tangente a la curva y = f (x) en el punto (xn , f (xn )) obtenemos


la recta
y = f (xn ) + f 0 (xn )(x xn )
26 Ecuaciones no lineales

que corta al eje y = 0 en el punto de abscisa


f (xn )
x = xn
f 0 (xn )
que es precisamente el valor de xn+1 de la formula de Newton-Raphson.
En otras palabras, xn+1 viene determinado por el punto en el que la tangente
a la curva y = f (x) en (xn , f (xn )) corta al eje de abscisas, por lo que este
metodo es tambien conocido como metodo de la tangente.

y = f (x)

x
x2 x1 x0

Figura 1.5: Interpretacion geometrica del metodo de Newton.

Orden de convergencia
f (x)
Si el metodo converge, (x) = x es contractiva y ademas
f 0 (x)
f 02 (x) f (x)f 00 (x) f (x)f 00 (x)
0 (x) = 1 = con f 0 (x) 6= 0 = 0 (x) = 0
f 02 (x) f 02 (x)

El metodo de Newton es, al menos, de segundo orden.

Cota del error: Error a priori

La diferencia entre la solucion exacta x y la aproximacion xn+1 viene dada por


f (xn ) f (xn )
en+1 = x xn+1 = x xn + 0
= en + 0
f (xn ) f (xn )
Dado que
(
f 00 (t) 2 (x, xn )
0 = f (x) = f (xn + en ) = f (xn ) + f 0 (xn )en + en con t
2 (xn , x)
Analisis del metodo de Newton-Raphson 27

Si f 0 (x) 6= 0 x [a, b] podemos dividir entre f 0 (xn ) 6= 0 obteniendose

f (xn ) f 00 (t) 2 f 00 (t) 2


0= + en + en = en+1 + en
f 0 (xn ) 2 2

Tomando valores absolutos:

|f 00 (t)| 2 2 max |f 00 (x)|


n+1 = n k n con k
2|f 0 (xn )| 2 mn |f 0 (x)|

es decir, en cada iteracion dispondremos, aproximadamente, del doble de cifras


decimales exactas que en la iteracion anterior, que es lo que significa el hecho
de ser una convergencia de segundo orden.
Ademas, podemos obtener, multiplicando por k,
n+1
kn+1 k 2 2n = (kn )2 (kn1 )4 (kn2 )8 (k0 )2 =

1 n max |f 00 (x)|
n (k0 )2 con k
k 2 mn |f 0 (x)|
lo que nos proporciona una cota del error a priori, pudiendose garantizar la
1
convergencia siempre que k0 < 1 es decir, si 0 .
k

Algoritmo
Una vez realizado un estudio previo para ver que se cumplen las condiciones
que requiere el metodo, establecer el valor inicial x0 y calcular el valor de
m = mn |f 0 (x)|, el algoritmo, que tiene por entradas los valores de a, b, x, ,
x[a,b]
f (x) y m y por salida la raz x, es el siguiente:

Algoritmo de Newton

e = abs (f(x)/m);
while e>
x = x-f(x)/f0 (x);
e = abs (f(x)/m);
end
x
28 Ecuaciones no lineales

Ejemplo 1.4 En el Ejemplo 1.3 calculamos la raz de 3 con 14 cifras decimales


exactas en 26 iteraciones. Vamos a ver como se disminuye considerablemente
el numero de iteraciones cuando se utiliza la formula de Newton-Raphson.
Partimos de la ecuacion f (x) = x2 3 = 0, por lo que la formula de Newton-
Raphson nos dice que

x2 3 x2 + 3
 
f (xn ) 1 3
xn+1 = xn 0 = xn n = n = xn +
f (xn ) 2xn 2xn 2 xn

Dado que la raz de 3 es un numero comprendido entre 1 y 2 y la funcion


f 0 (x) = 2x no se anula en dicho intervalo, podemos aplicar el metodo de
Newton tomando como valor inicial x0 = 2. (Mas adelante veremos porque
debemos tomar 2 como valor inicial), obteniendose:

x0 =2
x1 = 1.75000000000000
x2 = 1.73214285714286
x3 = 1.73205081001473
x4 = 1.73205080756888

|f (xn )|
El error vendra dado, al igual que en el Ejemplo 1.3 por n < ,
mn |f 0 (x)|
x[1,2]
por lo que

|x24 3|
4 < = 4.884981308350688 1015 < 1014
2

es decir, 3 = 1.73205080756888 con todas sus cifras decimales exactas. 

 
1 A
La formula xn+1 = xn + es conocida como formula de Heron ya que
2 xn
este matematico la utilizaba para aproximar la raz cuadrada de un numero
real positivo A hacia el ano 100 a.C. pues saba que si dispona de un valor
aproximado xn y este fuese mayor que la raz buscada, necesariamente A/xn
sera menor que su raz y viceversa, por lo que la media entre ambos deba ser
una mejor aproximacion que xn . En otras palabras, en cada iteracion tomaba
como aproximacion de la raz la media aritmetica entre el valor xn anterior y
el cociente A/xn .
Analisis del metodo de Newton-Raphson 29

Analisis de la convergencia: Regla de Fourier


Hay que tener en cuenta que la naturaleza de la funcion puede originar difi-
cultades, llegando incluso a hacer que el metodo no converja.

Ejemplo 1.5 Tratemos de determinar, por el metodo de Newton-Raphson, la


raz positiva de la funcion f (x) = x10 1, tomando como valor inicial x0 = 0.5.
La formula de Newton-Raphson es, en este caso,
x10
n 1
xn+1 = xn .
10x9n
Aplicando el algoritmo se obtienen los valores

x1 = 51.65 x20 = 6.97714912329906


x2 = 46.485 x30 = 2.43280139954230
x3 = 41.8365 x40 = 1.00231602417741
x4 = 37.65285 x41 = 1.00002393429084
x5 = 33.887565 x42 = 1.00000000257760
x10 = 20.01026825685012 x43 =1

Puede observarse que la convergencia es muy lenta y solo se acelera (a partir


de x40 ) cuando estamos muy cerca de la raz buscada. 

Si en las proximidades de la raz existe un punto de inflexion, las itera-


ciones divergen progresivamente de la raz.


 
 
 
   
9
 
x1  x0

x x2

Figura 1.6: En las proximidades de un punto de inflexion puede diverger.


30 Ecuaciones no lineales

El metodo de Newton-Raphson oscila en los alrededores de un maximo


o un mnimo local, persistiendo o llegando a encontrarse con pendientes
cercanas a cero, en cuyo caso la solucion se aleja del area de interes.

y = f (x)

x x0 x1

Figura 1.7: En las proximidades de un extremo local puede oscilar o diverger.

Quiere decir eso que el metodo de Newton puede ser divergente?

El metodo de Newton siempre converge en las proximidades de la raz. El


problema surge cuando se toma un valor inicial x0 inadecuado (proximo a un
punto crtico).

Como podemos saber que el valor inicial x0 es adecuado?

La eleccion de x0 : Regla de Fourier

Si la funcion f (x) cambia de signo en los extremos de un intervalo [a, b] y


ademas, en dicho intervalo, no se anulan ni f 0 (x) ni f 00 (x), nos aseguramos
de que en [a, b] existe una unica raz de la ecuacion f (x) = 0 y no existen
extremos locales ni puntos de inflexion.

Por otra parte, como no nos interesa que x0 este situado cerca de un extremo
local, vamos a estudiar los diferentes casos con que podemos encontrarnos
y elegir, en cada uno de ellos, un valor adecuado para x0 (aquel que no se
encuentre cercano a un extremo local).
Analisis del metodo de Newton-Raphson 31

a a b b
b b a a

f 0 (x) > 0 f 0 (x) > 0 f 0 (x) < 0 f 0 (x) < 0


f 00 (x) < 0 f 00 (x) > 0 f 00 (x) > 0 f 00 (x) < 0
x0 = a x0 = b x0 = a x0 = b
Figura 1.8: Los cuatro casos posibles

Observese que en cualquiera de los cuatro casos (vease la Figura 1.8) hemos
optado por elegir, como valor inicial x0 , el extremo en el que la funcion tiene
el mismo signo que su segunda derivada.
Este resultado, que formalizamos a continuacion en forma de teorema es co-
nocido como regla de Fourier.

Teorema 1.6 [Regla de Fourier]

Sea f (x) una funcion continua y dos veces derivable [a, b]. Si sig f (a) 6= sig f (b)
y sus dos primeras derivadas f 0 (x) y f 00 (x) no se anulan en [a, b] existe una
unica raz de la ecuacion f (x) = 0 en dicho intervalo y se puede garantizar la
convergencia del metodo de Newton tomando como valor inicial x0 el extremo
del intervalo en el que la funcion y su segunda derivada tienen el mismo signo.

1.4.1 Metodo de Newton generalizado

Cuando el metodo de Newton converge lentamente se debe a que la raz que


estamos aproximando es multiple.
Supongamos que x fuese una raz doble de f (x). La funcion de iteracion
f (x)
(x) = x 0 del metodo de Newton verifica que
f (x)

f 0 2 (x) f (x)f 00 (x) f (x)f 00 (x)


0 (x) = 1 =
f 0 2 (x) f 0 2 (x)

0 (x) es una indeterminacion del tipo 0


0
que resulta ser distinta de cero, por lo
32 Ecuaciones no lineales

que la convergencia es de primer orden. De ah su lentitud.

Sera posible alguna modificacion en el metodo para que la convergencia


volviese a ser, al menos, de segundo orden?

f (x)
La raz x de f (x) tambien lo es de g(x) = pero con la particularidad
f 0 (x)
de que
g(x)
(x) = x
g 0 (x)
verifica que 0 (x) y 00 (x) tienden a cero cuando x lo hace a x, por lo
que al aplicar el metodo de Newton a la funcion g(x) obtenemos x con
una convergencia de, al menos, tercer orden.
Este proceso tiene el inconveniente de que si f (x) es, por ejemplo, un
polinomio, g(x) es una funcion racional, por lo que se complican los
calculos.

Sea x una raz de multiplicidad k de la ecuacion f (x) = 0.


f (xn )
Si en vez de hacer xn+1 = xn hacemos
f 0 (xn )

f (xn )
xn+1 = xn k (1.3)
f 0 (xn )

donde k representa el orden de la primera derivada que no se anula para


x = x (multiplicidad de la raz x), la convergencia vuelve a ser, al menos,
de segundo orden.

En la practica, el problema es que no conocemos k pero podemos determinar


su valor estudiando las derivadas de la funcion f (x).

Ejemplo 1.6 Para resolver la ecuacion x sen x = 0 comenzamos por ex-


presarla de la forma x = sen x, por lo que las soluciones seran los puntos de
interseccion de la curva y = sen x con y = x (Fig.1.9).
Aunque es conocido que la solucion de la ecuacion es x = 0, supondremos que
solo conocemos que esta comprendida entre -1 y 1 y vamos aplicar el metodo
de Newton.
xn sen xn sen xn xn cos xn
xn+1 = xn =
1 cos xn 1 cos xn
Analisis del metodo de Newton-Raphson 33

y=x

y = sen x
-1

0 1

Figura 1.9: Las graficas de y = x e y = sen x.

Comenzando con x0 = 1 se obtiene:

x0 = 1
.....................


f 0 (x10 ) = 0.0001 . . .

x10 = 0.016822799 . . . f 00 (x10 ) = 0.016 . . .


f 000 (x ) = 0.9998 . . .

10

.....................


f 0 (x20 ) = 0.00000001 . . .

x20 = 0.0000194 . . . f 00 (x20 ) = 0.0019 . . .


f 000 (x ) = 0.9999 . . .

20

Como la convergencia es muy lenta, hace pensar que se trata de una raz
multiple. Ademas, como la primera y la segunda derivadas tienden a cero y
la tercera lo hace a 1, parece que nos encontramos ante una raz triple, por lo
que aplicamos el metodo generalizado de Newton.
xn sen xn
xn+1 = xn 3
1 cos xn
que comenzando, al igual que antes, por x0 = 1 se obtiene:

x0 =1
x1 = 0.034 . . .
x2 = 0.000001376 . . .
x3 = 0.00000000000009 . . .

que se ve que converge rapidamente a x = 0. 


34 Ecuaciones no lineales

1.5 Un problema mal condicionado: ceros de


un polinomio
Si queremos resolver la ecuacion P (x) = 0 el problema viene condicionado por
los valores de |P 0 (x)| (su numero de condicion), por lo que si la derivada es
muy pequena el problema estara mal condicionado, pero si la derivada es muy
grande cualquier metodo se hace muy lento, por lo que lo ideal sera que la
derivada estuviese muy proxima a 1, pero claro esta, ese derivada ha de estar
muy proxima a 1 en todas las races del polinomio, cosa que es estadsticamente
casi imposible. Por tanto, el calculo de los ceros de un polinomio es un ejemplo
de problema mal condicionado. Sin embargo, vamos a estudiar como podemos
aproximar un determinado cero del polinomio.
Hemos visto que uno de los mayores problemas que presenta la resolucion de
una ecuacion es encontrarnos que posee races multiples ya que, en un entorno
de ellas, o bien la funcion no cambia de signo, o bien se aproxima demasiado
a cero y, por tanto, cualquier metodo puede dar soluciones erroneas.
En el caso de las ecuaciones algebraicas (Pn (x) = 0) este problema puede
solventarse buscando otra ecuacion que posea las mismas races que la dada
pero todas ellas simples, es decir, eliminando las races multiples.

Eliminacion de las races multiples

Por el teorema fundamental del Algebra sabemos que Pn (x) posee n races y,
por tanto, puede ser factorizado de la forma

Pn (x) = a0 (x x1 )(x x2 ) (x xn )

donde {x1 , x2 , . . . , xn } son los ceros del polinomio.


Si existen races multiples, las podemos agrupar para obtener:

Pn (x) = a0 (x x1 )m1 (x x2 )m2 (x xk )mk

donde mi (i = 1, 2, . . . k) representa la multiplicidad de la raz xi y verificando-


se que m1 + m2 + mk = n
Derivando esta expresion obtenemos:

P 0 (x) = na0 (x x1 )m1 1 (x xk )mk 1 Qk1 (x)

con Qk1 (xi ) 6= 0 i = 1, 2, . . . , k


Un problema mal condicionado: ceros de un polinomio 35

Por tanto, si x es una raz de la ecuacion P (x) = 0 con multiplicidad k, es


tambien una raz de P 0 (x) = 0 pero con multiplicidad k 1.

D(x) = mcd [P (x), P 0 (x)] = (x x1 )m1 1 (x xk )mk 1

por lo que
P (x)
Q(x) = = a0 (x x1 )(x x2 ) (x xk )
D(x)

Es decir, hemos encontrado un polinomio cuyas races son las mismas que las
de P (x) pero todas ellas simples.

Ejemplo 1.7 El polinomio P (x) = x3 5x2 + 8x 4 = (x 1)(x 2)2 tiene


la raz 1 simple y la 2 doble.

D(x) = mcd (P (x), P 0 (x)) = mcd (x3 5x2 + 8x 4, 3x2 10x + 8) = x 2

por lo que
P (x)
Q(x) = = x3 3x + 2 = (x 1)(x 2)
D(x)
que tiene las mismas races que P (x) pero todas simples. 

Acotacion de las races

Si ya conocemos que una ecuacion solo tiene races simples y queremos calcu-
larlas, parece apropiado que un primer paso consista en detectar donde pueden
encontrarse. As por ejemplo, si son reales, determinar intervalos de una am-
plitud reducida en los que se encuentren las races de la ecuacion.

Dada una ecuacion f (x) = 0 (en general com-


pleja) se denomina acotar las races a bus-
car dos numeros reales positivos r y R tales
que r |x| R para cualquier raz x de la
ecuacion.
Geometricamente consiste en determinar una
corona circular de radios r y R dentro de la
cual se encuentran todas las races.
En el caso real se reduce a los intervalos
(R, r) y (r, R).
36 Ecuaciones no lineales

Proposicion 1.7 Si x es una raz de la ecuacion

P (x) = a0 xn + a1 xn1 + + an1 x + an = 0

se verifica que:

A
|x| < 1 + siendo A = max |ai |
|a0 | i1

Demostracion. Sea P (x) = a0 xn + a1 xn1 + + an1 x + an . Tomando


modulos tenemos
|P (x)| = |a0 xn + a1 xn1 + + an1 x + an |
|a0 xn | |a1 xn1 + + an1 x + an |
i
+ + |an1 x| + |an | =
h i
= |a0 xn | |a1 | |xn1 | + + |an1 | |x| + |an |
|a0 xn | A [|x|n1 + + |x| + 1]
(Para considerar el ultimo parentesis como una progresion geometrica habra
que anadir los terminos que, probablemente, falten en P (x) y suponer que,
ademas, es |x| =
6 1).
|x|n 1
|P (x)| |a0 | |x|n A
|x| 1
Dado que el teorema es trivial para |x| < 1, supondremos que |x| > 1 y
entonces:
|x|n
 
n n A
|P (x)| > |a0 | |x| A = |x| |a0 |
|x| 1 |x| 1
Como la expresion anterior es cierta para cualquier |x| > 1, sea |x| > 1 con
P (x) = 0. Entonces
 
n A A
0 > |x| |a0 | = |a0 | < 0 =
|x| 1 |x| 1
A A
|a0 | < = |x| 1 < =
|x| 1 |a0 |

A
|x| < 1 + con |x| > 1
|a0 |

Es evidente que esta cota tambien la verifican las races x con |x| < 1.
Un problema mal condicionado: ceros de un polinomio 37

Proposicion 1.8 [Regla de Laguerre]

Consideremos la ecuacion

P (x) = a0 xn + a1 xn1 + + an1 x + an = 0

Sean C(x) = b0 xn1 + + bn2 x + bn1 el cociente y r el resto de la division


de P (x) entre x c.

Si r 0 y bi 0 para 0 i n 1, el numero real c es una cota superior


para las races positivas de la ecuacion. (Trivialmente lo es tambien para las
races negativas).

El procedimiento consiste en comenzar con la cota obtenida anteriormente


(que no suelen ser muy buena) e ir disminuyendola hasta afinarla todo lo que
podamos.

Ejemplo 1.8 Consideremos la ecuacion 2x4 9x3 x2 + 24x + 12 = 0.


Sabemos que
A 24
|x| < 1 + siendo A = max |ai | = |x| < 1 + = 13
|a0 | i1 2

por lo que cualquier raz real del polinomio debe estar en el intervalo (13, 13).
Aplicando la regla de Laguerre obtenemos:

2 9 1 24 12
4 8 4 20 16
2 1 5 4 28

2 9 1 24 12
5 10 5 20 240
2 1 4 48 252

Dado que para x = 4 se obtienen valores negativos no podemos garantizar que


4 sea una cota superior para las races positivas de la ecuacion, pero para x = 5
todos los valores obtenidos han sido positivos, por lo que podemos garantizar
que las races reales de la ecuacion se encuentran en el intervalo (13, 5).
No debemos confundir el hecho de que la regla de Laguerre no nos garantice
que 4 sea una cota superior de las races positivas y 5 s lo sea, con que la
38 Ecuaciones no lineales

ecuacion deba tener alguna raz en el intervalo (4, 5). En otras palabras, 4
puede ser una cota superior para las races positivas de la ecuacion aunque la
regla de Laguerre no lo garantice. De hecho, la mayor de las races positivas
de nuestra ecuacion es x = 3.56155281280883 . . . < 4. 

Separacion de las races

Las cotas obtenidas anteriormente nos delimitan la zona en la que debemos


estudiar la existencia de soluciones de la ecuacion pero, en realidad, lo que mas
nos acerca a nuestro problema (resolver la ecuacion) es separar cada raz en un
intervalo. A este proceso se le conoce como separacion de races y estudiaremos
un metodo que se conoce como metodo de Sturm que nos permite separar las
races de una ecuacion.

1.5.1 Sucesiones de Sturm


Definicion 1.7 [Sucesion de Sturm]

Una sucesion de Sturm en [a, b] es un conjunto de funciones continuas en dicho


intervalo f0 (x), f1 (x), . . . , fn (x) que cumplen las siguientes condiciones:

fn (x) 6= 0 cualquiera que sea x [a, b]. Es decir, el signo de fn (x)


permanece constante en el intervalo [a, b].

Las funciones fi (x) y fi+1 (x) no se anulan simultaneamente. En otras


palabras, si fi (c) = 0 entonces fi1 (c) 6= 0 y fi+1 (c) 6= 0.

Si fi (c) = 0 entonces fi1 (c) y fi+1 (c) tienen signos opuestos, es decir,
fi1 (c) fi+1 (c) < 0. (Engloba al apartado anterior).
f0 (x)
Si f0 (c) = 0 con c [a, b] entonces pasa de negativa a positiva
f1 (x)
en c. (Esta bien definida en c por ser f1 (c) 6= 0 y es creciente en dicho
punto).

Construccion de una sucesion de Sturm para un polinomio

La construccion de una sucesion de Sturm es, en general, complicada. Sin


embargo, cuando se trabaja con funciones polinomicas, el problema es mucho
mas simple ademas de que siempre es posible construir una sucesion de Sturm
valida para cualquier intervalo.
Un problema mal condicionado: ceros de un polinomio 39

Dada la ecuacion algebraica Pn (x) = 0, partimos de

f0 (x) = Pn (x) y f1 (x) = Pn0 (x)

Para determinar las demas funciones de la sucesion vamos dividiendo fi1 (x)
entre fi (x) para obtener

fi1 (x) = ci (x) fi (c) + ri (x)

donde ri (x) tiene grado inferior al de fi (x) y hacemos

fi+1 (x) = ri (x)

Como el grado de fi (x) va decreciendo, el proceso es finito. Si se llega a un


resto nulo (el proceso que estamos realizando es precisamente el del algoritmo
de Euclides) la ecuacion posee races multiples y se obtiene el maximo comun
divisor D(x) de Pn (x) y Pn0 (x). Dividiendo Pn (x) entre D(x) obtenemos una
nueva ecuacion que solo posee races simples.
fi (x) P (x)
La sucesion es una sucesion de Sturm para la ecuacion = Q(x) = 0
D(x) D(x)
que posee las mismas races que P (x) = 0 pero todas simples.

Si llegamos a un resto constante, no nulo, es este quien nos determina la


finalizacion del proceso. Hemos obtenido, de esta manera, una sucesion de
Sturm valida para cualquier intervalo [a, b].

Teorema 1.9 [Teorema de Sturm]

Sea f0 (x), f1 (x), . . . , fn (x) una sucesion de Sturm en el intervalo [a, b] y


consideremos las sucesiones

sig[f0 (a)] sig[f1 (a)] sig[fn (a)]

sig[f0 (b)] sig[f1 (b)] sig[fn (b)]

teniendo en cuenta que si alguna de las funciones se anula en uno de los


extremos del intervalo [a, b] pondremos en su lugar, indistintamente, signo +
o - y denotemos por N1 al numero de cambios de signo de la primera sucesion
y por N2 al de la segunda (siempre es N1 N2 ).
En estas condiciones, el numero de races reales existentes en el intervalo [a, b]
de la ecuacion f0 (x) = 0 viene dado por N1 N2 .
40 Ecuaciones no lineales

Ejemplo 1.9 Vamos a construir una sucesion de Sturm que nos permita se-
parar las races de la ecuacion x4 + 2x3 3x2 4x 1 = 0.
f0 (x) = x4 + 2x3 3x2 4x 1. f00 (x) = 4x3 + 6x2 6x 4.
f1 (x) = 2x3 + 3x2 3x 2.

2x4 + 4x3 6x2 8x 2 |2x3 + 3x2 3x 2


2x4 3x3 + 3x2 + 2x xk1
x3 3x2 6x 2 multiplicando por 2
2x3 6x2 12x 4
2x3 3x2 + 3x + 2
9x2 9x 2

f2 (x) = 9x2 + 9x + 2.

18x3 + 27x2 27x 18 |9x2 + 9x + 2


18x3 18x2 4x 2x + 1
9x2 31x 18
9x2 9x 2
40x 20

f3 (x) = 2x + 1.

18x2 + 18x + 4 |2x + 1


18x2 9x 9x k 9
9x + 4 multiplicando por 2
18x + 8
18x 9
1

f4 (x) = 1.

3 2 1 0 1 2 +
4 3 2
f0 (x) = x + 2x 3x 4x 1 + + + +
f1 (x) = 2x3 + 3x2 3x 2 0 + 0 + +
2
f2 (x) = 9x + 9x + 2 + + + + + + + +
f3 (x) = 2x + 1 + + + +
f4 (x) = 1 + + + + + + + +
cambios de signo 4 4 3 3 1 1 0 0
Un problema mal condicionado: ceros de un polinomio 41

Sabemos, por ello, que existe una raz en el intervalo (3, 2), dos races en
el intervalo (1, 0) y una cuarta raz en el intervalo (1, 2).
Como f0 (1) = 1 < 0, f0 (0.5) = 0.0625 > 0 y f0 (0) = 1 < 0 podemos
separar las races existentes en el intervalo (1, 0) y decir que las cuatro races
de la ecuacion dada se encuentran en los intervalos

(3 2) (1, 0.5) (0.5, 0) y (1, 2)




Si, una vez eliminadas las races multiples y separadas las races, queremos
resolver la ecuacion, utilizaremos el metodo de Newton.
Al aplicarlo nos encontramos con que tenemos que calcular, en cada paso, los
valores de P (xn ) y P 0 (xn ) por lo que vamos a ver, a continuacion, un algo-
ritmo denominado algoritmo de Horner que permite realizar dichos calculos
en tiempo lineal.

1.5.2 Algoritmo de Horner

Supongamos un polinomio P (x) y un numero real (en general tambien puede


ser complejo) x0 R. Si dividimos P (x) entre x x0 sabemos que el resto es
un polinomio de grado cero, es decir, un numero real, por lo que


rR
P (x) = (x x0 )Q(x) + r con y

gr[Q(x)] = gr[P (x)] 1

Haciendo x = x0 obtenemos que

P (x0 ) = 0 Q(x0 ) + r = P (x0 ) = r

Este resultado es conocido como teorema del resto y lo enunciamos a conti-


nuacion.

Teorema 1.10 [Teorema del resto]

El valor numerico de un polinomio P (x) para x = x0 viene dado por el resto


de la division de P (x) entre x x0 .
42 Ecuaciones no lineales

Algoritmo de Horner

Consideremos el polinomio P (x) = a0 xn + a1 xn1 + + an1 x + an .


Si llamamos bi (0 i n 1) a los coeficientes del polinomio cociente

P (x) P (x0 )
= Q(x) = b0 xn1 + b1 xn2 + + bn2 x + bn1
x x0
se tiene que
b 0 = a0
b 1 = a1 + x 0 b 0
b 2 = a2 + x 0 b 1
..
.
bn1 = an1 + x0 bn2
r = P (x0 ) = an + x0 bn1

Este procedimiento para calcular el polinomio cociente Q(x) y el valor nume-


rico de P (x0 ) es conocido como algoritmo de Horner.

Ademas, dado que

P (x) = Q(x)(x x0 ) + P (x0 ) = P 0 (x) = Q0 (x)(x x0 ) + Q(x)

se tiene que
P 0 (x0 ) = Q(x0 )
y el calculo de Q(x0 ) es analogo al que hemos realizado para P (x0 ), es decir,
aplicando el algoritmo de Horner a Q(x) obtenemos

Q(x) = C(x)(x x0 ) + Q(x0 ) donde Q(x0 ) = P 0 (x0 ).

Regla de Ruffini

Una regla util para hacer los calculos a mano es la conocida regla de Ruffini
que consiste en disponer las operaciones como se indica a continuacion.

a0 a1 a2 an1 an
x0 x0 b0 x0 b1 x0 bn2 x0 bn1

b0 b1 b2 bn1 P (x0 )
Ejercicios resueltos 43

Si utilizamos la regla de Ruffini solo tenemos que volver a dividir por x0 , como
se muestra a continuacion, para obtener el valor de P 0 (x0 ).

a0 a1 a2 an2 an1 an
x0 x0 b0 x0 b1 x0 bn3 x0 bn2 x0 bn1

b0 b1 b2 bn2 bn1 P (x0 )


x0 x0 c0 x0 c1 x0 cn3 x0 cn2

c0 c1 c2 cn2 P 0 (x0 )

Ejemplo 1.10 Consideremos el polinomio P (x) = 2x4 + x3 3x2 + 4x 5


y vamos a calcular los valores de P(2) y P(2). Aplicando reiteradamente al
regla de Ruffini obtenemos

2 1 3 4 5
2 4 10 14 36

2 5 7 18 31
2 4 18 50

2 9 25 68

por lo que
P (2) = 31 y P 0 (2) = 68 

Evidentemente, la regla de Ruffini nos es util para realizar calculos a mano


con una cierta facilidad, pero cuando los coeficientes de P (x) y el valor de x0
no son enteros sino que estamos trabajando con varias cifras decimales, deja
de ser efectivo y debemos recurrir al algoritmo de Horner en una maquina.

1.6 Ejercicios resueltos


Ejercicio 1.1 Dada la ecuacion xex 1 = 0, se pide:

a) Estudiar graficamente sus races reales y acotarlas.

b) Aplicar el metodo de la biseccion y acotar el error despues de ocho ite-


raciones.
44 Ecuaciones no lineales

c) Aplicar el metodo de Newton, hasta obtener tres cifras decimales exactas.

Solucion:

a) La ecuacion puede escribirse de la


forma:
1
ex =
x
Graficamente, se observa que existe
una unica solucion real (intersec-
cion de las dos curvas) y que esta es
positiva. La demostracion analtica
de este hecho es la siguiente:

Para x < 0:
1 1
<0 y ex > 0 = ex 6=
x x
y por tanto, no existen races negativas.

Para x > 0:
(
f (0) = 1 < 0
f (x) = xex 1 =
f (+) = + > 0

y existe, por tanto, un numero impar de races positivas (al menos una).

La funcion derivada f 0 (x) = xex + ex = (x + 1)ex solo se anula para


x = 1. Dado que, si existiese mas de una raz positiva, el teorema de
Rolle nos asegura que la funcion derivada debe anularse en algun punto
intermedio y hemos visto que f 0 (x) no se anula para ningun valor positivo
de la variable, podemos asegurar que solo existe una raz real , que esta
es positiva y simple, pues f 0 () 6= 0.

Dado que f (1) = e 1 > 0 y f (0) = 1 < 0, podemos asegurar que la


unica raz real de la ecuacion se encuentra en el intervalo (0, 1).

b) Metodo de la biseccion:
(
f (0) = 1 < 0
[a1 , b1 ] = [a, b] = [0, 1] con
f (1) = e 1 > 0
Ejercicios resueltos 45

f (0.5) < 0 = [a2 , b2 ] = [0.5, 1]


f (0.75) > 0 = [a3 , b3 ] = [0.5, 0.75]
f (0.625) > 0 = [a4 , b4 ] = [0.5, 0.625]
f (0.5625) < 0 = [a5 , b5 ] = [0.5625, 0.625]
f (0.59375) > 0 = [a6 , b6 ] = [0.5625, 0.59375]
f (0.578125) > 0 = [a7 , b7 ] = [0.5625, 0.578125]
f (0.5703125) > 0 = [a8 , b8 ] = [0.5625, 0.5703125]
Tomando como aproximacion a la raz el punto medio del intervalo
1
x8 = 0.56640625 = 8 = 0.00390625 = 8 < 102
28
Si redondeamos a las dos primeras cifras decimales, es decir, si tomamos
= 0.57, el error acumulado verifica que

< |0.57 0.56640625| + 0.00390625 = 0.0075 < 102

por lo que puede asegurarse que la solucion de la ecuacion es 0.57 con


las dos cifras decimales exactas.

c) Metodo de Newton:
f (xn )
La formula de Newton-Raphson es xn+1 = xn
f 0 (xn )
Dado que, por el apartado anterior, se conoce que la raz se encuentra
en el intervalo [0.5625, 0.5703125] y que

f (0.5625) < 0
f (x) = xex 1 =
f (0.5703125) > 0
f 0 (x) = (x + 1)ex = f 0 (x) > 0 x [0.5625, 0.5703125]
f 00 (x) = (x + 2)ex = f 00 (x) > 0 x [0.5625, 0.5703125]

la regla de Fourier nos dice que x0 = 0.5703125


Al ser positiva la segunda derivada, la primera es creciente, por lo que

mn |f 0 (x)| = f 0 (0.5703125) = 2.74227290150047 . . .


x[0.5625,0.5703125]

es decir
|f (xn )| |f (xn )|
n 0 <
mn |f (x)| 2.74
x[0.5625,0.5703125]
46 Ecuaciones no lineales

obteniendose que

|f (x0 )|
x0 = 0.5703125 con 0 < = 0.00320437856505 . . .
2.74
|f (x1 )|
x1 = 0.56715149835900 . . . con 1 < = 0.00000827757122 . . .
2.74

Si redondeamos a 0.567 el error acumulado es

< 0.00015149835900 . . . + 0.00000827757122 . . . < 103

Por lo que la solucion de la ecuacion es 0.567 con sus tres cifras decimales
exactas.

Ejercicio 1.2 Probar que la ecuacion x2 + ln x = 0 solo tiene una raz real y
hallarla, por el metodo de Newton, con 6 cifras decimales exactas.

Solucion: Si representamos las graficas de las funciones y = ln x e y = x2


obtenemos

Puede observarse que solo existe un punto de corte entre ellas, por lo que la
ecuacion x2 + ln x = 0 solo posee una raz real.
Analticamente hay que probar que las graficas no vuelven a cortarse en ningun
otro punto, sin embargo, dado que en su dominio de definicion, que es (0, +),
ln x es creciente y x2 decreciente, no pueden volver a cortarse.
Partiendo de x0 = 0.1 y aplicando el metodo de Newton, en el intervalo (0.1, 1)
(no tomamos (0, 1) por no estar definido el logaritmo en 0), dado por la formula

f (xn ) x2n + ln xn x3n + xn xn ln xn


xn+1 = xn = x n =
f 0 (xn ) 2xn + x1n 2x2n + 1
Ejercicios resueltos 47

|f (xn )| |f (xn )|
con un error, a posteriori, dado por n 0 = , obtenemos:
mn |f (x)| 2
x(0,1)

x1 = 0.32476324441118 . . . con 1 0.509593 . . .


x2 = 0.59809970985991 . . . con 2 0.078137 . . .
x3 = 0.65258567248750 . . . con 3 4.7239 . . . 104
x4 = 0.65291863363348 . . . con 4 9.6269 . . . 109
Por lo que la raz buscada es 0.652919 con un error
0.00000036636642 . . . + 9.6269 . . . 109 < 106
es decir, con las seis cifras decimales exactas.

Ejercicio 1.3 Eliminar las races multiples en la ecuacion


x6 2x5 + 3x4 4x3 + 3x2 2x + 1 = 0
Resolver, exactamente, la ecuacion resultante y comprobar la multiplicidad de
cada raz en la ecuacion original.

Solucion: Aplicamos el Algoritmo de Euclides para calcular el maximo co-


mun divisor entre el polinomio P (x) = f0 (x) = x6 2x5 +3x4 4x3 +3x2 2x+1
y su derivada f1 (x) = 6x5 10x4 + 12x3 12x2 + 6x 2. Para ello podemos
multiplicar, previamente, f0 (x) por 3 y dividir f1 (x) entre 2.

3x6 6x5 + 9x4 12x3 + 9x2 6x + 3 |3x5 5x4 + 6x3 6x2 + 3x 1


3x6 + 5x5 6x4 + 6x3 3x2 + x xk 1
5 4 3 2
x + 3x 6x + 6x 5x + 3 multiplicando por 3
3x5 + 9x4 18x3 + 18x2 15x + 9
3x5 5x4 + 6x3 6x2 + 3x 1
4x4 12x3 + 12x2 12x + 8

Por lo que (dividiendo el resto entre 4) f2 (x) = x4 3x3 + 3x2 3x + 2.


Dividimos ahora f1 (x) (dividido, previamente entre 2) entre f2 (x).

3x5 5x4 + 6x3 6x2 + 3x 1 |x4 3x3 + 3x2 3x + 2


3x5 + 9x4 9x3 + 9x2 6x 3x + 4
4x4 3x3 + 3x2 3x 1
4x4 + 12x3 12x2 + 12x 8
9x3 9x2 + 9x 9 = f3 (x) = x3 x2 + x 1
48 Ecuaciones no lineales

Dividiendo, ahora, f2 (x) entre f3 (x) se obtiene:

x4 3x3 + 3x2 3x + 2 |x3 x2 + x 1


x4 + x3 x2 + x x2
3 2
2x + 2x 2x + 2
2x3 2x2 + 2x 2
0

El maximo comun divisor entre P (x) y su derivada es


D(x) = x3 x2 + x 1
El polinomio cuyas races son las mismas que las de P (x), pero simples, es
P (x) x6 2x5 + 3x4 4x3 + 3x2 2x + 1
Q(x) = = = x3 x2 + x 1
D(x) x3 x2 + x 1
Como Q(x) = x3 x2 + x 1 = (x 1)(x2 + 1) = (x 1)(x + i)(x i) sus
races son 1, i y i.
Veamos la multiplicidad de ellas en P (x).
Dado que P 0 (x) = 2(3x5 5x4 + 6x3 6x2 + 3x 1) se tiene:
0

P (1) = 2 (3 5 + 6 6 + 3 1) = 0


P 0 (i) = 2 (3i 5 + 6i + 6 3i 1) = 0



0
P (i) = 2 (3i 5 6i + 6 + 3i 1) = 0
Luego las tres races son dobles (no pueden tener mayor multiplicidad ya que
el grado de P (x) es 6, es decir, 2+2+2).

Ejercicio 1.4 Dado el polinomio P (x) = x3 + 3x2 + 2 se pide:

a) Acotar sus races reales.


b) Probar, mediante una sucesion de Sturm, que P (x) solo posee una raz
real y determinar un intervalo de amplitud 1 que la contenga.
c) Se verifican, en dicho intervalo, las hipotesis del teorema de Fourier?
En caso afirmativo, determinar el extremo que debe tomarse como valor
inicial x0 para garantizar la convergencia del metodo de Newton.
d) Sabiendo que en un determinado momento del proceso de Newton se ha
obtenido xn = 3.1958, calcular el valor de xn+1 as como una cota del
error en dicha iteracion.
Ejercicios resueltos 49

Solucion:

a)
3
|x| < 1 + = 4 = 4 < x < 4
1
b) f0 (x) = P (x) = x3 + 3x2 + 2.
P 0 (x) = 3x2 + 6x = f1 (x) = x2 + 2x
x3 + 3x2 + 2 = (x2 + 2x)(x + 1) + (2x + 2) = f2 (x) = x 1
x2 + 2x = (x 1)(x + 3) + 3 = f3 (x) = 1
4 3 4
3 2
x + 3x + 2 + +
x2 + 2x + + +
x1 +
1
Cambios de signo 2 1 1
por lo que solo posee una raz real, la cual se encuentra en el intervalo
(4, 3).

f (4) = 14 < 0
3 2
c) f (x) = x + 3x + 2 = es decir, la funcion
f (3) = 2 > 0

cambia de signo en los extremos del intervalo (4, 3).

f 0 (x) = 3(x2 + 2x) > 0 x (4, 3)

f 00 (x) = 6(x + 1) < 0 x (4, 3)

por lo que se verifican las hipotesis del teorema de Fourier y, por tanto,
tomando como valor inicial x0 = 4 (extremo en el que la funcion tiene
el mismo signo que la segunda derivada) se tiene garantizada la conver-
gencia del metodo de Newton.
f (xn ) x3n + 3x2n + 2
d) Dado que xn+1 = xn = x n se obtiene que
f 0 (xn ) 3x2n + 6xn
xn+1 = 3.19582334575880.

El error a posteriori viene dado


|f (xn+1 )| |f (xn+1 )| |f (xn+1 )|
n+1 0 = 0 = < 3.9891010 < 109 .
mn |f (x)| f (3) 9
x(4,3)
50 Ecuaciones no lineales

Ejercicio 1.5 Aplicar el metodo de Sturm para separar las races de la ecua-
cion
2x6 6x5 + x4 + 8x3 x2 4x 1 = 0
y obtener la mayor de ellas con seis cifras decimales exactas por el metodo de
Newton.

Solucion: Comencemos por construir la sucesion de Sturm.

f0 (x) = P (x) = 2x6 6x5 + x4 + 8x3 x2 4x 1

P 0 (x) = 12x5 30x4 + 4x3 + 24x2 2x 4, por lo que

f1 (x) = 6x5 15x4 + 2x3 + 12x2 x 2


Multiplicando f0 (x) por tres y dividiendo el resultado entre f1 (x) obtenemos:

6x6 18x5 + 3x4 + 24x3 3x2 2x 3 |6x5 15x4 + 2x3 + 12x2 x 2


6x6 + 15x5 2x4 2x3 + x2 + 2x xk 1
5 4 3 2
3x + x + 12x 2x 10x 3 multiplicando por 2
6x5 + 2x4 + 24x3 4x2 20x 6
6x5 15x4 + 2x3 + 12x2 x 2
13x4 + 26x3 + 8x2 21x 8

f2 (x) = 13x4 26x3 8x2 + 21x + 8


Multiplicando f1 (x) por trece y dividiendo el resultado entre f2 (x) obtenemos:

78x5 195x4 + 26x3 + 156x2 13x 26 |13x4 26x3 8x2 + 21x + 8


78x5 + 156x4 + 48x3 126x2 48x 6x 3
4 3 2
39x + 74x + 30x 61x 26
39x4 78x3 24x2 + 63x + 24
4x3 + 6x2 + 2x 2

f3 (x) = 2x3 3x2 x 1


Multiplicando f2 (x) por dos y dividiendo el resultado entre f3 (x) obtenemos:

26x4 52x3 16x2 + 42x + 16 |2x3 3x2 x + 1


26x4 + 39x3 + 13x2 13x 13x k 13
3 2
13x 3x + 29x + 16 multiplicando por 2
26x3 6x2 + 58x + 32
26x3 39x2 13x + 13
45x2 + 45x + 45
Ejercicios resueltos 51

f4 (x) = x2 x 1
Dividimos ahora f3 (x) entre f4 (x), obteniendo:

2x3 3x2 x + 1 |x2 x 1


2x3 + 2x2 + 2x 2x 1
2
x + x + 1
x2 x 1
0

Al haber llegado a un resto nulo sabemos que la ecuacion original tiene races
multiples.
El maximo comun divisor entre P (x) y su derivada es f4 (x) = x2 x 1,
por lo que el polinomio cuyas races son las mismas que las de P (x) solo que
simples es
P (x)
Q(x) = 2 = 2x4 4x3 x2 + 3x + 1
x x1
Debemos, ahora, de construir una sucesion se Sturm para Q(x).

g0 (x) = Q(x) = 2x4 4x3 x2 + 3x + 1


g1 (x) = f1 (x)/(x2 x 1) = 6x3 9x2 x + 2
g2 (x) = f2 (x)/(x2 x 1) = 13x2 13x 8
g3 (x) = f3 (x)/(x2 x 1) = 2x 1
g4 (x) = f4 (x)/(x2 x 1) = 1

A
Dado que |x| < 1 + , donde A = 4 y |a0 | = 2, se tiene que |x| < 3, o lo que
|a0 |
es lo mismo, 3 < x < 3.

3 1 0.5 0 1 1.5 2 3
4 3 2
2x 4x x + 3x + 1 + + + + + +
6x3 9x2 x + 2 + + + +
g2 (x) = 13x2 13x 8 + + + + + +
2x 1 + + + +
1 + + + + + + + +
Cambios de signo 4 4 3 2 2 1 0 0

Existen, por tanto, cuatro races reales situadas en los intervalos:

[1, 0.5] [0.5, 0] [1, 1.5] [1.5, 2]


52 Ecuaciones no lineales

La mayor de las races se encuentra en el intervalo [1.5, 2], pero dado que
Q0 (1.5) = 0 podemos tomar el intervalo [1.6, 2] en el cual:
(
Q(1.6) < 0
Q(x) = 2x4 4x3 x2 + 3x + 1
Q(2) > 0
Q0 (x) = 8x3 12x2 2x + 3 > 0 x [1.6, 2]

Q00 (x) = 24x2 24x 2 > 0 x [1.6, 2]

La regla de Fourier no dice que debemos comenzar a iterar en x0 = 2.


Q(x)
Teniendo en cuenta que xn+1 = xn 0 se obtiene la sucesion:
Q (x)

x0 =2
x1 = 1.8
x2 = 1.684726867
x3 = 1.632243690
x4 = 1.618923782 = 4 0.01841
x5 = 1.618037855 = 5 0.0011
x6 = 1.618033989 = 6 0.0000047
x7 = 1.618033989 = 7 0.885 1010

Es decir, la mayor de las soluciones, redondeando a seis cifras decimales es


1.618034 con un error acumulado

0.000000011 + 0.000000000885 < 106

por lo que sus seis cifras decimales son exactas.


Ejercicio 1.6 En este ejercicio se pretende calcular 10 1 por el metodo de
Newton. Consideramos, para ello, la funcion f (x) = x10 1 cuya grafica se da
en la Figura 1.

Fig. 1 Fig. 2
Ejercicios resueltos 53

a) Probar, analticamente, que en el intervalo [0.5, 1.5] posee una unica raz
real.
b) Si tomamos x0 = 0.5 obtenemos la raz x = 1 en la iteracion numero 43,
mientras que si tomamos x0 = 1.5 se consigue el mismo resultado en la
iteracion numero 9. Como podramos haber conocido a priori el valor
que se debe elegir para x0 ?
c) Sabras justificar el porque de la extremada lentitud de la convergencia
cuando iniciamos el proceso en x0 = 0.5? y por que sigue siendo lento
el proceso si comenzamos en x0 = 1.5? Justifica las respuestas.
d) Dado que en el intervalo [0.5, 1.5] no se anula la funcion x5 , las races de
f (x) son las mismas que las de g(x) = f (x)/x5 = x5 x5 cuya grafica
se da en la Figura 2. Se puede aplicar a g(x) la regla de Fourier en
dicho intervalo?
e) Si resolvemos, por el metodo de Newton, la ecuacion g(x) = 0, se
obtendra la raz con mayor rapidez que cuando lo hicimos con f (x) = 0?
Justifica la respuesta sin calcular las iteraciones.

Solucion:

a) Dado que la funcion f (x) es continua y derivable en R verificandose que



f (0.5) = 0.510 1 < 0

f (1.5) = 1.510 1 > 0


por lo que admite un numero impar de races en el intervalo [0.5,1.5].


Como f 0 (x) = 10x9 no se anula en [0.5,1.5], solo puede existir una raz
real en dicho intervalo.
b) Dado que f 0 (x) = 10x9 y f 00 (x) = 90x8 son positivas (tienen signo cons-
tante) en todo el intervalo, debe tomarse como valor inicial el extremo
en que f (x) tiene el mismo signo que la segunda derivada (Regla de
Fourier), es decir x0 = 1.5.
c) Basta observar que la recta tangente a la curva y = f (x) en el punto
de abscisa x = 0.5 es casi horizontal, por lo que en la primera iteracion
nos distanciamos de la raz de forma considerable. Ademas, en las pro-
ximidades del 1, la curva es muy vertical, por lo que las tangentes son
tambien muy verticales y las iteraciones se aproximan muy lentamente
a x = 1. Por tanto, si partimos de x = 0.5 nos distanciamos mucho
y nos acercamos muy lentamente, pero si partimos de 1.5 tambien nos
acercamos muy lentamente.
54 Ecuaciones no lineales


g 00 (0.5) < 0
d) g 0 (x) = 5x4 + 5x6 y g 00 (x) = 20x3 30x7 con
g 00 (1.5) > 0

por lo que no puede aplicarse la regla de Fourier en dicho intervalo. (Si
reducimos el intervalo a [0.5, 1.01] si podemos aplicarla, obteniendo que
debemos tomar x0 = 0.5).

e) El proceso convergera mas rapidamente debido a que hemos eliminado


las tangencias casi horizontales y las casi verticales.

1.7 Ejercicios propuestos


Ejercicio 1.7 Dada la ecuacion 8x3 4x2 18x + 9 = 0, acotar y separar sus
races reales.

Sol : |x| 3.25, x1 (2, 1), x2 (0, 1) y x3 (1, 2).

Ejercicio 1.8 Se considera el polinomio P (x) = x3 6x2 3x + 7.

a) Probar, mediante una sucesion de Sturm, que posee una unica raz en el
intervalo (6, 7).

b) Si expresamos la ecuacion P (x) = 0 de la forma

1
x = F (x) = (x3 6x2 + 7),
3
podemos asegurar su convergencia?

Sol : No. F 0 (x) > 1 en todo el intervalo, por lo que no es contractiva.

c) Probar, aplicando el criterio de Fourier, que tomando como valor inicial


x0 = 7, el metodo de Newton es convergente.

d) Aplicando Newton con x0 = 7 se ha obtenido, en la segunda iteracion,


x2 = 6.3039. Que error se comete al aproximar la raz buscada por el
valor x3 que se obtiene en la siguiente iteracion?

Sol : 3 6.62 . . . 106 < 105 .

Ejercicio 1.9 Dada la ecuacion x7 14x + 7 = 0 se pide:

a) Probar que solo tiene una raz real negativa.


Ejercicios propuestos 55

b) Encontrar un entero a de tal forma que el intervalo [a, a + 1] contenga a


la menor de las races positivas de la ecuacion.

Sol : a = 0.

c) Cual de los extremos del intervalo [a, a + 1] debe tomarse como valor
inicial para asegurar la convergencia del metodo de Newton?

Sol : x0 = a = 0.

d) Aplicar el metodo de Newton para obtener la menor de las races positivas


de la ecuacion con seis cifras decimales exactas.

Sol : x = 0.500562.

Ejercicio 1.10 Dado el polinomio P (x) = x4 + 4x3 2x2 + 4x 3 se pide:

a) Acotar las races y construir una sucesion de Sturm para probar que solo
posee dos races reales, una positiva y otra negativa, dando intervalos de
amplitud 1 que las contengan.

Sol : x1 (5, 4) y x2 (0, 1).

b) Partiendo de que la raz positiva se encuentra en el intervalo (0, 1) y


despejando la x del termino lineal
1 1 3
x = x4 x3 + x2 + x = (x)
4 2 4
se puede asegurar la convergencia de la sucesion x1 , x2 , . . . , xn , . . . defi-
nida de la forma x1 = 0, xn+1 = (xn ) ?

Sol : No. La funcion (x) no es contractiva en [0, 1].

c) Aplicar Fourier para determinar el valor inicial que debe tomarse para
garantizar la convergencia del metodo de Newton en el calculo de la raz
negativa. Tenemos las tres cifras exactas si tomamos como raz -4.646 ?

Sol : x0 = 5. Las tres cifras son exactas.

Ejercicio 1.11 Dado el polinomio P (x) = x3 + 6x2 + 9x + k con k R se


pide:

a) Puede carecer de races reales? y tener dos y solo dos races reales?

Sol : No puede carecer de races reales. S si una de ellas es doble.


56 Ecuaciones no lineales

b) Utilizar el metodo de Sturm para probar que tiene una unica raz real
si, y solo si, k < 0 o k > 4, y que solo tiene races multiples si k = 0 o
k = 4 no existiendo, en ningun caso, una raz triple.

c) Para k = 4 admite una unica raz real en el intervalo [0, 1]. Si tomamos
como valor aproximado de la raz x = 0.3553 de cuantas cifras decimales
exactas disponemos?

Sol : x = 0.35530 con las 5 cifras decimales exactas.

d) Si, en el caso anterior en que k = 4, aplicamos el metodo de Newton


para hallar la raz del polinomio, cual de los extremos del intervalo [0, 1]
deberamos tomar como valor inicial x0 para garantizar la convergencia?
y que valor obtendramos para x2 ?

Sol : x0 = 1, x2 = 0.365079 . . ..

Ejercicio 1.12 Dados los polinomios

P (x) = 2x3 2x2 2x + 3

Q(x) = x3 3x2 3x + 2

a) Determinar el valor de sabiendo que se trata de un entero par y que


los valores de dichos polinomios solo coinciden, para valores positivos de
x, en un punto del intervalo (1, 2).

Sol : = 2 (estudiar el polinomio diferencia D(x) = P (x) Q(x)).

b) Probar (mediante una sucesion de Sturm) que, para = 2, el polinomio


P (x) solo tiene una raz real, que esta es positiva, y dar un intervalo de
amplitud 1 que la contenga.

Sol : x [1, 2].

c) Verifica el polinomio P (x) las condiciones de Fourier para la convergen-


cia del metodo de Newton en el intervalo (1.2, 1.3)?

Sol : S, x0 = 1.3.

d) Si tomamos como valor inicial x0 = 1.3, calcular el valor que se obtiene


para x1 dando una cota del error.

Sol : x1 = 1.27606263982103, 1 4.20 104 < 103 .


Ejercicios propuestos 57

Ejercicio 1.13
Cuando dos races positivas de una ecuacion polinomica estan muy proximas,
suele ser difcil separarlas mediante intervalos cerrados. Para alejarlas se
puede proceder como sigue:

Paso 1: Sea la ecuacion polinomica


P (x) = an xn + an1 xn1 + + a1 x + a0 = an (x 1 ) (x n ) = 0

Paso 2: Cambiar x por x2 en P (x) = 0


P (x2 ) = an (x2 1 ) (x2 n ) = 0

Paso 3: Cambiar x por x2 en P (x) = 0


P (x2 ) = an (x2 1 ) (x2 n ) = (1)n an (x2 + 1 ) (x2 + n ) = 0

Paso 4: Multiplicar las dos ecuaciones anteriores para obtener la nueva


ecuacion
P (x2 )P (x2 ) = (1)n a2n (x4 12 ) (x4 n2 ) = 0

Paso 5: En el polinomio obtenido, cambiar x4 por una nueva variable t,


obteniendo una ecuacion del tipo (t 12 ) (t n2 ) = 0.

Se obtiene as una ecuacion polinomica cuyas races son los cuadrados de las
races de la ecuacion P (x) = 0. La relacion entre las races de la nueva
ecuacion con las de P (x) = 0 es i2 j2 = (i + j )(i j ). As, se observa
que las nuevas races se alejan (o se acercan) i + j veces mas que las races
de P (x) = 0.
Si este procedimiento se aplica dos veces se obtiene una ecuacion de la forma
(t 14 ) (t n4 ) = 0
Sea la ecuacion P (x) = 2x2 9x + 10 = 0, y sea Q(x) = 0 la ecuacion obtenida
al aplicar dos veces el metodo anteriormente descrito. Se pide:

a) Mediante una sucesion de Sturm, demostrar que P (x) = 0 posee dos


races reales.
b) Comprobar que se obtiene el polinomio Q(x) = 16x2 881x + 10000
c) Separando previamente las races de Q(x) = 0, utilizar una formula de
error a posteriori para calcular la mayor de ellas, con dos cifras decima-
les exactas, aplicando el metodo de Newton. Denotemos por la raz
obtenida tomando solo dos cifras decimales.

Sol : x1 [10, 20], x2 [30, 40], = 39.06.


58 Ecuaciones no lineales

d) Para resolver la ecuacion x4 = 0 por el metodo de Newton y as


calcular la raz de P (x) = 0, hacer lo siguiente:

d.1) Encontrar un intervalo [a, b] que solo contenga a la mayor raz real
de esta ecuacion y en donde se verifiquen las hipotesis de la regla
de Fourier.

Sol : [2, 3].


d.2) Cuantas iteraciones son necesarias para obtener 25 cifras decimales
1 n max |f 00 (x)|
exactas? Indicacion: En+1 (kE1 )2 , con k = en un
k 2 mn |f 0 (x)|
intervalo adecuado.

Sol : 3 iteraciones (reducir el intervalo inicial al [2, 2.5]).



d.3) Con una calculadora se ha obtenido = 4 = 2.49995999903 como
mejor aproximacion.
Cuantas de las cifras decimales se podran garantizar que coinciden
con las de la verdadera raz de P (x)?

Sol : A lo mas de 2 que son las que tena el valor de .

Ejercicio 1.14

a) Dado el polinomio P (x) = x3 7x2 + 20x 26, utilizar una sucesion de


Sturm para comprobar que P (x) = 0 solo tiene una raz real positiva y
que se encuentra en el intervalo [3, 4].

b) Justificar la convergencia del metodo de Newton para aproximar la raz


real de la ecuacion P (x) = 0 contenida en el intervalo [3, 4]. Realizar
dos iteraciones del metodo y dar una cota del error de la aproximacion
obtenida. Se trata de un problema bien o mal condicionado? Razonar
la respuesta.

Sol : x2 = 3.35483870967742, 2 0.01413849820416. La derivada de


P (x) oscila de 5 a 12, por lo que esta bien condicionado.

Ejercicio 1.15 Queremos aproximar las races de la ecuacion (5 x)ex = 5.

a) Probar, graficamente, que existen dos soluciones, una es x = 0 y la otra


x = se encuentra en el intervalo [1, 5]. Aproximarla realizando dos
pasos del metodo de la Regula falsi.

Sol : x2 = 4.78799912600669
Ejercicios propuestos 59

b) Es posible aproximar aplicando un metodo de iteracion funcional


5 + xex
 
sobre la funcion 1 (x) = ln partiendo de cualquier punto del
5
intervalo I = [1, 5]? Justifica tu respuesta.

Sol : No. Solo en [1, ln 5]


5
c) Y sobre la funcion 2 (x) = 5 partiendo de cualquier punto del
ex
intervalo I = [1, 5]? Justifica tu respuesta.

Sol : No. Solo en [ln 5, 5]

d) Y sobre 2 (x) en I = [2, 5]? Justifica tu respuesta.

Sol : S.
2. Sistemas de ecuaciones linea-
les

2.1 Normas vectoriales y matriciales


Definicion 2.1 [Concepto de norma]

Sea E un espacio vectorial definido sobre un cuerpo K. Se define una norma


como una aplicacion, que denotaremos por k k, de E en R que verifica las
siguientes propiedades:

kxk 0 x E siendo kxk = 0 x = 0. Definida positiva.

k xk = ||kxk K, x E. Propiedad de homogeneidad.

kx + yk kxk + kyk x, y E. Desigualdad triangular.

Es frecuente que en el espacio E se haya definido tambien el producto de dos


elementos. En este caso, si se verifica que

kx yk kxk kyk

se dice que la norma es multiplicativa.


Esta propiedad de las normas es fundamental cuando trabajamos en el con-
junto de las matrices cuadradas de orden n.

Un espacio E en el que hemos definido una norma recibe el nombre de espacio


normado.

61
62 Sistemas de ecuaciones lineales

2.1.1 Normas vectoriales


Sea E un espacio vectorial de dimension n y sea B = {u1 , u2 , . . . , un } una base
suya. Cualquier vector x E puede ser expresado de forma unica en funcion
de los vectores de la base B.
n
X
x= xi ui
i=1

donde los escalares (x1 , x2 , . . . , xn ) se conocen como coordenadas del vector x


respecto de la base B.
Utilizando esta notacion, son ejemplos de normas los siguientes:

n
X
Norma-1 kxk1 = |xi |
i=1

v
u n
uX
Norma eucldea o Norma-2 kxk2 = t |xi |2
i=1

Norma infinito kxk = max |xi |


i

Ejemplo 2.1 Para los vectores

x = (2, 3, 0, 12)T y = (1 + i, i)T



kxk1 = 2 + 3 + 0 + 12 = 17 kyk1 = |1 + i| + |i| = 2 + 1
p
kxk2 = 22 + 32 + 02 + 122 = 13 kyk2 = |1 + i|2 + |i|2 = 3

kxk = | 12| = 12 kyk = |1 + i| = 2


2.1.2 Distancia inducida por una norma


Definicion 2.2 [Distancia]

Dado un espacio vectorial E, se define una distancia como una aplicacion


d : E E R cumpliendo que:
Normas vectoriales y matriciales 63

d(x, y) 0 x, y E siendo d(x, y) = 0 x = y.

d(x, y) = d(y, x) x, y E.

d(x, y) d(x, z) + d(z, y) x, y, z E.

Teorema 2.1 [Distancia inducida por una norma]


 
Si E, k k es un espacio normado, la norma k k induce una distancia en E
que se conoce como distancia inducida por la norma k k y viene definida por:

d(x, y) = kx yk

Demostracion. Veamos que, en efecto, se trata de una distancia:

d(x, y) 0 por tratarse de una norma, y ademas:

d(x, y) = 0 kx yk = 0 kx yk = 0 x = y.

d(x, y) = kx yk = k 1(y x)k = | 1| ky xk = ky xk = d(y, x).

d(x, y) = kx yk = kx z + z yk kx zk + kz yk =

= d(x, z) + d(z, y).

2.1.3 Convergencia en espacios normados


Una sucesion de vectores v1 , v2 , . . . de un espacio vectorial normado (V, k k) se
dice que es convergente a un vector v si

lim kvk vk = 0
k

Esta definicion coincide con la idea intuitiva de que la distancia de los vectores
de la sucesion al vector lmite v tiende a cero a medida que se avanza en la
sucesion.

Teorema 2.2 Para un espacio vectorial normado de dimension finita, el con-


cepto de convergencia es independiente de la norma utilizada.
64 Sistemas de ecuaciones lineales

2.1.4 Normas matriciales


Dada una matriz A y un vector x, consideremos el vector transformado Ax.
La relacion existente entre la norma del vector transformado y la del vector
original va a depender de la matriz A. El mayor de los cocientes entre dichas
normas, para todos los vectores del espacio, es lo que vamos a definir como
norma de la matriz A, de tal forma que de la propia definicion se deduce que
kAxk kAk kxk
cualquiera que sea el vector x del espacio. (Observese que no es lo mismo que
la propiedad multiplicativa de una norma, ya que aqu se estan utilizando dos
normas diferentes, una de matriz y otra de vector).

Definicion 2.3 [Norma de una matriz]

Se define
kAxk
kAk = max = max{kAxk : kxk = 1}
xV {0} kxk

de tal forma que a cada norma vectorial se le asociara, de forma natural, una
norma matricial.

Norma-1 kAk1 = max{kAxk1 : kxk1 = 1}.


n
X
Dado que Ax = y = yi = aik xk se tiene que
k=1
n X
X n
kAk1 = max{ |aik xk | : kxk1 = 1}.
i=1 k=1

Por ultimo, si descargamos todo el peso sobre una coordenada, es decir,


si tomamos un vector de la base canonica, obtenemos que
n
X
kAk1 = max |aij |.
j
i=1

Norma eucldea kAk2 = max{ x A Ax : x x = 1}

Descargando ahora el peso en los autovectores de la matriz A A obtene-


mos que
p p
kAk2 = max{ x i x : x x = 1} = max i = max i
i i i

donde i representa a los valores singulares de la matriz A, es decir, las


races cuadradas positivas de los autovalores de la matriz A A.
Normas vectoriales y matriciales 65

kAk = max{ nj=1 |aij xj | : kxk = 1}.


P
Norma infinito

Como ahora se dara el maximo en un vector que tenga todas sus coor-
denadas iguales a 1, se tiene que
n
X
kAk = max |aij |.
i
j=1

Tenemos pues, que las normas asociadas (algunas veces llamadas subordinadas)
a las normas de vector estudiadas anteriormente son:

n
X
Norma-1 kAk1 = max |aij |.
j
i=1

Norma eucldea kAk2 = max i .


i

n
X
Norma infinito kAk = max |aij |.
i
j=1

Si consideramos la matriz como un vector de m n coordenadas, podemos


definir (de manera analoga a la norma eucldea de vector) la denominada
sX
Norma de Frobenius kAkF = |aij |2 = tr A A
i,j


1 1 2
Ejemplo 2.2 Para la matriz A = 2 1 1 se tiene:

1 0 1
n
X
kAk1 = max |aij | = max{(1 + 2 + 1), (1 + | 1| + 0), (2 + 1 + 1)} = 4
j
i=1

6 1 5
T
El polinomio caracterstico de la matriz A A = 1 2 1 es

5 1 6
p() = 3 142 + 33 = ( 3)( 11)
Los autovalores de la matriz AT
A son0, 3 y 11, por lo que los valores
singulares de la matriz A son 0, 3 y 11 y, por tanto,

kAk2 = max i = 11
i
66 Sistemas de ecuaciones lineales

n
X
kAk = max |aij | = max{(1 + 1 + 2), (2 + | 1| + 1), (1 + 0 + 1)} = 4
i
j=1

kAkF = tr AT A = 6+2+6= 14. 

2.1.5 Transformaciones unitarias


Definicion 2.4 [Matriz unitaria]

La matriz U Cnn de una transformacion se dice unitaria si


U U = U U = I U = U 1

Proposicion 2.3 La norma de Frobenius y la norma eucldea de vector son


invariantes mediante transformaciones unitarias.

Demostracion.

Para la norma matricial de Frobenius:


p p p
kU AkF = tr [(U A) (U A)] = tr (A U U A) = tr (A A) = kAkF
p p
kAU kF = tr [(A U ) (A U )] = tr [(A U )(A U ) ] =
p p p
= tr (A U U A ) = tr (A A ) = tr (A A) = kAkF

Para la norma eucldea de vector.


p
kU xk2 = (U x) (U x) = x U U x = x x = kxk2

Proposicion 2.4 Las matrices A, A , AU y U A, donde U es una matriz


unitaria, poseen los mismos valores singulares y, por tanto, lo misma norma
eucldea.

Demostracion. Veamos, en primer lugar que las matrices A A y AA poseen


los mismos autovalores. En efecto:
Sea un autovalor de A A y x un autovector asociado a .
A Ax = x = AA Ax = Ax
y llamando y = Ax tenemos que AA y = y, por lo que es un autovalor de
la matriz AA asociado al autovector y = Ax. As pues, cualquier autovalor
de A A lo es tambien de AA .
Razonando de igual forma se obtiene que cualquier autovalor de AA lo es
tambien de A A, por lo que ambas matrices poseen los mismos autovalores.
Normas vectoriales y matriciales 67

Como los valores singulares de la matriz A son las races cuadradas posi-
tivas de los autovalores de A A y los de A las races cuadradas positivas
de los autovalores de AA (los mismos que los de A A), las matrices A
y A poseen los mismos valores singulares.

Los valores singulares de U A son las races cuadradas positivas de los


autovalores de (U A) (U A) = A U U A = A A que eran precisamente los
valores singulares de la matriz A.

Los valores singulares de AU son (por el primer apartado) los mismos


que los de (AU ) = U A es decir, las races cuadradas positivas de los
autovalores de (U A ) (U A ) = AU U A = AA cuyos autovalores son
los mismos que los de A A, por lo que AU tiene tambien los mismos
valores singulares que la matriz A.

Proposicion 2.5 La norma eucldea de una matriz unitaria vale siempre 1.

Demostracion.
kU xk2 kxk2
kU k2 = max = max =1
xV {0} kxk2 xV {0} kxk2

Proposicion 2.6 La norma eucldea es invariante mediante transformaciones


de semejanza unitarias.

Demostracion. Sea A y B dos matrices unitariamente semejantes, es decir,


tales que
B = U AU con U unitaria

B = U AU = kBk2 kU k2 kAk2 kU k2 = kAk2
= kBk2 = kAk2

A = U BU = kAk2 kU k2 kBk2 kU k2 = kBk2

2.1.6 Radio espectral


Definicion 2.5 [Radio espectral]

Se define el radio espectral de una matriz A, y se denota por (A) como el


maximo de los modulos de los autovalores de la referida matriz.

(A) = max |i |
i

Geometricamente representa el radio del crculo mnimo que contiene a todos


los autovalores de la matriz.
68 Sistemas de ecuaciones lineales

Teorema 2.7 El radio espectral de una matriz es una cota inferior de todas
las normas multiplicativas de dicha matriz.

Demostracion. Sean {1 , 2 , . . . , r } los autovalores de la matriz A y sean


{x1 , x2 , . . . , xr } autovectores asociados a dichos autovalores.
kAxi k = ki xi k = |i | kxi k.
Por otra parte sabemos que kAxi k kAk kxi k. Por tanto:
|i | kxi k kAk kxi k siendo kxi k =
6 0 por tratarse de autovectores.
Se obtiene entonces que |i | kAk para cualquiera que sea i = 1, 2, . . . , r, de
donde max |i | kAk, es decir: (A) kAk.
i

Definicion 2.6 [Matriz de diagonal dominante]

Una matriz cuadrada de orden n A = (aij )i = 1, 2, . . . , n se dice que es una matriz


j = 1, 2, . . . , n
de diagonal dominante o de Hadamard si
n
X
|aii | > |aik | i = 1, 2, . . . , n
k=1
k 6= i


3 1 1
Ejemplo 2.3 La matriz A = 0 2 1 es de diagonal dominante por

2 1 5
verificar que
3>1+1 2>0+1 y 5 > 2 + | 1| = 3 

Teorema 2.8 Toda matriz de diagonal dominante es regular.

Demostracion. Supongamos que A es de diagonal dominante y que su deter-


minante fuese nulo. En ese caso, el sistema Ax = 0 posee solucion no trivial
(1 , 2 , . . . , n ) 6= (0, 0, . . . , 0).
Sea |k | = max |i | > 0 y consideremos la k-esima ecuacion:
i

ak1 1 + ak2 2 + + akk k + + akn n = 0 =


1 2 n
ak1 + ak2 + + akk + + akn = 0 =
k k k
1 k 1 k + 1 n
akk = ak1 ak k1 ak k+1 akn =
k k k k
Normas vectoriales y matriciales 69

n n
X i X
|akk | |aki | |aki |
k
i=1 i=1
i 6= k i 6= k

en contra de la hipotesis de que A es de diagonal dominante, por lo que toda


matriz de diagonal dominante es regular.

Definicion 2.1 Matrices fundamentales de una matriz A

Se denominan matrices fundamentales de una matriz A, y se denotan por Ak , a


las submatrices constituidas por los elementos de A situados en las k primeras
filas y las k primeras columnas, es decir:

! a11 a12 a13
a11 a12
A1 = (a11 ) A2 = A3 = a21 a22 a23

a21 a22
a31 a32 a33

Teorema 2.9 Las matrices fundamentales Ak de una matriz A de diagonal


dominante, son tambien de diagonal dominante.

Demostracion. La demostracion es trivial, ya que si A es de diagonal domi-


nante se verifica que
n
X k
X
|aii | > |aij | |aij |
j =1 j =1
j 6= i j 6= i

luego Ak tambien lo es.

Definicion 2.7 [Crculos de Gerschgorin]

Sea A Knn . Se definen los crculos de Gerschgorin como los conjuntos



C1 = {z : |z a11 | r1 }



C2 = {z : |z a22 | r2 }

X n

.. con ri = |aij | para 1 i n


.


j =1

j 6= i

Cn = {z : |z ann | rn }

Teorema 2.10 [Teorema de Gerschgorin]

Sean C1 , C2 , . . . , Cn los crculos de Gerschgorin de una matriz A. Si es un


n
[
autovalor de A, se verifica que Ci .
i=1
70 Sistemas de ecuaciones lineales

n
[
Demostracion. Si 6 Ci es porque 6 Ci para ningun i = 1, 2, . . . , n,
i=1
por lo que
| a11 | > r1
| a22 | > r2
..
.
| ann | > rn

y, por tanto, la matriz



a11 a12 a1n
a21 a22 a2n


I A = .. .. .. ..

. . . .


an1 an2 ann

es una matriz de diagonal dominante, por lo que det(I A) 6= 0 y, por tanto,


no puede ser un autovalor de la matriz A en contra de la hipotesis.

Observese que como det A = det AT se verifica que

det(I A) = det(I A)T = det(I AT )

es decir, A y AT tienen el mismo polinomio caracterstico y, por tanto, los


mismos autovalores.
Ello nos lleva a que los crculos de Gerschgorin obtenidos por columnas de-
terminan tambien el dominio de existencia de los autovalores de la matriz A,
es mas, la interseccion de los crculos obtenidos por filas y los obtenidos por
columnas contienen a todos los autovalores de la matriz A.

Teorema 2.11 Si un conjunto de k crculos de Gerschgorin de una matriz A


constituyen un dominio conexo aislado de los otros crculos, existen exacta-
mente k autovalores de la matriz A en dicho dominio.


0 2 3
Ejemplo 2.4 Dada la matriz A = 2 8 2 , sus crculos de Gerschgorin

2 0 10
Sistemas de ecuaciones lineales 71

obtenidos por filas son

C1 = {z : |z 0| 5}

C2 = {z : |z 8| 4}

C3 = {z : |z 10| 2}

Mientras que los obtenidos por columnas son

C1 = {z : |z 0| 4}

C2 = {z : |z 8| 2}

C3 = {z : |z 10| 5}

Estos ultimos nos dicen que la matriz tiene, al menos, un autovalor real (hay
un crculo que solo contiene a un autovalor y este debe ser real ya que de
ser complejo el conjugado tambien sera autovalor de A y al tener el mismo
modulo se encontrara en el mismo crculo contra la hipotesis de que en dicho
crculo solo se encuentra un autovalor), es decir los crculos obtenidos por filas
no nos dan informacion sobre el autovalor real, mientras que los obtenidos por
columnas nos dicen que existe un autovalor real en el intervalo (-4,4). 

2.2 Sistemas de ecuaciones lineales


En el captulo anterior se estudiaron metodos iterados para la resolucion de
ecuaciones no lineales. Dichos metodos se basaban en el teorema del punto
fijo y consistan en expresar la ecuacion en la forma x = (x) exigiendo que
0 (x) q < 1 para cualquier x del intervalo en el cual se trata de buscar la
solucion.
Para los sistemas de ecuaciones lineales, de la forma Ax = b, trataremos de
buscar metodos iterados de una forma analoga a como se hizo en el caso de las
ecuaciones, es decir, transformando el sistema en otro equivalente de la forma
x = F (x) donde F (x) = M x + N . Evidentemente habra que exigir algunas
condiciones a la matriz M para que el metodo sea convergente (al igual que se
exiga que 0 (x) q < 1 en el caso de las ecuaciones) y estas condiciones se
basan en los conceptos de normas vectoriales y matriciales.
72 Sistemas de ecuaciones lineales

Dada una aplicacion f : Rm Rn y un vector b Rn , resolver el sistema


de ecuaciones f (x) = b no es mas que buscar el conjunto de vectores de Rm
cuya imagen mediante f es el vector b, es decir, buscar la imagen inversa de b
mediante f .
Un sistema de ecuaciones se dice lineal en su componente k-esima si verifica
que
f (x1 , . . . , xk1 , x1k + x2k , xk+1 , . . . , xm ) = f (x1 , . . . , xk1 , x1k , xk+1 , . . . , xm )+
+ f (x1 , . . . , xk1 , x2k , xk+1 , . . . , xm )
Diremos que un sistema es lineal si lo es en todas sus componentes, pudiendose,
en este caso, escribir de la forma Ax = b.

Transformacion de un sistema complejo en otro real

Si la aplicacion f se define de Cm en Cn resulta un sistema complejo que puede


ser transformado en otro sistema real.

As, por ejemplo, si el sistema es lineal



mn
M C

f : Cm Cn M z = k con x Cn1

k Cm1

podemos descomponer la matriz M en suma de otras dos de la forma


M = A + iB con A, B Rmn
y analogamente
z = x + iy con x, y Rn1

k = k1 + ik2 con k1 , k2 Rm1


por lo que (A + iB)(x + iy) = k1 + ik2 es decir

Ax By = k1 A B x k1
= =
Bx + Ay = k B A y k2
2

sistema real de 2m ecuaciones con 2n incognitas.

Es por ello, que centraremos nuestro estudio en los sistemas reales.

Clasificacion de los SS.EE.LL

Podemos clasificar los sistemas de ecuaciones lineales atendiendo a


Sistemas de ecuaciones lineales 73

Su tamano

Pequenos: n 300 donde n representa el numero de ecuaciones.


Grandes: n > 300

(Esta clasificacion corresponde al error de redondeo)

Su estructura

Si la matriz posee pocos elementos nulos diremos que se trata de


un sistema lleno.
Si, por el contrario, la matriz contiene muchos elementos nulos,
diremos que la matriz y, por tanto, que el sistema es disperso o
sparce. Matrices de este tipo son las denominadas

a11 a12 0 0
a
21 a22 a23 0

Tridiagonales:
0 a32 a33 a34
0 0 a43 a44

a11 a12 a13 a14
0 a
22 a23 a24

Triangulares superiores:


0 0 a33 a34
0 0 0 a44

a11 0 0 0
a
12 a22 0 0
Triangulares inferiores:


a31 a32 a33 0
a41 a42 a43 a44

En cuanto a los metodos de resolucion de sistemas de ecuaciones lineales,


podemos clasificarlos en

Metodos directos

Aquellos que resuelven un sistema de ecuaciones lineales en un numero


finito de pasos.

Se utilizan para resolver sistemas pequenos.

Metodos iterados Aquellos que crean una sucesion de vectores que


convergen a la solucion del sistema.

Se utilizan para la resolucion de sistemas grandes, ya que al realizar un


74 Sistemas de ecuaciones lineales

gran numero de operaciones los errores de redondeo pueden hacer ines-


table al proceso, es decir, pueden alterar considerablemente la solucion
del sistema.

2.2.1 Numero de condicion


Definicion 2.8 [Condicionamiento de un sistema]

Un sistema de ecuaciones lineales Ax = b se dice bien condicionado cuando


los errores cometidos en los elementos de la matriz A y del vector b producen
en la solucion un error del mismo orden, mientras que diremos que el sistema
esta mal condicionado si el error que producen en la solucion del sistema es
de orden superior al de los datos. Es decir:

kA Ak < kx xk '
sistema bien condicionado
=
kb bk < kx xk  sistema mal condicionado

Consideremos el sistema cuadrado Ax = b con A regular, es decir, un sistema


compatible determinado. En la practica, los elementos de A y de b no suelen
ser exactos bien por que procedan de calculos anteriores, o bien porque sean
irracionales, racionales periodicos, etc. Es decir, debemos resolver un sistema
aproximado cuya solucion puede diferir poco o mucho de la verdadera solucion
del sistema.
As, por ejemplo, en un sistema de orden dos, la solucion representa el punto
de interseccion de dos rectas en el plano. Un pequeno error en la pendiente de
una de ellas puede hacer que dicho punto de corte se desplace solo un poco o
una distancia considerable (vease la Figura 2.1), lo que nos dice que el sistema
esta bien o mal condicionado, respectivamente.
Podemos ver que el sistema esta mal condicionado cuando las pendientes de las
dos rectas son muy similares y que mientras mas ortogonales sean las rectas,
mejor condicionado estara el sistema.

Ejemplo 2.5 Si consideramos el sistema de orden 2



3x + 4y = 7
! !
x 1
de solucion =

3x + 4.00001y = 7.00001 y 1
Sistemas de ecuaciones lineales 75

r1 r10 r1 r10

%
  s
%
  
%
@   %
@

  %

@s s
@   %

 %

@
s

%

@
@ r2
 %
 %

 @@ %


 r2 % 

 % 


 %


Sistema bien condicionado Sistema mal condicionado


Figura 2.1: Condicionamiento de un sistema.

y cometemos un pequeno error en los datos, podemos obtener el sistema



3x + 4y = 7
! !
x 7.6
de solucion =

3x + 3.99999y = 7.00004 y 4

o bien este otro



3x + 4y = 7
! !
x 9.6
de solucion =

3x + 3.99999y = 7.000055 y 5.5

lo que nos dice que estamos ante un sistema mal condicionado.


Si sustituimos la segunda ecuacion por la que resulta de sumarle la primera
multiplicada por 1.0000016 (la ecuacion resultante se multiplica por 106 y se
divide por 1.2) nos queda el sistema

3x + 4y = 7
! !
x 1
de solucion =

4x 3y = 1 y 1

siendo este un sistema bien condicionado.


Se puede observar entonces que si, en un sistema mal condicionado, sustituimos
una de las ecuaciones por una combinacion lineal de las restantes, podemos
hacer que el sistema resultante este bien condicionado o viceversa. 

El estudio del condicionamiento de un sistema se realiza a traves del denomi-


nado numero de condicion que estudiamos a continuacion.
76 Sistemas de ecuaciones lineales

Definicion 2.9 Sea A una matriz cuadrada y regular. Se define el numero de


condicion de la matriz A y se denota por (A) como

(A) = kAk kA1 k

donde la norma utilizada ha de ser una norma multiplicativa.

Este numero nos permite conocer el condicionamiento del sistema Ax = b.


Dado que en la practica el calculo de la matriz inversa A1 presenta grandes
dificultades lo que se hace es buscar una cota del numero de condicion.

(A) = kAk kA1 k < kAk k

siendo k una cota de la norma de la matriz inversa.


kIk
Si kI Ak < 1 entonces kA1 k . En efecto:
1 kI Ak
A A1 = I = [I (I A)]A1 = I =
A1 (I A)A1 = I = A1 = I + (I A)A1 =
kA1 k = kI + (I A)A1 k kIk + k(I A)A1 k kIk + kI Ak kA1 k
kA1 k kI Ak kA1 k kIk = (1 kI Ak)kA1 k kIk =

kIk
kA1 k
1 kI Ak

Es decir:
kIk
(A) kAk k con k=
1 kI Ak
Debemos tener cuidado con esta acotacion ya que si tenemos una matriz casi
regular, es decir, con det(A) ' 0, quiere decir que tiene un autovalor proximo
a cero, por lo que la matriz I A tiene un autovalor proximo a 1 y sera el
mayor de todos. En este caso kI Ak ' 1, por lo que k y dara lugar a
un falso condicionamiento, ya que A no tiene que estar, necesariamente, mal
condicionada.

Ejemplo 2.6 Para estudiar el condicionamiento del sistema



3x + 4y = 7

3x + 4.00001y = 7.00001

Sistemas de ecuaciones lineales 77

Se tiene que
!
3 4
A= = det(A) = 0.00003
3 4.00001
!
1 4.00001 4
A1 =
0.00003 3 3

n
X
Utilizando la norma infinito kAk = max |aij | se tiene que
i
j=1


kAk = 7.00001
56
= (A) ' 105 > 1.8 106
8.00001 3
kA1 k =
0.00003
Se trata pues, de un sistema mal condicionado.
Xn
Si utilizamos la norma-1 kAk1 = max |aij | obtenemos:
j
i=1


kAk1 = 8.00001
56
= 1 (A) ' 105 > 1.8 106
7.00001 3
kA1 k1 =
0.00003
obteniendose, tambien, que se trata de un sistema mal condicionado. 

Propiedades del numero de condicion.

(A) 1 cualquiera que sea la matriz cuadrada y regular A.


Demostracion.

kxk = kIxk kIkkxk = kIk 1

cualquiera que sea la norma utilizada.

Como, por otra parte AA1 = I se tiene que

1 kIk = kAA1 k kAkkA1 k = (A) = (A) 1.

Si B = zA, con z C no nulo, se verifica que (B) = (A).


78 Sistemas de ecuaciones lineales

Demostracion.
1 kA1 k
(B) = kBk kB 1 k = kzAk k A1 k = |z| kAk = kAk kA1 k =
z |z|
= (A)

Dado que det(B) = z n det(A), donde n representa el orden de la matriz


A, y (B) = (A) se ve que el condicionamiento de una matriz no
depende del valor de su determinante.
n
Utilizando la norma eucldea, 2 (A) = donde 1 y n representan,
1
respectivamente, al menor y al mayor de los valores singulares de la
matriz A.
Demostracion. Sabemos que los valores singulares i de la matriz A
son las races cuadradas positivas de los autovalores de la matriz A A.
p
i = i (A A)

Si suponemos 1 2 n se tiene que


q
kAk2 = max i (A A) = n
i
q  q
kA1 k2 = max i (A1 ) A1 = max i (A )1 A1 =

i i
r s
q 1 1
= max i (AA )1 = max = =
i i
i (AA ) mn i (AA )
i
s s
1 1 1 1
= = 2 = kA k2 =
mn i (A A) mn i 1
i i

Podemos concluir, por tanto, que



kAk2 = n n
= 2 (A) =
1 1
kA1 k2 =
1

En cuanto a su relacion con los numeros de condicion obtenidos con otras


normas de matriz se tiene que:

kAk2 kAkF nkAk2 = kA1 k2 kA1 kF nkA1 k2

2 (A) = kAk2 kA1 k2 kAkF kA1 kF = (A)F


Sistemas de ecuaciones lineales 79


F (A) = kAkF kA1 kF n nkAk2 kA1 k2 = n2 (A) =

2 (A) F (A) n2 (A)


p
kAk2 kAk1 kAk p
Ademas: p 2 (A) 1 (A) (A)
1 1 1
kA k2 kA k1 kA k

La condicion necesaria y suficiente para que 2 (A) = 1 es que A = zU


siendo z C (no nulo) y U una matriz unitaria (U U = U U = I).
Demostracion.

) A = zU = 2 (A) = 1.

A = zU = A A = zU zU = |z|2 U U = |z|2 I =
i (A A) = |z|2 cualquiera que sea i = 1, 2, . . . , n y, por tanto,

1 = 2 = = n = |z|

por lo que
n
2 (A) = =1
1
) 2 (A) = 1 = A = zU .

Sabemos que si A es diagonalizable existe una matriz regular R


tal que R1 AR = D con D = diag(i ) (R es la matriz de paso
cuyas columnas son los autovectores asociados los autovalores i ).
Por otra parte sabemos que toda matriz hermtica (A = A ) es
diagonalizable mediante una matriz de paso unitaria.
Como A A es hermtica existe una matriz unitaria R tal que

12
22



R A AR = ...



n2
n
2 (A) = = 1 = 1 = 2 = = n = , por lo que
1

R A AR = 2 I

Entonces
A A = R( 2 I)R = 2 (RIR ) = 2 I
80 Sistemas de ecuaciones lineales

de donde   
1 1
A A =I

1 1
Llamando U = A se tiene que U = A , ya que R = .

  
1 1
U U= A A = I = U es unitaria

y, por tanto,
A = U con U unitaria

Los sistemas mejor condicionados son aquellos que tienen sus filas o columnas
ortogonales y mientras mayor sea la dependencia lineal existente entres ellas
peor es el condicionamiento del sistema.
Al ser (U A) = (A) trataremos de utilizar metodos de resolucion de sistemas
de ecuaciones lineales que trabajen con transformaciones unitarias que no em-
peoren su condicionamiento como lo hace, por ejemplo, el metodo de Gauss
basado en la factorizacion LU y que tambien estudiaremos a continuacion.

2.3 Metodos directos de resolucion de siste-


mas lineales

2.3.1 Factorizacion LU
Al aplicar el metodo de Gauss al sistema Ax = b realizamos transformaciones
elementales para conseguir triangularizar la matriz del sistema.

Si este proceso puede realizarse sin intercambios de filas, la matriz triangular


superior U obtenida viene determinada por el producto de un numero finito
de transformaciones fila Fk Fk1 F1 aplicadas a la matriz A.

Llamando L1 = Fk Fk1 F1 (ya que el determinante de una transformacion


fila es 1 y, por tanto, su producto es inversible) se tiene que L1 A = U , o lo
que es lo mismo, A = LU .

Ademas, la matriz L es una triangular inferior con unos en la diagonal.


Esta factorizacion es unica ya que de existir otra

A = L0 U 0 = LU = L1 L0 = U U 01
Metodos directos de resolucion de sistemas lineales 81

Como L1 tambien es triangular inferior con unos en la diagonal, el producto


L1 L0 tambien es una matriz del mismo tipo.

Analogamente, el producto U U 01 resulta ser una triangular superior.

El hecho de que L1 L0 = U U 01 nos dice que necesariamente L1 L0 = I, ya que


es simultaneamente triangular inferior y superior y su diagonal es de unos.

As pues L1 L0 = I, por lo que L = L0 y, por tanto U = U 0 es decir, la


factorizacion es unica.

Debido a la unicidad de la factorizacion, esta puede ser calculada por un


metodo directo, es decir, haciendo

1 0 0 0 u11 u12 u13 u1n
l21 1 0 0 0 u22 u23 u2n


A= l31 l32 1 0 0 0 u33 u3n

.. .. .. . . .. .. .. .. . . ..

. . . . . . . . . .
ln1 ln2 ln3 1 0 0 0 unn

y calculando los valores de los n2 elementos que aparecen entre las dos matrices.

3 1 2
Ejemplo 2.7 Considerese la matriz A = 6 3 2

3 0 8

3 1 2 1 0 0 u11 u12 u13
6 3 2 = l21 1 0 0 u22 u23 =

3 0 8 l31 l32 1 0 0 u33



u11 u12 u13
= l21 u11 l21 u12 + u22 l21 u13 + u23

l31 u11 l31 u12 + l32 u22 l31 u13 + l32 u23 + u33
por lo que de la primera fila obtenemos que
u11 = 3 u12 = 1 u13 = 2
de la segunda (teniendo en cuenta los valores ya obtenidos) se tiene que

3l21 = 6 l21 = 2
l21 + u22 = 3 = u22 = 1

2l21 + u23 = 2 u23 = 2

82 Sistemas de ecuaciones lineales

y de la tercera (teniendo tambien en cuenta los resultados ya obtenidos)



3l31 = 3 l31 = 1
l31 + l32 = 0 = l32 = 1

2l31 2l32 + u33 = 8 u33 = 4


3 1 2 1 0 0 3 1 2
es decir: 6 3 2 = 2 1 0 0 1 2 

3 0 8 1 1 1 0 0 4

Teorema 2.12 Una matriz regular A admite factorizacion LU si, y solo si,
sus matrices fundamentales Ai (i = 1, 2, . . . , n) son todas regulares.

Demostracion. Supongamos que A admite factorizacion LU . En ese caso


! ! !
Ak Lk Uk
A= = =

Ak = Lk Uk = det(Ak ) = det(Lk ) det(Uk ) = 1 r11 r22 rkk 6= 0


ya que, por sea A regular, todos los pivotes rii i = 1, 2, . . . , n son no nulos.
Recprocamente, si todas las matrices fundamentales son regulares, A admite
factorizacion LU , o lo que es equivalente, se puede aplicar Gauss sin intercam-
bio de filas. En efecto:
Dado que, por hipotesis es a11 6= 0, se puede utilizar dicho elemento como
pivote para anular al resto de los elementos de su columna quedandonos la
matriz (2) (2)
(2)
a11 a12 a1n
0 a(2) (2)
a2n

(2) 22
A = .. .. . . .
. . . ..
(2) (2)
0 an2 ann
(2)
donde a1i = a1i para i = 1, 2, . . . , n.
a21
Si nos fijamos ahora en a222 = a22 a12 podemos ver que es no nulo, ya que
a11
de ser nulo sera
a11 a22 a12 a21 = det(A2 ) = 0
en contra de la hipotesis de que todas las matrices fundamentales son regulares.
(2)
Por tanto, podemos utilizar a22 6= 0 como nuevo pivote para anular a los
elementos de su columna situados bajo el.
Metodos directos de resolucion de sistemas lineales 83

Reiterando el procedimiento se puede ver que todos los elementos que vamos
obteniendo en la diagonal son no nulos y, por tanto, validos como pivotes. Es
decir, puede realizarse la factorizacion LU .

Comprobar si una matriz admite factorizacion LU estudiando si todas sus


matrices fundamentales son regulares es un metodo demasiado costoso debido
al numero de determinantes que hay que calcular.

Corolario 2.13 Toda matriz de diagonal dominante admite factorizacion LU .

Demostracion. Es consecuencia directa de los Teoremas 2.8, 2.9 y 2.12.

Corolario 2.14 Toda matriz hermtica y definida positiva

hermtica A = A
(
x Ax 0 x
definida positiva
x Ax = 0 x = 0

admite factorizacion LU .

Demostracion. Las matrices fundamentales de estas tienen todas determi-


nante positivo, por lo que el Teorema 2.12 garantiza la existencia de las ma-
trices L y U .

Una vez realizada la factorizacion LU , el sistema Ax = b puede escribirse de la


forma LU x = b y llamando U x = y transformamos el problema de resolver el
sistema cuadrado Ax = b en la resolucion de los sistemas triangulares Ly = b
y U x = y.
Ly = b
Ax = b
Ux = y

Ejemplo 2.8 Consideremos el sistema Ax = b con




3 1 2 0
A= 6 3 2 b= 1

3 0 8 5
84 Sistemas de ecuaciones lineales

En el Ejemplo 2.7 realizamos la factorizacion LU de la matriz A.




1 0 0 y1 0 0
Ly = b 2 1 0 y2 = 1 = y = 1

1 1 1 y3 5 4

3 1 2 x1 0 1
U x = y 0 1 2 x2 = 1 = x = 1

0 0 4 x3 4 1 

2.3.2 Factorizacion de Cholesky


Es conocido que toda matriz hermtica y definida positiva tiene sus autovalores
reales y positivos y, ademas, en la factorizacion LU todos los pivotes son reales
y positivos.

Teorema 2.15 [Factorizacion de Cholesky]

Toda matriz A hermtica y definida positiva puede ser descompuesta de la


forma A = R R siendo R una matriz triangular superior.

Demostracion. Por tratarse de una matriz hermtica y definida positiva,


sabemos que admite factorizacion LU . Sea

1 0 0 u11 u12 u1n
l21 1 0 0 u22 u2n

A= .. .. . . .. . .. .. .. =
. . . . .. . . .


ln1 ln2 1 0 0 unn

1 0 0 u11 0 0 1 u12/u11 u1n/u11
l21 1 0 0 u22 0 0 1 u2n/u22

=
.. .. . . .. ..
.. . . .. .
. .. .. .. =
. . . . . . . . . . . .
ln1 ln2 1 0 0 unn 0 0 1

u11 0 0
0 u22 0


= L
.. .. .. .. V =
. . . .


0 0 unn
Metodos directos de resolucion de sistemas lineales 85


u11 0 0 u11 0 0

0 u22 0 0 u22 0


= L V
.. .. .. . .. ..
... . ...
. . . . . .



0 0 unn 0 0 unn

A = BR

u11 0 0 0

0 u22 0 0


0
B = L 0 u33 0 es triangular inferior.
.. .. .. ... ..
. . . .

0 0 0 unn

u11 0 0 0

0 u22 0 0


R= 0 0 u33 0 V es triangular superior.
.. .. .. .. ..
. . . . .

0 0 0 unn
Como A es hermtica, BR = A = A = R B , por lo que (R )1 B = B R1 , y
dado que (R )1 B es triangular inferior y B R1 es triangular superior, ambas
han de ser diagonales.
Por otra parte,

B R1 = (LD) (DV )1 = D L V 1 D1 = DL V 1 D1 = L V 1

ya que las matrices diagonales conmutan.


Dado que la matriz L V 1 tiene unos en la diagonal y es igual a B R1 que
es diagonal, debe ser B R1 = I, por lo que B = R o, lo que es lo mismo,
B = R , es decir A = R R con R = DV .

Hemos visto que toda matriz hermtica y definida positiva admite factorizacion
de Cholesky, pero podemos llegar mas lejos y enunciar el siguiente teorema.

Teorema 2.16 Una matriz hermtica y regular A es definida positiva si, y


solo si, admite factorizacion de Cholesky.

Demostracion. Si es hermtica y definida positiva admite factorizacion LU


con todos los elementos diagonales de U (pivotes) positivos, por lo que admite
factorizacion de Cholesky.
86 Sistemas de ecuaciones lineales

Recprocamente, si A admite factorizacion de Cholesky es A = R R por lo que


A = (R R) = R R = A = A es hermtica
Para cualquier vector x no nulo es
x Ax = x R Rx = (Rx) (Rx) = kRxk2 0
siendo cero solo si Rx = 0 pero al ser R regular (si no lo fuese tampoco lo
sera A en contra de la hipotesis) Rx = 0 = x = 0 en contra de la hipotesis
de que x no es el vector nulo.
Se tiene pues que x Ax > 0 para cualquier vector x no nulo, es decir, A es
definida positiva.

La unicidad de las matrices L y U implica la unicidad de la matriz R y, por


tanto, esta puede ser calculada por un metodo directo.

Ejemplo 2.9 Consideremos el sistema



4 2i 4 + 2i x1 0
2i 2 2 2i x2 = 0

4 2i 2 + 2i 10 x3 4

Realicemos la factorizacion R R directamente, es decir



4 2i 4 + 2i r11 0 0 r11 r12 r13
2i 2 2 2i = r12 r22 0 0 r22 r23

4 2i 2 + 2i 10 r13 r23 r33 0 0 r33

2
Se obtiene multiplicando, que r11 = 4 = r11 = 2.

2r12 = 2i = r12 = i
Utilizando este resultado tenemos que
2r13 = 4 + 2i = r13 = 2 + i

2 2 2
r12 + r22 = 2 = r22 = 1 = r22 = 1.
r12 r13 + r22 r23 = 2 2i = 1 2i + r23 = 2 2i = r23 = 1.
2 2 2 2 2
r13 + r23 + r33 = 10 = 5 + 1 + r33 = 10 = r33 = 4 = r33 = 2.
As pues, el sistema nos queda de la forma

2 0 0 2 i 2+i x1 0
i 1 0 0 1 1 x2 = 0

2i 1 2 0 0 2 x3 4
Metodos iterados de resolucion de sistemas lineales 87


2 0 0 y1 0 0
R y = b i 1 0 y2 = 0 = y = 0

2i 1 2 y3 4 2

2 i 2+i x1 0 1
Rx = y 0 1 1 x2 = 0 = x = 1

0 0 2 x3 2 1


2.4 Metodos iterados de resolucion de siste-


mas lineales
Un metodo iterado de resolucion del sistema Ax = b es aquel que genera, a
partir de un vector inicial x0 , una sucesion de vectores (xn ) con xn+1 = f (xn ).

Definicion 2.10 [Consistencia]

Un metodo iterado se dira que es consistente con el sistema Ax = b, si el lmite


de dicha sucesion, en caso de existir, es solucion del sistema.

Definicion 2.11 [Convergencia]

Un metodo iterado para la resolucion del sistema Ax = b se dira que es con-


vergente si la sucesion generada por cualquier vector inicial x0 es convergente
a la solucion del sistema.

Es evidente que si un metodo es convergente es consistente, sin embargo, el


recproco no es cierto como prueba el siguiente ejemplo.

Ejemplo 2.10 El metodo xn+1 = 2xn A1 b es consistente con al sistema


Ax = b pero no es convergente. En efecto:

xn+1 x = 2xn A1 b x = 2xn 2x A1 b + x = 2(xn x) (A1 b x)

y como A1 b = x, se tiene que

xn+1 x = 2(xn x)

Si existe lim xn = x tendremos que


n

x x = 2(x x) = x x = 0 = x = x
88 Sistemas de ecuaciones lineales

es decir, el lmite es solucion del sistema Ax = b, por lo que el metodo es


consistente.
Sin embargo, de xn+1 x = 2(xn x) obtenemos que

kxn+1 xk = 2kxn xk

es decir, el vector xn+1 dista de x el doble de lo que distaba xn , por lo que el


metodo no puede ser convergente. 

Los metodos iterados que trataremos son de la forma

xn+1 = Kxn + c

en los que K sera la que denominemos matriz del metodo y que dependera de
A y de b y en el que c es un vector que vendra dado en funcion de A, K y b.

Teorema 2.17 Un metodo iterado, de la forma xn+1 = Kxn +c, es consistente


con el sistema Ax = b si, y solo si, c = (I K)A1 b y la matriz I K es
invertible

Demostracion.

Supongamos que el metodo es consistente con el sistema Ax = b.


Como x = Kx + (I K)x = Kx + (I K)A1 b, se tiene que

xn+1 x = K(xn x) + c (I K)A1 b (2.1)

Por ser consistente el metodo, de existir x = lim xn ha de ser x = x.


n
Pasando al lmite en la Ecuacion (2.1) obtenemos que

x x = K(x x) + c (I K)A1 b

por lo que
(I K)(x x) = c (I K)A1 b (2.2)
y dado que x = x nos queda que 0 = c (I K)A1 b, es decir,

c = (I K)A1 b.

Ademas, dado que x = Kx + c, el sistema (I K)x = c posee solucion


unica x y, por tanto, la matriz I K es invertible.
Metodos iterados de resolucion de sistemas lineales 89

Si c = (I K)A1 b y la matriz I K es invertible, cuando exista


lim xn = x se tendra de (2.2) que
n

(I K)(x x) = 0

Como I K es invertible, x = x, y el metodo es consistente.

Teorema 2.18 Un metodo iterado de la forma xn+1 = Kxn + c consistente


con el sistema Ax = b es convergente si, y solo si, lim K n = 0.
n

Demostracion. Por tratarse de un metodo consistente con el sistema Ax = b,


se verifica que c = (I K)A1 b, por lo que

xn+1 = Kxn + (I K)A1 b

restando el vector solucion x a ambos miembros, podemos escribir

xn+1 x = Kxn (K +I K)x+(I K)A1 b = K(xn x)+(I K)(A1 bx)

y dado que A1 b x = 0 obtenemos que xn+1 x = K(xn x).


Reiterando el proceso se obtiene:

xn x = K(xn1 x) = K 2 (xn2 x) = = K n (x0 x)

lim (xn x) = ( lim K n )(x0 x) (2.3)


n n

Si el metodo es convergente, lim (xn x) = x x = 0, por lo que de la


n
ecuacion (2.3) obtenemos que

lim K n = 0
n

Si lim K n = 0, obtenemos de la ecuacion (2.3) que


n

lim (xn x) = 0 lim xn = x


n n

por lo que el metodo es convergente.

Teorema 2.19 [Teorema del punto fijo]

Si para alguna norma matricial es kKk < 1, la sucesion (xn ) definida por
xn+1 = Kxn +c, donde x0 Rn es un vector cualquiera, converge a la solucion
de la ecuacion x = Kx + c que existe y es unica.
90 Sistemas de ecuaciones lineales

Demostracion.

Existencia y unicidad

Veamos, en primer lugar, que la ecuacion x = Kx + c posee solucion


unica.
En efecto: x = Kx + c = (I K)x = c. Este sistema tiene solucion
unica si, y solo si, el sistema homogeneo asociado (I K)z = 0 admite
solo la solucion trivial z = 0, es decir, si I K es invertible.
La solucion z no puede ser distinta del vector nulo ya que de serlo, como
kKk < 1 se tiene que al ser (I K)z = 0, o lo que es lo mismo, z = Kz

kzk = kKzk kKkkzk < kzk

lo cual es un absurdo, por lo que el sistema homogeneo solo admite la


solucion trivial y, por tanto, el sistema completo x = Kx + c posee
solucion unica.

Convergencia

Probaremos ahora que la sucesion (xn ) converge a x.


Dado que xn+1 x = (Kxn + c) (Kx + c) = K(xn x), podemos
reiterar el proceso para obtener que xn x = K n (x0 x) por lo que

kxn xk kK n kkx0 xk kKkn kx0 xk

y dado que kKk < 1, pasando al lmite se obtiene

lim kxn xk = 0 = lim xn = x


n n

Teorema 2.20 [Condicion necesaria y suficiente de convergencia]

La sucesion (xn ) definida por xn+1 = Kxn + c, donde x0 Rn es un vector


cualquiera, es convergente si, y solo si, la matriz K tiene radio espectral menor
que 1.

xn+1 = Kxn + c con x0 Rn convergente (K) < 1


Metodos iterados de resolucion de sistemas lineales 91

Demostracion.

Condicion suficiente

Si 1 , . . . , m son los autovalores de la matriz K, los de la matriz K n son


n1 , . . . , nm .

(K) < 1 = |i | < 1 (i = 1, . . . , m) = i , 2i , . . . , ni , . . . 0

por lo que los autovalores de la matriz lmite lim K n son todos nulos,
n
es decir, lim K n = 0 por lo que
n

(K) < 1 = el proceso es convergente.

Condicion necesaria

El teorema del punto fijo establece como condicion necesaria para la


convergencia que kKk < 1 y dado que (K) es una cota inferior de
cualquier norma multiplicativa, es (K) kKk < 1, por lo que

El proceso es convergente = (K) < 1.

Metodos de descomposicion

Los metodos que vamos a estudiar consisten en descomponer la matriz inver-


tible A del sistema Ax = b de la forma A = M N de manera que la matriz
M sea facilmente invertible, por lo que reciben el nombre generico de metodos
de descomposicion.
El sistema queda entonces de la forma

(M N )x = b = M x = N x + b = x = M 1 N x + M 1 b

es decir, expresamos el sistema de la forma



K = M 1 N
Ax = b x = Kx + c con
c = M 1 b

Dado que

(I K)A1 b = (I M 1 N )(M N )1 b = M 1 (M N )(M N )1 b = M 1 b = c

y la matriz (I K) = (I M 1 N ) = M 1 (M N ) = M 1 A es invertible,
estamos en las condiciones del Teorema 2.17 por lo que xn+1 = Kxn + c es
consistente con el sistema Ax = b.
92 Sistemas de ecuaciones lineales

Es decir, si el proceso converge, lo hace a la solucion del sistema.

Sabemos tambien, por el Teorema 2.19, que el proceso sera convergente si se


verifica que kKk = kM 1 N k < 1 para alguna norma.

Para el estudio de los metodos que trataremos a continuacion, vamos a des-


componer la matriz A de la forma A = D E F siendo

a11 0 0 0 0 0 0 0
0 a22 0 0 a21 0 0 0



D= 0 0 a33 0 E = a31 a32 0 0
.. .. .. .. .. .. .. ..

.. ..
. .

. . . . . . . .
0 0 0 ann an1 an2 an3 0


0 a12 a13 a1n
0 0 a23 a2n



F = 0 0 0 a3n
.. .. .. .

..
. ..

. . .
0 0 0 0

2.4.1 Metodo de Jacobi


Consiste en realizar la descomposicion

A = M N = D (E + F )

El sistema queda de la forma

Ax = b = Dx = (E + F )x + b = x = D1 (E + F )x + D1 b
(
J = D1 (E + F )
Metodo de Jacobi xn+1 = Jxn + c con
c = D1 E

La matriz J recibe el nombre de matriz de Jacobi.

Teorema 2.21 Si A es una matriz de diagonal dominante, el metodo de Ja-


cobi es convergente.
Metodos iterados de resolucion de sistemas lineales 93

Demostracion. La matriz J = D1 (E + F ) tiene todos los elementos diago-


nales nulos y las sumas de los modulos de los elementos de sus filas son todas
menores que 1 ya que
n n
X X |aik |
|aii | > |aik | i = 1, 2, . . . , n = <1
|aii |
k=1 k=1
k 6= i k 6= i

por lo que los crculos de Gerschgorin estan todos centrados en el origen y


tienen radios menores que 1 es decir, todos los autovalores de J son menores
que 1, por lo que (J) < 1 y el metodo converge.

2.4.2 Metodo de Gauss-Seidel


Este metodo es el resultado de realizar la descomposicion

A = M N = (D E) F

El sistema nos queda

Ax = b = (D E)x = F x + b = x = (D E)1 F x + (D E)1 b


(
L1 = (D E)1 F
Metodo de Gauss-Seidel xn+1 = L1 xn + c con
c = (D E)1 b
La matriz L1 recibe el nombre de matriz de Gauss-Seidel.

Teorema 2.22 Si A es una matriz de diagonal dominante, el metodo de


Gauss-Seidel es convergente.

Teorema 2.23 Si A es una matriz simetrica y definida positiva, el metodo de


Gauss-Seidel es convergente.

2.4.3 Metodos de relajacion (SOR)


Estos metodos realizan la descomposicion
 
1 1 1 1
A= D D E F = (D E) D+F =M N

94 Sistemas de ecuaciones lineales

El sistema se transforma entonces en


 
1 1
(D E)x = D + F x + b =

 
(D E)x = (1 )D + F x + b =
 
x = (D E)1 (1 )D + F x + (D E)1 b

Metodos de relajacion xn+1 = L xn + c con


(  
1
L = (D E) (1 )D + F
c = (D E)1 b

La matriz L recibe el nombre de matriz de relajacion.

Si = 1 la matriz se reduce a L1 = (D E)1 F , es decir, se trata del


metodo de Gauss Seidel.

Si > 1 se dice que se trata de un metodo de sobre-relajacion

Si < 1 se dice que se trata de un metodo de sub-relajacion

Teorema 2.24 Una condicion necesaria para que converja el metodo de rela-
jacion es que (0, 2).

Teorema 2.25 Si A es de diagonal dominante, el metodo de relajacion es


convergente cualquiera que sea (0, 1].

Teorema 2.26 Si A es simetrica y definida positiva, el metodo de relajacion


converge si, y solo si, (0, 2)
Factorizaciones ortogonales 95

2.5 Factorizaciones ortogonales


Si tratamos de resolver un sistema Ax = b mediante la factorizacion LU (o la
de Cholesky), lo que hacemos es transformar el sistema en Ax = LU x = b para
hacer U x = L1 b que es un sistema triangular que se resuelve por sustitucion
regresiva. Sin embargo, la matriz del nuevo sistema es U = L1 A y dado que
L1 no es una matriz unitaria (ortogonal en el caso real) el numero de condicion
de la matriz del sistema ha cambiado pudiendo estar peor condicionada que
la matriz A del sistema original.
Vamos a estudiar, a continuacion, otro tipo de factorizacion A = QR donde
R es, al igual que U , una matriz triangular superior, pero donde Q va a ser
una matriz unitaria, por lo que el sistema Ax = b lo transformaremos en
Rx = Q1 b = Q b y, a diferencia del caso anterior, R = Q A tiene el mismo
numero de condicion que la matriz A del sistema original, ya que Q es unitaria.

2.5.1 Factorizacion QR de Gram-Schmidt



a11 a12 a1n
a21 a22 a2n

Consideremos la matriz regular A = .. .. .. . = (a1 a2 an )
. . . ..
an1 an2 ann
donde ai representa a su columna i-esima.
Aplicando Gram-Schmidt existe un sistema ortonormal {y1 , y2 , . . . , yn } tal que
L{y1 , y2 , . . . , yk } = L{a1 , a2 , . . . , ak }, por lo que yk+1 L {a1 , a2 , . . . , ak }.
Sea Q la matriz cuyas columnas son los vectores yi , Q = (y1 y2 yn ).
Entonces,

y1

h a1 , y 1 i h an , y 1 i
. .. .. ..
Q A = .. (a1 an ) Q A = .

. .
yn h a1 , y n i h an , y n i

Como yk+1 L {a1 , a2 , . . . , ak }, se tiene que h ai , yj i = 0 si, y solo si, i < j,


por lo que la matriz Q A es una triangular superior.

r11 r12 r1n
0 r22 r2n

Q A = R =

.. .. . . .
. . . ..

0 0 rnn
96 Sistemas de ecuaciones lineales

Como las columnas de Q constituyen un sistema ortonormal de vectores, Q es


unitaria, es decir Q Q = I, por lo que A = QR.

El problema que plantea la descomposicion QR es que la matriz Q no es otra


que la constituida por una base ortonormal obtenida a partir de las columnas
de A por el metodo de Gram-Schmidt. Las transformaciones que se realizan
para ortonormalizar los vectores columna de la matriz A mediante el metodo
de Gram-Schmidt son transformaciones no unitarias, por lo que aunque el
resultado sea una factorizacion ortogonal, los pasos que se han dado para
llegar a ella han sido transformaciones no ortogonales. Ello nos lleva a tratar
de buscar un metodo por el que podamos realizar una factorizacion QR en la
que todos los pasos que se realicen sean transformaciones ortogonales.

2.5.2 Factorizacion QR mediante rotaciones

Consideremos la matriz

a11 a1i a1j a1n
. .
.. . . ... ..
.
..
.

ai1 aii aij ain

. .. . . . .. ..
A= .
. . . .

aj1 aji ajj ajn

. .. .. . . .
. . ..
. . .
an1 ani anj ann

y tratemos de anular el elemento aji 6= 0. Para ello vamos a aplicar una


rotacion

1 0 0 0
. . .. .. ..
.. . . . . .

0 cos sen 0


. .. . .. ..
Qji = .
. . . . . .

0 sen cos 0

. .. .. . . ..

. . .
. . .
0 0 0 1

La matriz Qji A nos queda


Factorizaciones ortogonales 97


a011 a01i a01j a01n
. .
.. . . ... ..
.
..
.

0
ai1 a0ii a0ij a0in

. .. .. . ..
Qji A = . . ..
. . .

0
aj1 a0ji 0 0
ajj ajn

. .. .. . . .
. . ..
. . .
a0n1 a0ni 0 0
anj ann
con a0ji = aii sen + aji cos , por lo que

Si aii = 0 = a0ji = aji cos y si queremos anularlo aji cos = 0.


Dado que suponemos que aji 6= 0, basta con hacer cos = 0, es decir:
= /2.
Si aii 6= 0 tendremos que hacer aii sen + aji cos = 0, por lo que
aji
t = tg = y, por tanto,
aii
t 1
sen = cos =
1 + t2 1 + t2
Observese ademas que los unicos elementos que se alteran en la matriz Qji A
son los correspondientes a la filas y columnas i y j.
Podemos, por tanto, mediante rotaciones, anular todos los elementos subdia-
gonales y llegar a una matriz R triangular superior
Qk Q2 Q1 A = R Q A = R con Q = Qk Q2 Q1
Dado que las matrices Qi de las rotaciones son ortogonales, su producto
tambien los es, por lo que Q es una matriz ortogonal y, por tanto, A = QR.

En este metodo de factorizacion QR, a diferencia del aplicado anteriormente


mediante el metodo de Gram-Schmidt todos los pasos que se dan estan asocia-
dos a transformaciones ortogonales, sin embargo resulta costoso ya que cada
rotacion hace un unico cero en la matriz A, por lo que para una matriz de
n2 n
orden n seran necesarias rotaciones.
2

Otra posibilidad es hacer reflexiones en vez de rotaciones, ya que estas consi-


guen anular todos los elementos situados por debajo de uno prefijado de una
determinada columna. Este tipo de transformaciones vamos a estudiarlas a
continuacion con las denominadas transformaciones de Householder.
98 Sistemas de ecuaciones lineales

2.5.3 Factorizacion QR de Householder


Consideremos un espacio vectorial de dimension n definido sobre un cuerpo
K, que denotaremos por Kn (en general trabajaremos en Rn o Cn ).

Definicion 2.12 [Transformaciones de Householder]

Dado un vector v Kn se define la transformacion H de Householder asociada


al vector v a la que viene definida por la matriz:

nn
IK si v = 0


H=
2
vv si v 6= 0

I

vv

Proposicion 2.27 La transformacion H de Householder asociada a un vector


v Kn posee las siguientes propiedades:

a) H es hermtica (H = H).

b) H es unitaria (H H = HH = I).

c) H 2 = I o lo que es lo mismo, H 1 = H.

Demostracion.
   
2 2 2
a) H = I vv
=I
(vv ) = I vv = H
v v v v v v

Observese que v v = h v, v i = kvk2 R, por lo que v v = v v

b) Teniendo en cuenta que H = H


  
2 2
HH = HH = I vv I vv =
v v v v
 2
4 2
= I vv +
vv vv =
v v v v
4 4 4 4
= I vv + 2 v(v v)v = I vv + vv = I
v v (v v) v v (v v)

c) H 2 = HH = HH = I.
Factorizaciones ortogonales 99

Interpretacion geometrica en Rn

Sean v Rn un vector tal que kvk2 = 1 y H la transformacion de Householder


asociada a el:
H = I 2vv T

Dado un vector x Rn se tiene que



Hx = I 2vv T x = x 2vv T x = x 2vh x, v i =
= x 2v(kxk kvk cos ) = x 2v(kxk cos ) =
= x 2v con = kxk cos

donde representa el angulo que forman los vectores x y v.


3
x 







v

 -
 -

Figura 2.2: = kxk cos .

Sea y el vector simetrico de x respecto del hiperplano perpendicular a v.

6Q y
Q
k x 
36
y + v Q
Q 

x v
Q 
v Q
Q 
 v
 Q
- -
v v
Figura 2.3: Un vector x y su transformado y = Hx.

Podemos observar que

y + v = x v y = x 2v = Hx
100 Sistemas de ecuaciones lineales

H refleja al vector x respecto del hiperplano perpendicular al vector v, por lo


que las transformaciones de Householder son tambien conocidas como refle-
xiones.

El siguiente resultado, valido para cualquier espacio vectorial (real o complejo),


es facil de comprobar, geometricamente, en el caso real.

Proposicion 2.28 Sea H la transformacion de Householder asociada a un


vector no nulo v.

a) x v = Hx = x.

b) x k v = Hx = x en particular Hv = v.

Demostracion.

a) Por ser x v, su producto escalar v x es nulo, por lo que

2 2
Hx = (I
vv )x = x v(v x) = x
v v v v

b) x k v = x = v

2 2 2
Hx = (I
vv )v = v vv v = v v(v v) =
v v v v v v
= v 2v = v = x

En particular, para x = v se obtiene Hv = v.

Interpretacion geometrica en Cn

Cualquier vector x Cn puede ser descompuesto de forma unica en la suma


de uno proporcional a v y otro w perteneciente a la variedad W ortogonal a
v, es decir
x = v + w con w v
As pues,
Hx = H(v + w) = H(v) + Hw = v + w
Hx es el vector simetrico de x respecto del hiperplano ortogonal a v.
Factorizaciones ortogonales 101

Determinacion de las transformaciones

Caso real

Proposicion 2.29 Si x 6= y son dos vectores de Rn con kxk = kyk, la


transformacion de Householder asociada al vector v = x y transforma
al vector x en el vector y, es decir, Hx = y.

Demostracion. Dado que ambos vectores tienen la misma norma,

h x + y, x y i = kxk2 h x, y i + h y, x i kyk2 = 0

6x + y

y x
KA 
A 
A 
A 
A x -y

Figura 2.4: Hxy transforma x en y.

Ademas, los vectores x e y son simetricos respecto de la direccion del vec-


tor x + y (vease la Fig. 2.4), por lo que la transformacion de Householder
asociada al vector v = x y transforma a x en y.
Considerense los vectores de igual norma

x = (x1 , x2 , . . . , xn )T

y = (x1 , x2 , . . . , xk , k(xk+1 , . . . , xn )T k, 0, . . . , 0)T


La transformacion de Householder asociada al vector v = x y trans-


forma x en y y deja invariante a cualquier vector que tenga nulas todas
sus coordenadas a partir de la k + 1-esima.

Ejemplo 2.11 Sean



x = (1, 1, 1, 2, 2)T

y = (1, 1, 12 + 22 + 22 , 0, 0)T = (1, 1, 3, 0, 0)T

102 Sistemas de ecuaciones lineales

La transformacion de Householder asociada al vector

v = x y = (0, 0, 2, 2, 2)T

2 2
H=I
vv = I vv
v v 12
verifica que:
2 2 2
Hx = (I vv )x = x v(v x) = x v6 = x v = y
12 12 12
y para cualquier vector que tenga sus tres ultimas coordenadas nulas

w = (a, b, 0, 0, 0)T

2 2 2
Hw = (I vv )w = w v(v w) = w v 0 = w
12 12 12


Caso complejo

Considerense los vectores de igual norma



T
x = (x1 , x2 , . . . , xn )

k(xk+1 , . . . , xn )T k
y = (x1 , x2 , . . . , xk , xk+1 , 0, . . . , 0)T


|xk+1 |

La transformacion de Householder asociada al vector v = x y trans-


forma x en y y deja invariante a cualquier vector que tenga nulas todas
sus coordenadas a partir de la k + 1-esima.

Ejemplo 2.12 Sean



T
x = (i, 3i, 4i)


p
|3i|2 + |4i|2
y = (i, 3i, 0)T = (i, 5i, 0)T


|3i|

La transformacion de Householder asociada al vector

v = x y = (0, 2i, 4i)T

2 2
H=I
vv = I vv
v v 12
Factorizaciones ortogonales 103

verifica que:
2 2 2
Hx = (I vv )x = x v(v x) = x v10 = x v = y
20 20 20
y para cualquier vector que tenga su ultima coordenada nula

w = (a, b, 0)T
2 2 2
Hw = (I vv )w = w v(v w) = w v 0 = w 
20 20 20

Factorizacion QR de Householder

Sea A = (a1 a2 an ), donde ai representa la columna i-esima de la matriz.



a11 kx1 k r11
a21 0 0

Sean x1 = a1 =
.. e y1 = .. = .. .

. . .
an1 0 0
La transformacion de Householder H1 , asociada al vector v1 = x1 y1 , trans-
forma x1 en y1 , es decir, anula a todos los elementos de la primera columna
situados debajo de a11 .
(1) (1)

r11 a12 a1n
0 a(1) (1)
a2n

22 (1) (1) (1)
H1 A = . .. . . .. = (a1 a2 an )

. . . . .
(1) (1)
0 an2 ann
(1)
en la que ai representa la columna i-esima de la matriz H1 A.
Busquemos ahora otro vector v2 tal que la transformacion de Householder H2
(1) (1)
asociada a el, deje invariante al vector a1 y transforme al vector a2 en otro
de la forma (r12 , r22 , 0, . . . , 0)T .
(1) (1)
a21 a21
(1) (1) (1)
a22 k(a22 , . . . , an2 )T k

(1)
(1)
Tomando x2 = a2 = a32 e y2 = 0
, la trans-
.. ..


. .
(1)
an2 0
(1)
formacion H2 asociada al vector v2 = x2 y2 deja invariante al vector a1 y
(1)
transforma x2 = a2 en y2 .
104 Sistemas de ecuaciones lineales

Reiterando al procedimiento se puede transformar la matriz A en una trian-


gular superior R en, a lo mas, n 1 transformaciones.
Llegados a ese paso se tiene que
Hk Hk1 H1 A = R Q A = R con Q = Hk Hk1 H1
de donde
A = QR. con Q = H1 H2 Hk

Si lo que nos interesa es resolver el sistema aplicamos las transformaciones al


sistema y no solo a la matriz A.
Hk Hk1 H1 Ax = Hk Hk1 H1 b Rx = b0
sistema triangular de facil resolucion.

1 1 1
Ejemplo 2.13 Consideremos la matriz A = 2 0 1 .

2 7 1
p
1 12 + 22 + (2)2 3
Como x1 = 2 e y1 = 0 = 0 , se tiene que

2 0 0

2
v1 = x1 y1 = 2

2

2  1/3 2/3 2/3
2 2 
H1 = I v1 v1 = I 2 2 2 2 = 2/3 1/3 2/3

v1 v1 12
2 2/3 2/3 1/3

1/3 2/3 2/3 1 1 1 3 5 1/3
H1 A = 2/3 1/3 2/3 2 0 1 = 0 4 1/3

2/3 2/3 1/3 2 7 1 0 3 5/3



5 5 5 0

x2 = 4 y2 = 42 + 32 = 5 = v2 = x2 y2 = 1

3 0 0 3

0  1 0 0
2 2 
H2 = I v2 v2 = I 1 0 1 3 = 0 4/5 3/5

v2 v2 10
3 0 3/5 4/5
Factorizaciones ortogonales 105


1 0 0 3 5 1/3 3 5 1/3
H2 H1 A = 0 4/5 3/5 0 4 1/3 = 0 5 19/15 = R

0 3/5 4/5 0 3 5/3 0 0 17/15


1/3 2/15 14/15

Q = H1 H2 = 2/3 2/3 1/3


2/3 11/15 2/15

Verificandose que A = QR con Q unitaria y R triangular superior. 

(1) (1)

11 a12 a1n

0
siendo A(1) una matriz de

Observese que H1 A = ..

. A(1)

0
un orden inferior al de la matriz A.
El vector v2 tiene la primera coordenada nula, por lo que

1 0 0

2
0
H2 = I v2 v2 = .. (2)

v2 v2
. H

0

(1) (1)

1 0 0 11 a12 a1n

0 0
H2 (H1 A) = .. (2)
.
.
=

. H . A(1)

0 0

(1) (1)

11 a12 a1n

0
H2 H1 A = ..

. H(2) A(1)

0

Es decir, H2 deja invariantes a los elementos de la primera fila y la primera


columna de H1 A.
106 Sistemas de ecuaciones lineales


1 0 0 0

0 1 0 0

Analogamente, H3 = 0 0 dejara invariantes a los elemen-
.. ..

(3)
H

. .
0 0
tos de las dos primeras filas y las dos primeras columnas de H2 H1 A y as
sucesivamente.
Podemos, por lo tanto, trabajar, para cada transformacion, en un espacio de
una dimension inferior que en la transformacion anterior.

Ejemplo 2.14 Para la matriz del Ejemplo 2.13 se tiene:


p
1 12 + 22 + (2)2 3
x1 = 2 y1 = 0 = 0 =

2 0 0

2
v1 = x 1 y1 = 2

2

2  1/3 2/3 2/3
2 2 
H1 = I v1 v = I 2 2 2 2 = 2/3 1/3 2/3

v1 v1 1

12
2 2/3 2/3 1/3


1/3 2/3 2/3 1 1 1 3 5 1/3
H1 A = 2/3 1/3 2/3 2 0 1 = 0 4 1/3

2/3 2/3 1/3 2 7 1 0 3 5/3

Hasta aqu, igual que en el Ejemplo 2.13.


!
(1) 4 1/3
Nos fijamos ahora en la matriz A = .
3 5/3

Tomando
! ! ! !
4 42 + 32 5 1
x2 = y2 = = = v2 = x2 y2 =
3 0 0 3
! !
(2) 2 2 1   4/5 3/5
H = I2 v2 v2 = I2 1 3 =
v2 v2 10 3 3/5 4/5
Sistemas superdeterminados. Problema de los mnimos cuadrados 107


1 0 0
Por lo que H2 = 0 4/5 3/5

0 3/5 4/5

Teniendo en cuenta que


! ! !
4/5 3/5 4 1/3 5 19/15
H(2) A(1) = =
3/5 4/5 3 5/3 0 17/15

Podramos obtener
3 5 1/3
H2 H1 A = 0 5 19/15

0 0 17/15
que es el mismo resultado que el obtenido en el Ejemplo 2.13 pero trabajando
cada vez con una dimension menos. 

2.6 Sistemas superdeterminados. Problema de


los mnimos cuadrados
Sea A = (a1 a2 an ) una matriz cuadrada de orden n, A Knn , donde ai
representa la columna i-esima de la matriz A, y sean x y b son vectores de Kn .
Sabemos, por el teorema de Rouche-Frobenius, que el sistema Ax = b tiene
solucion si, y solo si, existen x1 , x2 , . . . , xn Kn tales que

x 1 a1 + x 2 a2 + + x n an = b

Es decir, el vector b puede expresarse como una combinacion lineal de las


columnas ai de la matriz A, por lo que b C(A) (espacio columna de A).

Sin embargo, existen problemas en los que no ocurre as. Supongamos que
se tienen tres puntos en el plano y se desea calcular la recta que pasa por
ellos. Evidentemente, y dado que una recta la determinan solo dos puntos, el
problema no tiene solucion (salvo que los tres puntos esten alineados). Desde
el punto de vista algebraico este problema se expresa de la siguiente forma:
sean P = (a1 , b1 ), Q = (a2 , b2 ) y R = (a3 , b3 ). Si tratamos de hallar la ecuacion
de la recta y = mx + n que pasa por ellos se obtiene

ma1 + n = b1 a1 1 ! b1
m
ma2 + n = b2 a2 1 = b2

n
ma3 + n = b3 a3 1 b3
108 Sistemas de ecuaciones lineales

Decir
queel sistema no posee solucion equivale a decir que el vector

b1 a1 1
b = b2 no pertenece al espacio columna de la matriz A = a2 1 .

b3 a3 1

Definicion 2.13 [Sistema superdeterminado]

Se define un sistema superdeterminado como aquel sistema de ecuaciones li-


neales Ax = b en el que A Kmn con m > n, x Kn y b Km .

Supongamos que se tiene un sistema superdeterminado



a11 a1n b1
. ... .. .
.. ..

. x1
..

an1 ann = bn

.
.
.. .. .
..
.
xn
am1 amn bm
con m > n, en el que rg A = n es decir, en el que la matriz del sistema tiene
rango maximo, y denotemos por a1 , a2 , . . . , an las columnas de A.
Si el sistema es incompatible es debido a que el vector b no pertenece al espacio
columna de A. Tomando cualquier vector b C(A) se sabe que el sistema
Ax = b posee solucion unica.

Definicion 2.14 [Problema de los mnimos cuadrados]

Se conoce como problema de los mnimos cuadrados al problema de encontrar,


de entre todos los vectores del espacio columna de A, aquel que minimiza su
distancia al vector b, es decir, aquel vector b C(A) tal que kb bk es mnima.

Dicho vector es la proyeccion ortogonal de b sobre el espacio C(A) y, respecto


de la base formada por las columnas ai (1 i n) de la matriz A, tiene por
coordenadas
b = (h b, a1 i, h b, a2 i, . . . , h b, an i}

Dado que b 6 C(A) y b C(A) (b proyeccion ortogonal de b sobre C(A)),


podemos expresar b como suma de b mas otro vector c de la variedad ortogonal
a C(A) y, ademas, de forma unica.
Entonces:

h b, ai i = h b + c, ai i = h b, ai i + h c, ai i = h b, ai i 1in
Sistemas superdeterminados. Problema de los mnimos cuadrados 109

6 b


c






- 

 C(A) b 

 

Figura 2.5: La proyeccion de b en el espacio columna de A.

El sistema Ax = b posee solucion unica es decir, existen (1 , 2 , . . . , n ) unicos,


tales que

1
.
1 a1 + 2 a2 + + n an = b A .. = b
n
Multiplicando esta ecuacion por a1 , a2 , . . ., an , obtenemos
1 h a1 , a1 i + + n h a1 , an i = h b, a1 i = h b, a1 i
.................................................
.................................................
1 h an , a1 i + + n h an , an i = h b, an i = h b, an i
que equivale a
a1 a1 a1 an a1 b

1
.. ... .. .. ..
. . . = .
an a1 an an n an b
es decir
a1 a1

1
.. . ..
 
. a1 an .. = . b
an n an
o, lo que es lo mismo:

1
.
A A .. = A b
n

As pues, la solucion del sistema A Ax = A b nos proporciona las coordenadas,


respecto de la base formada por las columnas de la matriz A, del vector b
proyeccion ortogonal de b sobre el espacio columna C(A).
110 Sistemas de ecuaciones lineales

Definicion 2.15 [Ecuaciones normales de un sistema]

Las ecuaciones A Ax = A b reciben el nombre de ecuaciones normales del


sistema superdeterminado Ax = b.

Definicion 2.16 [Sol. en mnimos cuadrados: Pseudosolucion]

Las soluciones del sistema determinado por las ecuaciones normales de un sis-
tema superdeterminado Ax = b reciben el nombre de solucion(es) en mnimos
cuadrados y de todas las posibles soluciones en mnimos cuadrados, la de me-
nor norma recibe el nombre de pseudosolucion del sistema.

Observese que si la matriz A no tiene rango maximo, lo unico que se dispone del
espacio columna de A es de un sistema generador y no de una base, por lo que
las coordenadas del vector proyeccion respecto de dicho sistema generador no
son unicas obteniendose infinitas soluciones en mnimos cuadrados del sistema.

2.6.1 Transformaciones en sistemas superdeterminados


Sabemos que dado un sistema compatible Ax = b y mediante transformaciones
elementales puede obtenerse otro sistema BAx = Bb equivalente al anterior,
es decir, obtenemos un sistema que posee la misma (o las mismas) soluciones
que el sistema dado.
Si partimos de un sistema superdeterminado y realizamos, al igual que antes,
transformaciones elementales, puede que el sistema obtenido no posea la misma
pseudosolucion que el sistema dado.

Observese que para que los sistemas superdeterminados


Ax = b y BAx = Bb
posean la misma pseudosolucion, han de tener igual solucion (han de ser equi-
valentes) los sistemas

A Ax = A b

(BA) BAx = (BA) Bb A (B B)Ax = A (B B)b


por lo que solo podremos garantizar que ambos sistemas son equivalentes si
B B = I ya que, en dicho caso, ambos sistemas son el mismo.
Es decir, las unicas transformaciones que podemos garantizar que no alteraran
la solucion de un sistema superdeterminado son las unitarias.
Sistemas superdeterminados. Problema de los mnimos cuadrados 111

Dado que las transformaciones de Householder son unitarias, podemos utili-


zarlas para resolver sistemas superdeterminados.

Consideremos el sistema superdeterminado Ax = b (en el que suponemos A


de rango maximo). Mediante transformaciones de Householder H1 , H2 , . . . , Hn
podemos transformar la matriz A en otra de la forma

t11 t12 t1n

0 t22 t2n
.. .. . . ..

. . . . !
T
HA = Hn H1 A =
0 0 tnn =

0 0 0

. .. ..
.. . .

0 0 0
La pseudosolucion de este sistema superdeterminado es la solucion del sistema
!
  T  

(HA) (HA)x = (HA) Hb T x = T Hb


b01
.
.. !
  T  
o llamando Hb = b0 = b0n , T x = T b0 .

.
..

b0m

b01
.
..
0
b1
..
 
0
Es facil comprobar que T bn = T . , por lo que el calculo
.
.. b0n

b0m
de la pseudosolucion del sistema superdeterminado Ax = b se hace resolviendo
el sistema 0
b1
.
T T x = T ..

b0n
y dado que estamos suponiendo que A tiene rango maximo, la matriz T posee
inversa y por tanto T , por lo que la solucion es la misma que la del sistema
112 Sistemas de ecuaciones lineales

triangular
b01

.
T x = .. T x = b
b0n

Una vez calculada la pseudosolucion, la norma del error esta representada por
la distancia kb bk que viene dada por

b 0 b01
0 1
b1 . .

. .. .. 0

..

b0 b0 bn+1
!
T
0 n n ..

x bn = = .

. 0 b0n+1


.. b0m
.. ..

. .

b0m


0 b0
m

Por ultimo, si la matriz A no tiene rango maximo, sus columnas no son li-
nealmente independientes, por lo que solo constituyen un sistema generador
(no una base) del espacio columna C(A). Ello nos lleva a la existencia de
infinitas n-uplas (1 , 2 , . . . , n ) soluciones del sistema Ax = b y, por tanto, a
infinitas soluciones en mnimos cuadrados del sistema superdeterminado, pero
teniendo en cuenta que al ser unica la proyeccion ortogonal b de b sobre el es-
pacio columna C(A), todas ellas representan diferentes coordenadas del vector
b respecto del sistema generador de C(A) dado por las columnas de A.
Sin embargo, el error cometido kb bk es el mismo para todas las soluciones
en mnimos cuadrados del sistema. De entre todas ellas, la de menor norma
eucldea es la pseudosolucion.

2.7 Ejercicios resueltos


Ejercicio 2.1 Estudiar el numero de condicion de Frobenius de la matriz
!
a b
A= .
a + b

Solucion: El determinante de A es |A| = ab + b(a + ) = b .


Si b 6= 0 y 6= 0 es |A| =
6 0 y, por tanto, A es invertible, siendo su inversa:
!
1 b b
A1 =
b a a
Ejercicios resueltos 113

El numero de condicion de Frobenius viene dado por F (A) = kAkF kA1 kF .

kAk2F = a2 + b2 + (a + )2 + b2 = 2a2 + 2b2 + 2a + 2

b2 + b2 + (a )2 + a2 2a2 + 2b2 + 2a + 2
kA1 k2F = =
b 2 2 b 2 2
Por lo que:

(2a2 + 2b2 + 2a + 2 )2 |2a2 + 2b2 + 2a + 2 |


2F (A) = = F (A) = .
b2 2 |b |

Observese que cuando tiende a cero, el numero de condicion de Frobenius


F (A) lo hace a infinito, por lo que la matriz A esta mal condicionada.
Por ejemplo: para a = 10 y b = 1 se tiene que

202 + 20 + 2 202
F (A) = = 20 + ||
|| ||

Si = 108 F (A) ' 2 1010 .

Ejercicio 2.2 Dado el sistema:


(
3x + 4y = 7
3x + 5y = 8

a) Calcular su numero de condicion eucldeo.

b) Sustituir la segunda ecuacion por una combinacion lineal de ambas, de


forma que el numero de condicion sea mnimo.

Solucion:
!
3 4
a) La matriz del sistema es A = .
3 5
! ! !
3 3 3 4 18 27
A A = =
4 5 3 5 27 41

18 27
P () = = ( 18)( 41) 272 = 2 59 + 9.

27 41
114 Sistemas de ecuaciones lineales


59 3481 36 59 3445
Las races de P () son: = = =
2 2
s s
59 3445 59 + 3445
1 = y 2 =
2 2
s s
2 59 + 3445 (59 + 3445)2 59 + 3445
2 (A) = = = = =
1 59 3445 36 6

2 (A) = 19.61568707 . . .

b) La matriz resultante de la combinacion lineal es


!
3 4
B= .
3a + 3b 4a + 5b

Una matriz tiene numero de condicion eucldeo mnimo (y vale 1) si, y


solo si, es proporcional a una matriz unitaria. Por tanto, B debe tener
las filas (o las columnas) ortogonales y de igual norma.
!
3a + 3b
(3 4) = 0 3(3a + 3b) + 4(4a + 5b) = 0 =
4a + 5b

25a + 29b = 0

Ambas filas han de tener la misma norma, por lo que


! !
3 3a + 3b
(3 4) = (3a + 3b 4a + 5b) =
4 4a + 5b

25 = 25a2 + 34b2 + 58ab

Las condiciones que tenemos son:



29
25a + 29b = 0 a=


3

=
25a2 + 34b2 + 58ab = 25
25
b=

3

29 25
Tomando, por ejemplo, a = y b = (el otro caso es analogo),
3 3
obtenemos:
Ejercicios resueltos 115

! !
3 4 0.6 0.8
B= = 5 U con U = unitaria.
4 3 0.8 0.6
(
3x + 4y = 7
El sistema resultante es y su numero de condicion
4x 3y = 1
eucldeo es 2 (B) = 1.

Ejercicio 2.3 Sea {0.5, 1.5, 2.5} y consideremos el sistema iterado


1 1

! 1 1 ! 1
xn+1 x
n
= +


yn+1 1 y n 1
1 +1 1

Se pide

a) Resolver el sistema resultante de tomar lmites !


para probar
! que, !
en caso
!
x0 x1 x2
de que converja, el lmite de la sucesion , , ...
y0 y1 y2
no depende de .
b) Para que valores de converge la sucesion?
c) Para los valores anteriores que hacen que la sucesion sea convergente,
con cual lo hace mas rapidamente?
! !
x0 0.5
d) Comenzando con el vector = , aproximar iteradamente
y0 0.5
el lmite de la sucesion utilizando el valor de que acelere mas la con-
vergencia.

Solucion:

a) En caso de que converja, tomando lmites obtenemos que



! ! 1 ! 1
1 0 x 1 1 x 1
= 1 + 1
0 1 y 1 +1 y 1

o lo que es lo mismo

1 ! 1
2 1 x 1
1 = 1 =
1 y 1

116 Sistemas de ecuaciones lineales


1 1 !
1 1 + x 0
1 = 1
1

1 y

por lo que

x=y


1

1 = x=y=1 ya que 6= 1
1
x=1

es decir, la solucion (el lmite de la sucesion) no depende de .


1

1 1
b) El polinomio caracterstico de la matriz del metodo
1
1 +1

2 1 1
iterado es P () = 2 + 2 que admite la raz doble .

Dado que el radio espectral de la matriz debe ser menor que 1, ha de
ser mayor que 1, por lo que converge para = 1.5 y para = 2.5, pero
no lo hace para = 0.5.

c) El metodo converge mas rapidamente para el valor de que hace menor


el radio espectral de la matriz, es decir, para = 2.5.
! !
x0 0.5
d) Partiendo de = y tomando = 2.5 se obtiene:
y0 0.5
! ! ! ! ! !
x1 4/5 x2 23/25 x3 121/125
= = = ...
y1 4/5 y2 23/25 y3 121/125

! !
x 1
que podemos observar como converge a = que era la
y 1
solucion del sistema.

Ejercicio 2.4 Dado el sistema:

4x + 5y = 13
3x + 5y = 11

a) Realizar la factorizacion QR de la matriz, y resolverlo basandose en ella

a.1) Mediante el metodo de Gram-Schmidt,


Ejercicios resueltos 117

a.2) Mediante transformaciones de Householder.

b) Calcular el numero de condicion eucldeo del sistema inicial y del trans-


formado, comprobando que son iguales.

Solucion:
! ! !
4 5 x 13
a) El sistema a resolver es Ax = b =
3 5 y 11

a.1) Utilizando el metodo de Gram-Schmidt:


! ! !
4 5 4
v1 = v2 = +
3 5 3

v1 v2 = h v1 , v2 i = 0 = 35 + 25 = 0 = = 7/5
por tanto,
" ! !# ! !
1 25 4 3/5 4/5 3/5
v2 = 7 = Q=
5 25 3 4/5 3/5 4/5

! ! !
4/5 3/5 4 5 5 7
R = Q A = =
3/5 4/5 3 5 0 1
Se obtiene, por tanto, que A = QR donde Q es unitaria y R trian-
gular superior. El sistema se transforma en otro triangular de la
manera siguiente:

Ax = b QRx = b Rx = Q b

En nuestro caso:
! ! !
4/5 3/5 13 17
Q b = =
3/5 4/5 11 1

quedandonos el sistema triangular


! ! !
5 7 x 17
=
0 1 y 1

cuya solucion es
x=2 y = 1.
118 Sistemas de ecuaciones lineales

a.2) Utilizando transformaciones de Householder se obtiene:


! ! ! !
4 42 + 32 5 1
x= y= = v =xy =
3 0 0 3

! ! !
2 1 0 1 1 3 4/5 3/5
H = I vv = =
v v 0 1 5 3 9 3/5 4/5

Al solo ser necesaria una transformacion de Householder, se tiene


que !
4/5 3/5
Q = H = H =
3/5 4/5

! ! !
4/5 3/5 4 5 5 7
R = Q A = HA = =
3/5 4/5 3 5 0 1
Transformando el sistema obtenemos:

Ax = b QRx = b Rx = Q b = Hb

Dado que
! ! !
4/5 3/5 13 17
Hb = =
3/5 4/5 11 1

nos queda el sistema triangular


! ! !
5 7 x 17
=
0 1 y 1

cuya solucion
x=2 y = 1.
2
b) El numero de condicion eucldeo viene dado por 2 (A) = donde 2 el
1
mayor y 1 el menor de los valores singulares de la matriz A.
Los valores singulares son las races cuadradas positivas de los autovalo-
res de la matriz A A.
Cuando calculamos el numero de condicion de la matriz R del sistema
transformado, realizaremos el mismo proceso con esta nueva matriz, es
decir, debemos calcular los autovalores de la matriz R R.
Ejercicios resueltos 119

Dado que ! ! !
4 3 4 5 25 35
A A = =
5 5 3 5 35 50
! ! !
5 0 5 7 25 35
R R = =
7 1 0 1 35 50
los valores singulares de las matrices A y R son los mismos, por lo que
se obtiene el mismo numero de condicion eucldeo.
El polinomio caracterstico de A A es p() = 2 75 + 25, por
lo que sus autovalores son 1 ' 74.665 y 2 '0.335 y, por tanto,
los valores
singulares de la matriz A son 2 ' 74.665 ' 8.64 y
1 ' 0.335 ' 0.58, de donde
2
2 (A) = 2 (R) = ' 14.9
1

Ejercicio 2.5 Resolver por el metodo de Householder el sistema:



1 1 1 x 0
2 0 1 y = 4

2 7 1 z 7

Solucion:



1 3 2
x= 2 y= 0 v1 = x y = 2

2 0 2


2 
2 
H1 = I3 2
v v = I3 2 2 2 2 =

v1 v1 1 1
12
2

2 2 2 1/3 2/3 2/3
1
= I3 2 2 2 = 2/3 1/3 2/3

3
2 2 2 2/3 2/3 1/3

Aplicando la transformacion al sistema se obtiene



3 5 1/3 x 22/3

0 4 1/3 y = /3
10

0 3 5/3 z 1/3
120 Sistemas de ecuaciones lineales

Dado que la segunda transformacion no va a afectar ni a la primera ecuacion


ni a la primera columna de la matriz A, la calculamos solo para el menor
asociado al elemento a11 .
! ! !
4 5 1
x= y= v2 = x y =
3 0 3
! !
2 1 1   4/5 3/5
H2 = I2 v2 v2 = I2 1 3 =
v2 v2 5 3 3/5 4/5
! ! ! !
4 1/3 5 19/15 10/3 37/15
H2 = H2 =
3 5/3 0 17/15 1/3 34/15

Por lo que nuestro sistema ha quedado reducido a



3 5 1/3 x 22/3

0 5 19/15 y = 37/15

0 0 17/15 z 34/15
cuya solucion es x = 1, y = 1, z = 2.

Ejercicio 2.6 Buscar la solucion de mnimos cuadrados del sistema Ax = b,


siendo:
3 1 0
A= 4 2 y b= 2

0 1 1

a) A traves de sus ecuaciones normales.


b) Por el metodo de Householder.

Solucion:

a) Las ecuaciones normales, dadas por A Ax = A b son



! 3 1 ! ! 0
3 4 0 x 3 4 0
4 2 = 2
1 2 1 y 1 2 1
0 1 1
Es decir: ! ! !
25 5 x 8
=
5 6 y 5
Ejercicios resueltos 121

sistema que es equivalente a


! ! !
25 5 x 8
=
0 5 y 17/5

y cuya solucion (la solucion en mnimos cuadrados buscada) es

23 17
x= , y= .
125 25

b)

3 kx1 k 5 2
x1 = 4 = y1 = 0 = 0 = v1 = x1 y1 = 4

0 0 0 0

2 
2 2 
H1 = I3 v v1 2v1 v1 = I3 4 2 4 0 =

1 20
0

3/5 4/5 0
= /5 3/5 0
4

0 0 1
Aplicando la transformacion al sistema, se obtiene

5 1 ! 8/5
x
0 2 = 6/5

y
0 1 1

!
(1)
! !
(1) 2 (1) kx2 k 5
Para que x2 = se transforme en y2 = =
1 0 0
(2)
construimos la transformacion H2 de Householder asociada al vector
!
(1) (1) 2 5
v2 = x2 y2 =
1

! 1 0 0
(2) 2 5/5 5/5
H2 = = H2 = 0 /5
2 5 5/5
5/5 5/5
2

0 5/5 2 5/5
122 Sistemas de ecuaciones lineales

que aplicada al sistema anterior nos da



5 1 ! 8/5
x
0 5 = 17/5 5

y
0 0 4/5 5

23 17
porlo que la pseudosolucion del sistema es x = ,y= y el error
125 25
4
viene dado por ' 0.3578.
5 5

2.8 Ejercicios propuestos


(
x + y = 2
Ejercicio 2.7 Dado el sistema
2x + y = 3

a) Calcular su numero de condicion de Frobenius.

Sol : F (A) = 7.
b) Calcular a para que el numero de condicion del sistema resultante de
sumarle a la segunda ecuacion la primera multiplicada por dicha cons-
tante a, sea mnimo.

Sol : a = 3/2.

Ejercicio 2.8 Comprobar que la matriz:



1 2 0 0 0
1 4 3 0 0



A= 0 4 9 4 0

0 0 9 16 5


0 0 0 16 25
admite factorizacion LU y realizarla.

1 0 0 0 0 1 2 0 0 0
1 1 0 0 0 0 2 3 0 0



Sol : L =
0 2 1 0 0 yU =
0 0 3 4 0 . Todas sus matrices

0 0 3 1 0 0 0 0 4 5


0 0 0 4 1 0 0 0 0 5
fundamentales son regulares.
Ejercicios propuestos 123

Ejercicio 2.9 Resolver, por el metodo de Cholesky, el sistema de ecuaciones:



6 1 + 3i 1 2i x1 1 2i
1 3i 3 1 + i x2 = 1 + i

1 + 2i 1 i 2 x3 1 2i

Sol : x1 = 1 2i, x2 = 3 i, x3 = 1 + 2i.


p p 2p
Ejercicio 2.10 Dada la matriz A = p p + 2 1 se pide:

2p 1 6p 1

a) Determinar para que valores de p es hermtica y definida positiva.

Sol : p ( 1/2, 3/2).

b) Para p = 1, efectuar la descomposicion de Cholesky y utilizarla para


resolver el sistema Ax = b siendo b = (1 0 3)t .

Sol : x1 = 1, x2 = 0, x3 = 1.

Ejercicio 2.11 Resolver, utilizando MatLab y comenzando con el vector nulo,


el sistema:
10x1 x2 + 2x3 = 6
x1 + 11x2 x3 + 3x4 = 25
2x1 x2 + 10x3 x4 = 11
3x2 x3 + 8x4 = 15
por los metodos de Jacobi, Gauss-Seidel y SOR con = 1.2.

Sol : (x1 , x2 , x3 , x4 ) = (1, 2, 1, 1). Jacobi 42 iteraciones, Gauss-Seidel 16 y


SOR 24.

Ejercicio 2.12 Al resolver el sistema




x 3y + 5z = 5
8x y z = 8

2x + 4y + z = 4

por el metodo de Gauss-Seidel, utilizando MATLAB, observamos que el pro-


grama se detiene en la iteracion 138 dandonos el vector (inf inf -inf)T .
124 Sistemas de ecuaciones lineales

a) El metodo de Gauss-Seidel realiza el proceso xn+1 = L1 xn +c. Determina


la matriz L1 .

0 3 5
Sol : L1 = 0 24 41

0 90 154

b) Utilizar los crculos de Gerschgorin para estimar el modulo de los auto-


valores de L1 .

Sol : |i | 244.

c) Justificar el porque de la divergencia del metodo.

Sol : (L1 ) > 1.

d) Existe alguna condicion suficiente que deba cumplir la matriz de un


sistema para garantizar la convergencia del metodo de Gauss-Seidel?
Hacer uso de ella para modificar el sistema de forma que el proceso sea
convergente?

Sol : Llevando la primera ecuacion al ultimo lugar, la matriz del sistema


resultante es de diagonal dominante y por tanto converge el metodo.

Ejercicio 2.13

a) Dado un sistema Ax = b, el metodo de Gauss-Seidel consiste en cons-


truir la sucesion xn+1 = L1 xn + c, a partir de un vector inicial x0 . Si
conocemos el valor de xn+1 podramos determinar el de xn haciendo
xn = L11 (xn+1 c)?

Sol : No. L1 no tiene inversa. Porque?, justifcalo.

b) Si la matriz A del sistema es de diagonal estrictamente dominante,


puede ser el radio espectral de L1 mayor que 1?

Sol : No. Porque?, justifcalo.

c) Si, para un determinado sistema y comenzando con un determinado vec-


tor x0 , el metodo de Gauss-Seidel requiere 50 iteraciones para aproximar
la solucion con un error menor que y en la iteracion 49 se pierde la pri-
mera coordenada del vector x49 y la sustituimos por un valor arbitrario,
se obtendra en el paso siguiente la solucion buscada con el mismo error
que si no hubiesemos perdido el dato? que ocurrira si la coordenada
que perdemos del vector x49 es la segunda en vez de la primera?
Ejercicios propuestos 125

Sol : Si se pierde la primera: S. Si se pierde la segunda: No.

d) Tomando como vector inicial x0 = (2,1, 2)T , realizar


dos pasos
del

4 2 1 x 16
metodo de Gauss-Seidel para el sistema 0 2 1 y = 0 .

1 0 2 z 0
Podras decir cual es la solucion exacta del sistema?

Sol : (4,-1,2).

Ejercicio 2.14 Considerese el sistema Ax = b en el que


! ! !
a b x
A= , x= y b= con , R.
c d y

a) Determinar la matriz B1 , para que el metodo iterativo xn+1 = B1 xn + c1


sea el que se obtiene con el metodo de Jacobi aplicado al sistema Ax = b.
!
0 b/a
Sol : B1 = .
c/d 0

b) Hallar los autovalores de B1 y probar, en este caso particular, que si la


matriz A es simetrica y definida positiva, entonces el metodo de Jacobi
converge.
p p
Sol : i = bc/ad = (B1 ) = + bc/ad. Si A es simetrica y definida
positiva (B1 ) < 1 y converge.

c) Determinar la matriz B2 , para que el metodo iterativo xn+1 = B2 xn + c2


sea el que se obtiene con el metodo de Gauss-Seidel aplicado al sistema
Ax = b.
!
0 b/a
Sol : B2 = .
0 bc/ad

d) Hallar los autovalores de B2 y dar un ejemplo de matriz A (con a 6= 1)


para la que el metodo de Gauss-Seidel no converja. Puede, en tal caso,
ser convergente el metodo de Jacobi?

Sol : 1 = 0,!2 = bc/ad. Uno de los infinitos ejemplos para A sera


0 2
A= . Jacobi tambien diverge.
1 1
126 Sistemas de ecuaciones lineales

!
1 2
e) Comprobar la matriz A = es otro ejemplo para la no conver-
1 1
gencia del metodo de Gauss-Seidel.
!
1
Calcular, para dicha matriz y el vector b = el termino general
1
de la sucesion xk obtenida
! por el metodo de Gauss-Seidel a partir del
m
vector x0 = y comprobar que dicha sucesion no converge para
n
valores arbitrarios de m y n.
Existe algun vector inicial x0 para el que converja el metodo? y, en
caso de existir, contradice dicho ejemplo el hecho de que el metodo no
sea convergente?
!
2k n + 1
Sol : xk = que diverge si n 6= 0. No existe contradiccion
2k n
porque? Justifcalo.

Ejercicio 2.15 Se quiere encontrar una funcion de la forma f (x) = ax3 +bx+c
que pase por los puntos (1, 4), (2, 23) y (2, 21).

a) Plantear un sistema de ecuaciones para calcular los coeficientes de f y


resolverlo usando la descomposicion LU de la matriz del sistema.

Sol : f (x) = 2x3 + 3x 1.

b) Usar una sucesion de Sturm para saber cuantas races reales tiene la
ecuacion f (x) = 0.

Sol : Solo una.

c) Separar dichas races por intervalos adecuados para que se den las hipo-
tesis de las condiciones de Fourier.

Sol : x [0.3, 0.4]

d) Cuantas iteraciones son necesarias para obtener las races reales con 6
cifras decimales exactas usando para su calculo el metodo de Newton?

Sol : Tres.

e) Aplicar dicho metodo para calcularlas con una precision de 12 cifras


decimales exactas asegurando en cada paso del metodo el numero de
cifras que se van obteniendo.
Ejercicios propuestos 127

Sol : x = 0.312908409479.

Ejercicio 2.16 Se considera el sistema de ecuaciones Ax = b con



1 2 3
1 0 2

A= y b = .


1 1 0
1 1 1

Se pide:

a) Calcular la pseudosolucion, a traves de las ecuaciones normales, utili-


zando el metodo de Cholesky.

Sol : x = 1, y = 1/2.
b) Sea v = (1, 1, 1, 1)T . Demostrar que la transformacion de Householder
asociada al vector v transforma la primera columna de la matriz A en el
vector (2, 0, 0, 0)T dejando invariante la segunda columna de A as como
al vector b.
c) Calcular la pseudosolucion del sistema utilizando transformaciones de
Householder, as como la norma del error.

Sol : x = 1, y = 1/2, E = 3 2/2.
d) Si la matriz A del sistema fuese cuadrada y su numero de condicion fuese
mayor que 1, que ventajas e inconvenientes tendra el resolver el sistema
multiplicando por la traspuesta de A y el resolverlo por transformaciones
de Householder?

Sol : Si (A) > 1, (AT A) >> 1 mientras que Householder no altera el


condicionamiento.

Ejercicio 2.17 Hallar la recta de regresion de los puntos:

(1.1, 5), (1, 5.1), (2, 7.3), (1.8, 6.9), (1.5, 6.1), (3, 8.8), (3.1, 9) y (2.9, 9.1)

Sol : y = mx + n = 1.959803x + 3.1449029.

Ejercicio 2.18 Hallar la parabola de regresion de los puntos:

(1, 0), (0, 0), (1, 0), (1, 2) y (2, 3)


1 1
Sol : y = ax2 + bx + c = x2 + x.
2 2
128 Sistemas de ecuaciones lineales

Ejercicio 2.19 Dado el sistema superdeterminado:



1 1 0 1
1 0 1 x 2
y =


1 1 1 0
z
1 2 1 1
calcular, mediante transformaciones de Householder, la solucion en mnimos
cuadrados (pseudosolucion) as como la norma del error.

Sol : x = 5/2, y = 3/2, z = 2/3, kEk = 6/6.

Ejercicio 2.20 Resolver el sistema



2 1 ! 1
x
2 0 = 1

y
1 2 5
y obtener la norma del error:

a) Mediante sus ecuaciones normales.


b) Mediante transformaciones de Householder.

Sol : x = 1, y = 9/5, kEk = 3 5/5.

Ejercicio 2.21 Se considera el sistema superdeterminado Ax = b con



1 7 15 7
1 4 8 7
A= y b=


1 0 1 5
1 3 6 9
Resolverlo mediante transformaciones de Householder, dando la norma del
vector error.

Sol : x1 = 8, x2 = 2, x3 = 2, kEk = 10.

Ejercicio 2.22 Dado sistema superdeterminado Ax = b con



1 5 5 7
1 2 3 16
A= y b=


1 1 3 3
1 2 1 10
Ejercicios propuestos 129

Resolverlo mediante transformaciones de Householder, dando la norma del


vector error.

Sol : x = 9, y = 3, z = 3, kEk = 12.

Ejercicio 2.23 Consideremos el sistema de ecuaciones Ax = b, con



2 2 ! 6
x1
A = 1 1 , x = y b = 3 ,

x2
2 2 3
y un vector unitario u. Se pide:

a) Demostrar que si H = I 2uuT es la matriz de Householder, asociada al


vector u, entonces: H es ortogonal, H 2 = I y kHak2 = kak2 cualquiera
que sea el vector a.
b) Obtener la matriz de Householder que transforma el vector (2, 1, 2)T
en otro de la forma (, 0, 0)T , con > 0.

2 1 2
Sol : H = 1 2 2 .

2 2 1

c) Aplicando el metodo de Householder, probar que el sistema Ax = b


posee infinitas soluciones en cuadrados mnimos y que el error cometido,
al considerar cualquiera de ellas, es el mismo.

Sol : x = (1 + , )T R, kEk = 3.
d) Obtener la pseudosolucion del sistema Ax = b.

Sol : ( 1/2 , 1/2)T .

Ejercicio 2.24 Sea el sistema Ax = b, donde



0 3 ! 10
x
A = 3 5 , x = y b= 6 .

y
4 0 8

a) Probar que la matriz AT A es definida positiva, obteniendo la factori-


zacion de Cholesky.
! ! !
25 15 5 0 5 3
Sol : AT A = = .
15 34 3 5 0 5
130 Sistemas de ecuaciones lineales

b) Plantear la iteracion Xn+1 = L1 Xn + c que se obtiene de aplicar el


metodo de Gauss-Seidel a las ecuaciones normales del sistema Ax = b.
Sera convergente el proceso iterativo a la pseudosolucion?
! ! !
0 3/5 xn 2
Sol : xn+1 = + . Convergente por ser un
0 9/34 yn 15/17
sistema de diagonal dominante.
c) Hallar la matriz Hu = I uuT de la reflexion que transforma el vector
a = (0, 3, 4)T en el vector r = (5, 0, 0).

0 15 20
1
Sol : Hu = 15 16 12 .

25
20 12 9
d) Obtener la solucion en mnimos cuadrados del sistema Ax = b, utilizando
el metodo de Householder, y determinar la norma del error.

Sol : x = 68/25, y = 6/5, kEk = 8.


e) Sin haber resuelto el apartado anterior, podran predecirse Hu A y Hu b
de las relaciones geometricas entre L =< u >, L y los vectores columnas
implicados?

Sol : S. Si A = (a1 a2 ), Hu a1 = (5, 0, 0)T , Hu a2 = a2 , Hu b = b.

Ejercicio 2.25 Se considera el sistema superdeterminado Ax = b con



3 2 3
A= 4 5 y b= 1

12 0 13

a) Calcular la pseudosolucion (solucion de mnimos cuadrados) as como la


norma del error utilizando transformaciones de Householder.

Sol : x = 71/65, y = 3/5, kEk = 1.



1 0 0
b) Sea T = 0 1 0 la matriz asociada a la transformacion elemen-

0 0 1/12
tal que divide por 12 la tercera de las ecuaciones del sistema:

3 2 ! 3
x
T Ax = T b 4 5 = 1

y
1 0 13/12
Ejercicios propuestos 131

Calcular su pseudosolucion haciendo uso de las ecuaciones normales. De-


terminar la norma del error.

Sol : x = 113/72, y = 37/36, kEk = 5 78/72.

c) A que se debe que no coincidan las pseudosoluciones obtenidas en los


dos apartados anteriores? Que habra ocurrido si la matriz T hubiese
sido unitaria?

Sol : T no es unitaria. Si T hubiese sido unitaria se hubiesen obtenido


las mismas pseudosoluciones.

Ejercicio 2.26 Sea el sistema Ax = b, donde



3 2 ! 2
x
A= 0 3 , x = y b = 0 .

y
4 4 1

a) Probar que la matriz B = AT A es definida positiva, obteniendo la fac-


torizacion de Cholesky B = GT G.
! !
25 10 5 2
Sol : B = , G= .
10 29 0 5

b) Hacer uso de la factorizacion obtenida en el apartado anterior para hallar


la pseudosolucion mediante las ecuaciones normales del sistema. Calcular
el numero de condicion, (B), de la matriz B para la norma k k .
Hasta que punto se podra considerar fiable la pseudosolucion obtenida
con aritmetica de ordenador?

Sol : x = 58/125, y = 4/25, (B) = 1521/625 ' 2.4336. Es fiable.

c) Hallar la matriz de la reflexion (matriz de Householder) Hu que trans-


forma el vector a = (3, 0, 4)T en el vector r = (5, 0, 0)T . Una vez de-
terminado el vector u, justificar que se pueden conocer Hu A y Hu b sin
necesidad de efectuar los productos.

3/5 0 4/5
Sol : Hu = 0 1 0 . Si A = (a1 a2 ), Hu a2 = a2 H2 b = b.

4/5 0 3/5

d) Obtener la solucion en mnimos cuadrados del sistema Ax = b, utilizando


el metodo de Householder y determinar la norma del error. Operando
con el ordenador, puede obtenerse una pseudosolucion distinta de la
132 Sistemas de ecuaciones lineales

obtenida en el apartado b? Si as ocurriera, puede ser mayor el error?

Sol : x = 58/125, y = 4/25, kEk = 3/5. Es posible obtener en el


ordenador soluciones distintas. Nunca, ya que las transformaciones de
Householder son unitarias.

Ejercicio 2.27 Sea el sistema Ax = b, donde



1 1 2 x 0
A= 0 3 3 , x = y y b = 1 .

0 4 4 z 2

a) Hallar kAk . Que se puede decir sobre el numero de condicion de la


matriz A para la norma infinito? Que estimacion dara MATLAB para
el numero de condicion espectral obtenido con el comando cond(A)?

Sol : cond(A) = .

b) Utilizar la descomposicion LU de la matriz AT A para resolver el sistema


AT Ax = AT b. Que propiedad caracteriza a las soluciones en relacion al
sistema Ax = b? Interpreta geometricamente el resultado.

Sol : x = t 1/5, y = 3t 1/5, z = t.

c) Encontrar una matriz ortogonal Q que transforme el vector a= (0, 3, 4)T


en el vector r = (0, 5, 0)T . Obtener la norma del error para las soluciones
en mnimos cuadrados del sistema QAx = Qb.

1 0 0
Sol : Q = 0 3/5 4/5 . kEk = 2.

0 4/5 3/5

d) Que relacion hay entre las soluciones obtenidas en los apartados ante-
riores?
Si se obtienen las soluciones en mnimos cuadrados del sistema Ax = b,
escalonando previamente la matriz A, se debe obtener mismo resultado
que en alguno de los apartados anteriores?

Sol : Son las mismas. No, el escalonado no se hace mediante transforma-


ciones unitarias.
Ejercicios propuestos 133

Ejercicio 2.28

a) En lo que sigue, Hv denota la transformacion de Householder asociada al


vector v. Sean x, y, v, z vectores no nulos, con Hv x = y y z v. Probar
que Hv v = v y Hv z = z. Determinar razonadamente todos los vectores
w tales que Hw x = y.

b) Se considera el sistema de ecuaciones dado por



12 1 0 x 2
1 2 1 y = 1

1 0 1 z 1

b.1) Estudiar el condicionamiento del sistema, utilizando la norma 1.

Sol : 1 (A) = 6.
b.2) Resolver el sistema por medio de transformaciones de Householder.

Sol : x = 2, y = 1, z = 1.
b.3) Desde un punto de vista numerico, sera razonable resolver el sis-
tema escalonando por Gauss? Razonar la respuesta.

Sol : No.
4 1 4a
c) Demostrar que el vector c = ( , , 1)T y la matriz
3 2 3

0 23 0
L1 = 0 0 12

0 2a
3
0

son los propios del metodo de Gauss-Seidel asociado al sistema



3
2
1 0 x 2
0 2 1 y = 1

a 0 1 z 1

d) Estudiar, en funcion del parametro a, el caracter diagonal dominante


por filas de la matriz de coeficientes del sistema dado, as como el radio
espectral de L1 . Para que valores de a es convergente el metodo ante-
rior?
p
Sol : Diagonal dominante si |a| < 1, (L1 ) = a/3. Converge si |a| < 3.
134 Sistemas de ecuaciones lineales

e) Para a = 0 el metodo resulta convergente. Utilizando aritmetica exacta,


y tomando como vector inicial x0 = (0, 0, 0)T , realizar dos iteraciones,
acotando el error cometido. Razonar que ocurre cuando se itera por
tercera vez. Hubiera ocurrido otro tanto al trabajar con aritmetica de
ordenador?

4/3 5/3
Sol : x1 = 1/2 y x2 = 1 , kEk = 1/2. x3 es la solucion

1 1
exacta pero con aritmetica de ordenador es solo una buena aproximacion.

Ejercicio 2.29 Sea el sistema Ax = b, donde



1 1 ! 2
x
A = 0 , x = y b= con > 0 y , R

y
2 2

a) Hallar sabiendo que que existe una matriz de Householder, Hv , que


transforma la primera columna de la matriz A en el vector r = (3, 0, 0)T .
Quien es Hv ?

1/3 2/3 2/3

Sol : = 2, Hv = 2/3 1/3 2/3 .


2/3 2/3 1/3

b) Determinar el conjunto de vectores b para los que se verifica Hv b = b,


siendo Hv la matriz del apartado anterior. Encontrar, entre ellos, el que
tiene menor norma eucldea.

Sol : b = (2, , 2)T con R. (2, 1, 1)T .

c) Hallar la pseudosolucion del sistema Ax = bm , para = 2 y bm =


(2, 1, 1)T , utilizando transformaciones ortogonales para determinar el
error.

Sol : x = 5/6, y = 1/2, kEk = 1.

d) Probar que si una matriz real B tiene sus columnas linealmente inde-
pendientes, entonces B T B es definida positiva.

e) Sea el sistema AT A x = AT bm , con y bm como en el apartado (c).

e.1) Sera posible utilizar una descomposicion AT A = GGT , con G


triangular inferior, para resolver el sistema?
Ejercicios propuestos 135

Sol : S, AT A admite factorizacion de Cholesky.


e.2) Utilizando la norma k k para medir el condicionamiento, es un
sistema mal condicionado para utilizar aritmetica de ordenador en
su resolucion?

Sol : No.
e.3) Sea (s0 , s1 , s2 , . . .) la sucesion que se obtiene al aplicar el metodo
de Gauss-Seidel al sistema, con s0 = (0, 0)T . Probar que, operando
en aritmetica exacta, la sucesion (sn ) es convergente y obtener su
lmite s.

Sol : AT A simetrica y definida positiva = Gauss-Seidel converge.


Al tratarse de las ecuaciones normales, lo hace a la pseudosolucion.

Ejercicio 2.30 Se considera el sistema Ax = b con



0 5 ! 5
x
A = 3 0 , x= y b= 2

y
4 0 11

a) Existe alguna transformacion de Householder que permute las columnas


de la matriz A? Justificar la respuesta.

Sol : S, ambas tienen igual norma.

b) Calcular la pseudosolucion del sistema mediante transformaciones de


Householder dando la norma del vector error.

Sol : x = 2, y = 1, kEk = 5.

Ejercicio 2.31 Se considera el sistema Ax = b con



1 2 ! 1
x
A= 4 8 , x= y b= 5

y
1 2 3

Determinar la pseudosolucion del sistema dando la norma del error mediante


transformaciones de Householder.

Sol : x = 1/5, y = 2/5, kEk = 17.
136 Sistemas de ecuaciones lineales

Ejercicio 2.32 Se considera el sistema superdeterminado Ax = b con



2 1 ! 3
2 0 x 6

A= x= y b=

1 2 y 0
0 2 3

a) Encontrar una transformacion de Householder que transforme la primera


columna de la matriz A en el vector r = (3, 0, 0, 0)T .

2/3 2/3 1/3 0
2/ 1/ 2/ 0
3 3 3
Sol : H = .

/3 /3
1 2 2/3 0
0 0 0 1

b) Probar que el producto de dos matrices de Householder es una matriz


unitaria.

Hallar una matriz ortogonal Q tal que A = QR siendo R una matriz


triangular superior de las mismas dimensiones que A.

2/3 1/3 0 2/3
2/
3 0 1/3 2/3
Sol : Q = .

1/3 2/3 2/3 0
0 2 2 1/3

c) Probar que si Q es ortogonal, los sistemas Ax = b y QT Ax = QT b tienen


las mismas soluciones en mnimos cuadrados.

Hallar el error cometido al obtener la pseudosolucion del sistema Ax = b,


utilizando transformaciones ortogonales.

Sol : x = 2, y = 1, kEk = 3.

d) Sea xn+1 = L1 xn +c la sucesion resultante de aplicar el metodo de Gauss-


Seidel a la resolucion de las ecuaciones normales del sistema Ax = b.
Cuantas iteraciones son necesarias para la convergencia del metodo?
Determina la pseudosolucion as como la norma del error.

Sol : Solo una iteracion.

Ejercicio 2.33 El equipo Astronoma para aficionados, adquirido por el pro-


fesor Dana este verano, permita determinar el plano x + y + z = 1
Ejercicios propuestos 137

donde se encuentra la trayectoria de Marte alrededor del Sol. En las instruc-


ciones indicaba introducir en el calculador magico una serie de coordenadas
locales (xi , yi , zi ), obtenidas con el telescopio marciano, y automaticamente
proporcionara los coeficientes , , . Entre otras cosas, sugera introducir
entre 5 y 10 coordenadas para que el ajuste obtenido en el sentido de
los mnimos cuadrados promediara cientficamente los errores de obser-
vacion...

a) Plantear el sistema superdeterminado, A= b, con =(, , )T , para


determinar el plano , cuando las coordenadas locales son

(2, 1, 0), (1, 2, 1), (0, 1, 2), (1, 0, 1), (0, 1, 0).

Puede ser nulo el error cometido para la pseudosolucion del sistema?

Sol : El error no puede ser nulo.

b) Poniendo A = [a1 a2 a3 ], donde ai indica la correspondiente columna de


A, razonar si es posible encontrar una transformacion de Householder
que transforme a1 en a2 . Hallar una matriz unitaria, Q, de modo que
Qa1 = a3 .

0 0 1 0 0
0 1 0 0 0

Sol : Q = 1 0 0 0 0 .
0 0 0 1 0
0 0 0 0 1

c) Obtener las ecuaciones normales, B= c, del sistema inicial A= b.


Esta la matriz B mal condicionada para la norma || || ?

Sol : (B) = 15/2. Bien condicionada.

d) Probar que los metodos iterados de Jacobi y Gauss-Seidel aplicados al


sistema B= c son convergentes. Cual de ellos converge mas rapido?

Sol : Gauss-Seidel mas rapido que Jacobi.

e) Partiendo de 0 = (0, 0, 0)T , obtener la aproximacion 3 , al aplicar 3


pasos del metodo de Gauss-Seidel al sistema B= c, operando con dos
cifras decimales. Cual es el error obtenido al tomar 3 como la solucion
en mnimos cuadrados de A= b?

Sol : 3 = (0.09, 0.55, 0.33)T con kE3 k ' 1.01.


138 Sistemas de ecuaciones lineales


1 5 5
Ejercicio 2.34 Dada la matriz A = 1 2 1 , se pide:

1 2 3

a) Estudiar si admite factorizaciones LU y/o de Cholesky.

Sol : Solo LU .

b) Utilizar dichas factorizaciones


(encasode existir) para resolver el sistema
x 3
Ax = b con x = y y b = 2 .

z 1

Sol : x = 1/2, y = 1, z = 1/2.

c) Resolver, mediante transformaciones de Householder el sistema superde-


terminado resultante de anadir a nuestro sistema la ecuacion x+y +3z =
. Hallar la norma del error.

Sol : x = (2 + 3)/6, y = (3 )/3, z = ( 2)/4, kEk = ||/2.

d) Se puede calcular el valor de que minimiza la norma del error sin


resolver el sistema anterior?

Sol : S, = 0.

Ejercicio 2.35 En R4 se busca un hiperplano de la forma x + y + z = t


que pase por los puntos

x
1 1 1
y 0
0 2



z
0 4 1




t 0 1 2

a) Plantear el sistema de ecuaciones y resolverlo usando la factorizacion LU


de la matriz del sistema.

Sol : El hiperplano buscado es 7y 4z + 2t = 0.

b) Comenzando por el vector x0 = (2, 2, 2)T , resolverlo iterativamente por


los metodos de Jacobi y Gauss-Seidel. Que metodo es mas rapido?
Razona la respuesta.

Sol : Jacobi 3, Gauss-Seidel 1 aunque ambos son igualmente convergentes.


Ejercicios propuestos 139

c) Al obligar que, ademas, pase por el punto (1, 2, 0, 1) se obtiene una


ecuacion mas que hace incompatible al sistema.
Usar transformaciones de Householder para encontrar la pseudosolucion
del sistema incompatible dando la norma del error.
p
Sol : x = 2/3, y = 8/9, z = 8/9, kEk = 2/3.

Ejercicio 2.36 Se sabe que un movil en R3 sigue una velocidad instantanea


dada por una expresion de la forma V (x, y, z) = ax + by + cz con a, b, c R.
Con un velocmetro se han tomado los datos siguientes:

V (1, 2, 53 ) = 3
V (1, 2, 4) = 2
V (2, 1, 2) = 2
V (1, 0, 2) = 1
V (3, 2, 1) = 2

a) Demostrar que el velocmetro esta desajustado. Es decir, que los datos


obtenidos son incompatibles.

b) Una vez planteado el sistema incompatible y usando las ecuaciones nor-


males de dicho sistema, usar el metodo de Cholesky para calcular el
grado de desajuste del velocmetro. Es decir, el error al suponer la pseu-
dosolucion como los verdaderos valores de a, b y c.

Sol : kEk = 3.0651.

c) Calcular el error usando transformaciones de Householder en el sistema


incompatible.

Sol : kEk = 3.0651.


3. Interpolacion

Definicion 3.1 Interpolar una funcion f (x) es encontrar otra funcion g(x)
con determinadas caractersticas (un polinomio, un cociente de polinomios,
una funcion trigonometrica, etc.) tal que g(xi ) = f (xi ) en un conjunto de
puntos S = {x0 , x1 , . . . , xn } con x0 < x1 < < xn que recibe el nombre de
soporte.
La funcion g(x) recibe el nombre de funcion de interpolacion de la funcion
f (x) en el soporte {x0 , x1 , . . . , xn }.
Diremos que el soporte es regular si la diferencia entre dos puntos consecutivos
del soporte es siempre la misma, es decir, si xi xi1 es constante cualquiera
que sea i = 1, 2, . . . , n.

La finalidad la interpolacion es la de aproximar la funcion f (x) en un punto


x 6 S de tal forma que se pueda decir que f (x) ' g(x) una vez encontrada la
funcion g(x).

Si x [x0 , xn ] se dice que estamos interpolando.


Si x 6 [x0 , xn ] se dice que estamos extrapolando.

Ejemplo 3.1 Supongamos conocidos los valores de una determinada funcion


f (x) en el soporte {0, 1, 2}, es decir, se dispone de la tabla

x 0 1 2
f (x) 1 3 7
Si queremos calcular el polinomio de segundo grado P (x) = ax2 + bx + c que
interpola a f (x), en dicho soporte, se obtiene el sistema

c=1
a+ b+c=3 = a = b = c = 1

4a + 2b + c = 7

141
142 Interpolacion

por lo que P (x) = x2 + x + 1.


Podemos ahora interpolar el valor de f (1.5) ' P (1.5) = 4.75 o extrapolar el
valor de f (4) ' P (4) = 21. 

En este captulo solo trataremos la interpolacion polinomial y la interpolacion


polinomial a trozos (splines).

3.1 Interpolacion polinomial


Teorema 3.1 Existencia y unicidad

Dada una funcion f (x), existe un unico polinomio de grado no superior a n


que la interpola en el soporte {x0 , x1 , , xn }.

Demostracion. Obligando a que el polinomio


Pn (x) = a0 + a1 x + a2 x2 + an xn
tome los valores f0 = f (x0 ), . . . , fn = f (xn ) en el soporte {x0 , x1 , . . . , xn }
obtenemos el sistema
a0 + a1 x0 + a2 x20 + an xn0 = f0
a0 + a1 x1 + a2 x21 + an xn1 = f1
..
.
a0 + a1 xn + a2 x2n + an xnn = fn
es decir,
1 x0 xn0 a0 f0
1 x1 xn1 a1 f1


.. .. .. . . = ..


. . . .. .. .


1 xn xnn an fn
Dado que el determinante de la matriz del sistema es un Vandermonde, y por
tanto no nulo, el sistema es compatible determinado, es decir, admite solucion
unica.

Sea P (x) el polinomio de interpolacion de una funcion f (x) en el soporte


{x0 , x1 , . . . , xn }:

Que error se cometera al aproximar f (x) por el valor de P (x)?


Interpolacion polinomial 143

Teorema 3.2 [Error de interpolacion]

Sea P (x) el polinomio de interpolacion de una funcion f (x) en el soporte


{x0 , x1 , . . . , xn }.
Si f (x) es una funcion n + 1 veces derivable, con f (n + 1 (x) continua, y x un
numero real cualquiera, el error que se comete al aproximar f (x) por P (x)
viene dado por

|f (n + 1 (c)|
(x) = |f (x) P (x)| = |x x0 | |x xn |
(n + 1)!

siendo c un punto del intervalo determinado por los puntos x, x0 , x1 , . . . , xn .

Demostracion. Sean d(x) = f (x) P (x), z(x) = (x x0 ) (x xn ) y x un


z(t)
punto cualquiera. Consideremos la funcion g(t) = d(t) d(x)
z(x)

g(xi ) = 0 cualquiera que sea 0 i n ya que

z(xi )
g(xi ) = d(xi ) d(x) =0
z(x)

por serlo d(xi ) y z(xi ).


z(x)
g(x) = 0 ya que g(x) = d(x) d(x) =0
z(x)

Por tanto, la funcion g(x) se anula en x, x0 , . . . , xn+1 , es decir, en n + 2 pun-


tos. Si ordenamos estos puntos y los denotamos por t1 , t2 , . . . , tn+2 , en cada
intervalo (ti , ti+1 ) el teorema de Rolle nos garantiza la existencia de un punto
ci tal que g 0 (xi ) = 0 (Figura 3.1)

t1 t2 t3 tn+2
u u u u
c1 c2 c3 cn+1
Figura 3.1: Los n + 1 puntos en los que se anula g 0 (x).

Razonando de igual forma obtenemos n puntos donde se anula la derivada


segunda g 00 (x), n 1 donde se anula la derivada tercera, y as sucesivamente
hasta obtener un punto c en el que se anula la derivada de orden n + 1, siendo
c un punto del intervalo que determinan los puntos x, x0 , x1 , . . . , xn .
144 Interpolacion

d(x) (n + 1
Como g (n + 1 (t) = d(n + 1 (t) z (t), podemos particularizar en t = c y
z(x)
obtenemos
d(x) (n + 1 d(x)
0 = d(n + 1 (c) z (c) = f (n + 1 (c) P (n + 1 (c) (n + 1)!
z(x) z(x)

por lo que
d(x)
(n + 1)! = f (n + 1 (c)
z(x)
o lo que es lo mismo,

f (n + 1 (c) f (n + 1 (c)
f (x) P (x) = d(x) = z(x) = (x x0 ) (x xn ) =
(n + 1)! (n + 1)!

|f (n + 1 (c)|
(x) = |f (x) P (x)| = |x x0 | |x xn |
(n + 1)!

Es decir, si podemos acotar la derivada de orden n + 1 de la funcion f (x) en


el intervalo I determinado por los puntos x, x0 , x1 , . . . , xn

|f (n + 1 (x)| k x I

se tiene que
k
(x) |x x0 | |x x1 | |x xn |
(n + 1)!

Ejemplo 3.2 Supongamos que queremos aproximar el valor de sen 1 y para


ello interpolamos la funcion f (x) = sen x en el soporte {0, /4, /2}.
El polinomio que obtenemos es

P (x) = 1.16401285994663 x 0.33574886736281 x2

y la aproximacion obtenida para

sen 1 ' P (1) = 0.82826399258382

Teniendo en cuenta que f 000 (x) 1, el error vendra dado por


1
| sen 1 P (1)| |1 0| |1 /4| |1 /2| ' 4.08 102 < 101
3!
es decir, hemos obtenido el valor de sen 1 con una cifra decimal exacta. 
Interpolacion polinomial 145

Proposicion 3.3 Sean P (x), Q(x) y R(x) los polinomios de interpolacion de


la funcion f (x) en los soportes {x0 , . . . , xn }, {x0 , . . . , xn1 } y {x1 , . . . , xn }
respectivamente. Se verifica entonces que
x x0  
P (x) = Q(x) + R(x) Q(x)
xn x0

Demostracion. Consideremos el polinomio


x x0  
T (x) = Q(x) + R(x) Q(x) .
xn x0

Es obvio que como los grados de Q(x) y R(x) no son superiores a n 1, T (x)
no puede tener grado superior a n.

T (x0 ) = Q(x0 ) = f0
Si xi {x1 , x2 , . . . , xn1 }
xi x0   xi x0
T (xi ) = Q(xi ) + R(xi ) Q(xi ) = fi + (fi fi ) = fi .
xn x0 xn x0
xn x0  
T (xn ) = Q(xn ) + R(xn ) Q(xn ) = R(xn ) = fn .
xn x0
Por lo que T (x) es el polinomio, de grado no superior a n, que interpola a f (x)
en el soporte {x0 , . . . , xn }, es decir, T (x) = P (x).

Como determinamos el polinomio de interpolacion?

Hemos visto que se puede plantear un sistema de n + 1 ecuaciones con n + 1


incognitas (los coeficientes del polinomio) que admite solucion unica y deter-
mina su polinomio de interpolacion. Sin embargo, no es siempre el metodo
mas practico.

3.1.1 Interpolacion de Lagrange


Definicion 3.2 Polinomios de Lagrange

Dado un soporte {x0 , x1 , . . . , xn }, se denominan polinomios de Lagrange a los


polinomios definidos por
n
Y x xj
Li (x) = i = 0, 1, 2, . . . , n
xi xj
j =0
j 6= i
146 Interpolacion

Llamando z(x) = (x x0 )(x x1 ) (x xn ) se tiene que


h i0
z 0 (x) = 1 (x x1 ) (x xn ) + (x x0 ) (x x1 ) (x xn )
por lo que
z 0 (x0 ) = (x0 x1 ) (x0 xn )
y de manera analoga se obtiene que

z 0 (xi ) = (xi x1 ) (xi xi1 )(xi xi+1 ) (xi xn )

por lo que los polinomios de Lagrange pueden escribirse de la forma

z(x)
Li (x) = (3.1)
(x xi )z 0 (xi )

Teorema 3.4 [Propiedades de los polinomios de Lagrange]


(
0 si i 6= j
Li (xj ) =
1 si i = j

gr(Li (x)) = n cualquiera que sea 0 i n.

El polinomio Pn (x) = y0 L0 (x) + y1 L1 (x) + + yn Ln (x) interpola a la


funcion f (x) tal que f (xi ) = yi en el soporte {x0 , x1 , , xn }, siendo
gr(P (x)) n.

Demostracion.

Las dos primeras son triviales.

Para la tercera basta con observar que (haciendo uso de la primera)


Pn (xi ) = yi y que Pn (x), al ser una combinacion lineal de polinomios
de grado n (segunda propiedad), no puede ser de grado superior a n
(aunque s inferior).

Ejemplo 3.3 Sea f (x) una funcion que, en el soporte

{x0 , x1 , x2 , x3 } = {1, 2, 3, 4}

toma los valores


{f0 , f1 , f2 , f3 } = {0, 1, 2, 5}
Interpolacion polinomial 147

Los polinomios de Lagrange para dicho soporte vienen dados por

(x 2)(x 3)(x 4) 1
L0 (x) = = (x3 9x2 + 26x 24)
(1 2)(1 3)(1 4) 6

(x 1)(x 3)(x 4) 1
L1 (x) = = (x3 8x2 + 19x 12)
(2 1)(2 3)(2 4) 2

(x 1)(x 2)(x 4) 1
L2 (x) = = (x3 7x2 + 14x 8)
(3 1)(3 2)(3 4) 2

(x 1)(x 2)(x 3) 1
L3 (x) = = (x3 6x2 + 11x 6)
(4 1)(4 2)(4 3) 6

y el polinomio de interpolacion de la funcion f (x) por

P3 (x) = f0 L0 (x) + f1 L1 (x) + f2 L2 (x) + f3 L3 (x) =


= 0 L0 (x) + (1) L1 (x) + 2 L2 (x) + (5) L3 (x)

por lo que
7 98
P3 (x) = x3 + 16x2 x + 19 
3 3

Observese que los polinomios de Lagrange dependen unicamente del soporte y


no de los valores de la funcion.
As pues, si queremos interpolar cualquier funcion en el soporte {1, 2, 3, 4}
los polinomios de Lagrange son los que se han obtenido en el Ejemplo 3.3,
debiendo modificar unicamente los valores de fi i = 0, 1, 2, 3 en la expresion

P3 (x) = f0 L0 (x) + f1 L1 (x) + f2 L2 (x) + f3 L3 (x)

Sin embargo, el calculo de los polinomios de Lagrange (tambien puede verse con
el Ejemplo 3.3) no es un proceso dinamico, en el sentido de que si anadieramos
un nuevo punto al soporte, habra que comenzar de nuevo todo el proceso.

Se puede encontrar un proceso dinamico que permita anadir puntos en el


soporte aprovechando los calculos realizados hasta ese momento?
148 Interpolacion

3.1.2 Interpolacion de Newton


Proposicion 3.5 El polinomio de interpolacion de una funcion f (x) en el
soporte {x0 , x1 , . . . , xn } es de la forma

P (x) = c0 + c1 (x x0 )+
+ c2 (x x0 )(x x1 )+
+ c3 (x x0 )(x x1 )(x x2 )+
..
.
+ cn (x x0 )(x x1 )(x x2 ) (x xn1 )
donde los coeficientes c0 , c1 , . . . , cn dependen de x0 , . . . , xn y los valores que
toma la funcion en dichos puntos f0 = f (x0 ), . . . , fn = f (xn ).

Demostracion. Como el polinomio P (x) interpola a la funcion f (x) en el


soporte, se tiene que
P (x0 ) = f0 = c0 = f0
f1 f0
P (x1 ) = f1 = f1 = f0 + c1 (x1 x0 ) = c1 =
x1 x0
f1 f0
P (x2 ) = f2 = f2 = f0 + (x2 x0 ) + c2 (x2 x0 )(x2 x1 ) =
x1 x0
c2 puede determinarse de manera unica y depende de x0 , x1 , x2 , f0 , f1 y f2 .

Supuesto que ck1 depende de x0 , . . . , xk1 , f0 , . . . , fk1 y dado que


P (xk ) = fk = c0 + c1 (xk x0 ) + + ck (xk x0 ) (xk xk1 ) =
1 h i
ck = fk c0 ck1 (xk x0 ) (xk xk2 )
(xk x0 ) (xk xk1 )
por lo que ck puede determinarse de forma unica y depende de x0 , x1 , . . . , xk
y f0 , f1 , . . . , fk .

En lo que sigue utilizaremos la notacion ck = f [x0 , x1 , . . . , xk ], con lo que el


polinomio quedara de la forma
P (x) = f [x0 ]+f [x0 , x1 ](xx0 )+ +f [x0 , x1 , . . . , xn ](xx0 )(xx1 ) (xxn )
y quedara determinado una vez que se determinen los valores de los coeficientes
f [x0 , x1 , . . . , xk ] con k = 0, 1, . . . , n.
Vamos a estudiar, a continuacion, dos metodos para calcular dichos coeficien-
tes, que son conocidos como el de las diferencias divididas y el de las diferencias
finitas.
Interpolacion polinomial 149

Proposicion 3.6 [Metodo de las diferencias divididas]

Para cualquiera que sea k = 0, 1, . . . , n se verifica que

f [x1 , . . . , xk ] f [x0 , . . . , xk1 ]


f [x0 , x1 , . . . , xk ] =
xk x0

siendo f [xi ] = fi para 0 i n.

Demostracion. Observese que f [x0 , x1 , . . . , xk ] es el coeficiente ck del termino


de mayor grado del polinomio de interpolacion de la funcion f (x) en el soporte
{x0 , x1 , . . . , xk }.
Basta ir haciendo tomar a k los valores de 0 a n para que la Proposicion 3.3
nos justifique el resultado.

Ejemplo 3.4 Calculemos, por el metodo de las diferencias divididas de New-


ton, el polinomio de interpolacion de la funcion f (x) que toma los valores
{0, 1, 1, 2} en el soporte {1, 3, 4, 5}.
Teniendo en cuenta que

f [xi ] = fi
f [x1 , . . . , xk ] f [x0 , . . . , xk1 ]
f [x0 , x1 , . . . , xk ] =
xk x0
obtenemos:
f [x1 ] f [x0 ] f1 f0 10 1
f [x0 , x1 ] = = = =
x1 x0 x1 x0 31 2

f [x2 ] f [x1 ] f2 f1 1 1 2
f [x1 , x2 ] = = = =
x2 x1 x2 x1 43 1

f [x3 ] f [x2 ] f3 f2 2 (1) 3


f [x2 , x3 ] = = = =
x3 x2 x3 x2 54 1

f [x1 , x2 ] f [x0 , x1 ] 2 1/2 5


f [x0 , x1 , x2 ] = = =
x2 x0 41 6

f [x2 , x3 ] f [x1 , x2 ] 3 (2) 5


f [x1 , x2 , x3 ] = = =
x3 x1 53 2

f [x1 , x2 , x3 ] f [x0 , x1 , x2 ] 5/2 ( 5/6) 5


f [x0 , x1 , x2 , x3 ] = = =
x3 x0 51 6
150 Interpolacion

Que podemos disponer en la siguiente tabla:

xi f [xi ] f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ]
1 0
1/2
3 1 5/6
2/1 5/6
4 1 5/2

3/1

5 2

Por lo que el polinomio de interpolacion es


1 5 5
P (x) = (x 1) (x 1)(x 3) + (x 1)(x 3)(x 4)
2 6 6

1
= (5x3 45x2 + 118x 78) 
6

La ventaja de este metodo es que si ahora anadimos un nuevo punto en el so-


porte, solo habra que anadir una nueva fila en la tabla que tenamos elaborada
para calcular el coeficiente f [x0 , x1 , x2 , x3 , x4 ] y determinar el polinomio
Q(x) = P (x) + f [x0 , x1 , x2 , x3 , x4 ](x 1)(x 3)(x 4)(x 5)

Ejemplo 3.5 Supongamos que anadimos el punto x4 = 7 con f4 = f (x4 ) = 3


en el soporte del Ejemplo 3.4.
Bastara con completar la tabla

xi f [xi ] f [xi , xi+1 ] f [xi , xi+1 , xi+2 ] f [xi , xi+1 , xi+2 , xi+3 ] f [xi , xi+1 , xi+2 , xi+3 , xi+4 ]
1 0
1/2
3 1 5/6
2/1 5/6
4 1 5/2 5/18
3/1 5/6
5 2 5/6
1/2

7 3
Interpolacion polinomial 151

Resultando que el polinomio de interpolacion es ahora


5
Q(x) = P (x) (x 1)(x 3)(x 4)(x 5) =
18

1
= (5x4 80x3 + 430x2 889x + 534)
18 

Sean Pn (x) y Pn1 (x) los polinomios de interpolacion de la funcion f (x) en los
soportes {x0 , x1 , . . . , xn } y {x0 , x1 , . . . , xn1 } respectivamente.
Sabemos que

Pn (x) = Pn1 (x) + f [x0 , . . . , xn ](x x0 ) (x xn1 )

y ademas (vease el Teorema 3.2)

f (n ()
f (x) Pn1 (x) = (x x0 ) (x xn1 )
n!
Sustituyendo x por xn tenemos:

f (n ()
f (xn ) Pn1 (xn ) = (xn x0 ) (xn xn1 )
n!
y dado que f (xn ) = fn = Pn (xn ), se tiene que:

f (n ()
Pn (xn ) Pn1 (xn ) = (xn x0 ) (xn xn1 ).
n!

Podemos, por tanto, enunciar la siguiente proposicion.

Proposicion 3.7 Dado el soporte {x0 , x1 , . . . , xn }, existe un punto c del in-


tervalo [x0 , xn ] tal que el coeficiente f [x0 , . . . , xn ] para una funcion f (x) n veces
derivable y con derivada n-esima continua, viene dado por

f (n (c)
f [x0 , . . . , xn ] =
n!

Definicion 3.3 [Diferencias finitas]

Dados y0 , y1 , . . . , yn , se definen las diferencias finitas k yi como

yi = yi+1 yi k yi = (k1 yi )
152 Interpolacion

As, por ejemplo, para y0 , y1 , y2 , y3 se tendran:


y0 = y1 y0
2 y0 = y1 y0
y1 = y2 y1 3 y0 = 2 y1 2 y0
2 y1 = y2 y1
y2 = y3 y2

Cuando se trabaja con un soporte regular los coeficientes f [x0 , . . . , xk ] pueden


calcularse de forma mas rapida utilizando el metodo de las diferencias finitas.

Proposicion 3.8 [Metodo de las diferencias finitas]

Sea {x0 , x1 , . . . , xn } un soporte regular en el que xi+1 xi = h cualquiera que


sea i = 0, 2, . . . , n 1 y sean fi = f (xi ) los valores que toma una funcion f (x)
en dicho soporte.
Para cualquier valor de k = 1, 2, . . . , n, es:
k f0
f [x0 , . . . , xk ] =
hk k!
Demostracion. Haremos induccion en k.
f1 f0 f0
Para k = 1 sabemos que f [x0 , x1 ] = = .
x1 x0 h 1!
Supuesto cierto para k vamos a probarlo para k + 1.

k f1 k f0
f [x1 , . . . , xk+1 ] f [x0 , . . . , xk ] k
k
f [x0 , . . . , xk+1 ] = = h k! h k! =
xk+1 x0 kh

k f1 k f0 k+1 f0
= =
hk k! k h hk+1 (k + 1)!

El polinomio de interpolacion de f (x) en un soporte regular {x0 , x1 , . . . , xn }


es, por tanto:

2 f0
    
x x0 x x0 x x1
Pn (x) = f0 + f0 + +
h 2! h h

n f0
   
x x0 x xn1
+
n! h h
Interpolacion polinomial 153

Teniendo en cuenta que x xk = x (x0 + k h) = (x x0 ) k h, podemos


poner

2 f0
    
x x0 x x0 x x0
Pn (x) = f0 + f0 + 1 +
h 2! h h

n f0
   
x x0 x x0
+ (n 1)
n! h h

x x0
por lo que, si denotamos por t = , se tiene que
h

f0 2 f0 n f0
Pn (x) = f0 + t+ t(t 1) + + t(t 1) (t (n 1))
1! 2! n!
Es decir:
! ! !
t t t
Pn (x) = f0 + f0 + 2 f0 + + n f0
1 2 n

Ejemplo 3.6 Sea f (x) una funcion que toma los valores {3, 45, 175, 441} en
el soporte regular {2, 4, 6, 8}.
Las diferencias finitas vienen dadas por

fi fi 2 fi 3 fi
3 42 88 48
45 130 136
175 266
441

por lo que
! ! !
t t t
P3 (x) = 3 + 42 + 88 + 48 =
1 2 3
x2
= 3 + 42 t + 44 t (t 1) + 8 t (t 1) (t 2) con t =
2
de donde se obtiene que el polinomio de interpolacion de la funcion f (x) en
dicho soporte es
P3 (x) = x3 x2 x + 1 
154 Interpolacion

Observese que si aumentamos el soporte en un numero bastara, al igual que


ocurra con el metodo de las diferencias divididas, con completar la tabla que
ya tenemos realizada para obtener la diferencia finita del orden siguiente y
anadir un sumando a la expresion del polinomio interpolador.

Ejemplo 3.7 Si anadimos el punto 10 al soporte del Ejemplo 3.6 con


f (10) = 915 completamos la tabla

fi fi 2 fi 3 fi 4 fi
3 42 88 48 24
45 130 136 72
175 266 208
441 474
915
!
t
y obtenemos que P4 (x) = P3 (x)+ 4 f0 = P3 (x)+t(t1)(t2)(t3) =
4
1
P4 (x) = x3 x2 x + 1 + (x 2)(x 4)(x 6)(x 8) =
16
1 1 31
P4 (x) = x4 x3 + x2 26x + 25 
16 4 4

Cuando debemos realizar la interpolacion de Lagrange y cuando la de Newton?

Si queremos calcular el polinomio de interpolacion de varias funciones


en un mismo soporte, utilizaremos los polinomios de Lagrange, ya que
no dependen de la funcion a interpolar sino solo del soporte utilizado.
Si lo que queremos es interpolar una funcion en un determinado soporte
e ir anadiendo puntos a este ultimo, obviamente utilizaremos la interpo-
lacion de Newton, donde distinguimos dos casos:
Si el soporte (o posteriores soportes ampliados) no es regular, uti-
lizaremos el metodo de las diferencias divididas.
Si el soporte (y posteriores soportes ampliados) es regular, utiliza-
remos el metodo de las diferencias finitas.

Hay que destacar que cuando hablamos de anadir puntos al soporte, hablamos
de pasar, por ejemplo, del soporte regular {0, 2, 4, 6} al {0, 2, 4, 6, 8, 10} es
decir, de pasar del soporte
{x0 , x1 , . . . , xn } al {x0 , x1 , . . . , xn , xn+1 , . . . , xn+k } con xj > xi si j > i
Interpolacion polinomial 155

Otro problema diferente es el siguiente: supongamos que se quiere aproxi-


mar una funcion f (x) en el intervalo [a, b] y para ello construimos un soporte
{x0 , x1 , . . . , xn } con x0 = a y xn = b.
Si posteriormente pretendemos afinar la aproximacion anadiendo mayor canti-
dad de puntos al soporte pero con la condicion de que el primero siga siendo a
y el ultimo b, el proceso, tanto si lo hemos realizado mediante la interpolacion
de Lagrange o la de Newton, hay que realizarlo de nuevo desde el principio.

Hasta que punto es bueno afinar un soporte?

Fenomeno de Runge

Dada una funcion continua en [a, b], podra pensarse que la sucesion Pn (x) con
n N de polinomios de interpolacion, obtenidos al aumentar el numero de
puntos del soporte, converge a la funcion f (x) es decir, podramos pensar que

lim |f (x) Pn (x)| = 0 x [a, b]


n

cosa que, sin embargo, no es cierta.


En realidad, al aumentar el numero de puntos del soporte se mejora la aproxi-
macion en la parte central del intervalo, pero la diferencia entre la funcion y el
polinomio interpolador puede aumentar rapidamente en los extremos. Ello nos
dice que no es bueno hacer demasiado extenso el soporte, ya que ademas de
aumentar el numero de operaciones con la consecuente acumulacion de errores,
podemos aumentar la perdida de precision en los extremos. Este fenomeno es
conocido como fenomeno de Runge.

1
Ejemplo 3.8 Si aproximamos la funcion f (x) = por un polinomio de
1 + x2
segundo grado, en el soporte {4, 0, 4}, obtenemos que

1 2
P2 (x) = 1 x
17
En la Figura 3.2 (Izda.) podemos ver ambas graficas.
Si la aproximacion la hacemos mediante un polinomio de grado 4 en el soporte
{4, 2, 0, 2, 4} obtenemos

1
P4 (x) = (85 21x2 + x4 )
85
que podemos ver representada junto a la funcion f (x) en la Figura 3.2 (Dcha.).
156 Interpolacion

Figura 3.2: Las funciones {f (x), P2 (x)} y {f (x), P4 (x)}

Si afinamos aun mas y aproximamos mediante un polinomio de grado 8 en el


soporte {4, 3, 2, 1, 0, 1, 2, 3, 4} obtenemos
1
P8 (x) = (1700 1124x2 + 304x4 31x6 + x8 )
1700
cuya grafica podemos observar en la Figura 3.3.

Figura 3.3: Las funciones f (x) y P8 (x)

Puede verse el hecho comentado anteriormente del fenomeno de Runge. Va-


mos mejorando la aproximacion en la parte central del intervalo, pero vamos
empeorandola en los extremos. 

Ejemplo 3.9 Si construimos con MATHEMATICA el polinomio de interpo-


lacion de la funcion log(1 + x) en el soporte {0, 1, 2, 3, 4} y representamos el
resultado en el intervalo [0.5,1.5] obtenemos la grafica de la Figura 3.4 (Izda.).
Si utilizamos los nueve puntos del soporte {0, 0.5, 1, 1.5, 2, 2.5, 3, 3.5, 4} y repre-
sentamos el polinomio obtenido en el intervalo [0.5, 1.5] obtenemos la grafica
de la Figura 3.4 (Dcha.).
Intercalando los puntos medios para obtener ahora un soporte de 17 puntos
y realizando la grafica correspondiente obtenemos como resultado el que se
muestra en la Figura 3.5 (Izda.).
Interpolacion polinomial 157

Figura 3.4: Las funciones {log(1 + x), P4 (x)} y {log(1 + x), P8 (x)}

Figura 3.5: Las funciones {log(1 + x), P16 (x)} y {log(1 + x), P32 (x)}


Sin embargo, si volvemos a utilizar los puntos medios para obtener un soporte
de 33 puntos, podemos ver en la Figura 3.5 (Dcha.) que el fenomeno de Runge
junto a la acumulacion de errores hace que el polinomio obtenido deje de ser
una buena aproximacion de la funcion

3.1.3 Interpolacion de Hermite

Hasta ahora, las unicas condiciones que le hemos exigido al polinomio de in-
terpolacion es que coincida con la funcion en los puntos del soporte.
Se pueden exigir otro tipo de condiciones, entre las que destaca la de exigir
que ademas de coincidir los valores del polinomio lo hagan tambien los de su
primera derivada, es decir, que
)
P (xi ) = f (xi )
en los puntos del soporte {x0 , x1 , . . . , xn }
P 0 (xi ) = f 0 (xi )
158 Interpolacion

Consideremos, por tanto, la tabla

x x0 x1 xn
f (x) f0 f1 fn
f 0 (x) f00 f10 fn0

donde fi = f (xi ) y fi0 = f 0 (xi ) para 0 i n.


Se tienen, en este caso, 2n + 2 condiciones, por lo que debemos buscar un
polinomio de grado 2n + 1

P (x) = a2n+1 x2n+1 + a2n x2n + + a1 x + a0

que verifique las condiciones:

P (x0 ) = f0 P 0 (x0 ) = f00


P (x1 ) = f1 P 0 (x1 ) = f10
.. ..
. .
P (xn ) = fn P 0 (xn ) = fn0

Teorema 3.9 [Polinomios de Hermite]

El polinomio
n h
X i
P2n+1 (x) = ak + bk (x xk ) L2k (x)
k=0

en el que Lk (x) representan los polinomios de Lagrange y

ak = fk
bk = fk0 2fk L0k (xk )

es el unico polinomio de grado 2n + 1 que interpola a la funcion f (x) en el


soporte {x0 , x1 , . . . , xn } cumpliendo las condiciones
)
P2n+1 (xk ) = fk = f (xk )
0
k = 0, 1, . . . , n
P2n+1 (xk ) = fk0 = f 0 (xk )

Dicho polinomio recibe el nombre de polinomio de Hermite.

La demostracion debe realizarla el alumno a modo de ejercicio.


Interpolacion polinomial 159

Teorema 3.10 [Error de interpolacion de Hermite]

Sea f (x) una funcion 2n + 2 veces derivable con derivada de orden 2n + 2


continua y sea P2n+1 el polinomio de Hermite que interpola a f (x) en el soporte
{x0 , x1 , . . . , xn }.
Existe un punto c del intervalo que determinan los puntos x, x0 , . . . , xn en el
que se verifica que

f (2n + 2 (c)
f (x) P2n+1 (x) = (x x0 )2 (x xn )2
(2n + 2)!

Demostracion. Sean d(x) = f (x) P2n+1 (x) y z(x) = (x x0 ) (x xn ) y


considerese la funcion
d(x)
g(t) = d(t) 2 z 2 (t)
z (x)
La demostracion es similar a la del Teorema 3.2.

Ejemplo 3.10 Si aplicamos este metodo a la funcion del Ejercicio 3.8, en el


soporte {4, 2, 0, 2, 4} obtenemos el polinomio de grado 8 (en realidad se
busca de grado 9 pero al ser una funcion par, el termino de grado 9 se anula)
1
P8 (x) = (7225 3129x2 + 569x4 41x6 + x8 )
7225
cuya grafica puede verse en la Figura 3.6 (Izda.).

Figura 3.6: Las funciones {f (x), P8 (x)} y {f (x), P16 (x)}

Si lo hacemos en el soporte {4, 3, 2, 1, 0, 1, 2, 3, 4} obtenemos

1
P16 (x) = (2890000 2558224x2 + 1613584x4 626688x6 + 144408x8
2890000
19527x10 + 1507x12 61x14 + x16 )

que podemos ver en la Figura 3.6 (Dcha.). 


160 Interpolacion

Si comparamos con los resultados obtenidos en el Ejercicio 3.8, podemos ob-


servar la mejora que produce la imposicion de que coincidan no solo los valores
de la funcion, sino que tambien lo hagan los de su derivada, en los puntos del
soporte. Sin embargo, sigue manifestandose el fenomeno de Runge, es decir,
se mejora el resultado en la parte central del intervalo, pero en los extremos,
la diferencia entre el polinomio interpolador y la funcion es considerable.

Es posible interpolar una funcion sin que aparezca el fenomeno de Runge?

La manera de evitarlo es hacer una interpolacion polinomial a trozos, es decir,


lo que se conoce como una interpolacion por splines.

3.2 Interpolacion por splines


Consideremos una particion del intervalo [a, b]

= {x0 = a < x1 < < xn1 < xn = b}

en la que los puntos xi reciben el nombre de nodos.


Una interpolacion por splines consiste en tomar un soporte en cada subinter-
valo [xi1 , xi ] y construir un polinomio de interpolacion, de grado no superior
a k (para un k prefijado) sobre dicho soporte, por lo que el metodo se conoce
tambien como interpolacion polinomial a trozos. Damos a continuacion una
definicion formal de lo que denominaremos funcion spline.

Definicion 3.4 [Funcion spline]

Una funcion spline de grado k con nodos en x0 , x1 , . . . , xn es una funcion S(x)


formada por varios polinomios, cada uno de ellos definido sobre un subintervalo
y que se unen entre s bajo ciertas condiciones de continuidad. Las condiciones
que debe cumplir S(x) son las siguientes:

En cada intervalo [xi1 , xi ), S(x) es un polinomio de grado gr[S(x)] k,

S(x) admite derivada continua de orden k 1 en [x0 , xn ].

En general, pueden crearse funciones spline de grado k, pero la interpolacion


mas frecuente es a traves de funciones spline de grado 3, es decir, de splines
cubicos.
Interpolacion por splines 161

3.2.1 Splines cubicos


Dado que a partir de ahora vamos a trabajar con splines cubicos, vamos a
concretar la Definicion 3.4 al caso de k = 3.

Definicion 3.5 [Funcion spline cubico]

Dado el conjunto de puntos = {x0 , x1 , . . . , xn }, diremos que la funcion S


es un spline cubico asociado a si cumple las siguientes condiciones:

a) La restriccion de S a cada intervalo [xi1 , xi ) para i = 1, 2, . . . n es


un polinomio de grado no superior a tres. Es decir, S|[xi1 ,xi ] P3 [x],
donde P3 [x] representa al conjunto de los polinomios de grado menor o
igual a tres.
b) S C 2 [a, b], es decir, S es una funcion continua, dos veces derivable
y con derivadas continuas en el intervalo [a, b].

Definicion 3.6 [Spline de interpolacion]

Diremos que S (x) es un spline de interpolacion en x segun la particion , si

a) S (x) es un spline cubico asociado a .


b) S (xi ) = f (xi ) = yi para i = 0, 1, . . . , n, es decir, cumple las condiciones
de interpolacion.

Cuantas incognitas apareceran en el spline en funcion de las condiciones que


se han de cumplir?
Si en cada intervalo de la particion intentamos construir un polinomio de
grado tres que aproxime a la funcion, deberemos calcular cuatro incognitas
(los cuatro coeficientes del polinomio de grado tres) por intervalo, es decir, 4n
incognitas.
Por otro lado, estos polinomios deben cumplir, en cada uno de los nodos, las
condiciones:
S|[ xi1 ,xi ] (xi ) = S|[ xi ,xi+1 ] (xi )
0 0
S| [ xi1 ,xi ]
(xi ) = S| [ xi ,xi+1 ]
(xi ) i = 1, 2, . . . , n 1 (3.2)
00 00
S| [ xi1 ,xi ]
(xi ) = S| [ xi ,xi+1 ]
(xi )

Es decir, se deben cumplir un total de 3(n 1) condiciones ademas de las n + 1


condiciones de interpolacion
S (xi ) = f (xi ) i = 0, 1, . . . , n
162 Interpolacion

Dado que tenemos un total de 4n incognitas para 4n 2 condiciones, debemos


imponer dos nuevas condiciones para poder determinar los coeficientes de la
funcion spline. Dependiendo de las condiciones que impongamos, obtendremos
un tipo de spline u otro.

Si exigimos que las derivadas segundas se anulen en los extremos, es


decir, si
00 00
S (a) = S (b) = 0
diremos que S (x) es el spline natural asociado a la particion .
Si exigimos que
0 0 00 00
S (a) = S (b), S (a) = S (b)

diremos que se trata de un spline periodico.

Calculo de los splines cubicos de interpolacion

Nos centraremos en el calculo de los splines naturales y con al fin de simplificar


la notacion, llamaremos

hi = xi xi1 i = 1, 2, . . . , n
00
Mi = S (xi ) i = 0, 1, . . . , n

Los valores Mi se denominan momentos y determinaran completamente los


splines cubicos.
Observese, en primer lugar, que como en cada intervalo [xi , xi+1 ] el spline S
es un polinomio de grado tres, su segunda derivada es una recta (un polinomio
de grado uno). En consecuencia, al imponer las condiciones (3.2) sobre la
igualdad de las derivadas segundas en los nodos, obligamos a que la segunda
00
derivada de la funcion spline S (x) constituya un conjunto de rectas que se
intersecan en los nodos de la particion elegida. Ahora bien, dado que cada
recta queda determinado por dos puntos, podemos escribir el valor de las
00
restricciones (3.2) sobre S| [x ,x ]
como
i i+1

00 xi+1 x x xi
S| (x) = Mi + Mi+1 .
[x ,x
i i+1 ] hi+1 hi+1
Integrando respecto a x obtenemos el valor de la primera derivada del spline
en este intervalo
0 Mi (xi+1 x)2 Mi+1 (x xi )2
S| (x) = + + Ai .
[x ,x
i i+1 ]
2 hi+1 2 hi+1
Interpolacion por splines 163

Volviendo a integrar respecto a x obtenemos

Mi (xi+1 x)3 Mi+1 (x xi )3


S|[xi ,xi+1 ] (x) = + + Ai (x xi ) + Bi .
6 hi+1 6 hi+1

Si imponemos ahora las condiciones de interpolacion

S (xi ) = yi , S (xi+1 ) = yi+1

obtenemos
Mi 2 Mi 2
hi+i + Bi = yi = Bi = yi h
6 6 i+1

Mi+1 2 yi+1 yi hi+1


hi+i + Ai hi+1 + Bi = yi+1 = Ai = (Mi+1 Mi ).
6 hi+1 6

Podemos, por tanto, determinar los valores de las constantes Ai y Bi , que


determinan el valor de S (x) en el intervalo [xi , xi+1 ], en funcion de los mo-
mentos.
El problema se reduce, por tanto, a calcular los momentos para cada uno de los
intervalos, para lo que utilizaremos la unica condicion de (3.2) que no hemos
utilizado:
0 0
S| [x
(xi ) = S| (xi ).
i1 ,xi ] [x ,x
i i+1 ]

Esta condicion nos da, para cada i = 1, 2, . . . , n 1, una ecuacion:


 
hi hi+1 6 yi+1 yi yi yi1
Mi1 + 2Mi + Mi+1 =
hi + hi+1 hi + hi+1 hi + hi+1 hi+1 hi

En el caso del spline natural tenemos que M0 = M n = 0, quedandonos el


sistema tridiagonal de n 1 ecuaciones con n 1 incognitas

h2
2
h1 + h2

h2 h3 M1

2

M
h2 + h3 h2 + h3 2
.. .. .. .
.

. . . . =


... ... hn1 ..
.
hn2 hn1

M
hn1 n1
2
hn1 + hn
164 Interpolacion

 
6 y2 y1 y1 y0


h1 + h2  h2 h1 
6 y3 y2 y2 y1




h2 + h3 h3 h2
=
..
.

..

 . 


6 yn yn1 yn1 yn2

hn1 + hn hn hn1
Este sistema puede resolverse por cualquiera de los metodos iterados estudia-
dos en el Captulo 2 ya que, al ser la matriz del sistema de diagonal dominante,
todos ellos son convergentes.

Ejemplo 3.11 Si aplicamos le interpolacion por splines cubicos a la funcion


del Ejemplo 3.8
1
f (x) = en la particion = {4, 3, 2, 1, 0, 1, 2, 3, 4}
1 + x2
obtenemos, utilizando MATHEMATICA, el resultado de la Figura 3.7, que
puede verse que, independientemente de ser mejor que el que se obtuvo en
la Figura 3.6 (Dcha.) con el metodo de Hermite, no aparece el fenomeno de
Runge.

Figura 3.7: Las funciones f (x) y S (x)




3.3 Ejercicios resueltos


Ejercicio 3.1 Obtener el polinomio de interpolacion de Hermite de la funcion
f (x) = ln x en el soporte S = {1, 2} y, supuesto conocido ln 2, aproximar el
valor de ln 1.5 acotando el error cometido.
Ejercicios resueltos 165

Solucion:
f (x) = ln x = f (1) = 0 f (2) = ln 2
1
f 0 (x) = = f 0 (1) = 1 f 0 (2) = 0.5
x
Los polinomios de Lagrange en el soporte {1, 2}
x2 x1
L0 (x) = =2x y L1 (x) = =x1
12 21

n h
X i ak = f (xk )
P2n+1 (x) = ak +bk (xxk ) L2k (x) con
bk = f 0 (xk ) 2f (xk )L0k (x k)

k=0
h i h i
Para n = 1 se tiene: P3 (x) = a0 + b0 (x 1) L20 (x) + a1 + b1 (x 2) L21 (x)
con
a0 = f (1) = 0 b0 = f 0 (1) 2f (1)L01 (1) = 1 2 0 1 = 1

a1 = f (2) = ln 2 b1 = f 0 (2) 2f (2)L02 (2) = 0.5 2 ln 2 1 = 0.5 2 ln 2

de donde
h i
P3 (x) = (x 1)L20 (x) + ln 2 + (0.5 2 ln 2)(x 2) L21 (x)

y sustituyendo los valores de L0 (x) y L1 (x) obtenemos


h i
P3 (x) = (x 1)(2 x)2 + ln 2 + (0.5 2 ln 2)(x 2) (x 1)2

Para x = 10 5
h i
P3 (1.5) = 0.5 0.52 + ln 2 + (0.5 2 ln 2)(0.5) 0.52 ' 0.409073590

El error viene dado por:


|f (v (x)| |f (v (x)|
(x) 2 (x) max = (x 1)2 (x 2)2 max =
x[1,2] (2n + 2)! x[1,2] 4!

(x 1)2 (x 2)2 6 (x 1)2 (x 2)2



= max =
24 x[1,2] x4 4
0.52 (0.52 )
(1.5) = 0.015625
4
Es decir:

ln 1.5 = 0.409073590 con un error 0.015625.


166 Interpolacion

Ejercicio 3.2 Obtener el polinomio de interpolacion de los puntos:


(0, 5), (1, 3), (2, 1), (3, 13)

a) Mediante resolucion de un sistema de ecuaciones.


b) Mediante la formula de Lagrange
c) Mediante la formula de Newton para diferencias divididas.
d) Mediante la formula de Newton para diferencias finitas.

Solucion:

a) Al tener cuatro puntos, el polinomio que debemos buscar es de grado


tres, P (x) = a3 x3 + a2 x2 + a1 x + a0 .

P3 (0) = a0 = 5

P3 (1) = a3 + a2 + a1 + a0 = 3

P3 (2) = 8a3 + 4a2 + 2a1 + a0 = 1

P3 (3) = 27a3 + 9a2 + 3a1 + a0 = 13


Obtenemos el sistema:

1 0 0 0 a0 5
1 1 1 1 a1 3
=


1 2 4 8 a2 1
1 3 9 27 a3 13
que resolviendolo nos da
a0 = 5, a1 = 3, a2 = 2 y a3 = 1
por lo que el polinomio de interpolacion es
P3 (x) = x3 2x2 + 3x 5

b) Dado que el soporte es el canonico para n = 3, los polinomios de La-


grange (vease la solucion del Ejercicio 3.3) son:
1 11 1 3
L0 (x) = x3 + x2 x + 1 L2 (x) = x3 + 2x2 x
6 6 2 2
1 3 5 2 1 3 1 2 1
L1 (x) = x x + 3x L3 (x) = x x + x
2 2 6 2 3
Ejercicios resueltos 167

Como P3 (x) = y0 L0 (x) + y1 L1 (x) + y2 L2 (x) + y3 L3 (x), se tiene:


1 11 1 5
P3 (x) = 5 ( x3 + x2 x + 1) 3 ( x3 x2 + 3x)+
6 6 2 2
1 3 1 1 1
+ 1 ( x3 + 2x2 x) + 13 ( x3 x2 + x) =
2 2 6 2 3
P3 (x) = x3 2x2 + 3x 5

c) Comenzamos por construir la tabla de diferencias divididas:

xi f (xi ) f [xi xj ] f [xi xj xk ] f [xi xj xk xh ]

0 -5
2
1 3 1
4 1
2 1 4
12
3 13

P3 (x) = f (x0 ) + (x x0 )f [x0 x1 ] + (x x0 )(x x1 )f [x0 x1 x2 ]+

+ (x x0 )(x x1 )(x x2 )f [x0 x1 x2 x3 ] =

P3 (x) = 5+2(xx0 )+1(xx0 )(xx1 )+1(xx0 )(xx1 )(xx2 ) =

= 5 + 2x + x(x 1) + x(x 1)(x 2) =

P3 (x) = x3 2x2 + 3x 5

d) La tabla de diferencias finitas es

x1 f (xi ) f (xi ) 2 f (xi ) 3 f (xi )


0 -5 2 2 6
1 3 4 8
2 1 12
3 13
! ! ! !
t t t t
P3 (x) = f (x0 ) + f (x0 ) + 2 f (x0 ) + 3 f (x0 )
0 1 2 3
168 Interpolacion

x x0 x0
donde t = = = x, por lo que:
h 1
! ! ! !
x x x x
P3 (x) = 5 +2 +2 +6 =
0 1 2 3
x(x 1) x(x 1)(x 2)
= 5 + 2x + 2 +6 =
2! 3!
= 5 + 2x + x(x 1) + x(x 1)(x 2) =

P3 (x) = x3 2x2 + 3x 5

3.4 Ejercicios propuestos


Ejercicio 3.3 Calcular los polinomios de Lagrange para el soporte canonico
con 1 n 3.

Sol :

n=1 n=2 n=3

1 3 1
L0 (x) x + 1 (x 3x + 2) (x3 6x2 + 11x 6)
2 6
1 3
L1 (x) x x2 + 2x (x 5x2 + 6x)
2
1 2 1
L2 (x) (x x) (x3 4x2 + 3x)
2 2
1 3
L3 (x) (x 3x2 + 2x)
6

Ejercicio 3.4 Hallar el polinomio de interpolacion de la funcion f (x) = 2x4


en el soporte canonico S = {0, 1, 2, 3}. Obtener una expresion del error.

Sol : P3 (x) = 12x3 22x2 + 12x con (x) = 2x(x 1)(x 2)(x 3).

Ejercicio 3.5 Hallar el polinomio deinterpolacion de la funcion f (x) = ex en


el soporte {0, 1} y con el, aproximar e estimando el error cometido.
e
Sol : P1 (x) = (e 1)x + 1 con x(x 1). e ' 1.85914 con 0.34.
2
Ejercicios propuestos 169

Ejercicio 3.6 Obtener el polinomio de interpolacion de los puntos:


(7, 3), (8, 1), (9, 1), (10, 9)
basandose en los polinomios de Lagrange para el soporte canonico.

Sol : P3 (x) = x3 23x2 + 174x 431.

Ejercicio 3.7 Probar que F (n) = 12 + 22 + 32 + + n2 es un polinomio en


n y obtenerlo por interpolacion.
1
Sol : F (n) = n(n + 1)(2n + 1).
6

Ejercicio 3.8 Dada la funcion f (x) = ex , se pide:

a) Hallar el polinomio de interpolacion en el soporte {1, 0, 1} y una cota


del error en el intervalo [1, 1].
e2 2e + 1 2 e2 1
Sol : P2 (x) = x + x + 1 ' 0.54308x2 + 1.17520x + 1.
2e 2e
3e
< 0.175.
27
b) Calcular P (0.01) y compararlo con el valor dado por la calculadora para
e0.01 .

Sol : P2 (0.01) ' 1.01181, e0.01 ' 1.01005, |P2 (0.01) e0.01 | = 0.00176.

x 0 1 2 3
Ejercicio 3.9 Dada la tabla se pide:
y 1 6 31 98

a) Hallar su polinomio de interpolacion por el metodo de los polinomios de


Lagrange.

Sol : P3 (x) = 4x3 3x2 + 6x 1.


b) Determinar la forma general de todos los polinomios de cuarto grado que
satisfacen dicha tabla, determinando aquel que verifica que para x = 4
es y = 255.

Sol : P (x) = 4x3 3x2 + 6x 1 + x(x 1)(x 2)(x 3).


P (x) = x4 2x3 + 8x2 1
c) Determinar los polinomios anteriores (para los soportes {0, 1, 2, 3} y
{0, 1, 2, 3, 4}) por el metodo de las diferencias divididas de Newton.
4. Integracion numerica

Se pretende,
Z b en este tema, dar una aproximacion numerica del valor de una
integral f (x)dx en los distintos problemas que se presentan en la practica,
a
como son:

Conocida una primitiva F (x) de la funcion f (x) sabemos que


Z b
f (x)dx = F (b) F (a)
a

pero necesitamos aproximar el valor de F (b) F (a).


As, por ejemplo,
Z 2
1 h i2
dx = log x = log 2 log 1 = log 2
1 x 1

pero hay que aproximar el valor de log 2.


Si se conoce la funcion f (x), pero no se conoce ninguna primitiva suya,
se busca otra funcion g(x) que aproxime a la funcion f (x) y de la cual
s se conozcan primitivas.
Z 2 x
e
As, por ejemplo, para calcular dx, se desarrolla en serie de poten-
1 x
cias
xn
ex 1 + x + + n1
f (x) = = n! + (x) = 1 + 1 + + x + (x) =
x x x n!
= g(x) + (x)
Z 2 Z 2 Z 2
f (x)dx = g(x)dx + (x)dx
1 1 1
Z 2
en donde habra que evaluar (x)dx.
1

171
172 Integracion numerica

Solo se conocen los valores de f (x) en un soporte {x0 , x1 , . . . , xn }.


En este caso, se interpola la funcion (por ejemplo mediante la interpo-
lacion polinomica).
Z b Z b Z b (n + 1
f (c)
f (x)dx = Pn (x)dx + (x x0 )(x x1 ) (x xn )dx
a a a (n + 1)!

4.1 Formulas de cuadratura


Si realizamos la interpolacion de Lagrange, y llamamos

z(x) = (x x0 )(x x1 ) (x xn ),

el polinomio de interpolacion es

Pn (x) = y0 L0 (x) + y1 L1 (x) + + yn Ln (x)

donde los polinomios de Lagrange Li (x) pueden expresarse (vease (3.1)) de la


forma
z(x)
Li (x) =
(x xi ) z 0 (xi )
Ademas,
Z b n Z
X b n
X Z b n
X
Pn (x) = yi Li (x)dx = yi Li (x)dx = ai y i
a i=0 a i=0 a i=0
Rb
donde los coeficientes ai = a
Li (x)dx no dependen de la funcion, sino solo del
soporte.
Ademas, si f (x) es un polinomio de grado no superior a n, f (x) P (x) = 0,
por lo que para polinomios es
Z b n
X
P (x)dx = ai P (xi )
a i=1

Por tanto:

P (x) = 1 = b a = a0 + a1 + + an

b2 a2


P (x) = x = = a0 x0 + a1 x1 + + an xn



2

....................................................... (4.1)

.......................................................




bn+1 an+1


P (x) = xn = = a0 xn0 + a1 xn1 + + an xnn


n+1
Formulas de cuadratura 173

sistema, que en forma matricial es



ba
1 1 1 a0 b 2 a2
x0 x1 x n a1

2
.. .. .. . . = ..


. . . .. .. .


n+1
x0 xn1
n
xnn an
a bn+1
n+1
admite solucion unica ya que el determinante de su matriz es un Vandermonde
y, por tanto, no nulo.

Una vez calculados los coeficientes ai se obtiene una formula de aproximacion


que solo dependera del soporte.
Para cada soporte, las formulas reciben el nombre de formulas de cuadratura.

Ejemplo 4.1 Vamos a integrar una funcion f (x) en [0, 1] considerando los
soportes:
S1 = {0, 1/3, 1/2} y S2 = { 1/4, 1/2, 3/4}.

a) En el soporte S1 = {0, 1/3, 1/2}


Z 1
f (x)dx ' a0 f (0) + a1 f ( 1/3) + a2 f ( 1/2)
0

El sistema a resolver es, en este caso:

P (x) = 1 = a0 + a1 + a2 = 1
1 1 1
P (x) = x = 0 a0 + a1 + a2 =
3 2 2
1 1 1
P (x) = x2 = 0 a0 + a1 + a2 =
9 4 3
cuya solucion es

1 3
a0 = a1 = a2 = 2
2 2
luego
Z 1
1 3
f (x)dx ' f (0) f ( 1/3) + 2f ( 1/2)
0 2 2
174 Integracion numerica

b) En el soporte S2 = { 1/4, 1/2, 3/4}


Z 1
f (x)dx ' b0 f ( 1/4) + b1 f ( 1/2) + b2 f ( 3/4)
0

El sistema a resolver es, en este caso:

P (x) = 1 = b0 + b1 + b2 = 1
1 1 3 1
P (x) = x = b0 + b1 + b2 =
4 2 4 2
1 1 9 1
P (x) = x2 = b0 + b1 + b2 =
16 4 16 3
cuya solucion es

2 1 2
b0 = b1 = b2 =
3 3 3
luego
Z 1
2 1 2
f (x)dx ' f ( 1/4) f ( 1/2) + f ( 3/4)
0 3 3 3 

4.2 Formulas de Newton-Cotes


Las formas mas generalizadas de aproximacion de la integral de una funcion
f (x) se realizan mediante uno de los dos procesos siguientes:

Dando un soporte (generalmente regular) y los valores de la funcion en


los puntos del soporte. Formulas de Newton-Cotes.

Dando diferentes soportes y buscando el polinomio P (x) que hace mas


Z b
pequena la integral (f (x) P (x))dx. Formulas de Gauss que no se
a
veran en este curso.

Calculo de los coeficientes de Newton-Cotes

Partamos del soporte regular {x0 , x1 , . . . , xn } con

x0 = a x1 = a + h xi = a + ih xn = a + nh = b
Formulas de Newton-Cotes 175

Si llamamos z(x) = (x x0 )(x x1 ) (x xn ) se tiene que los polinomios


de Lagrange son

(x x0 )(x x1 ) (x xn )
Li (x) = =
(x xi )(xi x0 ) (xi xi1 )(xi xin1 ) (xi xn )

(x a)(x a h) (x a nh)
= =
(x a ih) ih (i 1)h h (h) (2h) ((n i)h)

(x a)(x a h) (x a nh)
= =
(x a ih) i! (n i)! hn1 (1)ni
 x a  x a  x a 
1 n
=h h h h =
(x a ih) i! (n 1)! (1)ni
 x a  x a  x a 
1 n
=  xh a h h
i i! (n 1)! (1)ni
h

xa
Por lo que haciendo t = se tiene que
h
t(t 1) (t n)
Li (x) =
(t i) i! (n i)! (1)ni

Por tanto:
n n
t(t 1) (t n)
Z Z
ai = Li (x)dx = hdt =
0 0 (t i) i! (n i)! (1)ni
n
(1)ni h t(t 1) (t n)
Z
= dt =
i! (n i)! 0 ti
!
n
ni
i Z n
z(t)
ai = h(1) dt
n! 0 ti
que son los coeficientes de Newton-Cotes.

Proposicion 4.1 [Simetra de los coeficientes de Newton-Cotes]

Los coeficientes de Cotes verifican que ak = ank .


176 Integracion numerica

Demostracion.
!
n
k
nk Z
z(t) n
ank = h(1) dt
n! 0 t (n k)
Haciendo t n = u = dt = du se tiene que

!
n
k+1
nk Z n
(u + n)(u + n 1) (u)
ank = h(1) du =
n! 0 u + k
!
n
k+1+n+1
nk Z n
u(u 1) (u n)
= h(1) du =
n! 0 uk
!
n
n+k
k Z n
u(u 1) (u n)
= h(1) du =
(1)2k n! 0 uk
!
n
nk
k Z n
z(u)
= h(1) du = ak
n! 0 uk

Teniendo en cuanta la Proposicion 4.1, solo hay que calcular la mitad de los
coeficientes.

Teorema 4.2 [Error de aproximacion]

Al aplicar la formula de Newton-Cotes para un entero n, el error que se comete


viene dado por:

Si n es par:
n
n+3 (n + 2 Z
h f (c)
n = t t(t 1) (t n)dt
(n + 2)! 0

Si n es impar:
n+2 (n + 1 Z n
h f (c)
n = (t 1) (t n)dt
(n + 1)! 0
Formulas de Newton-Cotes 177

Las Formulas de Newton-Cotes en los casos n = 1 y n = 2 son conocidas como


Formula del trapecio y Formula de Simpson respectivamente.

4.2.1 Formula del trapecio


La formula de Newton-Cotes para el caso n = 1 solo tiene dos coeficientes, a0
y a1 .
Como por la Proposicion 4.1 es a0 = a1 y por las ecuaciones (4.1) es
ba
ao + a1 = b a = a0 = a1 =
2
por lo que
Z b
ba ba  f (a) + f (b) 
f (x)dx ' f (a) + f (b) = (b a)
a 2 2 2

El metodo del trapecio nos aproxima la integral por el area de la region plana
limitada por las rectas x = a, x = b, y = 0 y la recta que pasa por los puntos
(a, f (a)) y (b, f (b)), es decir, el area de un trapecio (ver Figura 4.1).

f (x)
f (b) !
!
!!!
!
!!!
!!
f (a) !

a b
Figura 4.1: Metodo del trapecio

El error de aproximacion viene dado (vease el Teorema 4.2) por

(b a)3 |f 00 (c)| (b a)3


= max |f 00 (x)|
12 12 x[a,b]
178 Integracion numerica

Ejemplo 4.2 Al aplicar la formula del trapecio a la integral


Z 2
ln x dx
1

obtenemos:
Z 2
ln 2 + ln 1 ln 2
ln x dx ' 1 = ' 0.34657359027997
1 2 2
El error vendra dado por
(b a)3

00 1 1 1 1
max |f (x)| = max 2 = 1= = 0.08333333333333
12 x[1,2] 12 x[1,2] x 12 12


4.2.2 Formula de Simpson


a+b
Para el caso n = 2 tenemos que x0 = a, x1 = y x2 = b.
2
!
n
n0
0 Z 2 t(t 1)(t 2) b a h t3 t2 i2 b a
a0 = h(1) dt = 3 + 2t =
n! 0 t0 4 3 2 0 6
ba
a2 = a0 =
6
ba 2(b a)
Dado que a0 + a1 + a2 = b a, se tiene que a1 = b a 2 = .
6 3
Se tiene, por tanto, que
Z b
ba 2(b a) a + b ba
f (x)dx ' f (a) + f( )+ f (b)
a 6 3 2 6
o, lo que es lo mismo:
Z b  
b ah a+b i
f (x)dx ' f (a) + 4f + f (b)
a 6 2

El error cometido en la aproximacion numerica de la integral vendra dado


(vease el Teorema 4.2) por
 5
ba
|f (v (c)|
2 (b a)5 (v (b a)5
= = |f (c)| max |f (v (x)|
90 2880 2880 x[a,b]
Formulas compuestas 179

Ejemplo 4.3 Para calcular la integral del Ejemplo 4.2 por el metodo de Simp-
son obtenemos
Z 2
1 3 1
ln x dx ' (ln 1 + 4 ln + ln 2) = (4 ln 3 3 ln 2) ' 0.38583460216543
1 6 2 6
y el error vendra dado por

(b a)5

(v
1 6 1
= max |f (x)| = max 4 = 6 = 0.00208333333333
2880 x[a,b] 2880 x[1,2] x 2880


4.3 Formulas compuestas

4.3.1 Simpson para n par


Descomponiendo el soporte en {x0 , x1 , x2 } {x2 , x3 , x4 } {xn2 , xn1 , xn }
se obtiene que

b
x2 x0 h
Z i
f (x)dx ' f (x0 ) + 4f (x1 ) + f (x2 ) +
a 6
x4 x2 h i
+ f (x2 ) + 4f (x3 ) + f (x4 ) + +
6
xn xn2 h i
+ f (xn2 ) + 4f (xn1 ) + f (xn ) =
6
hh
= f (x0 ) + 4f (x1 ) + 2f (x2 ) + 4f (x3 ) + 2f (4 ) + +
3 i
+ 2f (xn2 ) + 4f (xn1 ) + f (xn ) =

h    
= f (x0 ) + f (xn ) + 2 f (x2 ) + + f (xn2 ) +
3
 
+ 4 f (x3 ) + + f (xn1 )

Llamando
X X
E = f (x0 ) + f (xn ) P = f (xi ) I= f (xi )
i par impar
i 6= 0
i 6= n

se tiene que Z b
h
f (x)dx ' (E + 2P + 4I)
a 3
180 Integracion numerica

El error viene dado por


h5 (v h5 n
= |f (c1 ) + f (v (c2 ) + + f (v (c n2 )| max |f (v (x)| =
90 90 x[a,b] 2
(b a)5
max |f (v (x)|
180 n4 x[a,b]

Ejemplo 4.4 Volvamos a calcular la integral del Ejemplo 4.2 por la formula
compuesta de Simpson para n = 10.

E = ln 1 + ln 2 = ln 2 ' 0.69314718055995
P = ln 1.2 + ln 1.4 + ln 1.6 + ln 1.8 ' 1.57658408756302
I = ln 1.1 + ln 1.3 + ln 1.5 + ln 1.7 + ln 1.9 ' 1.93562168961455
por lo que
Z 2
1
ln x dx ' (0.69314718055995+21.57658408756302+41.93562168961455)
1 30
Z 2
ln x dx ' 0.38629340380481
1
con una cota de error de
(b a)5

1 6 1
4
(v
max |f (x)| = max 4 = 6 3.3334 106
180 n x[a,b] 1800000 x[1,2] x 1800000


4.3.2 Trapecios para n impar


Con un proceso analogo al anterior obtenemos que

Z b  
h     
f (x)dx ' f (x0 ) + f (x1 ) + f (x1 ) + f (x2 ) + + f (xn1 + f (xn )
a 2

b  
ba 
Z  
f (x)dx ' f (x0 ) + f (xn ) + 2 f (x1 ) + f (x2 ) + + f (xn1 )
a 2n

El error que se comete viene dado por


h3 00 h3
|f (c1 ) + f 00 (c2 ) + + f 00 (cn )| n max |f 00 (x)| =
12 12 x[a,b]
Ejercicios resueltos 181

(b a)3
2
max |f 00 (x)|
12 n x[a,b]

Ejemplo 4.5 Calculemos de nuevo la integral del Ejemplo 4.2 por la formula
compuesta de los trapecios para n = 5.
Z 2
1
ln x dx ' [(ln 1 + ln 2) + 2(ln 1.2 + ln 1.4 + ln 1.6 + ln 1.8)]
1 10

1
' 3.84631535568599 = 0.38463153556860
10
con una cota de error de
(b a)3

00 1 1
= 1 0.0034
2
max |f (x)| = max
12 n x[a,b] 300 x[1,2] x2 300


4.4 Ejercicios resueltos


Ejercicio 4.1 Probar que los coeficientes ak de las formulas de Newton-Cotes
verifican que
n
X (1)k ak
n
! = 0.
k=0 k

Solucion: Como la expresion de los coeficientes es


!
n Z n
nk k z(t)
ak = h(1) dt donde z(t) = t(t 1) (t n),
n! 0 t k
el sumatorio se transforma en
!
n n  n
n
(1)k ak (1)k
Z 
X X
nk k z(t)
! = ! h(1) dt =
k=0
n
k k=0
n
k
n! 0 t k
n h n n
(1)n (1)n n h X z(t) i
Z Z
X z(t) i
= h dt = h dt.
k=0
n! 0 tk n! 0 k=0
tk

Podemos ver que el integrando es precisamente z 0 (t)


n
X z(t) z(t) z(t) z(t) z(t)
= + + + + =
tk t t1 t2 tk
k=0
h i h i
= (t 1)(t 2) (t n) + + t(t 1) (t n + 1) = z 0 (t)
182 Integracion numerica

y, en consecuencia,
n n
(1)k ak (1)n (1)n h (1)n h
X Z in i
! =h z 0 (t)dt = h z(t) = h z(n) z(0) .
k=0
n
k
n! 0 n! 0 n!
n
X (1)k ak
Al ser z(n) = z(0) = 0, podemos asegurar que n
! = 0.
k=0 k

1
1 x2
Z
Ejercicio 4.2 Dada la integral dx se pide:
0 1 + x2

a) Calcularla exactamente.
b) Calcularla, aproximadamente, por la formula basica de Simpson.
c) Calcularla por la formula compuesta de Simpson de 11 sumandos.
d) Aplicar la siguiente formula:
Z 1
1h p p i
f (x) dx ' 5f ( 3/5) + 8f (0) + 5f ( 3/5)
1 9
comprobando que integra, exactamente, polinomios de grado 5.

Solucion:
Z 1 Z 1
1 x2 2  h i1
a) 2
dx = 1+ 2
dx = x + 2 arctg x = 1 +
0 1+x 0 1+x 0 2
Z 1
1 x2
2
dx = 1 + ' 2.57079632679490
0 1+x 2

b) La formula basica de Simpson (n = 2) establece que:


Z 1
hh i 10 1
f (x) dx ' f (0) + 4f (0.5) + f (1) donde h = = .
0 3 2 2
por lo que
Z 1
1 x2 1
2
dx ' (1 + 4 0.6 + 0) ' 0.56666666666667
0 1+x 6
con una cota de error
(b a)5 1 1
max |f (v (x)| = 48 = 0.00416666666667
2880 x[a,b] 2880 240
Ejercicios resueltos 183

c) La formula compuesta de Simpson de once sumandos (n = 10) es:


Z 1
h h i
f (x) dx ' f (0) + f (1) + 4 f (0.1) + f (0.3) + f (0.5) + f (0.7) + f (0.9) +
0 3
!
h i
+2 f (0.2) + f (0.4) + f (0.6) + f (0.8)

donde h = 1/10. En nuestro caso:

1
1 x2
Z
1
2
dx ' (1 + 11.44925864003328 + 4.67463056905495) =
0 1+x 30

1
1 x2
Z
dx ' 0.57079630696961
0 1 + x2
Con un error
(b a)5 1
max |f (v
(x)| = 48 2.6667 105
180 n4 x[a,b] 1800000

d) Aunque los lmites de la integral que nos piden son 0 y 1, al ser el


integrando una funcion par, podemos hacer:
Z 1
1 x2 1 1 1 x2
Z
2
dx = dx, por lo que puede aplicarse la formula.
0 1+x 2 1 1 + x2
p p 1 3/5 1
f (0) = 1 f ( 3/5) = f ( 3/5) = =
1 + 3/5 4
1
1 x2
Z
1 1 1 1 1 21 7
2
dx ' 5 + 8 1 + 5 = =
0 1+x 2 9 4 4 18 2 12
Z 1
1 x2
2
dx ' 0.58333333333333
0 1+x

Veamos. por ultimo, que la formula es exacta para polinomios de grado


no superior a cinco.

 k+1 1 2
Z 1
x 1 (1)k+1

si k es par,
xk dx = = = k+1
1 k + 1 1 k+1
0 si k es impar.
184 Integracion numerica

Por tanto:
Z 1 Z 1 Z 1
2
1 dx = 2 x dx = 0 x2 dx =
1 1 1 3
Z 1 Z 1 Z 1
3 4 2
x dx = 0 x dx = x5 dx = 0
1 1 5 1

La suma de cuadratura (formula a aplicar) para estas funciones es:


1
f (x) = 1; S = (5 1 + 8 1 + 5 1) = 2
9
1h p p i
f (x) = x; S = 5 ( 3/5) + 8 0 + 5 ( 3/5) = 0
9
1 3 3 2
f (x) = x2 ; S = (5 + 8 0 + 5 ) =
9 5 5 3
1 h p p i
f (x) = x3 ; S = 5 ( 3/5)3 + 8 0 + 5 ( 3/5)3 = 0
9
1 9 9 2
f (x) = x4 ; S = (5 +80+5 )=
9 25 25 5
1 h p p i
f (x) = x5 ; S = 5 ( 3/5)5 + 8 0 + 5 ( 3/5)5 = 0
9
Al ser exacta para las funciones 1, x, x2 , x3 , x4 y x5 , tambien lo es para
cualquier combinacion lineal de ellas y, por tanto, la formula integra,
exactamente, cualquier polinomio de grado no superior a cinco.

Es facil observar que:


Z 1
2
x6 dx =
1 7
1 27 27  1 54 6 2
S= 5 +80+5 = = 6 =
9 125 185 9 25 25 7
6
Por lo que la funcion no integra, exactamente, a x y, por tanto, a poli-
nomios de grado superior a cinco.

Ejercicio 4.3 Probar que la formula compuesta de los trapecios para el in-
tervalo [0, 2]:
Z 2
h
f (x) dx = [f (0) + 2f (h) + 2f (2h) + + 2f ((n 1)h) + f (2)] +
0 2
(h = 2/n) integra, exactamente, las funciones:
1, sin x, cos x, sin 2x, cos 2x, . . . , sin(n 1)x, cos(n 1)x.
Ejercicios resueltos 185

Solucion: Observemos, en primer lugar, que:


Z 2
Ik = sin kx dx = 0 para k = 0, 1, . . .
0

Z 2 0 para k = 1, 2, . . .
Jk = cos kx dx =
0 2 para k = 0

La formula de los trapecios es:


hh i
Tn = f (0) + 2f (h) + 2f (2h) + + 2f ((n 1)h) + f (2)
2
Pero al ser f (2) = f (0) podemos escribir:
n1
hh i X
Tn = 2f (0) + 2f (h) + + 2f ((n 1)h) = h f (jh) =
2 j=0

n1
2 X 2j
Tn = f( )
n j=0 n
Estudiemos el sumatorio para f (x) = eikx .
n1 n1
X 2j X 2jk
eik n = ei n

j=0 j=0
2k
Se trata de una suma geometrica de razon r = ei n . Para r = 1

cos 2k
n
= 1 2k
= 0, 2, 4, . . . k = 0, n, 2n, . . .
2k
sin n = 0 n

Por tanto, si 0 < k < n se tiene que:


n1 2nk
X
ik 2j ei n 1 11
e n = = = 0.
i 2k i 2k
j=0 e n 1 e n 1
n1
X 2j 2n
Si k = 0 es eik n = n por lo que Tn (eikn ) = = 2. Por tanto:
j=0
n
h i
Tn (sin x) = Img Tn (eikx ) = 0 para k = 0, 1, 2, . . .

h i 0 para k = 1, 2, . . . , n 1
Tn (cos x) = Re Tn (eikx ) =
2 para k = 0

que coinciden con los valores de las integrales.


186 Integracion numerica

4.5 Ejercicios propuestos


Ejercicio 4.4 Se considera el soporte {1, c, 1} donde c (1, 1) es fijo.
Sea f (x) C[1, 1]

a) Obtener el polinomio de interpolacion de f (x) acotando del error.


f (1)(1 c) 2f (c) + f (1)(1 + c) 2
Sol : P2 (x) = x
2(1 c2 )
f (1) f (1) f (1)(c c2 ) + 2f (c) f (1)(c + c2 )
x+ .
2 2(1 c2 )
|x + 1||x c||x 1|
(x) max |f 000 ()|
6 [1,1]

b) Determinar los coeficientes a0 , a1 , a2 en la formula de cuadratura


Z 1
f (x) dx ' a0 f (1) + a1 f (c) + a2 f (1)
1

para que integre, exactamente, polinomios del mayor grado posible.


Z 1
1 + 3c 4 1 3c
Sol : f (x) dx ' f (1) + 2
f (c) + f (1).
1 3(1 + c) 3(1 c ) 3(1 c)

c) Dar una condicion, necesaria y suficiente, para que dicha formula sea
exacta para polinomios de tercer grado.

Sol : c = 0.
r
5x + 13
d) Aplicar la formula a f (x) = con c = 0.1 y comparar con el
2
valor exacto.

Sol : Aplicando la formula 5.06474910, el valor exacto 76/15 ' 5.06666666,


el error 0.0019176.

Z 1
Ejercicio 4.5 Calcular f (x) ln x dx interpolando f (x), por un polinomio
0
de tercer grado, en el soporte {0, 1/3, 2/3, 1} y aplicar el resultado al calculo de
Z 1
sen x ln x dx.
0 Z 1
1
Ayuda: xm ln x dx = (m 0).
0 (m + 1)2
Ejercicios propuestos 187

Z
1
1h 1 1 i
'


f (x) ln x dx 11f (0) + 19f ( ) + f ( ) + f (1)

0 32 3 3
Sol : Z 1

sin x ln x dx ' 0.239891875.



0

Ejercicio 4.6 Determinar el numero de sumandos necesarios, en las formulas


compuestas de los trapecios y Simpson, para calcular, con seis cifras decimales
exactas, las siguientes integrales:
Z 2
a) ln x dx Sol : Trapecios 289, Simpson 14
1
3
ex
Z
b) dx Sol : Trapecios 652, Simpson 20
2 x
Z 1
Ejercicio 4.7 Se considera la integral ex (4 x) dx :
0

a) Calcularla exactamente (se supone conocido el numero e).

Sol : 4e 5 ' 5.873127.


b) Determinar el numero mnimo de sumandos necesarios, en la formula
compuesta de Simpson, para que el error de discretizacion sea menor
que 10m con m = 2, 3, 4, 5 y 6.

m 2 3 4 5 6
Sol :
n 2 2 4 8 12
c) Calcular la integral, por la formula compuesta de Simpson, con cuatro
cifras decimales exactas.

Sol : 5.8731

Ejercicio 4.8 El recinto de la figura adjunta, que se encuentra inmerso en


una cuadrcula, esta limitado por una recta y una curva de la que se conoce
que se trata de un polinomio de cuarto grado.
188 Integracion numerica

a) Calcular el area exacta del recinto sin determinar el polinomio que la


delimita.

Sol : 328/45.

b) Determinar, por el metodo de las diferencias divididas, el polinomio que


la delimita y comprobar que el area calculada en el apartado anterior
coincide con la que se obtiene por integracion directa del polinomio.
1 4 13 2
Sol : P (x) = x x + 3.
12 12
Bibliografa

[1] Ledanois, J.M., Lopez, A y Pimentel, J. Metodos Numericos Aplicados a


la Ingeniera. Ed. McGraw Hill.

[2] Burden, R. y Douglas Faires, J. Metodos Numericos (3 edicion). Ed.


Thomson - Paraninfo.

[3] Demidovich, B.P. y Maron, I.A. Calculo Numerico Fundamental. Ed.


VAAP. 1977.

[4] Froberg, C.E. Introduccion al Analisis Numerico. Ed. Vicens Vives. 1977.

[5] Kincaid, D. y Cheney, W. Analisis Numerico. Ed. Addison-Wesley Ibe-


roamericana. 1994.

[6] Mathews, J.H. y Fink, K.D. Metodos Numericos con MATLAB. (Tercera
edicion). Prentice Hall. 1999.

189

También podría gustarte