Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Álgebra Numérica
Álgebra Numérica
DE INGENIERIA INFORMATICA
Apuntes de
ALGEBRA
NUMERICA
para la titulaci
on de
INGENIERIA INFORMATICA
Curso 2003-2004
por
Fco. Javier Cobos Gavala
DEPARTAMENTO DE
MATEMATICA
APLICADA I
Contenido
1 Ecuaciones no lineales
1.1
1.2
1.2.1
Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1
12
1.4.1
Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.4.2
16
1.4.3
18
20
1.5.1
Sucesiones de Sturm . . . . . . . . . . . . . . . . . . .
24
1.5.2
Algoritmo de Horner . . . . . . . . . . . . . . . . . . .
27
29
1.6.1
Metodo de Newton . . . . . . . . . . . . . . . . . . . .
31
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .
34
1.3
1.4
1.5
1.6
1.7
41
41
2.1.1
Normas vectoriales . . . . . . . . . . . . . . . . . . . .
41
2.1.2
42
2.1.3
43
ii
Contenido
2.1.4
Normas matriciales . . . . . . . . . . . . . . . . . . . .
43
2.1.5
Transformaciones unitarias . . . . . . . . . . . . . . . .
46
2.1.6
Radio espectral . . . . . . . . . . . . . . . . . . . . . .
47
50
2.2.1
N
umero de condicion . . . . . . . . . . . . . . . . . . .
52
2.3
Factorizacion LU . . . . . . . . . . . . . . . . . . . . . . . . .
58
2.4
Factorizacion de Cholesky . . . . . . . . . . . . . . . . . . . .
62
2.5
Metodos iterados . . . . . . . . . . . . . . . . . . . . . . . . .
65
2.5.1
Metodo de Jacobi . . . . . . . . . . . . . . . . . . . . .
70
2.5.2
Metodo de Gauss-Seidel . . . . . . . . . . . . . . . . .
70
2.5.3
71
2.2
2.6
2.7
71
2.6.1
73
2.6.2
74
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .
75
79
3.1
Factorizaciones ortogonales . . . . . . . . . . . . . . . . . . . .
79
3.2
79
3.3
Rotaciones y reflexiones . . . . . . . . . . . . . . . . . . . . .
81
3.4
Transformaciones de Householder . . . . . . . . . . . . . . . .
82
3.4.1
Interpretacion geometrica en Rn . . . . . . . . . . . . .
83
3.4.2
Householder en Cn . . . . . . . . . . . . . . . . . . . .
84
3.4.3
Factorizacion QR de Householder . . . . . . . . . . . .
86
3.5
3.6
94
3.7
Pseudoinversa de Penrose . . . . . . . . . . . . . . . .
97
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .
99
Contenido
iii
4 Autovalores y autovectores
113
4.1
Conceptos basicos . . . . . . . . . . . . . . . . . . . . . . . . .
113
4.2
115
116
4.3
4.4
Cociente de Rayleigh . . . . . . . . . . . . . . . . . . .
122
4.4.2
123
4.4.3
Algoritmo QR de Francis . . . . . . . . . . . . . . . . .
128
4.4.4
132
4.5
136
4.6
138
4.7
140
4.8
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .
140
Indice
152
Bibliografa
157
1. Ecuaciones no lineales
Dada una funcion no nula f : C C, resolver la ecuacion f (x) = 0 es hallar
los valores x que anulan a dicha funcion. A estos valores x se les denomina
races o soluciones de la ecuacion, o tambien, ceros de la funcion f (x).
Los metodos de resolucion de ecuaciones y sistemas de ecuaciones se clasifican
en directos e iterados . Los del primer grupo nos proporcionan la solucion mediante un n
umero finito de operaciones elementales, mientras que los iterados
producen una sucesion convergente a la solucion del problema.
Un ejemplo de metodo directo es la conocida formula de resolucion de las
ecuaciones de segundo grado ax2 + bx + c = 0, cuyas soluciones vienen dadas
por la formula
b b2 4ac
x=
2a
Sin embargo, el siglo pasado Abel probo que no existe ninguna formula equivalente (en termino de races) para resolver ecuaciones de grado superior a
cuatro. Ademas, si la ecuacion no es polinomica no podemos resolverla mas
que mediante metodos iterados que, incluso en el caso de las polinomicas de
grado no superior a cuatro, son mas eficientes.
Definici
on 1.1 Una solucion x de la ecuacion f (x) = 0 se dice que tiene
multiplicidad n si
f (x) = f 0 (x) = f 00 (x) = = f (n1 (x) = 0
f (n (x) 6= 0
Ecuaciones no lineales
1.1
1
|f 0 (x)|
|f (x) f (x)|
Ecuaciones no lineales
1.2
M
etodo y algoritmo de la bisecci
on: an
alisis de errores
a+b
ba
y =
.
2
2
a+b
ba
y =
.
2
2
c)
El error cometido, tomando como raz de la ecuacion el punto medio del inba
tervalo obtenido en la en la iteracion n-esima, viene dado por n = n , por
2
1
3
lo que si b a = 1 y n = 10 se tiene que 10 < 10 < 10 , es decir, en 10
2
iteraciones obtenemos tres cifras decimales exactas.
1.2.1
Algoritmo
Para i = 1, 2, . . . , n, . . ., Ii = [ai , bi ] y mi =
intervalo Ii ) con
I1 = [a, b]
Ii+1 =
ai + b i
2
o bien
Ecuaciones no lineales
f (b)
(c,s0)
X
O
f (a)
s
(a, f (a))
Figura 1.1: Metodo de la r
egula f alsi.
f (b) f (a)
0 f (b)
=
ba
cb
Seg
un se utilicen los puntos (a, f (a)) y (b, f (b)) o (c, 0) y (b, f (b)) respectivamente.
ba
f (b) f (a)
ba
f (b) f (a)
if f (c) = 0
ac
bc
end if
if signf (a) = signf (c)
ac
end if
if signf (b) = signf (c)
bc
end if
end
print c
Aplicando el algoritmo al Ejemplo 1.1 obtenemos la raz de 3, con 14 cifras
decimales exactas, en solo 14 iteraciones frente a las 47 necesarias mediante el
metodo de la biseccion.
Ecuaciones no lineales
1.3
Ya se comento que los metodos iterados consisten en crear una sucesion convergente a la solucion del problema.
Una funcion f : R R se dice contractiva si verifica que
|f (x1 ) f (x2 )| < |x1 x2 |
x 1 , x2 R
|x2 x1 | q |x1 x0 |
|x3 x2 | q |x2 x1 | q 2 |x1 x0 |
...................................
|xn+1 xn | q n |x1 x0 |
Si construimos la serie
x0 + (x1 x0 ) + (x2 x1 ) + + (xn+1 xn ) +
observamos que la suma parcial Sn+1 = xn y que la serie es absolutamente convergente por estar acotados sus terminos, en valor absoluto, por los terminos
de una serie geometrica de razon q < 1.
Sea x la suma de la serie. Entonces x = lim Sn+1 = lim xn , es decir, la
sucesion x0 , x1 , . . . , xn , . . . converge a x.
El valor obtenido x es solucion de la ecuacion, ya que por la continuidad de
la funcion (x) se verifica que
x = lim xn = lim (xn1 ) = (lim xn1 ) = (x)
Ademas, es la u
nica solucion de la ecuacion en el intervalo [a, b], ya que de
existir otra x0 se tendra que
x x0 = (x) (x0 ) = (x x0 )0 (c)
con
c (x, x0 )
por lo que
(x x0 )(1 0 (c)) = 0
y dado que el segundo parentesis es no nulo, se tiene que x = x0 .
En la Figura 1.2 puede observarse que el metodo converge si |0 (x)| q < 1,
mientras que si |0 (x)| > 1 el metodo es divergente.
En los casos (a) y (b), en los que |0 (x)| q < 1 el metodo converge
monotonamente en (a) y de forma oscilatoria o en espiral en (b).
En los casos (c) y (d), en los que |0 (x)| > 1 el metodo diverge de forma
monotona en (a) y de forma oscilatoria en (b).
1.3.1
10
Ecuaciones no lineales
(a)
(b)
x0
x0
(c)
(d)
x0
x0
|f (c)|
x
|f (xn )|
|f (xn )|
0
n |f (x)|
mn |f 0 (x)|
nm
(x, xn )
(xn , x)
f (xn )
, obteniendose:
f 0 (c)
con
(x, xn )
(xn , x)
(a, b)
x(a,b)
Lo u
nico que debemos exigir es que la derivada de la funcion no se anule en
ning
un punto del intervalo (a, b).
Ejemplo 1.2 El calculo de la raz cuadrada de 3 equivale al calculo de la raz
positiva de la ecuacion x2 = 3. Aunque mas adelante veremos metodos cuya
convergencia es mas rapida, vamos a realizar los siguientes cambios:
3+x
x2 = 3 = x + x2 = x + 3 = x(1 + x) = 3 + x = x =
1+x
11
2
2
1
2 = <1
2
(1 + x)
2
2
|0 (x)| =
para cualquier
x [1, 2]
=
=
=
=
=
=
=
=
=
=
=
=
=
2
1.66666666666667
1.75000000000000
1.72727272727273
1.73333333333333
1.73170731707317
1.73214285714286
1.73202614379085
1.73205741626794
1.73204903677758
1.73205128205128
1.73205068043172
1.73205084163518
x14
x15
x16
x17
x18
x19
x20
x21
x22
x23
x24
x25
x26
=
=
=
=
=
=
=
=
=
=
=
=
=
1.73205079844084
1.73205081001473
1.73205080691351
1.73205080774448
1.73205080752182
1.73205080758148
1.73205080756550
1.73205080756978
1.73205080756863
1.73205080756894
1.73205080756886
1.73205080756888
1.73205080756888
|f (xn )|
donde f (x) = x2 3, por lo que
mn |f 0 (x)|
x[1,2]
26 <
es decir,
|x226 3|
= 4.884981308350688 1015 < 1014
2
12
1.4
Ecuaciones no lineales
An
alisis del m
etodo de Newton-Raphson
f (xn )
f 0 (xn )
por lo que
x ' xn
f (xn )
f 0 (xn )
f (xn )
f 0 (xn )
(1.1)
f (lim xn )
f (lim xn ) = 0
f 0 (lim xn )
13
x!
!
x2
x1
x0
n+1 = x xn+1
f (xn )
= x xn 0
f (xn )
= (x xn ) +
f (xn )
f (xn )
= n + 0
0
f (xn )
f (xn )
(x, xn ) si x < xn
f (t) 2
n con t
2!
(xn , x) si x > xn
00
Supuesto que f 0 (xn ) 6= 0 podemos dividir por dicha derivada para obtener
0=
f (xn )
f 00 (t) 2
f 00 (t) 2
+
n
n+1
f 0 (xn )
2f 0 (xn ) n
2f 0 (xn ) n
por lo que
|n+1 | =
|f 00 (t)| 2
k 2n
2 |f 0 (xn )| n
(1.2)
|f 00 (x)|
siendo [a, b] cualquier intervalo, en caso de existir,
x[a,b] 2|f 0 (x)|
que contenga a la solucion x y a todas las aproximaciones xn .
donde k max
max |f 00 (x)|
2 mn |f 0 (x)|
con
x [a, b] y f 0 (x) 6= 0
14
Ecuaciones no lineales
n+1
o lo que es lo mismo:
n
1
|k 0 |2
k
donde es necesario saber acotar el valor de 0 = x x0 .
|n |
1.4.1
Algoritmo
Una vez realizado un estudio previo para ver que se cumplen las condiciones
que requiere el metodo, establecer el valor inicial x0 y calcular el valor de
m = mn |f 0 (x)|, el algoritmo es el siguiente
x[a,b]
Input: a, b, x0 , , f (x), m
Output: x
x x0
e abs( f(x)/m)
while e >
f (x)
f 0 (x)
e abs( f(x)/m)
xx
end
print x
Ejemplo 1.3 En el Ejemplo 1.2 calculamos la raz de 3 con 14 cifras decimales
exactas en 26 iteraciones. Vamos a ver como se disminuye considerablemente
el n
umero de iteraciones cuando se utiliza la formula de Newton-Raphson.
15
Partimos de la ecuacion f (x) = x2 3 = 0, por lo que la formula de NewtonRaphson nos dice que
3
1
xn+1 =
xn +
2
xn
Dado que la raz de 3 es un n
umero comprendido entre 1 y 2 y la funcion
f (x) = 2x no se anula en dicho intervalo, podemos aplicar el metodo de
Newton tomando como valor inicial x0 = 2. (Mas adelante veremos porque
debemos tomar 2 como valor inicial), obteniendose:
0
x0
x1
x2
x3
x4
=2
= 1.75000000000000
= 1.73214285714286
= 1.73205081001473
= 1.73205080756888
|f (xn )|
,
mn |f 0 (x)|
x[1,2]
por lo que
4 <
es decir,
|x24 3|
= 4.884981308350688 1015 < 1014
2
1
A
Nota: La formula xn+1 =
xn +
es conocida como formula de Heron
2
xn
ya que este matematico la utilizaba para aproximar la raz cuadrada de un
n
umero real positivo A hacia el a
no 100 a.C. pues saba que si tomaba un
valor inicial x0 y este fuese mayor que la raz buscada, necesariamente A/x0
sera menor que su raz y viceversa, por lo que la media entre ambos deba ser
una mejor aproximacion que x0 . En otras palabras, en cada iteracion tomaba
como aproximacion de la raz la media aritmetica entre el valor xn anterior y
el cociente A/xn .
Puede observarse como la convergencia del metodo de Newton-Raphson es
mucho mas rapida que la del metodo de la biseccion y que el de la regula falsi,
ya que solo hemos necesitado 5 iteraciones frente a las 47 que se necesitan en
el metodo de la biseccion o las 14 del metodo de la regula falsi.
16
Ecuaciones no lineales
1.4.2
An
alisis de la convergencia: Regla de Fourier
Hay que tener en cuenta que la naturaleza de la funcion puede originar dificultades, llegando incluso a hacer que el metodo no converja.
Ejemplo 1.4 Tratemos de determinar, por el metodo de Newton-Raphson, la
raz positiva de la funcion f (x) = x10 1, tomando como valor inicial x0 = 0.5.
La formula de Newton-Raphson es, en este caso,
xn+1
x10
1
= xn n 9 .
10xn
x20
x30
x40
x41
x42
x43
= 6.97714912329906
= 2.43280139954230
= 1.00231602417741
= 1.00002393429084
= 1.00000000257760
=1
b
b
b
r
b
x0
17
c) Un valor inicial cercano a una raz puede converger a otra raz muy
distante de la anterior como consecuencia de encontrarse pendientes
cercanas a cero. Una pendiente nula provoca una division por cero
(geometricamente, una tangente horizontal que jamas corta al eje de
abscisas).
#
#
@ #
I
#
@
r
x0
Z
Z
r Z
x0
18
Ecuaciones no lineales
a
b
f 0 (x) > 0
f 00 (x) < 0
x0 = a
f 0 (x) > 0
f 00 (x) > 0
x0 = b
f 0 (x) < 0
f 00 (x) > 0
x0 = a
f 0 (x) < 0
f 00 (x) < 0
x0 = b
1.4.3
M
etodo de Newton para races m
ultiples
f (xn )
f 0 (xn )
19
Ejemplo 1.5 Para resolver la ecuacion x sen x = 0 comenzamos por expresarla de la forma x = sen x, por lo que las soluciones seran los puntos de
interseccion de la curva y = sen x con y = x (Fig.1.5).
6
y=x
y = sen x
-1
sen xn xn cos xn
xn sen xn
=
1 cos xn
1 cos xn
f 00 (x10 ) = 00 016 . . .
x10 = 00 016822799 . . .
000
f (x10 ) = 00 9998 . . .
.....................
0
f (x20 ) = 00 00000001 . . .
f 00 (x20 ) = 00 0019 . . .
x20 = 00 0000194 . . .
000
f (x20 ) = 00 9999 . . .
Como la convergencia es muy lenta, hace pensar que se trata de una raz
m
ultiple. Ademas, como la primera y la segunda derivadas tienden a cero y
la tercera lo hace a 1, parece que nos encontramos ante una raz triple, por lo
que aplicamos el metodo generalizado de Newton.
xn+1 = xn 3
xn sen xn
1 cos xn
20
Ecuaciones no lineales
=1
= 00 034 . . .
= 00 000001376 . . .
= 00 00000000000009 . . .
00
00
f (x) = sen x = f (x) = 0
= se trata de una raz triple.
1.5
21
i = 1, 2, . . . , k
P (x)
= a0 (x x1 )(x x2 ) (x xk )
D(x)
Es decir, hemos encontrado un polinomio cuyas races son las mismas que las
de P (x) pero todas ellas simples.
Si ya conocemos que una ecuacion solo tiene races simples y queremos calcularlas, parece apropiado que un primer paso consista en detectar donde pueden
encontrarse. As por ejemplo, si son reales, determinar intervalos de una amplitud reducida en los que se encuentren las races de la ecuacion.
Definici
on 1.2 Dada una ecuacion f (x) = 0
(en general compleja) se denomina acotar las
races a buscar dos n
umeros reales positivos r
y R tales que r |x| R para cualquier raz
x de la ecuacion.
Geometricamente consiste en determinar una
corona circular de radios r y R dentro de la
cual se encuentran todas las races.
En el caso real se reduce a los intervalos
(R, r) y (r, R).
Veamos, a continuacion, una cota para las races de una ecuacion algebraica.
22
Ecuaciones no lineales
Proposici
on 1.5 Si x es una raz de la ecuaci
on
P (x) = a0 xn + a1 xn1 + + an1 x + an = 0
se verifica que:
|x| < 1 +
A
|a0 |
siendo
A = m
ax |ai |
i1
Demostraci
on. Sea P (x) = a0 xn + a1 xn1 + + an1 x + an . Tomando
modulos tenemos
|P (x)| = |a0 xn + a1 xn1 + + an1 x + an |
|a0 xn | |a1 xn1 + + an1 x + an |
h
i
n
n1
|a0 x | |a1 x | + + |an1 x| + |an | =
h
i
= |a0 xn | |a1 | |x|n1 + + |an1 | |x| + |an |
|a0 xn | A |x|n1 + + |x| + 1
(Para considerar el u
ltimo parentesis como una progresion geometrica habra
que a
nadir los terminos que, probablemente, falten en P (x) y suponer que,
ademas, es |x| =
6 1).
|P (x)| |a0 | |x|n A
|x|n 1
|x| 1
Dado que el teorema es trivial para |x| < 1, supondremos que |x| > 1 y
entonces:
A
|x|n
n
n
|P (x)| > |a0 | |x| A
= |x| |a0 |
|x| 1
|x| 1
Como la expresion anterior es cierta para cualquier |x| > 1, sea |x| > 1 con
P (x) = 0. Entonces
A
A
n
0 > |x| |a0 |
= |a0 |
< 0 =
|x| 1
|x| 1
A
A
|a0 | <
= |x| 1 <
=
|x| 1
|a0 |
|x| < 1 +
A
|a0 |
con
|x| > 1
Es evidente que esta cota tambien la verifican las races x con |x| < 1.
23
Proposici
on 1.6 [Regla de Laguerre] Consideremos la ecuaci
on
P (x) = a0 xn + a1 xn1 + + an1 x + an = 0
Sean C(x) = b0 xn1 + + bn2 x + bn1 el cociente y r el resto de la divisi
on
de P (x) entre x c. Si r 0 y bi 0 para 0 i n 1, el n
umero real c es
una cota superior para las races positivas de la ecuaci
on. (Trivialmente lo es
tambien para las races negativas).
El procedimiento consiste en comenzar con la cota obtenida anteriormente
(que no suelen ser muy buena) e ir disminuyendola hasta afinarla todo lo que
podamos.
Ejemplo 1.6 Consideremos la ecuacion 2x4 9x3 x2 + 24x + 12 = 0.
Sabemos que
|x| < 1 +
24
A
= 13
siendo A = max |ai | = |x| < 1 +
i1
2
|a0 |
por lo que cualquier raz real del polinomio debe estar en el intervalo (13, 13).
Aplicando la regla de Laguerre obtenemos:
4
2 9 1
24 12
8 4 20 16
2 1 5
4 28
2 9 1 24 12
5
10
5 20 240
2
1
4 48 252
Dado que para x = 4 se obtienen valores negativos no podemos garantizar que
4 sea una cota superior para las races positivas de la ecuacion, pero para x = 5
todos los valores obtenidos han sido positivos, por lo que podemos garantizar
que las races reales de la ecuacion se encuentran en el intervalo (13, 5).
No debemos confundir el hecho de que la regla de Laguerre no nos garantice
que 4 sea una cota superior de las races positivas y 5 s lo sea, con que la
ecuacion deba tener alguna raz en el intervalo (4, 5). En otras palabras, 4
puede ser una cota superior para las races positivas de la ecuacion aunque la
regla de Laguerre no lo garantice. De hecho, la mayor de las races positivas
de nuestra ecuacion es x = 30 56155281280883 . . . < 4.
24
Ecuaciones no lineales
1.5.1
Sucesiones de Sturm
Teorema 1.7 [Teorema de Sturm]. Sea f0 (x), f1 (x), . . . , fn (x) una sucesi
on
de Sturm en el intervalo [a, b] y consideremos las sucesiones
sig[f0 (a)] sig[f1 (a)] sig[fn (a)]
sig[f0 (b)] sig[f1 (b)] sig[fn (b)]
teniendo en cuenta que si alguna de las funciones se anula en uno de los
extremos del intervalo [a, b] pondremos en su lugar, indistintamente, signo +
o - y denotemos por N1 al n
umero de cambios de signo de la primera sucesi
on
y por N2 al de la segunda (siempre es N1 N2 ).
En estas condiciones, el n
umero de races reales existentes en el intervalo
[a, b] de la ecuacion f0 (x) = 0 viene dado por N1 N2 .
La construccion de una sucesion de Sturm es, en general, complicada. Sin
embargo, cuando se trabaja con funciones polinomicas, el problema es mucho
25
mas simple ademas de que siempre es posible construir una sucesion de Sturm
valida para cualquier intervalo.
Dada la ecuacion algebraica Pn (x) = 0, partimos de
f0 (x) = Pn (x)
Para determinar las demas funciones de la sucesion vamos dividiendo fi1 (x)
entre fi (x) para obtener
fi1 (x) = ci (x) fi (c) + ri (x)
donde ri (x) tiene grado inferior al de fi (x) y hacemos
fi+1 (x) = ri (x)
Como el grado de fi (x) va decreciendo, el proceso es finito. Si se llega a un
resto nulo (el proceso que estamos realizando es precisamente el del algoritmo
de Euclides) la ecuacion posee races m
ultiples y se obtiene el maximo com
un
divisor D(x) de Pn (x) y Pn0 (x). Dividiendo Pn (x) entre D(x) obtenemos una
nueva ecuacion que solo posee races simples. La sucesion fi (x)/D(x) es una
sucesion de Sturm para la ecuacion P (x)/D(x) = Q(x) = 0 que posee las
mismas races que P (x) = 0 pero todas simples.
Si llegamos a un resto constante, no nulo, es este quien nos determina la
finalizacion del proceso. Hemos obtenido, de esta manera, una sucesion de
Sturm valida para cualquier intervalo [a, b].
Nota: Observese que, al igual que en el algoritmo de Euclides, podemos ir
multiplicando los resultados parciales de las divisiones por cualquier constante
positiva no nula, ya que solo nos interesa el resto (salvo constantes positivas)
de la division.
Ejemplo 1.7 Vamos a construir una sucesion de Sturm que nos permita separar las races de la ecuacion x4 + 2x3 3x2 4x 1 = 0.
f0 (x) = x4 + 2x3 3x2 4x 1.
|2x3 + 3x2 3x 2
x+1
multiplicando por 2
26
Ecuaciones no lineales
f2 (x) = 9x2 + 9x + 2.
18x3 + 27x2 27x 18
18x3 18x2 4x
9x2 31x 18
9x2 9x 2
40x 20
|9x2 + 9x + 2
2x + 1
f3 (x) = 2x + 1.
18x2 + 18x + 4
18x2 9x
9x + 4
18x + 8
18x 9
1
|2x + 1
9x + 9
multiplicando por 2
f4 (x) = 1.
3 2 1 0
2 +
f2 (x) = 9x2 + 9x + 2
+ + +
f3 (x) = 2x + 1
+ + +
f4 (x) = 1
+ + +
cambios de signo
Sabemos, por ello, que existe una raz en el intervalo (3, 2), dos races en
el intervalo (1, 0) y una cuarta raz en el intervalo (1, 2).
Como f0 (1) = 1 < 0, f0 (00 5) = 00 0625 > 0 y f0 (0) = 1 < 0 podemos
separar las races existentes en el intervalo (1, 0) y decir que las cuatro races
de la ecuacion dada se encuentran en los intervalos
(3 2)
(1, 00 5)
(00 5, 0)
(1, 2)
27
1.5.2
Algoritmo de Horner
rR
y
P (x) = (x x0 )Q(x) + r con
28
Ecuaciones no lineales
Una regla u
til para hacer los calculos a mano es la conocida regla de Ruffini
que consiste en disponer las operaciones como se indica a continuacion.
a0
a1
a2
an1
an
x0 b0 x0 b1 x0 bn2 x0 bn1
x0
b0
b1
b2
bn1
P (x0 )
Q(x0 ) = P 0 (x0 ).
donde
Si utilizamos la regla de Ruffini solo tenemos que volver a dividir por x0 como
se muestra a continuacion.
a0
a1
a2
an2
an1
an
x0
b0
b1
b2
bn2
bn1
P (x0 )
x0 c0 x0 c1 x0 cn3 x0 cn2
x0
c0
c1
c2
cn2
P 0 (x0 )
1 3
10
14
36
18
31
18
50
25
68
por lo que
P (2) = 31
P 0 (2) = 68
29
1.6
)
(1.3)
f1 (x) = x2 2x y + 00 5
f (x) = x2 + 4y 2 + 4
2
Como hemos transformado nuestro sistema en una ecuacion del tipo f (x) = 0,
parece logico que tratemos de resolverla por alg
un metodo paralelo a los estudiados para ecuaciones no lineales como puedan ser la utilizacion del teorema
del punto fijo o el metodo de Newton.
Si buscamos un metodo iterado basado en el teorema del punto fijo, debemos escribir la ecuacion f (x) = 0 de la forma x = F (x) (proceso que puede
30
Ecuaciones no lineales
n)
x2 = F2 (x1 , x2 , . . . , xm )
n+1
n
n
n
xn+1 = F (xn )
.
..
m
xn+1 = Fm (x1n , x2n , . . . , xm
n)
En el ejemplo (1.3) podemos hacer
x2 2x y + 00 5 = 0 = 2x = x2 y + 00 5 = x =
x2 y + 00 5
2
x2 + 4y 2 4 = 0 = x2 + 4y 2 + y 4 = y = y = x2 + 4y 2 + y 4
es decir,
x = F (x)
con
x = (x, y)T
2
0
F (x) = ( x y + 0 5 , x2 + 4y 2 + y 4)T
2
31
b) Se ha utilizado una version del teorema del valor medio para varias variables al decir que
kF (x) F (xn )k kF 0 ()kk(x xn )k
c) Se ha utilizado el concepto de norma matricial al hacer uso de kF 0 ()k
ya que F 0 (x) es la matriz jacobiana de la funcion F , es decir
F1
F1
x1
xm
..
..
...
0
.
F (x) = .
F
Fm
m
x1
xm
d) Se supone que kF 0 ()(x xn )k kF 0 ()k kx xn k o de forma mas
general, que para cualquier matriz A (cuadrada de orden n) y cualquier
vector de Rn se verifica que
kAxk kAk kxk
e) Que el teorema del punto fijo es generalizable a funciones vectoriales de
variable vectorial.
1.6.1
M
etodo de Newton
32
Ecuaciones no lineales
f1 (x)
t 1
-1
-2
2
-05
f2 (x)
-1
2x 2 1
3 1
= f 0 (x0 ) = J(x0 ) =
J(x) =
2x
8y
1
8
por lo que debemos resolver el sistema
3 1
h11
00 75
2
0
1
8
h1
0 25
cuya solucion es h1 =
h11
h21
33
00 25
y, por tanto
00 25
x1 = x0 + h1 =
00 0625
00 25 1
f (x1 ) =
f 0 (x1 ) = J(x1 ) =
0
0 0625
00 5
8
obteniendose el sistema
00 25 1
h12
00 0625
0
2
0
0 5
8
h2
0 0625
cuya solucion es h2 =
h12
h22
00 022561 . . .
0
0 006 . . .
x2 = x1 + h2 =
y, por tanto
00 227439 . . .
0
0 994 . . .
34
Ecuaciones no lineales
1.7
Ejercicios propuestos
Ejercicios propuestos
35
Fig. 1
Fig. 2
36
Ecuaciones no lineales
d) Dado que en el intervalo [00 5, 10 5] no se anula la funcion x5 , las races de
f (x) son las mismas que las de g(x) = f (x)/x5 = x5 x5 cuya grafica
se da en la Figura 2. Se puede aplicar a g(x) la regla de Fourier en
dicho intervalo?
e) Si resolvemos, por el metodo de Newton, la ecuacion g(x) = 0, se
obtendra la raz con mayor rapidez que cuando lo hicimos con f (x) = 0?
Justifica la respuesta sin calcular las iteraciones.
Ejercicios propuestos
37
38
Ecuaciones no lineales
Ejercicios propuestos
39
2.1.1
Normas vectoriales
42
n
X
xi ui
i=1
kxk1 =
n
X
|xi |
i=1
Norma eucldea
v
u n
uX
kxk2 = t
|xi |2
i=1
Norma infinito
n
X
2 3 0 12
T
se tiene que
|xi | = 2 + 3 + 0 + 12 = 17
i=1
v
u n
uX
kxk2 = t
|xi |2 = 22 + 32 + 02 + 122 = 169 = 13
i=1
2.1.2
43
2.1.3
Esta definicion coincide con la idea intuitiva de que la distancia de los vectores
de la sucesion al vector lmite v tiende a cero a medida que se avanza en la
sucesion.
Teorema 2.1 Para un espacio vectorial normado de dimensi
on finita, el concepto de convergencia es independiente de la norma utilizada.
2.1.4
Normas matriciales
44
cualquiera que sea el vector x del espacio. (Observese que no es lo mismo que
la propiedad multiplicativa de una norma, ya que aqu se estan utilizando dos
normas diferentes, una de matriz y otra de vector).
As pues, definiremos
kAxk
= max{kAxk : kxk = 1}
xV {0} kxk
kAk = max
de tal forma que a cada norma vectorial se le asociara, de forma natural, una
norma matricial.
Norma-1
Si utilizamos la norma-1 de vector obtendremos
kAk1 = max{kAxk1 : kxk1 = 1}.
Dado que Ax = y = yi =
n
X
k=1
kAk1 = max{
n X
n
X
i=1 k=1
Por u
ltimo, si descargamos todo el peso sobre una coordenada, es decir,
si tomamos un vector de la base canonica, obtenemos que
kAk1 = max
j
n
X
|aij |.
i=1
Norma eucldea
Utilizando la norma eucldea de vector se tendra que
kAk2 = max{ x A Ax : x x = 1}
Descargando ahora el peso en los autovectores de la matriz A A obtenemos que
p
p
45
Norma infinito
Utilizando ahora la norma infinito de vector se tiene que
kAk = max{
n
X
j=1
Como ahora se dara el maximo en un vector que tenga todas sus coordenadas iguales a 1, se tiene que
kAk = max
i
n
X
|aij |.
j=1
Tenemos pues, que las normas asociadas (algunas veces llamadas subordinadas) a las normas de vector estudiadas anteriormente son:
kAk1 = max kAxk1 = max
Norma-1
n
X
kxk1 =1
|aij |.
i=1
kxk2 =1
Norma infinito
kxk =1
n
X
|aij |.
j=1
kAkF =
sX
|aij |2 =
tr A A
i,j
1
1
Ejemplo 2.2 Para la matriz A = 2 1
1
0
kAk1 = max
j
n
X
2
1 se tiene:
1
i=1
6 1
5
2
1 es
El polinomio caracterstico de la matriz AT A = 1
5
1
6
p() = 3 142 + 33 cuyas races
son
0,
3
y
11,
por
lo
que
los
valores
46
kAkF =
2.1.5
n
X
11.
j=1
tr AT A =
6+2+6=
14.
Transformaciones unitarias
kU xk2 = (U x) (U x) = x U U x = x x = kxk2 .
Lema 2.3 Las matrices A, A , AU y U A, donde U es una matriz unitaria,
poseen los mismos valores singulares.
Demostraci
on. Veamos, en primer lugar que las matrices A A y AA poseen
los mismos autovalores. En efecto:
Sea un autovalor de A A y x un autovector asociado a . Se tiene entonces
que A Ax = x. Multiplicando, por la izquierda por la matriz A obtenemos
que AA Ax = Ax y llamando y = Ax tenemos que AA y = y, por lo que
es un autovalor de AA y el vector y es un autovector asociado a para la
matriz AA . As pues, cualquier autovalor de A A lo es tambien de AA .
Razonando de igual forma se obtiene que cualquier autovalor de AA lo es
tambien de A A, por lo que ambas matrices poseen los mismos autovalores.
47
a) Como los valores singulares de la matriz A son las races cuadradas positivas de los autovalores de A A y los de A las races cuadradas positivas
de los autovalores de AA (los mismos que los de A A), las matrices A
y A poseen los mismos valores singulares.
b) Los valores singulares de U A son las races cuadradas positivas de los
autovalores de (U A) (U A) = A U U A = A A que eran precisamente los
valores singulares de la matriz A.
c) Los valores singulares de AU son (por el primer apartado) los mismos
que los de (AU ) = U A es decir, las races cuadradas positivas de los
autovalores de (U A ) (U A ) = AU U A = AA cuyos autovalores son
los mismos que los de A A, por lo que AU tiene tambien los mismos
valores singulares que la matriz A.
Proposici
on 2.4 La norma eucldea es invariante mediante transformaciones
de semejanza unitarias.
kAxk2
Demostraci
on. Dado que kAk2 = max
si U es unitaria, se tiene
xV {0} kxk2
que:
kxk2
kU xk2
kU k2 = max
= max
= 1.
xV {0} kxk2
xV {0} kxk2
Es decir, si U es unitaria kU k2 = kU k2 = 1.
Si B = U AU tenemos: kBk2 kU k2 kAk2 kU k2 = kAk2
Como A = U BU , es: kAk2 kU k2 kBk2 kU k2 = kBk2
De ambas desigualdades se deduce que kBk2 = kAk2 .
2.1.6
Radio espectral
48
Teorema 2.5 El radio espectral de una matriz es una cota inferior de todas
las normas multiplicativas de dicha matriz.
Demostraci
on. Sean {1 , 2 , . . . , r } los autovalores de la matriz A y sean
{x1 , x2 , . . . , xr } autovectores asociados a dichos autovalores.
kAxi k = ki xi k = |i | kxi k .
Por otra parte sabemos que kAxi k kAk kxi k. Por tanto:
|i | kxi k kAk kxi k siendo kxi k =
6 0 por tratarse de autovectores.
Se obtiene entonces que |i | kAk para cualquiera que sea i = 1, 2, . . . , r,
de donde max |i | kAk, es decir: (A) kAk.
i
Definici
on 2.1 Sea A Knn . Se definen los crculos de Gerschgorin como
los conjuntos
C1 = {z : |z a11 | r1 }
C2 = {z : |z a22 | r2 }
X
|aij | para 1 i n
ri =
. . . . . . . . . . . . . . . . . . . . . . . . . en donde
j
=
1
.........................
j 6= i
Cn = {z : |z ann | rn }
Teorema 2.6 Sean C1 , C2 , . . . , Cn los crculos de Gerschgorin de una matriz
n
[
A. Si es un autovalor de A, se verifica que
Ci .
i=1
Demostraci
on. Si 6
n
[
i=1
por lo que
| a11 | > r1
| a22 | > r2
.............
.............
| ann | > rn
y, por tanto, la matriz
a11 a12
a21 a22
..
..
.
.
an1
an2
..
.
a1n
a2n
..
.
ann
= I A
49
0 2 3
Ejemplo 2.3 Dada la matriz A = 2 8 2 , sus crculos de Gerschgorin
2 0 10
obtenidos por filas son
C1 = {z : |z 0| 5}
C2 = {z : |z 8| 4}
C3 = {z : |z 10| 2}
Estos u
ltimos nos dicen que la matriz tiene, al menos, un autovalor real (hay
un disco que solo contiene a un autovalor y este debe ser real ya que de ser
50
2.2
51
a11 a12 0
0
a21 a22 a23 0
Tridiagonales:
0 a32 a33 a34
0
0 a43 a44
Triangulares superiores:
0
0 a33 a34
0
0
0 a44
a11 0
0
0
a12 a22 0
0
Triangulares inferiores:
a31 a32 a33 0
a41 a42 a43 a44
En cuanto a los metodos de resolucion de sistemas de ecuaciones lineales,
podemos clasificarlos en
52
2.2.1
N
umero de condici
on
A A
<
kx xk ' sistema bien condicionado
=
b b
<
kx xk sistema mal condicionado
Consideremos el sistema cuadrado Ax = b con A regular, es decir, un sistema
compatible determinado. En la practica, los elementos de A y de b no suelen
ser exactos bien por que procedan de calculos anteriores, o bien porque sean
irracionales, racionales periodicos, etc. Es decir, debemos resolver un sistema
aproximado cuya solucion puede diferir poco o mucho de la verdadera solucion
del sistema.
As, por ejemplo, en un sistema de orden dos, la solucion representa el punto
de interseccion de dos rectas en el plano. Un peque
no error en la pendiente de
una de ellas puede hacer que dicho punto de corte se desplace solo un poco o
una distancia considerable (vease la Figura 2.1), lo que nos dice que el sistema
esta bien o mal condicionado, respectivamente.
Podemos ver que el sistema esta mal condicionado cuando las pendientes
de las dos rectas son muy similares y que mientras mas ortogonales sean las
rectas, mejor condicionado estara el sistema.
53
Se puede observar entonces que si, en un sistema mal condicionado, sustituimos una de las ecuaciones por una combinacion lineal de las dos, podemos
hacer que el sistema resultante este bien condicionado.
r1 r10
r1 r10
%
r
%
%
%
%
%
r
%
%
%
r2%
%
@
@r r
@
@
r
@ 2
@
@
= 7
de solucion
3x + 4.00001y = 7.00001
x
y
=
1
1
y cometemos un peque
no error en los datos, podemos obtener el sistema
3x + 4y
= 7
de solucion
3x + 3.99999y = 7.00004
x
y
x
y
7.6
4
9.6
5.5
4y = 7
de solucion
3x + 3.99999y = 7.000055
de solucion
4x 3y = 1
siendo este un sistema bien condicionado.
x
y
=
1
1
54
kIk
. En efecto:
1 kI Ak
A A1 = I = [I (I A)]A1 = I =
A1 (I A)A1 = I = A1 = I + (I A)A1 =
kA1 k = kI + (I A)A1 k kIk+k(I A)A1 k kIk+kI Ak kA1 k
kA1 k kI Ak kA1 k kIk = (1 kI Ak) kA1 k kIk =
1
A
kIk
1 kI Ak
Es decir:
(A) kAk k
con
k=
kIk
1 kI Ak
Debemos tener cuidado con esta acotacion ya que si tenemos una matriz casi
regular, es decir, con det(A) ' 0, quiere decir que tiene un autovalor proximo
a cero, por lo que la matriz I A tiene un autovalor proximo a 1 y sera el
mayor de todos. En este caso kI Ak ' 1, por lo que k y dara lugar a
un falso condicionamiento, ya que A no tiene que estar, necesariamente, mal
condicionada.
Ejemplo 2.5 Para estudiar el condicionamiento del sistema
3x + 4y
= 7
3x + 4.00001y = 7.00001
55
Se tiene que
A=
A
3
4
3 4.00001
1
= det(A) = 0.00003
1
=
0.00003
4.00001 4
3
3
kAk = 7.00001
kA1 k
n
X
j=1
56
= (A) '
105 > 1.8 106
8.00001
3
=
0.00003
kAk1 = 8.00001
i=1
56
= 1 (A) '
105 > 1.8 106
7.00001
kA1 k1 =
0.00003
Propiedades del n
umero de condici
on (A).
a) Dado que kxk = kIxk kIkkxk, se verifica que kIk 1, cualquiera que
sea la norma utilizada. Como, por otra parte AA1 = I se tiene que
1 kIk = kAA1 k kAkkA1 k = (A)
es decir (A) 1 cualquiera que sea la matriz cuadrada y regular A.
b) Si B = zA, con z C no nulo, se verifica que (B) = (A). En efecto:
1
1
1 1
= |z| kAk kA k = kAk
A1
= (A).
(B)=kBk
B
= kzAk
A
z
|z|
Dado que det(B) = z n det(A), donde n representa el orden de la matriz
A, y (B) = (A) se ve que el condicionamiento de una matriz no
depende del valor de su determinante.
56
max i (A A) = n
i
q
q
max i (A1 ) A1 = max i (A )1 A1 =
i
i
s
r
q
1
1
=
=
= max i (AA )1 = max
i
i
i (AA )
mn i (AA )
i
s
s
1
1
=
=
=
mn i (A A)
mn i2
kA1 k2 =
1
A
= 1
2
1
Podemos concluir, por tanto, que
kAk2 = n
n
= 2 (A) =
1
kA1 k2 =
1
En cuanto a su relacion con los n
umeros de condicion obtenidos con otras
normas de matriz se tiene que:
Ademas:
kAk2
kAk1 kAk
2 (A)
1 (A) (A)
57
n
=1
1
) 2 (A) = 1 = A = zU .
En efecto: sabemos que si A es diagonalizable existe una matriz
regular R tal que R1 AR = D con D = diag(i ) (R es la matriz
de paso cuyas columnas son los autovectores correspondientes a los
autovalores i ). Por otra parte sabemos que toda matriz hermtica
es diagonalizable mediante una matriz de paso unitaria.
Como la matriz A A es hermtica existe una matriz unitaria R tal
que
12
22
R A AR =
.
.
.
2
n
n
= 1 = 1 = 2 = = n = , por lo que
Como 2 (A) =
1
R A AR = 2 I
Entonces
A A = R( 2 I)R = 2 (RIR ) = 2 I
de donde
1
A
1
A
=I
1
1
A se tiene que U = A , ya que R = .
1
1
58
Los sistemas mejor condicionados son aquellos que tienen sus filas o columnas
ortogonales y mientras mayor sea la dependencia lineal existente entres ellas
peor es el condicionamiento del sistema.
Al ser (AU ) = (U A) = (A) trataremos de buscar metodos de resolucion
de sistemas de ecuaciones lineales que trabajen con matrices unitarias que
no empeoren el condicionamiento del sistema como lo hace, por ejemplo, el
metodo de Gauss basado en la factorizacion LU . Sin embargo, dado que ha
2.3
Factorizaci
on LU
1 0 0 0
u11 u12 u13
l21 1 0 0 0 u22 u23
l31 l32 1 0 0
0 u33
A=
..
..
.. . . .. ..
..
..
.
. . .
.
.
.
.
ln1 ln2 ln3 1
0
0
0
Factorizacion LU
59
y calculando los valores de los n2 elementos que aparecen entre las dos matrices.
3
1
2
3
2 tenemos
As, por ejemplo, para A = 6
3
0 8
3
1
2
1 0 0
u11 u12 u13
6
3
2 = l21 1 0 0 u22 u23 =
3
0 8
l31 l32 1
0
0 u33
u11
u12
u13
l21 u12 + u22
l21 u13 + u23
= l21 u11
l31 u11 l31 u12 + l32 u22 l31 u13 + l32 u23 + u33
por lo que de la primera fila obtenemos que
u11 = 3
u12 = 1
u13 = 2
3l21
= 6
l21 =
2
l21 + u22 = 3
1
= u22 =
2l21 + u23 = 2
u23 = 2
y de la tercera (teniendo tambien en cuenta los resultados ya obtenidos)
3l31
= 3
l31 = 1
l31 + l32
=
0
1
= l32 =
3
6
3
1
2
1
3
2
2
=
0 8
1
0
1
1
0
3
0
0
1
0
1
2
1 2
0 4
a11
a11 a12
a21
A1 = (a11 )
A2 =
A3 =
a21 a22
a31
y se denotan por
situados en las k
a12 a13
a22 a23
a32 a33
60
Demostraci
on. Supongamos que A admite factorizacion LU . En ese caso
Ak
Lk
Uk
=
=
A=
Ak = Lk Uk = det(Ak ) = det(Lk ) det(Uk ) = 1 r11 r22 rkk 6= 0
ya que, por sea A regular, todos los pivotes rii i = 1, 2, . . . , n son no nulos.
Recprocamente, si todas las matrices fundamentales son regulares, A admite factorizacion LU , o lo que es equivalente, se puede aplicar Gauss sin
intercambio de filas. En efecto:
Dado que, por hipotesis es a11 6= 0, se puede utilizar dicho elemento como
pivote para anular al resto de los elementos de su columna quedandonos la
matriz
(2) (2)
(2)
a11 a12 a1n
0 a(2) a(2)
22
2n
(2)
A = .
.
.
.
.
.
.
.
. ..
.
0
(2)
(2)
an2 ann
(2)
a21
podemos ver que es no nulo, ya
a11
n
X
k=1
k 6= i
|aik |
i = 1, 2, . . . , n.
Factorizacion LU
61
n
X
|aki |
i = 1, 2, . . . , n.
k=1
k 6= i
3
1
1
2
1 es de diagonal estrictaAs, por ejemplo, la matriz A = 0
2 1
5
mente dominante por filas y dominante por columnas.
Una matriz se dice de Hadamard si es de diagonal estrictamente dominante.
Teorema 2.9 Toda matriz de Hadamard es regular.
Demostraci
on. Supongamos que A es de diagonal estrictamente dominante
por filas (de igual forma podra probarse si lo fuese por columnas) y que su
determinante fuese nulo. En ese caso, el sistema Ax = 0 posee solucion no
trivial (1 , 2 , . . . , n ) 6= (0, 0, . . . , 0).
Sea |k | = max |i | > 0 y consideremos la k-esima ecuacion:
i
1
2
n
+ ak2
+ + akk + + akn
= 0 =
k
k
k
akk = ak1
|akk |
1
k 1
k + 1
n
ak k1
ak k+1
akn
=
k
k
k
k
n
X
i=1
i 6= k
n
X
i
|aki |
|aki |
k
i=1
i 6= k
j =1
j 6= i
62
2.4
Factorizaci
on de Cholesky
1 0 0
u11 u12 u1n
l21 1 0 0 u22 u2n
A = ..
.. . . .. ..
.. . .
.. =
.
. . .
. .
.
.
ln1 ln2 1
0
0 unn
1 0 0
u11 0 0
1 u12/u11
l21 1 0 0 u22 0 0
1
= ..
.. . . .. ..
.. . .
.. ..
..
.
. . .
. . .
.
.
.
ln1 ln2 1
0
0 unn
0
0
u11 0 0
0 u22 0
= L ..
.. . .
.. R =
.
. .
.
0
0 unn
u1n/u11
u2n/u22
.. =
...
.
Factorizacion de Cholesky
= L
u11
0
0
u22
..
..
.
.
0
0
..
.
63
0
0
..
.
unn
u11
0
0
u22
..
..
.
.
0
0
..
.
0
0
..
.
unn
A = BC
donde B = L
lar inferior y C =
u11
0
0
0
u22
0
0
0
u33
..
..
..
..
.
.
.
.
0
0
0
u11
0
0
0
u
0
22
0
0
u33
..
..
..
.
.
.
0
0
0
0
0
0
..
.
unn
0
..
..
.
.
unn
R es una triangular
superior.
Como A es hermtica, BC = A = A = C B , por lo que (C )1 B = B C 1 ,
y dado que (C )1 B es triangular inferior y B C 1 es triangular superior,
ambas han de ser diagonales.
Por otra parte, B = LD y C = DR, por lo que C = R D = R D y, por
tanto, (C )1 = D1 (R )1 . As pues, (C )1 B = D1 (R )1 LD.
Como las matrices diagonales conmutan,
(C )1 B = D1 D(R )1 L = (R )1 L.
Al ser (R )1 L triangular inferior con diagonal de unos y (C )1 B diagonal,
podemos asegurar que (R )1 L = I o, lo que es lo mismo, R = L. Ademas,
B C 1 = I, por lo que C = B , luego A = BB donde B = LD.
La unicidad de las matrices L y U implica la unicidad de la matriz B y, por
tanto, esta puede ser calculada por un metodo directo.
Ejemplo 2.6 Consideremos el sistema
4
2i
4 + 2i
x1
0
2i
2
2 2i x2 = 0
4 2i 2 + 2i
10
x3
4
64
2
i
2i
0
1
1
2
0
0
0
2
0
i
Haciendo ahora
2i
0
1
1
i 2+i
x1
0
1
1 x2 = 0
0
2
x3
4
0
y1
0
0 y2 = 0 , se obtiene
2
y3
4
y1
0
y2 = 0
y3
2
y de aqu, que
2
0
0
i
1
0
2+i
x1
0
1 x2 = 0
2
x3
2
x2 = 1
x3 = 1
Hemos visto que toda matriz hermtica y definida positiva admite factorizacion de Cholesky, pero podemos llegar mas lejos y enunciar el siguiente
teorema (que no probaremos).
Teorema 2.13 Una matriz hermtica y regular A es definida positiva si, y
s
olo si, admite factorizacion de Cholesky.
Metodos iterados
65
Demostraci
on. Si es hermtica y definida positiva admite factorizacion LU
con todos los elementos diagonales de U (pivotes) positivos, por lo que admite
factorizacion de Cholesky.
Recprocamente, si A admite factorizacion de Cholesky es A = BB por lo
que
A = (BB ) = BB = A = A es hermtica
Para cualquier vector x no nulo es
x Ax = x BB x = (B x) (B x) = kB xk2 0
siendo cero solo si B x = 0 pero al ser B regular (si no lo fuese tampoco lo
sera A en contra de la hipotesis) B x = 0 = x = 0 en contra de la hipotesis
de que x no es el vector nulo.
Se tiene pues que x Ax > 0 para cualquier vector x no nulo, es decir, A es
definida positiva.
2.5
M
etodos iterados
x x = 2(x x) = x x = 0 = x = x
66
(2.1)
(2.2)
Metodos iterados
67
(I K)(x x) = 0
y como I K es invertible, x = x, por lo que el metodo es consistente.
Demostraci
on.
a) Por tratarse de un metodo consistente con el sistema Ax = b, se verifica
que c = (I K)A1 b, por lo que
xn+1 = Kxn + (I K)A1 b
restando el vector solucion x a ambos miembros, podemos escribir
xn+1 x = Kxn (K + I K)x + (I K)A1 b =
= K(xn x) + (I K)(A1 b x)
y dado que A1 b x = 0 obtenemos que xn+1 x = K(xn x).
Reiterando el proceso se obtiene:
xn x = K(xn1 x) = K 2 (xn2 x) = = K n (x0 x)
Pasando al lmite
lim (xn x) = ( lim K n )(x0 x)
lim K n = 0
lim (xn x) = 0
o lo que es lo mismo,
lim xn = x
68
Teorema 2.16 Si para alguna norma matricial es kKk < 1, el proceso xn+1 =
Kxn + c, donde x0 Rn es un vector cualquiera, converge a la soluci
on de la
ecuacion x = Kx + c que existe y es u
nica.
Demostraci
on.
a) Veamos, en primer lugar, que la ecuacion x = Kx + c posee solucion
u
nica.
En efecto: x = Kx + c = (I K)x = c. Este sistema tiene solucion
u
nica si, y solo si, el sistema homogeneo asociado (I K)z = 0 admite
solo la solucion trivial z = 0, es decir, si I K es invertible.
La solucion z no puede ser distinta del vector nulo ya que de serlo, como
kKk < 1 se tiene que al ser (I K)z = 0, o lo que es lo mismo, z = Kz
kzk = kKzk kKkkzk < kzk
lo cual es un absurdo, por lo que el sistema homogeneo solo admite la
solucion trivial y, por tanto, el sistema completo x = Kx + c posee
solucion u
nica.
b) Probaremos ahora que la sucesion {xn } converge a x.
Dado que xn+1 x = (Kxn + c) (Kx + c) = K(xn x), podemos
reiterar el proceso para obtener que xn x = K n (x0 x) por lo que
kxn xk = kK n kkx0 xk kKkn kx0 xk
y dado que kKk < 1, pasando al lmite se obtiene
lim kxn xk = 0 = lim xn = x
Observese que si kKk < 1, dado que el radio espectral es una cota inferior de
cualquier norma multiplicativa (ver Teorema 2.5) se tiene que (K) < 1. El
siguiente teorema nos dice que esta es ademas una condicion suficiente para la
convergencia del metodo xn+1 = Kxn + c
Teorema 2.17 Si (K) < 1, el proceso xn+1 = Kxn + c, donde x0 Rn es
un vector cualquiera, es convergente.
Metodos iterados
69
Demostraci
on. Si los autovalores de K son 1 , 2 , . . . , m los de K n son
n1 , n2 , . . . , nm . Como (K) < 1 se tiene que |i | < 1 cualquiera que sea
i = 1, 2, . . . , m y, por tanto, la sucesion
i , 2i , . . . , ni , . . .
converge a cero, lo que nos lleva a que los autovalores de la matriz lmite
lim K n son todos nulos, es decir lim K n = 0 que era la condicion exigida en el
Teorema 2.15.
Los metodos que vamos a estudiar consisten en descomponer la matriz invertible A del sistema Ax = b de la forma A = M N de manera que la matriz
M sea facilmente invertible, por lo que reciben el nombre generico de metodos
de descomposicion . El sistema queda entonces de la forma
(M N )x = b = M x = N x + b = x = M 1 N x + M 1 b
es decir, expresamos el sistema de la forma x = Kx + c con K = M 1 N y
c = M 1 b. Dado que
(I K)A1 b = (I M 1 N )(M N )1 b = M 1 (M N )(M N )1 b = M 1 b = c
y la matriz (I K) = (I M 1 N ) = M 1 (M N ) = M 1 A es invertible,
estamos en las condiciones del Teorema 2.14 por lo que el metodo xn+1 =
Kxn + c es consistente con el sistema Ax = b. Es decir, si el proceso converge,
lo hace a la solucion del sistema.
Sabemos tambien, por el Teorema 2.16, que el proceso sera convergente si se
verifica que kM 1 N k < 1 para alguna norma.
Para el estudio de
componer la matriz
a11 0
0 a22
0
D= 0
..
..
.
.
0
0
0 0
0
0
0
0 0
0
a21 0
a31 a32 0
a33 0
E =
..
.. . .
..
..
..
.
. .
.
.
.
0 ann
an1 an2 an3
0 a3n
F = 0 0
.. ..
.. . .
..
. .
. .
.
0 0
0 0
vamos a des
..
.
0
0
0
..
.
70
2.5.1
M
etodo de Jacobi
n
X
|aik |
i = 1, 2, . . . , n =
k=1
k 6= i
n
X
|aik |
<1
|aii |
k=1
k 6= i
2.5.2
M
etodo de Gauss-Seidel
2.5.3
71
M
etodos de relajaci
on (SOR)
1
D+F
=M N
(D E)x = (1 )D + F x + b =
x = (D E)1 (1 )D + F x + (D E)1 b
1
(1 )D + F
recibe el nombre
2.6
M
etodos del descenso m
as r
apido y del
gradiente conjugado
Los metodos que vamos a tratar a continuacion son validos para sistemas
Ax = b cuya matriz A es simetrica y definida positiva, es decir, para matrices
tales que AT = A (simetrica) y xT Ax > 0 cualquiera que sea el vector x 6= 0
(definida positiva).
72
x
x + tv
q(x + tv) =
=
=
=
ya que AT = A.
La ecuacion (2.3) (ecuacion de segundo grado en t con el coeficiente de t2
positivo, tiene un mnimo que se calcula igualando a cero la derivada
d
q(x + tv) = 2h v, Ax b i + 2th v, Av i
dt
es decir, en el punto
t = h v, b Ax i/h v, Av i.
El valor mnimo que toma la forma cuadratica sobre dicho rayo unidimensional
viene dado por
q(x + tv) =
=
=
=
q(x) + t[2h v, Ax b i + th v, Av i]
q(x) + t[2h v, Ax b i + h v, b Ax i]
q(x) th v, b Ax i
q(x) h v, b Ax i2 /h v, Av i
73
h v (k) , b Ax(k) i
h v (k) , Av (k) i
(k)
v
-
3
"
"
"
"
"
x
"
" (k+1)
"" x
""
"
(k)
2.6.1
M
etodo del descenso m
as r
apido
74
2.6.2
M
etodo del gradiente conjugado
Ejercicios propuestos
2.7
75
Ejercicios propuestos
Ejercicio
2.1 Estudiar
el n
umero de condicion de Frobenius de la matriz
a
b
A=
.
a + b
Ejercicio 2.2 Dado el sistema:
x + y = 2
2x + y = 3
a) Calcular su n
umero de condicion de Frobenius.
b) Calcular a para que el n
umero de condicion del sistema resultante de
sumarle a la segunda ecuacion la primera multiplicada por dicha constante a, sea mnimo.
Ejercicio 2.3 Dado el sistema:
3x + 4y = 7
3x + 5y = 8
a) Calcular su n
umero de condicion eucldeo.
b) Sustituir la segunda ecuacion por una combinacion lineal de ambas, de
forma que el n
umero de condicion sea mnimo.
Ejercicio 2.4 Comprobar que la
1
1
A=
0
0
0
matriz:
2
4
4
0
0
0
3
9
9
0
0 0
0 0
4 0
16 5
16 25
6
1 + 3i
1 2i
x1
1 2i
1 3i
3
1 + i x2 = 1 + i
1 + 2i
1 i
2
x3
1 2i
76
p p
2p
1 se pide:
Ejercicio 2.6 Dada la matriz A = p p + 2
2p 1 6p 1
a) Determinar para que valores de p es hermtica y definida positiva.
b) Para p = 1, efectuar la descomposicion de Cholesky y utilizarla para
resolver el sistema Ax = b siendo b = (1 0 3)t
Ejercicio 2.7 Resolver por los metodos de Jacobi, Gauss-Seidel y SOR con
= 1.2, el sistema:
10x1 x2 + 2x3
x1 + 11x2 x3 + 3x4
2x1 x2 + 10x3 x4
3x2 x3 + 8x4
=
6
= 25
= 11
= 15
x 3y + 5z = 5
8x y z = 8
2x + 4y + z = 4
observamos que el programa se detiene en la iteracion 138 dandonos el vector
(inf inf inf )T .
a) El metodo de Gauss-Seidel realiza el proceso xn+1 = L1 xn +c. Determina
la matriz L1 .
b) Utilizar los crculos de Gerschgorin para estimar el modulo de los autovalores de L1 .
c) Justificar el porque de la divergencia del metodo. (Indicacion: utilizar
el apartado anterior).
d) Existe alguna condicion suficiente que deba cumplir la matriz de un
sistema para garantizar la convergencia del metodo de Gauss-Seidel?
Hacer uso de ella para modificar el sistema de forma que el proceso sea
convergente?
Ejercicio 2.9 Sea {0.5, 1.5, 2.5} y consideremos el sistema iterado
1
1
1 x
1
1
xn+1
n
=
+
1
1
yn+1
yn
+1
1
1
Ejercicios propuestos
77
Se pide
a) Resolver el sistema resultante de tomar lmites para probar que, en caso
de que converja, el lmite de la sucesion
x2
x0
x1
,
,
...
y1
y2
y0
no depende de .
b) Para que valores de converge la sucesion?
c) Para los valores anteriores que hacen que la sucesion sea convergente,
con cual lo hace mas rapidamente?
x0
0.5
d) Comenzando con el vector
=
, aproximar iteradamente
y0
0.5
el lmite de la sucesion utilizando el valor de que acelere mas la convergencia.
Ejercicio 2.10 Sea el sistema Ax = b, donde
1000 999
x1
A=
, x=
999 998
x2
y
b=
1999
1997
.
3.1
Factorizaciones ortogonales
3.2
Interpretaci
on matricial del m
etodo de
Gram-Schmidt: factorizaci
on QR
80
y1
y
2
Q A = .. (a1 a2 an )
.
yn
es decir:
Q A =
h a1 , y 1 i h a2 , y 1 i
h a1 , y 2 i h a2 , y 2 i
..
..
.
.
h a1 , y n i h a2 , y n i
h an , y 1 i
h an , y 2 i
..
...
.
h an , y n i
0 r33 r3n
Q A = R = 0
..
..
.. . .
.
.
. ..
.
.
0
0
0 rnn
Rotaciones y reflexiones
3.3
81
Rotaciones y reflexiones
Consideremos la matriz
a11
.. . .
.
.
ai1
.
A=
..
a
j1
.
..
an1
..
.. . .
..
. .
.
.
ani anj ann
1
0
..
.. . .
.
.
.
0 cos
.
..
...
Qji =
.
..
0 sen
.
..
..
.
0
0
0
0
..
..
.
.
sen 0
..
..
.
.
cos 0
..
. . ..
. .
.
0
1
a01j a01n
..
..
.
.
0
aij a0in
..
..
.
.
a0jj a0jn
.. . .
..
. .
.
a0nj a0nn
82
con
Q = Qk Q2 Q1
3.4
Transformaciones de Householder
nn
si v = 0
IK
H=
I 2 vv si v 6= 0
vv
Proposici
on 3.1 La transformaci
on H de Householder asociada a un vector
v Kn posee las siguientes propiedades:
a) H es hermtica (H = H).
b) H es unitaria (H H = HH = I).
c) H 2 = I o lo que es lo mismo, H 1 = H.
Transformaciones de Householder
83
Demostraci
on.
2
2
2
(vv ) = I vv = H
a) H = I vv
=I
v v
v v
v v
Observese que v v = h v, v i = kvk2 R, por lo que v v = v v
2
2
2
2
4
b) HH = HH = I vv
I vv = I vv +
vv vv =
v v
v v
v v
v v
4
4
4
4
= I vv + 2 v(v v)v = I vv + 2 (v v)vv = I.
v v
(v v)
v v
(v v)
c) Basta observar que, por los apartados anteriores, H 2 = HH = HH = I.
3.4.1
Interpretaci
on geom
etrica en Rn
3
x
v
-
y + v
v
Q
Q
Q
k
Q
6Q
36
Q
Q
-
x v
v
-
84
x+y
KA
A
A
A
A
A
A
xy
-
x = (x1 , x2 , . . . , xn )
q
Consideremos los vectores
0
..
.
xy
1
xk+1 x2 + + x2 la transformacion
=
Si v =
n
k+1
kx yk
kx yk
xk+2
..
xn
H de Householder asociada a v transforma a x en y.
3.4.2
Householder en Cn
2
vv
vv
Si x = v con C entonces
2
2
Hx = I vv v = v vv v = v = x
v v
v v
Si x v se verifica que h x, v i = v x = 0 y, por tanto
2
2
Hx = I vv x = x vv x = x
v v
v v
Transformaciones de Householder
85
v1
x1 y1
v2 x2
v = .. =
..
.
.
vn
xn
De este vector son conocidas todas sus componentes excepto la primera v1 =
x1 y1 .
Sabemos que 2v x = 1 y que v v = 1, por lo que
2(v1 x1 + v2 x2 + + vn xn ) = 1
v1 v1 + v2 v2 + + vn vn = 1
(3.1)
86
(3.2)
|v1 | |x1 | ei(v1 x1 ) , los complejos v1 y x1 han de tener igual argumento, por lo que
v1 = x1 .
Llevando este resultado a las ecuaciones 3.1 y 3.2 se obtiene que
2( |x1 |2 + kxk2 |x1 |2 ) = 1
2 |x1 |2 + kxk2 |x1 |2 = 1
= |x1 |2 (2 2 + 1) = kxk2 =
kxk
supuesto x1 6= 0
|x1 |
(Si x1 = 0 basta con tomar v = (kxk , x2 , . . . , xn )).
kxk
1
x1
|x1 |
x2
El vector que buscamos es, por tanto, v =
..
.
xn
que
y1
0
i
Hv x =
.. con y1 = kxk e
.
=1
obteniendose
0
que resulta ser
Hv x = y = x v =
x1
kxk
|x1 |
0
..
.
3.4.3
Factorizaci
on QR de Householder
a11 a12
a21 a22
a1n
a2n
.. .
..
. .
ann
Transformaciones de Householder
Sean x1 =
a11
a21
..
.
an1
87
e y1 =
a211 + + a2n1
0
..
.
r11
0
..
.
x 1 y1
,
kx1 y1 k
(1)
(1)
r11 a12 a1n
(1)
(1)
0 a22 a2n (1) (1)
(1)
= a
H1 A =
a
a
n
..
.. . .
.
1
2
. ..
.
.
(1)
(1)
0 an2 ann
(1)
en la que ai
(1)
(1)
a21
a21
(1)
(1) 2
(1) 2
(a22 ) + + (an2 )
a22
(1)
(1)
Tomando x2 = a2 = a32 e y2 =
, la
0
..
..
.
.
(1)
an2
0
x2 y2
transformacion H2 asociada al vector v2 =
deja invariante al vector
kx2 y2 k
(1)
(1)
a1 y transforma x2 = a2 en y2 .
Reiterando al procedimiento se puede triangularizar la matriz A llegar a una
matriz triangular superior R. Llegados a ese paso se tiene que
Hk Hk1 H1 A = R Q A = R
con
Q = Hk Hk1 H1
de donde
A = QR.
Si lo que nos interesa es resolver el sistema aplicamos las transformaciones
88
1 1 1
1 .
2
7
1
p
1
12 + 22 + (2)2
3
Como x1 = 2 e y1 =
= 0 , se tiene que
0
0
0
2
2
13
1
x1 y1
1
= 2 =
v1 =
3
kx1 y1 k
2 3
1
2
3
H1 = I
v
v
=
I
1
v1 v1 1
= 0
H1 A =
1
3
1
3
1
3
13
13
1
3
1
3
13
1
3
1
1
1
0 2 3
3 = 23
3
1
1
1
1
23
3
3
3
1
0
1
3
13
2
3
23
2
3
1
3
2
3
23
2
3
1
3
Ahora son x2 =
1 1 1
2
3 5
1 = 0
4
1
0
3
e
y
=
42 + 32
4
2
0
3
2
3
23
1
3
2
3
2
3
1
3
31
1
3
5
3
5 , por lo que
Transformaciones de Householder
89
v2 =
x2 y2
1
= 1
kx2 y2 k
10
3
1
0
2
2
H2 = I v2 v2 = I
1 0 1 3 = 0
v2 v2
10
3
0
H2 H1 A = 0
0
4
5
3
5
3 5
3
0
4
5
45
0
3
0
x 1 = a1 =
1
definimos el vector v1 =
H1 A =
13
13
3 5
19
= 0
5
15
0
0 17
15
1
3
5
3
a11 a12
a21 a22
..
..
.
.
an1 an2
11 a12
(1)
a1n
(1)
0
..
.
(1)
a21
(1)
a2n
an2 ann
(1)
4
5
3
5
3
5
45
...
..
.
(1)
a1n
a2n
y tomamos
. . . ..
.
ann
T
a11 a21 an1
kxk
a11
|a11 |
a21
, obteniendose que
..
.
an1
..
.
90
(1)
a12
1
(1)
a22 y2
.. ..
. .
(1)
an2
0
T
que mantenga invariante al vector 11 0 0
. Bastara coger, para
T
ello, v2 = 0 v2 vn
, que es ortogonal a el.
En este caso, la transformacion de Householder viene dada
0 0
0
0 v2 v2
v2
H2 = I 2 . 0 v 2 vn = I 2
..
..
.
..
.
0 vn v2
vn
0 1 2v2 v2
..
..
...
.
.
2vn v2
2v2 vn
..
.
1 2vn vn
1 0 0
0
..
.
por
v2 vn
.. =
...
.
vn vn
H2 H1 A = H2
11
(1)
a12
0
..
.
(1)
a21
an2 ann
..
.
..
.
(1)
a2n
(1)
1 0 0
0
=
..
.
(1)
a1n
..
.
(1)
(1)
1 a12
..
.
(1)
a1n
A1
(1)
1 a12
0
=
..
.
0
HA1
(1)
a1n
91
3.5
a11
..
.
an1
a1n
..
..
.
.
ann
x1
b
a
1
11
.. ..
..
. = . x1 .
xn
bn
an1
+x
a1n
..
. =
ann
b1
..
.
bn
a1 1
b1
ma1 + n = b1
=
a2 1
b2
ma2 + n = b2
n
a3 1
b3
ma3 + n = b3
Decir
queel sistema no posee solucion equivale a decir que
el
b
a
1
1
b3
a3
vector
1 .
92
a
11
..
.
an1
..
.
am1
a1n
..
..
.
.
ann
..
.
amn
x1
..
.
xn
b1
..
.
= bn
..
.
bm
C(A)
6 b
c
b
1in
.
1 a1 + 2 a2 + + n an = b
A .. = b
93
es decir
a1 a1
..
.
an a1
..
.
a1 an
1
..
. =
an an
n
..
.
a1 b
..
.
an b
1
a1
..
..
. a1 an . =
n
an
a1
..
. b
an
o, lo que es lo mismo:
.
A A .. = A b
n
As pues, la solucion del sistema A Ax = A b nos proporciona las coordenadas, respecto de la base formada por las columnas de la matriz A, del vector b
proyeccion ortogonal de b sobre el espacio columna C(A). Estas coordenadas
constituyen lo que denominaremos soluci
on(es) en mnimos cuadrados del sistema superdeterminado Ax = b y de todas las posibles soluciones en mnimos
cuadrados, la de menor norma recibe el nombre de pseudosoluci
on del sistema.
Observese que si la matriz A no tiene rango maximo, lo u
nico que se dispone
del espacio columna de A es de un sistema generador y no de una base, por lo
que las coordenadas del vector proyeccion respecto de dicho sistema generador no son u
nicas obteniendose infinitas soluciones en mnimos cuadrados del
sistema.
94
3.5.1
0 t22 t2n
.. . .
..
..
. .
.
.
HA = Hn H1 A = 0 0 tnn =
0 0 0
..
..
..
.
.
.
0 0 0
La pseudosolucion de este sistema superdeterminado es la solucion del sistema
T
x = T Hb
(HA) (HA)x = (HA) Hb
T
b01
95
..
.
T
,
x
=
T
bn
T b0 .
..
.
0
bm
0
b
1
..
0
.
b
1
.
..
0
.
bn
b0m
calculo de la pseudosolucion del sistema superdeterminado Ax = b se hace
resolviendo el sistema
0
b
1
.
T T x = T ..
0
bn
o llamando Hb = b0 =
y dado que estamos suponiendo que A tiene rango maximo, la matriz T posee
inversa y por tanto T , por lo que la solucion es la misma que la del sistema
triangular
b0
1
.
T x = ..
0
bn
T x = b
b01
..
.
b0n
..
.
b0m
b01
b01
.. ..
. .
0
bn b0n
0 b0n+1
.. ..
. .
0
b0m
b 0
n+1
.
=
..
b0m
96
Por u
ltimo, si la matriz A no tiene rango maximo, sus columnas no son
linealmente independientes, por lo que solo constituyen un sistema generador
(no una base) del espacio columna C(A). Ello nos lleva a la existencia de
infinitas n-uplas (1 , 2 , . . . , n ) soluciones del sistema Ax = b y, por tanto,
a infinitas soluciones en mnimos cuadrados del sistema superdeterminado,
pero teniendo en cuenta que al ser u
nica la proyeccion ortogonal b de b sobre
el espacio columna C(A), todas ellas representan diferentes coordenadas del
vector b respecto del sistema generador
de C(A) dado por las columnas de A.
Sin embargo, el error cometido
b b
es el mismo para todas las soluciones
en mnimos cuadrados del sistema. De entre todas ellas, la de menor norma
eucldea es la pseudosolucion del sistema.
3.6
Descomposici
on en valores singulares y
pseudoinversa de Penrose
97
3.6.1
Pseudoinversa de Penrose
98
a) AXA = A
b) XAX = X
c) (AX) = AX
d) (XA) = XA
Demostraci
on. Sean X e Y dos matrices que verifique las cuatro propiedades.
Se tiene entonces que
X = XAX
(b)
= XAY AX
(a)
= XAY AY AY AX
(a)
(d) y (c)
= A X A Y Y Y A X A
= (AXA) Y Y Y (AXA)
= A Y Y Y A
(a)
= (Y A) Y (AY )
= Y AY AY
(d) y (c)
= Y AY
(b)
= Y
(b)
si i = j r
i
ij =
0 en caso contrario
Se tiene entonces que
=
Ejercicios propuestos
99
ya que
( )ij =
n
X
ik
m
X
k=1
+
kl lj .
l=1
r
X
k=1
ik
r
X
+
kl lj = i
l=1
r
X
1
+
il lj = i i ij = ij .
l=1
Razonamientos analogos nos permiten probar que + verifica las otras tres
propiedades de Penrose.
Si nos fijamos ahora en A+ , se tiene que
AA+ A = U V V + U U V = U + V = U V = A
y razonamientos similares nos permiten probar las otras tres propiedades.
Si la matriz A es de rango maximo, la matriz A A es invertible. Las ecuaciones normales del sistema Ax = b vienen dadas por A Ax = A b y dado que
A A es invertible se tiene que
x = (A A)1 A b.
(3.3)
(3.4)
3.7
Ejercicios propuestos
100
1 1 1
x
0
=
2
0
1
y
4
2
7
1
z
7
Ejercicio 3.3 Buscar la solucion de mnimos cuadrados del sistema Ax = b,
siendo:
3 1
0
A= 4
y
b= 2
2
0
1
1
a) A traves de sus ecuaciones normales.
b) Por el metodo de Householder.
Ejercicio 3.4 Se considera el sistema de ecuaciones Ax = b con
1 2
3
1 0
2
y b = .
A=
0
1 1
1 1
1
Se pide:
a) Multiplicando el sistema por la traspuesta de A, calcular la pseudosolucion utilizando el metodo de Choleski.
b) Sea v = (1, 1, 1, 1)T . Demostrar que la transformacion de Householder
asociada al vector v transforma la primera columna de la matriz A en el
vector (2, 0, 0, 0)T dejando invariante la segunda columna de A as como
al vector b.
Ejercicios propuestos
101
1 1 0
1
1 0 1
2
y =
1 1 1 0
1 2 1
1
2
1
1
2
0 = 1
1
2
5
102
1 7 15
7
7
1 4 8
y b=
A=
5
1 0 1
9
1 3 6
a) Resolverlo mediante transformaciones de Householder, dando la norma
del vector error.
b) Hallar la inversa generalizada A+ de la matriz A.
c) Utilizar la inversa generalizada para resolver el sistema y hallar la norma
del vector error.
Ejercicio 3.10 Resolver el sistema superdeterminado
8
3
1
1
1 3
1
4
y =
0
1
1 3
z
1
1
1
4
calculando la inversa generalizada de la matriz A.
Ejercicio 3.11 Dado sistema superdeterminado Ax = b con
1 5 5
7
1 2 3
16
A=
y
b=
1 1 3
3
1 2 1
10
se pide:
a) Resolverlo mediante transformaciones de Householder, dando la norma
del vector error.
b) Teniendo en cuenta el rango de la matriz A, hallar su inversa generalizada.
Ejercicios propuestos
103
6
2 2
x1
y b= 3
A = 1 1 , x =
,
x2
3
2
2
y un vector unitario u. Se pide:
a) Demostrar que si H = I 2uuT es la matriz de Householder, asociada al
vector u, entonces: H es ortogonal, H 2 = I y kHak2 = kak2 cualquiera
que sea el vector a.
b) Obtener la matriz de Householder que transforma el vector (2, 1, 2)T
en otro de la forma (, 0, 0)T , con > 0.
c) Aplicando el metodo de Householder, probar que el sistema Ax = b
posee infinitas soluciones en cuadrados mnimos y que el error cometido,
al considerar cualquiera de ellas, es el mismo.
d) Obtener la pseudosolucion del sistema Ax = b. Es decir, la solucion en
cuadrados mnimos, de entre las obtenidas en el apartado anterior, que
tenga menor norma eucldea.
Ejercicio 3.13 Sea el
A = 3
sistema Ax = b, donde
5 , x = y
y
0
b=
10
104
A= 4
12
2
3
y
b
=
1
5
0
13
1 0 0
1
0 0 /12
tal que divide por 12 la tercera de las ecuaciones del sistema:
3
3 2
T Ax = T b 4 5
= 1
y
13/12
1 0
Calcular su pseudosolucion haciendo uso de las ecuaciones normales. Determinar la norma del error.
c) A que se debe que no coincidan las pseudosoluciones obtenidas en los
dos apartados anteriores? Que habra ocurrido si la matriz T hubiese
sido unitaria?
Ejercicio 3.15 Sea el sistema Ax = b, donde
3 2
A= 0
3 , x =
y
4
4
b = 0 .
1
Ejercicios propuestos
105
1 1
2
x
0
A= 0
3 3 , x = y y b = 1 .
0 4
4
z
2
a) Hallar kAk . Que se puede decir sobre el n
umero de condicion de la
matriz A para la norma infinito? Que estimacion dara MATLAB para
el n
umero de condicion espectral obtenido con el comando cond(A)?
b) Utilizar la descomposicion LU de la matriz AT A para resolver el sistema
AT Ax = AT b. Que propiedad caracteriza a las soluciones en relacion al
sistema Ax = b? Interpreta geometricamente el resultado.
c) Encontrar una matriz ortogonal Q que transforme el vector a = (0, 3,4)T
en el vector r = (0, 5, 0)T . Obtener la norma del error para las soluciones
en mnimos cuadrados del sistema QAx = Qb.
d) Que relacion hay entre las soluciones obtenidas en los apartados anteriores?
Si se obtienen las soluciones en mnimos cuadrados del sistema Ax = b,
escalonando previamente la matriz A, se debe obtener mismo resultado
que en alguno de los apartados anteriores?
106
2
3
1
3
1
3
3
25
3
25
4
25
4
25
es la pseudoinversa de A,
0
0
verificando las propiedades de Penrose. (Hacer la comprobacion solo con
dos de ellas).
De entre todas las soluciones en mnimos cuadrados del sistema Ax = b,
hallar la de menor norma eucldea.
Ejercicio 3.17
a) En lo que sigue, Hv denota la transformacion de Householder asociada al
vector v. Sean x, y, v, z vectores no nulos, con Hv x = y y z v. Probar
que Hv v = v y Hv z = z. Determinar razonadamente todos los vectores
w tales que Hw x = y.
b) Se considera el sistema de ecuaciones dado por
12
1
0
x
2
1
2
1 y = 1
1
0 1
z
1
b.1) Estudiar el condicionamiento del sistema, utilizando la norma 1.
b.2) Resolver el sistema por medio de transformaciones de Householder.
b.3) Desde un punto de vista numerico, sera razonable resolver el sistema escalonando por Gauss? Razonar la respuesta.
c) Demostrar que el vector c = ( 43 , 12 , 4a
1)T y la matriz
3
0 23
0
1
G= 0
0 2
2a
0
0 3
son los propios del metodo de Gauss-Seidel asociado al sistema
3
1
0
x
2
0
2
1 y = 1
a
0 1
z
1
Ejercicios propuestos
107
1 1
2
A = 0 , x = , b = , con > 0 y , R.
y
2 2
108
0 5
5
A = 3 0 , x =
y b= 2
y
4 0
11
a) Existe alguna transformacion de Householder que permute las columnas
de la matriz A? Justificar la respuesta.
b) Calcular la pseudosolucion del sistema mediante transformaciones de
Householder dando la norma del vector error.
c) Calcular la inversa generalizada A+ de la matriz A a traves de su descomposicion en valores singulares y hacer uso de ella para encontrar la
pseudosolucion del sistema Ax = b dando la norma del vector error.
d) Hubiesemos podido, en este caso, calcular la inversa generalizada sin
necesidad de realizar su descomposicion en valores singulares?
Ejercicio 3.20 Se considera el sistema Ax = b con
1
2
A= 4
8 , x = y
y
1 2
1
b= 5
3
3 4
65
A= 4
3 y b = 65
0 12
0
as como la norma del error a traves de la pseudoinversa de la matriz A calculada mediante la descomposicion en valores singulares.
Ejercicios propuestos
109
2
1
3
2
6
0
x
x= y b=
A=
1 2
0
y
0
2
3
a) Encontrar una transformacion de Householder que transforme la primera
columna de la matriz A en el vector r = (3, 0, 0, 0)T .
b) Probar que el producto de dos matrices de Householder es una matriz
unitaria.
Hallar una matriz ortogonal Q tal que A = QR siendo R una matriz
triangular superior de las mismas dimensiones que A.
c) Probar que si Q es ortogonal, los sistemas Ax = b y QT Ax = QT b tienen
las mismas soluciones en mnimos cuadrados.
Hallar el error cometido al obtener la pseudosolucion del sistema Ax = b,
utilizando transformaciones ortogonales.
d) Teniendo en cuenta el rango de la matriz A, calcular el vector s = A+ b
donde A+ representa la pseudoinversa de la matriz A.
e) Sea xn+1 = L1 xn +c la sucesion resultante de aplicar el metodo de GaussSeidel a la resolucion de las ecuaciones normales del sistema Ax = b.
Cuantas iteraciones son necesarias para la convergencia del metodo?
Determina la pseudosolucion as como la norma del error.
Ejercicio 3.23 El equipo Astronoma para aficionados, adquirido por el profesor Dana este verano, permita determinar el plano x + y + z = 1
donde se encuentra la trayectoria de Marte alrededor del Sol. En las instrucciones indicaba introducir en el calculador magico una serie de coordenadas
locales (xi , yi , zi ), obtenidas con el telescopio marciano, y automaticamente
proporcionara los coeficientes , , . Entre otras cosas, sugera introducir
entre 5 y 10 coordenadas para que el ajuste obtenido en el sentido de
los mnimos cuadrados promediara cientficamente los errores de observacion...
110
1 5 5
1 2 3
a) Estudiar si admite factorizaciones LU y/o de Cholesky.
b) Utilizar dichas factorizaciones
(encasode existir) para resolver el sistema
x
3
Ax = b con x = y y b = 2 .
z
1
Ejercicios propuestos
111
4. Autovalores y autovectores
4.1
Conceptos b
asicos
v = v
114
Autovalores y autovectores
J1
P 1 AP = ..
.
J2
.. . .
..
. .
.
Jk
J1
J2
AP = P .. .. . .
..
. .
. .
Jk
Proposici
on 4.1 Autovectores asociados a autovalores diferentes son linealmente independientes
Demostraci
on. Sean u y v dos autovectores de la matriz A asociados a los
autovalores y respectivamente con 6= .
Si u y v fuesen linealmente dependientes se verificara que u = v con 6= 0.
Entonces:
u = Au = A(v) = Av = v = (v) = u
y por tanto ( )u = 0, pero dado que u 6= 0 se tiene que = en contra
de la hipotesis de que 6= , lo que prueba el resultado.
4.2
115
M
etodo interpolatorio para la obtenci
on
del polinomio caracterstico
El problema del calculo de los autovectores de una matriz, una vez calculados
los autovalores, se reduce a la resolucion de un sistema de ecuaciones por cada
autovalor.
Trataremos, por tanto y, en primer lugar, calcular sus autovalores a partir
de la propiedad de ser las races del polinomio caracterstico de la matriz.
Es decir, dada una matriz cuadrada A de orden n pretendemos calcular su
polinomio caracterstico P () = det(I A) para, posteriormente, hallar sus
races mediante alguno de los metodos de resolucion de ecuaciones estudiados.
El metodo interpolatorio consiste en calcular el polinomio caracterstico de la
matriz dando n valores a , para calcular n determinantes y, posteriormente,
resolver el sistema de n ecuaciones con n incognitas resultante. Veamoslo con
detenimiento:
Sea P () = det(I A) = n + a1 n1 + + an2 2 + an1 + an . Dando
a n valores 1 , 2 , . . . , n se tiene que:
= 1
= 2
n2 + a1 n1
+ + an2 22 + an1 2 + an = det(2 I A)
2
.........................................................................
.........................................................................
= n
1
3
2
5
4
2 1
0
, su polinomio caEjemplo 4.1 Dada la matriz A =
0
1
0
1
2 2 1
1
4
3
2
racterstico es de grado cuatro P () = + a1 + a2 + a3 + a4 , por lo que
vamos a dar a cuatro valores:
=0
a4 =
det (A) =
41
=1
1 + a1 + a2 + a3 + a4 =
det(I A) =
74
= 1
1 a1 + a2 a3 + a4 = det(I A) = 20
=2
67
116
Autovalores y autovectores
a1 + a2 + a3 = 32
a1 + a2 a3 = 62
= a1 = 4, a2 = 15 y a3 = 51
4.3
0
0
0
..
.
1
0
0
..
.
0
1
0
..
.
..
.
0
0
0
..
.
0
0
0
..
.
Consideremos la matriz A =
, que es una caja de
0 0 0 0 1
0 0 0 0 0
Jordan y, por tanto, no diagonalizable, cuyo polinomio caracterstico es n .
Si introducimos en la matriz una perturbaci
on y en vez de
la matriz A toma0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0
peque
no (incluso mas peque
no que la resolucion del ordenador) se obtiene
como polinomio caracterstico n + (1)n que posee n races distintas (las
races n-esimas de (1)n1 ), por lo que la matriz resulta ser diagonalizable.
Sea A una matriz diagonalizable y B una perturbacion de dicha matriz (B =
A + E). Sean i los autovalores de la matriz A y sea uno cualquiera de los
autovalores de la matriz B con i 6= .
Teorema 4.2 En las condiciones anteriores se tiene que
mn | i | kP k
P 1
kEk
i
117
Demostraci
on. Por ser A diagonalizable existe P tal que P 1 AP = D. Sea
x un autovector de B asociado a . Entonces Bx = x o lo que es lo mismo:
(A + E)x = x (I A)x = Ex (I P DP 1 )x = Ex
P (I D)P 1 x = Ex (I D)(P 1 x) = P 1 Ex = P 1 EP P 1 x
Supuesto que 6= i cualquiera que sea i = 1, 2, . . . , n, la matriz I D es
regular, por lo que
P 1 x = (I D)1 (P 1 EP )P 1 x, por lo que para cualquier norma multiplicativa se tiene
kP 1 xk k(I D)1 k kP 1 EP k kP 1 xk
1
(I D)1
P 1 EP
1
1
Dado que (I D) = diag
,...,
tenemos que
1
n
1
1
P
kEk kP k
1 max
i
i
1
por lo que
mn | i |
P 1
kP k kEk
i
Por tanto, las mejores matrices para el calculo efectivo de sus autovalores y
autovectores son las diagonalizables unitariamente y estas reciben el nombre
de matrices normales.
Es necesario aclarar que si una matriz A no es normal y le calculamos sus
autovalores, estos pueden reflejar, con la exactitud que se desee, sus verdaderos
valores, pero estos no van a representar la solucion del problema que genero
118
Autovalores y autovectores
T T =
=
0 c
b c
ab |b|2 + |c|2
2
2
a
0
a
b
|a|
+
|b|
bc
TT =
=
0 c
b c
bc
|c|2
Dado que se trata de una matriz normal es T T = T T por lo que igualando
ambas matrices se obtiene que |b|2 = 0 es decir b = 0 y, por tanto, T es
diagonal.
Supongamos ahora que el teorema es cierto para cualquier matriz triangular
y normal de orden n y vamos a probarlo para otra de orden n + 1.
a a an+1
a 0 0
1 2
a2
Sean T = .
y
T
=
..
.
.
Tn
Tn
0
an
n
X
2
2
|ai |
|a
|
1
TT =
T T =
i=1
Tn T
Tn Tn
De la igualacion de ambas obtenemos que |a2 |2 +|a3 |2 + +|an+1 |2 = 0, por lo
119
P AP =
An
1
Sea Q =
en donde Un es la matriz unitaria que, por hipotesis de
Un
induccion, verifica que Un An Un = Triangular superior.
Si consideremos la matriz U = P Q es facil comprobar que U AU = Q P AP Q
es una triangular superior.
Teorema 4.6 Una matriz A es normal si, y s
olo si, AA = A A.
Demostraci
on. Supongamos que AA = A A. Por el Teorema 4.5 sabemos
que existe una matriz unitaria U tal que U AU = T con T triangular superior.
Entonces A = U T U , por lo que
AA = (U T U )(U T U ) = U T U U T U = U T T U
=
A A = (U T U ) (U T U ) = U T U U T U = U T T U
U T T U = U T T U
es decir, T T = T T por lo que T es una matriz normal y triangular, por lo que
el Teorema 4.4 nos asegura que es diagonal y, por tanto, A es diagonalizable
unitariamente, es decir, es normal.
120
Autovalores y autovectores
t11 t12 t1n
t11
0 t22 t2n 0
T = ..
.. . .
.. = ..
.
. . .
.
0 0 tnn
0
0 t12
0 0
.. ..
. .
0 0
t1n
t2n
..
..
. .
0
v
u
n
X
u
2
t
|i |2
kM k2 = kAk2
i=1
Definici
on 4.1 Se denomina matriz conmutatriz de una matriz cuadrada A
a la matriz C(A) = A A AA .
Otra forma de medir el condicionamiento de una matriz es considerar la
norma eucldea de la matriz conmutatriz
kC(A)k2 = kAA A Ak2
obteniendose el siguiente resultado:
121
a)
(4.1)
(4.2)
122
Autovalores y autovectores
4.4
M
etodos iterados para la obtenci
on de autovalores y autovectores
4.4.1
Cociente de Rayleigh
x Ax
x x
x Ax
Al cociente se le denomina cociente de Rayleigh del vector x respecto
xx
de la matriz A.
Podemos, por tanto, obtener una aproximacion del autovector por un metodo
iterado para mas tarde aproximar el autovalor mediante el cociente de Rayleigh.
4.4.2
123
M
etodo de la potencia simple y variantes
para cualquier
i = 1, 2, . . . , n
i
= k1 1 x1 + + kn k xk = k1 1 x1 +
i xi
1
i=2
k
i
Dado que |1 | > |i | se tiene que lim
= 0 i = 2, 3, . . . , n.
k
1
zk
Se verifica entonces que lim k = 1 x1 que es un autovector de A asociado
k 1
al autovalor 1 .
Si k es suficientemente grande, se tiene
k
Azk = zk+1 k+1
1 1 x1 = 1 (1 1 x1 ) = 1 zk
124
Autovalores y autovectores
10 0000
w0 = 10 0000
10 0000
130 0000
z1 = 70 0000
140 0000
00 9286
w1 = 00 5000
10 0000
110 5714
z2 = 50 8571
120 1429
00 9529
w2 = 00 4824
10 0000
0
0 9571
w4 = 00 4805
10 0000
0
0 9572
w6 = 00 4805
10 0000
110 6824
z3 = 50 8706
120 2118
0
11 7039
z5 = 50 8753
120 2273
0
11 7042
z7 = 50 8754
120 2275
00 9566
w3 = 00 4807
10 0000
0
0 9572
w5 = 00 4805
10 0000
110 7013
z4 = 50 8748
120 2254
0
11 7042
z6 = 50 8754
120 2275
z7T Az7
= 12.22753579693696.
z7T z7
Este metodo solo nos permite calcular, en caso de existir, el autovalor dominante (mayor valor absoluto) de una matriz. Existen sin embargo otras
variantes del metodo de la potencia simple que nos permiten calcular cualquiera de sus autovalores a partir de una aproximacion de ellos. Debido a la
existencia de dichas variantes es por lo que el metodo estudiado anteriormente
es conocido como metodo de la potencia simple para distinguirlo de los que
estudiaremos a continuacion.
Conviene aqu recordar algunas propiedades de los autovalores de una matriz.
Teorema 4.10 Si A una matriz regular y un autovalor suyo asociado al
autovector v, se verifica que 1/ es un autovalor de A1 asociado al mismo
autovector v.
125
Demostraci
on. Si es un autovalor de A asociado a v sabemos que Av = v.
Al tratarse de una matriz invertible (det(A) 6= 0) sus autovalores son todos
no nulos, por lo que podemos dividir por y multiplicar por A1 la u
ltima
1
igualdad para obtener que A1 v = v es decir, 1/ es un autovalor de A1
asociado a v.
Teorema 4.11 Si es un autovalor de una matriz A asociado a un autovector
v y una constante cualquiera se verifica que es un autovalor de la matriz
A I asociado al mismo autovalor v.
Demostraci
on. Sabemos, por hipotesis, que Av = v, por lo que Av v =
v v y, por tanto,
(A I)v = ( )v
es decir, es un autovector de A I asociado a v.
Teorema 4.12 Si es un autovalor de una matriz A asociado a un autovector
v y (una constante cualquiera) no es autovalor de A entonces 1/( ) es
un autovalor de la matriz (A I)1 asociado al autovector v.
La demostracion se basa en los teoremas 4.10 y 4.11 y se deja al lector.
Sea A Rnn una matriz diagonalizable regular para la que sus autovalores
verifican que:
0 < |1 | < |2 | |n |
(4.3)
Los autovalores 1 , 2 , . . . , n de la matriz A1 son los inversos de los autovalores de A,
1
i =
para i = 1, 2, . . . , n.
i
Invirtiendo la expresion (4.3) nos queda
1
1
1
>
|1 |
|2 |
|n |
o lo que es lo mismo:
|1 | > |2 | |n |
es decir, el autovalor de menor valor absoluto de la matriz A se corresponde
con el de mayor valor absoluto de A1 , por lo que aplicando el metodo de la
126
Autovalores y autovectores
1
) del autovalor
1
de menor valor absoluto de la matriz A y, por tanto, dicho autovalor.
potencia simple a la matriz A1 obtenemos el inverso (1 =
6 2 5
de menor valor absoluto de la matriz del Ejemplo 4.2 A = 2 2 3 busca 0 5 03 6
0 75 0 75 1
mos el de mayor valor absoluto de su inversa A1 = 00 75 20 75 2 por
1 2
2
T
el metodo de la potencia simple. Partiendo del vector z0 = (1 1 1) obtenemos:
10 0000
w0 = 10 0000
10 0000
00 5000
z1 = 10 5000
10 0000
00 3333
w1 = 10 0000
00 6667
10 6667
z2 = 40 3333
30 6667
00 3846
w2 = 10 0000
00 8462
0
0 4003
w4 = 10 0000
00 8637
0
0 4006
w6 = 10 0000
00 8640
0
0 4006
w8 = 10 0000
00 8640
10 8846
z3 = 40 7308
40 0769
0
1 9140
z5 = 40 7777
40 1278
0
1 9145
z7 = 40 7785
40 1286
0
1 9145
z9 = 40 7785
40 1287
00 3984
w3 = 10 0000
00 8618
0
0 4006
w5 = 10 0000
00 8640
0
0 4006
w7 = 10 0000
00 8640
10 9106
z4 = 40 7724
40 1220
0
1 9144
z6 = 40 7784
40 1285
0
1 9145
z8 = 40 7785
40 1287
3 =
127
z9T Az9
= 0.20927063325837.
z9T z9
128
Autovalores y autovectores
obtenemos:
10 0000
w0 = 10 0000
10 0000
30 1429
z1 = 20 5714
20 0000
10 0000
w1 = 00 8182
00 6364
150 8701
z2 = 130 8442
80 5455
10 0000
w2 = 00 8723
00 5385
0
1 0000
w4 = 00 8675
00 5403
0
1 0000
w6 = 00 8675
00 5404
150 8499
z3 = 130 7466
80 5663
150 8244
z5 = 130 7280
80 5508
150 8244
z7 = 130 7279
80 5508
1 0000
w3 = 00 8673
00 5405
0
1 0000
w5 = 00 8675
00 5404
150 8233
z4 = 130 7272
80 5501
150 8244
z6 = 130 7279
80 5508
z7T Az7
= 1.56319356980456.
z7T z7
4.4.3
Algoritmo QR de Francis
A0 = A = Q0 R0
A1 = R0 Q0 = Q1 R1
A2 = R1 Q1 = Q2 R2
...................
...................
129
A1 = R0 Q0 = Q0 AQ0
A2 = R1 Q1 = Q1 R0 Q0 Q1 = Q1 Q0 AQ0 Q1 =
= (Q0 Q1 ) A(Q0 Q1 )
.......................................................................
.......................................................................
Rn1 Qn1 = Qn Rn An = Rn Qn = (Q0 Q1 Qn1 ) A(Q0 Q1 Qn1 )
.......................................................................
.......................................................................
R0 Q0 = Q1 R1
1 2 3
Ejemplo 4.5 Para el calculo de los autovalores de la matriz A = 2 2 3
3 3 3
se tiene:
1 2 3
7
10 9415
00 6671
00 1850
A0 = A = 2 2 3
A1 = 10 9415 00 5385
3 3 3
00 6671
00 1850 00 4615
0
7 5034
00 3365
00 0344
70 5162 00 0530
00 0016
00 0348
A2 = 00 3365 10 1474 00 1174 A3 = 00 0530 10 1758
00 0344 00 1174 00 3554
00 0016
00 0348 00 3404
0
7 5165
00 0083
00 0001
7 5165 00 0013
00 0000
00 0029
A4 = 00 0083 10 1775 00 0100 A5 = 00 0013 10 1776
0
0
0
0
0
0 0001 0 0100 0 3390
0 0000
0 0029 00 3389
0
7 5165
00 0002
0
7 5165
0
0
10 1776
0
A6 = 00 0002 10 1776 00 0008 A7 = 0
0
00 0008 00 3389
0
0
00 3389
Por lo que los autovalores de la matriz A son:
10 1776
00 3389
70 5165
130
Autovalores y autovectores
0 a22 a23
0 a32 a33
donde a11 es el autovalor real y los autovalores de la matriz
a22 a23
a32 a33
!
son
0 a32 a33 a3 n1
a
3n
A = ..
..
.. . .
..
..
.
.
.
.
.
.
0
0
0 an1 n1 an1 n
0
0
0 an n1
ann
131
a11
a12 a1 n+1
0
a21
v2
a22 a2 n+1
sea
v
=
Dada la matriz A = ..
.. el
..
..
.
.
.
.
.
.
.
vn+1
an+1 1 an+1 2 an+1 n+1
vector cuya transformacion de Householder asociada H1 es tal que
a11
a11
a21 a
21
a31 0
H1
=
.
.. ..
. .
an+1 1
0
1 0 0 0
0
0
Dicha transformacion es de la forma H1 =
. Entonces:
..
0
.
H1
0
a11
1 0 0 0
a11
a
a
21
21 0
0
0 0
H1 AH1 =
..
.. .. .. . . .. ..
0
. . .
. . .
An
H1 .
0
0
0
Es facil comprobar que si para k = 2, 3, . . . , n 1 hacemos
1 0 0 0
0
Hk =
..
0
.
Hk
0
132
Autovalores y autovectores
0
0
siendo Hn1
, Hn2
, . . . , H20 las n2 transformaciones de Householder tales que
0
0
0
0
Hn1
Hn2
H20 An H20 Hn2
Hn1
4.4.4
M
etodo de Jacobi para matrices sim
etricas reales
Comenzaremos viendo el metodo para dimension dos y, mas tarde, generalizaremos para una dimension cualquiera.
a b
Dada una matriz simetrica y real A =
el metodo trata de buscar
b c
cos sen
un valor para de tal forma que la rotacion P =
haga
sen cos
que la matriz P 1 AP sea diagonal.
cos sen
a b
cos sen
0
1
P AP =
=
sen
cos
b c
sen cos
0
Se debe verifica, por tanto, que
(a c) cos sen + b(cos2 sen2 ) = 0
es decir:
b(cos2 sen2 ) = (c a) cos sen
Si c = a basta tomar = .
4
Si c 6= a podemos dividir por c a y obtenemos que
2b
2 cos sen
sen 2
=
=
= tg 2
2
2
ca
cos sen
cos 2
Llamando m =
2b
se tiene que tg 2 = m, por lo que
ca
1 1 + m2
t = tg =
m
1
1 + t2
sen =
t
1 + t2
133
valores, estos u
ltimos, que nos permiten determinar la matriz P .
Algoritmo de c
alculo
a b
a) Dada A =
b c
a.1) Si b = 0
FIN.
a.2) Si b 6= 0 y a = c
!
2/2
2/2
P =
2/2
2/2
1 1 + m2
2b
t=
.
b) m =
ca
m
c) cos =
1
1 + t2
P 1 AP =
!
.
FIN.
t
.
1 + t2
!
sen =
cos sen
P =
P 1 AP =
y
sen cos
!
.
FIN.
Ip1
Tqp+1
P =
Inq
en la que
cos
sen
Iqp1
Tqp+1 =
sen
cos
2
Si app = aqq , hacemos cos = sen =
.
2
Si app 6= aqq
2apq
1 1 + m2
llamando m =
y t=
hacemos
aqq app
m
cos =
1
1 + t2
sen =
t
1 + t2
134
Autovalores y autovectores
1 2
2
0
Ejemplo 4.6 Consideremos la matriz A =
3
4
1
2
simetrica y real.
3
4
1
1
1
2
que es
1
0
2a23
1 + 1 + m2
1
t
t=
cos =
m=
sen =
2
a33 a22
m
1+t
1 + t2
P23 = I4
obteniendose
P23
1
0
0
0.7497
=
0 0.6618
0
0
0
0
0
1
por lo que
T
P23
AP23
1 3.4848
3.4848 3.5311
=
0.9254
0
1
0.8376
0.9254
0
4.5311
2.0733
1
0.8376
2.0733
0
135
0.8507
0
0 0.5257
0
1
0
0
P14 =
0
0
1
0
0.5257
0
0
0.8507
T
T T
que aplicaramos a P23
AP23 para obtener P14
P23 AP23 P14 = P T AP donde la
matriz P viene dada por P = P23 P14 .
P = P23 P14
0.8507
0
0
0.7497
=
0 0.6618
0.5272
0
0 0.5257
0.6618
0
0.7497
0
0
0.8507
1.6180 2.5240
1.8772
0
2.5240 3.5311
0
2.5445
P T AP =
1.8772
0
4.5311
1.2771
0
2.5445
1.2771 0.6180
que volveremos a renombrar con A.
A la vista de la matriz enviaramos al Ordenador 1 los datos de los elementos
a22 , a24 = a42 y a44 mientras que enviaramos al Ordenador 2 los de a11 ,
136
Autovalores y autovectores
a13 = a31 y a33 que nos devolveran los elementos necesarios para construir
una nueva matriz
0.8981
0
0.4399
0
0
0.8661
0
0.5016
P =
0.4399
0
0.8981
0
0 0.5016
0
0.8651
y a partir de ella
0.6986 1.6791
0 1.6230
1.6791 5.0065 1.5358
0
P T AP =
0 1.5358
5.4506
0.4353
1.6230
0
0.4353
0.8573
Reiterando el proceso llegamos a la matriz
2.5892
0
0
0
0
5.6823
0
0
0
0
5.7118
0
0
0
0 0.6188
Los autovalores de una matriz normal cualquiera pueden ser reales o complejos mientras que los de una matriz hermtica son todos reales, por lo que
si pudieramos transformar el calculo de los autovalores de una matriz normal en los de otra hermtica habramos simplificado el problema. Es mas,
si pudieramos transformarlo en el calculo de los autovalores de una matriz
simetrica real, podramos trabajar en el campo real en vez de hacerlo en el
campo complejo y, entre otras cosas, podramos utilizar el metodo de Jacobi a
partir de una matriz normal cualquiera previa transformacion en un problema
de autovalores de una matriz simetrica real.
En las siguientes secciones estudiaremos como pueden realizarse dichas transformaciones.
4.5
Reducci
on del problema a matrices hermticas
Proposici
on 4.14 Dada cualquier matriz cuadrada A, existen dos matrices
hermticas H1 y H2 tales que A = H1 + iH2 .
137
Demostraci
on. Si se quiere que A = H1 + iH2 con H1 y H2 hermticas,
se tendra que A = H1 iH2 = H1 iH2 , por lo que resolviendo el sistema
resultante se tiene que
A + A
A A
H2 =
2
2i
ademas, dado que el sistema es compatible determinado, la solucion es u
nica.
H1 =
U AU = D
D = U AU =
A=U
H1 = U
0
0 2
.. ..
. .
0 0
0
0 2
.. ..
. .
0 0
..
.
...
+ i
0
0
2 + i2
..
..
.
.
0
0
.. U + iU
.
n
0
0
..
.
...
0
0
..
.
n + in
0
0 2
.. ..
. .
0 0
H2 = U
..
.
0
0
..
.
n
0
0 2
.. ..
. .
0 0
U =
..
.
0
0
..
.
138
Autovalores y autovectores
Demostraci
on.
H1 H2 =
A + A A A
A2 AA + A A + (A )2
=
2
2i
4i
H2 H1 =
A A A + A
A2 + AA A A + (A )2
=
2i
2
4i
A2 + (A )2
A + A A A
H1 H2 =
2
2i
4i
= H1 H2 = H2 H1
A A A + A
A2 + (A )2
H2 H1 =
=
2i
2
4i
b) Si H1 H2 = H2 H1 se verifica que
A2 AA + A A + (A )2 = A2 + AA A A + (A )2
por lo que
AA + A A = A2 + AA A A 2A A = 2AA A A = AA
y, por tanto, A es normal.
4.6
Reducci
on del problema a matrices sim
etricas reales
Sea H una matriz hermtica y sean hij = aij + ibij con 1 i, j n sus
elementos. Podemos descomponer la matriz H de la forma H = A + iB donde
A y B son matrices reales con A = (aij ) y B = (bij ). Por ser H hermtica se
verifica que
A = AT
T
T
A+iB = H = H = A iB = A iB (por ser A y B reales) =
B = B T
Sea x = a + ib un autovector de H asociado al autovalor (recuerdese que
R por ser H una matriz hermtica). Se verifica entonces que
Hx = x
139
Aa Bb = a
Ab + Ba = b
por lo que
A B
B
A
A B
B
A
T
=
a
b
=
A B
B
A
AT B T
B T AT
a
b
es simetrica, ya que
A B
B
A
A B
Los autovalores de la matriz
son, por tanto, los mismos que
A
B
A B
los de H y si un autovector de
es (x1 , . . . , xn , xn+1 , . . . , x2n ), el
B
A
correspondiente autovector de la matriz H es (x1 + ixn+1 ), . . . , (xn + ix2n ) .
Dada una matriz normal calcularemos sus autovalores de la siguiente forma:
Algoritmo de c
alculo de los autovalores de una matriz normal
Paso 1 Calcular las componentes hermticas
H1 =
A + A
2
H2 =
A A
2i
de la matriz A.
Paso 2 Calcular los autovalores i (1 i n) de la primera componente
hermtica H1 y sus autovectores asociados vi reduciendo previamente el
problema al caso de matrices reales y simetricas.
Paso 3 Calcular los cocientes de Rayleigh i =
vi H2 vi
.
vi vi
140
4.7
Autovalores y autovectores
Aplicaci
on al c
alculo de las races de un
polinomio
Consideremos el polinomio
P (x) = a0 xn + a1 xn1 + a2 xn2 + + an1 x + an
Dado que el polinomio caracterstico de la matriz
A=
In1
an /a0
0
..
.
4.8
Ejercicios propuestos
6 9 3
A = 2 3 1 .
4 6 2
00 6 00 8
Ejercicio 4.2 Comprobar que la matriz U =
es unitaria (or00 8 00 6
togonal) y obtener, basandose en ella, una matriz normal A que tenga por
autovalores 2 y 3i. Calcular la conmutatriz de A y comprobar que sus componentes hermticas conmutan.
Ejercicios propuestos
141
9
1 2
1
0
8
1
1
A=
1
0
7
0
1
0
0
1
tiene, al menos, dos autovalores reales.
Ejercicio 4.4 Dada la matriz A =
2 + 3i 1 + 2i
1 + 2i 2 + 3i
se pide:
a 1 1
Ejercicio 4.5 Dada la matriz A = 1 a 1 donde a es un n
umero com1 1 a
plejo cualquiera, se pide:
a) Obtener su polinomio caracterstico.
b) Probar que tiene por autovalores: = a 1 doble y = a + 2 simple.
c) Calcular los autovectores y comprobar que no dependen de a.
2i
0
2 + 4i
0
4 5i
2 4i , se pide:
Ejercicio 4.6 Dada la matriz A =
2 + 4i 2 4i
3 3i
a) Probar que es normal.
b) Obtener su primera componente hermtica H1 y calcular el polinomio
caracterstico de dicha componente.
c) Calcular los autovalores de H1 y, por el mismo metodo anterior, sus
autovectores.
d) Teniendo en cuenta que estos autovectores tambien lo son de la matriz
H2 (segunda componente hermtica), calcular sus autovalores.
142
Autovalores y autovectores
e) Obtener, a partir de los resultados anteriores, los autovalores y autovectores de A, as como la matriz de paso unitaria U tal que U AU = D.
Ejercicio 4.7 Dada la matriz A =
2 1
1 0
se pide:
1 2 3
Ejercicio 4.8 Dada la matriz A = 2 2 3
3 3 3
a) Hallar sus autovalores mediante el algoritmo QR.
b) Hallar el autovalor de mayor valor absoluto, por el metodo de la potencia,
partiendo del vector (10, 11, 1)
Ejercicio 4.9 Dada la matriz A =
1 + i 2 + i
2i
1+i
se pide:
i
a) Comprobar que es normal y que v1 =
es un autovector de su
1
primera componente hermtica H1 asociado al autovalor 1 = 0.
b) Calcular el otro autovalor (y un autovector asociado) de la matriz H1
aplicando el metodo de la potencia.
x y
c) Considerese la matriz real y simetrica S =
. Probar que la
y x
cos sen
t
transformacion de Jacobi Q SQ con Q =
y = /4
sen cos
nos anula los elementos extradiagonales.
d) Transformar el problema del calculo de los autovalores de la matriz H2
(segunda componente hermtica de la matriz A) al del calculo de los autovalores de una matriz C simetrica real y comprobar que son suficientes
dos transformaciones de Jacobi Q1 y Q2 , del tipo de las del apartado
anterior, para diagonalizar dicha matriz C y obtener los autovalores de
H2 .
e) Obtener, a partir de las columnas de la matriz Q = Q1 Q2 , los autovectores de la matriz H2 . Cuales son los autovalores de la matriz A?
Ejercicios propuestos
143
Ejercicio
4.10 Sea = + i, , R, autovalor de la matriz A =
2i 2
.
2 2i
a) Utilizar el teorema de Gerschgorin para probar que el u
nico autovalor
real de la matriz A solo puede ser = 0.
b) Probar que A? = A y deducir, a partir de ello, que A es una matriz normal. Puede ser NO diagonalizable una matriz compleja que verifique
esa relacion?
c) Utilizar la descomposicion hermtica de la matriz, A = H1 + iH2 , para
deducir que la parte real de los autovalores de A tiene que ser = 0.
d) Hallar el autovalor dominante (de maximo modulo) de la componente
hermtica H2 aplicando el metodo de la potencia. Quien es el autovalor
dominante de A?
Sugerencia: Iniciar el metodo con el vector v1 = (1, 0)T .
e) Si se perturba la matriz A en la matriz
(2 103 ) i
2
A + A =
,
2
(2 + 102 ) i
hallar la norma eucldea de la matriz A. Puedes encontrar una cota
del error E = | |, transmitido al autovalor dominante?
Indicacion: | | ||P || ||P 1 || ||A||, siendo P 1 AP diagonal.
Ejercicio 4.11
a) Probar que las races del polinomio
b + c2 + 3 son los
p() = a +
0
1
0
0
0
1 .
autovalores de la matriz A(p) =
a b c
b) Si el metodo de la potencia aplicado a la matriz A(p) converge a un
vector v, que relacion tiene v con las races del polinomio p()?
c) Si el algoritmo QR aplicado a la matriz A(p) converge a una matriz
triangular T , que relacion tiene T con las races del polinomio p()?
d) Si se puede obtener la factorizacion LU de la matriz P A(p), siendo P
una matriz de permutacion, quienes tienen que ser P, L y U ?
144
Autovalores y autovectores
4
2 4
1
0
0
b) El polinomio caracterstico de la matriz A =
0
1
0
0
0
1
precisamente el polinomio P (x) del Ejercicio 1. Calculando sus
lores mediante el algoritmo QR el proceso converge a la matriz
4.64575131106459
0
0
0
4.07664693269566
1.32820441231845 2.21143157264058
0.24888977635522 0.86635866374600
1.22575806673700
0
3
0
es
0
0
autova-
0.24888977635522
0
0.58988079050108
0.03848978825890
0.64575131106459
Ejercicios propuestos
145
1
se obtiene en la cuarta iteracion el vector 0.2152 .
tor x =
1
0.0463
1
0.0100
Determinar una aproximacion de la raz de mayor valor absoluto del polinomio P (x) (autovalor correspondiente) utilizando el cociente de Rayleigh.
Ejercicio
A= 0
3
1 0
1 671 00 242 20 164
0 1
0
0 1 , An = 00 00 00 50
10 47 y B = 0 0
1 .
0
0
0
0
1 0
0 00 0 81 1 16
3 1 01
a) Aplicando el algoritmo QR real a la matriz A se obtiene (iterando suficientemente), como aproximacion aceptable del metodo, la matriz An .
Por que las matrices A y An deben tener los mismos autovalores?
Hallar las aproximaciones de los autovalores de la matriz A que se obtienen de An .
b) Tomando v0 aleatoriamente, se debe esperar convergencia o divergencia
en el metodo de la potencia aplicado a la matriz A?
Empezar en v0 = (1, 1, 1)T y determinar los tres primeros vectores v1 ,
v2 y v3 que proporciona el metodo. Hallar la mejor aproximacion del
autovalor dominante de A, en norma || ||2 , que se obtiene con v3 .
c) Estudiar si A es una matriz normal. Si se perturba A en la matriz
B = A + A, hallar la medida de la perturbacion ||A||2 .
Se podra asegurar que los autovalores dominantes de las matrices A y
B difieren, a lo mas, en 01?
Ejercicio 4.15
J =
0 1
0
0
1
1
1
1
0
1
Sean A =
1 1
2
1 .
0
2
0
1 con 0 < 1, b = 1 y
146
Autovalores y autovectores
3
0 1
2 .
Ejercicio 4.16 Considerese la matriz A = 1 2
1 1
8
a) Hacer uso de los crculos de Gerschgorin para estudiar el n
umero de
autovalores reales que posee.
Obtener su polinomio caracterstico P () y un intervalo de amplitud 1
que contenga a su autovalor dominante.
b) Comprobar que la formula de Newton-Raphson asociada a dicho polinomio es
23n 92n 39
n+1 = (n ) = 2
.
3n 18n + 3
Sabiendo que la grafica de la funcion y = 0 () en el intervalo [8, 9]
viene dada por la figura adjunta, podemos garantizar la convergencia
del metodo de Newton partiendo de cualquier punto 0 [8, 9]?
Ejercicios propuestos
147
8 0195 00 5134
20 7121
0
20 7493
10 5431
An =
0
x
y
Puede ser nulo el elemento x?, se pueden determinar los elementos
que faltan sin necesidad de volver a aplicar el algoritmo QR? Sabras
decir cual es la aproximacion obtenida para los otros dos autovalores de
la matriz A?
0
1
0
0
1 .
Ejercicio 4.17 Se considera la matriz A = 0
0.25 0.125 1
a) Demostrar que las races del polinomio P (x) = 2+x8x2 +8x3 coinciden
con los autovalores de A. Acotar y separar las races de P (x), indicando
cuantas races reales y complejas tiene. Comparar los resultados con la
informacion que se desprende del estudio de los crculos de Gerschgorin.
b) Determinar un intervalo de amplitud 0.5 con un extremo entero que
contenga a la raz negativa de P (x). Razonar si se verifican en dicho intervalo las condiciones de Fourier. Aproximar por el metodo de NewtonRaphson dicha raz con 2 cifras decimales exactas.
148
Autovalores y autovectores
c) Tomando como vector inicial z0 = (0, 1, 0)T , realizar dos iteraciones del
metodo de la potencia inversa. Por medio del cociente de Rayleigh asociado al vector hallado, determinar una aproximacion del autovalor de A
correspondiente. Que relacion existe entre este valor y la aproximacion
hallada en el apartado anterior? Puede haber autovalores de la matriz
A en el crculo de centro 0 y radio 14 ? Razonar las respuestas.
d) Al aplicar el algoritmo QR a la matriz A se obtiene como salida la matriz
T = Q AQ, para cierta matriz unitaria Q. Puede ser T una matriz
triangular superior? Justificar la respuesta.
Ejercicio 4.18
a) Utilizar el metodo interpolatorio para determinar el polinomio caracterstico p() de la matriz
2 1
0
1
A = 0 2
1
0
5
b) A la vista de los crculos de Gerschgorin, se puede garantizar que el
algoritmo QR aplicado a la matriz A convergera a una matriz triangular
con sus autovalores en la diagonal? Se puede garantizar la convergencia
del metodo de la potencia simple si comenzamos a iterar con el vector
v = (1 1 1)T ?
c) Haciendo uso de los crculos de Gerschgorin, determinar cuantos autovalores reales posee y calcular un intervalo de amplitud 1 y extremos
enteros que contenga al autovalor dominante.
d) Comprobar que, en dicho intervalo, se verifican TODAS las hipotesis de
Fourier para la convergencia del metodo de Newton. En que extremo
deberamos comenzar a iterar?
e) Tomando x0 = 5 y aplicando el metodo de Newton, con cuantas cifras
exactas se obtiene x1 ?
0
1
0
0
1 .
Ejercicio 4.19 Se considera la matriz A = 0
0.25 0.125 1
Ejercicios propuestos
149
a) Demostrar que las races del polinomio P (x) = 2+x8x2 +8x3 coinciden
con los autovalores de A. Acotar y separar las races de P (x), indicando
cuantas races reales y complejas tiene. Comparar los resultados con la
informacion que se desprende del estudio de los crculos de Gerschgorin.
b) Determinar un intervalo de amplitud 0.5 con un extremo entero que
contenga a la raz negativa de P (x). Razonar si se verifican en dicho intervalo las condiciones de Fourier. Aproximar por el metodo de NewtonRaphson dicha raz con 2 cifras decimales exactas.
c) Tomando como vector inicial z0 = (0, 1, 0)T , realizar dos iteraciones del
metodo de la potencia inversa. Por medio del cociente de Rayleigh asociado al vector hallado, determinar una aproximacion del autovalor de A
correspondiente. Que relacion existe entre este valor y la aproximacion
hallada en el apartado anterior? Puede haber autovalores de la matriz
A en el crculo de centro 0 y radio 14 ? Razonar las respuestas.
d) Al aplicar el algoritmo QR a la matriz A se obtiene como salida la matriz
T = Q AQ, para cierta matriz unitaria Q. Puede ser T una matriz
triangular superior? Justificar la respuesta.
Ejercicio 4.20
a) Utilizar el metodo interpolatorio para determinar el polinomio caracterstico p() de la matriz
2 1
0
1
A = 0 2
1
0
5
b) A la vista de los crculos de Gerschgorin, se puede garantizar que el
algoritmo QR aplicado a la matriz A convergera a una matriz triangular
con sus autovalores en la diagonal? Se puede garantizar la convergencia
del metodo de la potencia simple si comenzamos a iterar con el vector
v = (1 1 1)T ?
c) Haciendo uso de los crculos de Gerschgorin, determinar cuantos autovalores reales posee y calcular un intervalo de amplitud 1 y extremos
enteros que contenga al autovalor dominante.
d) Comprobar que, en dicho intervalo, se verifican TODAS las hipotesis de
Fourier para la convergencia del metodo de Newton. En que extremo
deberamos comenzar a iterar?
150
Autovalores y autovectores
3 3 5
0
0 es el polinomio P (x) dado.
terstico de la matriz A = 1
0
1
0
e) Para resolver el sistema (A + 00 5 I3 )x = (1, 1, 1)T observamos que
resulta mas comodo llevar la primera ecuaci
ltimo
on al u
lugar, es decir,
0 1 0
multiplicar el sistema por la matriz P = 0 0 1 . Se altera de
1 0 0
esta forma el condicionamiento del sistema? Comprueba que la solucion
1
es el vector x = 21
(50, 58, 74)T .
f) Tomando 00 50 como una primera aproximacion de su autovalor real,
partiendo del vector z0 = (1, 1, 1)T y trabajando solo con dos cifras decimales, realizar una iteracion del metodo de la potencia inversa con desplazamiento para calcular, mediante el cociente de Rayleigh, una nueva
aproximacion de dicho autovalor. Se puede garantizar ahora alguna
cifra decimal exacta?
Ejercicio 4.22 Sean las matrices A, B, C M22 (C), definidas por
A=
1 i
3 + 3i
3 3i
1 i
!
, B = 12
1 i
i 1
, C=
2 + 2i
4 4i
!
.
Ejercicios propuestos
151
Indice
Desigualdad
de Eberlein, 121
de Heurici, 121
Desviacion de la normalidad, 120
Distancia, 42
inducida, 43
Algoritmo
de Horner, 27
de la biseccion, 5
de Newton, 14
QR de Francis, 128
Autovalor, 113
Autovector, 113
Eberlein
desigualdad de, 121
Ecuaciones
algebraicas, 20
Ecuacion
caracterstica, 113
Error
absoluto, 2
relativo, 2
Espacio normado, 41
Estabilidad, 3
Biseccion
algoritmo de la, 5
metodo de la, 4
Bolzano
teorema de, 4
Ceros
de polinomios, 20
de una funcion, 1
Cholesky
factorizacion de, 62
Cociente de Rayleigh, 122
Condicionamiento, 3
Condicion
n
umero de, 3, 52, 54
Convergencia, 43
Factorizacion
de Cholesky, 62
LU, 58
ortogonal, 79
Formula
de Heron, 15
de Newton-Raphson, 12
Fourier
regla de, 16, 18
Funcion
ceros de una, 1
contractiva, 8
Indice
154
Gauss-Seidel
metodo de, 70
Gerschgorin
crculos de, 48
teorema de, 48
Gradiente conjugado
metodo de, 71
Hadamard
martiz de, 61
Heron
formula de, 15
Hessenberg
matriz de, 130
Heurici
desigualdad de, 121
Horner
algoritmo de, 27
Householder
transformacion de, 82
transformacion en el campo complejo, 84
Jacobi
metodo de, 70, 132
Laguerre
regla de, 23
Matriz
conmutatriz, 120
de diagonal dominante, 60
de Hadamard, 61
de Hessenberg, 130
fundamental, 59
sparce, 51
triangular
inferior, 51
superior, 51
tridiagonal, 51
unitaria, 46
Metodo
consistente, 65
convergente, 65
de descomposicion, 69
de Gauss-Seidel, 70
de Jacobi, 70
para matrices simetricas reales, 132
de la biseccion, 4
de la potencia simple, 123
de la regula falsi, 6
de Newton, 12
para races m
ultiples, 18
de relajacion, 71
de Sturm, 24
del descenso mas rapido, 71
del gradiente conjugado, 71
directo, 1, 52, 58
interpolatorio, 115
iterado, 1, 52, 65
Newton
algoritmo de, 14
metodo de, 12
para races m
ultiples, 18
Newton-Raphson
formula de, 12
Norma, 41
eucldea, 42
infinito, 42
matricial, 43
eucldea, 44
infinito, 45
uno, 44
multiplicativa, 41
uno, 42
vectorial, 41
N
umero de condicion, 3, 52, 54
Penrose
Indice
pseudoinversa de, 97
Pivote, 60
Polinomio
caracterstico, 113
Potencia simple
metodo de la, 123
Pseudoinversa
de Penrose, 96, 97
Pseudosolucion, 93
Punto fijo
teorema del, 8
Radio espectral, 47
Rayleigh
cociente de, 122
Races
acotacion de, 21, 22
de una ecuacion, 1
m
ultiples, 1
separacion de, 24
simples, 1
Regla
de Fourier, 16, 18
de Laguerre, 23
de Ruffini, 28
Relajacion
metodo de, 71
Rolle
teorema de, 4
Rouche-Frobenius
teorema de, 91
Ruffini
regla de, 28
Regula falsi
metodo de la, 6
Schur
descomposicion de, 119
Sistema
bien condicionado, 52
155
compatible
determinado, 52
mal condicionado, 52
superdeterminado, 91
Solucion en mnimos cuadrados, 93
Sturm
metodo de, 24
sucesion de, 24
Sucesion
de Sturm, 24
Teorema
de Bolzano, 4
de Rolle, 4
de Rouche-Frobenius, 91
del punto fijo, 8
Bibliografa
[1] Burden, R.L. y Faires, J.D. An
alisis Numerico (Sexta edici
on). Internacional Thomson Ed. 1998.
[2] Golub, G.H. y Van Loan, C.F. Matrix Computations (Third edition). Johns
Hopkins University Press
[3] Hager, W. Applied Numerical Linear Algebra. Ed. Prentice-Hall International. 1988.
[4] Kincaid, D. y Cheney, W. An
alisis Numerico. Ed. Addison-Wesley Iberoamericana. 1994.
157