Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Capítulo3 Jacobi PDF
Capítulo3 Jacobi PDF
3.1. Introducción
El producto de una matriz cuadrada, A, por un vector (matriz columna), x, es otro vector,
cuyas componentes son habitualmente no proporcionales a las de x. Sin embargo,
puede existir un vector no nulo tal que:
Por ejemplo,
2 11 1
1
1 2 1 1
2 1 1 1
3
1 2 1 1
1 1
en este caso 1 y 2 son vectores característicos, a los que corresponden
1 1
los valores propios 1 y 3, respectivamente. Otros vectores, no paralelos a los dos antes
mencionados, no cumplen la condición (3.1a). Por ejemplo:
2 11 0
1 2 2 3
0 1
El vector no puede expresarse como un múltiplo de .
3 2
El problema clásico de valores y vectores característicos consiste en la determinación de
los vectores y los correspondientes escalares para los que se cumple (3.1a). Con
frecuencia se presenta el problema general:
(R ) A R z= z
-1 T -1
Nótese que los valores característicos son los mismos que los del problema original; los
correspondientes vectores característicos se relacionan mediante (3.2a).
(A - B) = 0 (3.3a)
que tiene soluciones no triviales sólo si la matriz (A - B) es singular, es decir, si:
p det A B 0 (3.3b)
Asociado a cada uno de los n valores característicos i se tiene un vector i. Si i es
una raíz de multiplicidad m, el correspondiente vector i puede obtenerse resolviendo el
sistema de ecuaciones homogéneas: (A - iB) i = 0 suponiendo m componentes
arbitrarias en i.
j
Restando las dos expresiones precedentes se obtiene: c λ
i 1
i s i i 0
A i = i B i
A i = i B i
A ( c 1 1 + c 2 2 + c 3 3 + … ) = i B ( c 1 1 + c 2 2 + c 3 3 + … )
Teniéndose n vectores característicos linealmente independientes de dimensión n, estos
constituyen una base completa. Cualquier otro vector de tal dimensión puede
expresarse como combinación lineal de los vectores característicos:
v = 1 1 + 2 2 + 3 3 + … + n n
Por ejemplo, con los vectores característicos antes obtenidos:
1 3 1 1 1
2 2
2 1 1
*s Α r r *s B r (3.4a)
*r Α s s *r B s
*s Α r *s *s B r (3.4b)
r
*s *s B r 0 (3.4c)
Por otro lado, si r s se tiene que r *s 0 y en consecuencia (3.4c) implica que:
*s A r a r rs (3.5b)
2 1 1
1 1 2
1 2 1
2 1 1
1 1 6
1 2 1
2 1 1
1 1 0
1 2 1
*s B r rs (3.6a)
Se dice entonces que los vectores están normalizados respecto a la matriz B. En tal
caso se tiene también:
*s A r r rs (3.6b)
Ti Α i
i (3.7)
Ti B i
Esta expresión puede aplicarse también con aproximaciones a los vectores propios. Si x
es una aproximación a un vector característico con un error de orden , el cociente de
2
Rayleigh, (x), aproxima el correspondiente valor característico con un error de orden .
A i i i
En consecuencia, cada valor característico i está dentro de por lo menos uno de los
círculos con centro en a ss y radio igual a la suma de los valores absolutos de la
correspondiente fila s.
2 1
A
1 4
que es definida positiva, puede asegurarse que sus valores característicos (que son
números reales) están dentro de los intervalos (1,3) y (3,5). Efectivamente, en este caso
3 2 .
A =
2
¿Cuáles son los valores característicos de la matriz A = A A?
(AA) = A (A = A ( = (A =
k
Este resultado puede extenderse para la matriz A (siendo k un exponente). Los
vectores característicos son los mismos que los de la matriz A, mientras que los
correspondientes valores característicos son k:
Ak = k
Esto es incluso válido para exponentes negativos. Por ejemplo, multiplicando ambos
miembros por A se obtiene:
-1 -1
A-1 = -1
Por otro lado, combinando linealmente expresiones como las anteriores y teniendo en
cuenta que A = I (así como = 1):
0 0
5 4
A 2 AA
4 5
tiene valores característicos 1 y 9 (es decir, los cuadrados de 1 y 3). Los vectores
característicos son los mismos para ambas matrices.
x j 1
x j 1 (3.8b)
r j 1
donde rj+1 es un escalar que normaliza el vector utilizado en la iteración. Lo habitual es
tomar rj+1 como el elemento de máximo valor absoluto en x j 1 , lo que significa escalar el
vector de aproximación de modo que la mayor componente sea igual a 1..
x0 = 1 1 + 2 2 + 3 3 + … + n-1 n-1 + n n
Recuérdese que los n vectores característicos son linealmente independientes y
constituyen una base completa en el espacio de dimensión n. Entonces (suponiendo
que B no es singular):
A x0 A B
i i i i i
y por lo tanto:
1
x1 i i i
r1 n
Lim x k n (3.9a)
k
Lim rk n (3.9b)
k
Esto es válido aún cuando n = 0 puesto que, por lo menos al tratar con grandes
matrices, los errores de redondeo (debidos a la aritmética imperfecta del computador)
introducen siempre una componente según n. La convergencia es muy rápida si
n n 1 o si x0 es aproximadamente paralelo a n (es decir, si la componente n
es importante en relación a las demás). En cambio, si los últimos valores característicos
son similares la convergencia es en general muy lenta. Por otro lado, no se tienen
dificultades para el caso (más académico que práctico) en que n n 1 : en tal caso el
proceso converge a un vector característico que resulta ser la proyección de x0 en el
subespacio definido por los vectores n y n-1.
5 2 0 1 0 0
A 2 3 1 B 0 2 0
0 1 1 0 3
0
Aún cuando en este caso se tienen matrices simétricas, el procedimiento descrito se
aplica a matrices cuadradas cualesquiera.
k xk Ax k x k 1 r k+1 (xk+1)
1.00000
El procedimiento converge al valor característico: 3 = 0.25180
0.01623
que corresponde al valor característico de mayor módulo, 3 = 5.503605.
Para determinar el vector característico asociado al valor propio de menor módulo (el
modo fundamental) puede usarse una "iteración inversa":
A x j 1 B x j (3.10a)
x j 1
x j 1 (3.10b)
r j 1
x0 = 1 1 + 2 2 + 3 3 + … + n-1 n-1 + n n
la aproximación xk puede expresarse como combinación lineal de los vectores
característicos con coeficientes proporcionales a i i (nuevamente, k es aquí un
k
exponente):
1 2 3 n 1 n
xk = 1 + 2 + 3 + … + n-1 + n
k1 k2 k3 kn 1 kn
Lim x k 1 (3.11a)
k
1
Lim rk (3.11b)
k 1
Para las matrices del caso anterior y considerando, por ejemplo, el vector inicial:
Nótese que r es ahora una aproximación de 1 / 1, mientras que en la iteración directa lo
era de n. También en este caso se observa que el cociente de Rayleigh es siempre una
mejor aproximación al valor característico.
k xk Bx k x k 1 r k+1 (xk+1)
3.2.3 Traslación
Nótese que el nuevo sistema (3.12b) tiene los mismos vectores característicos que el
sistema original (3.12a) y valores característicos i - . Desde el punto de vista del
polinomio característico, se ha trasladado el origen:
150
p()
100
50
0
0 1 2 3 4 5 6 7
-50
1 1
Si 1 puede lograrse que: 1 2 y por tanto:
1 2 ,
con lo que la convergencia mejora en forma apreciable.
4.846 2 0
A 0.154 B 2 2.692 1
0 1 0.538
y por iteración inversa:
k xk Bx k x k 1 r k+1 (xk+1)
0.22129
Se obtienen: 1 = 0.154 + 0.000624 = 0.154624 y 1 = 0.53613 .
1.00000
x Tk 1 y k
k 1 k (3.13)
x Tk 1 y k 1
y k 1 x Tk 1 y k 1 1
2 y k 1
Lim y k B 1 (3.14a)
k
Lim k 1 (3.14b)
k
La convergencia es cúbica.
v = 1 1 + 2 2 + 3 3 + ... + n n (3.15a)
Luego es suficiente restar de v los i i para obtener un vector que (salvo por la
imprecisión en la aritmética no tiene componentes según los vectores característicos
previamente hallados.
Para el ejemplo antes tratado, suponiendo que se haya obtenido el primer vector
característico:
0.221295029
1 = 0.536128843
1.000000000
0
y considerando v = 1 se obtiene 1 = 0.295889928, de donde:
0
0.06548
x0 = v - 1 1 = 0.84136
0.29589
es un vector ortogonal a 1. Si se hace una iteración inversa con x0 se obtiene
(suponiendo que se operara con una aritmética infinitamente precisa) el vector
característico 2:
k xk Bx k x k 1 r k+1 (xk+1)
0 -1.565 x 10-6
1 -1.580 x 10-5
2 -0.000123
3 -0.000941
4 -0.007188
5 -0.056063
Como estas componentes tienden a crecer más rápidamente que la propia solución, es
necesario eliminarlas cada 4 ó 5 pasos, utilizando el mismo proceso inicial:
j 1
xj = v -
i 1
i i
7 0.52288
1.00000
-0.39599
0.52288
1
se obtienen: 2 1.17511 y 2 = 1.00000
0.85098 0.39599
3.2.5 Deflación
~ ~
Otra alternativa es hacer una deflación, obteniendo un nuevo sistema A B , de
orden menor, con los mismos valores característicos del problema original, excepto los
previamente determinados. En lo que sigue se aplica esta idea a un problema de la
forma clásica H .
P p1 p 2 p n 1 1
H~
0
P HP
T
(3.16)
0 1
Esta matriz tiene los mismos valores característicos que la matriz original, H . Lo mismo
~
se puede decir de H , excepto por 1 .
1
ck sk fila k
Jk
sk ck fila k 1 (3.17a)
1
columna k columna k 1
T T T T
Nótese que P H P J n 1 J 2 J 1 H J 1 J 2 J n 1 , pudiéndose evaluar fácilmente los
sucesivos productos, ya que en cada caso sólo se alteran dos filas y dos columnas.
se tiene:
qk
sk
q k 1
(3.17c)
x
c k k 1
q k 1
5 1.414214 0
1 1
H B 2 AB 2 1.414214 1.5 0.408248
0.408248 0.333333
0
0.11625
1 0.39827
0.90987
Luego:
0.95994 0.28019 0 1 0 0
P 0.28019 0.95994 0 0 0.90987 0.41489
1 0 0.90987
0 0 0.414898
es decir:
5.48594 0.27561 0
P H P 0.27561
T
1.19271 0
0.15462
0 0
0.0638 0.9980
z2 y z3
0.9980 0.0638
de donde:
1 z k
k B 2P
0
1
El factor B 2 se requiere para obtener los vectores del problema general en su forma
original.
= P z (3.18a)
( P A P ) z= P B P z
-1 -1
(3.18b)
a1 z1 b1 z1
a2 b2
z
2 z2 (3.19)
a n z n bn z n
que tiene como vectores característicos las columnas de la matriz identidad y como
valores característicos los i a i bi . Los valores característicos del sistema original
son los mismos. P es en este caso una matriz ortogonal:
P-1 = PT
cuyas columnas son la propia solución buscada. Ésta se determina mediante un
proceso iterativo que se describe a continuación.
( Pk A Pk ) =
T (k) (k+1) (k+1)
Siendo:
A(k+1) = PkTA(k) Pk (3.20c)
y por tanto:
2 aij( k )
tg 2 k 0 k (3.22b)
aii( k ) a (jjk ) 4
Sólo los elementos de dos filas y de dos columnas i, j se alteran en cada paso.
En un cierto paso se hacen cero los elementos aij y aji. Sin embargo, las sucesivas
rotaciones reintroducen valores significativos en estas posiciones, por lo que es
necesario repetir el proceso en varios "ciclos" para todos los elementos de fuera de la
diagonal principal. El proceso es convergente. Si en un ciclo dado los cocientes
ij
a (k ) 2
ij
(3.24)
a ii( k ) a (jjk )
Desde un punto de vista teórico sería más eficiente hacer cero los elementos aij en
orden decreciente de los ij , definidos por (3.24), pero las comparaciones necesarias
son relativamente lentas. Por eso se prefiere seguir un orden fijo en la selección de los
2 -3 1 0
- 3 6 -3 1
A (0)
1 -3 6 3
0 3 4
1
En el primer paso se hacen cero los coeficientes a12 y a21. En las expresiones
precedentes:
( 0)
a11 2 a 22
( 0)
6 a12
(0)
a 21
(0)
3
2 3
tg2 1.5 cos 0.881675 sen 0.471858
26
0.881675 -0.471858 0 0
0.471858 0.881675 0 0
P1
0 0 1 0
1
0 0 0
0.995574 0 - 0.0939783 0
0 1 0 0
P2
0.0939783 0 0.995574 0
1
0 0 0
0.317644
11.0269
A (18)
5.08272
1.57279
-6
No se muestran los coeficientes con valor absoluto menor que 10 . Los coeficientes
(18)
de la diagonal de A son (aproximaciones a) los valores característicos de la matriz
A. Nótese que no se obtienen en orden ascendente o descendente. Las columnas del
producto P1 P2 P18 son los correspondientes vectores, que se obtienen normalizados:
= I. Esto se comprueba fácilmente, ya que las matrices Pk son todas
T
ortogonales.
El método de Jacobi puede también emplearse para hallar los valores y vectores
característicos de una matriz Hermitiana, H , cuyos coeficientes (en general complejos)
tienen simetría conjugada. En este caso se hacen productos de la forma:
H ( k 1) U *k H ( k ) U k (3.26)
en los que U k es una matriz unitaria, es decir, tal que U k 1 U *k (el superíndice *
denota en este caso la conjugada traspuesta). Para hacer cero el coeficiente hij se
utiliza:
col i col j
1
cos e i sen
Uk
fila i (3.27a)
i
e sen cos fila j
1
Suponiendo que:
hii( k ) a hij( k ) b ic
(3.27b)
h (jik ) b ic h (jjk ) d
En lo que sigue se supone que A y B son simétricas y que esta última es definida
positiva (y posiblemente no diagonal). Debe anotarse que si B fuera diagonal sería
más eficiente transformar el problema a la forma clásica.
aij(k)
en el que puede considerase, por ejemplo: 0
a (k)
jj
Definiendo:
c3 1
2
a (k )
ii b (jjk ) bii( k ) a (jjk )
d c3 ( signo c3 ) c32 c1c 2
se obtienen:
c2 c1
(3.29d)
d d
El radical en la expresión de d es siempre positivo si B es una matriz definida positiva.
Puede observarse que si B fuera la matriz identidad se obtendrían: tg y
la matriz Pk resulta un múltiplo de aquella considerada en el método de Jacobi clásico.
a11 4 a 22 4 a12 a 21 2
c1 4 c 2 2 c3 2
d 5.464102 0.732051 0.366025
1 0.366025 0 4 2 1 1 0.732051 0
A (1)
P1T A ( 0) P1 0.732051 1 0 2 4 2 0.366025 1 0
1 1 2 4 1
0 0 0 0
6 0 1.732051
0 3.215390 - 1.267949
1.732051 - 1.267949
4
1 0.366025 0 1 0 0 1 0.732051 0
B (1)
P1T Β ( 0) P1 0.732051 1 0 0 2 0 0.366025 1 0
1 0 0 3 1
0 0 0 0
1.267949 0 0
0 2.53589 0
3
0 0
i 1, j 3
1 0 - 0.377691
P2 0 1 0
0.159631 0
1
6.654907 0.202404 0
A ( 2)
P2T A (1) P2 0.202404 3.215390 - 1.267949
- 1.267949 3.547543
0
i 2, j 3
1 0 0.944720
P3 0 1 0
- 0.753162 0
1
6.654907 0.202404 - 0.191215
A ( 3)
P3T A ( 2) P3 0.202404 7.137690 0
- 0.191215 4.021553
0
1.344395 0 0
B ( 3)
P3T Β ( 2) P3 0 4.340260 0
5.444154
0 0
( 3)
Se puede observar que en A los coeficientes de fuera de la diagonal principal no
son suficientemente pequeños (en términos relativos a los coeficientes de la diagonal
principal en las correspondientes fila y columna) por lo que se hace necesario continuar
la iteración. Al terminar el siguiente ciclo se obtienen:
1.345636 0 0
B (6)
0 4.343063 0
5.445705
0 0
En el caso más general, para una matriz A cualquiera, el método QR es poco eficiente,
3 2
ya que requiere O( 4 3 n ) operaciones por paso. Sin embargo, sólo se requieren O(4n )
operaciones por paso si A es de la forma Hessemberg, es decir, si es casi triangular
superior, excepto por una codiagonal inferior. :
Debe anotarse además que, a diferencia del método de Jacobi, el método QR mantiene
la posible configuración banda de la matriz y permite efectuar traslaciones (análogas a
las de una iteración inversa), tanto para acelerar la convergencia como para mejorar la
precisión en los valores característicos de interés. El objetivo del proceso conocido
como QR es la determinación de los valores característicos; conocidos estos, los
correspondientes vectores pueden obtenerse por iteración inversa con traslación.
(0)
Considerando A = A, el paso básico del método QR consiste en hacer la
descomposición:
A (k ) Q k R k (3.32a)
A ( k 1) R k Q k (3.32b)
T
Obsérvese que premultiplicando (3.32a) por Q k se obtiene:
Q Tk A ( k ) R k
y por lo tanto:
A ( k 1) R k Q k Q Tk A ( k ) Q k
(k ) ( k 1)
Nótese que si A es simétrica A también resulta simétrica.
Esta expresión
( k 1) (k )
indica además que A es "similar" a A : sus valores característicos son los
mismos y los correspondientes vectores se relacionan por una transformación lineal:
A (k ) (k ) (k )
Al efectuar el cambio de variables:
( k ) Q k ( k 1) (3.32c)
se obtiene:
A ( k ) Q k ( k 1) Q k ( k 1)
Q T
kA
(k )
Qk ( k 1)
( k 1)
Ambas matrices tienen los mismos valores característicos (que en consecuencia son
los de la matriz original) y vectores característicos relacionados por (3.32c).
k a nn
(k )
(3.33a)
A ( k 1) R k Q k k I (3.33b)
Nótese que los valores característicos de esta nueva matriz son iguales a los de la
matriz original menos la translación. Cuando se logra que a nn 0 puede hacerse una
(k )
traslación:
k a n( k)1,n 1 (3.33c)
( 0 ) Q 1Q 2 Q 3
pero este proceso es poco eficiente, siendo más conveniente obtener estos vectores
por iteraciones inversas con traslaciones iguales a los valores característicos ya
determinados. Esto permite también mejorar la precisión en los .
P T T
n , n 1 P31
T
P21 AR (3.34a)
y por lo tanto:
aii( k )
cos
d
a (jik )
sen (3.34d)
d
d a a
(k ) 2
ji
(k ) 2
ii
.894427 - .447214 0
P21 .447214 .894427 0
0 0 1
1 0 0
P32 0 .952579 - .304290
0 .304290 .952579
3.200000 1.469694 0
A (1)
R 1Q1 R 1 P21 P32 1.469694 3.244444 .496904
0 .496904 1.555556
.908739 - .417365 0
P21 .417365 .908739 0
0 0 1
1 0 0
P32 0 .978097 - .208150
0 .208150 .978097
3.521363 2.689686 0.207390
R2 T T
P32 P21 A (1) 0 2.387242 0.765454
1.427493
0 0
4.322581 0.996351 0
A (2)
R 2 Q 2 R 2 P21 P32 0.996351 2.281193 0.297132
0.297132 1.396226
0
En el tercer paso:
.974449 - .224610 0
P21 .224610 .974449 0
0 0 1
1 0 0
P32 0 .989134 - .147017
0 .147017 .989134
4.435924 1.483271 0.066739
R3 T T
P32 P21 A ( 2) 0 2.021076 0.491663
1.338488
0 0
4.655738 0.453953 0
A (3)
R 3 Q 3 R 3 P21 P32 0.453953 2.020319 0.196780
0.196780 1.323944
0
4.718610 0.191812 0
A (4)
0.191812 1.989971 0.129212
0.129212 1.291420
0
4.729677 0.080614 0
A (5)
.0.080614 1.992765 0.083349
0.083349 1.277559
0
3.452118 0.080614 0
A (5)
1.277559 I .0.080614 0.715206 0.083349
0 0.083349 0
obteniéndose en el siguiente paso:
3.454389 0.016762 0
A (6)
0.016762 0.722542 - 0.001123
- 0.001123 0.009608
0
Se hace entonces una nueva traslación:
6 0.009608 k 1.287167
obteniéndose:
3.444880 0.003469 0
A (7)
0.003469 0.712838 0.000000
0.000000 0.000001
0
y nuevamente:
7 0.000001 k 1.287168
obteniéndose:
3.444882 0.000718 0
A (8)
0.000718 0.712832 0
0
0 0
Se observa ahora que el coeficiente a33 es menor que 10-6, lo que implica que 1 es
aproximadamente igual a la suma de las traslaciones previamente realizadas:
1 1.287168
Conviene luego hacer una traslación igual al resultado obtenido para a22 a fin de
mejorar la precisión para el segundo valor característico:
8 0.712832 k 2
2.732050 0.000718
A (8)
0.000718 0
(8)
a11 2.732050 (8)
a 21 0.000718 d 2.732050
cos 1.000000 sen 0.000263
1.000000 - 0.000263
P21 Q 8
0.000263 1.000000
2.732050 0.000718
R 8 P21
T
A (8)
0 0.000000
2.732051 0
A (9)
0 0
Los coeficientes indicados como 0 son menores que 10-6. Los valores característicos
de esta matriz son 0 y 2.732051. Para obtener aquellos de la matriz original deben
sumarse las traslaciones previas:
2 = 0 + 2 = 2
3 = 2.732051 + 2 = 4.732051
1 0 0 0 0
0 1 0 0 0
0 b32 1 0 0
B (3.36a)
0 b b43 1 0
42
0 bn 2 bn 3 bn 4 1
1
n r
bi ,r 1
hr 1,r
air
k r 1
aik bkr b
k 1
ik hkr
i r 2, n (3.36c)
P I 2 w wT (3.37)
1
es un vector unitario: w T w 1 . Es fácil probar que P P P .
T
donde w
La matriz P refleja al espacio en el "plano" que pasa por el orígen y es ortogonal a w .
Considérese un vector cualquiera v 0 w 1u donde u T w 0 . Entonces,
P v I 2 w wT w u w u .
0 1 0 1 Nótese que la componente según w
ha cambiado de signo; es decir, el vector v ha sido reflejado en el plano ortogonal a w
.
A ( k 1) Pk A ( k ) Pk (3.38a)
Pk I k w k w Tk
2
k (3.38b)
w Tk w k
w k v k signo a k( k)1, k v k e k 1
siendo:
0
0
una matriz que contiene los coeficientes de la columna k de
v k a k( k)1, k
a ( k ) A (k ) que están por debajo de la diagonal principal, y
k 2,k
(k )
a nk
0
e k 1 1 la columna k 1 de la matriz identidad (de orden n ).
0
Para que el proceso sea más eficiente, debe observarse que al premultiplicar A , cuyas
columnas son a 1 a 2 a 3 , por la matriz P , cada columna se modifica en forma
independiente. Las columnas de A PA resultan:
a j I k w k w Tk a j a j k w Tk a j w k (3.39a)
ai a i I k w k w Tk a i k a i w k w Tk (3.39b)
4 3 2 1
3 4 3 2
A A
(1)
2 3 4 3
1 4
2 3
4.00000 3 2 1
- 3.74166 - 5.34522 - 5.34522 - 4.27618
P1 A (1)
0 0.22762 1.52428 1.13809
3.06904
0 0.61381 1.76214
1.00000
2.02190
1 P1 A (1) w 1
0.22681
0.42543
4.00000 - 3.74166 0 0
- 3.74166 8.28571 - 1.30143 - 2.25428
A ( 2) P1 A P1
(1)
0 - 1.30143 1.07067 0.91128
2.64362
0 - 2.25428 0.91128
0
0
v2 v 2 2.60298
1 . 30143
2.25428
0 0 0
0 0 0
w 2 v 2 v 2 e3 2.60298 2 0.09840
1.30143 1 3.90441
2.25428 0 2.25428
4.00000 - 3.74166 0 0
- 3.74166 8.28571 - 1.30143 - 2.25428
P2 A ( 2)
0 2.60298 - 1.32452 - 2.74510
0.53254
0 0 - 0.47162
4.00000 - 3.74166 0 0
- 3.74166 8.28571 2.60298 0
H A ( 3) P2 A P2
( 2)
0 2.60298 3.03959 - 0.22540
0.67470
0 0 - 0.22540
4 2 0 0
2 8 2 2 0
p det
0 2 8 2 2
0 4
0 2
4 4 64 3 364 2 864 720 0
k k 1
k 1 k p( k ) 1 2 (3.40)
p( k ) p( k 1 )
La evaluación de p no requiere tener el polinomio p en forma explícita.
donde:
det L l11 l 22 l 33 l 44 1
(3.41b)
det U u11 u 22 u 33 u 44
2.5 2 0 0 1 0 0 0 2.5 2 0 0
2 5 2 0 .800 1 0 0 0 3.4 2 0
A 1.5 B
0 2 5 2 0 .588 1 0 0 0 3.824 2
0 0 2 2.5 0 1 0 1.454
0 .523 0 0
Análogamente se obtienen:
k p ( k ) Número de coeficientes negativos
en la diagonal principal de U
1.5 47.25 0
1 2.0 0 0
2.5 -8.75 1
2 3.0 0 1
3.5 11.25 2
4.0 16.00 2
4.5 11.25 2
a. Iteración inversa:
AX k 1 BX k
La matriz A debe factorizarse antes de iniciar las iteraciones. Los vectores X k 1
son más “paralelos” a los primeros p vectores característicos.
A ( k 1) X Tk 1 A X k 1
B ( k 1) X Tk 1 B X k 1
( k 1) ( k 1)
Las matrices A y B son cuadradas, simétricas, de orden q .
A ( k 1) Q k 1 B ( k 1) Q k 1 k 1
k 1 es una matriz diagonal, cuyos coeficientes son los valores característicos del
problema proyectado. Si los X k 1 definen un subespacio que contiene a los p
primeros vectores propios, los p menores valores en k 1 son parte de la solución
buscada.
X k 1 X k 1 Q k 1
X Tk 1 A X k 1 Q Tk 1 X Tk 1 A X k 1 Q k 1 Q Tk 1 A ( k 1) Q k 1 q
X Tk 1 B X k 1 Q Tk 1 X T
k 1 B X k 1 Q k 1 Q Tk 1 B ( k 1) Q k 1 I q
Lim k diag 1 2 p
k
Lim X k diag 1 2 p
k
( k 1)
Habiéndose obtenido en dos ciclos sucesivos los estimados p y p
(k )
para el mayor
de los valores característicos requeridos, el cociente (pk 1) (pk ) (pk 1) da una
medida adecuada del error relativo y es útil para verificar la convergencia.
Adicionalmente, debe comprobarse que los valores y vectores obtenidos corresponden
a los p menores valores característicos. Para ello puede usarse la propiedad de
Sturm, factorizando A B en LU con valores de ligeramente mayores a los
calculados.
Aproximación Inicial
b. Iteración inversa:
Yk 1 B X k
L U Z k 1 Yk 1
A ( k 1) Z Tk 1 Yk 1
B ( k 1) Z Tk 1 B Z k 1
( k 1) ( k 1)
Las matrices A y B son cuadradas, simétricas, de orden q .
A ( k 1)
B ( k 1) Q k 1 B ( k 1) Q k 1 k 1
Un ejemplo simple
2 1 0 0 0
1 2 1 0 1
A B
0 1 2 1 0
0 1 2 2
0
En este caso particular la iteración inversa produce en un solo paso el subespacio que
incluye a los dos primeros vectores característicos, ya que dos de los valores
característicos son infinitos. Para hacer más eficiente el proceso debe factorizarse
primero la matriz A :
1 0 0 0 2 1 0 0
0.5 1 0 0 0 1.5 1 0
A LU
0 .6667 1 0 0 0 1.3333 1
0 0.75 1 0 0 1.25
0 0
0 0
0 1
Con la aproximación inicial: X 0
0 0
1 0
Se obtiene por iteración inversa:
0 0 0.4 0.6
0 1 0.8 1.2
B X0 L U X1 B X 0 X1
0 0 1.2 0.8
2 0 1.6 0.4
Proyectando las matrices A y B en el subespacio definido por los vectores X1 :
1 1 0.5
P
1 1 1
Referencias
Bathe, K.J. (2014) Finite Element Procedures. 2ª edición. K.J.Bathe, Watertown, MA.
Faddeev, D:K. y Faddeeva, V.N. (1960) Computational Methods of Linear Algebra.
W.H.Freeman and Company, San Francisco.
Francis J.G. (1961) "The QR transformation". Computer Journal 4
Householder, A.S. (1958). "Unitary Triangularization of a Nonsymmetric Matrix". Journal of the
ACM. 5 (4)
Jacobi, C.G.J. (1846) "Über ein leichtes Verfahren die in der Theorie der Säcularstörungen
vorkommenden Gleichungen numerisch aufzulösen", Crelles Journal, 30.
Kublanovskaya, V.N. (1962) "On some algorithms for the solution of the complete eigenvalue
problem".USSR Comput. Math. and Math. Phys. 1
Wilkinson, J.H. (1965) The Algebraic Eigenvalue Problem. Clarendon Press, Oxford.
Wilkinson, J.H. y Reinsch, C. (1971) Handbook for Automatic Computation. Vol.II Linear
Algebra. Springer, Berlín.
a b 0 0
c a b 0
Φ Φ
0 c a
0 0
1
c 2
para el que se tienen los valores característicos: s a 2b cos s
b
c 2 1
sen s
b
c
sen 2 s
y los vectores característicos: s b
3
c sen 3
2
b s
s
En estas expresiones s . n el orden de la matriz y s un entero en el rango entre 1 y n .
n 1
2. Para la misma matriz, determine el menor valor característico y el correspondiente vector usando
iteración inversa.
4. La matriz planteada para los ejercicios anteriores es simétrica. ¿Es definida positiva? (se requiere
que todos los valores característicos sean reales y positivos). En tal caso, verifique la
ortogonalidad de los vectores característicos.
4 1 1 0
Φ Φ
1 6 0 2
Obtenga el polinomio característico y calcule sus raíces. Luego determine los valores y vectores
característicos utilizando el método de Jacobi.
8. Empleando el método QR, determine una aproximación al menor valor característico de la matriz:
6 - 6.403124 0
H - 6.403124 4.170732 - 0.536585
- 0.536585 - 0.170732
0
4 2 0
2 8 2 1
9. Para el problema: φ φ
2 8 2 2
2 4 0
Determine dos vectores característicos haciendo un paso del método de iteración en subespacio
(el proceso converge en un solo paso porque dos de los valores característicos son ).