Está en la página 1de 7

Introducción

En este informe presentaremos la sucesión de Krilov a las potencias sucesivas de una


matriz sobre un vector definido.
También daremos a conocer el subespacio de Krylov de orden r generado por
una matriz cuadrada A de orden n y un vector v.
Desarrollaremos ejercicios de cada uno de los temas (sucesión de Krilov, subespacio
de Krylov).
Sucesiones de Krylov
En este capítulo estableceremos algunas relaciones entre las potencias sucesivas de una
matriz y sus autovalores. Para profundizar en estas relaciones se introduce el concepto
de sucesión de Krylov, definida como la acción de las potencias sucesivas de una matriz
sobre un vector fijado. De un modo más preciso, se llama sucesión de Krylov asociada
al vector x a la matriz cuadrada A, a la siguiente sucesión.

{ x , Ax , A2 x , ⋯ , A n x , ⋯ } .
n
i
Sea pn ( λ )=∑ ai λ el polinomio característico de A. De acuerdo con el teorema de
i=0
Cayley -Hamilton la matriz A es solución de la ecuación característica matricial. Es
decir, A verifica que

(−1 )n A n +an −1 A n−1 +⋯+ a1 A+ a0 I =0 ,

donde 0 representa la matriz cero. Si se multiplican ambos miembros por un vector


arbitrario x se obtiene la expresión

a n−1 An−1 x+ ⋯+a 1 Ax+a 0 x=− (−1 )n An x

que establece que el ( n+1 ) −¿ésimo vector de la sucesión de Krylov es linealmente


dependiente de los que le preceden. Esta relación puede ser vista como un sistema lineal
t
de incógnita a=( a 0 , a1 ⋯ , a n−1)

( x |Ax|⋯| A n−1 x|) a=(−1 )n+ 1 An x


que podría ser utilizado para calcular el polinomio característico.
Ejercicio 26 Aplicar el método de las sucesiones de Krylov para determinar el
polinomio característico de la matriz

1 1 1
(
A= 0 2 2
3 −1 0 )
t
partiendo del vector x =( 1,0,0 ) .

Solución: la sucesión de krylov del vector x tiene los siguientes términos

1 1 4 13
() () () ( )
x= 0 , Ax= 0 , A2 x= 6 , A 3 x= 18 ⋯
0 3 3 6

obtenida multiplicando sucesivamente por A el vector x. Consecuentemente, si se


resuelve el sistema de ecuaciones
1 1 4 a0 13
( )( ) ( )
0 0 6 a1
0 3 3 a2
= A 3
x= 18
6

se obtiene que el polinomio característico es

p ( λ )=−λ3 +3 λ2− λ+2 o


Sin embargo, una dificultad podría estar en que el conjunto de los n primeros vectores
de la sucesión de Krylov no fuese un conjunto de vectores independientes, en cuyo caso
el sistema lineal podría ser singular. El polinomio q de grado mínimo que verifique la
ecuación matricial q ( A )=0 se conoce como polinomio mínimo de la matriz A.
Obviamente, el grado del polinomio mínimo es menor o igual que n.
Las propiedades más relevantes del polinomio mínimo de una matriz están
recogidas en el siguiente
Teorema.1 El polinomio mínimo de una matriz A verifica las siguientes propiedades:
El polinomio mínimo existe y es único.
El polinomio mínimo es invariante frente a transformaciones de semejanza.
El polinomio mínimo tiene las mismas raíces que el polinomio característico, aunque
posiblemente con multiplicidad inferior.
La prueba de este teorema puede encontrarse en muchos textos básicos del Algebra
Lineal.
Se llama grado de Krylov del vector x respecto a la matriz A al número máximo de
vectores linealmente independientes en la sucesión de Krylov asociada a x. El grado de
Krylov de cualquier vector esta entre 1 (este es el caso de un vector propio) y el grado
del polinomio mínimo de la matriz.
Ejemplo 2 Se considera la matriz definida por

1 1 1
(
A= 0 2 2
3 −1 0 )
El grado de Krylov de vector x=(−1,0,0 )t es uno ya que Ax=2 x. El grado de krylov de
vector x=( 1,1,1 )t es 2 ya que los vectores x, Ax=( 1,0,1 )t y A2 x=( 2 ,−2,2 )t son
linealmente dependientes. El grado de krylov del vector x=( 1,1 ,−1 )t es 3 ya que los
tres vectores { x , Ax , A2 x } son linealmente dependientes. Consecuentemente, los
coeficientes del polinomio característico forman la solución del sistema lineal

1 1 0 a0 −6
( 1 2
−1 −3 −8 a2
3

)( ) ( )
6 a1 = A x= 20
−22

Si se resuelve el sistema, se obtiene que el polinomio característico es el siguiente


p ( λ )=−λ3 +6 λ 2−10 λ+4 o
Una vez determinado el polinomio característico de una matriz, sus autovalores podrían
ser calculados como las raíces de este polinomio utilizando las técnicas específicas de
resolución de ecuaciones escalares numéricas. Existe la posibilidad de recorrer el
n
i
camino inverso. Es decir, dado un polinomio Pn ( x ) =∑ ai x de una variable se busca
i=0
una matriz que tenga este polinomio como el característico. Obviamente, esta matriz no
es única ya que todas las matrices equivalentes tienen el mismo polinomio
característico. Una de estas matrices es la llamada matriz de compañía del polinomio,
que está definida como

0 1 0 ⋯ 0

( )
0 0 1 ⋯ 0
⋮ ⋮ ⋮ ⋮
C (p)= ⋱
0 0 0 1
−a 0 −a 1 −a 2 ⋯ −a
n−1

an an an an

o su traspuesta. Mas precisamente, la matriz de compañía C (p) tiene como polinomio


n p(x)
característico el polinomio (−1 ) y consecuente el polinomio p tiene como raíces,
an
los autovalores de la matriz C (p).

Subespacio de Krylov
En álgebra lineal un subespacio de Krylov de orden r generado por una matriz
cuadrada A de orden n y un vector v, es el subespacio vectorial generado
por Akv con k < r
k r ( A , v )=span{v , Av , … , A r−1 v }❑❑
En álgebra lineal , la orden- r  Krylov subespacio generado por un n -by- n matriz A y
un vector b de dimensión n es el subespacio lineal abarcado por las imágenes de b bajo
los primeros r potencias de A (a partir de), que es  A0 =I
k r=( A ,b )=span {b , Ab , A b , …, A
2 r −1
b}.

Conclusión

Concluimos este informe esperemos que sirva de ayuda a toda la población universitaria
como aplicar las sucesión y subespacio de Krylov en la vida real.
También como hallar el polinomio característico de una matriz cuadrada con la sucesión
de Krylov .
Los métodos iterativos modernos lo utilizan en el cálculo de vectores y valores propios
o para resolver sistemas de ecuaciones lineales con matrices dispersas. Todos los
algoritmos que usan este subespacio se les conoce como métodos del subespacio de
Krylov; estos métodos se encuentran dentro de los más eficaces del álgebra lineal
numérica.
Bibliografia

1. Carlos Moreno g. Introduccion al Caculo Numerico Universidad Nacional de


Educación a Distancia Madrid, 2014 Edición digital: abril de 2014

2. Yousef Saad (2000). Iterative methods for sparse linear systems.

3. Allen, M.B., I. Herrera and G. F. Pinder, "Numerical Modeling in Science


and Engineering", John Wiley, 1988.
Birkho ff
4. G, and R. E. Lynch, "Numerical Solution on Elliptic Problems",
SIAM, Phyladelphia, 1984.
5. hestenes, M. R. and E. Stiefel, "Methods of Congugate Gradients for
Solving Linear Systems", J. Res. Natl. Bur. Stand., 49, pp. 409-436, 1952.

También podría gustarte