Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introduccin
1.1
Considere la ecuacin
Au = b
(1)
(2)
(3)
y
rk = b Auk = A(us uk ).
El espacio de Krylov queda definido por
(4)
(5)
(6)
AKm Km+1
(7)
K1 K2 .... Km ...
(8)
Algunas propiedades interesantes del los espacios de Krylov son las siguientes:
Propiedad de Ortogonalidad.- Si vKm entonces
AvKm1 ,
Demostracin.- Sea wm1 Km1 . Entonces
(9)
ya que Awm1 Km .
Observacin.- Esta propiedad nos dice que cualquier vector ortogonal a
un espacio de Krylov se transforma bajo A en otro tambin ortogonal, pero
al espacio de Krylov un orden menor.
Propiedad de Pertenencia.- Sea e = us um , donde um Km,T .
Entonces Ae Km+1 .
Demostracin.- porque um = u0 + wm para algn wm Km . Luego
Ae = A(us u0 ) Awm = r0 Awm
(10)
1.2
; donde wk Kk .
(11)
(12)
Una condicin natural, es pedir que el error sea mnimo. Esta condicin
se cumple si y slo si, ek Kk . En este caso el transformado Aek del error ek
es ortogonal al espacio de Krylov Kk1 , por la propiedad de ortogonalidad.
Adems, Aek pertenece al espacio Kk+1 .
Estos hechos se pueden aprovechar
1
para construir una base ortogonal de
k
los espacios de Krylov. Sea p , ..., p una base ortogonal de Kk , donde pm
pertenece a Km para cada m = 1, 2, ..., k. En tal caso tanto el vector pk como
el vector Aek pertenecen a Kk+1 , son ortogonales al espacio Kk1 y junto
con este subespacio generan al espacio Kk+1 (a menos que Aek pertenezcan a
Kk , situacin que solamente se da cuando uk = us , como se demuestra en el
apndice). Tomando esto en cuenta, podemos definir un vector pk+1 Kk+1
ortogonal a Kk , por medio de la ecuacin
pk+1 = Aek k+1 pk = rk k+1 pk .
(13)
Claramente, el sistema de vectores p1 , ..., pk , pk+1 es ahora una base ortogonal del espacio Kk+1 y con la propiedad de que pm pertenece a Km para
m = 1, ..., k + 1. La base ortogonal deseada se obtiene aplicando inductivamente la construccin anterior. Como punto de partida para el procedimiento
inductivo se toma
p1 = r0 = b Au0 .
(15)
Debido a la condicin de ortogonalidad impuesta al vector ek , resulta que
el vector wk de la Ec. (11) es la proyeccin
delvector e0 = us u0 en el
1
espacio de Krylov Kk . Como la base p , ..., pk+1 es ortogonal se tiene que
uk+1 = uk + k+1 pk+1
3
(16)
= k+1 k+1 .
hp , p i
a
(17)
hp , p i
que es una forma utilizada con mayor frecuencia (ver, por ejemplo Allen,
Herrera y Pinder [1988] o Birkho y Lynch [1984]). La Ec. (18) se puede
reducir an mas usando la Ec. (13) y el hecho de que ek es ortogonal a pk .
As
(ek , rk )
k+1 = k+1 k+1 .
(19)
(p , p )
Hasta ahora nada se ha dicho respecto al producto interior de la Ec. (2)
que vaya a utilizarse. Para definirlo, es conveniente observar que las Ecs.
(17), (18) o (19) no pueden aplicarse utilizando cualquier producto interior.
Esto es debido a que el vector ek = us uk que ah aparece se desconoce.
Cuando la matriz A es simtrica y positiva definida, A y cada una de sus
potencias definen productos interiores. La eleccin ms sencilla es definir
hu, vi = u Av.
(20)
rk rk
= k+1
p
Apk+1
(21)
y
pk Ark
.
(22)
pk Apk
Generandose el siguiente algoritmo llamado Mtodo de Gradienete Conjugado (CGM), en el cual los datos de entrada es el sistema Ax = b y u0 un
vector de busqueda inicial. Se calcula para iniciar el algoritmo r0 = b Au0 ,
k+1 =
Apk rk
Apk pk
rk k+1 pk
rk rk
Apk+1 pk+1
uk + k+1 pk+1
rk k+1 Apk+1 .
(23)
Si denotamos {i , Vi }N
i=1 como las eigensoluciones de A, i.e. AVi = i Vi ,
i = 1, 2, ..., N. Ya que la matriz A es simtrica, los eigenvalores son reales
y podemos ordenanrlos por 1 2 ... N . Definimos el nmero de
condicin por Cond(A) = N /1 y la norma de la energia asociada a A por
kuk2A = u Au entonces
"
#2k
p
Cond(A)
1
u uk u u0
p
.
A
A
1 + Cond(A)
1.3
xA x
n
xx
(24)
u, C 1 Av = u CC 1 Av
= u Av
5
rk rk
pk+1 C 1 pk+1
(26)
y
pk C 1 rk
.
(27)
pk Apk
Generando el mtodo de Gradiente conjugado precondicionado con precondicionador C 1 , es necesario hacer notar que los mtodos Gradiente Conjugado y Gradiente Conjugado Precondicionado slo difieren el la eleccin
del producto interior.
El Mtodo de Gradienete Conjugado, en el cual los datos de entrada es
el sistema Ax = b, u0 un vector de busqueda inicial y el precondicionador
C 1 . Se calculan para iniciar el algoritmo r0 = b Au0 , p = C 1 r0 entonces
el mdodo quedaria esquematicamente como
k+1 =
k+1 =
pk+1 =
k+1 =
uk+1 =
rk+1 =
1.4
pk C 1 rk
pk Apk
rk k+1 pk
rk rk
pk+1 C 1 pk+1
uk + k+1 pk+1
C 1 rk k+1 Apk+1 .
(28)
Salir
u = Av
t=
PN
j=1 vj uj
x = x + tv
r = r tu
w = C 1 r
P
2
= N
j=1 wj
Si krk <
s=
Salir
v = (C 1 ) w + sv
=
k =k+1
La salida del mtodo ser la solucin aproximada x = (x1 , ..., xN ) y el
residual r = (r1 , ..., rN ).
1.5
Considere la ecuacin
Pu = b
(29)
(17), se pueden calcular cualquiera que sea el producto interior que se utilice.
Utilizaremos el producto interior natural, pero modificaremos ligeramente la
notacin utilizada. As
em = us um
(31)
pero
rm = P (us um ) = b P um .
(32)
(33)
Adems
P t rm P t pm
P t pm P t pm
y la definicin inductiva se inicia con
m+1 =
(34)
p1 = A(us u0 ) = r0 = b P u0 .
(35)
(36)
1.6
rm rm
P t pm+1 P t pm+1
(37)
Apndice
(38)
(39)
con
Aplicando la matriz A a esta ecuacin se obtiene
Aek = Aek1 k Apk .
(40)
La Ec. (40) muestra que los vectores Aek , Aek1 y Apk , son linealmente
dependientes ya que k 6= 0 por la Ec. (39). Pero Aek Kk por hiptesis
8
(41)
(42)
por lo que
Adems
AKk1 Kk
A{pk } Kk
(43)
(44)
(45)
(46)
(47)
(48)
(49)
us = uk + vk = u0 + wk + vk
(50)
Es decir
donde tanto wk como vk , pertenecen a Kk . Claramente, la Ec. (50), exhibe
a la solucin us , como un miembro de Kk,T .
9
Referencias
10