Está en la página 1de 29

Captulo 1

Algebra lineal numrico


1
2 CAPTULO 1. ALGEBRA LINEAL NUMRICO
ndice general
1. Algebra lineal numrico 1
1.1. Conceptos bsicos de algebra lineal : repaso . . . . . . . . . . . . . . . . . . 4
1.1.1. Vectores, producto interno, matrices . . . . . . . . . . . . . . . . . . 4
1.1.2. Operaciones sobre matrices y vectores . . . . . . . . . . . . . . . . . 5
1.1.3. Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4. Matrices de operaciones elementales . . . . . . . . . . . . . . . . . . 7
1.1.5. Otras matrices particulares . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.6. Matrices y aplicaciones lineales (operadores) . . . . . . . . . . . . . . 9
1.1.7. Traza y determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.8. Vectores propios, valores propios . . . . . . . . . . . . . . . . . . . . 10
1.1.9. Normas y Topologa de matrices . . . . . . . . . . . . . . . . . . . . 11
1.1.10. Reduccin y factorizacin de matrices . . . . . . . . . . . . . . . . . 14
1.2. Sistemas lineales : mtodos directos . . . . . . . . . . . . . . . . . . . . . . 18
1.2.1. Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.2. Eliminacin de Gauss, mtodo LU . . . . . . . . . . . . . . . . . . . 18
1.2.3. Mtodo de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.4. Factorizacin QR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.5. Algunas propiedades, comparacin de mtodos . . . . . . . . . . . . 26
1.3. Condicionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3.1. El problema de errores de redondeo . . . . . . . . . . . . . . . . . . . 26
1.3.2. Condicionamiento y error . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4. Mtodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.1. Mtodo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.2. Mtodo de relajacin . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.3. Mtodo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.4. Comparacin de Jacobi y GS . . . . . . . . . . . . . . . . . . . . . . 28
1.4.5. Mtodos SOR y SSOR . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.6. Un mtodo iterativo y directo: Gradiente conjugado . . . . . . . . . 28
3
4 NDICE GENERAL
1.1. Conceptos bsicos de algebra lineal : repaso
1.1.1. Vectores, producto interno, matrices
Se notar R el cuerpo de los nmeros reales, C lo de los complejos, y de manera general
K, llamado cuerpo de los escalares si no es necesaria la distinccin (K = R o C).
Sea E un espacio vectorial de dimensin nita n sobre el cuerpo K. Una base de E
es un conjunto e
1
, . . . , e
n
(o bien (e
i
)
n
i=1
, o bien (e
i
)) de n vectores de E linealmente
independientes. As todo vector x de E tiene una nica representacin :
x =
n

i=1
x
i
e
i
,
donde los escalares x
i
son las coordenadas del vector x en la base (e
i
). Luego, si una base
es jada, es siempre posible identicar E con K
n
, lo que permite representar todo vector
x de E por el vector columna
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
.
Se dene luego el vector transpuesto x
T
de x por:
x
T
=
_
x
1
x
2
x
n
_
,
y el vector adjunto (conjugado transpuesto) x

de x por :
x

=
_
x
1
x
2
x
n
_
,
si x C
n
es un vector complejo. Esto permite denir un producto interno cannico:
La funcin (, ) : E E K, denida por:
(x, y) = y
T
x = x
T
y =

n
i=1
x
i
y
i
si K = R,
(x, y) = y

x = x

y =

n
i=1
x
i
y
i
si K = C,
es llamada producto escalar euclidiano si K = R, y producto hermitiano si K = C.
Denicin 1.1. Dos vectores x e y de E son dichos ortogonales si (x, y) = 0. (notacin
: xy). Lo mismo por dos subespacios vectoriales de E.
Una familia de vectores u
1
, . . . , u
m
se dice ortonormal, si j, k 1, . . . , m:
(u
j
, u
k
) =
jk
.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 5
Un vector de talla n puede verse como una matriz a una columna y n las. De manera
ms general, se pueden considerar matrizes A de n las y p () columnas, representadas
por un cuadro:
A = (a
ij
)
1in,1jp
=
_
_
_
_
_
a
11
a
12
. . . a
1p
a
21
a
22
. . . a
2p
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
np
_
_
_
_
_
.
El conjunto de las matrices de n las y p columnas, con coecientes en el cuerpo K se nota
/
n,p
(K).
1.1.2. Operaciones sobre matrices y vectores
Se denen operaciones sobre matrices y vectores.
1. Suma: si A, B /
n,p
(K) son de mismas dimensiones,
A+B = (s
ij
) /
n,p
(K) , con s
ij
= a
ij
+b
ij
.
2. Multiplicacin por un escalar K. Si A /
n,p
(K), entonces A = (a
ij
)
/
n,p
(K).
3. Multiplicacin de dos matrices. Si A /
n,p
(K) y B /
p,k
(K), entonces :
M = AB := (m
ij
) /
n,k
(K) con m
ij
=
p

l=1
a
il
b
lj
, 1 i n, 1 j k.
Las columnas de AB son combinaciones lineales de las columnas de A.
Las lineas de AB son combinaciones lineales de las lineas de B.
La multiplicacin entre una matriz A /
n,p
(K) y un vector x K
p
nos da un vector
y = Ax K
n
, con y
j
=
p

i=1
a
ij
x
i
.
Denicin 1.2. Si K = R,
La matriz transpuesta de A, notada A
T
, es la matriz denida de manera unica por
(Au, v) = (u, A
T
v) u, v R
n
,
lo que implica
_
A
T
_
ij
= a
ji
.
Si K = C,
La matriz adjunta (transpuesta conjugada) de A, notada A

, es la matriz denida de ma-


nera unica por
(Au, v) = (u, A

v) u, v C
n
,
lo que implica (A

)
ij
= a
ji
.
Proposicin 1.3. Tenemos:
_
A
T
_
T
= A y (A

= A.
6 NDICE GENERAL
1.1.3. Matrices invertibles
Recordemos algunas caracterizaciones de las matrices invertibles, extracto de Linear
algebra in a nutshell de G. Strang [8].
A es invertible A no es invertible
Las columnas de A son LI las columnas son LD
Las las de A son LI las las de A son LD
det(A) ,= 0 det(A) = 0
Ax = 0 tiene una sola solucin x = 0 Ax = 0 tiene una innidad de soluciones
Ker(A) = 0 Ker(A) contiene al menos un vector ,= 0.
Ax = b tiene una sola solucin x = A
1
b Ax = b tiene una innidad de sol., o ninguna
A tiene n pivotes A tiene r < n pivotes
A es de rank maximo Rank(A) = n Rank(A) = r < n
todos los valores propios de A son ,= 0 0 es un valor propio de A
AA
T
o
+
n
(R) AA
T
es semi-denida
Proposicin 1.4. Tenemos (AB)
1
= B
1
A
1
,
_
A
1
_
1
= A;
_
A
1
_
T
=
_
A
T
_
1
y
nalmente, si K = C,
_
A
1
_

= (A

)
1
.
Se debe subrayar que el clculo de la inversa de una matriz es un desafo para los
numricos, que tiene la misma complejidad que el clculo de un determinante o la resolucin
de un sistema lineal. As repasamos ahora un mtodo ampliamente utilizado para tales
objetivo: el algoritmo de Gauss. Denimos los pivotes.
Denicin 1.5. Llamamos pivote de una matriz A /
n
(K) el primer elemento no nulo
de cada lnea en la forma escalonada de A obtenida mediante la eliminacin de Gauss.
Ejercicio 1.6. Aplicar el algoritmo de eliminacin de Gauss a las matrices siguientes.
A =
_
_
_
_
4 3 2 1
3 4 3 2
2 3 4 3
1 2 3 4
_
_
_
_
, B =
_
_
_
_
2 1 4 0
4 1 5 1
2 2 2 3
0 3 9 4
_
_
_
_
.
El proceso de eliminacin de Gauss se hace a travs de operaciones sobre las y columnas
de una matriz: permutaciones (P
ij
), dilataciones (D()) y transvecciones (T
ij
()).
permutacin: L
i
L
j
(o bien: C
i
C
j
).
Dilatacin: L
i
L
i
.
Transveccin: L
i
L
i
+L
j
.
Pero la gracia es que tales operaciones se interpretan como multiplicaciones de matri-
ces (por eso el algoritmo permite onservar"propiedades tales como el determinante por
ejemplo): es el objeto de la seccin siguiente.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 7
1.1.4. Matrices de operaciones elementales
Recordemos sue la base cannica des las matrices de talla n p es el conjunto de las
matrices E
ij
, 1 i n, 1 j p, denida por:
coef
km
(E
ij
) =
_
1 si (k, m) = (i, j),
0 si no.
permutacin: P
ij
= I
n
E
ii
E
jj
+E
ij
+E
ji
.
Dilatacin: D
i
() = I
n
+ ( 1)E
ii
.
Transveccin: T
ij
() = I
n
+ ()E
ij
.
Operaciones sobre las COLUMNAS corresponden a multiplicaciones a la DERECHA.
Operaciones sobre las FILAS corresponden a multiplicaciones a la IZQUIERDA.
1.1.5. Otras matrices particulares
Recordemos algunos tipos bin especcos de matrices. Dada una matriz de /
n,p
(K),
si n = p, es cuadrada. A partir de ahora solo se considerarn matrices cuadradas (salvo
pocas excepciones especicas, mientras que muchas deniciones son validas en el caso
rectangular). El conjunto de las matrices cuadradas de talla n a coecientes en el cuerpo
K se nota /
n
(K). Sea A /
n
(K).
A es diagonal si A
i,j
= 0 cuando i ,= j;
A es tri diagonal si A
i,j
= 0 cuando [j i[ > 2;
A es triangular superior si A
i,j
= 0 cuando i > j; el conjunto se denota T
+
n
(K);
A es triangular inferior si A
i,j
= 0 cuando i < j; el conjunto se denota T

n
(K);
A es una matriz de permutacin si A
i,j
0, 1 i, j tal que hay un solo 1 por
columna y por lnea; el conjunto se denota P
n
(K);
A es a diagonal estrictamente dominante si, para K = C, [A
i,i
[ >
n

j=1
j=i
[A
i,j
[
para todo i 1, . . . , n;
A es simtrica (auto adjunta) si A
T
= A; el conjunto se denota o
n
(K);
A es anti-simtrica si A
T
= A;el conjunto se denota /s
n
(K);
A es hermtica (auto adjunta) si K = C e A

= A; el conjunto se denota 1
n
(C);
A es anti auto adjunta si K = C e A

= A; el conjunto se denota /h
n
(C);
8 NDICE GENERAL
A es semi denida si (x, Ax) 0 para todo x K
n
;
A es denida positiva si (x, Ax) > 0 para todo x K
n
, x ,= 0;
A es autoadjunta denida positiva si A es simtrica y denida positiva; el con-
junto se nota SDP
n
(K);
A es invertible si B = A
1
/
n
(K) tal que AB = BA = I
n
; el conjunto se
denota GL
n
(K);
A es ortogonal si AA
T
= A
T
A = I
n
; el conjunto se denota O
n
(K);
A es unitaria si K = C e AA

= A

A = I
n
; el conjunto se denota |
n
(C);
A es normal si K = C e AA

= A

A; el conjunto se denota A
n
(C);
Nota 1.7. Todas la nociones arriba son estables por paso al inversa, si existe.
Nota 1.8. Toda matriz A se escribe de manera nica como la suma de una matriz simtrica
e una matriz anti simtrica:
A =
1
2
_
A+A
T
_
+
1
2
_
AA
T
_
.
Si K = C, entonces toda matriz A se escribe de manera nica como la suma de una matriz
autoadjunta e una matriz anti autoadjunta:
A =
1
2
(A+A

) +
1
2
(AA

) .
Nota 1.9. Los conjuntos O
n
(K), |
n
(C) y o
+
n
(K) (simtricas y denida positivas) tienen
una importancia particular, e interpretacin del punto de vista operador, y producto escalar.
Se dan ms detalles en la subseccin siguiente.
Finalmente, denimos una propiedad que vuelve muchas veces en el estudio de matrices
que surgen de la discretizacin de EDO o EDP: la monotona.
Denicin 1.10. Una matriz A (resp. un vector v) se dice no negativa si i, j, a
ij
0
(resp. v
k
0). Se nota: A 0 (resp. v 0).
Se dice estrictamente positiva si i, j, a
ij
> 0 (resp. v
k
> 0). Se nota: A > 0 (resp.
v > 0).
A es una P-matriz (o matriz montona) si:
x R
n
_
Ax 0 = x 0
_
.
Proposicin 1.11. A es una P-matriz si y solo si: A GL
n
(R) y A
1
0.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 9
1.1.6. Matrices y aplicaciones lineales (operadores)
El objeto matriz tiene una signicacin ms profunda, tomando el punto de vista de
operadores. En efecto, se puede ver la matriz (el cuadro) A = (a
ij
) /
n,p
(K) como
la representacin de una aplicacin lineal / : E F, donde E y F son dos K- espacio
vectoriales de dimensiones respectivas p y n, dadas (jadas) dos bases (e
k
)
k
y (f
j
)
j
de E
y F. En efecto, los coecientes a
ij
de A son denidos de manera nica por :
/e
k
=
n

j=1
a
jk
f
j
, 1 k p (= n).
En particular el vector /e
k
F es la k-isima columna de A. Volviendo a matrices
cuadradas, la nocin de representacin de operador, est vinculada con la denicin de
similaridad de matrices.
Denicin 1.12. Dos matrices A y B de /
n
(K) son dichas similares si representan la
misma aplicacin lineal /, salvo un cambio de base. Es decir, existe una matriz invertible
P GL
n
(K) tal que:
B = P
1
AP.
Teorema 1.13. operador invertible Sea n N

, y A /
n
(K). Las propuestas siguiente
son equivalentes:
1. A es invertible.
2. A es sobreyectiva.
3. A es inyectiva.
4. det A ,= 0.
1.1.7. Traza y determinante
Denicin 1.14. La traza de una matriz A de /
n
(K) es la suma de sus elementos
diagonales: Tr(A) =
n

i=1
A
i,i
.
Denicin 1.15. El determinante de una matriz A de /
n
(K) el nmero denotado
det(A) o bien

A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
n1
A
n2
A
nn

,
denido por
det(A) =

Sn
() A
1,(1)
. . . A
n,(n)
, (1.1)
donde S
n
es el grupo de las permutaciones de 1, . . . , n, y () la signatura.
10 NDICE GENERAL
Proposicin 1.16. 1. Tr es una funcin lineal. det es una funcin n-lineal, antisim-
trica de los vectores columnas.
2. A /
n
(K), Tr(A
T
) = Tr(A), det(A
T
) = det(A).
3. A /
n
(C), Tr(A

) = Tr(A), det(A

) = det(A).
4. A, B /
n
(K), Tr(AB) = Tr(b A), det(AB) = det(A) det(B).
det(AB) = det(A) det(B), y el determinante de una matriz invertible es el produc-
tos de los pivotes: es de aquella manera que los computadores calculan determinantes.
En particular, nunca se ocupa la denicin terica (formula de Cramer), demasiado
costosa en trminos de nmero de operaciones. (ver clase prctica).
Nota 1.17. El determinante de una matriz triangular es el producto de los elementos
diagonales.
1.1.8. Vectores propios, valores propios
Denicin 1.18. Un escalar K se dice valor propio de A /
n
(K) si existe un
vector x K
n
, x ,= 0 tal que :
Ax = x.
El vector x se llama vector propio de A (asociado a ).
Se llama spectrum de A el conjunto de los valores propios de A, denotado (A) o
sp(A).
Se llama espacio propio asociado al valor propio el subespacio vectorial de K
n
:
L

:= x K
n
[ Ax = x = Ker (AI
n
) .
La dimensin de L

(= n rango(AI
n
)) es la multiplicidad geomtrica de .
Proposicin 1.19. sp(A) det(A I
n
) = 0. El polinomio
A
(X) :=
det (AX I
n
) se llama polinomio caracterstico de A.
Denicin 1.20. La multiplicidad de un valor propio como raiz del polinomio caracte-
rstico se llama multiplicidad algebraica.
Proposicin 1.21. (vinculo con traza y determinante)
Tr(A) = suma de los valores propios.
det(A) = producto de los valores propios (contados con su multiplicidad algebraica).
Proposicin 1.22. A /
n
(C) posee al menos un valor propio y al maximo n
valores propios.
A /
2n+1
(R) posee al menos un valor propio real.
multiplicidad geomtrica multiplcidad algebraica.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 11
Ejercicio 1.23. Calcular los valores propios y sus multiplicidades para las matrices
A =
_
_
_
_
a 1 0 0
0 a 1 0
0 0 a 1
0 0 0 a
_
_
_
_
, B =
_
_
_
_
a 1 0 0
0 a 1 0
0 0 b 1
0 0 0 b
_
_
_
_
.
Teorema 1.24. (Cayley-Hamilton) Sea A /
n
(K) y
A
su polinomio caracterstico.
Entonces
A
(A) = 0.
Ejercicio 1.25. A GL
n
(K) = A
1
es un polinomio de A.
Denicin 1.26. Se llama radio espectral de A /
n
(K) el nmero positivo
(A) := max[[ : sp(A).
Teorema 1.27. (Gershgorin) Sea A /
n
(C). Entonces:
sp(A) =
n
i=1
_
z C : [z a
ii
[

j=i
[a
ij
[
_
.
Demostracin. ver prctica.
1.1.9. Normas y Topologa de matrices
Denicin 1.28. Una norma sobre K
n
es una funcin, denotada | | de K
n
R
+
que verica:
1. x K
n
, |x| = 0 x = 0.
2. x K
n
, K |x| = [[ |x|.
3. x, y K
n
, |x +y| |x| +|y|.
Ejemplo 1.29. (Normas usuales)
La norma euclidiana : |x|
2
=
_
n

i=1
[x
i
[
2
_
1/2
.
La norma 1 : |x|
1
=
n

i=1
[x
i
[.
La norma : |x|

= max
1in
[x
i
[.
La norma p : |x|
p
=
_
n

i=1
[x
i
[
p
_
1/p
.
12 NDICE GENERAL
Teorema 1.30. Una norma es continua.
Todas las normas sobre K
n
son equivalentes.
Denicin 1.31. Una norma matricial (o de matriz) sobre /
n
(K) es una funcin,
denotada | | de /
n
(K) R
+
que verica:
1. A /
n
(K) |A| = 0 A = 0.
2. A /
n
(K), K |A| = [[ |A|.
3. A, B /
n
(K), |A+B| |A| +|B|.
4. A, B /
n
(K), |AB| |A| |B|.
Denicin 1.32. La norma matricial inducida sobre /
n
(K), por la norma vectorial
| | ( sobre K
n
) es la aplicacin denotada [[[ [[[ denida por:
[[[A[[[ := sup
x=0
|Ax|
|x|
= max
x=1
|Ax| .
[[[ [[[ es una norma matricial en el sentido de la denicin 1.31!
Nota 1.33. Una norma inducida verica:
[[[I
n
[[[ = 1.
Denicin 1.34. Una norma matricial N() sobre /
n
(K) se dice compatible con una
norma vectorial | | si, x K
n
:
|Ax| N(A) |x|.
Ejemplo 1.35. [[[A[[[
1
= max
x
1
=1
|Ax|
1
= max
1jn
n

i=1
[A
ij
[.
[[[A[[[

= max
x=1
|Ax|

= max
1in
n

j=1
[A
ij
[.
La norma de Frobenius: |A|
F
:=
_
_
n

i,j =1
[A
i,j
[
2
_
_
1/2
.
Teorema 1.36. La norma [[[ [[[
2
inducida por la norma euclidiana verica:
[[[A[[[
2
= ((A

A))
1/2
.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 13
Teorema 1.37. (Norma y radio espectral) Sea A /
n
(K) y N() una norma matricial.
Entonces
N(A) (A).
> 0, existe al menos una norma inducida [[[ [[[ tal que:
[[[A[[[ (A) +.
Teorema 1.38. (perturbacin de la matriz identidad) Sea [[[ [[[ una norma matricial indu-
cida, y A /
n
(K) tal que [[[A[[[ < 1. Entonces la matriz I
n
+A es invertible y ademas:
[[[(I
n
+A)
1
[[[
1
1 [[[A[[[
.
Por otro lado, si la matriz B = I
n
+A es singular, entonces [[[A[[[ 1.
Los dos teoremas siguientes sern fundamentales para estudiar la convergencia de al-
goritmos iterativos de resolucin de sistemas o de clculo de valores propios.
Teorema 1.39. Sea A /
n
(K). Las condiciones siguientes son equivalentes.
(i) lm
k
A
k
= 0.
(ii) lm
k
A
k
x = 0, x K
n
.
(iii) (A) < 1.
(iv) [[[A[[[ < 1 por, al menos, una norma inducida [[[ [[[.
Teorema 1.40. Sea A /
n
(K), y | | una norma matricial. Entonces
lm
k
|A
k
|
1/k
= (A).
Demostracin. Ver [3] p. 33.
Terminemos esta seccin mencionando un resultado de topologa sobre las matrices
invertibles. De hecho, el siguiente resultado traduce el hecho de que casi todas las matrices
cuadradas son invertibles: el conjunto de las matrices singulares es de medida nula para la
medida de Lebesgue.
Teorema 1.41 (Topologa de las matrices invertibles). El grupo GL
n
(K) es denso en
/
n
(K).
14 NDICE GENERAL
1.1.10. Reduccin y factorizacin de matrices
La seccin de conceptos "bsicos"de algebra lineal se termina por una lista (no exhaus-
tiva!!) de teoremas dichos de reduccin y de factorizacin de matrices, que nos permitirn
construir algoritmos de resolucin de problemas lineales. Hablamos de reduccin cuando
la descomposicin se puede interpretar, en trminos de operador como un cambio de ba-
se, mientras que la factorizacin es simplemente una manera ms cmoda de escribir una
matriz, con vistas a resolver un problema especco.
REDUCCIN
Empezamos con la forma la ms reducida que puede tomar una matriz, la forma dia-
gonal (para la cual la resolucin de un sistema lineal es obvia!).
Denicin 1.42. (/teorema) A /
n
(K) es dicha diagonalizable (dZ en lo que sigue)
si existe una base de vectores propios. Es decir, A es similar a una matriz diagonal, con
elementos diagonales iguales a los valores propios contados con multiplicidad (geomtrica
= algebraica).
Corolario 1.43. Una matriz de talla n que posee n valores propios distintos es dZ.
Existen conjuntos de matrices que se pueden diagonalizar siempre, tales como las ma-
trices normales, hermticas, simtricas.
Teorema 1.44. (matrices diagonalizables particulares)
A A
n
(C) = U |
n
(C) y diagonal, tales que: A = UU
1
.
(una matriz normal es dZ en una base unitaria)
A 1
n
(C) = U |
n
(C) y diagonal (con elementos diagonales reales),
tales que: A = UU
1
.
(una matriz hermtica es dZ en una base unitaria y tiene valores propios reales)
A o
n
(R) = O O
n
(R) y diagonal, tales que: A = OO
1
.
(una matriz simtrica es dZ en una base ortonormal)
De hecho, hay una equivalencia en el teorema previo: el conjunto de las matrices de
/
n
(C) dZ en una base unitaria (ortonormal por el producto interno) es exactamente el
conjunto de las matrizes normales. Y el conjunto de las matrices de /
n
(C) dZ y cuyos
valores propios son reales es exactamente el conjunto de las matrices Hermticas (auto-
adjuntas) [1].
Lamentablemente, toda matriz de /
n
(K) NO es dZ
(1)
. Sin embargo, siempre se puede
reducir una matriz cuadrada compleja: a una forma triangular, es decir
M /
n
(C) , P GL
n
(C)

P
1
M P = T T
+
n
(C).
1
A notar que el conjunto de las matrices dZ complejas es un subconjunto denso de las matrices
cuadradas complejas, mientras que no es vedrad en R.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 15
De hecho, se puede encontrar una matriz P bien especca: es el teorema de factorizacin
de Schur.
Teorema 1.45. (Forma normal de Schur) Sea A /
n
(C). Entonces existe U |
n
(C)
y T T
+
n
(C) tales que:
A = U T U
1
.
Corolario 1.46. Sobre C, la traza es la suma de los valores propios, y el determinante es
el producto de los valores propios. (contados con multiplicidad).
Nota 1.47. Este teorema es vlido solamente en C, porque se basa en el hecho de
que C es un cuerpo algebraicamente cerrado.
Poder elegir la base de triangularizacin como una familia Ortonormal de C
n
es
relacionado con la existencia de operadores de proyeccin en K
n
, y se basa en el
proceso de ortogonalizacin, aplicable a cualquiera familia de vectores de K
n
.
Ortonormalizacin de Gramm-Schmidt.
Dada una familia a
1
, . . . , a
k
de vectores de K
n
linealmente independientes,
es posible obtener una familia q
1
, . . . , q
k
ortonormal de vectores (es decir:
i, j 1, . . . , k, < q
i
; q
j
>=
ij
, donde < ; > es el producto interno de
K
n
), tal que :
Spana
1
, . . . , a
k
= Spanq
1
, . . . , q
k
.
Deniendo el operador proyeccin ortogonal sobre la recta engendrada por un vector
x K
n
por:
P
x
(v) :=< x; v >
v
< v; v >
,
el algoritmo de Gram-Schmidt puede escribirse de la forma siguiente:
16 NDICE GENERAL
Algoritmo 1.48 (Proceso de ortonormalizacin de Gram-Schmidt).
v
1
= a
1
;
11
= |v
1
|;
q
1
= v
1
/
11
;
for j = 2 .. k :
v
j
= a
j
for m = 1 .. j-1 :

mj
=< a
j
; q
m
>;
v
j
= a
j

mj
q
m
;
end for

jj
= |v
j
|;
q
j
= v
j
/
jj
.
end for.
Ocurre que escrito de tal manera, el proceso es inestable respecto a errores de redondeo.
Por lo tanto no se implementa tal cual en general, pero bajo una forma modicada:
Algoritmo 1.49 (Gram-Schmidt MODIFICADO).
for j = 1 .. k :
q
j
= a
j
;
end for.
for j=1 .. k:

jj
= |q
j
|;
q
j
= q
j
/
jj
;
for m = j+1 .. k :

jm
=< a
m
; q
j
>;
q
m
= q
m

jm
q
j
;
end for
end for
El algoritmo previo, no solo sirve a reducir matrices, pero tambin a factorizarlas , como
por ejemplo en la descomposicin dicha QR. Terminemos la seccin con los resultados de
factorizacin que se ocuparn en lo siguiente.
1.1. CONCEPTOS BSICOS DE ALGEBRA LINEAL : REPASO 17
FACTORIZACIN
Teorema 1.50 (LU teorico). Sea A GL
n
(K) con todos los minores principales no nulos.
Entonces existen L T

n
(K) con solo 1 en la diagonal, y U T
+
n
(K), nicas tales que:
A = LU.
Adems det(A) =

i
U
ii
.
De hecho la hiptesis sobre los minores principales puede ser relajada si uno se autoriza
permutaciones de las.
Teorema 1.51 (LU teorico, versin 2). Sea A GL
n
(K). Entonces existe una matriz
de permutacin P por la cual, existen un nico par (L, U) T

n
(K) T
+
n
(K) donde los
elementos diagonales de L son iguales a 1, tal que:
P A = LU.
De hecho, cualquiera matriz cuadrada puede ser descompuesta as, solo que en tal caso
la factorizacin no es nica.
Otra factorizacin nos da un producto de una matriz llena con una matriz triangular:
es la descomposicin QR que tiene la ventaja de ser aplicable a cualquiera matriz, pero es
ms costosa que la descomposicin LU, como lo veremos en la seccin siguiente.
Teorema 1.52 (QR terico). Sea A /
np
(K), con p n; Entonces existe una matriz
cuadrada de talla n, unitaria (si K = C, ortogonal si K = R) y denotada Q, y existe una
matriz R asi triangular superior" rectangular superior, tales que:
A = QR.
Si n = p, si A GL
n
(K), y si adems, se impone que los coecientes de R sean positivos,
entonces la descomposicin es nica.
Terminemos con resultados sobre matrices particulares (simtricas denida positivas,
simtricas, normales, hermticas).
Teorema 1.53. (Cholesky) Sea A SDP
n
(R). Entonces, existe una nica matriz L
T

n
(R), con elementos diagonales todos > 0 tal que :
A = LL
T
.
Es la versin SDP de la descomposicin LU. Estos resultados se ocuparn para simpli-
car la resolucin numrica de problemas de algebra lineal. Las demostraciones se encuentren
en lo siguiente, de forma algortmica, y se calculan las complejidades respectivas.
18 NDICE GENERAL
1.2. Sistemas lineales : mtodos directos
1.2.1. Objetivo
Ya hemos visto en introduccin que la resolucin de sistemas lineales surgen natural-
mente de problemas de fsica. Dada una matriz A (a p columnas), y un vector b R
p
,
tratamos de resolver el sistema lineal Ax = b, o bien, en otras palabras, se busca x solucin
de :
_
_
_
x R
p
,
Ax = b.
(2.2)
Si A es cuadrada e invertible, ya se sabe que existe una nica solucin al problema
(2.2), por lo tanto en general no vamos a investigar la existencia de solucin, pero solo su
valor. De misma manera para matrices rectangulares : los algoritmos se aplican por gran
nmero de matrices, an no invertibles. (as, cuando se obtenga un resultado, no quiere
decir que sea una o la solucin del problema inicial, la respuesta a aquella pregunta debe
venir de otra parte). El problema que nos interesa en la primera parte de este captulo es
calcular tales vectores x, tratando de minimizar el costo de clculo.
En la prsente seccin, investigaremos los mtodos dichos directos, que permiten calcu-
lar la solucin exacta. Pero se ver que la solucin del problema (2.2) no siempre se puede
calcular explicitamente, dependiendo de la talla de la matriz A, de su condicionamiento,
... temas abordados en la seccin 1.3, mientras que los mtodos iterativos, que consisten en
algoritmos de aproximacin de la solucin x, sern expuestos en la seccin 1.4. Finalmente,
se tratar en la seccin ?? del presente captulo otros problemas de algebra lineal numrico
que son los problemas de clculo de valores propios y vectores propios.
Denicin 2.1. Un mtodo directo de resolucin de (2.2) es un mtodo que da la solucin
x exactamente, despus de un nmero nito de operaciones elementales.
1.2.2. Eliminacin de Gauss, mtodo LU
Como visto previamente, la eliminacin de Gauss permite, mediante operaciones ele-
mentales sobre las y columnas de la matriz A, reducir el sistema a una forma triangular,
que puede ser resuelta facilmente.
Ejemplo 2.2. Consideremos el sistema Ax = b con:
A =
_
_
1 0 1
0 2 1
1 1 2
_
_
, b =
_
_
2
1
2
_
_
.
Escribimos la matriz aumentada

A = [A b] =
_
_
1 0 1 2
0 2 1 1
1 1 2 2
_
_
,
1.2. SISTEMAS LINEALES : MTODOS DIRECTOS 19
y aplicamos operaciones de Gauss: el primer trmino de la primera la es 1, es nuestro
pivote. La segunda ecuacin ya tiene un 0 en la primera columna, por lo tanto no se
necesita hacer nada. Aplicamos operacin sobre la tercera la: L
3
L
3
+L
1
, lo que nos
da:

A
1
=
_
_
1 0 1 2
0 2 1 1
0 1 1 0
_
_
.
Corresponde a multiplicar la matriz

A a la izquierda por la matriz E
1
= T
31
(1) =
_
_
1 0 0
0 1 0
1 0 1
_
_
. Luego cambiamos de pivote: tomamos el 2 de la segunda la, y elimina-
mos el coeciente abajo: L
3
L
3

1
2
L
2
, lo que nos da:

A
2
=
_
_
1 0 1 2
0 2 1 1
0 0 1/2 1/2
_
_
.
Corresponde a multiplicar la matriz

A
1
a la izquierda por la matriz E
2
= T
32
(1/2) =
_
_
1 0 0
0 1 0
0
1
2
1
_
_
. As se obtuvo un sistema triangular superior (escalonado) con tres
pivotes distintos de cero (1, 1 y 1/2):
Ux =

b, con U = E
2
E
1
A, y

b = E
2
E
1
b.
Podemos resolverlo simplemente, subiendo a partir de la ltima la. En efecto, se obtiene:
x
3
= 1, luego x
2
= 1, y x
1
= 1.
As, la eliminacin de Gauss nos permiti resolver el sistema, mediante operaciones
elementales, que se interpretan cmo una factorizacin de la matriz de partida. Veamos el
caso general, suponiendo que todos los pivotes van a ser no nulos.
Caso general n n. De manera general, dada una matriz cuadrada A /
n
(K), el
mtodo de Gauss para resolver Ax = b, se escribe:
A
(1)
= A, b
(1)
= b.
Para i = 1 . . . n1, se buscan A
(i+1)
y b
(i+1)
tales que A
(i+1)
x = b
(i+1)
sea equivalente
al sistema A
(i)
x = b
(i)
, y tal que A
(i+1)
es una matriz cuyos elementos bajo la diagonal
entre las columnas 1 y i son nulos.
La matriz A
(n)
es nalmente triangular superior, y el sistema A
(n)
x = b
(n)
se resuelve
facilmente.
El clculo de A
(n)
se llama etapa de factorizacin, el clculo de b
(n)
se llama etapa
de bajada, mientras el clculo de x se llama nalmente etapa de subida.
Es importante saber poner bajo una forma algortmica tales operaciones, porque ser
la base antes de escribir un programa informtico. As describimos ahora el algoritmo de
Gauss para resolver Ax = b (es decir, clculo de U, de y, y nalmente de x). Sin calcular
la matriz A
1
!
20 NDICE GENERAL
Algoritmo 2.3 (Gauss sin permutacin).
1. Factorizacin y bajada:
for i = 1 .. n , do :
a) No cambiar la la isima (la del pivote): y
i
= b
i
;
for j = i .. n , do :
u
ij
= a
ij
;
b) Clculo de las las i +1 hasta n de la matriz U y del segundo miembro y:
for k = i+1 .. n , do :
l
ki
=
a
ki
a
ii
;
for j = i+1 .. n , do :
u
kj
= a
kj
l
kj
u
ij
.
y
k
= b
k
l
ki
y
i
;
2. Subida (clculo de x)
x
n
=
y
n
u
nn
;
for i = n-1 .. 1 do:
x
i
= y
i
;
for j = i+1 .. n , do :
x
i
= x
i
u
ij
x
j
;
x
i
=
x
i
u
ii
.
Nota 2.4. Una idea natural de resolucin podra ser el clculo efectivo de la inversa de
la matriz A, mediante la formula de Cramer, es decir: x = A
1
b, o bien, para todo
k 1, . . . , n, se calcula la k-isima coordenada de x por
x
k
=
1
det(A)
det (c
1
[ . . . c
k1
[b[c
k
[ . . . c
n
) ,
1.2. SISTEMAS LINEALES : MTODOS DIRECTOS 21
con el determinante dado por la denicin (1.1). Ahora bien ocurre que es una mala idea
en trminos de costo de clculo: cuando n 1, la complejidad se porta como n!, mucho
ms que los mtodos de Gauss, LU, QR, etc..
Pero si ahora se necesita resolver 2000 sistemas de la forma Ax = c, con la misma
matriz A, pero con 2000 trminos fuentes distintos c, sera una lstima volver a hacer las
operaciones previas tantas veces. Cmo hacer? La idea es factorizar la matriz A una
vez por todas, es decir escribirla de la forma A = LU de modo que:
A = LU = Ax = b
_
Ly = b,
Ux = y.
La factorizacin LU se deriva imediatamente del algoritmo de Gauss. En efecto, en el
ejemplo previo: L = E
1
1
E
1
2
y U = E
2
E
1
A.
Nota 2.5. El proceso explicado se llama mtodo LU para la resolucin de sistemas lineales
y es utilizado ampliamente en ciencias de ingeniera. Se debe repetir sin embargo que, en el
ejemplo previo, todo pasaba bien porque no haba cero en posicin de pivote. Si ocurre
tal caso, la factorizacin sigue siendo posible, con costo unas permutaciones. El resultado
general es: si A es invertible, entonces existe una permutacin P, existen L T

n
, U t
+
n
tales que PA = LU (ver teorema 1.51).
Veamos la pequea diferencia del mtodo LU con la eliminacin para la resolucin
especca de un sistema, en trminos algortmicos.
22 NDICE GENERAL
Algoritmo 2.6 (LU sin permutacin).
1. Factorizacin:
for i = 1 .. n , do :
a) No cambiar la la isima (la del pivote):
for j = i .. n , do :
u
ij
= a
ij
;
b) Clculo de las las i + 1 hasta n de la matriz U:
for k = i+1 .. n , do :
l
ki
=
a
ki
a
ii
;
for j = i+1 .. n , do :
u
kj
= a
kj
l
kj
u
ij
.
2. Bajada: clculo de y, Ly = b.
for i= 1 .. n , do :
y
i
= b
i

i1

k=1
l
ik
y
k
;
3. Subida (clculo de x, con Ux = y)
for i = n .. 1 do:
x
i
=
1
u
ii
_
_
y
i

j=i+1
u
ij
x
j
_
_
.
Nota 2.7. A recordar que la matriz L, por construccin, tiene solo 1 en la diagonal.
Nota 2.8 (Optimizacin memoria). Respecto a la memoria del computador, la introduc-
cin de las matrices L y U, y del vector y no es necesaria. Todos los iterados A
(i)
se pueden
guardar dentro de la matriz A de partida, como los valores de y en el vector b. Sin embargo,
la introduccin de estas matrices se hace para comprender el mtodo. A recordar: el prin-
cipio de los mtodos de Gauss o LU es un algoritmo que consiste en modicar el sistema
1.2. SISTEMAS LINEALES : MTODOS DIRECTOS 23
de partida hasta un sistema equivalente triangular, pero nunca se modican las matrices
L, U, y los vectores y, x (que son denidos a lo largo del algoritmo).
Costo del mtodo de Gauss o LU sin permutacin.
factorizacin:
n
3
3
sumas,
n
3
3
multiplicaciones,
n
2
2
divisiones;
bajada (clculo de y):
n
2
2
sumas,
n
2
2
multiplicaciones;
subida (resolucin del sistema escalonado):
n
2
2
sumas,
n
2
2
multiplica-
ciones y n divisiones;
Por lo tanto se dice que la complejidad del mtodo LU o de eliminacin de
Gauss sin permutacin es 2 n
3
/3. (mucho menos que el mtodo de Cramer).
Caso de un pivote nulo. En efecto en los algoritmos presentados arriba, se supuso de
que a cada etapa i el pivote a
(i)
ii
estaba distinto de 0. Ahora bien, no siempre pasa el hecho
de que todos los pivotes son distintos de 0. Puede tambin ocurrir que el pivote sea muy
pequeo, lo que puede engendrar errores de redondeo importantes en los clculos. Se puede
superar este problema mediante la agregacin en el algoritmo de una etapa de bsqueda
de un pivote no cero, ser un mtodo del pivote parcial, o del pivote total. Corresponde
a elegir una matriz de permutacin P en la factorizacin (del Teorema 1.51) .
Ejercicio 2.9. Sea el sistema a resolver A

x = b, con
A

=
_
1
1 1
_
, b =
_
1
2
_
.
Calcular la solucin exacta. Aplicar el algoritmo de eliminacin de Gauss sin pivote (o
mtodo LU) y vericar que este mtodo da la segunda coordenada de x igual a:
x
2
=
_
2
1

_ _
1
1

_
1
.
Suponiendo sue el error de aproximacin que se hace es del orden (pequeo), dar los
valores de x
app
2
y luego de x
app
1
calculados con este mtodo de Gauss. Concluir.
Aplicar el mismo algoritmo de Gauss, pero esta vez apartndose del sistema cuyas las
fueron cambiadas inicialmente, es decir:
_
x
1
+x
2
= 2,
x
1
+x
2
= 1.
A la vista del ejemplo previo, se observan comportamientos distintos del mtodo de
Gauss, segn el tamao del pivote. Veamos primero el algoritmo general de Gauss con
pivote dicho total , es decir con la eleccin como pivote, del mximo en valor absoluto en
la isima columna de la etapa i. El algoritmo se modica como sigue.
24 NDICE GENERAL
Algoritmo 2.10 (LU con pivote total).
1. Factorizacin:
for k = 1 .. n-1 , do :
for i = k+1 .. n , do :
a) Eleccin del pivote: u
(k)
kk
= u
(k)
k
0
k
, con [u
(k)
k
0
,k
[ = max
l=k..n
[a
(k)
lk
[;
Permutacin de las las k y k
0
.
l
(k)
ik
=
a
(k)
ik
u
(k)
kk
;
b) Clculo de las las k + 1 hasta n de la matriz U:
for j = k+1 .. n , do :
u
(k+1)
ij
= u
(k)
ij
l
(k)
ik
u
(k)
kj
.
end for (j)
2. Bajada: clculo de y, Ly = b. b
(k+1)
i
= b
(k)
i
l
(k)
ik
b
(k)
k
;
3. Subida (clculo de x, con Ux = y)
for i = n .. 1 do:
x
i
=
1
u
ii
_
_
y
i

j=i+1
u
ij
x
j
_
_
.
Nota 2.11. El mtodo LU tambin puede desarrollarse para un sistema rectangular, guar-
dando en mente que no siempre puede dar un resultado, y que el resultado obtenido no es
nico.
1.2.3. Mtodo de Cholesky
Estudiamos ahora otro mtodo directo de resolucin de sistema lineal especcamente
adaptado al caso cuando A es SDP (caso real) o HDP (caso complejo). A recordar que
si A es simtrica denida positiva, entonces en particular A es invertible. Empecemos por
el clculo de LU para una matriz especca.
Ejercicio 2.12. Calcular la descomposicin LU de la matriz A =
_
_
_
_
2 1 0 0
1 2 1 0
0 1 2 1
0 0 1 2
_
_
_
_
.
1.2. SISTEMAS LINEALES : MTODOS DIRECTOS 25
Se observa que las matrices L y U han perdido la estructura simtrica de la matriz A.
Por razones de memoria, es importante poder conservar tal simetria. La idea es descom-
poner la matriz U en un producto: su parte diagonal por su parte triangular superior (con
1 en la diagonal). As se observe ahora que:
U = L
t
, con =
_
_
_
_
2 0 0 0
0 a 0 0
0 0 b 0
0 0 0 c
_
_
_
_
,
y L exactamente la matriz triangular inferior. Por lo tanto: A = LL
t
=

L

L
t
, con

L = L

. Es la descomposicin de Choleski de A. En particular, la matriz



L no tiene
puros 1 en la diagonal, sino coecientes positivos (ver Teorema 1.53).
El algoritmo de factorizacin de Cholesky de una matriz A simtrica denida positiva
es dado abajo.
Algoritmo 2.13 (Factorizacin de Choleski).
l
11
= a
11
;
for i = 2 .. n , do :
l
i1
= a
i1
/l
11
;
for j = 2 .. n , do :
for k = 1 .. j-1 , do :
l
kj
= 0;
l
jj
=
_
a
jj

j1
m=1
l
2
jm
;
for k = j +1 .. n , do :
l
kj
=
1
l
jj
_
a
kj

j1

m=1
l
km
l
jm
_
.
Costo de la factorizacin de Cholesky.
Se necesitan: n
3
/6 multiplicaciones, n
3
/6 sumas, n
2
/2 divisiones, y n extrac-
ciones de raices. La complejidad del mtodo de Cholesky es del orden n
3
/3.
Nota 2.14. En un programa informtico, en general es immplementado otro mtodo que
Choleski, pero una descomposicin de la matriz A de la forma A = LDL
t
, con D diagonal.
Es ms conveniente en el sentido que no involucra el clculo de races cuadradas, que es
una operacin elemental ms complicada que +/ / /.
26 NDICE GENERAL
1.2.4. Factorizacin QR.
1.2.5. Algunas propiedades, comparacin de mtodos
1.3. Condicionamiento
1.3.1. El problema de errores de redondeo
Ocurre muchas veces que la matriz A y el vector b en el sistema a resolver (Ax =
b) no son conocidos de manera exacta (si surgen de medidas de fenmenos fsicos por
ejemplo). En tales casos, uno espera que el error cometidos sobre los datos del problema
no engendre errores ms grandes en la resolucin del sistema. Ya hemos visto que el proceso
de eliminacin de Gauss puede dar soluciones falsas si no se pone atencin a la eleccin
del pivote.
De manera general, denotando b y A los errores cometidos sobre b y A, buscamos el
error cometido sobre x, es decir x, tal que x +x sea solucin (si existe!!) de:
_
x +x K
n
,
(A+A)(x +x) = b +b.
(3.3)
El objetivo es demostrar que si A "no es demasiado grande", entonces A+A sigue siendo
invertible, y se puede expresar x como funcin de A y b.
Ejemplo 3.1. matriz de Hilbert
1.3.2. Condicionamiento y error
Denicin 3.2. Llamamos condicionamiento de una matriz A invertible el nmero
cond(A) := |A| |A
1
| ,
donde | | es una norma inducida.
Proposicin 3.3. 1. A GL
n
= cond(A) 1;
2. A GL
n
, K

= cond(A) = cond(A);
3. A, B GL
n
= cond(AB) cond(A) cond(B);
Proposicin 3.4 (Condicionamiento para la norma euclidiana). Sea | |
2
la norma eu-
clidiana de R
2
, y [[[ [[[
2
la norma inducida, cond
2
el condicionamiento asociado. Entonces,
para toda A GL
n
(R):
1. cond
2
(A) =
_

1
, donde
n
(resp.
1
) es el mayor (resp. menor) valor propio de
A
t
A.
2. Si adems A SDP
n
, entonces: cond
2
(A) =

n

1
, donde donde
n
(resp.
1
) es el
mayor (resp. menor) valor propio de A.
1.4. MTODOS ITERATIVOS 27
3. cond
2
(A) = 1 A = Q, con R

y Q O
n
(R).
4. Si A = QR donde Q O
n
(R), entonces cond
2
(A) = cond
2
(R).
5. Si A, B SDP
n
(R), entonces cond
2
(A+B) max
_
cond
2
(A), cond
2
(B)
_
.
Ahora podemos encontrar cotas sobre el error cometido sobre la solucin del sistema
(3.3).
Teorema 3.5. Sea A GL
n
(R), b R
n
, b ,= 0. Se nota | | una norma sobre R
n
, y
[[[ [[[ la norma matricial inducida. Sea x solucin del problema inicial (2.2). Si x + x es
solucin del sistema aproximado (3.3), entonces:
|x|
|x|
cond(A)
|b|
|b|
. (3.4)
Si b = 0 en (3.3), entonces:
|x|
|x +x|
cond(A)
[[[A[[[
[[[A[[[
. (3.5)
Para b cualquier en (3.3), tenemos:
|x|
|x|

cond(A)
1 [[[A
1
[[[ [[[A[[[
_
|b|
|b|
+
[[[A[[[
[[[A[[[
_
. (3.6)
Nota 3.6. La primera estimacin 3.4 trata del error global. para tener una cota sobre el
error relativo x, basta ver que b = Ax, lo que implica |b| [[[A[[[ |x|, y por lo tanto:
1
|x|

[[[A[[[
|b|
.
Denicin 3.7. Se dice que un sistema Ax = b es bien condicionado si cond(A) "no es
demasiado grande.
en
comparacin a 1 (que es el condicionamiento de la matriz I
n
).
Se dice que el sistema es mal condicionado si cond(A) 1.
Para superar el problema de los sistemas mal condicionados, se puede aplicar un mtodo
de precondicionamiento: se trata de multiplicar la matriz A a la izquierda por una
matriz P invertible, tal que cond(PA) cond(A). Lamentablemente no existen mtodos
estndares para calcular la matriz P. Cada uno emplea su mtodo favorito.
Ahora viene otra familia de mtodos de resolucin de sistemas lineales: los mtodos
iterativos.
1.4. Mtodos iterativos
Los mtodos directos son muy ecientes : dan la solucin exacta (salvo errores de redon-
deo) pero necesitan un tremendo espacio de memoria viva del computador, en particular
28 NDICE GENERAL
si la matriz est llena (en efecto se debe memorizar toda la matriz A a cada etapa del
algoritmo). Sin embargo, como en el caso de la ecuacin del calor, el sistema a resolver es
hueco, y la matriz tiene una estructura banda bien particular. En tal caso, hemos visto
la potencia del mtodo de Choleski, que conserva la estructura simtrica de la matriz, y
tambien posee una complejidad reducida, en comparacin con el mtodo LU. Pero solo
sirve cuando A SDP.
Por otro lado, en el tratamiento de sistemas gigantes, que surgen de la mecnica de
uidos por ejemplo, se buscan en general mtodos que ocupan un mnimum de espacio
memoria. Nos interesa entonces mtodos dichos iterativos. Aquellos mtodos solo hacen
intervenir productos matriz vector, que son menos costosos que los mtodos directos,
porque necesitan el almacenamiento solamente de los trminos no nulos de la matriz.
Denicin 4.1 (Mtodo iterativo). Se llama un mtodo iterativo de resolucin del sistema
lineal (2.2) un mtodo que construye una sucesin x
(k)
(x
(k)
siendo calculado a partir
de las etapas previas x
(0)
, ... x
(k1)
) de vectores que debe converger a la solucin x cuando
k .
1.4.1. Mtodo de Jacobi
1.4.2. Mtodo de relajacin
1.4.3. Mtodo de Gauss-Seidel
1.4.4. Comparacin de Jacobi y GS
1.4.5. Mtodos SOR y SSOR
1.4.6. Un mtodo iterativo y directo: Gradiente conjugado
Bibliografa
[1] Numerical Linear Algebra, Allaire, G., 2008, Springer.
[2] An introduction to Numerical analysis, Atkinson, K., 1989, Wiley.
[3] Introduction to Numerical Linear Algebra and Optimisation, Ciarlet, P.G., 1989,
Cambridge University Press.
[4] Applied Numerical analysis using MATLAB, Fausett, L.V., 2007, Prentice Hall New
York.
[5] Matrix computations, Golub, G.H., Van Loan, C.F., 1996, John Hopkins University
Press.
[6] Matrices: Theory and Applications, Serre, D., 2002, Springer.
[7] Introduction to Numerical analysis, Stoer, J., Burlisch, R., 2002, Springer-Verlag.
[8] Introduction to Linear Algebra, Strang, G., 2003, Wellesley-Cambridge Press.
29

También podría gustarte