Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2.1 Introducción
Se ha estimado que un 75% de los problemas de ingeniería se presenta, en alguna
etapa del trabajo, la solución de un sistema de ecuaciones lineales:
a11 x1 a12 x 2 a13 x3 a1n x n b1
a 21 x1 a 22 x 2 a 23 x3 a 2 n x n b2
a31 x1 a 32 x 2 a 33 x3 a 3n x n b3 (2.1a)
a n1 x1 a n 2 x 2 a n3 x3 a nn x n bn
o bien: Ax b
Muchos métodos frecuentemente utilizados en ingeniería, como por ejemplo los métodos
de elementos finitos para la solución de ecuaciones en derivadas parciales, resultan en
el planteamiento de grandes sistemas de ecuaciones lineales. El costo de análisis y en
muchos casos la factibilidad de un modelo suficientemente preciso dependen en gran
medida de la forma de almacenamiento de las ecuaciones y de la eficiencia del algoritmo
utilizado en su solución.
n
1 bi
xi u ik x k (2.4b)
u ii
k i 1
Este proceso se denomina “sustitución inversa”. Análogamente, para un sistema Lx = b,
en el que L es una matriz triangular inferior no singular ( l ii 0 para todo i), puede
utilizarse una sustitución directa o “reducción”:
b1
x1 (2.5a)
l11
i 1
l
1 bi
xi ik x k (2.5b)
l ii
k 1
En ambos casos, la solución del sistema requiere n divisiones y 1
2
n n 1 operaciones
de multiplicación y suma (casi lo mismo que para multiplicar una matriz triangular por un
vector).
a i(11)
l i1 (1)
(2.7a)
a11
Con ello se obtiene:
(1)
a11 x1 a12
(1)
x 2 a13
(1)
x3 a1(1n) x n b1(1)
( 2)
a 22 x 2 a 23
( 2)
x3 a 2( 2n) x n b2( 2)
( 2)
a 32 x 2 a 33
( 2)
x3 a 3( 2n) x n b3( 2) (2.7b)
a n( 22) x2 a n( 23) x3 ( 2)
a nn x n bn( 2)
donde
a i(22)
li 2 ( 2)
a 22
o en notación matricial: Ux = b.
1 2 3 4 x1 2
(1) 1 4 9 16 x 2 10
(1) 1 8 27 64 x3 44
(1) 1 16 81 256 x 4 190
Los números indicados a la izquierda (entre paréntesis) son los factores li1 por los que es
necesario multiplicar la ecuación 1 antes de restarla de la ecuación i, para lograr el
objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.
1 2 3 4 x1 2
0 2 6 12 x 2 8
(3) 0 6 24 60 x3 42
(7) 0 14 78 252 x 4 188
Análogamente:
1 2 3 4 x1 2
0 2 6 12 x 2 8
0
0 6 24 x3 18
(6) 0 0 36 168 x 4 132
1 2 3 4 x1 2
0 2 6 12 x 2 8
0
0 6 24 x3 18
0 0 0 24 x 4 24
finalmente:
24 x 4 24 x4 1
6 x3 24 x 4 18 x3 1
2 x 2 6 x3 12 x 4 8 x2 1
x1 2 x 2 3 x3 4 x 4 2 x1 1
1 1 1 x1 1
1 1 2 x 2 2
1 2 2 x 1
3
La matriz de coeficientes no es singular y el sistema tiene una solución única
x 1 1 1 . Sin embargo, después del primer paso (efectuado en el orden indicado
T
anteriormente), se obtiene:
1 1 1 x1 1
0 0 1 x 2 1
0 1 1 x 0
3
y siendo a 22 0 , no es posible proseguir como habitualmente. La solución es en este
( 2)
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si aii(i ) 0 , algún otro
(i )
elemento de la misma columna, a ji , debe ser distinto de cero (lo contrario implicaría
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reducción. Dados los
(i )
elementos a ji de la columna i, es conveniente escoger como pivote aquel de máximo
valor absoluto, puesto que el uso de pivotes pequeños introduce fuertes errores en la
solución. El ejemplo siguiente es ilustrativo:
3 10 11 1 x1 7
1 x 2 9
1
de donde: x2 7
x1 0
1 1 x1 9
3 10
11
1 x 2 7
Supóngase que A es tal que el proceso de reducción del método de Gauss puede
efectuarse sin necesidad de intercambiar filas o columnas. En tal caso, la
descomposición A = LU donde L es una matriz triangular inferior con l ii 1 y U es una
matriz triangular superior, es única. Esto puede probarse fácilmente por inducción. Para
el caso del primer ejemplo:
1 2 3 4 1 0 0 0 1 2 3 4
1 4 9 16 1 1 0 0 0 2 6 12
1 8 27 64 1 3 1 0 0 0 6 24
1 16 81 256 1 1 0 0 24
7 6 0
puede almacenarse en las posición de a ki . Por otro lado, no es necesario almacenar los
elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos de
U son aquellos de la matriz reducida, el efecto de la reducción o descomposición en la
distribución de memoria es de la forma:
1 2 3 4 1 2 3 4
1 4 9 16 1 2 6 12
1 8 27 64 1 3 6 24
1 16 81 256 1 6 24
7
En los casos en los que se efectúan intercambios de filas y/o columnas es siempre
posible (si A no es singular) obtener factores triangulares L y U tales que LU = A’,
donde A’ es la matriz que resulta de efectuar los intercambios mencionados en la matriz
original A.
Todos los métodos tratados en esta sección pueden considerarse como variantes del
método de Gauss.
k 1
1 ai k
l ik li p u p k i k 1, n (2.9b)
u kk
p 1
Si durante el proceso de reducción se usa la ecuación i para eliminar xi, no sólo de las
ecuaciones que siguen a la i sino también de la ecuaciones precedentes, se tiene el
método de Gauss – Jordan. Para el ejemplo antes considerado:
1 2 3 4 x1 2
1 4 9 16 x 2 10
1 8 27 64 x 44
3
1 16 81 256 x 190
4
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 6 24 60 x 42
3
0 14 78 252 x 188
4
1 0 3 8 x1 6
0 2 6 12 x 2 8
0
0 6 24 x3 18
0 0 36 168 x 4 132
Nótese que se utilizó la segunda ecuación para reducir no solamente las ecuaciones 3 y
4, sino también la ecuación 1. Análogamente:
1 0 0 x1 1
0
0 2 0 x2 2
0
0 0 6 x 6 de donde se obtiene fácilmente la solución.
0
3
0 0 0 24 x 4 24
El método de Gauss- Jordan es más simple de programar, pero requiere casi 1.5 veces
el número de operaciones del método de Gauss tradicional.
Finalmente, para concluir esta sección, debe mencionarse que el método de Gauss es
aplicable también a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:
2 1 i 0 x1 4 2i
1 i 2 1 i x 2 8 4i
0 1 i 3 x3 11 2i
2 1 i 0 x1 4 2i
0 1 1 i x 2 5 3i
0 1 i 3 x3 11 2i
2 1 i 0 x1 4 2i
0 1 1 i x 2 5 3i
0 0 1 x3 3
de donde:
x3 3
x 2 (5 3i ) 3(1 i ) 2
x1 1
2
(4 2i) 2(1 i) 1
2.2.5 Inversión de Matrices
-1
Si la inversa, A , de una matriz A se conoce, la solución de un sistema Ax = b puede
-1 -1
escribirse x = A b. Podría entonces parecer conveniente determinar A , en especial si
se tienen varios sistemas de ecuaciones con la misma matriz de coeficientes. Sin
embargo, la solución puede ser obtenida con mucho menos operaciones – y en general
con mucha más precisión – utilizando la descomposición A = LU. La solución de los dos
2
sistemas triangulares Ly = b y Ux = y requiere sólo O(n ) operaciones (por cada
columna de b ó x). Por otro lado, la multiplicación A-1b también demanda O(n2)
-1
operaciones. Sin embargo, la determinación de A requiere aproximadamente el triple
de trabajo que para obtener L y U. El número de operaciones (multiplicaciones o
divisiones) necesarias para obtener la inversa de una matriz cuadrada (no simétrica) de
orden n es n 3 2 n 2 n 1 .
1 1 1
A 2 1 3
3 1 4
En la columna de la izquierda se tienen la matriz A y sus sucesivas modificaciones. A la
derecha se presentan la matriz I y las modificaciones obtenidas efectuando sobre las
filas las mismas operaciones que en A:
1 1 1 1 0 0
2 1 3 0 1 0
3 1 4 0 0 1
1 1 1 1 0 0
0 1 1 2 1 0
0 2 1 3 0 1
1 0 2 1 1 0
0 1 1 2 1 0
0 0 1 1 2 1
1 0 0 1 3 2
0 1 0 1 1 1 A 1
0 0 1 1 2 1
Alternativamente, si la descomposición A = LU de una matriz A se conoce, la inversa
-1 -1 -1 2
puede obtenerse de A = U L , también en O(n ) operaciones. Si en los cómputos
-1 -1
para L y U se hacen intercambios de filas, el producto U L resulta la inversa de una
-1 -1
cierta matriz A’. La matriz A puede obtenerse a partir de (A’) intercambiando
columnas en secuencia inversa a los cambios de fila durante el proceso.
Para la matriz antes considerada:
1 1 1 1 0 0 1 1 1
2 1 3 2 1 0 0 1 1
3 1 4 3 2 1 0 0 1
A LU
La inversa de una matriz triangular es otra matriz del mismo tipo, fácil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser
obtenida por sustitución directa o “reducción”: LY = In.
y ij 0 i j (2.11a)
i 1
1 ij
y ij l ik y kj i j (2.11b)
l ii
k j
En forma análoga, la inversa, U-1, de una matriz triangular superior, U, es también una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = In:
1 0 0 1 1 2
1
1
L 2 1 0 U 0 1 1
1 2 1 0 0 1
1 3 2
1
1
1
A U L 1 1 1
1 2 1
Para una matriz simétrica: a (jk1) a kj(1) . Si se efectúa la reducción de Gauss sin
intercambio de filas y/o columnas se tiene también que: a (jki ) a kj(i ) para i j , k n .
En otras palabras, la sub – matriz que debe aún reducirse en un paso dado es también
simétrica. Esto puede probarse por inducción, teniendo en cuenta las condiciones
iniciales de simetría y además que:
a ki(i )
a kj(i 1) a kj(i ) l ki aij(i ) a kj(i ) aij(i ) (2.13a)
aii(i )
a (jii )
a (jki 1) a (jki ) l ji aik(i ) a (jki ) aik(i ) (2.13b)
aii(i )
4 2 1 0 x1 0
2 6 2 1 x2 1
1
2 6 2 x3 0
0 2 4 x4 0
1
En las sucesivas etapas del proceso de eliminación, las sub matrices que quedan por
reducir siguen siendo simétricas:
4 2 1 0 x1 0
0 5 1.5 1 x2 1
0
1.5 5.75 2 x3 0
0 2 4 x4 0
1
4 2 1 0 x1 0 x1 0.0986
x 0.2203
0 5 1.5 1
x2 1
2
0 de donde
0 5.3 1.7 x3 0.3 x3 0.0464
0 3.2547 x4 0.0319
0 0 x4
0.1038
1 2 4 7 11
3 5 8 12
6 9 13
10 14
15
1
2
n (n 1)
aii( k ) 0 i 1, k n
2
aij( k ) aii( k ) a (jjk ) k i, j n (2.14)
i 1 2
rii aii rpi
2
(2.15a)
p 1
1
1
1
es decir:
0
0.4472
y
0.1303
0.0575
y finalmente:
x1 0.0986
x 0.2203
2
x3 0.0464
x4 0.0319
Puede anotarse que R está relacionada con las L y U de Gauss mediante RT= LD;
R = D –1U; donde D = diag u11 u 22
u nn .
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el método de Gauss y otros
similares, ya que éstos conservan la estructura de banda de las matrices: A = LU:
1 1 0 0 0 1 0 0 0 0 1 1 0 0 0
1 2 1 0 0 1 1 0 0 0 0 1 1 0 0
0 1 2 1 0 0 1 1 0 0 0 0 1 1 0
0 0 1 2 1 0 0 1 1 0 0 0 0 1 1
0 0 0 1 2 0 0 0 1 1 0 0 0 0 1
– – –1
Nótese que A 1 = U 1L no es una matriz banda:
5 4 3 2 1
4 4 3 2 1
A 1
3 3 3 2 1
2 2 2 2 1
1 1 1 1 1
Particularmente simples de tratar son los sistemas con matrices banda simétricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
1 8 15
2 9 16
3 10 17
A 4 11 18
5 12 19
6 13 (20)
7 (14) (21)
Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un
número fijo de coeficientes en cada codiagonal, lo que facilita la programación. Siendo
el ancho de la semibanda, m, mucho menor que el número de ecuaciones, n, las
posiciones de memoria “perdidas” son despreciables. Este esquema de almacenamiento
(y su variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
u ij 0 excepto para i j i m
a1 b1 x1 c1
b1 a2 b2 x2 c2
x c
3 3
b2 a3 b3
(2.16)
bn 2 a n 1 bn 1 x n 1 c n 1
bn 1 a n x n c n
a1 b1 1 r1 b1
b1 a2 b2 q1 1 r2 b2
b2 a3 b3 q2 1 r3 b3
r4
bn 2 a n 1 bn 1 q n2 1 bn 1
a n 1 rn
bn 1 q n 1
Los datos de cada bloque se almacenan en disco. Éstos son leídos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solución del sistema de ecuaciones por el método de Gauss (u otro similar)
requiere mantener en memoria principal la información de por lo menos dos bloques en
forma simultánea. Así por ejemplo, durante el proceso de reducción, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequeña), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser leídos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitución inversa.
Aunque la magnitud del vector residuo r = b – A x no da una indicación directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solución.
Esto se discute más adelante.
x p
( x1p x2p )1 / p 1 p (2.18a)
x 2
( x12 x22 )1 / 2 (norma Euclidiana) (2.18b)
x
máx x i (máximo valor absoluto) (2.18c)
ax a x (2.19)
xy x y
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definición de norma de un vector:
Ax
A p
máx
p
x 0 (2.20a)
x p
máx , máx
1/ 2 T
La norma A 2
es donde es el máximo valor característico de A A (ver
capítulo 3). Por otro lado:
n
A
máx
i
j 1
a ij (2.20b)
AB A B (2.21)
de donde:
x A 1A (x x)
tomando normas:
x A 1 A x x
y dividiendo entre x x :
x A
A (2.23)
x x A
donde K A A A 1 (2.24)
1 / 2
es el número de condicionamiento de la matriz A. Dado que A 1 mín , donde
2
min T
es el menor valor característico de la matriz A A, puede escribirse:
K 2 A máx / mín 1/ 2
(2.25)
de donde:
x A 1b
x A 1 b
b
y dado que b = A x, lo que implica x
A
se obtiene:
x b
K A (2.27)
x b
x 2 K ( A) x (2.28)
La expresión (2.28) implica que si A y b están dadas con t cifras significativas, el número
de cifras que puede esperarse sean correctas en la solución, s, puede estimarse
mediante:
s t log 10 K ( A ) (2.29)
0.659 0.563
además: A 1 10 6
0.913 0.780
de donde A 1 = 0.913 x 106 + 0.780 x 106 = 1.693 x 106
K A A
A 1 = 1.572 x 1.693 x 106 = 2.7 x 106
1.441969 1.0040807
A T A
1.040807 0.751250
Note que en el ejemplo anterior la matriz A no era simétrica, por lo que fue necesario
evaluar los valores característicos de A T A . Si A fuera simétrica, los valores
característicos de A T A serían exactamente los cuadrados de los valores característicos
de A.
l ki a ki(i ) / aii(i )
Sin embargo, como resultado de los errores de redondeo, los valores calculados (aquí
indicados en barras) satisfacen:
(i ) (i )
l ki (a ki / a ii )(1 1 )
( i 1) (i ) (i )
a kj (a kj l ki a ij (1 2 ))(1 3 ) (2.31)
(i 1) (i ) (i )
bk (b k l ki b i (1 4 ))(1 5 )
(i 1) (i ) (i )
bk b k l ki b i ek(i )
(i ) ( i 1)
ekj(i ) 3 .máx a kj , a kj
(2.33)
(i ) (i 1)
c k(i ) 3 .máx b k , b k
(1)
precedentes para escribir a kj en función de los l ki , a ij . (es decir los elementos de las
matrices L y U). Se obtiene así:
r s
e kji l
(i )
a kj ki a ij (2.34a)
i 1 i 1
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que b k b k , se
(1)
obtiene:
k 1 k
c ki
(i )
bk l ki b i (2.34b)
i 1 i 1
A A L U
b b L y
Los elementos de A son sumatorias de los e kji ; los elementos de b son sumatorias
i
de los c k . Las expresiones (2.33) dan una medida de estas perturbaciones. Obsérvese
que las expresiones (2.23) y (2.27) son aplicables también en este caso, y un valor de
K (A) alto indica que los errores de redondeo tendrán efectos importantes en la
solución.
Por otro lado, las expresiones (2.33) y (2.34) indican que es conveniente limitar el
crecimiento de los a kj(i ) , bk(i ) . Este es el propósito al realizar intercambios de filas y/o
columnas.
máx a ij( k )
gn
i , j ,k
(2.35)
máx a ij(1)
i, j
teniendo que:
En tal caso, es recomendable equilibrar las ecuaciones. Para las incógnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D1 tales que:
máx a ij 1 i=1,2,3,...n
1 j n
x x (0) x (0)
y entonces:
A x (0) r ( 0)
donde: r ( 0) b Ax ( 0)
L z r
U x z
también en O n 2 operaciones. Dado que L y U no son los factores exactos de A , y
además se introducen nuevos errores de redondeo, es necesario iterar:
r (i ) b A x (i )
L z (i ) r (i ) (2.36)
U x (i ) z (i )
x( k 1) x( k ) x( k )
Pero nada se ganaría si las operaciones se hicieran siempre con el mismo número de
cifras significativas empleadas en los cómputos originales. Si los aij bi xi están dados
con t dígitos, el cómputo de los residuos:
n
ri( k ) bi a x
j 1
ij
(k )
j
debe hacerse con 2 t dígitos (para minimizar errores de cancelación). Sin embargo, el
almacenamiento de los resultados puede hacerse en precisión simple, es decir, con t
dígitos.
1 x
(1)
A (2.37)
n x ( 2)
donde n es el orden del sistema y es el máximo error relativo de redondeo (al operar
en precisión simple). Si x(1) no es mucho menor que x (1) , o lo que es lo mismo,
si A n no es mucho menor que 1, el proceso iterativo no es adecuado. En tal caso,
la única alternativa sería operar con mayor precisión en toda la solución.
5 7 3 x1 0.
7 11 2 x2 1
3 6 x3 0.
2
Y entonces:
(redondeado a 3 cifras significativas). Este resultado es mejor que x (1) (en este caso el
resultado es exacto, aunque debería decirse que por accidente).
Puede verificarse fácilmente que la matriz A del ejemplo anterior es bien condicionada.
para el cual se obtuvo anteriormente A de orden 2 x 106. Supóngase que se opera
en base 10 con 6 cifras significativas:
r (1) 0.139 10 6 0.692 10 6 T
1
xi( k 1)
aii
bi a ij x (jk )
(2.38)
j i
La aproximación es arbitraria; con frecuencia x ( 0) 0 . Si los xi( k 1) se determinan en el
orden habitual, al determinar xr( k 1) ya se han previamente obtenido las nuevas
aproximaciones x1( k 1) , x2( k 1) xr( k11) . Sin embargo, en el método de Jacobi no se hace
uso de estas nuevas aproximaciones hasta la iteración siguiente, difiriendo en esto del
método de Gauss - Seidel:
1
i 1 n
xi( k 1)
aii
bi aij x (jk 1) a ij x (jk )
(2.39)
j 1 j i 1
Nótese que sólo se requiere almacenar las últimas aproximaciones a los xi .
5 1 1 0 x1 1
1 5 0 1 x2 2.75
1
0 5 1 x3 1
0 1 1 5 x4 2.75
La solución exacta es
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
3 0.242 0.508 -0.242 -0.508
4 0.2532 0.4968 -0.2532 -0.4968
5 0.24872 0.50128 -0.24872 -0.50128
0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
1
i 1 n
ri (k )
bi
aii aij x (jk 1) aij x (jk )
(2.40b)
j 1 j i
0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
Estos métodos no son necesariamente más precisos que los procesos de eliminación. El
ejemplo al inicio de la sección 2.6 muestra que si el sistema es mal condicionado puede
aceptarse como correcta una solución totalmente equivocada, pero con la que se tiene
un residuo “pequeño”.
2.4.2 Convergencia
x ( k 1) G x ( k ) f (2.41)
2 1 2 0 0 0 1 0 0 12
1 2 0 2 12 0 0 1 0 0
G I Ti
1
1 I Ts (2.45)
Por otro lado, dado, que la solución exacta, x , debe cumplir la ecuación (2.41), se tiene
que:
x G xf (2.46)
x ( k 1)
x G x(k ) x (2.47a)
de donde:
x ( k 1)
x G x( k ) x G 2 x( k 1) x G k 1 x( 0) x (2.47b)
x ( 0)
x 1 1 2 2 3 3 n n
x (k )
x G k x(0) x 1 k1 1 2 k2 2 3 k3 3 n kn n (2.47c)
Lim x(k ) x 0 (2.48a)
k
g ii 0
i j j i
donde:
n aij i 1 aij
ri
j i 1
aii
si
j 1
aii
(2.50b)
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el método de Jacobi (aunque en general el método de Gauss -Seidel converge más
rápidamente).
Considérese la función:
f (x) 12 xT A x xT b (2.51)
f ( x) f ( x ) 1
2
xT A x xT b 1
2
xT A x xT b
12 x x A x x
T
d
f (x ( 0) z )
d 0
f (x ( 0) z ) 12 (x ( 0) z )T A (x ( 0) z ) (x ( 0) z )T b
(2.53a)
12 2 z T A z z T r ( 0) f (x ( 0) )
de donde:
d
f (x ( 0) z ) z T r ( 0)
d 0
x (1) x ( 0) 0 r ( 0)
r (k ) b A x(k ) (2.54a)
T
r (k ) r (k )
k T
(2.54b)
r (k ) A r (k )
x ( k 1) x ( k ) k r ( k ) (2.54c)
x x (0) x
x puede expresarse como combinación lineal de
n vectores linealmente
independientes. En particular, si se consideran vectores 0 , s1 , s 2 s n 2 , s n 1 , que
s
satisfacen las relaciones de ortogonalidad:
s Ti A s j ci ij
puede escribirse:
x (1) x ( 0) 0 s 0
x ( 2 ) x (1) 1 s1
x ( k 1) x ( k ) k s k
x x ( n ) x ( n 1) n 1 s n 1
alternativamente:
n 1
x x ( 0)
k 0
k sk (2.55)
Suponiendo que los vectores s k son conocidos, los coeficientes k pueden obtenerse
utilizando las relaciones de ortogonalidad ya mencionadas. Dado que:
n 1
r (i ) b A x (i ) A x x (i ) k A sk (2.56)
k i
T
premultiplicando por s j se obtiene:
j s Tj A s j si j i
de donde puede escribirse:
s Tj r ( j )
j (2.58a)
s Tj A s j
La expresión alternativa j (s j r
T ( 0)
) (s Tj A s j ) no es conveniente, por la acumulación
de errores de redondeo.
s k 1 r ( k 1) k s k (2.59)
donde:
s Tk A r ( k 1)
k (2.60)
s Tk A s k
s Tk A r (´1)
s Tk 1 A s k s Tk A r ( k 1) k s k s Tk A r ( k 1) s T
k A sk 0
s Tk A s k
As j
1
j
r ( j 1) r ( j )
y por lo tanto, para j k :
1 ( k ) T ( j 1) 1 ( k ) T ( j )
s Tk 1 A s j r r r r 0
j j
r ( k 1) r ( k ) k q k
T
r ( k 1) q k
T
r ( k 1) r ( k 1)
k
s Tk q k T
r (k ) r (k )
s k 1 r ( k 1) k s k
10 5 0 1 24
5 8 4 0 9
A b
0 4 10 1
18
1 0 1 8 30
k q As x x s r r q r s r s
1 315.00 0.104 2.498 -8.786 12.097 0.078 -6.919
120.00 0.937 -3.490 -2.790
114.00 1.874 6.134 7.535
246.00 3.123 4.395 6.729
2 -76.413 0.089 1.880 -1.959 4.897 0.164 -3.093
-87.055 0.687 4.288 3.831
79.778 2.547 -0.994 0.241
39.380 3.724 0.877 1.980
3 -9.792 0.226 1.180 0.258 3.268 0.445 -1.119
14.221 1.555 1.069 2.775
-14.893 2.601 2.378 2.486
12.503 4.172 -1.954 -1.072
k q As x x s r r q r s r s
4 1.611 0.160 1.000 0.000 0.000
r ( k 1) r ( k ) k A q k
T
r ( k 1) r ( k 1)
k T
r (k ) r (k )
s k 1 r ( k 1) k s k
Precondicionamiento
qk A sk
p Tk rk
k
sTk q k
x k 1 x k k s k
rk 1 rk k q k
p Tk 1rk 1
k
p Tk rk
s k 1 p k 1 k s k
M 1 A I R siendo R pequeño
Nótese que estas condiciones son en alguna medida contradictorias. Por ejemplo, si
M A se cumple la primera condición (y en tal caso (M 1A) 1 ) pero no la segunda.
En cambio el precondicionador diagonal M diag (A) puede implementarse muy
fácilmente, pero en general solo produce mejoras muy modestas.
10 5 0 1 0 0 0 0 10 0 0 0
0 5 01
5 8 4 0 5 0 0 0 0 8 0 0 0 0 4 0
0 4 10 1 0 4 0 0 0 0 10 0 0 0 0 1
1 0 1 8 1 0 1 0 0 0 0 8 0 0 0 0
(LD 1 I) z rk 1
(D U) p k 1 z
k q As x x s r r q r p M 1r s ps
k q As x x s r r q r p M 1r s ps
A LU R y R pequeño
que:
f r T r b T b 2 xT A T b x T A T A x (2.63)
y por lo tanto:
f
2 AT b 2 AT A x 0
x
el método de mínimos cuadrados puede formularse como la solución del sistema de
ecuaciones normales:
A A x A b
T T
(2.64)
3 1 1 x1 1
1 3 1 x2 1
1 1 3 x 3 6
de donde:
x 1.25 3
T
1.75
Un método alternativo (y numéricamente mejor condicionado) se basa en al
descomposición de la matriz de coeficientes, A , en el producto de una matriz ortogonal,
Q , y una matriz triangular superior, R (en el capítulo relativo a valores y vectores
característicos se describen procedimientos que pueden ser empleados para esto).
Al tenerse A Q R (2.65)
las ecuaciones normales A T A x A T b pueden rescribirse:
A T b Ax 0
RT QT b Q R x 0
R T QT b R x 0
La matriz R no es singular y por tanto:
R x QT b (2.66)
de donde:
0 1.4142 x3 4.2426
0
y finalmente: x 1.25 3
T
1.75