Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ciones Lineales
integrales.
Por lo general, los métodos directos requieren modificar la matriz original del siste-
ma y, muchas veces, destruyen el carácter disperso de la misma. Para evitar esto,
estudiaremos métodos iterativos que no modifican la matriz del sistema, por lo que
resultarán más convenientes desde el punto de vista del costo computacional de
almacenamiento.
20Ω 5Ω 35Ω
1000V
´
`
œ ö œ
i1
1000V
´
`
i2
2000V
´
`
i3
2000V
´
`
30Ω 40Ω
Encuentre la corriente que fluye en cada rama de este circuito. El número de co-
rrientes de bucle requerido es 3. En esta ocasión, elegiremos las corrientes de bucle
mostradas a la derecha. Usando la Ley de Voltaje de Kirchoff para cada bucle. El
resultado es el siguiente sistema de ecuaciones:
Solución de Sistemas de Ecuaciones Lineales 75
$
& 10I1 ` 20pI1 ` I2 q ` 30I1 “ 1000 ´ 1000
15I2 ` 20pI2 ` I1 q ` 40I2 ` 5pI2 ` I3 q “ 2000 ´ 1000 , (3.1)
%
25I3 ` 35I3 ` 5pI3 ` I2 q “ 2000 ´ 2000
Esta forma para el sistema de ecuaciones podría haber sido obtenido de inmediato
mediante el método de inspección. Resolver el sistema de ecuaciones utilizando la
eliminación gaussiana o algún otro método da las siguientes corrientes, todas medidas
en amperios: I1 “ ´4,57, I2 “ 13,7 y I3 “ ´1,05.
Las nociones de normas vectoriales y matriciales son muy usadas en Análisis para
determinar convergencia y estimar tasas de convergencia de métodos iterativos para
resolver problemas lineales y no lineales. A continuación definimos los conceptos de
norma vectorial sobre un espacio vectorial de dimensión finita.
} ¨ } : V ÝÑ R
v ÞÝÑ }v}
1. }v} ě 0 @v P V (positividad),
˜ ¸1
ÿ
n 2
2
Norma euclideana: }x}2 :“ |xi | .
i“1
ÿ
n
Norma uno: }x}1 :“ |xi |.
i“1
distpv, wq :“ }v ´ w}, v, w P V.
Teorema 3.1.1. Todas las normas sobre un espacio de dimensión finita son equi-
valentes.
Solución de Sistemas de Ecuaciones Lineales 77
}v n ´ v}˚ Ñ 0 ðñ }v n ´ v}‚ Ñ 0.
Es muy útil poder medir la magnitud de una matriz A o la distancia entre dos
matrices. Sin embargo no es suficiente con definir la norma de una matriz de orden
mn A como un vector x de tamaño mn cuyas componentes son las entradas de A.
Una norma matricial es cualquier función real definida en Rmˆn (espacio de matrices
m ˆ n) notada por
} ¨ } : Rmˆn ÝÑ R
A ÞÝÑ }A}
y que cumple las siguientes 4 propiedades
}Ax}
}A} :“ máx , A P Rnˆn . (3.3)
n
xPR : x‰0 }x}
Es fácil verificar que esto define efectivamente una norma sobre Rnˆn .
Esta norma se dice que es una norma matricial inducida por la norma vectorial y se
denota con el mismo símbolo que la norma vectorial.
78 Solución de Sistemas de Ecuaciones Lineales
Proposición 3.1.1. Toda norma matricial inducida por una norma vectorial satis-
face las siguientes propiedades:
Hay formas más sencillas de calcular algunas de las normas matriciales más usuales.
˜ ¸
ÿ
}A}8 “ máx |aij | (máxima suma de filas).
1ďiďn
1ďjďn
˜ ¸
ÿ
}A}1 “ máx |aij | (máxima suma de columnas).
1ďjďn
1ďiďn
b ` ˘
}A}2 “ ρ At A (norma espectral).
Vectorial
Matricial
Definición 3.1.4 (Valor Propio). Dada una matriz cuadrada A, diremos que un
número λ P C es un valor propio (o autovalor) de A si existe un vector no nulo,
v ‰ 0, tal que Av “ λv. A v se le llama vector propio (o autovector) asociado al
valor propio λ. λ es un valor propio si y sólo si es raíz de la ecuación característica
detpA ´ λIq “ 0.
Teorema 3.1.3. Sea A P Rnˆn y sea ǫ ą 0. Entonces existe una norma matricial
inducida tal que
}A} ď σpAq ` ǫ.
2. detpAq ‰ 0,
de ecuaciones, pues hacerlo así resulta mucho más costoso computacionalmente. Por
el contrario, una manera natural de calcular la inversa de una matriz A P R nˆn
consiste en resolver n sistemas de ecuaciones lineales. Si llamamos c 1 , . . . , cn a las
columnas de A´1 :
» ˇ ˇ fi
ˇ ˇ
ˇ ˇ
A “ – c1 ˇˇ ¨ ¨ ¨ ˇˇ cn fl ,
´1
c1 , . . . , cn P Rn ,
ˇ ˇ
entonces
» ˇ ˇ fi » ˇ ˇ fi » ˇ ˇ fi
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
– Ac1 ˇ ¨ ¨ ¨ ˇ Acn fl “ A – c1 ˇ ¨ ¨ ¨ ˇ cn fl “ AA “ I “ – e1 ˇ ¨ ¨ ¨ ˇ en fl ,
´1
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
Aci “ ei , i “ 1, . . . , n.
Los sistemas que aparecen en muchas aplicaciones son de gran tamaño. Por ejem-
plo, un sistema de 1000 ˆ 1000 hoy en dia se considera de tamaño moderado y en
algunas aplicaciones deben resolverse sistemas de ecuaciones con cientos de miles
de incógnitas. Hay métodos que en teoría permiten resolver cualquier sistema de
ecuaciones lineales, pero que en la práctica requieren tiempos de cálculo prohibiti-
vos. Un ejemplo de esto es la Regla de Cramer. Este procedimiento permite calcular
explícitamente la solución de un sistema Ax “ b mediante:
detpAi q
xi “ , i “ 1, . . . , n,
detpAq
se calculan mediante la fórmula recursiva usual de desarrollo por fila (o por colum-
na), el costo operacional de la Regla de Cramer es de aproximadamente pn`1q! flop.
El Método de Eliminación Gaussiana por el contrario es un método que no tiene
esta dificultad. Este procedimiento se basa en el método algebraico de transforma-
ciones elementales y su costo operacional es de aproximadamente 32 n3 flop. En un
computador de 1 Gflop (109 flop) por segundo (realiza 109 operaciones por segundo).
ℓ11 x1 “ b1
ℓ21 x1 ` ℓ22 x2 “ b2
.. ..
. .
ℓn1 x1 ` ¨ ¨ ¨ ` ℓnn xn “ bn
De donde se tiene
x1 “ b1 {ℓ11
x2 “ pb2 ´ ℓ21 x1 q {ℓ22
..
.
xn “ pbn ´ ℓn1 x1 ´ ¨ ¨ ¨ ´ ℓnn´1 xn´1 q {ℓnn
U x “ b̃,
p2q
A continuación, si a22 ‰ 0, podemos análogamente eliminar la incógnita x2 de la
tercera ecuación en adelante. Siguiendo con este proceso k-veces (k ď n), se obtiene
el sistema
Apkq x “ bpkq , 1 ď k ď n,
donde la matriz Apkq toma la siguiente forma:
» p1q p1q p1q
fi
a11 a12 ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ a1n
— p2q p2q ffi
— 0 a22 ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ ¨ a2n ffi
— . .. .. .. ffi
— .. . . . ffi
pkq — ffi
A “— . pkq ffi
— .. 0 akk
pkq
¨ ¨ ¨ akn ffi
— ffi
— .. .. .. .. ffi
– . . . . fl
pkq pkq
0 ¨ ¨ ¨ 0 ank ¨ ¨ ¨ ann
Solución de Sistemas de Ecuaciones Lineales 85
piq
Para realizar este proceso hemos supuesto que aii ‰ 0, i “ 1, . . . , k ´ 1. Notemos
que para k “ n obtenemos el sistema triangular superior
» p1q p1q p1q
fi » fi » p1q fi
a11 a12 ¨ ¨ ¨ a1n x1 b1
— p2q p2q ffi — ffi — p2q ffi
— 0 a22 ¨ ¨ ¨ a2n ffi — x2 ffi — b2 ffi
— ffi— ffi — ffi
— .. .. .. .. ffi — .. ffi “ — .. ffi
– . . . . fl– . fl – . fl
pnq xn pnq
0 ¨ ¨ ¨ 0 ann bn
pkq
Los valores akk son llamados pivotes y deben ser valores no nulos para k “
pnq
1, . . . , n ´ 1. Si la matriz original A es no singular, entonces también ann ‰ 0 y el
sistema triangular superior resultante puede resolverse por el algoritmo ya visto:
1. Paso 1. Eliminar todos los términos debajo del primer pivote, en este caso,
debajo de 4 :
3
Restamos ´ veces la primera ecuación a la segunda y obtenemos el
4
sistema equivalente:
4 x ´8y `5z “ 2
7 3
2y ´ z “ pE2 ´ 3E1 q (3.6)
4 2
4x ´7y `4z “ 3
Ahora restamos -1 veces la primera ecuación a la tercera para producir
el sistema equivalente:
4x ´8y `5z “ 2
7 3
2y ´ z “ (3.7)
4 2
y ´z “ 1 pE3 ´ E1 q
Solución de Sistemas de Ecuaciones Lineales 87
Reordenando tenemos
4x ´8y `5z “ 2
1 y ´z “ 1 (3.8)
7 3
2y ´ z “
4 2
Factorización LU
» fi » fi » fi
2 3 2 2 3 2 2 3 2
— ffi
– 4 9 5 fl R2 ´ 2R1 Ñ –0 3 1fl Ñ –0 3 1fl
6 21 12 R3 ´ 3R1 0 12 6 R3 ´ 4R2 0 0 2
La matriz obtenida la llamaremos U . Notemos que la operación R2 ´ 2R1 es equi-
valente a multiplicar a la izquierda la matriz original por una matriz elemental:
» fi» fi » fi
1 0 0 2 3 2 2 3 2
–´2 1 0fl –4 9 5 fl “ –0 3 1 fl
0 0 1 6 21 12 6 21 12
En general, las operaciones que hemos realizado sobre la matriz original se pueden
expresar como el producto a izquierda de matrices elementales Gi cuyo producto es
» fi» fi» fi » fi
1 0 0 1 0 0 1 0 0 1 0 0
G3 G2 G1 “ –0 1 0fl – 0 1 0fl –´2 1 0fl “ –´2 1 0fl
0 ´4 1 ´3 0 1 0 ´0 1 5 ´4 1
Entonces, G3 G2 G1 A “ U
» fi
1 0 0
L :“ G´1 ´1 ´1
1 G2 G3 “ –2 1 0fl
3 4 1
Solución de Sistemas de Ecuaciones Lineales 89
Si la matriz A es tal que la etapa de eliminación del M.E.G. se puede llevar a cabo
piq
(es decir si todos los pivotes aii ‰ 0, i “ 1, . . . , n ´ 1), entonces A “ LU , donde
U es la matriz triangular superior que resulta de la eliminación y L es la matriz
triangular inferior de los multiplicadores mij :
» fi
1 0 ¨¨¨ 0
— .. .. ffi
— m21 1 . .ffi
L“— — .. .. ..
ffi.
ffi
– . . . 0fl
mn1 ¨ ¨ ¨ mnn´1 1
90 Solución de Sistemas de Ecuaciones Lineales
Si A “ LU , entonces "
Ly “ b,
Ax “ b ðñ LpU xq “ b ðñ
U x “ y.
1. resolver Ly “ b y, luego,
2. resolver U x “ y.
Ly “ b and U x “ y.
entonces obtenemos:
y1 “ 12,
y2 “ 24 ´ 2y1 “ 0,
y3 “ 12 ´ 3y1 ´ 4y2 “ ´24.
» fi» fi » fi
2 3 3 x1 12
–0 3 1fl –x2 fl “ – 0 fl
0 0 2 x3 ´24
y obtenemos:
luego,
y1 “ 6
y2 “ 24 ´ 2y1 “ 12
y3 “ 70 ´ 3y1 ´ 4y2 “ 4
Luego resolvemos
» fi» fi » fi
1 ´3 2 x1 1
–0 2 3 fl –x2 fl “ – 4 fl .
0 0 ´12 x3 ´12
Así, la parte más costosa del proceso (la factorización: 23 n3 ) se hace una sola vez y sólo
se repite la parte menos costosa (la solución de los sistemas triangulares: 2n2 ). Hay
algoritmos ( Crout, Doolitle) que permiten obtener directamente la factorización
LU de una matriz, pero el costo es el mismo que el de hacerlo por eliminación
gaussiana.
6 y1 “ b1
7 for i “ 2, . . . , n do
ř
8 yi “ bi ´ i´1 j“1 mij yj
pnq
9 xn “ yn {ann
10 for i “ n ´ 1, 1 do
´ . . . ,ř ¯
1 n piq
11 xi “ piq yi ´ j“i`1 aij xj
aii
de no tener que utilizar una matriz más para guardar L, pueden almacenarse cada
multiplicador mij en lugar de la entrada aij que se hace cero en ese paso. Ésta no es
la forma en que procede Matlab, pues este software no pretende optimizar el costo
de almacenamiento. Sin embargo, hay muchos softwares que utilizan este truco a fin
de evitar tener que usar memoria adicional para almacenar los multiplicadores.
Para poder resolver el sistema, debe intercambiarse la primera ecuación con cual-
quiera de las otras de manera de evitar el pivote cero. Por ejemplo:
» fi» fi » fi » fi» fi » fi
0 1 1 x1 2 1 2 3 x1 4
–1 2 3fl –x2 fl “ –4fl ÝÑ –0 1 1fl –x2 fl “ –2fl
2 0 1 x3 0 2 0 1 x3 0
Por otra parte, puede demostrarse que la estabilidad del método de eliminación
gaussiana en cuanto a propagación de errores de redondeo se deteriora si los mul-
tiplicadores mij son números muy grandes en módulo. Una forma de evitar ambos
inconvenientes, pivotes nulos y multiplicadores grandes en módulo, es realizar en
cada paso el intercambio de ecuaciones que produzca el pivote mayor posible en
módulo. Esta estrategia se denomina pivoteo parcial.
Matrices de permutación
» fi» fi » fi
0 1 0 1 2 3 4 5 6
–0 0 1fl –4 5 6fl “ –7 8 9fl
1 0 0 7 8 9 1 2 3
"
Ly “ P b,
Ax “ b ðñ P Ax “ P b ðñ LpU xq “ P b ðñ
U x “ y.
L = 0.1429 1.0000 0
0.5714 0.5000 1.0000
1.0000 0 0
U = 7.0000 8.0000 0
0 0.8571 3.0000
0 0 4.5000
>> L*U
ans = 1 2 3
4 5 6
7 8 0
Usemos el comando:[L,U,P]=lu(A) para L una matriz triangular inferior, U es una
matriz triangular superior, P es una matriz de permutación y L*U = P*A.
L = 1.0000 0 0
0.1429 1.0000 0
0.5714 0.5000 1.0000
U = 7.0000 8.0000 0
0 0.8571 3.0000
0 0 4.5000
P = 0 0 1
1 0 0
0 1 0
Veamos como usar el comando [L,U,P]=lu(A), donde L es una matriz triangular
inferior, U es una matriz triangular superior, P es una matriz de permutación y L*U
= P*A.
Solución de Sistemas de Ecuaciones Lineales 99
>> L*U
ans = 7 8 0
1 2 3
4 5 6
>> P*A
ans = 7 8 0
1 2 3
4 5 6
Matrices banda
En análisis numérico, una matriz dispersa es una matriz en la que la mayoría de los
elementos son nulos. Por el contrario, si la mayoría de los elementos son no nulos,
entonces la matriz se considera densa. Un caso particular de las matrices dispersas
son las matrices banda. Una matriz se le llama matriz banda cuando es una matriz
donde los valores no nulos son confinados en un entorno de la diagonal principal,
formando una banda de valores no nulos que completan la diagonal principal de la
matriz y más diagonales en cada uno de sus costados.
Escrito formalmente, se dice que A “ paij q P Rnˆn es una matriz banda si aij “ 0
cuando |i ´ j| ě ℓ, con ℓ ! n. Al número ℓ se lo llama el ancho de banda de la
matriz. » fi
ˆ ¨¨¨ ˆ 0 ¨¨¨ 0
— .. . . .. .. .ffi
—. . . . .. ffi
— ffi
— . ..
—ˆ .. . 0ffi ffi
— ffi
—0 ... ..
. ˆffi
— ffi Ò
— .. . . . . .. .. ffi
–. . . . .fl ℓ
0 ¨¨¨ 0 ˆ ¨¨¨ ˆ Ó
ÐÝ ℓ ÝÑ
La matrices banda son un caso especial de matrices dispersas y, como tales, deben
100 Solución de Sistemas de Ecuaciones Lineales
Matrices tridiagonales
|b1 | ą |c1 |,
|bi | ě |ai | ` |ci |, i “ 1, . . . , n,
|bn | ą |an |,
» fi» fi
—1 0 ¨¨¨ ¨ ¨ ¨ 0ffi—β1 γ1 0 ¨ ¨ ¨ 0 ffi
—
— .. .. .. ffiffiffi——— .. .. .. .. ffiffiffi
— α2
— . . . ffi— 0 . . . . ffi
—
— .. .. . ffi—
.
. . . ffi— . . . . . . .
ffi —
ffi
ffi
A “ —0
— . . . . ffi— . . . . 0 ffiffi
— ffi— ffi
— . .. .. .. ffi— . .. ..
— .. . 0ffiffi—— ..
ffi
— . . . . γn´1ffiffi
– fl– fl
0 ¨¨¨ 0 αn 1 0 ¨ ¨ ¨ ¨ ¨ ¨ 0 βn
L U
» fi » fi» fi
b1 c1 0 ¨¨¨ 0 1 0 ¨¨¨ ¨¨¨ 0 β1 γ1 0 ¨¨¨ 0
— .. .. ffi — .. .. ffi — .. ffi
—a2 . . ffi — . .ffi — 0 β2 γ2 . . . . ffi
— b2 c2 ffi —α2 1 ffi— ffi
— .. .. .. ffi — .. .. .. .. ffi — .. . . . . .. ffi
—0 . . . 0 ffi “— . . . .ffi — .
ffi — . . . 0 ffi
— ffi —0 ffi
— .. .. .. .. ffi — . .. .. .. ffi— . .. ffi
–. . . . cn´1 fl – .. . . . 0fl – .. . βn´1 γn´1 fl
0 ¨ ¨ ¨ 0 an bn 0 ¨ ¨ ¨ 0 αn 1 0 ¨¨¨ ¨¨¨ 0 βn
102 Solución de Sistemas de Ecuaciones Lineales
1β1 “ b1 ùñ β1 “ b1
1γ1 “ c1 ùñ γ 1 “ c1
α2 β1 “ a2 ùñ α2 “ a2 {β1
α2 γ1 ` 1β2 “ b2 ùñ β2 “ b2 ´ α2 γ1
¨¨¨ ¨¨¨
1γn´1 “ cn´1 ùñ γn´1 “ cn´1
αn βn´1 “ an ùñ αn “ an {βn´1
αn γn´1 ` 1βn “ bn ùñ βn “ bn ´ αn γn´1
Costo operacional:
ÿ
n
3 “ 3pn ´ 1q flop
i“2
» fi» fi » fi
1 0 ¨¨¨ ¨¨¨ 0 y1 d1
— .. .. ffi — ffi — ffi
— α2 1 . .ffi — ffi — ffi
— ffi — y2 ffi — d2 ffi
— .. .. . ffi — .
.. .ffi — . ffi “ — . ffi
ffi — .
. . . . ffi Ñ
ffi— . ffi — . ffi
—0
—
— .. .. .. .. ffi— ffi — ffi
–. . . . 0fl –yn´1fl –dn´1 fl
0 ¨¨¨ 0 αn 1 yn dn
Costo operacional:
ÿ
n
2 “ 2pn ´ 1q flop
i“2
» fi» fi » fi
β1 γ1 0 ¨¨¨ 0 x1 y1
— .. ffi — ffi — ffi
— 0 ... ..
.
..
. . ffi — ffi — ffi
— ffi — x2 ffi — y2 ffi
— .. . . .. .. ffi — . ffi — . ffi
—. . . . 0 ffi — .. ffi “ — .. ffi Ñ
— ffi— ffi — ffi
—. . .. ffi— ffi — ffi
–. . βn´1 γn´1 fl –xn´1 fl –yn´1 fl
0 ¨¨¨ ¨¨¨ 0 βn xn yn
Costo operacional:
ÿ
n´1
1` 3 “ 1 ` 3pn ´ 1q flop
i“1
104 Solución de Sistemas de Ecuaciones Lineales
Compárese este costo con el del método de eliminación gaussiana aplicado a ciegas
sin sacar provecho de la estructura tridiagonal de la matriz: 32 n3 .
Por ejemplo, un sistema 1000 ˆ 1000 cuesta aproximadamente 666 666 666 flop por
M.E.G. y aproximadamente 8 000 flop mediante este algoritmo.
xt Ax ą 0 @x P Rn : x ‰ 0.
Estas matrices también aparecen muy habitualmente, por ejemplo, al ajustar pará-
metros de un modelo por cuadrados mínimos o al resolver problemas de valores de
contorno para ecuaciones diferenciales.
Esta última propiedad nos dice que si la matriz es simétrica y definida positiva,
siempre puede obtenerse una factorización en matrices triangulares sin necesidad
de pivoteo. Además, no hace falta calcular la matriz triangular superior, pues es la
transpuesta de la triangular inferior.Veremos que esto reduce el costo operacional a
la mitad.
Solución de Sistemas de Ecuaciones Lineales 105
Método de Cholesky
Como ya hemos visto, cualquier matriz cuadrada A con pivotes no nulos puede ser
escrita como el producto de una matriz triangular inferior L y una matriz triangular
superior U . Sin embargo, si A es simétrica y definida positiva, se pueden escoger
los factores tales que U es la transpuesta de L, y esto se llama la descomposición o
factorización de Cholesky. Al igual que la descomposición LU , la descomposición de
Cholesky es usada para resolver sistemas de ecuaciones lineales. Cuando es aplicable,
la descomposición de Cholesky es dos veces más eficiente que la descomposición LU .
` n raíces cuadradas.
106 Solución de Sistemas de Ecuaciones Lineales
Número de condición
Teorema 3.2.3. Sea A una matriz y sea } ¨ } una norma vectorial. Entonces el
número de condicioón satisface
máx }Ax}
}x}“1
condpAq “ (3.10)
mı́n }Ax}
}x}“1
}δx} ` › ›˘ }δb}
ď }A} ›A´1 › .
}x} }b}
Solución de Sistemas de Ecuaciones Lineales 107
Notemos que un error de menos del 2 % en los datos produjo un error del 40 % en
la solución!!!
Esta vez un error del 2 % en los datos produjo un error de alrededor del 25 % en
la solución. Otra vez, los errores en los datos se amplificaron, pese a que no se ha
usado método numérico alguno!
108 Solución de Sistemas de Ecuaciones Lineales
una sucesión de vectores xp1q , xp2q , . . . , xpkq , . . . la que, bajo condiciones apropiadas,
resultará convergente a x. Si suponemos A “ N ´ P , donde N debe ser invertible,
entonces
Ax “ b ðñ Nx “ P x ` b ðñ x “ N ´1 P x ` N ´1 b.
Métodos Basicos
Considere el sistema
ˆ ˙
b1 ´ pa12 xk2 ` a13 xk3 ` ¨ ¨ ¨ ` a1n xkn q
x1k`1 “ ω ` p1 ´ ωqxk1
a11
ˆ ˙
b2 ´ pa21 x1k`1 ` a23 xk3 ` ¨ ¨ ¨ ` a2n xkn q
x2k`1 “ ω ` p1 ´ ωqxk2 ,
a22
.. ..
. . ˜ ¸
bi ´ pai1 x1k`1 ` ¨ ¨ ¨ ` aii´1 xi´1
k`1
` aii`1 xki`1 ` ¨ ¨ ¨ ` ain xkn q
xik`1 “ ω ` p1 ´ ωqxki ,
aii
.. ..
. .
ˆ ˙
bn ´ pan1 x1k`1 ` an2 x2k`1 ` ¨ ¨ ¨ ` ann´1 xn´1
k`1
q
xnk`1 “ ω ` p1 ´ ωqxkn ,
ann
(3.13)
Consideremos un ejemplo numérico donde veamos en acción los tres métodos intro-
ducidos:
Ejemplo 3.3.1 (Jacobi iteration). Sea
» fi »fi
2 ´1 0 1
A “ – ´1 3 ´1 fl , b“– 8 fl
0 ´1 2 ´5
initial vector.
Solución. Reescribiendo las ecuaciones, el método de Jacobi nos da:
pkq 1 pk´1q 1
x1 “ x `
2 2 2
pkq 1 pk´1q 1 pk´1q 8
x2 “ x ` x3 `
3 1 3 3
pkq 1 pk´1q 5
x3 “ x ´
2 2 2
Solución de Sistemas de Ecuaciones Lineales 113
„
pkq 1 pk´1q 1 pk´1q
x1 “ ω x2 ` ` p1 ´ ωqx1
2 2
„
pkq 1 pkq 1 pk´1q 8 pk´1q
x2 “ ω x1 ` x3 ` ` p1 ´ ωqx2
3 3 3
„
pkq 1 pkq 5 pk´1q
x3 “ ω x2 ´ ` p1 ´ ωqx3
2 2
xpkq “ M ω xpk´1q ` h,
donde
114 Solución de Sistemas de Ecuaciones Lineales
» fi » fi
´0,0100 0,5050 0 0,5050
Mω “ – 0 0,1583 0,3367 fl , h “ – 2,8617 fl
0 0,0842 0,1583 ´1,0942
En este ejemplo, la convergencia del método SOR es mas rápida que la del método
de GaussSeidel.
(
Observacion 3.4.1. Si la sucesión xpkq converge, necesariamente lo hace a la
solución x de Ax “ b.
Lema 3.4.1. Cota para el radio espectral Sea A una matriz cuadrada. Para cual-
quier norma matricial se tiene que ρpAq ď }A} .
Ejemplo 3.4.1. Determine cuando los métodos de Jacobi, Gauss-Seidel y SOR con
ω “ 1,1 del ejemplo anterior converge.
Para el método de SOR (con ω “ 1,1) los valores propios de la matriz de iteración
M ω estan determinados por
116 Solución de Sistemas de Ecuaciones Lineales
» 1 11 fi
´ 10 ´ λ 20
0
detpM ω ´ λIq :“ det – ´ 30011 61
600
´λ 11
30
fl
121 671 61
´ 6000 ´λ
ˆ ˙ ˆ 12000 ˙ 600
1 61 121 11 11
“ ´ ´λ ´λ ´
10 600 600 30 20
ˆ ˙ ˆ ˙
11 11 61 1 671 11
` ´λ ´ ´ ´λ
20 300 600 10 12000 30
1 31 31 2
“´ ` λ` λ ´ λ3 “ 0
1000 3000 3000
Notemos que tanto D como D ´ E son matrices invertibles, ya que aii “ 0 para
i “ 1, . . . , n. El método de Jacobi corresponde al esquema iterativo general con
N :“ D y P :“ E ` F y el método de Gauss-Seidel corresponde al esquema
iterativo general con N :“ D ´ E y P :“ F . La matriz de iteración es entonces
M “ pD ´ Eq´1 F .
Solución de Sistemas de Ecuaciones Lineales 117
Algoritmo de Jacobi:
Algoritmo de Gauss-Seidel:
¨ ˛¨ ˛ ¨ ˛
4 ´1 0 0 0 x1 100
˚ ´1 4 ´1 0 0 ‹˚ x2 ‹ ˚ 200 ‹
˚ ‹˚ ‹ ˚ ‹
˚ ‹˚ ‹ ˚ ‹
pSq ˚ 0 ´1 4 ´1 0 ‹˚ x3 ‹“˚ 200 ‹
˚ ‹˚ ‹ ˚ ‹
˝ 0 0 ´1 4 ´1 ‚˝ x4 ‚ ˝ 200 ‚
0 0 0 ´1 4 x5 100
Solución de Sistemas de Ecuaciones Lineales 119
¨ ˛¨ ˛
1 0 0 0 0 4 ´1 0 0 0
˚ ´1 ‹˚ 15 ‹
˚ 1 0 0 0 ‹˚ 0 ´1 0 ‹
0
˚ 4 ‹˚ 4 ‹
˚ ´4 ‹˚ 56 ‹
˚ 0 1 0 0 ‹ ˚ 0 0 ´1 0 ‹
L˚ 15 ‹˚ 15 ‹
˚ ´15 ‹˚ 209 ‹
˚ 0 0 1 0 ‹ ˚ 0 0 0 ´1 ‹
˚ ‹˚ ‹
˝ 56 ‚˝ 56 ‚
´56 780
0 0 0 1 0 0 0 0
209 209
¨ ˛
1 0 0 0 0 ¨ ˛ ¨ ˛
˚ 1 ‹ y1 100
˚ ´ 1 0 0 0 ‹
˚ 4 ‹˚ y2 ‹ ˚ 200 ‹
˚ ´4 ‹˚ ‹ ˚ ‹
˚ 0 1 0 0 ‹ ˚ ‹ ˚ ‹
˚ 15 ‹˚ y3 ‹“˚ 200 ‹
˚ ´15 ‹˚ ‹ ˚ ‹
˚ 0 0 1 0 ‹ ˝ y4 ‚ ˝ 200 ‚
˚ ‹
˝ 56 ‚ y5 100
56
0 0 0 1
209
120 Solución de Sistemas de Ecuaciones Lineales
¨ ˛ ¨ ˛
y1 100
˚ y2 ‹ ˚ 225 ‹
˚ ‹ ˚ ‹
˚ ‹ ˚ ‹
˚ y3 ‹“˚ 260 ‹
˚ ‹ ˚ ‹
˝ y4 ‚ ˝ 269,643 ‚
y5 172,249
¨ ˛
4 ´1 0 0 0 ¨ ˛ ¨ ˛
˚ 15 ‹ x1 100
˚ ´1 0 0 0 ‹
˚ 4 ‹˚ x2 ‹ ˚ 225 ‹
˚ 56 ‹˚ ‹ ˚ ‹
˚ 0 0 ´1 0 ‹ ˚ ‹ ˚ ‹
˚ 15 ‹˚ x3 ‹“˚ 260 ‹
˚ 209 ‹˚ ‹ ˚ ‹
˚ 0 0 0 ´1 ‹ ˝ x4 ‚ ˝ 269,643 ‚
˚ ‹
˝ 56 ‚ x5 172,249
780
0 0 0 0
209
¨ ˛ ¨ ˛
x1 46,15384708887603
˚ x2 ‹ ˚ 84,61538835550414 ‹
˚ ‹ ˚ ‹
˚ ‹ ˚ ‹
˚ x3 ‹“˚ 92,30770633314054 ‹
˚ ‹ ˚ ‹
˝ x4 ‚ ˝ 84,61543697705802 ‚
x5 46,15389871794871
con solución
ans =
46.153818219681852
84.615363662487653
92.307681830675392
84.615380686432218
46.153845171608054
2. Suponiendo que a12 “ a21 “ a32 “ a23 “ 0,5 y que el término independiente
del sistema lineal es b “ p1,5, 2,0, 1,5qT , y tomando X p0q “ b, comprobar que
se verifica el apartado anterior utilizando el residuo de la primera iteración
para ambos métodos
Solución. 1. Recordemos que para todo método iterativo tenemos que establecer
una descomposición A “ N ´ P y la iteración de es de la forma N X k`1 “
P X k ` b. En la descomposición de la matriz A asociada al método de Jacobi:
A “ D ´ p´E ´ F q. En este caso particular, D “ I y entonces P “ I ´ A
de donde la matriz de iteración de Jacobi M J “ I ´1 P “ IpI ´ Aq es
¨ ˛
0 ´a12 0
M J “ ˝´a21 0 ´a23 ‚
0 ´a32 0
2. Si a12 “ a21 “ a32 “ a23 “ 0,5 ρpM J q “ 0,7071, ρpM GS q “ 0,5 En el caso de
Jacobi, si X p0q “ b, tenemos
¨ ˛¨ ˛ ¨ ˛ ¨ ˛
0 ´0,5 0 1,5 1,5 0,5
p1q p0q
X “ M J X ` I b “ ´0,5 ´1 ˝ 0 ´0,5 ‚˝ ‚ ˝ ‚
2,0 ` 2,0 “ 0,5‚ ˝
0 ´0,5 0 1,5 1,5 0,5
Evaluemos el residuo:
¨ ˛
´0,75
r p1q “ b ´ AX p1q “ ˝´1,00‚, ||r p1q ||8 “ 1,0
´0,75
Evaluemos el residuo:
¨ ˛
0,50
r p1q “ b ´ Axp1q “ ˝´0,25‚, ||rp1q ||8 “ 0,5
0,00
124 Solución de Sistemas de Ecuaciones Lineales
3.5 Ejercicios
0,8x1 ´0,4x2 “ 41
´0,4x1 `0,8x2 ´0,4x3 “ 25 (3.15)
´0,4x2 `0,8x3 “ ´2
0,8x1 ´0,4x2 “ 41
´0,4x1 `0,8x2 ´0,4x3 “ 25 (3.16)
´0,4x2 `0,8x3 “ ´2
Solución de Sistemas de Ecuaciones Lineales 125
9. Considere el sistema
» fi» fi » fi
1 1 0 3 x1 4
— ffi— ffi — ffi
—2 1 ´1 1 ffi —x2 ffi — ´7 ffi
— ffi— ffi “ — ffi
– 3 ´1 ´1 2 fl –x3 fl – 13 fl
´1 2 3 ´1 x4 ´13
126 Solución de Sistemas de Ecuaciones Lineales
» fi» fi
» fi 1 0 0 3 2 ´1
3 2 a1,3 — ffi—
–2 4 ´1 fl “ —l2,1 1 0ffi —0 8 1ffi
–1 ´ ffi “ LU
1 fl– 3 3fl
1 a3,2 3 1 0 0 u3,3
3 2
11. Resolver mediante Jacobi y Gauss–Seidel iniciando con el vector nulo el si-
guiente sistema
12. Se requiere encontrar una función de la forma f pxq “ ax3 ` bx ` c que pase
por los puntos p1, 4q, p´22, ´223q y p2, 21q. Plantear un sistema de ecuaciones
para calcular los coeficientes de f y resolverlo usando la descomposición LU
de la matriz del sistema.
Solución de Sistemas de Ecuaciones Lineales 127
» fi» fi » fi
1 2 6 x 5
–0 ´5 1fl –y fl “ –6fl
4 1 2 z 5
Si se intenta aplicar el método de Jacobi nos encontramos que el radio espectral
de la matriz de iteracion es mayor que 1, habrá convergencia ? Encuentre una
forma de poder aplicar el método de Jacobi de manera que sea convergente y
aproxima la solución partiendo de xp0q “ p0, 0, 0qt.
„
2 1
14. Considerar el sistema Ax “ b para A “ y b “ p8, 21q. Mostrar que
3 6
el método de Jacobi converge; hacer un programa que lo modele y a la vez
grafique en el plano la sucesión de aproximaciones obtenidas empezando en
cada uno de lo siguientes valores iniciales
Demostrar que el método de Jacobi converge para todo dato inicial. Ve-
rificar, sin embargo, que la matriz no es diagonal dominante.
Solución de Sistemas de Ecuaciones Lineales 129
21. Se quiere estimar la norma 2 de una matriz A P R3ˆ3 como el máximo del valor
}Ax}2 {}x}2 entre varios vectores x P R3 no nulos generados al azar. Hacer un
programa reciba una matriz A y luego genere los primeros 100 términos de la
siguiente sucesión:
! }Ax } )
k 2
s1 “ 0, sk`1 “ máx sk ,
}xk }2
Concluir que para una matriz mal condicionada los métodos numéricos no
aseguran buena aproximación.
„
1 2
24. Para cada n P N, se definen An “ , bn “ p1, 2 ´ n12 q y se quiere
2 4 ` n12
resolver el sistema An x “ bn . An P R2ˆ2 , bn P R2 definidos Utilizando cierto
método numérico, se obtiene como resultado el vector p1, 0q.
25. Probar que si A P Rnˆn es una matriz inversible y } } es una norma matricial,
la condición de A verifica la desigualdad:
" *
1 }A ´ B}
ď ı́nf : B es singular .
condpAq }A}
Deducir que
" *
}A}
condpAq ě sup : B es singular .
}A ´ B}
Nota: En ambos casos, vale la igualdad, pero la otra desigualdad es un poco
más complicada de probar. De la igualdad se puede concluir que condpAq mide
la distancia relativa de A a la matriz singular más próxima.
28. Hacer un programa que reciba como input una matriz A y un vector b y luego
29. Decidir para cada uno de los siguientes sistemas, si los métodos de Jacobi y
de Gauss-Seidel son convergentes. En caso afirmativo usarlos para resolver el
sistema. Si ambos métodos convergen, determinar cuál converge más rápido.
Es la matriz del sistema diagonal dominante? y simétrica y definida positiva?
» fi» fi » fi
» fi» fi » fi 5 7 6 5 x1 23
3 1 1 x1 5 — ffi— ffi — ffi
—7 10 8 7 ffi —x2 ffi —32ffi
paq –2 6 1fl –x2 fl “ –9fl , pbq — ffi— ffi “ — ffi
–6 8 10 9 fl –x3 fl –33fl
1 1 4 x3 6
5 7 9 10 x4 31
1
x
6 1
` x2 “ 1
x1 ` 61 x2 ` x3 “ 1
x2 ` 61 x3 ` x4 “ 1
(3.19)
.. ..
. .
1
x8 ` 6 x9 ` x10 “ 1
x9 ` 61 x10 “ 1