Está en la página 1de 16

1 INTRODUCCIÓN 1

RESOLUCIÓN DE SISTEMAS LINEALES

1 INTRODUCCIÓN

Uno de los problemas más frecuentes encontrados en la computación cientı́fica es el de resolver sistemas
de ecuaciones algebraicas lineales.
Nuestro objetivo es estudiar diferentes formas de resolver un sistema lineal de n ecuaciones con n
incógnitas.
Un sistema de n ecuaciones con n incógnitas es escrito usualmente en la forma


 a11 x1 + a12 x2 + . . . + a1n xn = b1
 a21 x1 + a22 x2 + . . . + a2n xn = b2

.. .. .. .. ..


 . . . . .
an1 x1 + an2 x2 + . . . + ann xn = bn

donde:

ai,j , 1 ≤ i, j ≤ n son los coeficientes,

xj , j = 1, . . . , n las incognitas

y bi , i = 1, . . . , n las constantes.

Resolver un sistema lineal consiste en calcular los valores de xj con j = 1, . . . , n, y en el caso que
existan tienen que satisfacer las n ecuaciones simultaneamente.
Usando notación matricial, el sistema puede ser representado por

Ax = b

donde  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= es la matriz de coeficientes
 
.. .. .. .. 
 . . . . 
an1 an2 . . . ann
x = (x1 , x2 , . . . , xn )T el vector de incógnitas y b = (b1 , b2 , . . . , bn )T el vector constante.

1.1 Clasificación de acuerdo al número de soluciones


Dado un sistema lineal, no podemos afirmar, sin investigar, que el sistema tiene tiene solución y si
tuviera que esa solución es única. A continuación analisemos, através de ejemplos con dos ecuaciones
y dos incógnitas, las situaciones que pueden ocurrir con relación al número de la soluciones de un
sistema lineal.

(i) Solución única   


2x1 + x2 = 3 1
con x=
x1 − 3x2 = −2 1

(ii) Infinitas soluciones 


2x1 + x2 = 3
4x1 + 2x2 = 6
para el cual, cualquier x= (α, 3 − 2α)T con α ∈ R, es solución.

(iii) Ninguna solución 


2x1 + x2 = 3
4x1 + 2x2 = 2
2 MÉTODOS DIRECTOS 2

Un sistema de ecuaciones puede ser clasificado como compatible cuando tiene solución e incompatible
en el caso contrario. Los sistemas compatibles pueden ser clasificados en determinados, cuando tiene
solución única e indeterminados, caso contrario.
Nuestro objetivo aquı́ será, desenvolver métodos numéricos para resolver sistemas lineales de orden n,
que tengan solución única. Observe que, tales sistemas son aquellos cuya matriz de coeficientes es no
singular, es decir det(A) 6= 0. La solución de estos sistemas lineales es dado por el vector x=A−1 b.
Entre tanto calcular explicitamente la matriz A−1 y enseguida efectuar A−1 b, no es práctico, debido
al número de operaciones envueltas es grande.
Los métodos numéricos para la solución de sistemas lineales son divididos en dos grupos:

Métodos Directos: Son aquellos que resuelven un sistema de ecuaciones lineales en un número
finito de pasos y en general usados para resolver sistemas pequeños.

Métodos Iterativos: Son aquellos que creean una sucesión de vectores que convergen a la solución
del sistema y en general usados para resolver sistemas grandes.

2 MÉTODOS DIRECTOS

Dentro de los métodos de cálculo directo se encuentran el de eliminación Gaussiana, el de descom-


posicón LU , el de Choleski.

2.1 Sistemas Triangulares


Sea el sistema lineal Ax= b tal que aij = 0 si j < i; i, j = 1, 2, . . . , n o sea


 a11 x1 + a12 x2 + a13 x2 + . . . + a1n xn = b1
a22 x2 + a23 x2 + . . . + a2n xn = b2




a33 x2 + . . . + a3n xn = b3
 .. .. ..



 . . .
ann xn = bn

Un sistema de este tipo es llamado de sistema triangular superior, mientras que, si aij = 0 para
j > i, j = 1, 2, . . . , n se tiene un sistema triangular inferior:


 a11 x1 = b1
a x + a x = b2

21 1 22 2



a31 x1 + a32 x2 a33 x2 = b3
 .. .. .. ..



 . . . .
an1 x1 an2 x2 a13 x3 ··· ann xn = bn

2.1.1 Solución de sistemas triangulares


Sea el sistema lineal Ax= b, donde A es una matriz n × n triangular superior, con elementos de la
diagonal diferentes de cero.
De la última ecuación, tenemos
bn
xn =
ann
Usamos xn y xn−1 puede ser obtenido de la penúltima ecuación
bn−1 − an−1 xn
xn−1 =
an−1,n−1

Ahora usamos xn y xn−1 para obtener xn−2


bn−2 − an−2,n−1 xn−1 − an−2 xn
xn−2 =
an−2,n−2
2 MÉTODOS DIRECTOS 3

Y asi sucesivamente se obtienen xn−3 , . . . , x2 y finalmente x1

b1 − a12 x2 − a13 x3 − . . . − a1n xn


x1 =
a11
Resolver

1. 

 3x1 − 2x2 + x3 − x4 = 8
4x2 − x3 + 2x4 = −3


 2x3 + 3x4 = 11
5x4 = 15

2. 

 3x1 + 4x2 − 5x3 + x4 = −10
x3 − 2x4 = 0


 4x3 − 5x4 = 3
2x4 = 2

3. 

 3x1 + 4x2 − 5x3 + x4 = −10
x3 − 2x4 = −1


 4x 3 − 5x4 = 3
2x4 = 2

2.2 Transformaciones Elementales


Para modificar convenientemente un sistema lineal dado, en uno equivalente usaremos el siguiente
teorema.
Teorema
Sea AX=b un sistema lineal. Aplicando sobre las ecuaciones de este sistema una sucesión de opera-
ciones elementales escogidas entre

(i) Intercambio, el orden de las ecuaciones se puede intercambiar

(ii) Escalado, multiplicar una ecuación por una constante no nula.

(iii) Susutitución, una ecuación puede ser reemplazada por la suma de ella misma más el múltiplo
de otra ecuación.

obtenemos un nuevo sistema Āx = b̄. Y los sitemas Ax=b y Āx = b̄ son equivalentes.
obs:Dos sistemas equivalentes o son incompatibles o tienen las mismas soluciones.

2.3 Método de Eliminación Gaussiana


El método de eliminación gaussiana consiste en transformar el sistema lineal original en un sistema
lineal equivalente con matriz de coeficientes triangular superior, pues estos son de solución inmediata.

2.3.1 Descripción del método de eliminación gaussiana


Una forma eficaz de trabajar es almacenar todas las constantes del sistema lineal Ax=b en una matriz
de orden n × (n + 1) que se obtiene añadiendo a la matriz A una columna, la columna (n + 1)-ésima,
en la que se almacena los términos de b. Cada fila de esta matriz que se llama matriz ampliada y se
denota por [A|b], contiene toda la información necesaria para representar la corespondiente ecuación
del sistema lineal.
2 MÉTODOS DIRECTOS 4

Considerando que det(A)6= 0, y escribamos el sistema lineal Ax=b como


 (0) (0) (0) (0)

a11 a12 . . . a1n b1
 
 
 (0) (0) (0) (0) 
a 21 a 22 . . . a2n b2
[A(0) |b(0) ] = [A|b] = 
 

 
. . .. . .
 
 . .. .. .. 
 . . 
(0) (0) (0) (0)
an1 an2 . . . ann bn

(0) (0)
donde aij = aij , bi = bi y a11 6= 0.
Etapa 1
Si a11 6= 0, podemos eliminar la incógnita x1 de las demás ecuaciones. El paso tı́pico es restar de la
i−ésima fila (i = 1, 2, . . . , n), la primera, multiplicada por mi1
(0) (0)
mi1 = ai1 /a11 i = 1, 2, . . . , n
(0)
Los mi1 son los multiplicadores asociados a sus respectivas filas y a11 es denominada pivote.
Al final de la primera etapa tendremos
 (1) (1) (1) (1)

a11 a12 . . . a1n b1
 
 
(1) (1)
 (1) (1) (1) 
[A |b ] =  0 a22 . . . a2n b2 
 .. .. .. .. ..
 
 . . . . .


(1) (1) (1)
0 an2 . . . ann bn

donde
(1) (0) (1) (0)
a1j = a1j para j = 1, 2, . . . , n b1 = b1

y
(1) (0) (0)
aij = aij − mi1 a1j para i = 2, . . . , n y j = 1, . . . , n
(1) (0) (0)
bi = bi − mi1 b1 para i = 2, . . . , n

Etapa 2
(1)
El objetivo ahora es eliminar la incógnita x2 de la tercera ecuación a la última. Si a22 6= 0, primero
se calculan los multiplicadores
(0) (0)
mi2 = ai2 /a22 para i = 3, . . . , n

Al final tendremos  
(2) (2) (2) (2) (2)
a11 a12 a13 . . . a1n b1
 
 

 0 (2) (2) (2) (2) 
 a22 a23 . . . a2n b2 

 
 
(2) (2) (2)
[A(2) |b(2) ] =  0 0 a33 . . . a2n b3
 

 
 
 . .. .. .. .. 
 .. . . . . 
 
 
 
(2) (2) (2)
0 0 an3 . . . ann bn
donde
2 MÉTODOS DIRECTOS 5

(2) (1) (2) (1)


aij = aij para i = 1, 2 y j = 1, 2, . . . , n bi = bi para i = 1, 2

y
(2) (1) (1) (2) (1) (1)
aij = aij − mi2 a2j para i = 3, . . . , n y j = 2, . . . , n bi = bi − mi2 b2 para i = 3, . . . , n

Siguiendo el raciocı́nio análogo, procedemos hasta la etapa n − 1 y la matriz final de esta etapa
será  
(n−1) (n−1) (n−1) (n−1) (n−1)
a a12 a13 . . . a1n b1
 11 
 
 (n−1) (n−1) (n−1) (n−1) 

 0 a22 a23 . . . a2n b2 

 
 
(n−1) (n−1) (n−1) 
[A(n−1) |b(n−1) ] =  0 0 a33 . . . a2n b3


 
 
 .. .. .. .. .. 

 . . . . . 

 
 
(n−1) (n−1)
0 0 0 . . . ann bn
Con n − 1 pasos el sistema lineal Ax = b és transformado en un sistema triangular superior equiva-
lente Ux = c el cual se resuelve facilmente por sustitución.

Ejercicio
Aplique eliminación gaussiana para calcular la solución del sistema


 2x1 + 3x2 − x3 = 5
4x1 + 4x2 − 3x3 = 3 la solución es(1, 2, 3)T .
2x1 − 3x2 + x3 = −1



 2x1 + x2 + x3 + = 1
4x1 + 3x2 + 3x3 + x4 = 8

la solución es(−1, 2, 1, 3)T .

 8x 1 + 7x2 + 9x3 + 5x4 = 30
6x1 + 7x2 + 9x3 + 8x4 = 41

2.3.2 Dificultades en el método de eliminación


Mientras que hay muchos sistemas de ecuaciones que se pueden resolver con la eliminación de Gauss,
existen algunas dificultades que debemos analizar.
Vimos que el método de eliminación gaussiana necesita el cálculo de los multiplicadores
(k−1)
a1k
mik = (k−1)
para i = k + 1, . . . , n
akk

en cada etapa k del proceso.

1. División entre el cero


(k−1)
Los pivotes akk tienen que ser distintos de cero, pero es posible que ocurra una división entre
cero. Por ejemplo 
 + 2x2 + 3x3 = 8
4x1 + 6x2 + 7x3 = −3
2x1 + x2 + 6x3 = 5

2. Errores de redondeo
Pivotes pequeños pueden provocar que el error de redondeo aumente. Cuando resulta un pivote
2 MÉTODOS DIRECTOS 6

próximo al cero, da origen a multiplicadores mayores que la unidad y pueden originar una
ampliación de los errores de redondeo. Por ejemplo

1.133x1 + 5.281x2 = 6.414
24.14x1 − 1.210x2 = 22.93

Cuya solución exacta es (1, 1)t . Resolviendo con cuatro cifras significativas obtenemos x1 =
0.2542 y x2 = 1.16

Para superar estos problemas se adopta una estrategia de pivoteo.

2.3.3 Estrategia de Pivoteo Parcial


Esta estrategia consiste en:

(i) En el inicio de la etapa k de la fase de eliminación se escoge para pivote el elemento de mayor
(k−1)
módulo entre los coeficientes aik , i = k, k + 1, . . . , n.
(k−1) (k−1)
|ark | = max |aik |
k≤i≤n

(ii) Intercambiar las filas k e r si es necesario.

Esta estrategia es menos efectiva que un pivoteo completo, pero es la menos costosa y la más usada.
Ejercicio
Reoslver por eliminación gaussiana con pivoteo el ejercicio anterior

 + 2x2 + 3x3 = 8
4x1 + 6x2 + 7x3 = −3
2x1 + x2 + 6x3 = 5

2.3.4 Comentarios
Si se quiere resolver varios sistemas con la misma matriz A, la matriz ampliada será

[A|b1 |b2 | . . .]

Para el cálculo de la inversa de la matriz A aplicamos el método de eliminación de Gauss a la matriz


ampliada
[A|I]
donde I es la matriz identidad.

2.4 Sitemas mal condicionados


Un sistema es bien condicionado cuando pequeños cambios en algunos elementos del problema
causan pequeños cambios en la solución del problema.

Un sistema es mal condicionado cuando pequeños cambios en algunos elementos del problema
causan pequeños cambios en la solución del problema.
Ejercicio
Resuelva el sistema 
x1 + 2x2 = 10
1.1x1 + 2x2 = 10.4
La solución del sistema es (4, 3)T . Si modificamos el segundo coeficiente 1.1 por 1.05 obtenemos
como solución (8, 1)T
2 MÉTODOS DIRECTOS 7

Número de condicón
Sea llama número de condición de la matriz A y se escribe k(A) = ||A||||A−1 || donde
n
X
||A|| = max |aij |
1≤i≤n
j=1

Decimos que el sistema Ax=b es mal condicionado si k(A) es grande de lo contrario es bien
condicionado.
Ejercicio
Calcule el número de condición del sistema anterior

2.5 Factorización LU
Sea el sistema lineal Ax = b. El proceso de factorización para resolver este sistema, consiste en
descomponer la matriz A en dos factores o más.
Por ejemplo si pudieramos realizar la factorización de la matriz A como: A= CD el sistema Ax=b
podrá ser escrito como CDx=b. Si denotamos y=Dx, entonces resolver el sistema lineal Ax=b será
equivalente a resolver Cy=b y en seguida Dx=y.

2.5.1 Factorización triangular


Diremos que una matriz invertible A admite una factorización triangular o factorización LU si puede
expresarse como el producto de una matriz triangular inferior L, cuyos elementos de su diagonal son
todos iguales a 1, por una matriz triangular superior.
A = LU
    
a11 a12 . . . a1n 1 0 ... 0 u11 u12 . . . u1n
 a21 a22 . . . a2n   m21 1 ... 0   0 u22 . . . u2n 
=
    
.. .. .. .. .. .. . . ..   . .. .. ..
. .   ..
 
 . . . .   . . . . . 
an1 an2 . . . ann mn1 mn2 ... 1 0 0 . . . unn

2.5.2 Cáculo de los factores L y U


Hay fórmulas para obtener L y U. Veremos la obtención de L y U usando eliminación de Gauss.
Usaremos un ejemplo teórico de dimensión 3

 a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3

Trabajamos solamente con la matriz de coeficientes.


 (0) (0) (0) 
a11 a12 a13
 
 
A = A(0) =  a(0) (0) (0)
a22 a23
 
 21


 
(0) (0) (0)
a31 a32 a33
(0)
Suponiendo a11 6= 0, los multiplicadores de la etapa 1 del proceso de Gauss son
(0) (0)
a21 a31
m21 = (0)
y m31 = (0)
a11 a11
(0) (1)
Los coeficientes aij serán alterados para aij donde
(1) (0)
a1j = a1j para j = 1, 2, 3
2 MÉTODOS DIRECTOS 8

(1) (0) (0)


aij = aij − mi1 aij para i = 2, 3, j = 1, 2, 3

Estas operaciones corresponden a premultiplicar la matriz A(0) por la matriz M(0) , donde
 
1 0 0
M(0) =  −m21 1 0 
−m31 0 1
pues
(0) (0) (0) (1) (1) (1)
   
a11 a12 a13 a11 a12 a13
 
1 0 0 
  
  
M (0)
A (0)
=  −m21 1 0   a(0) (0) (0)
a22 a23 = 0 (1)
a22
(1)
a23  = A(1)
   
 21
−m31 0 1 
  
  
(0) (0) (0) (1) (1)
a31 a32 a33 0 a32 a33

donde A(1) es la misma matriz obtenida al final de la etapa 1 en el proceso de Gauss.


(1)
a
Suponiendo ahora que a22 6= 0 el multiplicador de la etapa 2 será m32 = 32 (1)
.
a22
Para eliminar x2 en la fila 3 multiplicamos la fila 2 por m32 y restamos el resultado a la fila 3. Los
coeficientes serán alterados para
(2) (1)
a1j = a1j para j = 1, 2, 3
(2) (1)
a2j = a2j para j = 2, 3
(2) (1) (1)
a3j = a3j − m32 a3j para j = 2, 3

Estas operaciones corresponden a premultiplicar la matriz A(1) por la matriz M(1) , donde
 
1 0 0
M(1) =  0 1 0 
0 −m32 1
pues
   (1) (1) (1)   (2) (2) (2) 
1 0 0 a11 a12 a13 a11 a12 a13
M(1) A(1) = 0 1 0   0 a(1) a
(1) 
= (2) (2) 
0 a22 a23  = A
(2)
 
22 23  
0 −m32 1 (1)
0 a32 a33
(1)
0
(2)
0 a33

La matriz A(2) es la misma obtenida al final de la etapa 2 del método de Gauss. Tenemos entonces
que

A = A(0)

A(1) = M(0) A(0) = M(0) A

A(2) = M(1) A(1) = M(1) M(0) A

donde A(2) es triangular superior.


Como:    
 −1 1 0 0  −1 1 0 0
M(0) =  m21 1 0  y M(1) = 0 1 0 
m31 0 1 0 m32 1
tenemos  
 −1  −1 1 0 0
M(0) M(1) =  m21 1 0 
m31 m32 1
2 MÉTODOS DIRECTOS 9

Entonces  −1  −1  −1


A = M(1) M(0) A(2) = M(0) M(1) A(2)

(2) (2) (2)


 
a11 a12 a13
 
1 0 0 


(2) (2)
A =  m21 1 0  0 a22 a23  = LU
 
m31 m32 1 
 

(2)
0 0 a33
−1 −1
es decir L = M(0) M(1) y U = A(2)
Entonces factoramos A en dos matrices triangulares L y U, donde L es triangular inferior con
diagonal unitaria y sus elementos lij para i > j son los multiplicadores mij obtenidos en el proceso de
eliminación gaussiana, y el factor U es triangular superior y es la matriz triangular superior obtenida
al final de la fase de triangulización del método de eliminación de Gauss.

2.5.3 Resolución del sistema lineal usando factorización LU de A


Dados el sistema Ax = b y la factorización LU de la matriz A, tenemos

Ax = b ⇔ (LU)x = b

Sea y=Ux. La solución del sistema lineal puede ser obtenida resolviendo los sistemas lieneales

(i) Ly=b

(ii) Ux=y

Ejercicio
Resolver el siguiente sistema lineal usando factorización LU

 3x1 + 2x2 + 4x3 = 1
x1 + x2 + 2x3 = 2
4x1 + 3x2 + 2x3 = 3

2.5.4 Factoración LU con estratégia de pivoteo parcial


Para realizar el pivoteo parcial se requiere de intercambio de lineas en la matriz A(k) , cuando es
necesario. Por este motivo necesitamos de una matriz de permutación y luego veremos los efectos
sobre el sistema lineal.
Matriz de permutación
Una matriz cuadrada n × n es una matriz de permutación si puede ser obtenida de la matriz identidad
de orden n permutando sus filas (o columnas).
Premultiplicando una matriz A por una matriz de permutación P se obtiene la matriz PA con las
filas permutadas y esta permutación de filas es la misma efectuada para obtener P de I.
Ejemplo Sean    
0 1 0 3 1 4
P= 0 0 1  y A= 1 5 9 
1 0 0 2 6 5
    
0 1 0 3 1 4 1 5 9
PA =  0 0 1   1 5 9  =  2 6 5 
1 0 0 2 6 5 3 1 4
2 MÉTODOS DIRECTOS 10

2.5.5 Resolución del sistema lineal usando factorización LU de A con pivoteo parcial
Sea el sistema lineal Ax=b y sean L y U los factores obtenidos por el proceso de eliminación de Gauss
con estratégia de pivoteo parcial.
L y U son los factores de A0 , donde A0 es la matriz A con las lineas permutadas A0 = PA.
Las mismas permutaciones efectuadas en las lineas de A deben de ser efectuadas sobre el vector b
esto implica permutar las ecuaciones de Ax=b.
Sea b0 = Pb. El sistema A0 x = b0 es equivalente al original y como A0 = LU tendremos:

A0 x = b0 x ⇒ PAx = Pb ⇒ LUx = Pb

Entonces resolver el sistema original implica resolver los sitemas triangulares

(i) Ly=Pb

(ii) Ux=y

Ejercicio
Resolver el siguiente sistema lineal usando factorización LU

 3x1 − 4x2 + x3 = 9
x1 + 2x2 + 2x3 = 3
4x1 − 3x3 = −2

3 MÉTODOS ITERATIVOS 11

3 MÉTODOS ITERATIVOS

Un método iterativo con el cual se resuelve el sitema lineal Ax=b comienza con una aproximación
x(0) a la solución x y genera una sucesión de vectores x(0) , x(1) , x(2) , . . . , x(k) tal que
lim x(k) = x
k→∞

Los métodos iterativos traen consigo un proceso que convierte Ax=b en otro equivalente de la forma
x=Cx+g donde C es una matriz n × n y g un vector n × 1.
Después de seleccionar el vector inicial x(0) la sucesión de vectores de la solución se genera calcu-
lando
x(k+1) = Cx(k) + g para k = 1, 2, 3, . . .

3.1 Preliminares
3.1.1 Normas
• Normas matriciales
( n )
X
||A||1 = max |aij | Norma del máximo de las columnas
1≤j≤n
i=1
 
Xn 
||A||∞ = max |aij | Norma del máximo de las filas
1≤i≤n  
j=1
 1/2
n X
X n
||A||2 =  |aij |2  Norma euclidiana
i=1 j=1

• Normas vectoriales
n
X
||x||1 = |xi | Norma de la suma
i=1
||x||∞ = max |xi | Norma del máximo
1≤i≤n
n
!1/2
X
2
||x||2 = |xi | Norma euclidiana
i=1

3.1.2 Criterio de parada


El proceso iterativo es repetido hasta que el vector x(k) este suficientemente próximo a x(k−1) .
Medimos la distancia de x(k) y x(k−1) por

(k) (k−1)
d(k) = max xi − xi
1≤i≤n

Ası́, dada una tolerancia T OL, el vector x(k) será escogido como x̄ solución aproximada de la solución
exacta si
dk < T OL
De la misma forma se puede usar el error relativo
dk
dkr =
(k)
max xi
1≤i≤n

Observe que a medida que x(k) se aproxima a la solución, b − Axk se aproxima a cero, entonces otro
criterio de parada puede ser:
||b − Axk || < T OL
Computacionalmente se usa también un número máximo de iteraciones.
3 MÉTODOS ITERATIVOS 12

3.1.3 Criterio de convergencia


Dependiendo de la forma de la matriz C la sucesión generada por el proceso iterativo puede o no
convergir para la solución del sistema.
Sea x̄ la solución del sistema Ax = b, entonces x̄ satisface

x̄ = Cx̄ + g

tenemos que
x(k+1) − x̄ = C(x(k+1) − x̄)
donde el error en cada iteración es dado por ek = x(k) − x̄ y usando las propiedades de la norma se
sigue que

||ek || ≤ ||C||||ek−1 ||
≤ ||C||2 ||ek−2 ||
.. ..
. .
≤ ||C||k ||e0 ||

Luego la sucesión {x(k) } converge para x̄, la solución del sistema si

lim ||ek || = lim ||C||k ||e0 || = 0


k→∞ k→∞

y esto ocurre si y somente si la matriz C satisface la condición

||C|| < 1

Note que o critério de convergencia no depende del vector inicial x(0) .

3.2 MÉTODO ITERATIVO DE JACOBI


La forma como el método de Jacobi transforma el sistema lineal Ax=b en x=Cx+g es la siguiente:
Tomamos el sistema original


 a11 x1 + a12 x2 + . . . + a1n xn = b1
 a21 x1 + a22 x2 +

. . . + a2n xn = b2
.. .. .. .. ..


 . . . . .
an1 x1 + an2 x2 + . . . + ann xn = bn

Suponiendo aii 6= 0 ∀i = 1, 2, . . . , n aislamos el vector x



1

 x1 = (b1 − a12 x2 − a13 x3 − ... − a1n xn )
a11








 1
 x2 = (b2 − a21 x1 − a23 x3 − ... − a2n xn )

a22


.. ..





 . .
1


 xn = (bn − an1 x1 − an2 x2 − . . . − ann−1 xn−1 )


ann
Tenemos
x = Cx + g
3 MÉTODOS ITERATIVOS 13

donde  a12 a13 a1n  


b1

0 − − ... −
 a11 a11 a11   a11 
   
 a21 a23 a2n 
   
 − − −  b2 
 
0 ... 
 a22 a22 a22   
   a22 
   
 − a31
C= a32 a3n  g= 
 a33 − 0 ... −   b 
 3 
a33 a33 
 a33 
   
 
 . 
.. .. .. ..  .. 
 
..
.
 
 . . . .   
 an1 an2 an3   bb 
− − − ... 0
an ann ann ann
El método de Jacobi consiste en, dado x(0) aproximación inicial obtener x(1) , x(2) ,. . . , x(k) usando la
relación
x(k) = Cx(k−1) + g

(k) 1  (k−1) (k−1) (k−1)


 x1 = b1 − a12 x2 − a13 x3 − ... − a1n xn
a11








 x(k) =
 1  (k−1) (k−1) (k−1)

b2 − a21 x1 − a23 x3 − ... − a2n xn

2
a22


.. ..





 . .
1
  
(k) (k−1) (k−1) (k−1)

 xn = bn − an1 x1 − an2 x2 − . . . − ann−1 xn−1


ann
Ejercicio:
Resolver el sistema
  
 10x1 + 2x2 + x3 = 7 0.7
x1 + 5x2 + x3 = −8 con  −1.6  T OL = 0.05
2x1 + 3x2 + 10x3 = 6 0.0

El proceso iterativo es:


1
 
(k) (k−1) (k−1) (k−1) (k−1)
 x1

 = 7 − 2x2 − x3 = −0.2x2 − 0.1x3 + 0.7


 10


1
 
(k) (k−1) (k−1) (k−1) (k−1)
x2 = − 8 − 2x1 − x3 = −0.2x1 − 0.2x3 − 1.6


 5



 x(k)
 1 (k−1) (k−1)

(k−1) (k−1)
= 6 − 2x1 − 3x2 = −0.2x1 − 0.3x2 + 0.6

3
2
La solución aproximada es x(3) = (0.9994, −1.9888, 0.9984)t .

Si escribimos A = D − L − U donde
     
a11 0 ... 0 0 0 ... 0 0 −a12 . . . −a1n
 −a21 . . . −a2n
 0 a22 . . . 0   0 ... 0   0 0 
D= . ..  L =  .. U = 
   
.. .. .. . . .. .. .. .. ..
 ..

. . .   . . . .   . . . . 
0 0 . . . ann −an1 −an2 . . . 0 0 0 ... 0
Entonces tenemos que
Ax = b ⇔ (D − L − U)x = b ⇔ Dx = (L + U)x + b
Esto da origen a la forma matricial del método de Jacobi
x(k) = D−1 (L + U ) x(k−1) + D −1
| {z }b para k = 1, 2, 3 . . .
| {z }
C g
3 MÉTODOS ITERATIVOS 14

3.2.1 Criterios de Convergencia


Sea el sistema lineal Ax=b el método de Jacobi aplicado a este sistema converge si satisface:

a) el critério de las filas, es decir, si:


n
n X  o
max |aij | /|aii | < 1,
1≤i≤n
j=1
i 6= j

b) el critério de las columnas, es decir, si:


n
n X  o
max |aij | /|ajj | < 1,
1≤j≤n
i=1
i 6= j

Definición: Una matriz A es dominante estrictamente diagonal si:


n
X
|aij | < |aii |, para i = 1, 2, . . . , n
j=1
i 6= j

Observación : Con esta definición es fácil ver que, si la matriz de los coeficientes es dominante
estritcamente diagonal entonces el critério de las filas es satisfecho.

Ejercicio
Analizar la matriz A del sistema lineal anterior
 
10 2 1
A= 1 5 1 
2 3 10

3.3 MÉTODO DE GAUSS-SEIDEL


(k) (k) (k) (k) (k)
En el método de Jacobi, cuando se va a calcular xi ya se ha calculado x1 , x2 , x3 , . . . , xi−1 y
(k−1) (k−1) (k−1) (k−1)
probablenete sean mejores aproximaciones que x1 , x2 , x3 , . . . , xi−1 . Se puede usar

i−1 n
(k) (k) (k−1)
X X
xj = aij xj − aij xj + bi
j=1 j=i+1

El método de Gauss-Seidel consiste en, dado x(0) aproximación inicial obtener x(1) , x(2) ,. . . , x(k)
através de la relación

(k) 1  (k−1) (k−1) (k−1)

 x 1 = b1 − a12 x2 − a13 x3 − ... − a1n xn
a11







1 
 
(k) (k) (k−1) (k−1)

b2 − − a23 x3 − ... −


 x 2 = a21 x1 a2n xn



 a22

(k) 1  (k) (k) (k−1)

 x 3 = b2 − a31 x1 − a32 x2 − ... − a2n xn
a

22






 .
 ..





 x(k)
 1  (k) (k) (k)

= bn − an1 x1 − an2 x2 − ... − ann−1 xn−1

n
ann
3 MÉTODOS ITERATIVOS 15

(k) (k) (k) (k) (k)


Observe que en el momento de calcular xi usamos los valores de x1 , x2 , x3 , . . . , xi−1 que ya fueron
(k) (k)
calculados y los valores xi+1 , . . . , xn restantes.
Ejercicio:
Resolver el sistema
  
 5x1 + x2 + x3 = 5 0
3x1 + 4x2 + x3 = 6 con  0  y T OL = 0.05
3x1 + 3x2 + 6x3 = 0 0

El proceso iterativo es dado por:


1
 
(k) (k−1) (k−1) (k−1) (k−1)

 x1 = 5 − x2 − x3 = 1 − 0.2x2 − 0.2x3



 2


1
 
(k) (k) (k−1) (k) (k−1)
x2 = 6 − 3x1 − x3 = 1.5 − 0.75x1 − 0.25x3


 4



 x(k) =
 1 (k) (k)

(k) (k)
0 − 3x1 − 3x2 = −0.5x1 − 0.5x2

3
6

La solución aproximada es x(3) = (1.0075, 0.9912, −0.9993)t .

El esquema iterativo del método de Gauss-Seidel puede ser esrito en forma matricial de la siguiente
manera. Escribimos A = D − L − U donde
     
0 0 ... 0 a11 0 . . . 0 0 −a12 . . . −a1n
 −a21 0 ... 0   0 a22 . . . 0   0 0 . . . −a2n 
L= . D = U =
     
.. . . ..  .. .. .. .. .. .. .. .. 
 ..
   
. . .  . . . .   . . . . 
−an1 −an2 . . . 0 0 0 . . . ann 0 0 ... 0

Entonces tenemos que

Ax = b ⇔ (D − L − U)x = b ⇔ (D − L)x = Ux + b

luego
(D − L)x(k) = Ux(k−1) + b
y ası́:
x(k) = (D − L)−1 (U) x(k−1) + (D − L)−1 b
| {z } | {z }
C g

3.3.1 Criterios de Convergencia


El método de Gauss-Seidel converge si satisface:

a) el criterio de Sassenfeld, es decir, si:

max βi < 1
1≤i≤n

donde os βi son calculados por recurrencia atravéz de:


i−1
X n
X .
βi = |aij |βj + |aij | aii
j=1 j=i+1

b) el criterio de las filas,

c) la matriz de los coeficientes es dominante estrictamente diagonal.


3 MÉTODOS ITERATIVOS 16

Ejercicio
Analizar la matriz A del sistema lineal anterior
 
50 1 1
A= 3 4 1 
3 3 6

Observaciones finales:

1. Dado um sistema lineal Ax = b puede pasar que el método de Jacobi resulte convergente
mientras que el de Gauss-Seidel resulte divergente y vice-versa.

2. Si C no es apreciablemente menor que 1 la convergencia puede ser bastante lenta.

3. Una permutación conveniente de las filas o columnas de A antes de dividir cada ecuación por el
coeficiente de la diagonal principal puede reducir el valor de ||C|| .

4. La convergencia para los métodos: Jacobi y Gauss-Seidel no depende del vector inicial x(0) .

También podría gustarte