Está en la página 1de 25

1/10

Capítulo III: Sistemas de Ecuaciones Lineales

Estudiaremos sistemas de ecuaciones de la forma:


a11 x1  a12 x 2    a1n x n  b1
a 21 x1  a 22 x 2    a2n xn  b2
 
a n1 x1  an 2 x2    a nn x n  bn

donde aij, bj son constantes y xj son las incógnitas. Se dice que el sistema tiene n ecuaciones con n
incógnitas o simplemente que es de n  n . En la notación aij, i se refiere a la fila, y j se refiere a la
columna donde está ubicado el elemento correspondiente.
Muchas de las ecuaciones fundamentales en Ingeniería se basan en leyes de conservación (masa,
energía y momentum), que describen el comportamiento del sistema (estímulo respuesta).

III. 1 MATRICES
El sistema de ecuaciones lineales se puede escribir en forma matricial si definimos:
a) La matriz de coeficientes:
a11 a12 .... a1n 
a a .... a2 n 
A   21 22
 
 
an1 an 2 .... ann 

b) La matriz de incógnitas:
 x1 
x 
X   2
... 
 
 xn 
c) La matriz de términos independientes ó de resultados:
b1 
b 
B   2
... 
 
bn 
Entonces el sistema es equivalente a la ecuación matricial: A·X = B

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 1/22
Apuntes facilitados por L Reyes
Repaso de Matrices:
a11 a12 .... a1m 
a a .... a2 m 
A  
 21 22


filas , donde ai,j =(fila, columna)
 
a n1 a n 2 ....

anm 
columnas
La matriz es cuadrada si n = m.
Vector fila = B  b1 b2 .... bm 

c1 
c 
Vector columna = C    2 
 
 
c n 

1. Tipos especiales de matrices cuadradas


Matriz simétrica:
5 1 2
ai,j = aj,i. Ejemplo:  A  1 3 7 
2 7 4 

Matriz Diagonal:
a11 
 a22 
Sólo los ai , j  0;  i  j . Ejemplo:  A   
 
 
 anm 

Matriz Identidad:

1 
 1 
Todos los ai , j  1;  i  j . Ejemplo: I    
 
 
 1

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 2/22
Apuntes facilitados por L Reyes
Matriz Triangular Superior:
a11 a12 .... a1m 
 a .... a2 m 
A   22 
 
 a nm 

Matriz Tridiagonal:
a11 a12 
a a a 
 21 22 23 
A   a32 a33 a34 
 
 
 a nm-1 a nm 

2. Reglas de operaciones con matrices


Dos matrices n  m , son iguales si y sólo si: A  B; si ai , j  bi , j ;  i, j

Para matrices de iguales dimensiones:


Suma: C   A  B  ci , j  ai , j  bi , j . La suma es conmutativa y asociativa.

Diferencia: D  E  F   di , j  ei , j  f i , j

Multiplicación:
 g  a11 g  a12 .... g  a1m 
 g  a g  a .... g  a2 m 
Por un escalar: D   g   A   21 22

 
 
 g  an1 g  an 2 .... g  anm 

Entre matrices: 
C   
A 
B
n j nm m j

Por lo general, la multiplicación de matrices es no conmutativa. Si una matriz A es cuadrada y no

singular 1, existe otra matriz  A , llamada la inversa de A, tal que: A A  A  A  I  .
1 1 1

La matriz transpuesta  A implica transformar las filas en columnas y viceversa.


T

1
Una matriz se dice no singular si detA  0
Capítulo III: Sistemas de Ecuaciones Lineales
Métodos y Análisis Numérico 3/22
Apuntes facilitados por L Reyes
n
La traza de una matriz es la suma de los elementos de su diagonal principal  tr A   ai ,i .
i 1

3. Operaciones Elementales
Para una matriz A se definen tres operaciones elementales por filas (ó columnas); nos remitiremos a las
operaciones por filas. Cuando se efectúan las operaciones elementales se obtiene una matriz
equivalente, y se utiliza el símbolo de equivalencia.
i) Intercambiar dos filas
Ejemplo: Si intercambiamos las filas 1 y 3:

~
ii) Multiplicar una fila por una constante distinta de cero
Ejemplo: Si multiplicamos la fila 3 por 2:

iii) Sumar una fila a otra fila


Ejemplo: Si sumamos la fila 3 a la fila 2:

~
Las operaciones (ii) y (iii) se combinan para sumar un múltiplo de una fila a otra fila.

Ejemplo 1:
(i) Comenzamos con la matriz:

(ii) Multipliquemos la fila 1 por 2:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 4/22
Apuntes facilitados por L Reyes
~
(iii) Sumemos la fila 1 a la fila 2:

~
(iv) Finalmente multiplicamos por 0,5 la fila 1 (lo cual anula el paso (ii)):

~
Finalmente, las operaciones elementales se utilizan para “hacer ceros” debajo de algún elemento
a ij  0
.
Ejemplo 2: Hacer ceros debajo del elemento a11 en la siguiente matriz:

Solución: Podemos partir multiplicando la fila 1 por 2, y sumarla a la fila 2. Tambien podemos
multiplicar la fila 1 por –3, y sumársela a la fila 3:

~
El objetivo final es transformar una matriz A en una matriz escalonada.

Definición: Una matriz se llama escalonada si el primer elemento no cero en cada fila está más a la
derecha que la fila anterior.
Ejemplos:
1) La matriz A, sí es escalonada:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 5/22
Apuntes facilitados por L Reyes
2) La matriz B, no es escalonada:

Obviamente el escalonamiento de una matriz se logra “haciendo ceros” debajo de los elementos
adecuados.

III. 2 ELIMINACIÓN DE GAUSS


En general, los sistemas los escribiremos como:
a11 x1  a12 x2  ....  a1n xn  b1
a21 x1  a22 x2  ....  a2 n xn  b2
...
an1 x1  an 2 x2  ....  ann xn  bn

Solución para pequeños sistemas de ecuaciones ( n  3 )


1. Método Gráfico
Para dos ecuaciones se puede obtener una solución al graficarlas en coordenadas cartesianas (x 1, x2):
  a11 b
 x2  x1  1 (1)
a11 x1  a12 x2  b1   a12 a12

a21 x1  a22 x2  b2    a21 b
x2  x1  2 (2)

 a22 a22

Comparando las ecuaciones (1) y (2):


No hay solución si las rectas son pararlelas.
Hay infinitas soluciones si las rectas coinciden.
Para sistemas mal condicionados ( det A  0 ), el método gráfico no es útil.

2. Determinantes y la Regla de Cramer

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 6/22
Apuntes facilitados por L Reyes
Determinantes:
Para un sistema de 2*2:

A  
a11 a12  a11 a12
  detA   a11  a22  a21  a12
a21 a22  a21 a22

Para un sistema de 3*3:


a11 a12 a13  a11 a12 a13
  a a a a a a
A  a21 a 22 a 23   detA  a21 a 22 a 23  a11  22 23  a12  21 23  a13  21 22
a32 a 33 a31 a 33 a31 a 32
a31 a 32 a 33  a31 a 32 a 33

Regla de Cramer:
Para Un sistema de 3*3, cada xi (i=1,",3), La sOlución se obtiene a partir de:
b1 a12 a13
b2 a 22 a 23
b3 a32 a33
x1 
detA

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 7/22
Apuntes facilitados por L Reyes
pop lo tajto, las incógnit!S de un si3tema de ecuaCiones lifeales se o`tienen cgmo la fracción de 2
determinantes.

3. Elimineción SimPle de Gausc


Este eétodo sibve para resolvez un sistema general de n ecuaciones. La técnica para resolvEr n
ecuaciones #Onshste en " f`ses: la eliminación de las in#ównitas y su sOlución mediante {ustktución
hacaa atòás. Por lo tanto, la eliminación gauss)ana consiste En escAlon!r la matriz Aumeftada`del
sistem! A B 

 
a11 a12 a13 b1  
a21 a 22 a 23 b2  
 
a31 a 32 a 33 b3  
 

  Eliminación hacia adelante

 
a11 a12 a13 b1  
 *
a22 *
a 23 b2*  
 
 **
a33 b3**  
  
x3  b3** a33
**



x 2  b  a  x3 / a
*
2
*
23  *
22  Sustitución hacia atrás
x1  b1  a12  x2  a13  x3  a11 

Con la etapa de eliminación hacia delante se o`tiene una matriz triangular superior. Ena fÓrmUla
'eneral, para kbtener la solución xI ej la etapa de susti4ución hacia atrás, es:
n
bii 1   a
j i 1
i 1
i, j  xj
xi  i 1 ; i  n  1, n  2,.....,1
a i ,i

Conteo de operacion%s:
n la Elhminacmó. de Gauss silple se tiene:
n3
 O n2
3
  
n2
 On  n
2
n3
  O n 2
crece

3
 
  
Eliminación hacia adelante Sustitución hacia atrás

Si n crece, eh tielpo de calculo aument! enormemEnte.


Para hacer más eficientE el método hay que enfocarsE en el paso de eliminación hacia delante.
Capítulo III: Sistemas de Ecuaciones Lineales
Métodos y Análisis Numérico 8/22
Apuntes facilitados por L Reyes
Dificultades de los métodos de eliminación:
1. División entre cero ó con coeficientes cercanos a cero.
2. El error de redondeo baja al utilizar más cifras significativas. Este error es importante
(propagación), cuando el número de ecuaciones es grande (n>100).
3. Los “sistemas mal condicionados” son aquellos donde pequeños cambios en los coeficientes
generan grandes cambios en la solución, o bien, son aquellos donde el determinante es cercano
a cero. Al realizar las operaciones, el elemento máximo de las filas debe ser igual a 1
(escalamiento).
4. En los sistemas singulares, el determinante es cero, por lo tanto, hay ecuaciones dentro del
sistema que son linealmente dependientes (LD).

Técnicas para mejorar las soluciones:


1. Para sistemas mal condicionados, utilizar más cifras significativas.
2. Utilización de pivoteo parcial: Para evitar la normalización por valores cercanos acero (ó cero),
se determina el coeficiente más grande en la columna debajo del elemento pivote y se
intercambian las filas de modo, que el elemento más grande sea el pivote. Esta técnica permite
minimizar el error de redondeo.
3. Escalamiento: Permite estandarizar el tamaño del determinante y minimiza el error de redondeo
en aquellos casos que algunas ecuaciones tengan coeficientes muchos más grandes que otras.

OBS.: El algoritmo completo de eliminación de Gauss debe considerar:


Eliminación hacia delante.
Sustituión hacia atrás.
Pivoteo.

El método de eliminación Gaussiana (simple) puede presentar un problema cuando uno de los
elementos que se usan para hacer ceros, es cero.
Por ejemplo, supóngase que en algún paso del proceso de hacer ceros tenemos la siguiente matriz:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 9/22
Apuntes facilitados por L Reyes
Es claro que el elemento a22 = 0 no puede usarse para hacer ceros.
Este problema se puede resolver fácilmente intercambiando las filas 2 y 3. De hecho, el resultado que
obtenemos es la matriz escalonada:

Sin embargo, el problema puede presentarse también si el elemento aquel es muy cercano a cero.
Los elementos que son cercanos a cero, son elementos malos para hacer ceros. En general, para evitar
este problema se elige como elemento para hacer ceros (el cual recibe el nombre de “elemento pivotal”
ó simplemente “pivote”), como el elemento mayor en valor absoluto de entre todos los candidatos.
A este procedimiento se le llama pivoteo parcial y aplicado a la eliminación Gaussiana, nos dá el
llamado método de eliminación Gaussiana con pivoteo (parcial).

Podemos resumir el pivoteo (parcial) como sigue:


 Para elegir el elemento pivote en la primera columna se escoge el elemento mayor (con valor
absoluto) de toda la primera columna.
 Para elegir el elemento pivote en la segunda columna, se escoge el elemento mayor (con valor
absoluto) de toda la segunda columna exceptuando el elemento a12
 Para la tercera columna se exceptúan los elementos a13 y a23, etc.
En un diagrama matricial, tenemos que los elementos pivotes de cada columna se escogen de entre los
siguientes:
a11 
a a 
 21 22 
a31 a32 a33 
 
... 
a n1 a n 2 a n 3 a nn 

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 10/22
Apuntes facilitados por L Reyes
III. 3 MÉTODO DE GAUSS-JORDAN
La principal diferencia con el método de Gauss, consiste en que cuando una incógnita se elimina, ésta
se elimina de todas las otras ecuaciones.
 
a11 a12 a13 b1 
a21 a 22 a 23 b2 
 
a31 a 32 a 33 b3 
 

 b1n   x1  b1n
1 
 1 b2n    x2  b2n
 
 1 b3n   x3  b3n
  
Este método utiliza las mismas técnicas de eliminación Gaussiana (incluyendo el pivoteo), pero con el
objetivo de finalizar con una matriz de la siguiente forma:}
A B 

I n B' 
donde In es la matriz identidad de n  n .
Para lograr esto, se usa la técnica del pivoteo con la única diferencia que el pivote se usa para hacer
ceros hacia abajo y hacia arriba.

Matriz Inversa
Una de las aplicaciones del método de Gauss-Jordan, es el cálculo de matrices inversas. Recordamos
primero la definición de matriz inversa.

Definición: Sea A una matriz de n  n . La matriz inversa de A es una matriz B de n  n ; tal que:
A·B = In
B·A = In
Se escribe B = A-1 para denotar la matriz inversa. Cuando la matriz inversa existe, es única, pero no
siempre existe la matriz inversa.
Un resultado de algebra lineal prueba que la matriz inversa A-1 existe, si y sólo si, el determinante de A
es distinto de cero.

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 11/22
Apuntes facilitados por L Reyes
El método de Gauss-Jordan sigue el siguiente procedimiento:
A I  n

I n A1 
Es decir, en una matriz comenzamos por escribir la matriz A, y a su derecha agregamos la matriz
identidad In del mismo orden que la matriz A; enseguida aplicamos el método de Gauss-Jordan para
hacer los ceros y unos, y así, obtener del lado izquierdo la matriz identidad In. Del lado derecho,
obtendremos la matriz inversa de A.

Ejemplo: Usar el método de Gauss-Jordan para calcular la matriz inversa de la siguiente matriz:

Solución: En una matriz, colocamos la matriz A y a su derecha agregamos la matriz identidad:

El primer elemento pivote a11 = 4; está bien colocado y procedemos a hacer ceros debajo de este
elemento. Para ello, multiplicamos la fila 1 por -1/4 y lo sumamos a la fila 2. Esto nos da:

Nuestro segundo elemento pivote es a22 = 0,25. Para hacer ceros arriba de este elemento, multiplicamos
la fila 2 por -11/0,25 y lo sumamos a la fila 1. Esto nos da:

Finalmente, hacemos los unos en la diagonal principal. Para ello, multiplicamos la fila 1 por ¼ y la fila
2 por 1/0,25. Esto nos da la matriz final:

Por lo tanto, concluímos que la matriz inversa de A es:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 12/22
Apuntes facilitados por L Reyes
III. 4 DESCOMPOSICIÓN LU
La descomposición LU proporciona un medio eficiente para calcular la inversa. De manera similar a la
eliminacion de Gauss, la descomposición LU requiere de pivoteo para evitar la división entre cero.
Para un sistema de 3*3:
 
A x  b  0
Suponiendo que podemos expresar la ecuación anterior como un sistema triangular superior:
u11 u12 u13   x1  d1 
0 u u    x    d 
 22 23   2   2
0 0 u 33   x3  d 3 
 
U   x  d  0
Si suponemos una matriz diagonal inferior con 1 en su diagonal:
1 0 0 
L  l21 1 0 
l31 l 32 1

L  U   x  d   A  x  b  L  U   A  L  d  b


     

 
Por lo tanto, el método considera 2 pasos:
1. Descomposición LU: [A] se descompone en las matrices triangular inferior [L] y triangular
superior [U].
 
2. Sustitución: [L] y [U] se usan para determinar una solución x para un lado derecho b .

Eliminación de Gauss usando la descomposición LU:


[U] se obtiene directamente de la eliminación hacia delante en el método de Gauss:
 
a11 a12 a13 
U   0 a22* a 23* 
0 0 a33 **

 

[L] se obtiene en la misma etapa, cuando se multiplica por un factor para hacer los ceros debajo de la
diagonal.

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 13/22
Apuntes facilitados por L Reyes
 
1 0 0   f 21  a21 a11

L   f 21 1 0   f 31  a31 a11
 
 f 31 f 32 1  f 32  a32
* *
a22
 

Después de descomponer la matriz [A], se debe obtener x . Esto se hace en dos pasos (para un vector

b , dado):
 i 1
Sustitución hacia delante para obtener d : d i  d i   ai , j  b j ;  i  2,...n
j 1

d
di  a
j i 1
i, j  xj
Sustitución hacia atrás: x n  n ; xi  ;  i  n  1, n  2, ...1
a nn a i ,i

Los pasos requeridos por el método de descomposición LU son:


n3 n

3 3
 n2 n
n3
  O n 2
crece

3
 
 Sustitución
Descomposición

Tarea: Demostrar que el número de operaciones requeridas en este caso, descomposición LU, es
idéntico al método de Gauss.

El método de descomposición LU, se puede resumir de la siguiente forma:

Descomposición Sustitución hacia atrás

a11 a12 a13  1 0 0  d1  c1  u11 u12 u13   x1  d1   x1 


a a a   l 1 0   d   c   0 u u    x   d    x 
 21 22 23   21   2  2  22 23   2   2  2
     
a31 a32 a33  l31 l 32 1 d 3  c3  0 0 u33   x3  d 3   x3 

Sustitución hacia adelante

Normas Vectoriales y Matriciales:


Norma Euclidiana:
n n n
Vectorial: x e   xi2 Matricial: A e   a
i 1 j 1
2
i, j
i 1

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 14/22
Apuntes facilitados por L Reyes
n

  ai , j
Norma columna-suma: A 1  max
1  j  n i 1

  ai , j
Norma fila-suma: A   max
1  i  n j 1

Número de condición de una matriz: CondA  A  A1

III. 5 MÉTODOS ITERATIVOS


Los métodos iterativos constituyen una alternativa a los métodos de eliminación para aproximar la
solución. Son similares a los métodos para obtener f(x)=0. Estos métodos suponen un valor inicial y,
luego, se usa un método sistemático para obtener una aproximación a la raíz.
Existe una amplia variedad de métodos iterativos aplicados a sistemas de ecuaciones lineales. La
mayoría de estos métodos son iteraciones estacionarias del tipo:
x k 1  M  x k  g k  1, 2,....
La matriz M y el vector g son independentes del índice de iteración k. Una condición suficiente para la
convergencia de la ecuación anterior, es que la norma de M sea menor que 1.
 
Para obener un método iterativo, se puede descomponer la matriz A ( A  x  b ), de la siguiente forma:
A  D  L U
D  diagaii 
 aij si i  j
L
0 si i  j
 aij si i  j
U 
0 si i  j

A. MÉTODO DE JACOBI (Desplazamientos Simultáneos)


En éste método se deja la diagonal de la matriz original en el lado izquierdo de la ecuación original, de
modo que:

D  x k 1  L  U   x k  b
n
aii  x k 1
i  a
j 1; j  i
ij  x kj  bi i  1,2,..., n

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 15/22
Apuntes facilitados por L Reyes
Este método iterativo establece que en cada iteración se calculan las nuevas componentes del vector
solución usando la información de las componentes de la etapa anterior.

B. MÉTODO DE GAUSS-SEIDEL (Desplazamientos Sucesivos)


Matricialmente, en este método se pasa sólo la diagonal superior de la matriz A al lado derecho de la
ecuación original, obteniéndose:

D  L   x k 1  U  x k  b
i 1 n
aii  xk 1
i   aij  x k 1
j  a ij  x kj  bi
j 1 j i 1

En este método la componente i-ésima del vector solución en la etapa k+1 se actualiza usando
información de las componentes del vector xk y las nuevas componentes del vector xk+1 hasta la
componente i-1.
Desde otro punto de vista, el método de Gauss-Seidel, es un método “iterativo” y por lo mismo, resulta
ser un método bastante eficiente. Comenzamos con nuestro sistema de ecuaciones:
a11 x1  a12 x2  ....  a1n xn  b1
a21 x1  a22 x2  ....  a2 n xn  b2
...
an1 x1  an 2 x2  ....  ann xn  bn
De la ecuación 1 despejamos x1, de la ecuación 2 despejamos x2, de la ecuación n despejemos xn
Esto nos da el siguiente conjunto de ecuaciones:
b1  a12 x2  ...  a1n xn
x1 
a11
b2  a 21 x1  ...  a 2 n x n
x2 
a 22
...
bn  a n1 x1  ...  a nn1 xn 1
xn 
a nn
Este último conjunto de ecuaciones son las que forman nuestras fórmulas iterativas. Para comenzar el proceso iterativo, le
damos el valor de cero a las variables x2,…, xn; esto nos dará un primer valor para x1.
b1
x1 
a11

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 16/22
Apuntes facilitados por L Reyes
Luego, sustituímos este valor de x1 en la ecuación 2, y las variables x3,…, xn; siguen teniendo el valor
de cero. Esto nos da el siguiente valor para x2:

b 
b2  a21  1 
x2   a11 
a22
Estos últimos valores de x1 y x2; los sustituímos en la ecuación 3, mientras que x4,…, xn; siguen
teniendo el valor de cero; y así sucesivamente hasta llegar a la última ecuación. Todo este paso, nos
arrojará una lista de primeros valores para nuestras incógnitas, la cual conforma nuestro primer paso en
el proceso iterativo. Digamos que tenemos:
x1   1
x2   2
...
xn   n
Volvemos a repetir el proceso, pero ahora sustituyendo estos últimos datos en vez de ceros como al
inicio, obtendremos una segunda lista de valores para cada una de las incógnitas. Digamos que ahora
tenemos:
x1  1
x2   2
...
xn   n
En este momento, podemos calcular los errores aproximados relativos, respecto a cada una de las
incógnitas. Así, tenemos la lista de errores como sigue:

1   1
a ,1   100%
1
2 2
a , 2   100%
2
....
n n
a ,n   100%
n

El proceso se vuelve a repetir hasta que: a, i S ; i  1,2,..., n

donde S es una cota suficiente prefijada.

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 17/22
Apuntes facilitados por L Reyes
OBS.: ¿Siempre el método de Gauss-Seidel converge a la solución del sistema de ecuaciones? Al igual
que otros métodos iterativos, la respuesta es NO.
Un resultado de “Análisis Numérico” nos da una condición suficiente para la convergencia del método.
Teorema. El método de Gauss-Seidel converge a la solución del sistema si se cumple la condición de
que la matriz de coeficientes del sistema sea una matriz “diagonalmente dominante”, es decir, si se
cumple la siguiente condición:

aii   aij , para cada i = 1,2,…, n


j i

La condición de ser una matriz diagonalmente dominante simplemente significa que los elementos de
la diagonal son mayores (en valor absoluto) que la suma de los valores absolutos de los demás
elementos de la misma fila.
Sin embargo, la condición de la matriz diagonalmente dominante, solamente es una condición
suficiente pero no necesaria, es decir, existen sistemas de ecuaciones que no cumplen con la condición
y que si convergen a la solución y también existen sistemas de ecuaciones que no cumplen con la
condición y que no convergen a la solución.
Finalmente, obsérvese que aunque un sistema no cumpla con la condición de ser diagonalmente
dominante, es posible a veces, lograr que si se cumpla con esta condición mediante un intercambio de
filas.

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 18/22
Apuntes facilitados por L Reyes
C. DIFERENCIAS ENTRE LOS MÉTODOS DE JACOBI Y GAUSS-SEIDEL
La principal diferencia entre ambos métodos iterativos que nos permiten resolver sistemas de
ecuaciones algebraicas lineales, se establece en el siguiente esquema:

Primera Iteración
b1  a12 x2  a13 x3 b1  a12 x2  a13 x3
x1  x1 
a11 a11

b2  a 21 x1  a 23 x3 b2  a 21 x1  a 23 x3
x2  x2 
a 22 a 22

b3  a31 x1  a32 x2 b3  a31 x1  a32 x2


x3  x3 
a33 a33
Segunda Iteración
b1  a12 x2  a13 x3 b1  a12 x2  a13 x3
x1  x1 
a11 a11

b2  a 21 x1  a 23 x3 b2  a 21 x1  a 23 x3
x2  x2 
a 22 a 22

b3  a31 x1  a32 x2 b3  a31 x1  a32 x2


x3  x3 
a33 a33

D. MÉTODO DE RELAJACIONES SUCESIVAS


En éste método se puede usar cualquier esquema iterativo (por ejemplo, Jacobi, Gauss-Seidel, entre
otros), y luego se acelera la convergencia usando un parámetro de relajación w.

x k 1  x k  w  x k 1  x k 
Si w >1 se habla de sobrerrelajación, y si w <1 se habla de subrrelajación.
OBS.:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 19/22
Apuntes facilitados por L Reyes
a) Los métodos de Jacobi y Gauss-Seidel son útiles solamente cuando uno de los coeficientes es
mucho mayor que los otros en cada ecuación. Así, el sistema se puede reordenar para generar una
matriz con diagonal dominante ( aii   aij ; i  1,2,.., n ), lo que garantiza la convergencia de
j i

ambos métodos.
b) Rapidez de convergencia: Jacobi < Gauss-Seidel < Relajaciones.
T  
c) Si 0 < w < 2 y A es definida positiva ( x  A x  0 , para todo vector x  0 ), el método de
relajaciones sucesivas converge.
d) Si 0 < w < 1 y A es diagonal dominante, el método de relajaciones sucesivas converge.

III. 6 Problemas Propuestos


Hint: En todos los ejercicios utilice, al menos, cinco decimales.
1. Con el método de Gauss con pivoteo, resuelva el siguiente sistema:
5 x1  8 x 2  x3  71
 2 x1  6 x2  9 x3  134
3 x1  5 x 2  2 x3  58
2. Con el método de Gauss con pivoteo, resuelva el siguiente sistema:
3x1  x2  x4  2,3
4 x1  2 x2  x3  5 x4  6,9
 5 x1  4 x2  3x3  16,8
10x2  4 x3  7 x4  36
3. Usando el método de Gauss-Jordan, resuelva el siguiente sistema:
2 x1  0,9 x2  3 x3  3,61
 0,5 x1  0,1x2  x3  2,035
x1  6,35x2  0,45x3  15,401
4. Usando el método de Gauss-Jordan, resuelva el siguiente sistema:
0,7 x1  2,7 x2  6 x3  0,7 x4  1,6487
2 x1  0,8 x2  3x3  x4  2,342
 x1  1,5 x2  1,4 x3  3x 4  4,189
7 x2  1,56x3  5 x4  15,792
5. Calcula la matriz inversa de las siguientes matrices usando el método de Gauss-Jordan:

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 20/22
Apuntes facilitados por L Reyes
6. Con el método de Gauss-Seidel, utilizando a  1% , aproxime la solución del siguiente sistema

de ecuaciones:
3 x1  0,5 x2  0,6 x3  5,24
0,3 x1  4 x2  x3  0,387
 0,7 x1  2 x2  7 x3  14,803

7. Con el método de Gauss-Seidel, utilizando a  1% , aproxime la solución del siguiente sistema

de ecuaciones:
5 x1  0,2 x 2  x3  1,5
0,1x1  3 x 2  0,5 x3  2,7
 0,3 x1  x 2  7 x3  9,5
Problemas Adicionales:
3x1  2 x2  18
a) Con el método gráfico resuelva:
 x1  2 x2  2
b) Utilice la regla de Cramer para resolver:
0,3 x1  0,52 x2  x3  0, 01
0,5 x1  x2  1,9 x3  0, 67
0,1x1  0,3 x2  0,5 x3  0, 44
c) Emplee la eliminación de Gauss simple para resolver el sistema. Efectué los cálculos con seis
cifras significativas.
3 x1  0,1x2  0, 2 x3  7,85
0,1x1  7 x2  0,3 x3  19,3
0,3 x1  0, 2 x2  10 x3  71, 4
Sistemas mal condicionados:

x1  2 x2  10
d) Resuelva el siguiente sistema:
1,1x1  2 x2  10,4
Después, resuélvalo de nuevo, pero con el coeficiente x1 de la segunda ecuación modificado
ligeramente como 1,05. Analice sus resultados.

Pivoteo Parcial:
Capítulo III: Sistemas de Ecuaciones Lineales
Métodos y Análisis Numérico 21/22
Apuntes facilitados por L Reyes
0, 0003 x1  3 x2  2, 0001
e) Emplee la eliminación de Gauss simple para resolver:
x1  x2  1
Como de esta forma el elemento pivote, a11 = 0,0003, es muy cercano a cero, entonces, realice un
nuevo cálculo, pero ahora considerando pivoteo parcial, invirtiendo el orden de las ecuaciones. La
solución exacta es x1 = 1/3 y x2 = 2/3.

Efecto del escalamiento sobre el pivoteo y el redondeo:

2 x1  100000 x2  100000
f) Para el siguiente set de ecuaciones:
x1  x2  2
 Resuelva el siguiente sistema de ecuaciones usando la eliminación de Gauss y una estrategia de
pivoteo:
 Repita el problema después de escalar las ecuaciones de tal forma que el coeficiente máximo de
cada fila sea 1.

Descomposición LU con eliminación de Gauss:

g) Para el sistema propuesto en (c):


 Obtenga una descomposición LU basándose en la eliminación de Gauss simple.
 Determine la solución final con eliminación hacia delante y sustitución hacia atrás.

h) Dado el sistema:
12 x1  x2  x3  20
2 x1  4 x2  2 x3  10
x1  2 x2  2 x3  25

i. Resuelva por el método de eliminación de Gauss simple y muestre todos los pasos de los cálculos.
ii. Sustituya los resultados en las ecuaciones originales y compruebe las respuestas.

i) Utilice el método de Gauss-Jordan para resolver:


2 x1  x2  x3  1
5 x1  2 x2  2 x3  4
3 x1  x2  x3  5

j) Resolver los sistemas lineales y compare sus resultado con el valor real.

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 22/22
Apuntes facilitados por L Reyes
3, 03 x1  12,1x2  14 x3  119
58,9 x1  0, 03x2  59, 2 3, 03 x1  12,1x2  7 x3  120
a) 6,10 x1  5,31x2  47 b) 6,11x1  14, 2 x2  21x3  139
Solución Real (1,10) 1
Solución Real (0,10, )
7

3,3330 x1  15920 x2  10,333x3  7953


2, 2220 x1  16, 710 x2  9, 6120 x3  0,965
c)
1,5611x1  5,1792 x2  1, 6855 x3  2, 714
Solución Real (1,0.5,-1)

Métodos Iterativos: Método de Jacobi y Gauss-Seidel

k) Use el método de Jacobi y Gauss-Seidel para resolver el siguiente sistema de ecuaciones:

8 x1  x2  x3  9
 x1  7 x2  2 x3  7
x1  x2  10 x3  4
En ambos casos, use como punto de partida: x0  1,1,0.4
T

l) Use el método de Gauss-Seidel para obtener la solución del sistema:

3 x1  0,1x2  0, 2 x3  7,85
0,1x1  7 x2  0,3 x3  19,3
0,3 x1  0, 2 x2  10 x3  71, 4
Suponga que inicialmente: x2 = x3 = 0. Determine el error generado, si la solución verdadera es x1=3; x2
= -2,5 y x3 = 7.

m) Determinar un valor aproximado de la solución del sistema:


9 x1  2 x2  5
2 x1  4 x2  x3  1
 x2  x3   5
6
Considerando cuatro cifras significativas, partiendo con x0  0,0,0 y aplicando tres veces:
T

i. El método de Jacobi.
ii. El método de Gauss-Seidel.
iii. El método de relajación c

Capítulo III: Sistemas de Ecuaciones Lineales


Métodos y Análisis Numérico 23/22
Apuntes facilitados por L Reyes

También podría gustarte