Está en la página 1de 14

Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

TEMA 4: RESOLUCIÓN DE SISTEMAS DE ECUACIONES


LINEALES Y NO LINEALES. MÉTODOS ITERATIVOS.

4.1.- NORMAS VECTORIALES Y MATRICIALES


Tanto en el estudio del condicionamiento de un sistema de ecuaciones lineales
cuando se resuelve mediante métodos directos, como en el estudio de la convergencia de
los métodos iterativos para la resolución de sistemas lineales, es necesario el concepto de
norma de una matriz.
Del mismo modo, cuando se construye una sucesión de vectores aproximación de
la solución de un sistema lineal, para estudiar la convergencia interesa medir la distancia
entre las dos últimas aproximaciones, y para medir esta distancia es necesario utilizar el
concepto de norma de un vector.
Norma vectorial. Este concepto se presenta en Álgebra y ya es conocido. Se pueden
definir distintas normas en un espacio vectorial de dimensión n. Las más utilizadas son:

x 1   xi
n

i 1

x
n
x2 i
2
(norma euclídea)
i 1

x 
 max xi
1i  n
m r (norma del máximo)

Esta última es la que más se utiliza al estudiar una sucesión de vectores.


Radio espectral de una matriz cuadrada A: se representa (A) y se define como
(A) = max{| i |}
donde i son los autovalores de A.
Norma matricial. Este concepto consiste en generalizar el correspondiente a las normas
vectoriales. Considerando el espacio vectorial de las matrices cuadradas, tratamos de
asignar a cada matriz A un valor real y positivo que se representa como ||A||. Del mismo
modo que en el caso anterior, se pueden definir diferentes normas. Las más utilizadas son
las relacionadas con las normas vectoriales comentadas anteriormente y en especial por
su sencillez, ||·||1 y ||·||.
Se define la norma natural de una matriz A asociada a una norma vectorial como:
A  max A  x
x 1

Se puede demostrar que:

A 1  max
RS a UV
n
1)
j 1,...,n
T W
i 1
ij

2) A 2   ( A  At )

3) A   max
RS a UV
n

i 1,...,n
T W
j 1
ij

39
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

La primera significa en términos sencillos que nos quedamos con la columna cuyos
elementos en valor absoluto tienen la mayor suma. La última es lo mismo, pero con las
filas.
Además se puede demostrar que para cualquier norma natural de A se verifica:
 ( A)  A

4.2.- SISTEMAS MAL CONDICIONADOS Y NÚMERO DE CONDICIÓN


Tal y como se indicó en el tema anterior algunos sistemas son muy sensibles a los
errores de redondeo y el vector solución puede ser bastante inexacto. En este caso se
dice que el sistema es inestable o que está mal condicionado. En este tipo de sistemas lo
que suele ocurrir es que pequeños cambios en los coeficientes o en los términos
independientes dan lugar a cambios apreciables en la solución.
Cuando la solución obtenida está afectada por los errores de redondeo no es
exacta. Sea x la solución exacta y x , la solución aproximada (debido a los errores de
redondeo). Para medir el error resultante se define el residuo del vector solución.

Definición. Residuo y residuo relativo del vector solución.


Sea el sistema A x  b , y x el vector solución aproximada , entonces el residuo de
dicho vector solución es :
r  b  A  x
Para medir el residuo del vector solución se utilizará la norma del mismo.
El residuo relativo se define como el cociente de la norma del residuo entre la norma
del vector de términos independientes:
r
residuo relativo 
b
Una característica de los sistemas mal condicionados es que una solución muy
diferente de la exacta puede dar lugar a un residuo pequeño. Sea e  x  x . En un
sistema mal condicionado puede ocurrir que la norma de r no sea una buena medida de
la norma de e. Esto se puede comprobar en el siguiente ejemplo en el que, para poder ver
mejor el efecto del error de redondeo, se han realizado los cálculos con redondeo a tres
cifras significativas.
Ejemplo 1:
Sea el sistema A x  b , donde

 3.02 1.05 2.53   1.61 


A   4.33 0.56 1.78  , b   7.23 
   
 0.83 0.54 1.47   3.38 
   
La solución exacta es:
 1
x  2
 
 1 
 
Tomando como solución aproximada un vector claramente erróneo :

40
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

 0.880 
x   2.34 

 
 2.66 
 
Los vectores error y residuo y sus normas, eligiendo la norma del máximo, son:
 0.12   0.0148 
e  4.34  e  4.34 y r   0.0048   r  0.0148
 
   
 1.66   0.0030 
   
Definición. Número de condición.
El número de condición de una matriz A se define como :
K ( A)  A  A1
y sirve para tener una medida del condicionamiento de una matriz.
Su cálculo supone muchas operaciones, y además, como para obtener A-1 es
necesario resolver n sistemas lineales, dicha matriz inversa puede ser bastante inexacta, y
por lo tanto, el número de condición tampoco será muy preciso. Sin embargo, esto no
importa, ya que para poder decir que la matriz está mal condicionada basta con ver si el
número de condición es grande o no. Un número de condición mucho mayor que la
unidad indica que la matriz está mal condicionada. La matriz unidad tiene como número
de condición la unidad.
Cuando una matriz está mal condicionada los elementos de A-1 son grandes en
comparación con los de A, pero esto también puede suceder, aunque A no esté mal
condicionada, por ejemplo, si los elementos de A son pequeños. Por este motivo, en el
cálculo del número de condición, se normaliza multiplicando las normas de A y de su
inversa.
Teorema ( Error relativo )
Definiendo el error relativo de la solución de un sistema lineal como:
e
error relativo 
x

dicho error está acotado por el número de condición de la matriz multiplicado por el
residuo relativo.
Demostración:
 
r  b  A  x  A  x  A  x  A  x  x  A  e 
e  A1  r  e  A1  r (1)
A
A x  b  b  A x  
1
(2)
x b
Multiplicando término a término las desigualdades (1) y (2) se obtiene:
e r
 A  A 1 
x b
e r
es decir, que el error relativo está acotado por K(A)  .
x b
Del mismo modo se puede demostrar que

41
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

e r
 
1
x A  A 1 b
En resumen, el error relativo puede ser tan pequeño como el residuo relativo
dividido por el número de condición y tan grande como el residuo relativo multiplicado
por el número de condición. Si K(A) es grande el residuo relativo no se puede utilizar
para estimar el error relativo, mientras que un número de condición próximo a la unidad
es una buena medida del error relativo.

4.3.- MÉTODOS ITERATIVOS PARA SISTEMAS LINEALES

4.3.1.- Métodos de iteración de Jacobi y de Gauss-Seidel


Ejemplo 2.
Consideremos el sistema de ecuaciones
4x  y  z  7
4 x  8 y  z  21
2 x  y  5 z  7
Estas ecuaciones se pueden escribir como
7 yz 21  4 x  z 7  2x  y
x ; y ; z
4 8 5
lo que sugiere el siguiente proceso iterativo:
7  y(k )  z(k ) 21  4 x ( k )  z ( k ) 7  2 x ( k )  y (k )
x ( k 1)  ; y ( k 1)  ; z ( k 1) 
4 8 5
Si empezamos con P(0) = (x(0), y(0), z(0)) = (1, 2, 2), entonces la iteración parece converger a
la solución (2, 4, 3). En efecto, sustituyendo x(0) = 1, y(0) = 2 y z(0) = 2 en el miembro derecho de la
relación obtenemos:
722 21  4  2 722
x (1)   1.75 ; y (1)   3.375 ; z (1)   3.80
4 8 5
El nuevo punto P(1) = (1.75, 3.375, 3.00) está más cerca de (2, 4, 3) que P(0).
Este proceso se conoce como método de iteración de Jacobi y puede usarse para
resolver algunos tipos de sistemas de ecuaciones lineales.
En la resolución numérica de ecuaciones en derivadas parciales suelen aparecer
sistemas de ecuaciones lineales con incluso 100 000 incógnitas; en estos sistemas la
matriz de los coeficientes es dispersa, es decir, un alto porcentaje de los elementos de la
matriz son iguales a cero. Si hay algún tipo de patrón en la distribución de los elementos
distintos de cero (ejemplo: los sistemas tridiagonales), entonces un método iterativo
puede resultar muy eficaz en la resolución de estos sistemas tan enormes.
Finalmente conviene señalar que en algunas ocasiones el método iterativo de
Jacobi no funciona.
Algunas veces podemos acelerar la convergencia. Puesto que x(k+1) es,
probablemente, mejor aproximación al límite que x(k), sería razonable usar x(k+1) en vez de

42
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

x(k) a la hora de calcular y(k+1) y, de forma semejante, sería mejor usar x(k+1) e y(k+1) en el
cálculo de z(k+1).

Ejemplo 3.
Consideremos el siguiente proceso iterativo para el mismo sistema de ecuaciones:
7  y(k )  z( k ) 21  4 x ( k 1)  z ( k ) 7  2 x ( k 1)  y ( k 1)
x ( k 1)
 ; y ( k 1)
 ; z ( k 1)

4 8 5
A este proceso iterativo se conoce como método de Gauss-Seidel.
Sustituyendo y(0) = 2 y z(0) = 2 en la primera ecuación obtenemos:
722
x (1)   175
.
4
Sustituyendo ahora x(1) = 1.75 y z(0) = 2 en la segunda obtenemos:
21  4 (1.75)  2
y (1)   3.75
8
Finalmente, sustituyendo x(1) = 1.75 e y(1) = 3.75 en la tercera:
7  2(1.75)  3.75
z (1)   2.95
5
Del mismo modo para calcular x(2) se utilizarán y(1) y z(1); para calcular y(2) se usarán x(2) y
z(1); para calcular z(2) se usarán x(2) e y(2); y así sucesivamente.
Vamos a considerar ahora los procesos iterativos de Jacobi y Gauss-Seidel con
mayor generalidad. Supongamos que tenemos un sistema de n ecuaciones lineales
a11 x1  a12 x2    a1 j x j    a1 N x N  b1
a21 x1  a22 x2    a2 j x j    a2 N x N  b2
    
a j 1 x1  a j 2 x2    a jj x j    a jN x N  b j
    
a N 1 x1  a N 2 x2    a Nj x j    a NN x N  bN
Sea Pk = (x1(k), x2(k), ..., xj(k), ..., xN(k)) el vector que aproxima la solución en la etapa k,
de manera que en la siguiente etapa se obtendrá Pk+1 = (x1(k+1), x2(k+1), ..., xj(k+1), ..., xN(k+1)).
El superíndice (k) de las coordenadas de Pk nos permite identificar la etapa a la que
pertenece el vector de soluciones aproximadas. Las fórmulas de iteración usan la fila
j-ésima para despejar xj(k+1) como una combinación lineal de los valores previamente
obtenidos:
Método iterativo de Jacobi:
N
bi   ai , j x j
(k)

bi  ai ,1 x1( k )    ai ,i 1 xi(k1)  ai ,i 1 xi(k1)    ai , N x N( k ) j 1


x  
( k 1) ji

ai ,i ai ,i
i

para i = 1, 2, ..., N.

43
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

En el método iterativo de Jacobi se usan todos los valores aproximados de la etapa


anterior en la obtención de los nuevos valores aproximados, mientras que en el método
iterativo de Gauss-Seidel se emplean las últimas aproximaciones obtenidas conforme se
van generando:
Método iterativo de Gauss-Seidel:
b  ai ,1 x1( k 1)    ai ,i 1 xi(k11)  ai ,i 1 xi(k1)    ai , N x (Nk )
xi( k 1)  i 
ai ,i

bi   ai , j x j a
i 1 N
 xj
( k 1) (k )
i, j

 (i  1, 2, ..., N )
j 1 j  i 1

ai ,i

4.4.- CONVERGENCIA DE LOS MÉTODOS ITERATIVOS


Al utilizar un método iterativo para resolver un sistema de ecuaciones lineales
conviene tener en cuenta los siguientes aspectos:
- El error de redondeo producido en cada iteración no tiene tanta importancia como
en los métodos directos: importa más el error de truncamiento del propio método.
- Los métodos iterativos son apropiados para resolver sistemas grandes pero en los
que la matriz de coeficientes es dispersa.
- No se pretende obtener la solución exacta (en teoría sería necesario realizar
infinitas iteraciones) sino una solución aproximada.
- El criterio de parada es que la distancia absoluta o relativa entre los resultados
obtenidos en las dos últimas iteraciones sea suficientemente pequeña. Para
cuantificar esta distancia se utiliza la norma vectorial de su diferencia
x ( k 1)  x ( k ) .

Con esta definición de la distancia entre dos vectores, el criterio de parada se


puede representar en términos de:
x x 
( k +1) (k)
el error absoluto: 

x x
( k +1) (k)

el error relativo: 

x
( k +1)

Volviendo a la convergencia de los métodos iterativos, la mayoría de ellos


involucran un proceso que convierte un sistema A x = b en un sistema equivalente de la
forma x = T x + c. Elegido el vector x(0), la sucesión {x(k)} de vectores de soluciones
aproximadas se genera calculando
x(k+1) = T x(k) + c
A la matriz T se la denomina matriz de paso, y a c vector corrector. La sucesión
que se va construyendo es:

44
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

x ( 0) (aproximación inicial)
x  Tx c
(1) ( 0)

x
( 2)
 Tx
(1)
d  ci  c  T x  bT  I gc
 c  T Tx
( 0) 2 ( 0)

x  Tx  c  T dT x  b T  I gci  c  T x  cT h
T  I c
( 3) (2) 2 ( 0) 3 ( 0) 2


Para que la sucesión {x(k)} converja será necesario que exista el límite
lim T k 1 x
k 
( 0)
c
 T k  T k 1    T  I c h
Este límite va a depender de la aproximación inicial x(0), que interesa que sea
suficientemente próxima a la solución exacta, y de la matriz T. La suma
(Tk + Tk-1 + ··· + T + I) converge a (I-T)-1 si y sólo si el radio espectral de la matriz T es
menor que 1: (T) < 1. Basta por lo tanto que alguna norma natural de la matriz T que se
tome sea menor que uno para asegurar que (T) < 1 y que el método converge.
Matriz de paso de los métodos de Jacobi y Gauss-Seidel
a11 a12  a 1n LM OP
a 21 a 22  a 2 n MM PP
Sea A
MNa n1 a n 2  a nn
PQ
la matriz de los coeficientes del sistema lineal A x = b.
Se definen a partir de A las matrices:

LMa 11 0  0 OP LM 0 0  0 OP LM0 a12  a1n OP


a22  a 0  a 2 n
DM PP , LM PP , U M PP
0 0 0  0 0
MM MM MM
21

N0 0  ann
PQ Na n1  an 2  0Q
P N0 0  0
PQ
con lo que el sistema A x = b se puede expresar como (D – L – U) x = b, o lo que es igual:
b g
Dx  L  U x  b  x  D 1 L  U x  D 1 b b g
Entonces la iteración de Jacobi se puede escribir:
x
( k 1)
 D 1 L  U x b g (k )
 D 1 b
y por tanto la matriz de paso y el vector corrector en el método de Jacobi son:
T  D 1 L  U ; c  D 1 b b g
La iteración de Gauss-Seidel, del mismo modo, se puede obtener como:
x
( k 1)
 D Lb g 1
Ux
(k)
b
 D L g 1
b
La matriz de paso y el vector corrector en el método de Gauss-Seidel son:
T  D L b g 1
U ; c  D L b g 1
b
Definición: Se dice que una matriz A de orden n es estrictamente diagonal dominante
si:

45
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

n
a kk   a kj ( k  1, 2, ..., n)
j 1
jk

Se puede demostrar que:


- Si en el sistema de ecuaciones lineales A x = b la matriz A es estrictamente diagonal
dominante, entonces para cualquier aproximación inicial, los métodos de Jacobi y de
Gauss-Seidel son convergentes.
Teniendo esto en cuenta, en muchas ocasiones, para obtener la convergencia
bastará con reordenar el sistema colocando en la diagonal principal los coeficientes de
mayor valor absoluto.
- El método de Gauss-Seidel también converge cuando la matriz A es definida positiva.
En general el método de Gauss-Seidel converge más rápidamente que el de Jacobi.

4.5.- MÉTODOS ITERATIVOS PARA SISTEMAS NO LINEALES. CONCEPTOS PREVIOS.


Para resolver sistemas de ecuaciones no lineales es preciso trabajar con funciones
de varias variables, y hay que usar las derivadas parciales y la matriz jacobiana.

Sea el sistema no lineal:


RS
f1 ( x , y )  0
T
f 2 ( x, y)  0
Definición. (Matriz jacobiana). Sean f1(x,y) y f2(x,y) funciones de dos variables
independientes x e y. Entonces su matriz jacobiana J(x,y) es:
LM
f 1 f 1 OP
x y
J ( x, y)  MM
f 2 f 2
PP
x y MN PQ
4.5.1.- La diferencial
Cuando tenemos una función de varias variables, la diferencial es una magnitud que
podemos usar para mostrar cómo afectan los cambios de las variables independientes a
las variables dependientes. Consideremos las funciones:
u = f1(x,y,z), v = f2(x,y,z) y w = f3(x,y,z)
Supongamos que los valores de las funciones anteriores se conocen en el punto
(x0,y0,z0) y que queremos estimar sus valores en un punto cercano (x,y,z). Si denotamos
por du, dv y dw los cambios diferenciales en las variables dependientes y por dx, dy y dz
los cambios diferenciales en las variables independientes, entonces estos cambios se
pueden expresar:

46
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

f 1 f f
du  ( x0 , y0 , z0 )dx  1 ( x0 , y0 , z0 )dy  1 ( x 0 , y0 , z0 )dz
x y z
f f f
dv  2 ( x0 , y0 , z0 )dx  2 ( x 0 , y 0 , z0 )dy  2 ( x 0 , y0 , z0 )dz
x y z
f f f
dw  3 ( x0 , y0 , z0 )dx  3 ( x0 , y 0 , z0 )dy  3 ( x 0 , y0 , z0 )dz
x y z
Usando notación vectorial, puede escribirse de forma más compacta utilizando la
matriz jacobiana. Si representamos du, dv y dw mediante la función vectorial dF y las
diferenciales dx, dy y dz por dX, entonces:
LM OP
du dx LM OP
dF  dv  J ( x , y , z ) dy  J ( x , y , z ) dX
MM PP 0 MM PP
0 0 0 0 0

N Q
dw Ndz Q
4.6.- EL MÉTODO DE NEWTON-RAPHSON PARA SISTEMAS NO LINEALES
Vamos a construir el método de Newton-Raphson en el caso bidimensional. Esta
construcción se generaliza fácilmente a dimensiones mayores.
u  f1 ( x , y )
Consideremos el sistema:
v  f 2 ( x, y)
que puede interpretarse como una transformación del plano XOY en el plano UOV. Si
estamos interesados en el comportamiento de esta transformación cerca del punto (x0,y0),
cuya imagen es el punto (u0,v0), y si las dos funciones tienen derivadas parciales
continuas, entonces podemos usar la diferencial del sistema para escribir un sistema de
aproximaciones incrementales lineales válidas cerca del punto (x0,y0) en cuestión:
f f
b g
u  u0  1 ( x0 , y0 ) x  x0  1 ( x0 , y0 ) y  y0
x y
b g
f f
b g
v  v 0  2 ( x 0 , y0 ) x  x 0  2 ( x 0 , y0 ) y  y 0
x y
b g
El sistema anterior es una aproximación lineal local que nos da una idea del efecto
que pequeños cambios en las variables independientes producen en las variables
dependientes. Si usamos la matriz jacobiana J(x0,y0), esta relación se escribe de forma
más cómoda como:
LM
f 1
( x0 , y0 )
f 1
( x0 , y0 )
OP
LM
u  u0

OP M
x y x  x0
PP LMN OP
 J ( x0 , y0 )
x  x0 LM OP
N
v  v0 f 2
Q MM f 2 Q N Q
( x0 , y0 ) ( x0 , y0 ) y  y0 y  y0
x N y PQ
Usaremos esta aproximación para desarrollar el método de Newton bidimensional.
Consideremos el sistema de ecuaciones que resulta de igualar u y v a cero en:
0  f1 ( x, y)
0  f 2 ( x, y)

47
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

Supongamos que (p,q) es una solución de este sistema, es decir, 0  f1 ( p, q ) , y


0  f 2 ( p, q) . Si consideramos pequeños cambios de las funciones cerca de un punto
inicial (p0,q0) próximo a la solución (p,q):
u  u  u0 ; p  x  p0
v  v  v0 ; q  y  q0
u  u0  f1 ( p, q )  f1 ( p0 , q0 )  0  f 1 ( p0 , q0 )
entonces
v  v0  f 2 ( p, q )  f 2 ( p0 , q0 )  0  f 2 ( p0 , q0 )
Expresando en forma matricial el sistema lineal cuyas incógnitas son p y q:
LM
f 1
( p0 , q0 )
f 1
( p0 , q0 )
OP
x
MM
f 2
y
f 2
p
 PP LMN OPQ LMN
f 1 ( p0 , q0 ) OP
Q
( p0 , q0 ) ( p0 , q0 ) q f 2 ( p0 , q0 )
x MN y PQ
Si la matriz jacobiana J(p0,q0) es invertible, entonces podemos despejar
t t
P  p q = p q  p0 q 0
t

de manera que P   J ( p0 , q0 ) 1 F ( p0 , q0 )
Esto nos proporciona la siguiente aproximación P1 a la solución P = [p q]:
P1  P0  P  P0  J ( p0 , q0 ) 1 F ( p0 , q0 )
Hagamos notar que la fórmula anterior es la generalización de la fórmula de
iteración del método de Newton-Raphson para funciones de una variable que, como
vimos, es:
p1  p0  f ( p0 ) f  ( p0 )

4.6.1.- Esquema del método de Newton-Raphson


Supongamos que hemos obtenido Pk.
Paso 1. Evaluamos la función

F ( Pk ) 
LM f ( p , q ) OP
1 k k

N f ( p , q )Q
2 k k

Paso 2. Evaluamos la matriz jacobiana


f 1 LM
( pk , qk )
f 1
( pk , qk )
OP
x y
J ( Pk ) 
f 2
MM f 2
PP
( pk , qk ) ( pk , q k )
x MN y PQ
Paso 3. Calculamos P resolviendo el sistema lineal:
J ( Pk ) p   F ( Pk )
Paso 4. Calculamos el siguiente punto:
Pk 1  Pk  P
Y se repite el proceso.

48
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

4.7.- TEMA 4. EJERCICIOS.


1.— Resolver los siguientes sistemas utilizando el método de Jacobi
a) R|
 x  11y  z  3t  25 0 FI
|S
2 x  y  10z  t  11 GG JJ
  10 3
0
x 
( 0)

10 x  y  2 z
||  6
;
0
;
GG JJ
T 3 y  z  8t  15 0 HK
Sol. 10 iter. x=1.00012, y=1.99977, z=-0.99983, t=0.99979
b) R| 4 y  2z  2 0 FI
S|4 x  2 y  10z  6 ; x  0 ;
( 0) GG JJ
  101
T5 x  4y  5 0 HK
Sol. 5 iter. x=0.670, y=0.362, z=0.226
c) 4x  2y  z  11 1

 x  2y  x   1  ;   10 1
(0)
 
3;
2x  y  4z  16 1
  
Sol. 5 iter. x=1.01367, y=2.01593, z=2.99609
2.— Realizar 5 iteraciones del método de Jacobi para:
R|
2 x 5 y 5z  12
S|
5 x 2 y 5z  12
T
5 x 5 y 2 z  12
¿Es convergente? Justificar la respuesta.
Sol. x=3126, y=3126, z=3126. No.
3.— Realizar 5 iteraciones para resolver los siguientes sistemas mediante el método de
Gauss-Seidel , considerando como vector inicial el vector nulo. Indicar el error absoluto
y relativo:
a)
R|
4x  y  2
b) 2x R|
 y 10z t  11

S|
 x 4 y  z  6
3y |S  z 8t  15
10 x  y ||2 z  6
T  y 4 z  2
 x 11y  z 3t  25
T
Sol. a) x=0.99982, y=1.99991, z=0.99998; ea=0.00128;er=0.00064
b) x=1.00009, y=2.00002, z=-1.00003, t=0.99999; ea=0.00077, er=0.000385
4.— a) Resolver el siguiente sistema por el método de eliminación gaussiana:
R|
2 x  y 1
x |S2 y  z 0
|| y 2 z t  0
T z 2t  0
b) Realizar 4 etapas del método de Gauss-Seidel partiendo de los valores iniciales

49
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

x
( 0)
b
 0.7, 0.5, 0.3, 0.1 g t

Sol. a) x=-4/5, y=-3/5, z=-2/5, t=-1/5


b) x= -0.67422, y=-0.43555, z=-0.26699, t=-0.13350
5.— Realizar 4 iteraciones del método de Gauss-Seidel, redondeando los cálculos a
cuatro cifras decimales, para resolver el sistema
R|
0.1x 7 y 0.3z  19.3 0 FI
S| 3x 0.1 y 0.2 z  x  G 0J
GH 0JK
( 0)
7.85 con
T0.3x 0.2 y 10 z  71.4
Sol. x= 3.0000, y=-2.5000, z=7.0000
6.— Realizar cuatro iteraciones del método de Gauss-Seidel para resolver el sistema
R|
1.78 x 3.01y 4.88z   7.70 0.71 F I
S|
4.63x 106 . y 2.27 z   6.36 con x  0.2
( 0) GG JJ
T
3.39 x 9.81y 4.78z  3.95 3.2 H K
Sol. x=0.598090, y=2.099027, z=3.090711
7.— Resolver el siguiente sistema mediante el método de Jacobi, con precisión 10-3:
R|
10 x  y  z  12
S|
x  10 y  z  12
x  T y  10 z  12
Sol. 6 iter.;x=0.999936, y=0.999936, z=0.999936
8.— Dado el sistema
R|x  z  1
S| 4y  2
Tx  4z  4
estudiar la convergencia del método de Gauss-Seidel. Utilizándolo, calcular el resultado
t
obtenido después de la segunda etapa de iteración partiendo del vector x ( 0 )  1, 0, 0 . b g
Sol. x=0.25, y=0.5, z=0.9375
9.— Dado el sistema no lineal
R|S4 x  y  1  0
2 2

|T2 x  x  y  3  0
2 2

utilizar la aproximación inicial (p0,q0) = (1.2, 2.0) para calcular las tres primeras
iteraciones del método de Newton-Raphson.
Sol. x=1.11652, y=1.99661
10.— Dado el sistema no lineal
R|x  y  x  3x  3x 3 2

|S 7
|| y  y  2 y  x  2
2

T 2

50
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

utilizar la aproximación inicial (p0,q0) = (0.3, –1.3) para calcular las tres primeras
iteraciones del método de Newton-Raphson.
Sol. x=-0.270802, y=-1.31506

R|Sx 2
 y  0.2  0
11.— Dado el sistema no lineal
|T y 2
 x  0.3  0
calcular las tres primeras iteraciones del método de Newton-Raphson
a) partiendo de (p0,q0) = (1.2, 1.2)
b) partiendo de (p0,q0) = (–0.2, –0.2)
Sol. a) 3 iter.; x=1.19231, y=1.2216
b) ) 3 iter.; x=-0.286032, y=-0.118186

51
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.

TEMA 4: RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES Y NO LINEALES.


MÉTODOS ITERATIVOS. 39
4.1.- Normas vectoriales y matriciales 39
4.2.- Sistemas mal condicionados y número de condición 40
4.3.- Métodos iterativos para sistemas lineales 42
4.3.1.- Métodos de iteración de Jacobi y de Gauss-Seidel 42
4.4.- Convergencia de los métodos iterativos 44
4.4.1.- Matriz de paso de los métodos de Jacobi y Gauss-Seidel 45
4.5.- Métodos iterativos para sistemas no lineales. Conceptos previos. 46
4.5.1.- La diferencial 46
4.6.- El método de Newton-Raphson para sistemas no lineales 47
4.6.1.- Esquema del método de Newton-Raphson 48
4.7.- Tema 4. Ejercicios. 49

52

También podría gustarte