Documentos de Académico
Documentos de Profesional
Documentos de Cultura
x 1 xi
n
i 1
x
n
x2 i
2
(norma euclídea)
i 1
x
max xi
1i n
m r (norma del máximo)
A 1 max
RS a UV
n
1)
j 1,...,n
T W
i 1
ij
2) A 2 ( A At )
3) A max
RS a UV
n
i 1,...,n
T W
j 1
ij
39
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
La primera significa en términos sencillos que nos quedamos con la columna cuyos
elementos en valor absoluto tienen la mayor suma. La última es lo mismo, pero con las
filas.
Además se puede demostrar que para cualquier norma natural de A se verifica:
( A) A
40
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
0.880
x 2.34
2.66
Los vectores error y residuo y sus normas, eligiendo la norma del máximo, son:
0.12 0.0148
e 4.34 e 4.34 y r 0.0048 r 0.0148
1.66 0.0030
Definición. Número de condición.
El número de condición de una matriz A se define como :
K ( A) A A1
y sirve para tener una medida del condicionamiento de una matriz.
Su cálculo supone muchas operaciones, y además, como para obtener A-1 es
necesario resolver n sistemas lineales, dicha matriz inversa puede ser bastante inexacta, y
por lo tanto, el número de condición tampoco será muy preciso. Sin embargo, esto no
importa, ya que para poder decir que la matriz está mal condicionada basta con ver si el
número de condición es grande o no. Un número de condición mucho mayor que la
unidad indica que la matriz está mal condicionada. La matriz unidad tiene como número
de condición la unidad.
Cuando una matriz está mal condicionada los elementos de A-1 son grandes en
comparación con los de A, pero esto también puede suceder, aunque A no esté mal
condicionada, por ejemplo, si los elementos de A son pequeños. Por este motivo, en el
cálculo del número de condición, se normaliza multiplicando las normas de A y de su
inversa.
Teorema ( Error relativo )
Definiendo el error relativo de la solución de un sistema lineal como:
e
error relativo
x
dicho error está acotado por el número de condición de la matriz multiplicado por el
residuo relativo.
Demostración:
r b A x A x A x A x x A e
e A1 r e A1 r (1)
A
A x b b A x
1
(2)
x b
Multiplicando término a término las desigualdades (1) y (2) se obtiene:
e r
A A 1
x b
e r
es decir, que el error relativo está acotado por K(A) .
x b
Del mismo modo se puede demostrar que
41
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
e r
1
x A A 1 b
En resumen, el error relativo puede ser tan pequeño como el residuo relativo
dividido por el número de condición y tan grande como el residuo relativo multiplicado
por el número de condición. Si K(A) es grande el residuo relativo no se puede utilizar
para estimar el error relativo, mientras que un número de condición próximo a la unidad
es una buena medida del error relativo.
42
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
x(k) a la hora de calcular y(k+1) y, de forma semejante, sería mejor usar x(k+1) e y(k+1) en el
cálculo de z(k+1).
Ejemplo 3.
Consideremos el siguiente proceso iterativo para el mismo sistema de ecuaciones:
7 y(k ) z( k ) 21 4 x ( k 1) z ( k ) 7 2 x ( k 1) y ( k 1)
x ( k 1)
; y ( k 1)
; z ( k 1)
4 8 5
A este proceso iterativo se conoce como método de Gauss-Seidel.
Sustituyendo y(0) = 2 y z(0) = 2 en la primera ecuación obtenemos:
722
x (1) 175
.
4
Sustituyendo ahora x(1) = 1.75 y z(0) = 2 en la segunda obtenemos:
21 4 (1.75) 2
y (1) 3.75
8
Finalmente, sustituyendo x(1) = 1.75 e y(1) = 3.75 en la tercera:
7 2(1.75) 3.75
z (1) 2.95
5
Del mismo modo para calcular x(2) se utilizarán y(1) y z(1); para calcular y(2) se usarán x(2) y
z(1); para calcular z(2) se usarán x(2) e y(2); y así sucesivamente.
Vamos a considerar ahora los procesos iterativos de Jacobi y Gauss-Seidel con
mayor generalidad. Supongamos que tenemos un sistema de n ecuaciones lineales
a11 x1 a12 x2 a1 j x j a1 N x N b1
a21 x1 a22 x2 a2 j x j a2 N x N b2
a j 1 x1 a j 2 x2 a jj x j a jN x N b j
a N 1 x1 a N 2 x2 a Nj x j a NN x N bN
Sea Pk = (x1(k), x2(k), ..., xj(k), ..., xN(k)) el vector que aproxima la solución en la etapa k,
de manera que en la siguiente etapa se obtendrá Pk+1 = (x1(k+1), x2(k+1), ..., xj(k+1), ..., xN(k+1)).
El superíndice (k) de las coordenadas de Pk nos permite identificar la etapa a la que
pertenece el vector de soluciones aproximadas. Las fórmulas de iteración usan la fila
j-ésima para despejar xj(k+1) como una combinación lineal de los valores previamente
obtenidos:
Método iterativo de Jacobi:
N
bi ai , j x j
(k)
ai ,i ai ,i
i
para i = 1, 2, ..., N.
43
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
bi ai , j x j a
i 1 N
xj
( k 1) (k )
i, j
(i 1, 2, ..., N )
j 1 j i 1
ai ,i
x x
( k +1) (k)
el error relativo:
x
( k +1)
44
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
x ( 0) (aproximación inicial)
x Tx c
(1) ( 0)
x
( 2)
Tx
(1)
d ci c T x bT I gc
c T Tx
( 0) 2 ( 0)
x Tx c T dT x b T I gci c T x cT h
T I c
( 3) (2) 2 ( 0) 3 ( 0) 2
Para que la sucesión {x(k)} converja será necesario que exista el límite
lim T k 1 x
k
( 0)
c
T k T k 1 T I c h
Este límite va a depender de la aproximación inicial x(0), que interesa que sea
suficientemente próxima a la solución exacta, y de la matriz T. La suma
(Tk + Tk-1 + ··· + T + I) converge a (I-T)-1 si y sólo si el radio espectral de la matriz T es
menor que 1: (T) < 1. Basta por lo tanto que alguna norma natural de la matriz T que se
tome sea menor que uno para asegurar que (T) < 1 y que el método converge.
Matriz de paso de los métodos de Jacobi y Gauss-Seidel
a11 a12 a 1n LM OP
a 21 a 22 a 2 n MM PP
Sea A
MNa n1 a n 2 a nn
PQ
la matriz de los coeficientes del sistema lineal A x = b.
Se definen a partir de A las matrices:
N0 0 ann
PQ Na n1 an 2 0Q
P N0 0 0
PQ
con lo que el sistema A x = b se puede expresar como (D – L – U) x = b, o lo que es igual:
b g
Dx L U x b x D 1 L U x D 1 b b g
Entonces la iteración de Jacobi se puede escribir:
x
( k 1)
D 1 L U x b g (k )
D 1 b
y por tanto la matriz de paso y el vector corrector en el método de Jacobi son:
T D 1 L U ; c D 1 b b g
La iteración de Gauss-Seidel, del mismo modo, se puede obtener como:
x
( k 1)
D Lb g 1
Ux
(k)
b
D L g 1
b
La matriz de paso y el vector corrector en el método de Gauss-Seidel son:
T D L b g 1
U ; c D L b g 1
b
Definición: Se dice que una matriz A de orden n es estrictamente diagonal dominante
si:
45
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
n
a kk a kj ( k 1, 2, ..., n)
j 1
jk
46
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
f 1 f f
du ( x0 , y0 , z0 )dx 1 ( x0 , y0 , z0 )dy 1 ( x 0 , y0 , z0 )dz
x y z
f f f
dv 2 ( x0 , y0 , z0 )dx 2 ( x 0 , y 0 , z0 )dy 2 ( x 0 , y0 , z0 )dz
x y z
f f f
dw 3 ( x0 , y0 , z0 )dx 3 ( x0 , y 0 , z0 )dy 3 ( x 0 , y0 , z0 )dz
x y z
Usando notación vectorial, puede escribirse de forma más compacta utilizando la
matriz jacobiana. Si representamos du, dv y dw mediante la función vectorial dF y las
diferenciales dx, dy y dz por dX, entonces:
LM OP
du dx LM OP
dF dv J ( x , y , z ) dy J ( x , y , z ) dX
MM PP 0 MM PP
0 0 0 0 0
N Q
dw Ndz Q
4.6.- EL MÉTODO DE NEWTON-RAPHSON PARA SISTEMAS NO LINEALES
Vamos a construir el método de Newton-Raphson en el caso bidimensional. Esta
construcción se generaliza fácilmente a dimensiones mayores.
u f1 ( x , y )
Consideremos el sistema:
v f 2 ( x, y)
que puede interpretarse como una transformación del plano XOY en el plano UOV. Si
estamos interesados en el comportamiento de esta transformación cerca del punto (x0,y0),
cuya imagen es el punto (u0,v0), y si las dos funciones tienen derivadas parciales
continuas, entonces podemos usar la diferencial del sistema para escribir un sistema de
aproximaciones incrementales lineales válidas cerca del punto (x0,y0) en cuestión:
f f
b g
u u0 1 ( x0 , y0 ) x x0 1 ( x0 , y0 ) y y0
x y
b g
f f
b g
v v 0 2 ( x 0 , y0 ) x x 0 2 ( x 0 , y0 ) y y 0
x y
b g
El sistema anterior es una aproximación lineal local que nos da una idea del efecto
que pequeños cambios en las variables independientes producen en las variables
dependientes. Si usamos la matriz jacobiana J(x0,y0), esta relación se escribe de forma
más cómoda como:
LM
f 1
( x0 , y0 )
f 1
( x0 , y0 )
OP
LM
u u0
OP M
x y x x0
PP LMN OP
J ( x0 , y0 )
x x0 LM OP
N
v v0 f 2
Q MM f 2 Q N Q
( x0 , y0 ) ( x0 , y0 ) y y0 y y0
x N y PQ
Usaremos esta aproximación para desarrollar el método de Newton bidimensional.
Consideremos el sistema de ecuaciones que resulta de igualar u y v a cero en:
0 f1 ( x, y)
0 f 2 ( x, y)
47
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
de manera que P J ( p0 , q0 ) 1 F ( p0 , q0 )
Esto nos proporciona la siguiente aproximación P1 a la solución P = [p q]:
P1 P0 P P0 J ( p0 , q0 ) 1 F ( p0 , q0 )
Hagamos notar que la fórmula anterior es la generalización de la fórmula de
iteración del método de Newton-Raphson para funciones de una variable que, como
vimos, es:
p1 p0 f ( p0 ) f ( p0 )
F ( Pk )
LM f ( p , q ) OP
1 k k
N f ( p , q )Q
2 k k
48
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
10 x y 2 z
|| 6
;
0
;
GG JJ
T 3 y z 8t 15 0 HK
Sol. 10 iter. x=1.00012, y=1.99977, z=-0.99983, t=0.99979
b) R| 4 y 2z 2 0 FI
S|4 x 2 y 10z 6 ; x 0 ;
( 0) GG JJ
101
T5 x 4y 5 0 HK
Sol. 5 iter. x=0.670, y=0.362, z=0.226
c) 4x 2y z 11 1
x 2y x 1 ; 10 1
(0)
3;
2x y 4z 16 1
Sol. 5 iter. x=1.01367, y=2.01593, z=2.99609
2.— Realizar 5 iteraciones del método de Jacobi para:
R|
2 x 5 y 5z 12
S|
5 x 2 y 5z 12
T
5 x 5 y 2 z 12
¿Es convergente? Justificar la respuesta.
Sol. x=3126, y=3126, z=3126. No.
3.— Realizar 5 iteraciones para resolver los siguientes sistemas mediante el método de
Gauss-Seidel , considerando como vector inicial el vector nulo. Indicar el error absoluto
y relativo:
a)
R|
4x y 2
b) 2x R|
y 10z t 11
S|
x 4 y z 6
3y |S z 8t 15
10 x y ||2 z 6
T y 4 z 2
x 11y z 3t 25
T
Sol. a) x=0.99982, y=1.99991, z=0.99998; ea=0.00128;er=0.00064
b) x=1.00009, y=2.00002, z=-1.00003, t=0.99999; ea=0.00077, er=0.000385
4.— a) Resolver el siguiente sistema por el método de eliminación gaussiana:
R|
2 x y 1
x |S2 y z 0
|| y 2 z t 0
T z 2t 0
b) Realizar 4 etapas del método de Gauss-Seidel partiendo de los valores iniciales
49
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
x
( 0)
b
0.7, 0.5, 0.3, 0.1 g t
|T2 x x y 3 0
2 2
utilizar la aproximación inicial (p0,q0) = (1.2, 2.0) para calcular las tres primeras
iteraciones del método de Newton-Raphson.
Sol. x=1.11652, y=1.99661
10.— Dado el sistema no lineal
R|x y x 3x 3x 3 2
|S 7
|| y y 2 y x 2
2
T 2
50
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
utilizar la aproximación inicial (p0,q0) = (0.3, –1.3) para calcular las tres primeras
iteraciones del método de Newton-Raphson.
Sol. x=-0.270802, y=-1.31506
R|Sx 2
y 0.2 0
11.— Dado el sistema no lineal
|T y 2
x 0.3 0
calcular las tres primeras iteraciones del método de Newton-Raphson
a) partiendo de (p0,q0) = (1.2, 1.2)
b) partiendo de (p0,q0) = (–0.2, –0.2)
Sol. a) 3 iter.; x=1.19231, y=1.2216
b) ) 3 iter.; x=-0.286032, y=-0.118186
51
Tema 4: Resolución de sistemas de ecuaciones lineales y no lineales. Métodos iterativos.
52