Está en la página 1de 32

Sistemas Lineales

Análisis de error

Prof.: Dra. Nélida Beatriz Brignole


Errores
 Errores de redondeo
 Errores en los valores de A y b
 Incertidumbre en la solución
calculada x
Residuo
Ax*  b
1
e  x*  A b
r ( x )  b  Ax
1
r( x)  0  xA b
r ( x ) es medida de e( x )  x  x*
Sistema mal condicionado
1.2969 0.8648 0.8642  0.9911 
A  b  x 
 0 . 2161 0. 1441  0. 1440    0 . 4870 
 10 8  2
r   8  sin embargo el V.V. es : x*   
 10    2
r pequeño e grande
1.2969 0.8648 0.8642
 0.2161 
 0 0.1441  0.8648 X 
1.2969
 
 0.1440999923

det A  0.1868832  0.1868832  0
Relación entre residuo y error
Ax*  b
Ax  Ax*  Ax  b
A( x  x* )   r ( x )
A e( x )   r ( x )
1
e( x )   A r ( x )
1 1
e( x )  A r ( x )  A r( x)
Relación entre residuo y error

e( x )  A1 r ( x )
e( x ) 1 r( x)
 A
x* x*
1 A
Ax*  b  A x*  
x* b
e( x ) 1 r( x) A 1 r( x)
 A  A r ( x )  K ( A)
x* x* b b
Número de condición
K ( A)  A A1  AA1  I   ( I )  1
 K ( A)  1
K ( A)  A A1   ( A)  ( A1 ) porque  ( A)  A
 ( A1 )  A1
 ( A)  ( A1 )  A A1
max i
K ( A)  1 i  n
porque
mín i
1 i  n

1
K ( A)   ( A)  ( A1 )  max i
1 i  n min i
1 i  n

1
 ( A)  max i y  ( A1 ) 
1 i  n min i
1 i  n
Cotas de error
A( x*  x)  b  b
Ax  b
x  A1b
x  A1 b (consisten cia)
x 1 b
 A
x* x*
1 b 1 A b 1 b
A  A  A A
x* A x*  b
K ( A)
Cotas de error
( A  A)( x*  x )  b
Ax  Ax*  Ax  0
Ax  A( x*  x )  0
x  A1A( x*  x )
x  A1A( x*  x )  A1A x*  x
x A
 A A  A A
1 1

x*  x A
x A
 K ( A)
x*  x A
Resolución de Sistemas Lineales

Métodos directos:
Refinamiento iterativo
Refinamiento iterativo

r  b  Ax
r  Ax  A x  A( x  x )
Ax  r
Algoritmo: Refinamiento Iterativo
Dado : x0 solución aproximada de Ax  b
1) Calcular en doble precisión r0  b  Ax0
2) para i  1 hasta convergencia hacer :
a) Resolver por descomposición LU Axi 1  ri 1
b) xi  xi 1  xi 1
c) Calcular en doble precisión ri  b  Axi
d)Test de convergencia
Si ri  ri 1  PARAR (no se puede refinar más)
ri
Si   PARAR ( xi es la solución)
b
Si i  max it  PARAR (no se alcanzó el error deseado)
fin lazo
Resolución de Sistemas Lineales

Métodos iterativos

xk 1   ( xk )
Métodos iterativos
 Ventajas?
– Espacio: convenientes para matrices ralas (sparse)
– Tiempo: menor número de operaciones
 Desventajas?
– Velocidad: convergencia lenta
– Convergencia: no siempre se obtiene la solución en
un número finito de pasos
Diseño general
Ax  b
(B  C)x  b
Bx  Cx  b
1 1
x  B b  B Cx
1 1
xk 1  B b  B Cxk
Cuándo tiene sentido esto?
lim xk  x*
k 
1 1
x*  B b  B Cx*
1 1
xk 1  B b  B Cxk
1
xk 1  x*   B C ( xk  x* )
1
ek 1   B C ek
Análisis de error
1 1
ek 1  B Cek  B C ek
1 2 1 k 1
ek 1  B C ek 1    B C e0
condición suficient e de convergencia :
B 1C  1
Condición necesaria y suficiente de convergencia

xk 1  Mxk  b
 (M )  1
k 1
xk 1  x*  M ( x0  x* )
Demostración
x0  x*  1 u1   2 u2     n un
x1  x*  M (1 u1   2 u2     n un )
x1  x*  1M u1   2 M u2     n Mun
x1  x*  11 u1   22 u2     n n un
x2  x*  M ( x1  x* )  11M u1   22 M u2     n n Mun
xk  x*  11 u1   22 u2     n n un
k k k
 
0

 i  1 i  max i  1
1i  n

  (M )  1
Principales Métodos Iterativos
 Jacobi
 Gauss Seidel
 SOR: Sobrerelajación sucesiva
Métodos Iterativos: Jacobi

b1  a12 x2( k )  a13 x3( k )    a1n xn( k )


x1( k 1)  P1
a11
( k 1) b2  a21 x1( k )  a23 x3( k )    a2 n xn( k )
x 2  P2
a22

bn  an1 x1( k )  an 2 x2( k )    an n 1 xn( k1)
xn( k 1)  Pn
ann
Métodos Iterativos: Gauss Seidel

b1  a12 x2( k )  a13 x3( k )    a1n xn( k )


x1( k 1) 
a11
b2  a21 x1( k 1)  a23 x3( k )    a2 n xn( k )
x2( k 1) 
a22

b n an1 x1( k 1)  an 2 x2( k 1)    an n 1 xn( k1)
xn( k 1) 
ann
Método de Jacobi
A  L  D U
Ax  b
L  D  U x  b
Dx k 1  L  U xk  b
xk 1   D L  U xk  D b
1 1
  
MJ
Método de Gauss Seidel

A  L  D U
Ax  b
L  D  U x  b
L  D xk 1  Uxk  b
xk 1   L  D  U xk  L  D  b
1 1
  
M GS
Condiciones de convergencia

 Si A es simétrica, definida positiva,


entonces Gauss-Seidel converge
 Si A es estrictamente diagonal
dominante por filas,
entonces Gauss-Seidel y Jacobi
convergen
Diagonal dominancia
Def : se dice que A   nxn es
diagonal dominante por filas si
n
a ii   a ij i  1, n
j1
i j

Def : se dice que A   nxn es


diagonal dominante por columnas si
n
a jj   a ij i  1, n
i 1
i j
Diagonal dominancia estricta
Def : se dice que A   nxn es
estrictame nte diagonal dominante por filas si
n
a ii   a ij i  1, n
j1
i j

Def : se dice que A   nxn es


estrictame nte diagonal dominante por columnas si
n
a jj   a ij i  1, n
i 1
i j
Teorema
 Si A es estrictamente diagonal
dominante por filas , entonces A
puede ser factorizada usando EG sin
pivoteo por columnas
 Si A es estrictamente diagonal
dominante por columnas , entonces
A puede ser factorizada usando EG
sin pivoteo por filas
Método SOR
pGS  xkGS1  xk
Dx kGS1  b  Lxk 1  Uxk
xk 1  xk  wpGS w  1 (aceleraci ón - amplificac ión)

paso SOR

 
xk 1  xk  wxk 1  wxk  (1  w) x k  wxkGS1
GS

wDxkGS1  Dx k 1  D1  wxk


wb  Lxk 1  Uxk   Dx k 1  D1  wxk
wb  wUxk  D1  wxk  Dx k 1  wLxk 1
xk 1  D  wL   wU  D1  wxk  wD  wL  b
1 1
  
M S OR
Condición necesaria de convergencia

0 w2
Observaciones
 w=1 Método de Gauss-Seidel
 w<1 Subrelajación
(paso más corto que el de GS)
 w>1 Sobrerelajación
(paso más largo que el de GS)
Lectura obligatoria
 Rao “Applied Numerical Methods for
Engineers and Scientists”, Prentice
Hall, 2002
 Págs 152-188

También podría gustarte