Está en la página 1de 1

MÉTODOS ITERATIVOS PARA LA SOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES

MARÍA GUADALUPE TORRES GONZÁLEZ, VÍCTOR HUGO VÁZQUEZ GUEVARA, FERNANDO VELASCO LUNA

e-mail:lupita1990 7@hotmail.com, vvazquez@fcfm.buap.mx, fvelasco@fcfm.buap.mx

Facultad de Ciencias Fı́sico-Matemáticas

directos ya que, el número de operaciones necesarias al utilizar


Resumen métodos directos para resolver sistemas de ecuaciones lineales La matriz de un sistema de ecuaciones lineales y
 
es del orden de n3. 3/5
En este trabajo se estudiarán métodos iterativos y estocásticos para resolver  25/11 
 
sistemas de ecuaciones lineales de modo que una aproximación a su solución  −10/11 
se determine en el menor tiempo posible. Método iterativo de K. Sabelfeld b=

15/8


 
 2/3 
En general, llamamos al problema que consiste en encontrar la solución (po- 
 −5/7 

siblemente múltiple) x ∈ Km si existe, de la siguiente ecuación algebraica En esta sección se estudiará un análogo estocástico a
los presentados con anterioridad. Sea H la matriz cuadrada 4/3
Ax = b
de dimensión n, tal que A = I − H. Entonces el sistema de el vector solución. Resolviendo el sistema de ecuaciones en
un sistema lineal. La matriz A ∈ Mn,m(K) se llama ”matriz de coeficien- Matlab se obtiene que la solución exacta es:
ecuaciones lineales Ax = b, puede ser escrito como
tes del sistema”, y b ∈ Km, vector de coeficientes independientes ambos  
datos del problema; el vector x ∈ Km es desconocido. K denota el campo x = Hx + b, −1,5631
R ó C. Consideremos sistemas lineales con el mismo número de ecuaciones  4,0222 
en donde x = (x1, . . . , xn)T , b = (b1, . . . , bn)T ∈ Rn y 
 −2,5183 

e incógnitas: n = m.
H = (hi,j ), donde T representa la operación transpuesta.  
x=  4,3733 

 1,3336 
Método de Jacobi Se presenta el siguiente resultado que nos dice, cuando 
 0,5930 

la matriz A = I − H es invertible.
2,8390
La relación general de recurrencia para un sistema de tamaño
n × n es: Corolario Se resolverá el sistema con cada uno de los métodos mencio-
  nados anteriormente y se analizaran los resultados
(k+1) 1 X (k)
xi = bi − aij xj ; i = 1, . . . , n La serie de Neumann ∞ Método Jacobi Gauss-Seidel SOR K. Sabelfeld

aii X
j6=i Hk Error medio 5,5397e−07 1,5260e−07 3.5495e−06 1.3394826
Se presenta ahora un resultado para garantizar la convergencia k=0 No. de iteraciones 83 20 20 30
del método de Jacobi converge si ρ(H) < 1 y diverge si ρ(H) > 1, en donde No. de operaciones 4067 980 980 120
ρ(H) es el radio espectral de la matriz H
Teorema Observemos que la aproximación no es buena.
La solución del sistema Ax = b, se puede determinar
Sea A una matriz simétrica y definida positiva. El método por x = A−1b. Si A = I − H entonces A−1 se puede
Concluimos que dicha situación ocurre ya que las obser-
iterativo de Jacobi para un sistema de ecuaciones con matriz escribir como una serie de Neumann, suponiendo que tal serie
vaciones de las matrices G(0), G(1), ...., G(M ) tienden
de coeficientes A es convergente si y sólo si la matriz es finita, es decir

a repetirse incluso para valores pequeños de M . Además
2D − A X
se consideró a un sistema de ecuaciones de dimensión 50
A−1 = (I − H)−1 = Hk
es una matriz definida positiva, k=0
cuya matriz y vector solución asociados son generados
aleatoriamente apartir de la distribución normal estándar, de
donde A0 = I.
donde D es la matriz diagonal formada con los elemen- modo que se satisfagan las hipótesis del método de Sabesfeld:
tos de la diagonal principal de la matriz A. ρ(A) = 0,688.
Por lo tanto, si H tiene radio espectral menor que uno,
la solución de x = Hx + b se puede calcular mediante el
En este caso, se considerá a M = 10, ya que el radio
Método de Gauss-Seidel método de iteración de Richardson simple.
espectral de H 11 − H 10 es del orden de 10−6. Además se
x(m+1) = Hx(m) + b; x(0) = b; m = 0, 1, 2, . . . consideró a l = 10; es decir, el 20 % de las columnas de la
La relación de recurrencia general para un sistema n × n es la Muestreo de columnas sin reemplazo. matriz A serán muestreadas en cada repeteción.
siguiente:
 
1
i−1 n A continuación, se presentará una versión estocástica del citado
(k+1) (k+1) (k)
X X
xi =  bi − aij xj − aij xj ; método de Richardso. Para esto, sea G un estimador insesgado
aii j=1 j=i+1 para la matriz H que se define como una matriz aleatoria
i = 1, . . . , n tal que E[G] = H, y sea G(0), G(1), . . . , G(M −1) una
muestra aleatoria del estimador aleatorio G. El procedimiento
A continuación se presenta un teorema importante para iterativo se define por
la convergencia del método de Gauss-Seidel. ξ (m+1) = G(m)ξ (m) + b, m = 0, 1, . . . , M − 1
Figura:
ξ (m+1) = G(m)ξ (m) + b que E[ξ M ] = xM . En donde M
Teorema
es el número de términos considerados en la serie de Neumann.
Construiremos la matriz G por columnas: fijemos un entero
El método iterativo de Gauss-Seidel es convergente para En la Figura se obser va la evolución del error absoluto medio
arbitrario l menor que n, y elija un conjunto aleatorio J de l
todo sistema de ecuaciones cuya matriz de coeficientes es de Aξ̄ con respecto a b; en donde ξ̄ es el promedio de las apro-
enteros elegidos uniformemente de 1 a n sin reemplazo, es decir,
simétrica y definida positiva. ximaciones generadas por el método de Sabelfeld, de manera
elegimos j1 entero uniformemente entre 1, 2, . . . , n entonces
más precisa, el promedio de
j2 entre el resto de n − 1 enteros, etc., el último es jl y
Método SOR definimos las entradas de G por
n
|Aξ̄ − b|
l
Hik para k ∈ J
La idea de los métodos de relajación consiste, en cada iteración, Gik =
0 en otro caso
aplicar la relación de recurrencia, Conclusiones
para i = 1, 2, . . . , n
(k+1) (k) (k)
xi = xi + ωri , i = 1, . . . , n, Según los resultados obtenidos, con respecto al vector inicial,
Para matrices estrictamente diagonales, se tiene el siguiente Además para cualesquiera i, k tenemos tolerancia, aproximación y el número de operaciones, el método
resultado. E[Gik ] = Gik P {k ∈ J } = Hik . de Gauss-Seidel y el método SOR son mejores que el método
Notemos que para el cálculo de componentes del vector ξ (m+1) de Jacobi. Sin embargo, hace falta analizar el caso en que el
Proposición necesitamos solo l componentes del vector ξ (m) y para calcular- orden de la matriz sea muy grande para decir que método es
los solo necesitamos l componentes de ξ (m−1), etc. En conse- más eficiente.
Para 0 < ω ≤ 1, el método de relajación es conver- cuencia, necesitamos l2 operaciones en cada etapa. Para hallar
gente para matrices de diagonal estrictamente dominantes un valor de x(M ) necesitamos del orden de M l2 operaciones. Referencias
Teorema
Resultados y discusiones DAVID S. WATKINS, Fundamentals of
(Ostrowski-Reich) Para un sistema de ecuaciones con
Matrix Computations, New York, 2002.
matriz simétrica y definida positiva, el método iterativo de Sea 
relajación SOR converge si y sólo si el parámetro de relajación

1 1/10 −1/5 0 1/5 −1/8 3/8
cumple que 0 < ω < 2.  1/10
 1 1/10 −3/8 1/10 −1/5 1/10 
 K. SABELFELD, ”Stochastic algorithms in
 −1/5 1/10 1 1/8 1/12 0 1/12  linear algebra-beyond the Markov chains and von
 
Número de operaciones A=
 0 −3/8 1/8 1 −1/8 1/10 −1/5 
 Neumann-Ulam schemeı̈n Numerical Methods
 1/5 1/10 1/12 −1/8 1 0 0 

 −1/8 −1/5 0 1/10 0 1

−2/5 
and Applications, New York, NY, USA:Springer,
Los métodos antes descritos tienen un costo del orden de n2× 3/8 1/10 1/12 −1/5 0 −2/5 1 pp. 14-28, 2011.
no. de iteraciones. Si el número de iteraciones es pequeño com-
parado con n, los métodos iterativos son preferibles a los

También podría gustarte