Está en la página 1de 16

2021

AAN
1
Método iterativo para sistemas lineales

Sean A ∈ 𝑪𝒏𝒙𝒏 una matriz cuadrada compleja y b ∈ 𝑪𝒏 un vector complejo


dado. Consideramos el sistema lineal:
Ax=b

La solución x ∈ 𝑪𝒏 existe y es única si y solo si A es no singular y todas las


entradas de la diagonal son números complejos distintos del cero.
Este método iterativo calcula, la solución exacta del sistema, a partir de
una aproximación inicial 𝒙(𝟎) van obteniendo sucesivas aproximaciones a
la solución hasta que se alcanza la precisión deseada.
Este método mejora la convergencia del método de Gauss-Seidel
mediante el refinamiento de la aproximación actual

̅ ∈ 𝑹𝒏 es una aproximación a la solución del sistema lineal


Definición.- Si 𝒙
̅ con respecto a este sistema se
definido por A x =b, el vector residual de 𝒙
define como r = b – A 𝒙̅.
El objetivo del método consiste en generar una sucesión de
aproximaciones que hagan que los vectores residuales asociados
converjan a cero.
Supongamos que tomamos:
(𝒌) (𝒌) (𝒌) (𝒌)
𝒓𝒊 = (𝒓𝟏𝒊 , 𝒓𝟐𝒊 , … . , 𝒓𝒏𝒊 )𝒕
Para denotar el vector residual para el método de Gauss-Seidel
correspondiente al vector solución aproximado
(𝒌) (𝒌) (𝒌) (𝒌−𝟏) (𝒌−𝟏) 𝒕
(𝒙𝟏 , 𝒙𝟐 , … . , 𝒙𝒊−𝟏 , 𝒙𝒊 , … . 𝒙𝒏 )
(𝒌)
La m-esima componente de 𝒓𝒊 es

2
(𝒌) (𝒌) (𝒌−𝟏)
𝒓𝒎𝒊 = 𝒃𝒎 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒎𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊 𝒂𝒎𝒋 𝒙𝒋 (i)
(𝒌) (𝒌) (𝒌−𝟏) (𝒌−𝟏)
𝒓𝒎𝒊 = 𝒃𝒎 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒎𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒎𝒋 𝒙𝒋 − 𝒂𝒎𝒊 𝒙𝒊
(𝒌)
Para cada m = 1, 2,…., n. En particular, la i-esima componente de 𝒓𝒊 es
(𝒌) (𝒌) (𝒌−𝟏) (𝒌−𝟏)
𝒓𝒊𝒊 = 𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 − 𝒂𝒊𝒊 𝒙𝒊 ;

Así que
(𝒌−𝟏) (𝒌) (𝒌) (𝒌−𝟏)
𝒂𝒊𝒊 𝒙𝒊 + 𝒓𝒊𝒊 = 𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 (ii)
(𝒌)
Recuérdese, que en el método de Gauss-Seidel 𝒙𝒊 se escoge como
(𝒌) (𝒌−𝟏)
(𝒌) − ∑𝒊−𝟏 𝒏
𝒋=𝟏(𝒂𝒊𝒋 𝒙𝒋 )−∑𝒋=𝒊+𝟏(𝒂𝒊𝒋 𝒙𝒋 )+𝒃𝒊
𝒙𝒊 = (iii)
𝒂𝒊𝒊

(𝒌−𝟏) (𝒌) (𝒌)


La ecuación (ii) y (iii) se igualan: 𝒂𝒊𝒊 𝒙𝒊 + 𝒓𝒊𝒊 = 𝒂𝒊𝒊 𝒙𝒊 / 𝒂𝒊𝒊
(𝒌)
(𝒌) (𝒌−𝟏) 𝒓𝒊𝒊
𝒙𝒊 = 𝒙𝒊 + (iv)
𝒂𝒊𝒊

Podemos derivar otra conexión entre los vectores residuales y la técnica


(𝒌)
de Gauss-Seidel. De (i), la i-esima componente de 𝒓𝒊+𝟏 es
(𝒌) (𝒌) (𝒌−𝟏)
𝒓𝒊,𝒊+𝟏 = 𝒃𝒊 − ∑𝒊𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋
(𝒌) (𝒌) (𝒌−𝟏) (𝒌)
𝒓𝒊,𝒊+𝟏 = 𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 - 𝒂𝒊𝒊 𝒙𝒊
(𝒌)
La ecuación (iii) Implica que 𝒓𝒊,𝒊+𝟏 = 𝟎.

Modificando el procedimiento de Gauss-Seidel en la forma de la ecuación


(iv) a:
(𝒌)
(𝒌) (𝒌−𝟏) 𝒓𝒊𝒊
𝒙𝒊 = 𝒙𝒊 +𝒘 (v)
𝒂𝒊𝒊

El parámetro w se comporta como factor de ponderación actual y de la


aproximación anterior.
Para ciertas elecciones de w positivo nos llevara a una convergencia
significativamente más rápida.
Los métodos que emplean la ecuación (v) se conocen como métodos de
relajación. Para 0<w<1, los procedimientos se llaman métodos de sub-

3
relajación y se pueden emplear para obtener la convergencia de algunos
sistemas que no son convergentes por el método de Gauss-Seidel. Para
1<w<2, los procedimientos se llaman métodos de sobre-relajación y se
pueden usar para acelerar la convergencia de sistemas que son
convergentes por el método de Gauss-Seidel. Estos métodos se abrevian
como Sor.
Usando la ecuación (ii) y la ecuación (v) se pueden reformular para
propósitos de computo como
(𝒌) (𝒌−𝟏) 𝒘 (𝒌) (𝒌−𝟏) (𝒌−𝟏)
𝒙𝒊 = 𝒙𝒊 + [𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 − 𝒂𝒊𝒊 𝒙𝒊 ]
𝒂𝒊𝒊

(𝒌) (𝒌−𝟏) 𝒘 (𝒌) (𝒌−𝟏) (𝒌−𝟏)


𝒙𝒊 = 𝒙𝒊 + [𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 ] − 𝒘𝒙𝒊
𝒂𝒊𝒊

(𝒌) (𝒌−𝟏) 𝒘 (𝒌) (𝒌−𝟏)


𝒙𝒊 = (𝟏 − 𝒘) 𝒙𝒊 + [𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 ] (vi)
𝒂𝒊𝒊

Para determinar la forma matricial del método SOR reescribimos (vi)


como
(𝒌) (𝒌) (𝒌−𝟏) (𝒌−𝟏)
𝒂𝒊𝒊 𝒙𝒊 + 𝒘 ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 = (𝟏 − 𝒘) 𝒂𝒊𝒊 𝒙𝒊 − 𝒘 ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 + 𝒘𝒃𝒊 vii

Así que
A=D–L-U

(𝐃 − 𝐰 𝐋) 𝒙(𝒌) = [(𝟏 − 𝒘) 𝑫 + 𝒘 𝑼] 𝒙(𝒌−𝟏) + 𝒘 𝒃


O
−𝟏 −𝟏
𝒙(𝒌) = (𝐃 − 𝐰 𝐋) [(𝟏 − 𝒘) 𝑫 + 𝒘 𝑼] 𝒙(𝒌−𝟏) + 𝒘 (𝐃 − 𝐰 𝐋) 𝒃

La matriz de iteración será : (𝐃 − 𝐰 𝐋)−𝟏[(𝟏 − 𝒘) 𝑫 + 𝒘 𝑼]

4
Ejemplo:
El sistema lineal A x = b dado por
𝑬𝟏 : 𝟒 𝒙𝟏 + 𝟑 𝒙𝟐 = 𝟐𝟒,
𝑬𝟐 : 𝟑 𝒙𝟏 + 𝟒 𝒙𝟐 − 𝒙𝟑 = 𝟑𝟎,
𝑬𝟑 : − 𝒙𝟐 +𝟒 𝒙𝟑 = −𝟐𝟒,

Tiene por solución 𝒙 = (𝟑, 𝟒, −𝟓)𝒕 , 𝒘 = 𝟏. 𝟐𝟓 para resolver este sistema


usando 𝒙(𝟎) = (𝟏, 𝟏, 𝟏)𝒕 . Para cada k = 1,2,…, las ecuaciones para el método SOR
son:
(𝒌) (𝒌−𝟏) 𝒘 (𝒌) (𝒌−𝟏)
𝒙𝒊 = (𝟏 − 𝒘) 𝒙𝒊 + [𝒃𝒊 − ∑𝒊−𝟏
𝒋=𝟏 𝒂𝒊𝒋 𝒙𝒋 − ∑𝒏𝒋=𝒊+𝟏 𝒂𝒊𝒋 𝒙𝒋 ]
𝒂𝒊𝒊

(𝟏) (𝟎) 𝟏.𝟐𝟓 (𝟎)


𝒙𝟏 = (𝟏 − 𝟏. 𝟐𝟓) 𝒙𝟏 + [𝟐𝟒 − 𝟎 − 𝟑𝒙𝟐 ]
𝟒
(𝟏)
𝒙𝟏 = −𝟎. 𝟐𝟓 − 𝟎. 𝟗𝟑𝟕𝟓 + 𝟕. 𝟓 = 6.3125
(𝟏) (𝟏) (𝟎) (𝟎)
𝒙𝟐 = −𝟎. 𝟗𝟑𝟕𝟓 𝒙𝟏 − 𝟎. 𝟐𝟓 𝒙𝟐 + 𝟎. 𝟑𝟏𝟐𝟓 𝒙𝟑 + 𝟗. 𝟑𝟕𝟓
(𝟏)
𝒙𝟐 = −𝟎. 𝟗𝟑𝟕𝟓 ∗ 𝟔. 𝟑𝟏𝟐𝟓 − 𝟎. 𝟐𝟓 + 𝟎. 𝟑𝟏𝟐𝟓 + 𝟗. 𝟑𝟕𝟓 = 𝟑. 𝟓𝟏𝟗𝟓𝟑𝟏
(𝟏) (𝟏) (𝟎)
𝒙𝟑 = 𝟎. 𝟑𝟏𝟐𝟓 𝒙𝟐 − 𝟎. 𝟐𝟓 𝒙𝟑 − 𝟕. 𝟓
(𝟏)
𝒙𝟑 = 𝟎. 𝟑𝟏𝟐𝟓 ∗ 𝟑. 𝟓𝟏𝟗𝟓𝟑𝟏 − 𝟎. 𝟐𝟓 − 𝟕. 𝟓 = -6.6501465

Tabla
K (𝒌) (𝒌) (𝒌)
𝒙𝟏 𝒙𝟐 𝒙𝟑
0 1.000000 1.000000 1.000000
1 6.312500 3.5195313 -6.6501465
2 2.6223144 3.9585266 -4.6004238
3 3.1333027 4.0102646 -5.0966864
4 2.9570513 4.0074838 -4.9734897
5 3.0037211 4.0029250 -5.0057135
6 2.9963275 4.0009263 -4.9982822
7 3.0000498 4.0002586 -5.0003486
LL
La razón de convergencia de un procedimiento depende del radio
espectral de la matriz asociada con el método, una manera de seleccionar
un procedimiento que nos lleva a una convergencia acelerada consiste en
escoger un método cuya matriz asociada tenga un radio espectral mínimo.

5
CONVERGENCIA DEL METODO SOR

Teorema Kahan
Sea 𝑨 = (𝒂𝒌𝒋) ∈ 𝑹𝒏𝒙𝒏 con 𝒂𝒌𝒌 ≠ 𝟎 para 𝟏 ≤ 𝒌 ≤ 𝒏 y 𝑯(𝒘) la matriz
de iteración del método de relajación. Entonces:
𝝆𝑯(𝒘) ≥ |𝒘 − 𝟏|, 𝒘 ∈ ℝ
Demostración:
Sean 𝝀𝟏 , 𝝀𝟐 , … , 𝝀𝒏 ∈ ℂ los autovalores de 𝑯(𝒘), contando con sus
multiplicidades, se sigue lo siguiente:
𝑯(𝒘) = (𝐃 − 𝐰 𝐋)−𝟏 [(𝟏 − 𝒘) 𝑫 + 𝒘 𝑼]
𝑯(𝒘) = (𝐈 − 𝐰 𝑫−𝟏 𝐋)−𝟏 [(𝟏 − 𝒘) 𝑰 + 𝒘 𝑫−𝟏𝑼]
𝒏

∏ 𝝀𝒌 = 𝒅𝒆𝒕(𝑰 − 𝒘𝑫−𝟏 𝑳)−𝟏 𝒅𝒆𝒕 ((𝟏 − 𝒘)𝑰 − 𝒘𝑫−𝟏 𝑼) = (𝟏 − 𝒘)𝒏


𝒌=𝟏

Donde la última igualdad es consecuencia de que L y U son


estrictamente triangulares, por lo tanto, existe al menos un 𝝀𝒌 ,
𝟏 ≤ 𝒌 ≤ 𝒏 tal que |𝝀𝒌 | ≥ |𝟏 − 𝒘|.
Teorema 2
Si el método de relajación es convergente entonces 𝟎 < 𝒘 < 𝟐.
Demostración:
Por un teorema de convergencia, se sabe que la sucesión de
vectores {𝒙𝒌 } converge si 𝝆𝑯(𝒘) < 𝟏.
A partir de ello y del teorema anterior se tiene lo siguiente:
|𝒘 − 𝟏| ≤ 𝝆𝑯(𝒘) < 𝟏
Lo que nos lleva a
|𝒘 − 𝟏| < 𝟏
𝟎<𝒘<𝟐

6
Teorema Householder- John
Sea A una matriz simétrica definida positiva y sea 𝑨 = 𝑴 − 𝑵 una
escisión de A, con M regular y cuyo método iterativo asociado
es:
𝑴𝒙(𝒏+𝟏) = 𝑵𝒙(𝒏) + 𝒃
Para un 𝒙(𝟎) fijo. Si la matriz simétrica 𝑴𝑻 + 𝑵 es definida
positiva, entonces
𝝆(𝑴−𝟏 𝑵) < 𝟏.
Demostración:
Como 𝑨 = 𝑴 − 𝑵, entonces 𝑴−𝟏 𝑨 = 𝑰 − 𝑴−𝟏 𝑵, luego podemos
escribir:
𝑴−𝟏 𝑵 = 𝑰 − 𝑴−𝟏 𝑨. Sea ahora λ un autovalor de 𝑰 − 𝑴−𝟏 𝑨 y sea
𝒙 ∈ ℂ𝒏 , 𝒙 ≠ 𝟎, un autovector asociado a λ, entonces:
𝝀𝒙 = (𝑰 − 𝑴−𝟏 𝑨 )𝒙 → 𝝀𝒙 = 𝑰𝒙 − 𝑴−𝟏 𝑨𝒙 → 𝑴−𝟏 𝑨𝒙 = 𝑰𝒙 − 𝝀𝒙
𝑨𝒙 = (𝟏 − 𝝀)𝑴𝒙
Luego 𝝀 ≠ 𝟏. Consideremos el producto escalar por el vector 𝒙 =
𝒖 + 𝒊𝒗, y tomemos el vector transpuesto conjugado. Entonces:
𝒙𝑯 𝑨𝒙 = (𝟏 − 𝝀)𝒙𝑯 𝑴𝒙 = (𝟏 − 𝝀̅)𝒙𝑯 𝑴𝑻 𝒙
Sean:
𝒙𝑯 𝑨𝒙 = (𝟏 − 𝝀)𝒙𝑯 𝑴𝒙
𝟏
( ) 𝒙𝑯 𝑨𝒙 = 𝒙𝑯 𝑴𝒙 … (𝟏)
𝟏−𝝀

𝒙𝑯 𝑨𝒙 = (𝟏 − 𝝀̅)𝒙𝑯 𝑴𝑻 𝒙
𝟏
( ) 𝒙𝑯 𝑨𝒙 = 𝒙𝑯 𝑴𝑻 𝒙 … (𝟐)
𝟏−𝝀̅

−𝒙𝑯 𝑨𝒙 = −𝒙𝑯 𝑨𝒙 … (𝟑)


Donde denotamos 𝒙𝑯 al vector transpuesto conjugado de 𝒙 y
𝝀̅ es el conjugado de 𝝀.

7
Sumando las ecuaciones (1), (2) y (3) se obtuvo:

𝟏 𝟏
( + − 𝟏) 𝒙𝑯 𝑨𝒙 = 𝒙𝑯 (𝑴𝑻 + 𝑴 − 𝑨)𝒙
𝟏−𝝀 𝟏−𝝀̅

Tanto 𝑨 como 𝑴𝑻 + 𝑴 − 𝑨 son definidas positivas, entonces,


tomando la parte real, se tiene:

𝟏 − |𝝀|𝟐
>𝟎
|𝟏 − 𝝀|𝟐

Teniendo como resultado |𝝀| < 𝟏, esto es 𝝆(𝑴−𝟏 𝑵) < 𝟏.


A manera de ejemplo, veremos el siguiente ejercicio:
Considerando el sistema 𝑨𝒙 = 𝒃
𝒙(𝟎) = (𝟎, 𝟎, 𝟎)
𝟒 −𝟐 𝟎 𝟖
𝑨 = [−𝟐 𝟔 −𝟓] , 𝒃 = [−𝟐𝟗]
𝟎 −𝟓 𝟏𝟏 𝟒𝟑

𝟏
𝒙′ 𝟏 = (𝟏 − 𝒘)𝒙𝟏 + 𝒘 ( 𝒙𝟐 + 𝟐)
𝟐
𝟏 𝟓 𝟐𝟗
𝒙′𝟐 = (𝟏 − 𝒘)𝒙𝟐 + 𝒘( 𝒙′ 𝟏 + 𝒙𝟑 − )
𝟑 𝟔 𝟔
𝟓 𝟒𝟑
𝒙′𝟑 = (𝟏 − 𝒘)𝒙𝟑 + 𝒘( 𝒙′ 𝟏 + )
𝟏𝟏 𝟏𝟏
Obtenemos lo siguiente
El número requerido de iteraciones para diferentes parámetros
de relajación son:

𝒘 0.8 0.9 1.0 1.2 1.25 1.3 1.4


#iterac 44 36 29 18 15 13 16

8
Algoritmo del método SOR
Para resolver el sistema lineal A x = b dados el parámetro ω y una
aproximación inicial 𝒙(𝟎)
Entrada: function x=sor_f(a, b,x0,w,tol,nmax)
Donde:
a=las componentes de la matriz A = (𝒂𝒊,𝒋) donde 1 ≤ i, j ≤ n.
b=las componentes 𝒃𝒊 , donde 1 ≤ i ≤ n .
x0=los componentes 𝒙(𝟎) .
w=el parámetro de relajación.
tol= la tolerancia.
nmax=el número máximo de iteraciones.

1.-Hallar el radio espectral

Paso 1: indicar el número de filas y columnas.


Paso 2: Si la determinante es igual a 0 entonces
Salida (El sistema no tiene solución)
Paso 3: Si número de filas y columnas son iguales y la determinante es
diferente de cero, entonces:
D=diagonal de la matriz A
L=La matriz estrictamente inferior de A
U=La matriz estrictamente superior de A
𝑴𝒂𝒕𝒓𝒊𝒛 𝒅𝒆 𝒊𝒕𝒆𝒓𝒂𝒄𝒊𝒐𝒏 = (𝑫 − 𝒘𝑳)−𝟏 [(𝟏 − 𝒘)𝑫 + 𝒘𝑼]
𝑹𝒂𝒅𝒊𝒐 𝒆𝒔𝒑𝒆𝒄𝒕𝒓𝒂𝒍 =
𝑬𝒍 𝒎𝒂𝒙𝒊𝒎𝒐 𝒂𝒖𝒕𝒐𝒗𝒂𝒍𝒐𝒓 𝒆𝒏 𝒗𝒂𝒍𝒐𝒓 𝒂𝒃𝒔𝒐𝒍𝒖𝒕𝒐 𝒅𝒆 𝒍𝒂 𝒎𝒂𝒕𝒓𝒊𝒛 𝒅𝒆 𝒊𝒕𝒆𝒓𝒂𝒄𝒊𝒐𝒏
Paso 4: Si el radio espectral es menor a 1 entonces
Salida (El valor del radio espectral)
sino
Salida (El sistema diverge)

9
Forma en algoritmo

2.-Hallar las soluciones por el método SOR

Paso 1: Tomar x=x0; (el vector x es igual al vector 𝒙(𝟎) )


Tomar c=a; (la matriz C es igual a A)
Paso 2: Para i= i=1,2, 3,……,n;
c(i,i)=0; (la diagonal de la matriz es cero)
Paso 3: Para i= i=1,2, 3,……,n
Cada fila de la matriz 𝒄𝒊,𝒋 ; donde 𝟏 ≤ 𝒋 ≤ 𝒏 se divide por cada
componente de la matriz 𝒂𝒊,𝒊
c(i,1:n)=c(i,1:n)/a(i,i);
Paso 4: Para i=1,2, 3,……,n;
Cada componente de b lo divide la componente de la matriz 𝒂𝒊,𝒊
r(i,1)=b(i)/a(i,i);
tomar i=1;
Paso 5: Mientras 𝒊 ≤ 𝒏𝒎𝒂𝒙 y (radio espectral) <1 ,seguir los pasos 6-8 :
xold=x;(el vector xold es igual al vector x)
Paso 6: Para j=1,2, 3,……,n
𝒃𝒋 ∑𝒋−𝟏
𝒊=𝟏 𝒂𝒋,𝒊 𝒙𝒊
∑𝒏
𝒊=𝒋+𝟏 𝒂𝒋,𝒊 𝒙𝒐𝒍𝒅𝒊
𝒙𝒋 = (𝟏 − 𝒘)𝒙𝒐𝒍𝒅𝒋 + 𝒘 [ – – ]
𝒂𝒋,𝒋 𝒂𝒋,𝒋 𝒂𝒋,𝒋

10
En octave se escribe así:
x(j)=(1-w)*xold(j)+w*(-c(j,:)*x+r(j));
donde:
x(j)=los componentes de x
w=parámetro de relajación
xold(j)=las componentes de xold
r(j)=los componentes de r
c(j,:)=la matriz 1xn
x=la matriz nx1

C(j,:)= 𝒄𝒋,𝟏 𝒄𝒋,𝟐 𝒄𝒋,𝟑 …… 𝒄𝒋,𝒏 x= 𝒙𝟏


𝒙𝟐
C(j,:)= 𝒄𝒋,𝒕 𝒋≠𝒕 ⋮
0 𝒋=𝒕 𝒙𝒋
𝒙𝒐𝒍𝒅𝒋+𝟏

𝒙𝒐𝒍𝒅𝒏

Paso 7: Para ‖𝒙 − 𝒙𝒐𝒍𝒅‖ ≤ 𝒕𝒐𝒍 entonces:


Paso 8: Salida (𝒙𝟏 , 𝒙𝟐 , 𝒙𝟑 , … , 𝒙𝒏 ); (el método sor converge), Parar
Paso 9: tomar i=i+1
Paso 10: Para j=1,2, 3,…, n tomar 𝒙𝒐𝒍𝒅𝒋 = 𝒙𝒋
Salida (el método sor no converge)

11
Forma en algoritmo

12
Problema aplicativo con el método SOR

Antecedentes: la mayor parte de los diferentes campos de la ingeniería


manejan distribuciones de temperatura en materiales sólidos. Estos
problemas son tan variados como la distribución de temperatura en un
cono de proare entrante y la temperatura de un río bajo una planta de
energía productora de hielo. La distribución de temperatura en estado
estacionario bidimensional se define por la ecuación de Laplace:
𝝏𝟐 𝑻 𝝏𝟐 𝑻
+ =𝟎
𝝏𝒙𝟐 𝝏𝒚𝟐
en donde T es la temperatura y x e y son las coordenadas. Las derivadas
de la ecuación se aproximan usando diferencias finitas.
Determinar las temperaturas en cada nodo de la placa presente a la figura

La figura muestra una malla bidimensional, esquema útil en las


aproximaciones desarrolladas para la ecuación. Las aproximaciones por
diferencias divididas de las derivadas son:

𝝏𝑻 ∆𝑻 𝑻𝒊+𝟏,𝒋 − 𝑻𝒊,𝒋
≈ =
𝝏𝒙 ∆𝒙 ∆𝒙

𝑻𝒊+𝟏,𝒋 − 𝑻𝒊,𝒋 𝑻𝒊,𝒋 − 𝑻𝒊−𝟏,𝒋


𝝏𝟐 𝑻 𝝏 𝝏𝑻 − 𝑻𝒊+𝟏,𝒋 − 𝟐𝑻𝒊,𝒋 + 𝑻𝒊−𝟏,𝒋
= ≈ ∆𝒙 ∆𝒙 =
𝝏𝒙𝟐 𝝏𝒙 𝝏𝒙 ∆𝒙 ∆𝒙𝟐

13
Y de manera similar lo hacemos para y:

𝝏𝟐 𝑻 𝑻𝒊,𝒋+𝟏 − 𝟐𝑻𝒊,𝒋 + 𝑻𝒊,𝒋−𝟏


=
𝝏𝒚𝟐 ∆𝒚𝟐
Suponiendo que ∆𝒙 = ∆𝒚 entonces la ecuación de Laplace se puede
aproximar como:

𝑻𝒊+𝟏,𝒋 + 𝑻𝒊−𝟏,𝒋 + 𝑻𝒊,𝒋+𝟏 + 𝑻𝒊,𝒋−𝟏 − 𝟒𝑻𝒊,𝒋 = 𝟎

lo cual es aplicable a cada nodo i, j de la figura. Parece ser que al aplicar


la ecuación de Laplace a cada nodo resulta un sistema de ecuaciones
acopladas, ya que la temperatura aparece en más de una ecuación. Esto
produce un sistema de ecuaciones algebraicas lineales simultáneas, ya
que se pueden resolver usando los métodos de iteración.

𝑻𝒊+𝟏,𝒋 + 𝑻𝒊−𝟏,𝒋 + 𝑻𝒊,𝒋+𝟏 + 𝑻𝒊,𝒋−𝟏


𝑻𝒊,𝒋 =
𝟒

En la figura. La distribución de la temperatura dentro de la placa se puede


aproximar en nueve nodos, aplicando la ecuación de Laplace en cada
nodo, se obtiene:

14
−𝟒𝐓𝟏,𝟏 + 𝐓𝟏,𝟐 + 𝐓𝟐,𝟏 = −𝟏𝟎𝟎
𝐓𝟏,𝟏 − 𝟒𝐓𝟏,𝟐 + 𝐓𝟏,𝟑 + 𝐓𝟐,𝟐 = −𝟏𝟎𝟎
𝐓𝟏,𝟐 − 𝟒𝐓𝟏,𝟑 + 𝐓𝟐,𝟏 = −𝟐𝟎𝟎
𝐓𝟏,𝟏 − 𝟒𝐓𝟐,𝟏 + 𝐓𝟐,𝟐 + 𝐓𝟑,𝟏 = 𝟎
𝐓𝟏,𝟐 + 𝐓𝟐,𝟏 − 𝟒𝐓𝟐,𝟐 + 𝐓𝟐,𝟑 + 𝐓𝟑,𝟐 = 𝟎
𝐓𝟏,𝟑 + 𝐓𝟐,𝟐 − 𝟒𝐓𝟐,𝟑 + 𝐓𝟑,𝟑 = −𝟏𝟎𝟎
𝐓𝟐,𝟏 −𝟒𝐓𝟑,𝟏 + 𝐓𝟑,𝟐 = 𝟎
𝐓𝟐,𝟐 + 𝐓𝟑,𝟏 − 𝟒𝐓𝟑,𝟐 + 𝐓𝟑,𝟑 = 𝟎
𝐓𝟐,𝟑 +𝐓𝟑,𝟐 − 𝟒𝐓𝟑,𝟑 = −𝟏𝟎𝟎
En su forma matricial

-4 1 0 1 0 0 0 0 0 𝐓𝟏,𝟏 -100
1 -4 1 0 1 0 0 0 0 𝑻𝟏,𝟐 -100
0 1 -4 0 0 1 0 0 0 𝑻𝟏,𝟑 -200
1 0 0 -4 1 0 1 0 0 𝑻𝟐,𝟏 0
0 1 0 1 -4 1 0 1 0 𝑻𝟐,𝟐 = 0
0 0 1 0 1 -4 0 0 1 𝑻𝟐,𝟑 -100
0 0 0 1 0 0 -4 1 0 𝑻𝟑,𝟏 0
0 0 0 0 1 0 1 -4 1 𝑻𝟑,𝟐 0
0 0 0 0 0 1 0 1 -4 𝑻𝟑,𝟑 -100

15
Aplicando el algoritmo SOR se obtiene las temperaturas

16

También podría gustarte