Está en la página 1de 3

Este concepto forma la base de la iteración SOR, que se define como

ω
x(k1 +1)=x (k1 )+ [ d −a x (k ) −a12 x (2k )−a 13 x (3k )−a14 x(4k )−.. .−a1 n x (nk ) ] ..(7.107 a)
a 11 1 11 1

ω
x(k2 +1)=x (k2 )+ [ d 2−a2 1 x(1k+1 )−a2 2 x (2k )−a 23 x (3k )−a2 4 x (4k )−. ..−a2 n x(nk ) ] . .(7.107 b)
a 22

ω
x(k3 +1)=x (k3 )+ [ d 3−a 31 x (1k+1 )−a3 2 x(2k+1 )−a3 3 x(3k ) −a3 4 x (4k )−.. .−a3 n x (nk ) ] ..(7.107 c)
a 33

ω
x(kn +1)=x (kn )+ [ d −a x (k +1)−a n 2 x (2k +1)−a n 3 x (3k +1)−a n 4 x(4k+1 )−. ..−an , n−1 x (nk +1)−a n n x (nk ) ] ..(7.107 d)
a nn n n 1 1
En Eq. 7.107, ω = parámetro de aceleración o factor de relajación que es una constante positiva
entre 1 y 2. El valor específico de ω que maximiza la tasa de convergencia se conoce como el
parámetro de aceleración óptima, ωopt, que es específico del problema. La estimación de El
parámetro de sobrerelajación óptima que se verá más adelante en esta sección presenta una
técnica simple para estimar su valor. El desafío de encontrar un único ω opt implica que cualquier
valor arbitrario de ω entre 1 y 2 no necesariamente acelera la convergencia para cada elemento
del vector desconocido. Si ω = 1, las ecuaciones iterativas de la ecuación 7.107 se reducen a la
forma de la iteración de Gauss-Seidel. El algoritmo para la iteración de PSOR es el siguiente.
Calcular
i−1 n
x(k1 +1)=
ω
aii[ j=1 j=i+1
]
d 1−∑ aij x (jk +1)− ∑ a ij x (jk ) −( ω−1 ) x (ik ) … ….. .(7.108)

para i = 1, 2, ..., n, y verifique la convergencia con

|x (ik +1)−x (1k )|≤ ε … ….. .(7.99)


para i = 1, 2, ..., n. Si el algoritmo se implementa con ω opt, es posible acelerar la tasa de
convergencia de la iteración Gauss-Seidel en un factor de aproximadamente dos.
Método de línea SOR (LSOR). La implementación de la técnica SOR a un grupo de incógnitas
ubicadas en una línea da como resultado el método LSOR. En este método, las incógnitas
ubicadas en la misma línea se resuelven y relajan simultáneamente. Para esta discusión,
considere la ecuación 2D La-place,

∂2 p ∂2 p
+ =0. … … … … … … … .. .(7.24)
∂ x2 ∂ y2
La aproximación en diferencias finitas de la ecuación. 7.24, suponiendo que ∆ x = ∆ y, viene
dado por la Ec. 7,26,

pi , j−1+ p i−1 , j−4 pi , j + pi+1 , j + pi , j+1=0. … … … .. … ..(7.26)


Considere el dominio 2D de la figura 7.31. Cuando Eq. 7.26 se escribe para cada bloque de
cuadrícula en el sistema, mediante el uso del ordenamiento natural, se forma una matriz de
coeficientes pentadiagonales. Cuando se implementa el método LSOR, las incógnitas ubicadas
en la misma fila (o columna) se resuelven simultáneamente. La figura 7.31 muestra las
posiciones de los nodos desconocidos en un nivel de iteración dado para dos posibles
direcciones de barrido. Si el sistema va a ser barrido a lo largo de la dirección y, como muestra
la figura 7.31a, todos los nodos que comparten el mismo subíndice j hacen las incógnitas para
Línea / Las incógnitas para los nodos ubicados en la línea anterior (los nodos con subíndice j-1)
se calculan durante los cálculos de línea anteriores, por lo que sus valores están disponibles en
el nivel de iteración actual (nuevo). Los nodos con subíndice j + 1 se ubican en la siguiente línea
a resolver; por lo tanto, sus valores están disponibles en el nivel de iteración anterior. Por otro
lado, si el sistema se va a barrer a lo largo de la dirección x (figura 7.31 b), todas las incógnitas
de la ecuación. 7.26 con subíndice i se tratan como las incógnitas del nivel de iteración actual;
aquellos con subíndice i -1 están disponibles en el nuevo nivel de iteración; y aquellos con
subíndice i + 1 están disponibles en el nivel de iteración anterior. Las siguientes ecuaciones se
escriben para las dos líneas de la figura 7.31, j = 3 e i = 3.
k+1 )
−4 p(ik+1 ( k+1) ( k+1 ) (k )
p(i−1,3 )
,3 + pi+1,3 =− pi ,2 − p i ,4 … … … … … … … .. .(7.110)

También podría gustarte