Está en la página 1de 38

DISEÑO ÓPTIMO I

Métodos promotores de
convergencia
Métodos promotores de convergencia

CICLOS SISTEMA DE N ECUACIONES RESUELTOS EN


ITERATIVOS LINEALES O NO CON N FORMA
INCÓGNITAS SIMULTANEA

METODOS DE BUSQUEDA DE RAICES

METODOS PROMOTORES DE CONVERGENCIA


Métodos promotores de convergencia

SISTEMA DE N ECUACIONES
LINEALES O NO CON N
INCÓGNITAS

2
extremos

Todas las variables a ser Ninguna de ellas puede ser


calculadas por el algoritmo explicitada y requiere de un
resultan fácilmente método numérico para su
despejables de las evaluación. En este caso
ecuaciones existe una iteración oculta

Si bien la mayoría de los problemas en la industria se asemeja al primer caso, si


existiera un sistema como el segundo caso, podría reformularse el problema y
encontrar un sistema donde todas las variables sean explicitables de las
ecuaciones. Esto ultimo suele implicar un aumento de la complejidad del sistema.
Métodos promotores de convergencia
Para analizar los diferentes métodos promotores de convergencia del proceso iterativo
consideraremos:

n ecuaciones con n incógnitas

Analizaremos dos grandes grupos de métodos:

1) Aquellos donde NO se requiere la expresión de las derivadas, su cálculo


o estimación

2) Aquellos donde SI se requiere conocer las derivadas, su calculo o


estimación
Métodos promotores de convergencia
Métodos que NO requieren la expresión de las derivadas

En este grupo de métodos el proceso iterativo se lleva a cabo de acuerdo al siguiente


algoritmo básico:

k 1
xik 1  xik  i ( x , x ,..) f i ( x )  xik  ik f i ( x )
k k k

fi(xk ) = cualquiera de las ecuaciones del sistema que se desea resolver


ki = función que será definida para cada método
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas
La formula recursiva utilizada es la del algoritmo general básico,
considerando a ki = 1

k 1
x  x  f (x )
k k
f(x)

f(X)

X
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas

k 1
x  x  f (x )
k k

f(X)

X1
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas

k 1
x  x  f (x )
k k

f(X)

X1
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas

k 1
x  x  f (x )
k k

f(X)

X2 X1
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas
k 1
x  x  f (x )
k k

f(X)

X2 X1

La búsqueda finalizará cuando:

x k 1  x k   ; f ( x k 1 )  
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas
Convergencia: este método converge únicamente si se cumple:

0  f '(x k )  2 En todo el intervalo de iteración

Si la derivada es negativa no se logra la Si la derivada es < 2 NO se logra la


convergencia  DIVERGE convergencia  DIVERGE

X2 X1 X2 X1
Métodos promotores de convergencia
Método de Piccard o aproximaciones sucesivas
x k 1  x k  f ( x k )
x k 1  x k   ; f ( x k 1 )  

Extensión a multivariables
k 1
 x  fi (x )
k k
x i i

   es|| decir
k 1 k 1
||  x || ||x
k 1 ||o || f ox || ||f x
k 1  es decir

  x ) o   o f x  f x   


k 1 2
kk 21
 
k 1 k 2 k 1 2
( x  (xxi) ii i i i
i i i i
Métodos promotores de convergencia

Métodos de la secante y de Wegstein son mejoras sobre el método de Piccard.

La mejora consiste en incluir en la fórmula recursiva la evaluación de la tendencia


en el comportamiento del sistema por ejemplo mediante el cálculo de la secante.

Método de la secante

Método de Wegstein
Métodos promotores de convergencia
Método de la secante
En este método el factor ki = es la inversa de la secante calculada a partir de
dos puntos anteriores.

Evidentemente se requiere de 2 puntos


iniciales x0 y x1 para comenzar el
proceso iterativo.

Luego se pueden utilizar los puntos


generados para ir reemplazando
alguno de los que definen la
secante. (SECANTE)
k 1
x k
 x
x k 1  x k  k 1
f ( x k
)
f (x )  f (x )
k
Otra opción es realizar un análisis
de la función en el nuevo punto y
reemplazar aquel donde la función
tiene el mismo signo (REGULA
FALSI)
Métodos promotores de convergencia
Método de la secante
En este método el factor ki = es la inversa de la secante calculada a partir de
dos puntos anteriores.
En general se trabaja con una
combinación de ambos métodos
donde:

Si la función en el nuevo punto y en


los dos anteriores tienen IGUAL
SIGNO se aplica el método de la
k 1
SECANTE.
x k
 x
x k 1  x k  k 1
f ( x k
)
f (x )  f (x )
k Una vez que se consiguen signos
diferentes el criterio REGULA FALSI
asegura la convergencia.
Métodos promotores de convergencia
Método de la secante

f(X)

Xk-1
Métodos promotores de convergencia
Método de la secante
f(X)

X
XXkk k-1
Xk-1
Métodos promotores de convergencia
Método de la secante
f(X)

X
XXkk k-1
Xk-1

k 1
k 1 x xk
x x 
k
k 1
f ( x k
)
f (x )  f (x )
k
Métodos promotores de convergencia
Método de la secante
f(X)

Xk+1 X
X k+1 XXkk k-1
Xk-1

k 1
k 1 x xk
x x 
k
k 1
f ( x k
)
f (x )  f (x )
k
Métodos promotores de convergencia
Método de la secante
f(X)

Xk+1 Xk+2 Xk

Regula Falsi
sgn f ( x k 1 )  sgn f ( x k )

f (x k 1
)  CRITERIO PARA LLEGAR A LA SOLUCIÓN
Métodos promotores de convergencia
Método de la secante
k 1 x k  x k 1 f ( x k 1 )  
x x k
k 1
f ( x k
)
f (x )  f (x )
k

Extensión a multivariable

k 1
k 1 x k
 x
xi  xi 
k i i k
k 1
fi ( x )
fi ( x )  fi ( x )
k

f (x 
k 1 k 1 2
f (x )  es decir i ) 
i
Métodos promotores de convergencia
Método de Wegstein f(X)
Este método también usa la SECANTE para
estimar la tendencia PERO:
f(X0)
A) REQUIERE UN SOLO PUNTO PARA INICAR EL
PROCESO X2 X3
X4 X1 X0 X
B) EL ESQUEMA DE TRABAJO SE REINICIA CADA f(X2)
VEZ QUE SE CALCULA UN NUEVO PUNTO.

Como para determinar la recta secante se


necesitan dos puntos entonces se utiliza
PICCARD para el segundo punto y luego se aplica
secante.
Punto inicial: x k 1
k 1 k 1
x x
k
 f (x ) PICCARD TERMINACIÓN
k 1
x k
 x
x k 1  x k  k 1
f ( x k
) SECANTE
f ( x k 1 )  
f (x )  f (x )
k
Métodos promotores de convergencia
Método de Wegstein
f(X)
0
Punto inicial: x
Aplicamos Piccard:
f(X0)

x1  x 0  f ( x 0 ) X2 X3
X
2 X4 X1 X0
f(X )
Aplicamos secante

x 1
 x 0
x 2  x1  f ( x 1
)
f(x )  f(x )
1 0

A partir de ahora X2 será el nuevo X0

f ( x k 1 )  
Métodos promotores de convergencia
Ejemplo
q A B r1 = k1 CA
CA0 B C r2 = k 2 C B

Datos:
V = 100 lt
q k1 = 5 s-1 ; k = 2 s-1
2

CA1 CB1 CC1 CA0 = 1 kgmol/lt


CC1 = 0.9 kgmol/lt
Métodos promotores de convergencia
Ejemplo
A B r1 = k1 CA
q
CA0 B C r2 = k2 CB

Relaciones de diseño

1) q CA0 = q CA1 + V k1 CA1


q
CA1 CB1 CC1 2) V k1 CA1 = q CB1 + V k2 CB1
3) CA0 = CA1 + CB1 + CC1
q CA1 CB1
1 * *
2 * * *
3 * *
Métodos promotores de convergencia
Ejemplo CA1 q CB1
1 * * CA0 = CA1 + CB1 + CC1
2 * CA0 - CA1 - CC1>0
3 * CA0 =1 , CC1 = 0.9

• suponemos un valor para la variable CA1


• de la ecuación 1, calculamos q
• de las ecuaciones 2 y 3, calculamos CB1

 = CB1(2) – CB1(3)
||≤Є FIN
NO SI
Límites para CA1:
CA1 > 0 CA0 - CA1 - CC1 > 0 CA1 < 0.1
Métodos promotores de convergencia
Ejemplo

Piccard Stephensen Newton


Regula FalsiRaphson Partición
Iteración CA1  CA1 Iteración CA1 CA1   CA1
1 0.04000 0.03057 0.04000 10.030570.04000
0.040000.03057
0.030570.04000 0.
2 0.00943 -0.06753 0.00943 -0.06753
2 0.01000
0.03064-0.06562
0.001620.01000 -0
3 0.07696 0.13618 0.07696 3 0.03047
0.030150.00108
0.000080.02500 -0
4 -0.05922 -0.33132 0.03048 40.001110.03013 0.00004 0.03250 0.
5 0.27210 0.52374 0.02936 -0.00240
5 0.02875 -0
6 diverge 0.03176 6 0.03063 0.
7 0.03012 70.00000 0.02969 -0
8 0.03016 0.
Métodos promotores de convergencia

Existe otro método llamado del AUTOVALOR DOMINANTE


Este método tampoco requiere la consideración de las derivadas y
tampoco hace uso de la secante. Solo asigna un valor fijo a  o poco
variable.

Método del Autovalor Dominante:  fijo

Se aplica principalmente a problemas multivariables.


Para entenderlo haremos de todas formas el caso unidemensional y
luego lo extenderemos.
Métodos promotores de convergencia
Método del Autovalor Dominante
Caso unidimensional
Haciendo un desarrollo en serio para f(x) y considerando solo el término de
primer orden:

f(xk) = f(xk-1) + f’(xk-1) (xk – xk-1) = f(xk-1) + f’(xk-1) xk (1)

Si usamos Piccard para obtener las sucesivas aproximaciones con un valor


constante de 
x k 1  x k   f ( x )
k

Obtenemos:
xk+1 = -  f(xk) y xk = -  f(xk-1)
Reemplazando en (1)

xk+1 = -xk + f’(xk-1)) xk

xk+1 = (1 –  f’(xk-1)) xk


Métodos promotores de convergencia
Método del Autovalor Dominante
Caso unidimensional

xk+1 = (1 – f’(xk-1)) xk

Si |l*| es el mayor valor de la derivada de f(x) en todo el intervalo


se puede demostrar que:

|xk+1| ≤ |1-l*| |xk| o |xk+1| ≤ (|1-l*|)k |x1|

La convergencia depende de l* y   Si   1/ l* , lo que logro


es hacer el término entre paréntesis = 0
Métodos promotores de convergencia
Método del Autovalor Dominante
Caso unidimensional
Estimación de l*

Se suele adoptar l* =x2 / x1

A partir de x0 se calculan x1 y x2 por Piccard

Esta estimación puede mejorarse


durante el proceso iterativo
Métodos promotores de convergencia
Método de Newton - Raphson
Este método forma parte del segundo grupo de método iterativos para resolver
ecuaciones no lineales aisladas o acopladas. Requieren el conocimiento d ela
derivada o su calculo o estimación.
En el caso unidimensional (1 variable) partimos del
desarrollo en serie de f(x) hasta el primer término:

f ( x k 1 )  f ( x k )  fx k
( x k 1
 x k
)
x
Si asumimos que x k+1 es la solución de f(x) =0 : X0

Si xk+1 es la raíz

Formula de iteración para el método de


k
k 1 f ( x ) Newton. Se toma el comportamiento de la
x x k
función como si fuera el de la recta tangente
f ' (xk ) a f(x) en x = xk
Métodos promotores de convergencia
Método de Newton - Raphson
Piccard Stephensen
Piccard Newton Raphson
Stephensen Newton Raphson
CA1 
Iteración CA1  CA1  CA1 
0.04000 0.030571 0.04000 0.03057 0.04000 0.03057 0.04000 0.03057
0.00943 -0.06753
2 0.00943 -0.06753 0.03064
0.00943 0.00162
-0.06753 0.03064 0.00162
0.07696 0.136183 0.07696 0.13618 0.03015
0.07696 0.00008 0.03015 0.00008
-0.05922 -0.33132
4 0.03048
-0.05922 0.00111
-0.33132 0.03048 0.00111
0.27210 0.523745 0.02936
0.27210 -0.00240
0.52374 0.02936 -0.00240
diverge 6 0.03176diverge 0.03176
7 0.03012 0.00000 0.03012 0.00000

Regula Falsi Partición


Iteración CA1  CA1 
1 0.04000 0.03057 0.04000 0.03057
2 0.01000 -0.06562 0.01000 -0.06562
3 0.03047 0.00108 0.02500 -0.01627
4 0.03013 0.00004 0.03250 0.00746
5 0.02875 -0.00433
6 0.03063 0.00158
7 0.02969 -0.00137
8 0.03016 0.00011
Métodos promotores de convergencia
Método de Newton - Raphson
Método de Newton para 2 variables

Sean: f1( x1 , x2 )  0 ; f 2 ( x1 , x2 )  0

Haciendo un desarrollo de Taylor alrededor del punto (x10, x20):

 f1   f1 
f1 ( x1 , x2 )  f1 ( x , x )  
0 0
 x1    x2
 x1  x0  x2  x0
1 2

 f 2   f 2 
f 2 ( x1 , x2 )  f 2 ( x , x )  
0 0
 x1    x2
 x1  x0  x2  x0
1 2
Métodos promotores de convergencia
Método de Newton - Raphson
Método de Newton para 2 variables
 f1   f1 
f1( x1 , x2 )  )
f1( x10 , x20  
 x1    x2
 x1  x0  x2  x0
 f 2   f 2 
f 2 ( x1 , x2 )  f 2 ( x1 , x2 )  
0 0
 x1    x2
 x1  x0  x2  x0

 f i 
 f i ( x10 , x20 )    x j i  1,2
 x j  0
j  xj
Métodos promotores de convergencia
Método de Newton - Raphson
Método de Newton para 2 variables
 f i 
 f i ( x1 , x2 )   
(0 ) (0 )  x j i  1,2
 x j  0
j   xj
En notación matricial:
 f10 f10 
 0 
f 1   x1 x2  x1  0  x1 
 0 0  x   J  x 
 f2  f 20 f 2  2   2
  
 x1 x2 

  f 10 
El cálculo del nuevo punto requiere el
 x1    J 0 1 
 x   f0
conocimiento del valor de las
 2  2 
derivadas de las f(x) evaluadas en xk
para luego proceder a la inversión de
la matriz del Jacobiano.
Métodos promotores de convergencia
Métodos cuasi Newton: Broyden
En Ingeniería Química y en problemas de cierta complejidad nunca se dispone de las expresiones
de las derivadas. Esto da surgimiento a los métodos llamados CUASI NEWTON.
IDEA BÁSICA DEL METODO: EVITAR EL CALCULO DEL JACOBIANO …como???....aproximando
la Matriz…

  J  k 1
k 1
x
k
f (x )
Si existe una Bk como aproximación de Jk x
k 1
 
 B k 1
f (x )
k

Esto
implica
n

 b x k 1
  fi ( x )
k k k
Deberemos encontrar la manera bij ij j
de determinar los coeficientes j 1
Métodos promotores de convergencia
Métodos cuasi Newton: Broyden
Para esto, supóngase conocidos los elementos de la matriz Bk-1, bij k-1, así como las
componentes de las soluciones encontradas en las etapas k-1 y k, xjk, xjk-1 y, obviamente, fi(xk)
y fi(xk-1).
Como primera aproximación, B0, se suele usar la matriz identidad bii 0 = 1, bij 0 = 0,
i ≠ j.
Plantearemos ahora que la nueva aproximación Bk guarde una mínima diferencia con la
anterior Bk-1
n n

min  ij ij )
k 1 2
(b k
b
bijk i 1 j 1

Y para cada componente de f(x) una expresión similar a la secante:


n

b
k 1
( x kj  x kj 1 )  f i ( x )  f i ( x
k k
ij )
j 1

llegamos así a un problema de optimización de estructura conocida para el que existe una
solución analítica que permite encontrar los valores de bij k y a partir de ellos las
componentes xjk+1
k 1 k 1
El procedimiento termina cuando: x  ; f (x ) 

También podría gustarte