Está en la página 1de 6

OPTIMIZACIÓN DE PROCESOS QUÍMICOS

INTRODUCCIÓN
La industria química y afín utiliza la optimización para ser más competitiva. Esta mejora
normalmente lleva asociado pan un ahorro de costes (por ejemplo, al establecer la etapa de
alimentación de una columna de destilación, en función de consumo energético), urna mayor
eficacia de operación (por ejemplo al fijar la temperatura de reacción que maximiza la
conversión del producto principal y simultáneamente minimiza la conversión de los
productos secundarios) o aspectos relacionados con la logística (por ejemplo, la industria
farmacéutica debe garantizar la disponibilidad de ciertos medicamentos en todo momento, a
la vez que debe gestionar sus materias primas y productos intermedios). Por lo tanto, queda
claro que muchas de las decisiones que se toman en la operación de las plantas químicas
están basadas en la aplicación de herramientas de optimización.
8.2. MÉTODOS NUMÉRICOS DE OPTIMIZACIÓN
Un problema de optimización se puede expresar de la forma:
𝑀𝑖𝑛 𝑓(𝑥, 𝑦) 𝑜 𝑀𝑎𝑥𝑓(𝑥, 𝑦)
𝑔𝑗 (𝑥, 𝑦) ≤ 0

ℎ𝑗 (𝑥, 𝑦) = 0

Donde la función objetivo f (x, y) está sujeta a un cierto número de restricciones, expresadas
en forma de desigualdad gj (x, y), o igualdad hj (x, y).
El problema se plantea de forma que algunas de las variables se puedan modificar (variables
independientes o grados de libertad), mientras que el resto de variables (variables
dependientes) se calculan a partir de éstas hasta lograr el objetivo (maximizar o minimizar)
Las variables (x, y) pueden ser continuas o discretas (que, a su vez, pueden ser binarias o
enteras). En la mayoría de ocasiones las variables binarias se asocian a decisiones (1 = sí, 0=
no).
Concavidad y convexidad de funciones
La palabra clave en optimización de procesos es convexidad. Si tanto la función objetivo
como las restricciones son convexas, el problema será sencillo de resolver y su convergencia
presentará pocas dificultades. Es más, para problemas no lineales, si todas las funciones son
convexas, se puede garantizar que el óptimo obtenido es el óptimo global. Por el contrario,
resolver problemas no convexos supone la aparición de dificultades en su resolución
(convergencia y robustez), así como la imposibilidad de discernir si un óptimo es local o
global.
Si la función f(x,y) está totalmente acotada por restricciones convexas 𝑔𝑗 (𝑥, 𝑦) ≤ 0, se
forma una región convexa.
Algoritmos de optimización no lineales sin restricciones
Los algoritmos de optimización no lineales sin restricciones se pueden clasificar en función
de la necesidad de calcular las derivadas de las funciones, un aspecto que está directamente
relacionado con la potencia de cálculo necesaria para resolver un problema:
 Búsqueda sin utilizar derivadas.
 Búsqueda usando la primera derivada
 Búsqueda usando la segunda derivada
Algoritmos de optimización no lineales con restricciones
En la optimización de problemas no lineales con restricciones, los diferentes métodos pueden
clasificarse en:
 Métodos de penalización exterior: se añade un término de penalización para cada
violación de las restricciones, por lo que se debe resolver una sucesión de problemas
sin restricciones. Los parámetros de penalización deben ser lo suficientemente
grandes como para generar una secuencia que se aproxime al óptimo.
 Métodos de penalización interior: transforman el problema original con restricciones
en una sucesión de problemas sin restricciones, introduciendo una función de barrera
que evita la generación de valores situados fuera de la región factible
 Métodos de proyección de gradiente: proyectan el gradiente de la función objetivo en
el espacio formado por las restricciones activas, buscando mejorar en la dirección
factible.
 Método del gradiente reducido generalizado: es una modificación del anterior, puesto
que en presencia de restricciones no lineales el método anterior necesita correcciones
para obtener una dirección de búsqueda factible.
 Programación lineal sucesiva: en cada interacción se linealiza la función objetivo y
las restricciones, cuya solución proporciona la nueva dirección de la búsqueda.
 Programación cuadrática sucesiva: trata mejorarla-convergencia del método anterior.
La nueva dirección de búsqueda se obtiene a partir de un problema cuya función
objetivo es una aproximación cuadrática y cutas restricciones se han linealizado.

8.3. BÚSQUEDA UNIDIRECCIONAL


A continuación, se describe el método simplex ya que es el que más se utiliza.
Se basa en utilizar una figura regular como base (un triángulo equilátero en dos dimensiones).
Para aplicar el método, en primer lugar se selecciona un valor inicial 𝑋1,0 , 𝑋2,0 . Para obtener
la terna de valores que forma un triángulo se utilizan los parámetros p y q, que se definen a
continuación, donde n es el número de incógnitas y a la distancia entre puntos:
𝑎
𝑝= . (𝑛 − 1 + √𝑛 + 1
𝑛. √2
𝑎
𝑞= . (−1 + √𝑛 + 1
𝑛. √2

La primera terna en la que evaluar el método simplex se obtiene a partir de:


𝑋1,1 = 𝑋1,0 + 𝑝, 𝑋2,1 = 𝑋2,0 + 𝑞

𝑋1,2 = 𝑋1,0 + 𝑞, 𝑋2,2 = 𝑋2,0 + 𝑝


La función objetivo se evalúa en los vértices del triángulo. En el método simplex original se-
mantiene la geometría, mientras que sus modificaciones permiten distorsiones para acelerar
la búsqueda mediante expansión o contracción.
8.4. PROGRAMACIÓN LINEAL
En este tipo de problemas, tanto la función objetivo como las restricciones son lineales, por
lo que la solución es única. Por lo tanto, la solución óptima de un LP cae en un vértice del
espacio formado por la región factible (o en una arista). Este tipo de problemas se resuelven
normalmente aplicando el método simplex, que permite resolver problemas que contengan
entre 10.000 y 15.000 restricciones.
Método gráfico La solución se obtiene geométricamente, por lo que este método únicamente
se puede utilizar cuando hay pocas variables. Se necesita conocer:
 La región factible, definida por la intersección de las restricciones: las restricciones
en forma de desigualdad especifican una zona. mientras que las restricciones en forma
de igualdad limitan el conjunto de puntos a hipersuperficies.
 La representación de la familia de líneas de nivel definida por la función objetivo. Se
debe alcanzar el valor máximo (o mínimo) en función del objetivo.
Método simplex con restricciones En primer lugar es necesario convertir las ecuaciones en
igualdades.
utilizando dos variables nuevas (llamadas variables no básicas: 𝑥1ℎ 𝑦 𝑥2ℎ ):

𝑓(𝑥1 , 𝑥2 ) = 4. 𝑥1 + 5. 𝑥2 + 0. 𝑥1ℎ + 0. 𝑥2ℎ


2. 𝑥1 + 𝑥2 + 𝑥1ℎ + =8
𝑥2 + 𝑥2ℎ = 5
La resolución del método simplex en forma de tabla (cuadro 8.2) comienza por colocar
ordenadamente en la segunda fila todas las variables(𝑥1 , 𝑥2 𝑥1ℎ 𝑦 𝑥2ℎ ) mientras que en la
primera fila se indica su coeficiente en la función objetivo (4, 5. 0 y 0. respectivamente).

En la segunda columna se sitúan las variables básicas (𝑥1ℎ 𝑦 𝑥2ℎ ) acompañadas de nuevo por
sus coeficientes en la función objetivo en la primera columna (0 y 0, respectivamente).
Los índices que aparecen en este cuadro son los coeficientes de cada una de las variables en
las restricciones: (2, 1, 1, 0) y (0, 1, 0, 1), respectivamente.
La última columna se reserva para los términos independientes de las restricciones (Po; en
este caso, 8 y 5).
En la penúltima fila (zj) se colocan los valores que provienen de multiplicar los valores de
los coeficientes de las variables que aparecen en la primera columna por los coeficientes de
cada una de las variables.
8.5. PROGRAMACIÓN LINEAL MIXTA
La programación lineal mixta (MILP) es la extensión de los problemas de programación
lineal, incluyendo variables. discretas.
Por lo tanto, MILP permite formular problemas basados en decisiones. (que se asigna a los
valores 0, 1) donde el número de posibilidades es infinito.
El objetivo de los distintos algoritmos de cálculo es evitar evaluar un elevado número de
alternativas y centrarse lo antes posible en las soluciones más prometedoras.
Las técnicas más habituales para resolver MILP son:
 Branch and bound (ramificación y acotamiento): consiste en resolver un subconjunto
de problemas de programación lineal que se incluyen en un árbol de decisiones
obtenido a partir de las variables binarias.
 Descomposición de Benders (Sabinidis y Grossrnann, 1991): se explota la estructura
del modelo a través del particionado de las variables y la noción de dualidad,
aplicando métodos de relajación.
 Métodos de plano de corte: la región factible no se divide en subdominios, sino que
se añaden nuevas restricciones ("cortes") que reducen la región factible, hasta obtener
el óptimo.
 Métodos basados en la lógica: se usan restricciones disyuntivas.
Método bronch and bound (MILP)
El objetivo de este método es evitar la enumeración exhaustiva de las combinaciones
existentes. Una forma muy común de enfocar el problema es resolver, en primer lugar, el
“modelo relajado. Una vez realizado este paso se decide que variables se fijan como uno y
cuáles como cero obteniendo el caso base. A partir momento hay dos estrategias para explorar
el espació de soluciones:
 LIFO: expande el nodo más reciente y vuelve hacia atrás por el mismo camino.
 Mejo cota: expande el nodo con la mejor cota inferior.

8.6. PROGRAMACIÓN NO LINEAL


Algoritmo SQP
El algoritmo SQP (successive quadratic programming) es un método cuasi newtoniano de
resolución de problemas no lineales. Este algoritmo funciona bien cuando hay muchas
ecuaciones en comparación con el número de variables y únicamente unas pocas son
independientes (grados de libertad). SQP requiere un buen punto inicial (que se puede
obtener a partir de análisis de sensibilidad) y que no haya discontinuidades en las derivadas.
SQP es muy eficaz para resolver problemas utilizando simuladores de proceso secuenciales-
modulares, por lo que su implementación se ha generalizado en estas herramientas de cálculo.
El motivo es que las especificaciones de diseño, las restricciones de operación y las corrientes
de ruptura se resuelven simultáneamente con el problema de optimización. Su gran ventaja
es, por lo tanto, que converge rápidamente con una relativamente baja necesidad de cálculo,
al no requerir evaluar gran número de funciones.
Método del gradiente reducido La idea que hay detrás de estos métodos es modificar el
problema (n variables y m restricciones) despejando tantas variables como restricciones y
expresándolas en función del resto (n — m que son los grados de libertad). Esto prácticamente
nunca es factible para problemas con ecuaciones no lineales, pero sí cuando todas las
restricciones son lineales.
8.7 PROGRAMACIÓN NO LINEAL CON VARIABLES ENTERAS
La extensión de la programación no lineal para tratar con variables discretas lleva a la
programación no lineal con variables enteras mixta (MINLE mixed integer non linear
programming). La descripción de los algoritmos de cálculo queda fuera del objetivo de este
capítulo. De forma general, el procedimiento de cálculo es el siguiente: el problema original
se descompone en una secuencia de problemas NLP y MILE donde el primero optimiza las
variables continuas y el segundo las discretas.
Los algoritmos más utilizados son:
1. Métodos de descomposición: son las técnicas más efectivas, en particular la
aproximación exterior.
2. Brunch and bound: la convergencia a un óptimo global sólo se puede garantizar si los
problemas NLP son convexos.
8.8. OPTIMIZACIÓN CON SIMULADORES DE PROCESO
8.9. OPTIMIZACIÓN DINÁMICA
8.10. MÉTODOS HEURÍSTICOS Y METAHEURÍSTICOS DE OPTIMIZACIÓN

También podría gustarte