Está en la página 1de 18

Simulación de un reactor de cracking

catalítico asistida por redes neuronales


Carlos Andrés Barrios Tavera – Bladimir Ernesto Aguas Perea
Facultad de Ingeniería, Departamento de Ingeniería Química, Universidad del Atlántico

______________________________________________________________________________
Resumen

Las redes neuronales se están implementando con éxito en la identificación y control de sistemas dinámicos debido
a su capacidad de aprendizaje a partir de patrones conocidos, lo que, debidamente configuradas y entrenadas, las
convierte en modelos empíricos muy útiles. Las cualidades de inteligencia artificial debido a la distribución en paralelo
del procesamiento de datos le permiten manejar cualquier tipo de información independiente de la forma y procedencia
de esta. Las ventajas de las redes neuronales en el campo de la simulación y control de procesos saltan a la vista
cuando se considera que la tarea de hacer representaciones de operaciones unitarias o de procesos completos se ve
obstaculizada por la complejidad de los modelos basados en los primeros principios y la dificultad de resolución
matemática. Una red neuronal puede desempeñar la labor de modelamiento para procesos de naturaleza lineal o no
lineal y salvar esas dificultades.
En este trabajo de grado fueron utilizados dos importantes tipos de redes neuronales para convertirlos en modelos
neuronales de una unidad de craqueo catalítico a partir de datos simulados de este proceso. Las redes Feedforward
Backpropagation y Radial Basis Function (RBF) fueron entrenadas mediante sus respectivas técnicas y se evaluó la
eficacia de cada una para hacer el seguimiento al proceso ‘real’, representado por el modelo en ecuaciones diferenciales,
encontrándose un comportamiento altamente efectivo en ambos tipos. Se implementó el modelo Feedforward
Backpropagation en el algoritmo de Control Predictivo Generalizado (Generalized Predictive Control, GPC) basado en
redes neuronales. El controlador GPC fue usado para controlar el reactor catalítico. Se analizó la competencia del
controlador para manejar diferentes referencias (set-point) en la variable controlada. Los resultados muestran la buena
labor de la red neuronal para hacer predicciones confiables de los estados futuros de la planta y la efectiva capacidad
del controlador GPC para mantener la variable controlada en el valor deseado.

Palabras clave: Redes neuronales, Feedforward Backpropagation, Radial Basis Function, Generalized Predictive Control, GPC, Cracking
Catalítico.
______________________________________________________________________________

1. Introducción genérica de una amplia clase de representación


conexionista, inspirada por algunos modelos
desarrollados para la explicación de la actividad
La unidad de crackeo catalítico (fluid catalytic del cerebro humano. Las redes neuronales
cracker, FCC) es la unidad de conversión pueden aproximar arbitrariamente bien
primaria en la mayoría de las refinerías de cualquier función no lineal, dentro de un
petróleo. Esta convierte, o crackea, crudos conjunto compacto y acotado, y son por tanto
pesados de bajo valor en una variedad de aproximadores universales [3].
productos ligeros de alto valor, entre ellos Para crear un modelo convencional
gasolina. Las unidades FCC son conocidas por la (simbólico) del reactor de cracking catalítico,
dificultad de modelamiento debido a la gran todos los fenómenos y procesos presentes en
cantidad de subprocesos que posee, su este reactor deben ser identificados y
hidrodinámica complicada, y su compleja propiamente descritos. La descripción
cinética tanto de las reacciones de crackeo como matemática de este modelo usualmente contiene
de combustión del coke [1, 2]. leyes de conservación y de transporte, y los
Por su parte, Las redes neuronales artificiales procesos químicos, físicos y fisicoquímicos son
(Artificial Neural Networks, ANN) están siendo expresados mediante un set de ecuaciones
ampliamente empleadas en diferentes áreas de la deterministicas (algebraicas, diferenciales, o
ciencia y la tecnología. El termino ‘redes integrales). Todas las constantes que aparecen
neuronales artificiales’ es una descripción en estas ecuaciones, llamadas parámetros,
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

tienen algún significado físico debido a que


estas caracterizan el proceso o fenómeno
apropiado [4]. Es por esta razón, que hacer un
modelo de una unidad FCC es una tarea
exigente pues se deben tomar en cuenta todas
las anteriores consideraciones. Muchos modelos
son muy generales, mientras que otros se
especializan en algún aspecto particular del
proceso, como por ejemplo, la fase densa y fluida
en el regenerador, o el modelo cinético de
crackeo [5, 6].
Por otro lado, en años recientes, muchos
algoritmos avanzados han sido desarrollados Fig. 1. Diagrama del sistema reactor regenerador para
para el control de procesos, tales como Lógica el proceso de craqueo catalítico
Difusa, Algoritmos genéticos y Control Predictivo
Basado en modelo (MPC). Entre estos algoritmos
de control, el Control Predictivo basado en 2. Modelo del sistema reactor-regenerador
modelo casi siempre ha demostrado un mejor catalítico
desempeño con relación a los esquemas de
control feedback. El nombre MPC surge de la El proceso es una versión simple de la
intención de usar un modelo explicito del importante operación industrial de craqueo
proceso, el cual es usado para predecir el futuro catalítico del petróleo. Consiste en dos unidades,
comportamiento de este. Esta capacidad de una de craqueo y una de regeneración como se
predicción permite una solución en línea de muestra en la figura 1 [1, 6, 10].
problemas de control óptimo, donde un error, la El componente A es alimentado al reactor,
diferencia entre la salida predicha y la referencia donde reacciona para formar el producto B
deseada, es minimizado sobre un horizonte mientras el componente C se deposita sobre el
futuro. catalizador fluidizado.
El Control Predictivo Generalizado
(Generalized predictive control, GPC) ha llegado a A Cat.
→ B + 0.1C
ser uno de los mas populares métodos MPC, (1)
tanto en la industria como en la academia. La
idea básica del GPC es calcular una secuencia El catalizador envenenado es circulado al
de señales de control futuras de tal forma que regenerador, donde se adiciona aire para quemar
minimice una función de costo definida sobre un el componente C.
horizonte de predicción. La aplicación de las
redes neuronales al algoritmo GPC parte de la C+O
→ P (2)
idea de utilizar un modelo neuronal para
convertirlo en predictor de las salidas del Los productos de combustión son retirados
proceso [7,8]. por la parte superior, y el catalizador regenerado
El objetivo de este artículo es demostrar que es devuelto al reactor. Calor es adicionado o
las redes neuronales del tipo feedforward son extraído del regenerador a una velocidad Q.
capaces de identificar una unidad de FCC a
partir de un modelo con no-linealidades. Debido 2.1 Ecuaciones del proceso
a la no disponibilidad de datos dinámicos de una
planta industrial, un modelo basado en los La descripción matemática del
primeros principios es usado para representar comportamiento dinámico del proceso esta
una unidad FCC industrial. Con un modelo basada en las siguientes asunciones:
neuronal debidamente entrenado, se
implementará el algoritmo de Control Predictivo 1. En ambas unidades se sigue la ley de los
generalizado (GPC) y será evaluado mediante la gases perfectos.
aplicación de varios niveles de referencia en la 2. La presión en ambas unidades se
variable controlada. El proceso completo de mantiene constante.
identificación y control fue realizado en el 3. La carga del catalizador es constante en
lenguaje de programación Matlab® con las cada unidad.
funciones predefinidas en el Neural Network 4. Las capacidades caloríficas de los
Toolbox [9]. reactantes y productos son iguales y
constantes en cada unidad. La

2
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

capacidad calorífica del catalizador 3. Redes Neuronales


también es constante.
5. Existe mezcla completa en cada unidad. Una red neuronal es por definición un
sistema de elementos simples de procesamiento,
El comportamiento dinámico del reactor y del llamados neuronas, los cuales están conectados
regenerador es descrito por balances de materia, a una red por un set de pesos. La red esta
balances de energía, ecuaciones de estado, y determinada por la arquitectura de la red (capas
ecuaciones cinéticas. El superíndice T denota los de neuronas, número de neuronas por capa,
valores totales instantáneos de las variables conexiones hacia delante o retroconexiones), la
dependientes1. magnitud de sus pesos (determinada por los
algoritmos de entrenamiento) y el modo de
REACTOR operación de sus elementos (función de
activación de las neuronas: lineal, tangente
Balance del componente B sigmoidal, logaritmo sigmoidal o funciones
gaussianas entre otras) [11, 19]. Aquí se
P1 H 1 dy1T PH
= V0T y 0T − V0T y1T + 1 T1 r1T
consideraran los dos tipos de redes neuronales
RT1T dt RT1 (3) que más se están implementando para su
aplicación en modelamemiento y control: redes
Balance del coke Feedforward Backpropagation (RB) estándar y
redes Radial Basis Function (RBF), cuya
dx1T PH representación general se observa en la figura 2.
M1 = W T x2T − W T x1T + 0.1 1 T1 r1T
dt RT1 (4)

Balance de energía

 P1H1C p1  dT1T
 
 RT T + C ps M 1  dt = C psW (T2 − T1 )
T T T

 1  (5)
L1P1H 1
C p1V0T (T0T − T1T ) − r1T
RT1T

REGENERADOR

Balance de oxigeno
(a)
P2 H 2 dy T2 PH
= VaT y Ta − VaT y 2T − 2 T2 r2T
RT2T dt RT2 (6)

Balance de coke

dx 2T PH
M2 = W T x1T − W T x 2T − 2 T2 r2T
dt RT2 (7)

Balance de energía

 P2 H 2C p 2  dT2T
 RT T + C ps M 2  dt = C psW (T1 − T2 ) +
T T T

 2 
L PH
C p 2VaT (TaT − T2T ) − 2 2 T 2 r2T + Q T
RT2 (8)
(b)
En las ecuaciones 3-8 se mantienen las
variables diferenciadas y1, T1, x 1, y2, T2, x 2 y se Fig. 2. Esquema de una red neuronal del tipo (a)
deja V0 como la variable de entrada. El resto de Feedforward Backpropagation, (b) Radial Basis
los términos se asumen constantes. Function. Mientras la red backpropagation puede
contener múltiples capas ocultas, la red RBF se
distingue por sus dos capas estándar y el núcleo
1 La notación, constantes y unidades del sistema se encuentra gaussiano en la capa oculta.
en el apéndice A

3
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

2.1 Redes Feedforward Backpropagation posiciones y las anchuras de estos núcleos se


deben aprender de patrones del entrenamiento.
Una red feedforward L-capas estándar (se Hay generalmente muy pocos núcleos en la red
adopta la convención de que los nodos de RBF que los que hay patrones del
entrada no están contados como una capa) entrenamiento. Cada unidad de salida
consiste en nodos de una entrada o mas, (L-1) implementa una combinación linear de esta
capas ocultas, y una capa de salida de unidades función de base radial. Desde el punto de vista
conectadas sucesivamente (completamente o de actuar como una función de aproximación,
localmente) en una tendencia feedforward sin las unidades ocultas proporcionan un grupo de
conexiones entre las unidades en la misma capa funciones que constituyen un sistema básico
y ninguna conexión hacia atrás a capas para representar patrones de entrada en el
anteriores. La Figura 2 (a) muestra el esquema espacio abarcado por las unidades ocultas.
general de un perceptrón con dos capas ocultas Hay una variedad de algoritmos de
y una capa de salida. aprendizaje para la red RBF. El básico emplea
Durante el proceso de entrenamiento, a la red una estrategia de aprendizaje en dos etapas, o
se le presenta una salida deseada para cada aprendizaje híbrido. Estima posiciones del
patrón de entrada. Durante el proceso de núcleo y las anchuras del núcleo usando un
aprendizaje, la salida actual y generada por la algoritmo agrupado no supervisado (sin patrones
red puede no igualar la salida deseada d. El ejemplo), seguido por el algoritmo supervisado
principio básico de las reglas de aprendizaje por (con patrones ejemplo) para determinar los pesos
‘corrección del error’ es utilizar la señal de error de la conexión entre la capa ocultada y la capa
(d-y) hasta modificar los pesos de la conexión de salida. Debido a que las unidades de salida
para reducir gradualmente este error. son lineales, un algoritmo no iterativo puede ser
Se designa wij(l) como el peso de la conexión utilizado. Después de que se obtenga esta
entre la unidad i en la capa (l-1) hasta la unidad solución inicial, un algoritmo supervisado se
j en la capa l. Si {(x(1),d(1)), (x(2),d(2) ),….,(x(p) ,d(p))} puede utilizar para refinar los parámetros de la
son el conjunto de patrones de entrenamiento red [9, 13, 17].
(pares de entrada-salida) donde x(i) ∈ R es el
n

vector de entrada en el espacio n-dimensional del 4. Identificación con Redes Neuronales


patrón, y d(i) ∈ [0,1] , un hipercubo m-dimensional.
m

La identificación y caracterización de
Para propósitos de clasificación, m es el número sistemas son los problemas fundamentales en la
de clases, y y es la salida actual de la red teoría de sistemas. El problema de identificación
neuronal. La función de costo de error consiste en la representación matemática de un
cuadrático usada con más frecuencia en la sistema. Generalmente hablando, los sistemas
literatura se define como: dinámicos están compuestos de tres partes.
La primera parte es el estado del sistema, el
p
cual es una representación de toda la

1 2
(9)
Ε= y (i ) − d (i )
2 información acerca del sistema en un momento
i =1
en particular. Por el momento, los símbolos X(t) =
[x1(t),..., xn(t)] denotan el estado de un sistema en
El algoritmo backpropagation es un método
el tiempo t.
para reducir al mínimo la función de costo, y de La segunda parte es el espacio de estados de
hay su nombre para designar a este tipo de un sistema. Este es un set que contiene todo los
redes. Existen varias variantes de este método de posibles estados para los cuales un sistema
corrección de error [9, 12, 13, 14,15]. puede ser asignado. El símbolo es usado para
denotar el espacio de estado de un sistema
2.2 Redes Radial Basis Function dinámico, y X(t) .
La tercera parte es la función de transición de
Las redes Radial Basis Function (RBF), las estados, esta es usada para actualizar y cambiar
cuáles siempre van a poseer dos capas, son una
los estados de un momento a otro. El símbolo T
clase especial de redes feedforward. Cada unidad
es usado para denotar la función de transición
en la capa oculta emplea una función de base
del estado que muestra el cambio desde el
radial, por ejemplo un núcleo Gaussiano, como estado inicial X(t) hasta después de algún
su función de activación y utiliza la función periodo de tiempo h un nuevo estado X(t+h):
lineal en la capa de salida (Figura 2 (b)).
La función de base radial (o función del
núcleo) se centra en el punto especificado por el
X(t+h)=T(X(t),t,t+h) (10)
vector de peso asociado con la unidad. Tanto las

4
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

Cualquier función de transición de estados se implementadas ampliamente en procesos de


asume que es una función diferenciable en el control industriales desde finales de los 70 y
tiempo, entonces podemos definir un generador continua siendo usada debido a que pueden
local como una derivada en el tiempo sistemáticamente tomar en cuenta restricciones
de plantas reales en tiempo real.
dT/dt = limh->0 (X(t+h)-X(t)/h)= f(X(t),t) (11) El GPC es un método de horizonte
descendiente. Para una serie de controles
Esto quiere decir que dado un estado inicial proyectados, la salida de la planta es predicha
X(0) el generador local es utilizado para generar sobre un número dado de muestras, y la
una trayectoria X(t) para todo t >0. Asumiendo estrategia esta basada sobre una serie de
que el generador local satisface ciertas controles proyectados y la salida predicha de la
propiedades, esto garantiza que el generador planta.
local produce una única trayectoria de alguna El objetivo es encontrar una serie en el
posición dada. tiempo de señales de control que minimice la
Un modelo matemático constituido por función de costo
ecuaciones algebraicas y/o diferenciables en el
tiempo es utilizado comúnmente como un  N2 Nu  (12)
2
generador local de trayectoria de algún sistema. ∑
JGPC = E (y(t + j) − r(t + j))2 + ⋅
 j =1
∑ (∆u(t + j − 1)) 
No obstante, se espera que este sea capaz de j =1 
representar todo el espacio de estados en una
forma fiel y confiable. Difícilmente en los sujeto a la restricción de que los controles
procesos reales es posible hacer un acercamiento proyectados son función de datos disponibles. N2
suficientemente cercano a la dinámica de estos es el horizonte de costo o predicción y ρes el peso
mediante ecuaciones diferenciables. Muchas de control. La salida de la planta esta denotada
simplificaciones y asunciones se deben hacer por y, la referencia r, y la señal de control u. ∆es
para vencer las limitaciones de resolución el operador de cambio tal que
analítica y/o numérica dando como
consecuencia la desviación en la simulación de ∆u(t) = u(t) – u(t - 1) (13)
procesos con respecto al proceso real.
Las redes neuronales emergen de esta forma La primera sumatoria de la función de costo
como una alternativa a estas limitaciones. En penaliza la desviación de la salida de la planta
vez de seguir una pauta dictaminada a priori por y(t) de la referencia r(t) en intervalo de tiempo t +
algún algoritmo secuencial experto del tipo Von 1 t t + N2. La segunda sumatoria penaliza el
Neumann, las redes neuronales se apropian de cambio en la señal de control ∆u(t) de la serie de
la experiencia real de algún sistema y mediante control proyectada.
procesamiento en paralelo construyen sus Nu, es el horizonte de control tal que Nu N2.
propias reglas para acomodarse a si misma o Más allá de este horizonte el incremento del
auto- ajustarse y conseguir su objetivo. control proyectado ∆u es fijado en cero:
En el caso particular de las aplicaciones,
como en el control predictivo con redes ∆u(t + j -1) = 0, j > Nu (14)
neuronales, se desea que la red neuronal prediga
los estados de la planta reales y se constituya en Las señales de control proyectadas
generador de trayectoria. permanecen constantes después de este tiempo.
En síntesis, los modelos matemáticos Esto es equivalente a colocar un peso infinito
constituyen modelos teóricos preconcebidos efectivo de cambios de control para t > Nu.
apartados de la realidad, mientras las redes Pequeños valores de Nu generalmente resultan
neuronales se constituyen en modelos empíricos en acciones suaves y lentas, mientras que
gracias a su capacidad de aprendizaje de la grandes valores proveen control mas activo. El
realidad mediante sus pseudo-cualidades de uso de un horizonte de control Nu < N2 reduce la
inteligencia artificial [15, 18, 20]. carga computacional. En el caso no lineal la
reducción es dramática.
5. Control Predictivo Generalizado Neuronal El controlador esta compuesto por tres
componentes distintivos:
El Control Predictivo generalizado hace parte
de la clase de controladores digitales llamada • el predictor de la serie de predicciones
Control Predictivo basado en Modelo (MBPC) y en el tiempo de las salidas de la planta
fue introducida por Clarke et. al. en 1987. Las
técnicas MBPC han sido analizadas e • la función de costo

5
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

• el algoritmo de optimización 6. Identificación del reactor catalítico con


redes neuronales
El predictor utilizado es el modelo en redes
neuronales identificado con ejemplos de pares Para el desarrollo del proceso de
entradas-salidas de la planta [4]. entrenamiento, simulación y control se ha
Como se menciono antes, el predictor de la utilizado el modelo matemático del sistema
serie de predicciones en el tiempo usa un modelo reactor-regenerador definido por la ecuaciones 3
en red neuronal de la planta. El diagrama de – 8 , con el flujo de alimento al reactor (V0) como
bloques del sistema completo es ilustrado en la variable de entrada o perturbación y las
figura 3. El algoritmo de Control predictivo fracciones molares del componente B en el
generalizado opera en dos formas, predicción y reactor (y1) y de aire en el regenerador (y2), las
control. Para realizar esta labor, es usado un temperaturas del reactor (T1) y regenerador (T2), y
switch de doble polo a la salida del optimizador. el coke depositado sobre el catalizador en el
El algoritmo de minimización de la función de reactor (x1) y en el regenerador (x2) como
costo produce una salida la cual es la señal de variables de salida. Con condiciones iniciales sus
control usada como entrada a la planta o al respectivos valores de estado estacionario.
modelo en redes neuronales. El switch es puesto Se utilizó la función ode45 programada en
hacia la planta cuando el algoritmo de Matlab para la resolución numérica de las
optimización ha resuelto la mejor entrada, u(t), ecuaciones mediante el método de Rungge-Kutta
que minimiza la función de costo. Entre cada de 4-5 orden. La simulación para cada muestra
paso, o muestra, la posición del switch es puesta de señal de entrada se hace en el tiempo de 0 a
hacia el modelo en redes neuronales para que el 60 segundos, con un paso de 1 segundo. A este
algoritmo de optimización use este modelo para tiempo de 60 segundos se le llama el tiempo de
calcular la siguiente señal de control u(t+1), a muestreo. Se toma el vector final (para el tiempo
partir de las predicciones de las respuestas del t=60 sg.) como el resultado final (o el estado)
modelo en redes neuronales. para esa señal de entrada. Este estado se guarda
Cuando la función de costo es minimizada, para ser llamado como condiciones iniciales para
esta señal de control es pasada a la planta, se la próxima muestra de entrada.
obtiene la trayectoria real y se utilizan los Se deja el tiempo de muestreo relativamente
estados de la planta como entradas de alto para permitir la convergencia numérica de
predicción al modelo en redes neuronales, para las ecuaciones diferenciales hacia el valor en
lo cual otro switch es puesto desde la salida de estado estacionario para cada valor de la
la planta Y(t) hacia el modelo neuronal. La variable de entrada, de tal modo que entre cada
comparación de la señal de referencia deseada y señal de entrada se llevan entre sus
la trayectoria real de la planta es hecha en forma correspondientes resultados un tiempo de
grafica y determina la eficiencia y características simulación de 60 segundos.
del sistema de control completo [4, 7, 8, 13, 14,
15, 20, 22].

Fig. 3. Esquema del controlador GPC basado en redes neuronales.

6
permite una buena excitación de la planta que
hace que esta vaya a través de todo su rango de
operación. El mecanismo consiste en:

• Establecer el rango de operación de la


planta. El flujo del alimento estará entre
0 y 2 mol/seg.
• Establecer el número de muestras para
crear los sets de datos de entrenamiento,
validación y prueba.
• Establecer la probabilidad (alpha) de
cambio en la señal de control. Se utilizo
un 5% de probabilidad de que la señal
cambie aleatoriamente dentro del rango.
El algoritmo es el siguiente:

Fig. 4. Modelo de entrenamiento de la red neuronal. alpha = 0.95


Las figuras triangulares indican un retraso en el
rand = (cualquier numero aleatorio entre 0 y
tiempo de la señal correspondiente
1)

para n : 1 hasta N(numero de muestras)


si rand > alpha
6.1 Modelo de identificación. U(n) = 1 + ((2-0) x rand)
sino
Se logra una emulación del comportamiento U(n) = U(n-1)
fin
dinámico introduciendo como entradas a la red fin
la historia pasada de datos de la planta
(entradas y salidas en instantes anteriores). 6.3 Estructura de red
Este esquema usa los valores actuales y
pasados de las entradas y salidas del sistema Es común encontrar en la literatura
como entradas a una red neuronal, y la red es recomendaciones que especifican que con una
entrenada para predecir el próximo valor de la sola capa oculta y suficientes neuronas se puede
salida del sistema. De esta manera, el problema aproximar cualquier función no lineal por
de modelamiento, que es aprender el compleja que esta sea. Aquí se utilizó la red
comportamiento dinámico del sistema en el Backpropagation con 1 sola capa oculta y 20
dominio del tiempo, es transformado a un neuronas fijas.
problema de modelamiento espacial, el cual Para las redes RBF, la función Matlab newrbe
consiste en aprender el mapeo de entradas y
crea tantas neuronas en la capa oculta como
salidas retrasadas hacia la próxima salida. entradas a la red, que para este caso serán 9
En conjunto la red neuronal tendrá nueve neuronas ocultas con función de activación en
nodos de entrada: la señal de control actual y 2 base radial y 6 neuronas lineales en la capa de
retrasadas y las seis variables de salida. Hay seis
salida.
salidas de la red neuronal: las variables de salida
para la señal u. Esta configuración esta
6.4 Entrenamiento de las redes neuronales
representada en la Figura 4, donde se muestra la
disposición de entradas-salidas de la red. 6.4.1 Entrenamiento de la red Backpropagation.
Uno de los problemas que ocurren durante el
6.2 Recolección de datos y diseño de la señal de
entrenamiento de las redes neuronales
entrada.
Backpropagation es el llamado overfitting
(sobreajuste). Durante el set de entrenamiento el
Con el objetivo de entrenar el modelo en red error entre las salidas deseadas y las salidas de
neuronal del sistema del reactor catalítico la red es llevado a un valor muy pequeño, pero
(identificación del sistema), se necesitan datos cuando son presentados nuevos datos a la red el
que describan el rango completo de operación de
error se incrementa. Esto demuestra que la red
la planta.
ha memorizado los ejemplos de entrenamiento,
Usando la estrategia de level-change-at- pero no ha aprendido a generalizar nuevas
random-instances (cambio de nivel a instancias situaciones.
aleatorias) se crea la señal de entrada. Esta
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

Este problema se maneja adecuadamente Para dar un punto de partida apropiado a los
mediante la aplicación de la técnica de early pesos de la red, usamos un método similar al
stopping (parada temprana) que demuestra ser llamado hold up method: Se entrenan 4 redes
un método eficiente para ajustar las redes con pesos iniciales aleatorios usando el set de
neuronales. datos de entrenamiento. Se escogen solo 20
En esta técnica, los sets de entrenamiento épocas2 de entrenamiento. Entonces la función
disponibles son divididos en tres partes. La de error es evaluada sobre el set de datos de
primera parte es el set de entrenamiento el cual validación y se escoge la red con mejor
es usado para calcular el gradiente del error y desempeño. Esta red es entrenada seguidamente
calcular los pesos y ajustes de la red. La con el set de datos de prueba utilizando Early
segunda es el set de validación. El error sobre el stopping. Esta primera validación asegura que
set de validación es monitoreado durante el las asunciones de partida aleatorias son las más
proceso de entrenamiento. El error de validación apropiadas, y que la red es proclive a tener
normalmente decrece durante la fase inicial de buena convergencia. Se asegura también que la
entrenamiento, tal como lo hace el error del set red estará lejos de caer en un mínimo local más
de entrenamiento. Sin embargo, cuando la red allá de la solución óptima.
empieza a sobre-ajustar los datos, el error en el El entrenamiento final de la red neuronal con
set de validación empieza a crecer. Cuando el los datos de entrenamiento, validación y prueba
error de validación incrementa para un número es usado sobre la red hasta que es terminado
específico de iteraciones, el entrenamiento es por early stopping como se explica a
detenido, y son devueltos los pesos y ajustes en continuación.
el mínimo del error de validación. El entrenamiento global puede ser resumido
Un tercer set de prueba no se usa durante el como:
entrenamiento, pero es usado para comparar
diferentes modelos. Si el error en el set de Crear y configurar una red (newff)
prueba alcanza un mínimo una iteración
Repetir 6 veces
significativamente diferente que el error en el set Escoger pesos de inicio aleatorio
de validación, indica que la división de los datos para la red neuronal (init)
ha sido pobre. Entrenar la red durante 20 épocas
Las redes neuronales pueden ser más (train)
eficientes si se procesan las entradas, los valores fin
deseados y las salidas. El pre-procesamiento y
escoger la mejor de las redes anteriores
post-procesamiento es una forma de utilizar el
entrenar la red usando early stopping
conocimiento contenido en los datos de (train)
entrenamiento y simulación moviéndolos fuera Red neuronal final resultado
del contexto de las redes neuronales.
Una forma simple, pero efectiva de
transformar todos los datos de entrada y salida, 6.4.2 Entrenamiento de la red RBF. El
es llevar todos los datos de entrada y salida a entrenamiento de una red RBF, a diferencia de la
una media cero y una desviación estándar de red usando backpropagation, es solamente hacia
uno. De esta forma, todos los niveles de los datos delante. De este modo, la salida z de una red
de entrada y salida quedaran de igual magnitud. RBF, en general, está influenciada por una
La red neuronal no tendrá que modelar la media transformación no lineal originada en la capa
y la desviación estándar de las señales, y esto oculta a través de la función radial y una lineal
resultara en una mejor convergencia del la en la capa de salida a través de la función lineal
función de error de la red. continua.
Se creó un set con 1000 muestras de Para las redes RBF, la función Matlab newrb
entrenamiento, 500 de validación y 500 de crea una red con error cero sobre los vectores de
prueba simulando la planta según se explicó en entrenamiento. La única condición que se debe
6.2. Con los datos de entrenamiento validación y cumplir es asegurarse que el parámetro de
prueba listos, las redes Backpropagation son distancia sea lo suficientemente grande tal que
creadas mediante la función Matlab newff y las regiones activas de entrada de las neuronas
entrenadas mediante la función train con el radiales queden cubiertas de tal modo que varias
algoritmo de entrenamiento backpropagation neuronas radiales tengan siempre salidas
llamado Levenberg-Marquardt que es uno de los bastante grandes en cualquier momento dado.
mas poderosos y eficientes para la actualización
de pesos.
2 Una época (epoch) es un paso de todo el conjunto de datos
de entrenamiento sobre la red.

8
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

Esto hace que la función en red sea suave y


resulta en una mejor generalización para nuevas
vectores de entrada que estén dentro del rango
usado en el diseño.
Se entrenaran las redes para cada set de
entrenamiento, modificando el parámetro que se
exige como argumento de pasada en el llamado a
la función newrb, según se muestra en la tabla
1.

6.5 Validación de los modelos

Se comprueba ahora la capacidad que tienen


cada uno de los modelo en redes neuronales
entrenados de predecir los estados futuros de la
planta.
Para investigar el desempeño del modelo, se Figura 5. Simulación en paralelo de la planta y la red
alimentan las mismas señales de entrada a la neuronal.
planta y a cada red de acuerdo a la
configuración del modelo (Figura 5). Se calcula el
7. Implementación del GPC neuronal al
coeficiente de correlación múltiple R2 definido
modelo del reactor catalítico
como:
En el programa de simulación del sistema de
V(y) − V(ε )
R2 = control diseñado en Matlab se programan como
V(y) (4.20) argumentos de entrada los valores de los
parámetros necesarios para la sintonización del
donde V(.) es la varianza, y ε = y – . sistema de control: el número de pasos, el
El coeficiente de correlación múltiple mide Horizonte de Predicción N2, el Horizonte de
cuanta información de la salida de la planta y Control Nu, y el peso de control de la función de
esta contenida en la salida de la red neuronal . costo .
Entre su valor este más cercano a 1 mas Se probaron las siguientes señales de
exactitud tiene la red neuronal para representar referencia, con N2= 10, Nu= 5, y ρ= 100:
la planta.
En total se utilizaron 4 señales de entrada • Set-point constante (1000º R), durante
diferentes: escalones, rampa, sinusoidal con 100 pasos.
diferentes frecuencias y amplitudes, y aleatoria. • Onda cuadrática de periodo 200 s entre
900 y 1100º C, durante 800 pasos.
• Referencia aleatoria con probabilidad de
cambio 0.99 entre 800 y 1800º C,
durante 800 pasos.
• Señal paso de 800 a 1900º C, durante
Muestras de Parámetro de
Red Nº
entrenamiento distancia
800 pasos.
1 1000 0,1 Con los parámetros de simulación
2 1000 0,2 establecidos y la señal de referencia
3 1000 0,5 seleccionada, se inicializan la planta y el modelo
1000 neuronal y aplica la señal de control sobre la
4 1,0
planta según el algoritmo de optimización. La
5 1000 1,5 única restricción impuesta es que la señal de
6 1000 2,0 control no puede ser menor que cero, puesto que
un flujo de alimento negativo no tiene sentido
físico. El controlador programado consiste en los
siguientes pasos:
Tabla 1. Configuración de redes RBF que fueron
entrenadas. • Toma un valor inicial para la señal de control,
y Nu valores de ∆U. Si el algoritmo inicia, es
decir, si se esta evaluando el primer paso, se

9
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

toma una señal de control igual a 1 y los 8.1.1 Red RBF. La Figura 7 muestra la evolución
valores de los ∆U aleatorios entre 0 y 1. La del desempeño de cada red según se modificaba
función Matlab fminsearch es programada el parámetro de distancia siguiendo la
para realizarse durante 16 iteraciones para temperatura del reactor con la entrada
compensar las diferencias de las presunciones sinusoidal.
de este primer paso. Para los pasos restantes, Esto concuerda con la condición que exigen
se toma como suposición inicial para la señal las redes radiales de tener un parámetro de
de control U(t) la señal anterior U(t-1) y cuatro espacio lo suficientemente grande para abarcar
de los cinco ∆U obtenidos del paso anterior, y el mapa probabilístico que hacen este tipo de
se programan 8 iteraciones. funciones sobre el espacio de datos presentados.
• Durante el número establecido de iteraciones A medida que el parámetro de espacio se hace
del paso anterior, la función fminsearch mayor aumenta la exactitud de la red neuronal.
optimiza la señal de control para que el Los resultados ante las señales de entrada se
predictor (red neuronal) ajuste sus salidas a la corresponden a las graficas del modelo
señal de referencia mediante la exploración de Backpropagation ya que los coeficientes de estos
los ∆U adecuados que minimicen la señal de dos modelos son cercanamente iguales.
control. La función fminsearch es a su vez Como principal observación general que se
configurada para realizar 4N2 iteraciones deriva del entrenamiento y la comprobación del
internas propias del método simplex que desempeño de las redes neuronales, el aspecto
emplea esta función. sobresaliente de estas es la eficacia con que los
• Los ∆U óptimos y la Nu señales de control modelos en redes neuronales representan la
proyectadas sobre estos, son guardados como planta. En las cuatro señales de entrada
asunciones iniciales para el próximo paso, introducidas el comportamiento de las redes
mientras que la señal U(t) es arrojada como neuronales eficientes con respecto a la planta
solución del algoritmo de control y es fue muy cerrado y se representa muy bien la
retornada como la señal de control para ser dinámica del proceso. Esto se refleja en el valor
aplicada en la simulación final sobre la planta. del coeficiente de correlación múltiple muy
cercano a uno conseguido en cada caso.
Luego de realizar todos los pasos Otra conclusión importante de la medición
programados, las salidas de la planta y la del desempeño a través de la señales de
referencia son comparadas gráficamente. perturbación es que la red se ajusta muy bien a
las secuencias de entrada no presentadas
8. Resultados y discusión durante el entrenamiento. Se diseñaron las
señales de entrada de tal forma que se pudiera
8.1 Identificación del reactor catalítico abarcar todo el rango posible de acción del
modelo, junto con diferentes frecuencias y
8.1.1 Red Backpropagation. Los resultados de la señales excitatorias constantes, escalones y
identificación muestran el buen desempeño de la secuencias desordenadas o aleatorias. Como se
red a la hora de hacer seguimiento a la dinámica mencionó, el set de entrenamiento esta
de la planta. La red resultó eficiente en su constituido por la señal conseguida mediante la
comportamiento y alcanzó un valor perfecto de técnica level-change-at-random-instances que
0.999988 de correlación con el proceso consiste en una secuencia aleatoria, caótica y si
simulado. La Figura 6 muestra los resultados ningún patrón identificable. Es un hecho
para la red. destacable que ante la presencia de una
Se puede comprobar la regla heurística secuencia ordenada y limpia, la esta red
propuesta por algunos autores en la que se presente entonces ese mismo comportamiento
establece que una sola capa oculta en la mayor mas aun cuando el número de combinaciones
parte de los casos es suficiente para representar posibles que se pueden obtener de las nueve
cualquier función, sin necesidad de diseñar entradas consecutivas sea tan grande en un
redes mas complejas de dos o mas capas espacio de estados tan amplio.
ocultas, que harían el trabajo de la misma La red neuronal no presenta ‘overfitting’, o
calidad pero presentando una menor eficiencia sobresaturación. Como ya se mencionó, las
de computo. El resultado general es que la curvas de la red y de la planta se siguen en una
escogencia de la arquitectura, el algoritmo de forma simétrica y bien definida. El método Early
inicialización, la función de entrenamiento, la Stopping demuestra ser altamente efectivo, pues
subdivisión de los datos y la función de detiene el entrenamiento antes de lo programado
activación Logsig presentaron buena calidad de para asegurar el punto óptimo donde la red dará
representación del sistema. la respuesta mas acertada sobre el patrón de

10
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

(a)

(b)
Figura 6. Resultados de la identificación con redes backpropagation (a) Señal de entrada escalonada, (b)
señal rampa. Las líneas de salida se superponen.

11
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

(c)

(d)

Figura 6. Resultados de la identificación con redes backpropagation (c) Señal de entrada sinusoidal, (d)
señal aleatoria.

12
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

Figura 7. Resultados de la identificación con redes RBF para la señal de entrada sinusoidal y como
salida la temperatura del reactor. Desde la curva superior hacia la inferior se muestra la evolución del
desempeño de la red, Desde el parámetro de distancia 0.1 hasta 2.0.

13
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

entrenamiento y de validación simultáneamente. Los parámetros N2 =10, Nu=5, y ρ=100, a


La generalización del modelo Backpropagation pesar de que mostraron buen desempeño, no se
esta garantizada. Por otro lado, las redes RBF en evaluaron para ver si son los óptimos. La labor
su diseño exacto, permiten obtener el ajuste de de escogencia de estos valores se constituye en
los pesos directamente de las entradas y salidas resolver el conflicto entre capacidad de cómputo
deseadas sin algoritmos de entrenamiento, lo y desempeño del controlador.
que las hace más rápidas en el momento del El sistema de Control Predictivo Generalizado
entrenamiento y con unas características finales presenta las mismas características para todas
iguales a las redes Backpropagation. las señales de referencia utilizadas. Para todos
De este modo, estas redes neuronales pueden los casos, la señal de control resultante es solo
representar y predecir el comportamiento errática al inicio del optimizador pero se
dinámico no lineal de la planta. Se constituyen a estabiliza sobre la referencia de una forma casi
si mismo en generadores de trayectoria debido a constante, y aunque presenta oscilaciones, estas
que fueron entrenadas en el rango son tan pequeñas que en el peor de los casos
correspondiente al espacio de estados. solo presenta desviaciones de un grado
El sistema del reactor de craqueo catalítico centígrado en la señal de salida con respecto a la
esta identificado de una forma altamente referencia. Los cambios pasos presentan
aceptable mediante modelos en redes neuronales dificultades de sobrepaso, pero el tiempo de
del tipo feedforward Backpropagation y Radial asentamiento es bueno haciendo estos
Basis Function. sobrepasos cortos. Las caídas de la señal de
salida de la planta antes de un incremento en la
8.2 Control GPC del reactor catalítico señal de referencia es resultado de la naturaleza
predictiva del controlador. Por medio de hacer
La figura 8 muestra el resultado de la que la salida de la planta baje un poco con
aplicación de las referencias sobre el algoritmo respecto a la señal de referencia, el subsiguiente
de control. Estas figuras comparten las mismas incremento en la salida de la planta puede ser
características: al inicio de la simulación las formado de tal forma, que minimice la función de
respuestas son erráticas, al igual que al final costo.
para las graficas. Las respuestas nunca se El algoritmo de control predictivo necesita un
acotan totalmente sobre la referencia, sino que buen predictor y este problema fue resuelto.
oscilan alrededor de esta, aunque estas Gracias a la red neuronal exitosamente
diferencias no son significativas y demuestran entrenada y a la identificación del modelo, las
que el controlador actúa muy bien ante estas demandas para la predicción sobre un horizonte
referencias. de tiempo que incorporara la dinámica de la
En el caso de las señales de ondas planta fueron satisfechas.
cuadráticas, el comportamiento del controlador
también permite a la planta seguir muy de cerca Conclusiones
la referencia que le ha sido señalada. Al igual
que las señales constantes, estas inician y En este trabajo se ha investigado una forma
terminan de una forma errática y sobre todo en conceptual de utilizar las redes neuronales en la
algunos extremos existe desviación considerable. identificación y control de sistemas.
Por ultimo un cambio paso crea una señal de Los métodos para la identificación del sistema
entrada con valores fuera del rango de del reactor catalítico aseguraron una buena
entrenamiento de la red neuronal que excitación de la planta durante la generación de
sobrepasan el valor superior de dicha señal de los datos de entrenamiento, validación y prueba
entrada (2 mol/seg) especificado para los sets de y su posterior simulación.
entrenamiento, validación y prueba. Esto Se resolvió con alta eficiencia el proceso de
muestra, lo bien entrenada que quedo la red, al creación del modelo de planta basado en red
convertirse ahora en extrapolador, en base a los neuronal o identificación del sistema. Fueron
pesos ajustados solo para los rangos de hechas pruebas del desempeño de la red
entrenamiento, y sin embargo con la capacidad neuronal para predecir las salidas de la planta,
para seguir pautas nuevas. demostrando alto acercamiento de la red a la
En resumen, de los ejemplo se observa que el planta bajo las mismas condiciones de prueba.
sistema de Control Predictivo Generalizado Se obtuvieron redes neuronales de los tipos
presenta las mismas características para todas Backpropagation y Radial Basis Function con
las señales de referencia utilizadas. coeficientes de correlación muy cercanos a la
planta.

14
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

(a)

(b)

Figura 8. Resultados del controlador GPC neuronal con referencia a) constante de 1000º R durante 100
pasos, y b) onda cuadrática de periodo 100 s durante 800 pasos.

15
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

(c)

(d)
Figura 8. Resultados del controlador GPC neuronal con referencia c) Cambios paso aleatorios durante
800 pasos, y d) cambio paso de 800º R a 1900º R

16
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

Se comprobó también la igualdad de ya, y2= fracción molar de O en la fase gaseosa


condiciones entre las Redes Radial Basis
Function y las Redes Backpropagation para Subíndices
hacer identificación del sistema dinámico 0 = Corriente de entrada
Reactor-Regenerador Catalítico. 1 = Reactor
El algoritmo de Control Predictivo 2 = Regenerador
Generalizado GPC a pesar de ser simple, a = aire
intuitivo y de no ser perfeccionado en este
trabajo, demostró ser una estrategia convincente Referencias
de control y fue comprobado por medio de la
aplicación de referencias aleatorias para una [1] Sadeghbeigi R. Fluid Catalytic Cracking
variable del modelo y el seguimiento fiel de la Handbook, 2nd Ed. Butterworth-Heinemann,
salida de la planta a estas referencias. Houston, TX, 2000.
Las variaciones del comportamiento de la [2] Chen Ye-Mon. Recent advances in FCC
planta con respecto al set-point para todos los technology. Powder Technology 163 (2006) 2–
casos son insignificantes y a pesar de mostrar 8.
una apariencia desordenada, este [3] Arbib M. The Handbook of Brain Theory and
comportamiento es altamente aceptable Neural Networks. 2nd. Ed. Massachusetts
Institute of Technology, MIT Press.
Apéndice A Impressions Book and Journal services, Inc.
Madison, Wisconsin, 2002.
Notación del sistema [4] Temurtas F., Yumusak N. Application of
neural generalized predictive control to robotic
A = Componente A de reacción manipulators with cubic trajectory and
A1 = Factor de Arrhenius en la cinética del random disturbances. Robotics and
reactor, seg.-1 Autonomous systems. 54 (2006) 74-83.
A2 = Factor de Arrhenius en la cinética del [5] Secchi A.R. A dynamic model for a FCC UOP
regenerador, seg.-1 stacked converter unit. Computers and
B = Componente B de reacción Chemical Engineering 25 (2001) 851–858
C = Componente C de reacción [6] Han In-Su. Dynamic modeling and simulation
CP = Capacidad calorífica del gas, of a fluidized catalytic cracking process. Part
(B.t.u.)(lb.mol)-1(ºR)-1 I: Process modeling. Chemical Engineering
Cps= Capacidad calorífica del sólido, Science 56 (2001) 1951}-1971
(B.t.u.)(lb.mol)-1(ºR)-1 [7] BOLDON C. Control Predictivo. Metodología,
E = Energía de activación, (B.t.u.)(lb.mol)-1 tecnología y nuevas perspectivas. I curso de
H = Volumen de gas, ft3 Especialización en Automática. Universidad
L = Calor de reacción, (B.t.u.)(lb.mol)-1 de Sevilla. Aguadulce Almería, 2000.
M = Carga de catalizador, lb. Disponible en: http://www.cea-
N = Carga del gas, mol ifac.es/actividades/cursos/I/documentos/c.
O = Componente O bordons.zip (Ultimo acceso: Agosto 2 de
P = Componente P 2006)
P1 = Presión en el reactor, (lb.)(ft)-2 [8] Schnitman L., De barros fontes A. The Basic
P2 = Presión en el regenerador, (lb.)(ft)-2 Ideas of Neural Predictive Control.
Q= Velocidad de entrada de calor al regenerador, Proceedings of the 7th Mediterranean
(B.t.u.)(seg.)-1 Conference on Control And Automation,
R = Constante de los gases: en la ecuación Haifa, Israel Jun 1999.
cinética, (B.t.u)(lb.mol)-1(ºR)-1, en la ecuación de [9] Demuth H., Beale M. Neural Network Toolbox
estado, (lb.)(ft.)(lb.mol)-1(ºR)-1 3 version, The MathWorks Inc., 1998.
r = Velocidad de reacción, (lb.mol [10] LUYBEN W. L., LAMB D. E. Feedforward
reaccionado)(moles totales)-1(seg.)-1 control of a fluidized catalytic reactor-
T = Temperatura, (ºR) regenerator system. Chemical Engineering
t = tiempo, seg. Progress Symposium Series Nº 46, Vol. 59.
V = velocidad de flujo del gas, (moles)(seg.)-1 Universidad Delaware.
W = Velocidad de circulación del catalizador, [11] Molga E.J. Neural network approach to
(lb.)(seg.)-1 support modelling of chemical reactors:
x = Contenido de C sobre el catalizador, problems, resolutions, criteria of application
(lb.moles C)(lb. catalizador)-1 Chemical Engineering and Processing 42
y0, y1= fracción molar de B en la fase gaseosa (2003) 675_/695

17
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006

[12] Dave A., Mcneill G. Artificial neural Networks


Technology. A DACS State-of-the-Art Report.
Rome Laboratory, Kaman Sciences
Corporation. New York, Ago 1992.
[13] DOHERTY S.K. Control of pH in chemical
processes using artificial neural netwoks.
Ph.D. Thesis, Liverpool Jhon Moores
Universisty. Nov 1999.
[14] Koivisto H. A practical approach to model
based neural network control. MsC Thesis,
Tampere University of Technology. Tampere,
Finlandia, Noviembre de 1995
[15] NEVOT J. Diseño de un controlador
avanzado basado en redes neuronales para
la gestión de la mezcla aire-gasolina en un
motor alternativo. Tesis Doctoral.
Universidad Politécnica de Cataluña.
Barcelona Diciembre de 1999.
[16] Colmenares G. Redes Neuronales
Capitulo4_funciones_bases_radiales.pdf.
3011-2004 Búsqueda Google.com.co (Último
acceso: Julio 2006)
[17] Ganguly S. Prediction of VLE data using
radial basis function network. Computers
and Chemical Engineering 27 (2003) 1445-
1454.
[18] Hagan M. T., Demuth H. B. De Jesús O. An
introduction to the use of neural networks In
control systems. PWS Publishing, Boston,
2001.
[19] Jain A. K., Mao J. Mohiuddin K. M. Artificial
Neural Network: A Tutorial. IEEE
Transactions Computer, Mar 1996.
[20] Jovanovi O. Identification of dynamic
system Using neural network. University of
Ni . The scientific journal Facta
Universitatis. Series: Architecture and Civil
Engineering Vol.1, No 4, 1997 pp. 525 – 532.
University of Montenegro, Podgorica,
Yugoslavia.
[21] ÖZKAN G. HAPOGLU H. Generalized
predictive control of optimal temperature
profiles in a polystyrene polymerization
reactor. Chemical Engineering and
Processing 37 (1998) 125-139.
[22] Ramaswamy S., Cutright T., Qammar H.
Control of a bioreactor using model predictive
control. Process Biochemistry 4 (2005) 2763-
2770.

18

También podría gustarte