Documentos de Académico
Documentos de Profesional
Documentos de Cultura
______________________________________________________________________________
Resumen
Las redes neuronales se están implementando con éxito en la identificación y control de sistemas dinámicos debido
a su capacidad de aprendizaje a partir de patrones conocidos, lo que, debidamente configuradas y entrenadas, las
convierte en modelos empíricos muy útiles. Las cualidades de inteligencia artificial debido a la distribución en paralelo
del procesamiento de datos le permiten manejar cualquier tipo de información independiente de la forma y procedencia
de esta. Las ventajas de las redes neuronales en el campo de la simulación y control de procesos saltan a la vista
cuando se considera que la tarea de hacer representaciones de operaciones unitarias o de procesos completos se ve
obstaculizada por la complejidad de los modelos basados en los primeros principios y la dificultad de resolución
matemática. Una red neuronal puede desempeñar la labor de modelamiento para procesos de naturaleza lineal o no
lineal y salvar esas dificultades.
En este trabajo de grado fueron utilizados dos importantes tipos de redes neuronales para convertirlos en modelos
neuronales de una unidad de craqueo catalítico a partir de datos simulados de este proceso. Las redes Feedforward
Backpropagation y Radial Basis Function (RBF) fueron entrenadas mediante sus respectivas técnicas y se evaluó la
eficacia de cada una para hacer el seguimiento al proceso ‘real’, representado por el modelo en ecuaciones diferenciales,
encontrándose un comportamiento altamente efectivo en ambos tipos. Se implementó el modelo Feedforward
Backpropagation en el algoritmo de Control Predictivo Generalizado (Generalized Predictive Control, GPC) basado en
redes neuronales. El controlador GPC fue usado para controlar el reactor catalítico. Se analizó la competencia del
controlador para manejar diferentes referencias (set-point) en la variable controlada. Los resultados muestran la buena
labor de la red neuronal para hacer predicciones confiables de los estados futuros de la planta y la efectiva capacidad
del controlador GPC para mantener la variable controlada en el valor deseado.
Palabras clave: Redes neuronales, Feedforward Backpropagation, Radial Basis Function, Generalized Predictive Control, GPC, Cracking
Catalítico.
______________________________________________________________________________
2
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
Balance de energía
P1H1C p1 dT1T
RT T + C ps M 1 dt = C psW (T2 − T1 )
T T T
1 (5)
L1P1H 1
C p1V0T (T0T − T1T ) − r1T
RT1T
REGENERADOR
Balance de oxigeno
(a)
P2 H 2 dy T2 PH
= VaT y Ta − VaT y 2T − 2 T2 r2T
RT2T dt RT2 (6)
Balance de coke
dx 2T PH
M2 = W T x1T − W T x 2T − 2 T2 r2T
dt RT2 (7)
Balance de energía
P2 H 2C p 2 dT2T
RT T + C ps M 2 dt = C psW (T1 − T2 ) +
T T T
2
L PH
C p 2VaT (TaT − T2T ) − 2 2 T 2 r2T + Q T
RT2 (8)
(b)
En las ecuaciones 3-8 se mantienen las
variables diferenciadas y1, T1, x 1, y2, T2, x 2 y se Fig. 2. Esquema de una red neuronal del tipo (a)
deja V0 como la variable de entrada. El resto de Feedforward Backpropagation, (b) Radial Basis
los términos se asumen constantes. Function. Mientras la red backpropagation puede
contener múltiples capas ocultas, la red RBF se
distingue por sus dos capas estándar y el núcleo
1 La notación, constantes y unidades del sistema se encuentra gaussiano en la capa oculta.
en el apéndice A
3
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
La identificación y caracterización de
Para propósitos de clasificación, m es el número sistemas son los problemas fundamentales en la
de clases, y y es la salida actual de la red teoría de sistemas. El problema de identificación
neuronal. La función de costo de error consiste en la representación matemática de un
cuadrático usada con más frecuencia en la sistema. Generalmente hablando, los sistemas
literatura se define como: dinámicos están compuestos de tres partes.
La primera parte es el estado del sistema, el
p
cual es una representación de toda la
∑
1 2
(9)
Ε= y (i ) − d (i )
2 información acerca del sistema en un momento
i =1
en particular. Por el momento, los símbolos X(t) =
[x1(t),..., xn(t)] denotan el estado de un sistema en
El algoritmo backpropagation es un método
el tiempo t.
para reducir al mínimo la función de costo, y de La segunda parte es el espacio de estados de
hay su nombre para designar a este tipo de un sistema. Este es un set que contiene todo los
redes. Existen varias variantes de este método de posibles estados para los cuales un sistema
corrección de error [9, 12, 13, 14,15]. puede ser asignado. El símbolo es usado para
denotar el espacio de estado de un sistema
2.2 Redes Radial Basis Function dinámico, y X(t) .
La tercera parte es la función de transición de
Las redes Radial Basis Function (RBF), las estados, esta es usada para actualizar y cambiar
cuáles siempre van a poseer dos capas, son una
los estados de un momento a otro. El símbolo T
clase especial de redes feedforward. Cada unidad
es usado para denotar la función de transición
en la capa oculta emplea una función de base
del estado que muestra el cambio desde el
radial, por ejemplo un núcleo Gaussiano, como estado inicial X(t) hasta después de algún
su función de activación y utiliza la función periodo de tiempo h un nuevo estado X(t+h):
lineal en la capa de salida (Figura 2 (b)).
La función de base radial (o función del
núcleo) se centra en el punto especificado por el
X(t+h)=T(X(t),t,t+h) (10)
vector de peso asociado con la unidad. Tanto las
4
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
5
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
6
permite una buena excitación de la planta que
hace que esta vaya a través de todo su rango de
operación. El mecanismo consiste en:
Este problema se maneja adecuadamente Para dar un punto de partida apropiado a los
mediante la aplicación de la técnica de early pesos de la red, usamos un método similar al
stopping (parada temprana) que demuestra ser llamado hold up method: Se entrenan 4 redes
un método eficiente para ajustar las redes con pesos iniciales aleatorios usando el set de
neuronales. datos de entrenamiento. Se escogen solo 20
En esta técnica, los sets de entrenamiento épocas2 de entrenamiento. Entonces la función
disponibles son divididos en tres partes. La de error es evaluada sobre el set de datos de
primera parte es el set de entrenamiento el cual validación y se escoge la red con mejor
es usado para calcular el gradiente del error y desempeño. Esta red es entrenada seguidamente
calcular los pesos y ajustes de la red. La con el set de datos de prueba utilizando Early
segunda es el set de validación. El error sobre el stopping. Esta primera validación asegura que
set de validación es monitoreado durante el las asunciones de partida aleatorias son las más
proceso de entrenamiento. El error de validación apropiadas, y que la red es proclive a tener
normalmente decrece durante la fase inicial de buena convergencia. Se asegura también que la
entrenamiento, tal como lo hace el error del set red estará lejos de caer en un mínimo local más
de entrenamiento. Sin embargo, cuando la red allá de la solución óptima.
empieza a sobre-ajustar los datos, el error en el El entrenamiento final de la red neuronal con
set de validación empieza a crecer. Cuando el los datos de entrenamiento, validación y prueba
error de validación incrementa para un número es usado sobre la red hasta que es terminado
específico de iteraciones, el entrenamiento es por early stopping como se explica a
detenido, y son devueltos los pesos y ajustes en continuación.
el mínimo del error de validación. El entrenamiento global puede ser resumido
Un tercer set de prueba no se usa durante el como:
entrenamiento, pero es usado para comparar
diferentes modelos. Si el error en el set de Crear y configurar una red (newff)
prueba alcanza un mínimo una iteración
Repetir 6 veces
significativamente diferente que el error en el set Escoger pesos de inicio aleatorio
de validación, indica que la división de los datos para la red neuronal (init)
ha sido pobre. Entrenar la red durante 20 épocas
Las redes neuronales pueden ser más (train)
eficientes si se procesan las entradas, los valores fin
deseados y las salidas. El pre-procesamiento y
escoger la mejor de las redes anteriores
post-procesamiento es una forma de utilizar el
entrenar la red usando early stopping
conocimiento contenido en los datos de (train)
entrenamiento y simulación moviéndolos fuera Red neuronal final resultado
del contexto de las redes neuronales.
Una forma simple, pero efectiva de
transformar todos los datos de entrada y salida, 6.4.2 Entrenamiento de la red RBF. El
es llevar todos los datos de entrada y salida a entrenamiento de una red RBF, a diferencia de la
una media cero y una desviación estándar de red usando backpropagation, es solamente hacia
uno. De esta forma, todos los niveles de los datos delante. De este modo, la salida z de una red
de entrada y salida quedaran de igual magnitud. RBF, en general, está influenciada por una
La red neuronal no tendrá que modelar la media transformación no lineal originada en la capa
y la desviación estándar de las señales, y esto oculta a través de la función radial y una lineal
resultara en una mejor convergencia del la en la capa de salida a través de la función lineal
función de error de la red. continua.
Se creó un set con 1000 muestras de Para las redes RBF, la función Matlab newrb
entrenamiento, 500 de validación y 500 de crea una red con error cero sobre los vectores de
prueba simulando la planta según se explicó en entrenamiento. La única condición que se debe
6.2. Con los datos de entrenamiento validación y cumplir es asegurarse que el parámetro de
prueba listos, las redes Backpropagation son distancia sea lo suficientemente grande tal que
creadas mediante la función Matlab newff y las regiones activas de entrada de las neuronas
entrenadas mediante la función train con el radiales queden cubiertas de tal modo que varias
algoritmo de entrenamiento backpropagation neuronas radiales tengan siempre salidas
llamado Levenberg-Marquardt que es uno de los bastante grandes en cualquier momento dado.
mas poderosos y eficientes para la actualización
de pesos.
2 Una época (epoch) es un paso de todo el conjunto de datos
de entrenamiento sobre la red.
8
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
9
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
toma una señal de control igual a 1 y los 8.1.1 Red RBF. La Figura 7 muestra la evolución
valores de los ∆U aleatorios entre 0 y 1. La del desempeño de cada red según se modificaba
función Matlab fminsearch es programada el parámetro de distancia siguiendo la
para realizarse durante 16 iteraciones para temperatura del reactor con la entrada
compensar las diferencias de las presunciones sinusoidal.
de este primer paso. Para los pasos restantes, Esto concuerda con la condición que exigen
se toma como suposición inicial para la señal las redes radiales de tener un parámetro de
de control U(t) la señal anterior U(t-1) y cuatro espacio lo suficientemente grande para abarcar
de los cinco ∆U obtenidos del paso anterior, y el mapa probabilístico que hacen este tipo de
se programan 8 iteraciones. funciones sobre el espacio de datos presentados.
• Durante el número establecido de iteraciones A medida que el parámetro de espacio se hace
del paso anterior, la función fminsearch mayor aumenta la exactitud de la red neuronal.
optimiza la señal de control para que el Los resultados ante las señales de entrada se
predictor (red neuronal) ajuste sus salidas a la corresponden a las graficas del modelo
señal de referencia mediante la exploración de Backpropagation ya que los coeficientes de estos
los ∆U adecuados que minimicen la señal de dos modelos son cercanamente iguales.
control. La función fminsearch es a su vez Como principal observación general que se
configurada para realizar 4N2 iteraciones deriva del entrenamiento y la comprobación del
internas propias del método simplex que desempeño de las redes neuronales, el aspecto
emplea esta función. sobresaliente de estas es la eficacia con que los
• Los ∆U óptimos y la Nu señales de control modelos en redes neuronales representan la
proyectadas sobre estos, son guardados como planta. En las cuatro señales de entrada
asunciones iniciales para el próximo paso, introducidas el comportamiento de las redes
mientras que la señal U(t) es arrojada como neuronales eficientes con respecto a la planta
solución del algoritmo de control y es fue muy cerrado y se representa muy bien la
retornada como la señal de control para ser dinámica del proceso. Esto se refleja en el valor
aplicada en la simulación final sobre la planta. del coeficiente de correlación múltiple muy
cercano a uno conseguido en cada caso.
Luego de realizar todos los pasos Otra conclusión importante de la medición
programados, las salidas de la planta y la del desempeño a través de la señales de
referencia son comparadas gráficamente. perturbación es que la red se ajusta muy bien a
las secuencias de entrada no presentadas
8. Resultados y discusión durante el entrenamiento. Se diseñaron las
señales de entrada de tal forma que se pudiera
8.1 Identificación del reactor catalítico abarcar todo el rango posible de acción del
modelo, junto con diferentes frecuencias y
8.1.1 Red Backpropagation. Los resultados de la señales excitatorias constantes, escalones y
identificación muestran el buen desempeño de la secuencias desordenadas o aleatorias. Como se
red a la hora de hacer seguimiento a la dinámica mencionó, el set de entrenamiento esta
de la planta. La red resultó eficiente en su constituido por la señal conseguida mediante la
comportamiento y alcanzó un valor perfecto de técnica level-change-at-random-instances que
0.999988 de correlación con el proceso consiste en una secuencia aleatoria, caótica y si
simulado. La Figura 6 muestra los resultados ningún patrón identificable. Es un hecho
para la red. destacable que ante la presencia de una
Se puede comprobar la regla heurística secuencia ordenada y limpia, la esta red
propuesta por algunos autores en la que se presente entonces ese mismo comportamiento
establece que una sola capa oculta en la mayor mas aun cuando el número de combinaciones
parte de los casos es suficiente para representar posibles que se pueden obtener de las nueve
cualquier función, sin necesidad de diseñar entradas consecutivas sea tan grande en un
redes mas complejas de dos o mas capas espacio de estados tan amplio.
ocultas, que harían el trabajo de la misma La red neuronal no presenta ‘overfitting’, o
calidad pero presentando una menor eficiencia sobresaturación. Como ya se mencionó, las
de computo. El resultado general es que la curvas de la red y de la planta se siguen en una
escogencia de la arquitectura, el algoritmo de forma simétrica y bien definida. El método Early
inicialización, la función de entrenamiento, la Stopping demuestra ser altamente efectivo, pues
subdivisión de los datos y la función de detiene el entrenamiento antes de lo programado
activación Logsig presentaron buena calidad de para asegurar el punto óptimo donde la red dará
representación del sistema. la respuesta mas acertada sobre el patrón de
10
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
(a)
(b)
Figura 6. Resultados de la identificación con redes backpropagation (a) Señal de entrada escalonada, (b)
señal rampa. Las líneas de salida se superponen.
11
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
(c)
(d)
Figura 6. Resultados de la identificación con redes backpropagation (c) Señal de entrada sinusoidal, (d)
señal aleatoria.
12
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
Figura 7. Resultados de la identificación con redes RBF para la señal de entrada sinusoidal y como
salida la temperatura del reactor. Desde la curva superior hacia la inferior se muestra la evolución del
desempeño de la red, Desde el parámetro de distancia 0.1 hasta 2.0.
13
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
14
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
(a)
(b)
Figura 8. Resultados del controlador GPC neuronal con referencia a) constante de 1000º R durante 100
pasos, y b) onda cuadrática de periodo 100 s durante 800 pasos.
15
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
(c)
(d)
Figura 8. Resultados del controlador GPC neuronal con referencia c) Cambios paso aleatorios durante
800 pasos, y d) cambio paso de 800º R a 1900º R
16
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
17
C. A. Barrios.- B. E. Aguas – Proyecto de Grado 2006
18