Está en la página 1de 4

> Politecnico Colombiano Jaime Isaza Cadavid <

Diseo e Implementacin de Controladores con Redes Neuronales para una Planta de Nivel
Juan Esteban Agudelo Agudelo1, Carlos Andrs Monsalve Rubio2. Estudiantes de ingeniera de Instrumentacin y Control Juanes_filo@hotmail.com1, Andres.0490@hotmail.com2
ResumenEste es un informe desarrollado para dar a conocer los resultados en la materia Control Avanzado del programa de Ingeniera en Instrumentacin y Control del Politcnico Colombiano Jaime Isaza Cadavid. Se analizaran una serie de controladores, filtros y mtodos no convencionales de control sobre una planta real (Planta de nivel) y se concluir sobre la eficacia de los diferentes algoritmos de control sobre la planta anterior. Palabras ClaveControl Adaptativo, Control Robusto, Representacin de sistemas en espacio de estados, Identificacin de sistemas, Control de ganancia programable.

industriales.[3] Diagnostico de errores en procesos industriales [2]

En el captulo II se desarrolla un anlisis terico bsico de los sistemas de control Implementados con RNA. En el captulo III explica detalladamente el entrenamiento de la RNA. En el captulo IV Se analizan los resultados obtenidos al imprentar un NNMRAC en una red adaline y un sistema de control neuronal por modelo inverso. En el captulo V se realizan las conclusiones generales acerca de los sistemas de control neuronales y sus caractersticas significativas. II. REDES NEURONALES ARTIFICIALES

I. INTRODUCCIN

as aplicaciones de las Redes Neuronales Artificiales (RNA) en el sector industrial son diversas. El motivo de su xito es la capacidad para resolver problemas complejos en mltiples mbitos, sin embargo son una tecnologa muy novedosa, y solo se popularizaron a partir de los aos 80. Existen cuatro razones a las cuales se debe su popularidad: [1] Su simplicidad. Su fcil adaptacin a algunos tipos de Problemas. La confianza dada por la red si est debidamente implementada. Su facilidad para formar sistemas expertos hbridos cuando se combina con otra tcnica, como Lgica Difusa. La red neuronal se refiere a una tcnica matemtica que mapea desde un espacio de entrada hacia un espacio de salida. [1] Estas caractersticas hacen de la red neuronal una herramienta eficiente para tareas como: Reconocimiento de patrones. Procesamiento de Imgenes. Procesamiento de series de tiempo. Clustering no supervisado Control, Modelacin y Monitorizacin de procesos
sistemas basado en el error cuadrtico medio. Puede desarrollarse en sistemas fuera de lnea (LS tradicional). O en lnea, a travs de mtodos recursivos (RLS, RELS, RGLS, OE). Recursividad: Es un proceso o algoritmo que para la solucin de un determinado problema se llama a si mismo un nmero determinado de veces. Linealizacion: Proceso matemtico en el cual un sistema real en un punto de operacin y con cambios pequeos cerca ha dicho punto, representan aproximadamente la dinmica de dicho sistema. Integrador: Elemento recursivo computacional que representa la suma entre el valor actual de una variable y todos sus valores anteriores

Una red es una unidad de procesamiento de informacin en paralelo. [2] Estn conformados por tres componentes: (Fig.1) Funciones de activacin. Multiplicador de matrices (pesos, entradas). Operadores para la normalizacin de los datos de entrada. [1]

Figura 1. Componentes bsicos de una Neurona artificial (Perceptor) En forma general la red neuronal relaciona clases, patrones o valores escalares con patrones disponibles. Los parmetros de entrada son descritos como una serie de elementos perceptibles encadenados como un vector, usualmente se concatena a dicho elemento una salida constante de polarizacin llamada bas. (1) (1) [ ]

> Politecnico Colombiano Jaime Isaza Cadavid <

2 patrn de entrada y se calcula el valor de activacin o nivel de salida de la primera capa. A continuacin las dems capas realizarn la fase de propagacin hacia adelante que determina el nivel de activacin de las otras capas. La unidad procesadora j obtiene la cantidad Sj segn la ecuacin (5) Sj = i ai wji (5)

Los parmetros de entrada son multiplicados por el vector de pesos (2) de la neurona obteniendo una suma ponderada. (3) [1]

(2)

y genera la salida o nivel de activacin segn la ecuacin (6) Salida = f(Sj) [ ] [ [ ] ] (3) (6)

Por ltimo estos valores (3) pasan a travs de una funcin de activacin que le da sistema una no linealidad caracterstica. (4) [1] (4) III. BACK-PROPAGATION Bsicamente se distinguen tres tipos de redes neuronales diferentes: Redes Feedforward: llamadas redes Backpropagation son las redes de entrenamiento supervisado ms comnmente usadas. Estas redes son usadas para la clasificacin, el reconocimiento de patrones y la aproximacin de funciones. Redes de Hopfiel: conocidas como memorias recurrentes auto-asociativas, son utilizadas primariamente en el reconocimiento y su entrenamiento es no supervisado y despus del entrenamiento los patrones son recordados en los pesos. Redes de Kohonen: tiles para la deteccin y el clustering automtico. Su entrenamiento no requiere supervisin. En este articulo solo nos centraremos en las redes feedforward y en el tipo de entrenamiento supervisado. Las redes Backpropagation tienen un mtodo de entrenamiento supervisado. A la red se le presenta parejas de patrones, un patrn de entrada emparejado con un patrn de salida deseada. Por cada presentacin los pesos son ajustados de forma que disminuya el error entre la salida deseada y la respuesta de la red. El algoritmo de aprendizaje backpropagation conlleva una fase de propagacin hacia adelante y otra fase de propagacin hacia atrs. Ambas fases se realizan por cada patrn presentado en la sesin de entrenamiento. Propagacin hacia Adelante.-Esta fase de propagacin hacia adelante se inicia cuando se presenta un patrn en lacapa de entrada de la red. Cada unidad de la entrada se corresponde con un elemento del vector patrn de entrada. Las unidades de entrada toman el valor de su correspondiente elemento del

La funcin f es una funcin umbral genrica, entre las que cabe destacar la funcin Sigmoid y la funcin Hiperblica. El valor de la salida de la unidad j es enviado o transmitido a lo largo de todas las conexiones de salida de dicha unidad. Conviene indicar que las unidades procesadoras de la capa de entrada no realizan ninguna operacin de clculo con sus entradas, ni operaciones con funciones umbrales, slo asumen su salida como el valor del correspondiente elemento del vector de entrada. Por otro lado, algunas redes backpropagation utilizan unidades llamadas bias como parte de cualquiera de las capas ocultas y de la capa de salida. Estas unidades presentan constantemente un nivel de activacin de valor 1. Adems esta unidad est conectada a todas las unidades de la capa inmediatamente superior y los pesos asociados a dichas conexiones son ajustables en el proceso de entrenamiento. La utilizacin de esta unidad tiene un doble objetivo, mejorar las propiedades de convergencia de la red y ofrecer un nuevo efecto umbral sobre la unidad que opera. Propagacin hacia Atras.-Una vez se ha completado la fase de propagacin hacia adelante se inicia la fase de correccin o fase de propagacin hacia atrs. Los clculos de las modificaciones de todos los pesos de las conexiones empiezan por la capa de salida y continua hacia atrs a travs de todas las capas de la red hasta la capa de entrada. Dentro de los tipos de ajuste de pesos se puede clasificar dos grupos, ajuste de unidades procesadoras de la capa de salida y ajuste de unidades procesadoras de las capas ocultas. Ajuste de Pesos de la Capa de Salida: el ajuste de estos pesos es relativamente sencillo debido a que existe y se conoce el valor deseado para cada una de las unidades de la capa de salida. Cada unidad de la capa de salida produce un nmero real como salida y se compara con el valor deseado especificado en el patrn del conjunto de entrenamiento. A partir del resultado de la comparacin se calcula un valor de error j, segn la ecuacin (7) para cada unidad de la capa de salida. j = (tj _ aj) f_(Sj) (7)

Siendo tj el valor de salida deseado y f_ la derivada de la funcin umbral f. Ajuste de Pesos de las Capas Ocultas: estas capas no tienen un vector de salidas deseadas y por tanto no se puede seguir el mtodo de propagacin de error mencionado en el caso de unidades procesadoras de la capa de salida. El valor de error calculado para este tipo de unidades procesadoras se obtiene a partir de la ecuacin (8).

> Politecnico Colombiano Jaime Isaza Cadavid < j = [kk wkj] f_(Sj) (8) El ajuste de los pesos asociados a las conexiones se realiza a partir del valor de cada unidad de proceso. Cada peso es ajustado segn la ecuacin (9) conocida como la regla delta generalizada (Rumelhart y McClelland 1986) [3] wji = j ai (9)

IV. RESULTADOS La implementacin del sistema de control MRAC neural se realiz en un sistema de nivel. Los resultados obtenidos se muestran en la Fig. 2. En la grfica la salida de la planta es la lnea de color azul oscura y el modelo de referencia es la lnea verde. Comparando las dos lneas se puede decir que efectivamente el comportamiento del sistema est siendo modificado por el modelo de referencia especfico (10).

Fig. 3: Respuesta del sistema de nivel con controlador MRAC neuronal ante un estimulo escaln.

100 80
out [%]

Out Modelo referencia Set point EFC

Posteriormente se implement el mismo modelo inverso pero esta vez se agreg el bias adaptivo. Esta fue calculado como se muestra en la ecuacin (11). Con esto lo que se pretende es eliminar el error en estado estable que deja la falta del bias adaptivo. 11

60 40 20 0 0 1000 2000 3000 4000 Tiempo [s] 5000 6000 7000


Fig. 4: Respuesta del sistema de nivel con controlador MRAC neuronal ante un estimulo escaln.

Fig. 2: Respuesta del sistema de nivel con controlador MRAC neuronal ante un estimulo escaln.

(10)

El modelo de referencia utilizado debe de poseer una ganancia unitaria para asegurar que el sistema llegue a la referencia y no deje error en estado estable, esto se puede observar en la figura anterior donde el modelo de referencia llega hasta el punto de operacin. La salida de la planta presenta unas pequeas fluctuaciones pero en todo momento sigue al modelo de referencia. La implementacin del modelo inverso con redes neuronales se realiz en una planta par motor generador. La Fig. 3 muestra los resultados obtenidos con una red neuronal sin bias adaptivo. Se observa de la grfica que hay un pequeo error en estado estable, lo que a realizar unos pequeos cambios para dejar el error en estado estable igual a cero.

Finalmente a la seal de salida de la red neuronal se le sum la seal de salida de un controlador PI sintonizado [11], los resuldos obtenidos se muestran en las Fig. 5 y Fig. 6. (11)

Fig. 5: Respuesta del sistema de nivel con controlador MRAC neuronal ante un estimulo escaln.

> Politecnico Colombiano Jaime Isaza Cadavid <

Juan Esteban Agudelo Agudelo: Naci en Medelln el 8 de noviembre de 1990 estudio la primaria y la secundaria en el Colegio de la Universidad Pontificia Bolivariana. Actualmente estudia Ingeniera de instrumentacin y control en el Politcnico Colombiano Jaime Isaza Cadavid. Es aficionado a la programacin, el baloncesto y su carrera, que aunque llego por una casualidad ha sido su pasin desde el primer semestre Carlos Andrs Monsalve Rubio. Naci 04 de septiembre de 1990 en Medelln, Colombia. El estudio de la primaria lo realice en la Escuela Rafael Uribe Uribe y la segundaria la realice en el Liceo Salazar y Herrera, ambos de la ciudad de Medelln. Actualmente estudio ingeniera en Instrumentacin y Control en el Politcnico Jaime Isaza Cadavid.

Fig. 6: Respuesta del sistema de nivel con controlador MRAC neuronal ante un estimulo escaln.

Al implementar el control por modelo inverso neuronal sin bias adaptivo se obtuvo una salida muy buena en la planta, pero tiene una desventaja y es que deja un error en estado estable. Este error para algunos procesos puede ser aceptable pero para otros no, ya que requieren mxima exactitud. Para conseguir esa exactitud se implemento el bias adaptivo, con esto se consiguieron excelentes resultados. La salida que se consigui con la adicin de la seal del pid sintonizado no fue tan buena. Para los escalones pequeos, menos al 30% del rango de operacin, la salida fue muy buena, posea una muy buena velocidad de respuesta y error en estado estable cero, pero para escalones superiores al 30 % se present un sobre impulso exagerado poco normal en los sistemas de control. Dicho sobre impulso se puede presentar por que la accin de control es muy rpida. V. CONCLUSIONES La RNA es un sistema matemticamente mas complicado, y depende de variables seleccionadas aleatoriamente. Por lo que es recomendable que solo se use para procesos altamente no lineales El mejor controlador fue el de modelo inverso con bias adaptativo, ya que presenta, buen tiempo de establecimiento, no tiene sobre impulso y el error en estado estable es 0 El contolador PI potenciado con una red por modelo inverso presento un sobre impulso anormal para escalones superiores al 30%, debido a que la accin de control genera que se presente un polo demasiado rpido en el sistema en lazo cerrado

VI. REFERENCIAS
[1] [2] [3] [4] B. Hansen, State of the art of Neural Networks in Meteorology, Technical University of Nova Scotia. D. Numberger, Aplicaciones Industriales de Redes Neuronales. Universidad Politcnica de Madrid. X. Barsogain. Redes Neuronales Artificiales y sus aplicaciones. Escuela superior de ingeniera de Bilbao. V. Rodriguez. J. Garzn. J. Lpez. Control Neuronal Por Modelo Inverso De un Servosistema usando Algoritmos de Aprendizaje Levenberg-Marquardt y Bayesiano. VIII Congreso de la Asociacin Colombiana de Automtica. 2009 A. ODwyler. Handbook of PI and PID controller. 3ed. Ed. Imperial Controller Press.

[5]

También podría gustarte