Está en la página 1de 21

CONTROL POR MEDIO DE REDES NEURONALES

SISTEMAS AVANZADOS DE CONTROL

PRESENTADO A:
Jose Thomas Buitrago

PRESENTADO POR:
Luis Genaro Marulanda Gonzalez

CODIGO:
0732263-3746

UNIVERSIDAD DEL VALLE

Santiago de Cali, Noviembre de 2010

CONTROL POR MEDIO DE REDES NEURONALES

1. INTRODUCCION
Con las Redes Neuronales Artificiales (RNAs) se busca la solucin de problemas
complejos, no como una secuencia de pasos, sino como la evolucin de sistemas de
computacin inspirados en el cerebro humano, y dotados por tanto de cierta
"inteligencia", los cuales no son sino la combinacin de elementos simples de proceso
(neuronas) interconectados, que operando de forma paralela, consiguen resolver
problemas relacionados con el reconocimiento de formas o patrones, prediccin,
codificacin, control y optimizacin, entre otras aplicaciones.
En sntesis, las RNAs son una herramienta computacional que puede utilizarse en un gran
nmero y variedades de aplicaciones, tanto comerciales como militares e ingenieriles. La
combinacin de RNAs e ingeniera y tecnologa permite un tipo de inteligencia con
infinitas aplicaciones en la industria y la sociedad.
2. NEURONAS REALES
El cerebro consta de un gran nmero (aproximadamente 1011 ) de elementos altamente
interconectados (aproximadamente 1014 conexiones por elemento), llamados neuronas.
Las neuronas tienen cuatro componentes principales: las dendritas, el cuerpo de la clula
o soma, el axn y la sinapsis.

Figura 1. Neurona Biolgica

Dendritas: son el rbol receptor de la red, son como fibras nerviosas que cargan de
seales elctricas el cuerpo de la clula.
Cuerpo de la clula o Soma: Realiza la suma de las seales de entrada.
Axn: Es una fibra larga que lleva la seal desde el cuerpo de la clula hacia otras
neuronas
Sinapsis: El punto de contacto entre un axn de una neurona y las dendritas de otra
neurona
El cerebro humano est constituido por un conjunto de neuronas, donde una neurona no
puede hacer nada a menos que la influencia colectiva de todas sus entradas alcance un
punto crtico llamado Umbral.
Neuronas como procesadores de informacin sencillos
De manera simplista las dendritas constituyen el canal de entrada de la informacin, el
soma es el rgano de cmputo, el axn corresponde al canal de salida, y a la vez enva
informacin a otras neuronas. Cada neurona recibe informacin de aproximadamente
10.000 neuronas y enva impulsos a cientos de ellas algunas neuronas reciben la
informacin directamente del exterior.
El cerebro se modela durante el desarrollo de un ser vivo. Algunas cualidades del ser
humano no son innatas, sino adquiridas por la influencia de la informacin que del medio
externo se proporciona a sus sensores.
Tres conceptos clave a emular
Procesamiento paralelo, derivado de que los miles de millones de neuronas que
intervienen, por ejemplo en el proceso de ver, estn operando en paralelo sobre la
totalidad de la imagen.
Memoria distribuida, mientras que en un computador la informacin est en posiciones
de memoria bien definidas, en las redes neuronales biolgicas dicha informacin est
distribuida por la sinapsis de la red, existiendo una redundancia en el almacenamiento,
para evitar la prdida de informacin en caso de que una sinapsis resulte daada.
Adaptabilidad al entorno, por medio de la informacin de las sinapsis. Por medio de esta
adaptabilidad se puede aprender de la experiencia y es posible generalizar conceptos a
partir de casos particulares.
El elemento bsico de un sistema neuronal biolgico es la neurona. Un sistema neuronal
biolgico est compuesto por millones de neuronas organizadas en capas. En la emulacin

de dicho sistema neuronal biolgico, por medio de un sistema neuronal artificial, se puede
establecer una estructura jerrquica similar a la existente en el cerebro. El elemento
esencial seria la neurona artificial, la cual se organizara en capas. Varias capas constituirn
una red neuronal. Finalmente una red neuronal junto con los interfaces de entrada y
salida constituir el sistema global de proceso.

3. REDES NEURONALES ARTIFICIALES


Las redes neuronales artificiales quedan integradas dentro de las tcnicas conexionistas,
lo cual significa que el funcionamiento de cada uno de sus componentes elementales es
idntico, y la complejidad funcional se obtiene mediante una gran interconectividad entre
estos elementos. Esto recuerda en gran manera la organizacin de los sistemas biolgicos,
donde simples neuronas se conectan entre s para formar sistemas ms o menos
complejos. Es por este motivo que al componente elemental de las redes neuronales
artificiales se le denomina neurona.
Al igual que su homloga biolgica, una neurona artificial recibe informacin, bien sea de
sensores o de otras neuronas; posteriormente realiza unas operaciones simples, y
finalmente transmite el resultado a otras neuronas vecinas. La ventaja de las redes
neuronales artificiales frente a sistemas matemticos o expertos es que la funcin gana
complejidad cuanto mayor es el nmero y las combinaciones de estas. Al igual que las
neuronas biolgicas, la muerte o deterioro de una neurona afecta cuantitativamente, pero
no cualitativamente. Esto les confiere caractersticas que las hacen muy adecuadas para la
realizacin de tareas tales como identificacin, reconocimiento de patrones y sobre todo
control.
Modelo Estndar de una neurona artificial

Figura 2. Modelo de una Neurona

Una neurona artificial recibe una serie de entradas, representadas por el vector . En
primer lugar, suman estas entradas multiplicadas cada una de ellas por un peso diferente
. Al resultado se le suma un valor constante denominado polarizacin representado por
, es una ganancia que refuerza la salida del sumador, finalmente se le aplica una funcin
de activacin denominada .
La funcin de activacin es tpicamente alguna de las siguientes:

Tabla1. Funciones de activacin

La propiedad fundamental de las redes neuronales artificiales es que el valor de los pesos
y las polarizaciones son ajustables, con lo que esta puede responder de forma diferente a
unas mismas entradas. Esto les confiere la capacidad de asociar un conjunto de patrones
de entrada-salida, cuando estos se les presentan de forma secuencial. Este proceso se
denomina aprendizaje, adaptacin o entrenamiento de la red. Si los patrones
corresponden las entradas y a las salidas de una planta, el aprendizaje puede realizarse,
adems, al mismo tiempo que la planta recibe las entradas y genera las salidas. Este tipo
de aprendizaje se denomina en lnea (on-line).
Una vez finalizado el aprendizaje o entrenamiento, la red puede predecir una salida a
partir de la misma entrada, sin necesidad de la planta. Este tipo de funcin se denomina
identificacin. Ahora bien, la red ha de ser capaz de predecir una salida a partir de
cualquier entrada, aun cuando no se le haya presentado en la fase de aprendizaje. Esta
caracterstica se denomina generalizacin.
Arquitectura de las redes neuronales artificiales
Se denomina arquitectura a la topologa, estructura o patrn de conexin de una red
neuronal. En una red neuronal artificial los nodos se conectan por medio de sinapsis,
estando el comportamiento de la red determinado por la estructura de conexiones
sinpticas. Estas conexiones sinpticas son direccionales, es decir, la informacin
solamente puede propagarse en un nico sentido (desde la neurona pre-sinptica a la
pos-sinptica).

En general las neuronas se suelen agrupar en unidades estructurales que denominaremos


capas. El conjunto de una o ms capas constituye la red neuronal. Se distinguen tres tipos
de capas:
De entrada: Una capa de entrada, tambin denominada sensorial, est compuesta por
neuronas que reciben datos o seales procedentes del entorno.
De salida: Una capa de salida se compone de neuronas que proporcionan la respuesta de
la red neuronal.
Ocultas: Una capa oculta no tiene una conexin directa con el entorno, es decir, no se
conecta directamente ni a rganos sensores ni a actuadores. Este tipo de capa oculta
proporciona grados de libertad a la red neuronal gracias a los cuales es capaz de
representar mas fehacientemente determinadas caractersticas del entorno que trata de
modelar.

Figura 3. Arquitectura unidireccional con tres capas de neuronas: una capa de entrada, una capa
Oculta y una capa de salida

Teniendo en cuenta diversos conceptos se pueden establecer diferentes tipos de


arquitecturas neuronales. As considerando su estructura podemos hablar de:
Redes mono capa (1 capa): Esta red est conformada por una capa de seales de entrada
y una capa de seales de salida. Es llamada red de una sola capa ya que solo se toma en
cuenta nicamente aquella donde se realiza alguna operacin, la cual corresponde a la
capa de salida. Se utiliza tpicamente en tares relacionadas con la auto asociacin.
Redes multicapa (n capas): Es aquella que dispone de conjuntos de neuronas agrupadas
en varios niveles o capas como (2,3,, n) niveles o capas. En este caso, una forma para

distinguir la capa a la que pertenece la neurona, consistir en fijarse en el origen de las


seales que recbela entrada y el destino de la seal de salida.
Teniendo en cuenta el flujo de datos, podemos distinguir entre:
Redes unidireccionales (feedforward): en las redes unidireccionales la informacin circula
en un nico sentido.
Redes recurrentes o realimentadas (feedback): en las redes recurrentes o realimentadas la
informacin puede circular entre las distintas capas de neuronas en cualquier sentido,
incluso en el de salida-entrada.

Figura 4. Diferentes arquitecturas de redes neuronales

La Figura 4 muestra dos ejemplos de arquitectura, uno corresponde a una red monocapa y
recurrente y el otro a una red multicapa y unidireccional.
Tipos de redes neuronales con conexin o propagacin hacia adelante (Feedforward)
Existen varios tipos de redes con conexin hacia adelante, pero se analizara nicamente
algunas, como por ejemplo:

PERCEPTRON
ADALINE Y MADALINE
BACKPROPAGATION (retro-propagacin)

PERCEPTRON: Fue uno de los primeros modelos de redes neuronales con conexin hacia
adelante, consiste en una sola neurona con pesos variable y un umbral, como funcin de
activacin se usa la funcin limite duro. Un perceptron imita una neurona tomando la
suma ponderada de sus entradas y enviando a la salida un 1 si la salida es ms grande que
algn valor umbral ajustable o una salida 0 si ocurre lo contrario.

Figura 5. RNA perceptron

Las entradas (P1, P2,.., Pn) y los pesos (W1, W2,., Wn) que se ilustran en la figura 5 son
normalmente valores reales que pueden ser positivos o negativos.
Cuando alguna caracterstica Xi tiende a causar la activacin del perceptron, el peso Wi
ser positivo; si la caracterstica Xi inhibe al perceptron, entonces el peso Wi ser
negativo.
ADALINE Y MADALINE: las redes ADALINE (Adaptive Linear Neuron) o (Adaptive Linear
Element) y MADALINE (Multiple Adaline) son similares a las Perceptron, excepto en su
funcin de activacin, en este caso la funcin utilizada es la funcin lineal. La red Adaline
est limitada a una nica salida, mientras que la Madaline puede tener varias capas. La
diferencia fundamental respecto al perceptron se refiere a su mecanismo de aprendizaje.
Adaline y Madaline utilizan la regla de Widrow Hoff o regla de mnimo error cuadrtico
medio (LMS).

Figura 6. RNA Adaline

BACKPROPAGATION (retro-propagacin): la red de retropropagacion tambin conocida


como perceptron multicapa (MutiLayer Perceptron), est formada por varias capas de
neuronas. Una vez que se ha aplicado un patrn a la entrada de red como estimulo, esta
se propaga desde la primera capa a travs de las capas superiores de la red, hasta generar
una salida. La seal de la salida se compara con la salida deseada y se calcula una seal de
error para cada una de las salidas.

Figura 7. RNA Backprpagation

Donde:
R= # de elementos en el vector de entrada
S= # de neuronas en la capa

El perceptron multicapa tiene tres caractersticas fundamentales que la distinguen de las


dems redes:
A. El modelo de cada neurona incluye una funcin de activacin no lineal, la
cual debe ser derivable en todo el rango. La funcin de activacin ms
usada en este caso es la Sigmoidal, su uso tiene una motivacin biolgica
por presentar n estado refractario de una neurona real. Como funciones de
activacin tambin pueden ser usadas las funciones log-sigmoide (logsig),
tan-sigmoide (tansig) y la funcin lineal (purelin).

B. La red contiene varias capas ocultas que no corresponden a la capa de


entrada ni a la capa de salida, lo que le posibilita el aprender tareas
complejas que son extradas progresivamente de las entradas.
C. La red presenta un alto grado de conectividad, la cual est determinada por
la cantidad de pesos existentes.

4. ENTRENAMIENTO DE LAS REDES NEURONALES


Una de las principales caractersticas de las RNA es su capacidad de aprendizaje. El
entrenamiento de las RNA muestra algunos paralelismos con el desarrollo intelectual de
los seres humanos. No obstante aun cuando parece que se ha conseguido entender el
proceso de aprendizaje conviene ser moderado porque el aprendizaje de las RNA est
limitado.
El objetivo del entrenamiento de una RNA es conseguir que una aplicacin determinada,
para un conjunto de entradas produzca el conjunto de salidas deseadas o mnimamente
consistentes. El proceso de entrenamiento consiste en la aplicacin secuencial de
diferentes conjuntos o vectores de entrada para que se ajusten los pesos de las
interconexiones segn un procedimiento predeterminado. Durante la sesin de
entrenamiento los pesos convergen gradualmente hacia los valores que hacen que cada
entrada produzca el vector de salida deseado.
Los algoritmos de entrenamiento o los procedimientos de ajuste de los valores de las
conexiones de las RNA se pueden clasificar en dos grupos: Supervisado y No Supervisado.
Entrenamiento Supervisado: estos algoritmos requieren el emparejamiento de cada
vector de entrada con su correspondiente vector de salida. El entrenamiento consiste en
presentar un vector de entrada a la red, calcular la salida de la red, compararla con la
salida deseada, y el error o diferencia resultante se utiliza para realimentar la red y
cambiar los pesos de acuerdo con un algoritmo que tiende a minimizar el error.
Las parejas de vectores del conjunto de entrenamiento se aplican secuencialmente y de
forma cclica. Se calcula el error y el ajuste de los pesos por cada pareja hasta que el error
para el conjunto de entrenamiento entero sea un valor pequeo y aceptable.
Entrenamiento No Supervisado: los sistemas neuronales con entrenamiento supervisado
han tenido xito en muchas aplicaciones y sin embargo tienen muchas crticas debido a
que desde el punto de vista biolgico no son muy lgicos. Resulta difcil creer que existe
un mecanismo en el cerebro que compare las salidas deseadas con las salidas reales. En el
caso de que exista, de dnde provienen las salidas deseadas?

Los sistemas no supervisados son modelos de aprendizaje ms lgicos en los sistemas


biolgicos, estos sistemas de aprendizaje no supervisado no requieren de un vector de
salidas deseadas y por tanto no se realizan comparaciones entre las salidas reales y salidas
esperadas. El conjunto de vectores de entrenamiento consiste nicamente en vectores de
entrada. El algoritmo de entrenamiento modifica los pesos de la red de forma que
produzca vectores de salida consistentes. El proceso de entrenamiento extrae las
propiedades estadsticas del conjunto de vectores de entrenamiento y agrupa en clases
los vectores similares.
Existe una gran variedad de algoritmos de entrenamiento hoy en da. La gran mayora de
ellos han surgido de la evolucin del modelo de aprendizaje no supervisado que propuso
Hebb (1949). El modelo propuesto por Hebb se caracteriza por incrementar el valor del
peso de la conexin si las dos neuronas unidas son activadas o disparadas. L a ley de Hebb
se representa segn la ecuacin:

5. CONTROL MEDIANTE REDES NEURONALES ARTIFICIALES


Los principios de control basados en redes neuronales se pueden resumir en cinco
estructuras:

Control Supervisado: La red aprende un conjunto de entradas y las salidas


deseadas, y puede de esta forma identificar un sistema dinmico.

Control Inverso Directo: La red aprende la dinmica inversa de un sistema, de


modo que aplicando la seal, la red puede calcular la accin de control a realizar.

Retropropagacion de Utilidad: Permite optimizar la funcin de transferencia.


Requiere de un modelo del sistema a controlar, el cual puede ser otra red
neuronal.

Crtico Adaptativo: Al igual que el esquema anterior, sirve para optimizar una
funcin de transferencia, pero sin necesidad de un modelo de planta, o por lo
menos, sin que sea necesario un modelo determinista. El crtico, consiste
normalmente en otra red, es el encargado de evaluar el comportamiento de la red
principal, para que de esta forma pueda adaptar sus pesos.

6. SIMULACION DE LA PLANTA DE NIVEL DEL LABORATORIO CON RNA


La simulacin que se presenta a continuacin se realiza en SIMULINK, el planteamiento del
problema consiste en encontrar un mecanismo de control para la planta de nivel del
laboratorio.
Anlisis Planta lazo Abierto:
En el laboratorio se pudo realizar el modelado de la planta en lazo abierto, y se determino
que su funcin de transferencia corresponda a la siguiente:

1.56
70.5 + 1

El resultado de la simulacin en lazo abierto fue el siguiente:

Figura8. Modelo Planta nivel en lazo abierto

Figura9. Simulacin Modelo Planta nivel en lazo abierto


Claramente se puede observar que el sistema es inestable y presenta un gran error.

Anlisis Planta lazo cerrado:


N el laboratorio se pudo observar que al cerrar el lazo por efector del Sample Holder la
funcin de trasferencia cambiaba su grado, al analizar el tiempo de establecimiento y su
error se pudo determinar que su funcin de trasferencia corresponda a:
=

2
2 + 2 + 2

0.031740985
+ 0.31605584 + 0.031740985

Figura10. Modelo Planta nivel en lazo cerrado

Figura11. Simulacion planta lazo cerrado ante varios escalones

Figura12. Simulacin planta lazo cerrado ante un escaln

Se puede observar claramente que el sistema realimentado si presenta control, sin


embargo el sistema presenta un gran error, algo de oscilamiento y sobrepaso.
Control por RNAS:
Para poder hacer uso de las RNAs en simulink debemos ubicarnos es la librera Neural
Network ToolBox y luego en Control Systems.

Figura13. Ubicacin de la Neural Network ToolBox en la Library Browser de simulink

Luego de ubicarnos en control systems, nos aparecera diferentes bloques parael uso de
las RNAs.

Figura14. Ubicacin de los controladores por RNAs

En este caso se utilizo el NARMA-L2 controller.

Figura15. Modelo de la planta con RNA

Para definir los parmetros de nuestra RNA le damos click en el controlador NARMA-L2,
se desplegara el siguiente cuadro

Figura16. Parametros de la RNA

Figura16. Simulink Plant Model

Luego de definir la arquitectura de lare, los parametros de entrenamiento y el modelo de


la planta, debemos darle click en Generate Training Data.

Figura17. Visualizacin de las entradas y salidas de la planta de referencia de la RNA

Luego de finalizada la smulacion, es decir, luego de terminado el nuemro de pruebas de


entreno, debemos darle click en Accept Data, nos aparecera el siguiente
cuadro,indicandonos que ahora se puede dar inicio al entrenamiento de la red, para ello le
damos click en Train Network.

Figura17. Parmetros de la RNA terminado el test1

Nos apareceran los siguientes cuadros, donde se nos mostrara el resultado de los
entrenamientos.

Figura18. Resultados del entrenamiento

Terminado el entrenamiento de la RNA se puede dar inicio al uso de la misma en la planta,


los resultados obtenidos fueron.

Figura19. Simulacin planta nivel con RNA

Claramente se puede observar que la RNA genero una gran disminucin del error, las
oscilaciones y una considerable reduccin del tiempo de establecimiento.
7. ARTICULO IEEE: Sliding Mode Control of NonLinear Systems Using Gaussian
Radial Basis Function Neural Networks, IEEE. 0-7803-7044.2001
En el artculo se presenta un control adaptativo que utiliza una red neuronal con funciones
de base radial. La salida de la red neuronal es la seal de control y su aprendizaje se logra
por medio de planos deslizantes, lo cual le da robustez al sistema de control adaptativo.

Figura20. Esquema del sistema completo

El diagrama de la Figura 20 muestra el esquema del sistema completo utilizando la red de


base radial. A partir del error y su derivada, se calcula un plano deslizante llamado Sp,

luego aplicando una funcin se obtiene el error de la seal de control c, y con base
en sta se actualizan los pesos de la red de base radial, la cual hace las veces de
controlador.

Figura21. Estructura de la Red

La red neuronal consta de una capa de entrada, una capa oculta y una capa de salida
(Figura 21). En la primera capa se tiene como entradas el error, la derivada del error y una
constante, la capa oculta est formada por neuronas con funciones de base radial y la
capa de salida es una neurona con funcin lineal.
Los pesos entre la capa de entrada y la oculta no reciben entrenamiento y su valor es de
uno. El entrenamiento de los pesos de la capa oculta a la de salida se realiza utilizando un
plano deslizante, como se muestra en la seccin del algoritmo de aprendizaje.
El error y la derivada del error se obtienen como:

Donde X es la salida de la planta y Xd es la salida deseada. La salida de cada neurona de la


capa oculta, la cual esta formada por funciones de base radial es:

Donde Uj son las entradas de la red (e,, kte) y Yi es la salida de las neurona i-sima. Cij
son los centros de las funciones radiales y ij son los anchos de las mismas.

La salida total de la red se define por:

Donde wi denota el peso i de entrenamiento, y representa la salida total de la red.


El aprendizaje se logra calculando el plano deslizante Sp y el error de la seal de control

ec como en (5) y (6)

Donde es la seal de control deseada y como sta no est disponible, es necesaria la


expresin del lado derecho. Con ec se calcula el cambio en los pesos de la red neuronal
de manera similar a:

8. CONCLUSIONES

S e pudo comprender el principio bsico de las RNAs.


Se pudo determinar que su naturaleza las hace aptas para el uso en diferentes
disciplinas pero sobre todo en el reconocimiento de patrones y el control.
En cuanto a la simulacin se presento un mtodo de control usando RNAs, el
cual fue fcil de implementar y presento buen comportamiento.

9. BIBLIOGRAFIA

IEEE CONTROL MAGAZINE. NEURAL NETWORKS for Self-Learning Control Systems,


Derrick H. Nguyen and Bernard Widrow
REDES NEURONALES Y SUS APLICACIONES, Xabier Basogain Olbe
S. Haykin (1999). Neural Networks. A Comprehensive Foundation, Prentice-hall

También podría gustarte