Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Control Por Medio de Redes Neuronales
Control Por Medio de Redes Neuronales
PRESENTADO A:
Jose Thomas Buitrago
PRESENTADO POR:
Luis Genaro Marulanda Gonzalez
CODIGO:
0732263-3746
1. INTRODUCCION
Con las Redes Neuronales Artificiales (RNAs) se busca la solucin de problemas
complejos, no como una secuencia de pasos, sino como la evolucin de sistemas de
computacin inspirados en el cerebro humano, y dotados por tanto de cierta
"inteligencia", los cuales no son sino la combinacin de elementos simples de proceso
(neuronas) interconectados, que operando de forma paralela, consiguen resolver
problemas relacionados con el reconocimiento de formas o patrones, prediccin,
codificacin, control y optimizacin, entre otras aplicaciones.
En sntesis, las RNAs son una herramienta computacional que puede utilizarse en un gran
nmero y variedades de aplicaciones, tanto comerciales como militares e ingenieriles. La
combinacin de RNAs e ingeniera y tecnologa permite un tipo de inteligencia con
infinitas aplicaciones en la industria y la sociedad.
2. NEURONAS REALES
El cerebro consta de un gran nmero (aproximadamente 1011 ) de elementos altamente
interconectados (aproximadamente 1014 conexiones por elemento), llamados neuronas.
Las neuronas tienen cuatro componentes principales: las dendritas, el cuerpo de la clula
o soma, el axn y la sinapsis.
Dendritas: son el rbol receptor de la red, son como fibras nerviosas que cargan de
seales elctricas el cuerpo de la clula.
Cuerpo de la clula o Soma: Realiza la suma de las seales de entrada.
Axn: Es una fibra larga que lleva la seal desde el cuerpo de la clula hacia otras
neuronas
Sinapsis: El punto de contacto entre un axn de una neurona y las dendritas de otra
neurona
El cerebro humano est constituido por un conjunto de neuronas, donde una neurona no
puede hacer nada a menos que la influencia colectiva de todas sus entradas alcance un
punto crtico llamado Umbral.
Neuronas como procesadores de informacin sencillos
De manera simplista las dendritas constituyen el canal de entrada de la informacin, el
soma es el rgano de cmputo, el axn corresponde al canal de salida, y a la vez enva
informacin a otras neuronas. Cada neurona recibe informacin de aproximadamente
10.000 neuronas y enva impulsos a cientos de ellas algunas neuronas reciben la
informacin directamente del exterior.
El cerebro se modela durante el desarrollo de un ser vivo. Algunas cualidades del ser
humano no son innatas, sino adquiridas por la influencia de la informacin que del medio
externo se proporciona a sus sensores.
Tres conceptos clave a emular
Procesamiento paralelo, derivado de que los miles de millones de neuronas que
intervienen, por ejemplo en el proceso de ver, estn operando en paralelo sobre la
totalidad de la imagen.
Memoria distribuida, mientras que en un computador la informacin est en posiciones
de memoria bien definidas, en las redes neuronales biolgicas dicha informacin est
distribuida por la sinapsis de la red, existiendo una redundancia en el almacenamiento,
para evitar la prdida de informacin en caso de que una sinapsis resulte daada.
Adaptabilidad al entorno, por medio de la informacin de las sinapsis. Por medio de esta
adaptabilidad se puede aprender de la experiencia y es posible generalizar conceptos a
partir de casos particulares.
El elemento bsico de un sistema neuronal biolgico es la neurona. Un sistema neuronal
biolgico est compuesto por millones de neuronas organizadas en capas. En la emulacin
de dicho sistema neuronal biolgico, por medio de un sistema neuronal artificial, se puede
establecer una estructura jerrquica similar a la existente en el cerebro. El elemento
esencial seria la neurona artificial, la cual se organizara en capas. Varias capas constituirn
una red neuronal. Finalmente una red neuronal junto con los interfaces de entrada y
salida constituir el sistema global de proceso.
Una neurona artificial recibe una serie de entradas, representadas por el vector . En
primer lugar, suman estas entradas multiplicadas cada una de ellas por un peso diferente
. Al resultado se le suma un valor constante denominado polarizacin representado por
, es una ganancia que refuerza la salida del sumador, finalmente se le aplica una funcin
de activacin denominada .
La funcin de activacin es tpicamente alguna de las siguientes:
La propiedad fundamental de las redes neuronales artificiales es que el valor de los pesos
y las polarizaciones son ajustables, con lo que esta puede responder de forma diferente a
unas mismas entradas. Esto les confiere la capacidad de asociar un conjunto de patrones
de entrada-salida, cuando estos se les presentan de forma secuencial. Este proceso se
denomina aprendizaje, adaptacin o entrenamiento de la red. Si los patrones
corresponden las entradas y a las salidas de una planta, el aprendizaje puede realizarse,
adems, al mismo tiempo que la planta recibe las entradas y genera las salidas. Este tipo
de aprendizaje se denomina en lnea (on-line).
Una vez finalizado el aprendizaje o entrenamiento, la red puede predecir una salida a
partir de la misma entrada, sin necesidad de la planta. Este tipo de funcin se denomina
identificacin. Ahora bien, la red ha de ser capaz de predecir una salida a partir de
cualquier entrada, aun cuando no se le haya presentado en la fase de aprendizaje. Esta
caracterstica se denomina generalizacin.
Arquitectura de las redes neuronales artificiales
Se denomina arquitectura a la topologa, estructura o patrn de conexin de una red
neuronal. En una red neuronal artificial los nodos se conectan por medio de sinapsis,
estando el comportamiento de la red determinado por la estructura de conexiones
sinpticas. Estas conexiones sinpticas son direccionales, es decir, la informacin
solamente puede propagarse en un nico sentido (desde la neurona pre-sinptica a la
pos-sinptica).
Figura 3. Arquitectura unidireccional con tres capas de neuronas: una capa de entrada, una capa
Oculta y una capa de salida
La Figura 4 muestra dos ejemplos de arquitectura, uno corresponde a una red monocapa y
recurrente y el otro a una red multicapa y unidireccional.
Tipos de redes neuronales con conexin o propagacin hacia adelante (Feedforward)
Existen varios tipos de redes con conexin hacia adelante, pero se analizara nicamente
algunas, como por ejemplo:
PERCEPTRON
ADALINE Y MADALINE
BACKPROPAGATION (retro-propagacin)
PERCEPTRON: Fue uno de los primeros modelos de redes neuronales con conexin hacia
adelante, consiste en una sola neurona con pesos variable y un umbral, como funcin de
activacin se usa la funcin limite duro. Un perceptron imita una neurona tomando la
suma ponderada de sus entradas y enviando a la salida un 1 si la salida es ms grande que
algn valor umbral ajustable o una salida 0 si ocurre lo contrario.
Las entradas (P1, P2,.., Pn) y los pesos (W1, W2,., Wn) que se ilustran en la figura 5 son
normalmente valores reales que pueden ser positivos o negativos.
Cuando alguna caracterstica Xi tiende a causar la activacin del perceptron, el peso Wi
ser positivo; si la caracterstica Xi inhibe al perceptron, entonces el peso Wi ser
negativo.
ADALINE Y MADALINE: las redes ADALINE (Adaptive Linear Neuron) o (Adaptive Linear
Element) y MADALINE (Multiple Adaline) son similares a las Perceptron, excepto en su
funcin de activacin, en este caso la funcin utilizada es la funcin lineal. La red Adaline
est limitada a una nica salida, mientras que la Madaline puede tener varias capas. La
diferencia fundamental respecto al perceptron se refiere a su mecanismo de aprendizaje.
Adaline y Madaline utilizan la regla de Widrow Hoff o regla de mnimo error cuadrtico
medio (LMS).
Donde:
R= # de elementos en el vector de entrada
S= # de neuronas en la capa
Crtico Adaptativo: Al igual que el esquema anterior, sirve para optimizar una
funcin de transferencia, pero sin necesidad de un modelo de planta, o por lo
menos, sin que sea necesario un modelo determinista. El crtico, consiste
normalmente en otra red, es el encargado de evaluar el comportamiento de la red
principal, para que de esta forma pueda adaptar sus pesos.
1.56
70.5 + 1
2
2 + 2 + 2
0.031740985
+ 0.31605584 + 0.031740985
Luego de ubicarnos en control systems, nos aparecera diferentes bloques parael uso de
las RNAs.
Para definir los parmetros de nuestra RNA le damos click en el controlador NARMA-L2,
se desplegara el siguiente cuadro
Nos apareceran los siguientes cuadros, donde se nos mostrara el resultado de los
entrenamientos.
Claramente se puede observar que la RNA genero una gran disminucin del error, las
oscilaciones y una considerable reduccin del tiempo de establecimiento.
7. ARTICULO IEEE: Sliding Mode Control of NonLinear Systems Using Gaussian
Radial Basis Function Neural Networks, IEEE. 0-7803-7044.2001
En el artculo se presenta un control adaptativo que utiliza una red neuronal con funciones
de base radial. La salida de la red neuronal es la seal de control y su aprendizaje se logra
por medio de planos deslizantes, lo cual le da robustez al sistema de control adaptativo.
luego aplicando una funcin se obtiene el error de la seal de control c, y con base
en sta se actualizan los pesos de la red de base radial, la cual hace las veces de
controlador.
La red neuronal consta de una capa de entrada, una capa oculta y una capa de salida
(Figura 21). En la primera capa se tiene como entradas el error, la derivada del error y una
constante, la capa oculta est formada por neuronas con funciones de base radial y la
capa de salida es una neurona con funcin lineal.
Los pesos entre la capa de entrada y la oculta no reciben entrenamiento y su valor es de
uno. El entrenamiento de los pesos de la capa oculta a la de salida se realiza utilizando un
plano deslizante, como se muestra en la seccin del algoritmo de aprendizaje.
El error y la derivada del error se obtienen como:
Donde Uj son las entradas de la red (e,, kte) y Yi es la salida de las neurona i-sima. Cij
son los centros de las funciones radiales y ij son los anchos de las mismas.
8. CONCLUSIONES
9. BIBLIOGRAFIA