Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1936 - Alan Turing, Warren McCulloch y Walter Pitts. 1949 - Donald Hebb. 1957 - Frank Rosenblatt. Perceptrn. 1960 - Bernard Widrow/Marcial Hoff. Modelo Adaline Adaptative Linear Elements. 1969 - Marvin Minsky/Seymour Papert. FRENASO.
VS
VENTAJAS
Aprendizaje Adaptativo Auto-organizacin. Tolerancia a fallos. Operacin en tiempo real. Fcil insercin dentro de la tecnologa existente.
DESVENTAJAS
Complejidad de aprendizaje Tiempo de aprendizaje elevado.
Neurona
Unidad de una red neuronal artificial. Procesador elemental. Realiza una suma ponderada de sus entradas, aplica una funcin de activacin para obtener una seal que ser transmitida a la prxima neurona.
Cada seal de entrada se multiplica por un peso asociado (depender del tipo de neurona) formando un vector de entrada.
Se agrupan en capas o niveles. Poseen un alto grado de conectividad entre ellas. Supervisadas o no, las ANN ajustan su arquitectura y parmetros de manera de poder minimizar alguna funcin de error de algn proceso.
Funcin de activacin:
Bibliografa:
http://www.uaeh.edu.mx/docencia/P_Presentaciones/huejutla/sistemas/redes_neuronales/introduccion. pdf http://www.frro.utn.edu.ar/repositorio/catedras/quimica/5_anio/orientadora1/monograias/matichredesneuronales.pdf Introduction to Artificial Neural Systems. Jacek M. Zurada - West Publishing Company.
NEURAL NETWORK DESIGN Martin T. Hagan. Howard B. Demuth, Mark Beale, publishing company.
Redes feedback
Se caracterizan por la conexin existente entre la salida de una neurona con su entrada y la entrada del resto de las neuronas del sistema. De esta forma, la entrada de una neurona en un instante de tiempo depende de los valores que ha tomado anteriormente. Las redes de este grupo se dividen en construidas y entrenadas.
Redes feedback
Construidas
Lo componen aquellas redes en las que la matriz de pesos inicial se construye a partir de los patrones utilizados para definirla. Dentro de esta clase se pueden destacar las memorias asociativas, entre las que se encuentran los modelos de Hopfield.
Entrenadas
Incluye redes que para su definicin necesitan un proceso de entrenamiento. Dentro de este grupo se encuentran los modelos ART, que son ms complejos debido a que el ajuste de los pesos afecta a las seales de entrada durante el proceso de entrenamiento.
Redes feedforward
En este modelo, las nicas conexiones apropiadas estn entre las salidas de cada capa y las entradas de la siguiente capa. Por lo tanto, no existe ninguna conexin entre las salidas de una capa y las entradas de ya sea la misma capa o capas anteriores.
Redes feedforward
Monocapa
Ejemplos:
Perceptrn Adaline
Multicapa
Ejemplos
Perceptrn multicapa
Nombre de la red
Ao
Comentarios
Avalancha
1967
Reconocimiento Ninguna red de habla continua. sencilla puede Control brazos hacer todo esto. robot.
ADALINE / MADALINE
Back Propagation
Reconocimiento Sensible a la Gail Carpenter, Sofisticada. P 1986 de patrones (radar, translacin, Stephen oco utilizada. sonar, etc.) distorsin y escala. Grossberg. Rpida, fcil de Filtrado de seales. Slo es posible implementar Ecualizador clasificar espacios 1960 con circuitos Bernard Widrow. adaptativo. linealmente analgicos o Modems. separados. VLSI. Red ms Sntesis de voz popular. desde texto. Numerosas Necesita mucho Paul Werbos, Control de robots. aplicaciones tiempo para el 1974-85 David Parker, Prediccin. con xito. aprendizaje y David Rumelhart. Reconocimiento Facilidad de muchos ejemplos. de patrones. aprendizaje. Potente. Baja capacidad Memoria Aprendizaje y de
Reconocimiento Redes simples. de patrones Capacidad de Mquinas de Boltzmann y 1985-86 (imgenes, sonar representacin Cauchy y radar). ptima de Optimizacin. patrones.
Extraccin de conocimiento de bases de datos. Posiblemente mejor realizacin que las redes de Hopfield.
La mquina de Boltzmann Jeffrey Hinton, necesita un Terry Sejnowski, tiempo muy largo Harold Szu. de aprendizaje.
Realizacin y potenciales aplicados no estudiadas totalmente. Requiere complicadas entradas de control.
Brain-Estate in-a-Box
1977
James Anderson
Cerebellatron
1969
Counter- propagation
1986
Hopfield
1982
Puede implementarse Capacidad y en VLSI. Fcil de estabilidad. conceptualizar. Requiere muchos elementos de proceso, niveles y conexiones. No puede reconocer caracteres complejos.
John Hopfield.
Neocognitron
Insensible a la Reconocimiento translacin, 1978-84 de caracteres rotacin y manuscritos. escala. La red ms Reconocimiento antigua. de caracteres Construida en impresos. HW.
K. Fukushima.
Perceptron
1957
Frank Rosenblatt.
Realiza mapas de caractersticas Requiere mucho comunes de los entrenamiento. datos aprendidos.
Teuvo Kohonen.
Mecanismos de aprendizaje
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacin de entrada.
Los cambios que se producen durante el proceso de aprendizaje son la destruccin, modificacin y creacin de conexiones entre neuronas
Clasificacin
A la red se le proporciona un conjunto de ejemplos del comportamiento propio de la red Inputs/targets Las entradas son las nicas disponibles para el aprendizaje, el algoritmo de la red aprende a categorizar las entradas. clustering
Aprendizaje Supervisado
Aprendizaje No supervisado
Aprendizaje Supervisado
El proceso de aprendizaje se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro) que determina la respuesta que debera generar la red a partir de una entrada determinada.
Aprendizaje por correccin de error: Consiste en ajustar los pesos de las conexiones de la red en funcin de la diferencia entre los valores deseados y los obtenidos a la salida de la red, es decir, en funcin del error cometido en la salida.
Aprendizaje por refuerzo En el aprendizaje por refuerzo la funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida obtenida en la red se ajusta a la deseada (xito = +1 o fracaso = -1), y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades.
Aprendizaje estocstico Consiste bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.
Aprendizaje no supervisado
Las redes con aprendizaje no supervisado (tambin conocido como autosupervisado) no requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas. La red no recibe ninguna informacin por parte del entorno que le indique si la salida generada en respuesta a una determinada entrada es o no correcta.
Aprendizaje hebbiano
Esta regla de aprendizaje es la base de muchas otras, la cual pretende medir la familiaridad o extraer caractersticas de los datos de entrada. El fundamento es una suposicin bastante simple: si dos neuronas Ni y Nj toman el mismo estado simultneamente (ambas activas o ambas inactivas), el peso de la conexin entre ambas se incrementa.
Se orienta a la clusterizacin o clasificacin de los datos de entrada. Las informaciones similares son clasificadas formando parte de la misma categora, activando por tanto la misma neurona de salida. La variacin del peso de una conexin entre una unidad i y otra j ser nula si la neurona j no recibe excitacin por parte de la neurona i y se modificar si es excitada por dicha neurona i
MFANN
FIRANN
TDANN
MFANN
Salidas pueden combinarse para obtener unas salidas de la red o alimentar otro grupo de neuronas Informacin de las entradas procesadas paralelame nte
TDANN
Se aaden unos valores iguales a los retardos del tiempo en la entrada
Entradas multiplexadas para ser una funcin de unidades del retardo del tiempo
Red Neuronal Artificial de Retardo de Tiempo (TDANN) con tres capas y tres unidades de retardo de tiempo en los nudos de entrada
FIRAN N
Cada neurona depende de la salida actual y de los valores previos de las neuronas de la capa anterior
Cada capapropio retardo de tiempo (como en entradas) pero todas la capa-mismos retardos de tiempo
Error Backpropagation
Backpropagation(ejemplos, , nin, nout, nhidden) Caso particular de una red con una capa escondida, con conexiones completas hacia adelante. Inicializar todos los pesos en valores aleatorios pequen os. Repita hasta que haya convergencia: Para cada ejemplo: 1 Procese el ejemplo a traves de la red y calcule la salida. 2 Para cada unidad k de salida: 3 Para cada unidad escondida h 4. Actualizar los pesos wj,i:
El control neuronal consiste en disear un sistema que modifique el comportamiento natural de la planta de tal forma que se aproxime a la respuesta que tiene un modelo de referencia establecido Las redes neuronales han sido utilizadas en control por su capacidad de aproximar cualquier funcin no lineal.
Se puede entrenar a una red neuronal para que se comporte como un controlador no lineal. Es as que nacen los Neurocontroladores. Que es la aproximacin de un controlador no lineal, por lo que su anlisis es muy similar a los sistemas de control no lineales
b)
Controlador Con red neuronal Inversa
u
Planta
Dt em p
u
+
Estado Inicial
M od el o I n v er s o R N A x
G(s)
Pl an t a y
G(s)
Neurocontrolador Red Neuronal Inversa
E st a d o
Es una estructura de estado estable, la cual puede ser usada para control siempre que el proceso sea montono
Ajusta la seal de control de una forma estable para que la salida de la planta tienda a la salida del modelo de referencia. El error entre la salida del modelo y la respuesta de la planta es usado como seal de retroalimentacin para el Seal de controlador Entrada Modelo de
Referencia LRM
-+
Aspectos Importantes: Pesos sinpticos de la planta Fijos Pesos sinpticos del Controlador Modifican Se ajustan por retropropagacin del error.
Modelo de Referencia Lineal
neuronal
u
c
para
identificar
un
un
Si se tratase de modelar un controlador PID, la red neuronal requiere a parte del error instantneo entre el punto de operacin y la salida del proceso, la integral y la derivada del error. Alternativamente, se puede entrenar una red neuronal con los
Aplicado por ejemplo en control de la trayectoria del brazo de un robot. La entrada total que entra a la planta es la suma entre el re-alimentador y la salida de la RNA, el cual es el modelo dinmico inverso de la planta. El modelo usa la trayectoria deseada como la entrada y el realimentador como una seal de error. A medida que el entrenamiento de la RNA avanza, la entrada puede converger a cero
Con neuronal
control
El mtodo para el entrenamiento de la Red de Control se lo hace mediante una Red Total que est compuesta por la Red del Modelo y la Red de control. La Figura 5.6 se muestra como est formada la red Total tnet en simulink.
Prueba 1: 1
La primera prueba consiste en probar la simulacin del controlador con un valor de referencia bajo, medio, alto en 1 (nivel deseado) manteniendo el mismo tiempo de muestreo de simulacin y de red neuronal Tm = 5 [s]. La Figura 5.8 muestra el comportamiento del sistema para un valor de referencia bajo adems de las seales de control de la electrovlvula y el motor DC.
PRUEBA 1: 2
Figura 5.8. Simulacin CN MR a) H1 deseado=0.07 [m] b) Seal de control electrovlvula c) Seal de control Motor DC
PRUEBA 1: 3
S. Baruc.h, J.M. Flores, F. Nava, I.R. Ramirez y B. Nenkova, An Adavanced Neutral Network Topology and Learning Applied for Identification and Control of a D. C. Motor", Septiembre 2002. Pg. 289-295 Neuro-Fuzzy and soft computing", J.S. Roger Jang, C. Tsai Sun, Eiji Mizutami, Prentice Hall, 1997 . Learning and soft computing: support vector machines, neural networks, and fuzzy logic models" Vojislav Kecman. MIT Press, 2001.