Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AGOSTO 2002
ESCOM IPN
Aprendizaje
El aprendizaje es el proceso por medio del cual, los parmetros libres de una red neuronal son adaptados a travs de un proceso de estimulacin por el ambiente en el cual la red se encuentra inmersa. El tipo de aprendizaje es determinada por la manera en la cual el cambio de parmetros tiene lugar.
Mendel and Mc Claren (1970)
AGOSTO 2002 ESCOM IPN 2
Aprendizaje
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacon de entrada. Los cambios que se producen durante el proceso de aprendizaje son la destruccin, modificacin y creacin de conexiones entre las neuronas.
W = 0 Destruccin; W 0 Creacin
AGOSTO 2002 ESCOM IPN 3
Aprendizaje No supervisado
entrada, salida
Reglas de Aprendizaje
Aprendizaje Supervisado
Aprendizaje No supervisado
Las entradas son las unicas disponibles para el aprendizaje, el algoritmo de la red aprende a categorizar las entradas (clustering)
Aprendizaje por Reforzamiento
Aprendizaje Supervisado
AGOSTO 2002
ESCOM IPN
Aprendizaje Supervisado
Se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro), que determina la respuesta que debera generar la red apartir de una entrada determinada.
AGOSTO 2002 ESCOM IPN 7
AGOSTO 2002
ESCOM IPN
Aprendizaje Estocstico.
AGOSTO 2002 ESCOM IPN 9
AGOSTO 2002
ESCOM IPN
12
Aprendizaje No Supervisado
AGOSTO 2002
ESCOM IPN
13
Aprendizaje no supervisado
AGOSTO 2002
ESCOM IPN
14
Aprendizaje No supervisado
El aprendizaje no supervisado o autosupervisado no hay un maestro o critico externo para supervisar el proceso de aprendizaje. No existen ejemplos etiquetados de la funcin que ser aprendida por la red
AGOSTO 2002 ESCOM IPN 15
Aprendizaje No Supervisado
Esta constituido por un conjunto de reglas que dan a la red la habilidad de aprender asociaciones entre los patrones que ocurren en conjunto frecuentemente. Una vez aprendido como asociacin permite a las redes realizar tareas tiles de reconocimiento de patrones y recordar.
AGOSTO 2002
ESCOM IPN
16
Tambien llamado autosupervisado, no requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas.
existen varias posibilidades en cuanto a la interpretacin de la salida de estas redes, que dependen de su estructura o del algoritmo de aprendizaje empleado los casos de salida pueden representar:
AGOSTO 2002 ESCOM IPN 17
grado de familiaridad o similitud entre la informacin que se presenta a la entrada y las informaciones que se han mostrado hasta entonces. agrupamiento o establecimiento de categoras. Prototipado, es decir obtener ejemplares representantes de las clases a las que pertenecen las informaciones de entrada.
AGOSTO 2002 ESCOM IPN 18
Codificacin de los datos de entrada, generando a la salida una versin codificada de la entrada, con menos bits, pero manteniendo la informacin relevante de los datos. Mapeo de caractersticas, obteniendo a la salida un mapa topogrfico de las caractersticas de los de entrada, de tal forma que si se presentan en la red informaciones similares, siempre sean afectadas neuronas de salida prximas entre si, en la misma zona del mapa.
AGOSTO 2002 ESCOM IPN 19
El aprendizaje Supervisado no involucra valores objetivo. De hecho, los objetivos son los mismos que las entradas. En otras palabras, el aprendizaje no supervisado usualmente realiza la misma tarea que una red autoasociativa, la compresin de la informacin de las entradas.
AGOSTO 2002 ESCOM IPN 20
AGOSTO 2002
ESCOM IPN
21
Qu es una Asociacin?
Es cualquier relacin entre la entrada de un sistema y su salida de tal forma que cuando el patrn A se presenta al sistema este responde con un patrn B.
AGOSTO 2002
ESCOM IPN
23
Aprendizaje Hebbiano.
Donald O. Hebb (1949)
Pretende medir la familiaridad o extraer caractersticas de los datos de entrada. Este tipo de aprendizaje consiste en el ajuste de los pesos de las conexiones de acuerdo con la correlacin (multiplicacin en el caso de valores binarios +1, -1) de los valores de activacin (salidas) de las dos neuronas conectadas:
AGOSTO 2002 ESCOM IPN 24
Aprendizaje Hebbiano.
Si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin. Cuando una unidad es activa y la otra pasiva (negativa) se produce un debilitamiento de la conexin.
Ejemplos de redes: Red de Hopfield, Additive Grossberg, Shunting Grossberg, Learning Matrix, BAM, TAM, LAM.
AGOSTO 2002 ESCOM IPN 25
Tambin se utiliza el aprendizaje hebbiano combinado con otros mtodos, esto se puede ver en las redes :
Maquina de Boltzmann Maquina de Cauchy Counterpropagation (CPN en 1987) Learning Vector Quantization (LVQ).
ESCOM IPN 26
AGOSTO 2002
El objetivo de este tipo de aprendizaje es categorizar (Clustering) los datos que se introducen en la red.
AGOSTO 2002
ESCOM IPN
28
AGOSTO 2002
ESCOM IPN
29
AGOSTO 2002
ESCOM IPN
30
AGOSTO 2002
ESCOM IPN
32
AGOSTO 2002
ESCOM IPN
33
AGOSTO 2002
ESCOM IPN
34
AGOSTO 2002
ESCOM IPN
35
AGOSTO 2002
ESCOM IPN
37
Ejemplos de algoritmos que usan el Aprendizaje por Refuerzo Algoritmo Lineal con Recompensa y penalizacin (Linear Reward - Penalty), Narendra /Thathacher. Algoritmo Asociativo con recompensa y penalizacin (Barto / Anandan). Adaptive Heuristic Critic (Barto, Sutton, Anderson).
AGOSTO 2002 ESCOM IPN 40
Aprendizaje Estocstico
Este tipo de aprendizaje consiste en bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.
AGOSTO 2002
ESCOM IPN
41
Aprendizaje Estocstico
Posee una analogia en terminos termodinamicos. El estado energetico E representa el grado de estabilidad. Un estado de minima energia representa que su funcion se aproxima al objetivo deseado. La funcin de Lyapunov se emplea tipicamente.
AGOSTO 2002 ESCOM IPN 42
AGOSTO 2002
ESCOM IPN
44
AGOSTO 2002
ESCOM IPN
45
Heteroasociacin:
Se refiere al caso en el que la red aprende parejas de datos; de tal forma que cuando se presente cierta informacin de entrada Ai, deber responder generando la correspondiente salida asociada Bi.
AGOSTO 2002 ESCOM IPN 46
Autoasociacin:
La red aprende cierta informaciones A1, A2, ... AN, de tal forma que cuando se le presenta cierta informacin de entrada realizar una autocorrelacin respondiendo con uno de los datos almacenados, el ms parecido al de entrada.
AGOSTO 2002
ESCOM IPN
47
Conectividad: Con conexiones hacia delante (Perceptrn, Backpropagation, etc..) Con conexiones hacia atrs (Art, Bam, etc..) Con conexiones laterales (CABAM) Con capas multidimensionales (Neocognitron
AGOSTO 2002 ESCOM IPN 48
Aprendizaje Con supervisin (Perceptron, Backpropation, etc..) Sin supervisin (Art, Bam, etc..)
de utilizacin Computar una funcin general de entrada Clasificacin de datos de entrada
ESCOM IPN 49
Objetivo
AGOSTO 2002
Redes Autoasociativas
Una red autoasociativa asocia una informacin de entrada con el ejemplar ms parecido de los almacenados conocidos por la red. De esta manera, su principal misin es reconstruir una determinada informacin de entrada que se presenta incompleta o distorsionada.
AGOSTO 2002 ESCOM IPN 50
Conectividad Conexiones laterales entre las neuronas (Hopfield, etc.) Conexiones autorrecurrentes (Brain-State in-a-Box, Additive Grossberg, etc)
AGOSTO 2002
ESCOM IPN
51
No supervisado (Hopfield, Additive Grossberg, etc..) Objetivo de utilizacin Filtrado de informacin para la reconstruccin de datos Facilitar la bsqueda por contenido en bases de datos Resolver problemas de optimizacin
AGOSTO 2002 ESCOM IPN 52
Las neuronas pueden tambin clasificarse por el tipo de entradas y salidas que manejen. As unas redes manejaran valores analgicos en sus entradas y salidas, es decir valores reales continuos. Cuando esto ocurre las funciones de activacin de las neuronas sern tambin continuas, del tipo lineal o sigmoidal.
AGOSTO 2002 ESCOM IPN 53
Otras redes admiten solamente valores discretos o binarios (0, 1) en sus entradas y salidas, en este caso las funciones de activacin sern del tipo escaln. Existen un tipo de redes que podran denominarse como hbridas en los que los valores de entrada pueden ser valores continuos, aunque las funciones de salida sean discretas.
AGOSTO 2002 ESCOM IPN 54
Dudas ???
AGOSTO 2002
ESCOM IPN
55
Uff !!!