Está en la página 1de 56

Algoritmos de Aprendizaje.

AGOSTO 2002

ESCOM IPN

Aprendizaje
El aprendizaje es el proceso por medio del cual, los parmetros libres de una red neuronal son adaptados a travs de un proceso de estimulacin por el ambiente en el cual la red se encuentra inmersa. El tipo de aprendizaje es determinada por la manera en la cual el cambio de parmetros tiene lugar.
Mendel and Mc Claren (1970)
AGOSTO 2002 ESCOM IPN 2

Aprendizaje
El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una informacon de entrada. Los cambios que se producen durante el proceso de aprendizaje son la destruccin, modificacin y creacin de conexiones entre las neuronas.
W = 0 Destruccin; W 0 Creacin
AGOSTO 2002 ESCOM IPN 3

Tipos de Aprendizaje Aprendizaje Supervisado


entrada, salida, objetivo

Aprendizaje No supervisado
entrada, salida

Aprendizaje por Reforzamiento.


Recompensa/castigo
AGOSTO 2002 ESCOM IPN 4

Reglas de Aprendizaje
Aprendizaje Supervisado

A la red se le proporciona un conjunto de ejemplos del comportamiento propio de la red


(inputs/targets)
{ p1, t 1 { p2, t 2 {pQ,tQ } } }

Aprendizaje No supervisado

Las entradas son las unicas disponibles para el aprendizaje, el algoritmo de la red aprende a categorizar las entradas (clustering)
Aprendizaje por Reforzamiento

A la red se proporciona un grado de desempeo de la misma.


AGOSTO 2002 ESCOM IPN 5

Aprendizaje Supervisado

AGOSTO 2002

ESCOM IPN

Aprendizaje Supervisado
Se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro), que determina la respuesta que debera generar la red apartir de una entrada determinada.
AGOSTO 2002 ESCOM IPN 7

Algoritmos de Aprendizaje Supervisado

AGOSTO 2002

ESCOM IPN

Algoritmos con Aprendizaje Supervisado


Se realiza mediante un entrenamiento controlado por un agente externo (supervisor, maestro), que determina la respuesta que debera generar la red apartir de una entrada determinada.

Aprendizaje por Correccin de error. Aprendizaje por Refuerzo.

Aprendizaje Estocstico.
AGOSTO 2002 ESCOM IPN 9

Aprendizaje por Correccin de Error


Consiste en ajustar los pesos de las conexiones de la red en funcin de la diferencia entre los valores deseados y los obtenidos en la salida de la red; es decir en funcin del error cometido en la salida
:factor de aprendizaje ( 0 < < 1 )
AGOSTO 2002 ESCOM IPN 10

Ejemplos de Correccin de Error


Regla de aprendizaje del perceptrn Regla delta () o del mnimo error cuadrado ; LMS (Widrow - Hoff). Regla delta generalizada o algoritmo de Retropropagacin de error (Rumelhart, Hinton, Williams), Ejemplos de Redes: Perceptrn, Adaline/Madaline, y Backpropagation
AGOSTO 2002 ESCOM IPN 11

Redes que utilizan el Aprendizaje por Correccin de Error:

AGOSTO 2002

ESCOM IPN

12

Aprendizaje No Supervisado

AGOSTO 2002

ESCOM IPN

13

Aprendizaje no supervisado

AGOSTO 2002

ESCOM IPN

14

Aprendizaje No supervisado
El aprendizaje no supervisado o autosupervisado no hay un maestro o critico externo para supervisar el proceso de aprendizaje. No existen ejemplos etiquetados de la funcin que ser aprendida por la red
AGOSTO 2002 ESCOM IPN 15

Aprendizaje No Supervisado
Esta constituido por un conjunto de reglas que dan a la red la habilidad de aprender asociaciones entre los patrones que ocurren en conjunto frecuentemente. Una vez aprendido como asociacin permite a las redes realizar tareas tiles de reconocimiento de patrones y recordar.

AGOSTO 2002

ESCOM IPN

16

REDES CON APRENDIZAJE NO SUPERVISADO

Tambien llamado autosupervisado, no requieren influencia externa para ajustar los pesos de las conexiones entre sus neuronas.
existen varias posibilidades en cuanto a la interpretacin de la salida de estas redes, que dependen de su estructura o del algoritmo de aprendizaje empleado los casos de salida pueden representar:
AGOSTO 2002 ESCOM IPN 17

grado de familiaridad o similitud entre la informacin que se presenta a la entrada y las informaciones que se han mostrado hasta entonces. agrupamiento o establecimiento de categoras. Prototipado, es decir obtener ejemplares representantes de las clases a las que pertenecen las informaciones de entrada.
AGOSTO 2002 ESCOM IPN 18

Codificacin de los datos de entrada, generando a la salida una versin codificada de la entrada, con menos bits, pero manteniendo la informacin relevante de los datos. Mapeo de caractersticas, obteniendo a la salida un mapa topogrfico de las caractersticas de los de entrada, de tal forma que si se presentan en la red informaciones similares, siempre sean afectadas neuronas de salida prximas entre si, en la misma zona del mapa.
AGOSTO 2002 ESCOM IPN 19

El aprendizaje Supervisado no involucra valores objetivo. De hecho, los objetivos son los mismos que las entradas. En otras palabras, el aprendizaje no supervisado usualmente realiza la misma tarea que una red autoasociativa, la compresin de la informacin de las entradas.
AGOSTO 2002 ESCOM IPN 20

Algoritmos de Aprendizaje No Supervisado

AGOSTO 2002

ESCOM IPN

21

Tipos de aprendizaje No Supervisado


Aprendizaje Asociativo Aprendizaje Competitivo y cooperativo
AGOSTO 2002 ESCOM IPN 22

Qu es una Asociacin?
Es cualquier relacin entre la entrada de un sistema y su salida de tal forma que cuando el patrn A se presenta al sistema este responde con un patrn B.

AGOSTO 2002

ESCOM IPN

23

Aprendizaje Hebbiano.
Donald O. Hebb (1949)

Pretende medir la familiaridad o extraer caractersticas de los datos de entrada. Este tipo de aprendizaje consiste en el ajuste de los pesos de las conexiones de acuerdo con la correlacin (multiplicacin en el caso de valores binarios +1, -1) de los valores de activacin (salidas) de las dos neuronas conectadas:
AGOSTO 2002 ESCOM IPN 24

Aprendizaje Hebbiano.
Si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin. Cuando una unidad es activa y la otra pasiva (negativa) se produce un debilitamiento de la conexin.

Ejemplos de redes: Red de Hopfield, Additive Grossberg, Shunting Grossberg, Learning Matrix, BAM, TAM, LAM.
AGOSTO 2002 ESCOM IPN 25

Variantes del Aprendizaje Hebbiano


Drive - Reinforcement (Sejnowski) Hebbiano Diferencial (Kosko) Aprendizaje Hebbiano Difuso (Kosko)
Adaptive bidirectional associative memory (ABAM en 1987) Fuzzy Asociative Memory (FAM), utilizando aprendizaje Hebbiano Difuso.

Tambin se utiliza el aprendizaje hebbiano combinado con otros mtodos, esto se puede ver en las redes :
Maquina de Boltzmann Maquina de Cauchy Counterpropagation (CPN en 1987) Learning Vector Quantization (LVQ).
ESCOM IPN 26

AGOSTO 2002

Aprendizaje Competitivo y Cooperativo.


En estas redes las neuronas compiten y cooperan unas con otras con el fin de llevar a cabo una tarea dada. Cuando se presenta a la red cierta informacin de entrada, solo una de las neuronas de salida o un cierto grupo de neuronas, se activan. quedando anuladas las dems (valores de respuesta mnimos).
AGOSTO 2002 ESCOM IPN 27

El objetivo de este tipo de aprendizaje es categorizar (Clustering) los datos que se introducen en la red.

AGOSTO 2002

ESCOM IPN

28

Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo.

LVQ (Learning Vector quantization) Kohonen.


Cognitron y Neocognitron (Fukushima). SOM (Kohonen).

ART (Carpenter y Grossberg).

AGOSTO 2002

ESCOM IPN

29

Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo


LVQ ART

AGOSTO 2002

ESCOM IPN

30

Metas del Aprendizaje No supervisado


El encontrar grupos de informacin Reduccin de la dimensionalidad la Construccin de mapas topogrficos el encontrar las causas ocultas o fuentes de datos Modelar la densidad de datos
AGOSTO 2002 ESCOM IPN 31

Usos del Aprendizaje No supervisado


Compresin de Datos.. Clasificacin. Hacer otras tares de aprendizaje mas fcil. Una teora del aprendizaje humano y la percepcin.

AGOSTO 2002

ESCOM IPN

32

Aprendizaje Por Refuerzo

AGOSTO 2002

ESCOM IPN

33

Aprendizaje por Reforzamiento

AGOSTO 2002

ESCOM IPN

34

Aprendizaje por Reforzamiento


El aprendizaje de una comparacin entrada/salida se desempea a travs de la interaccin continua del medio ambiente de tal forma que se minimice un ndice escalar de su desempeo.

AGOSTO 2002

ESCOM IPN

35

Aprendizaje por Reforzamiento


Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida de la red se ajusta a la deseada (xito=1, fracaso=-1) y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades.
AGOSTO 2002 ESCOM IPN 36

Algoritmos de Aprendizaje Por Refuerzo

AGOSTO 2002

ESCOM IPN

37

Algoritmos de Aprendizaje por Refuerzo


Algoritmo Lineal con Recompensa y penalizacin (Linear Reward - Penalty), Narendra /Thathacher. Algoritmo Asociativo con recompensa y penalizacin (Barto / Anandan). Adaptive Heuristic Critic (Barto, Sutton, Anderson).
AGOSTO 2002 ESCOM IPN 38

Aprendizaje por Refuerzo


Es un aprendizaje supervisado mas lento que el anterior que se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida de la red se ajusta a la deseada (xito=1, fracaso=-1) y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades.
AGOSTO 2002 ESCOM IPN 39

Ejemplos de algoritmos que usan el Aprendizaje por Refuerzo Algoritmo Lineal con Recompensa y penalizacin (Linear Reward - Penalty), Narendra /Thathacher. Algoritmo Asociativo con recompensa y penalizacin (Barto / Anandan). Adaptive Heuristic Critic (Barto, Sutton, Anderson).
AGOSTO 2002 ESCOM IPN 40

Aprendizaje Estocstico
Este tipo de aprendizaje consiste en bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad.

AGOSTO 2002

ESCOM IPN

41

Aprendizaje Estocstico
Posee una analogia en terminos termodinamicos. El estado energetico E representa el grado de estabilidad. Un estado de minima energia representa que su funcion se aproxima al objetivo deseado. La funcin de Lyapunov se emplea tipicamente.
AGOSTO 2002 ESCOM IPN 42

Ejemplos de algoritmos de Aprendizaje Estocstico


Maquina de Boltzmann (Hinton, Ackley, Sejnowky).
Temple Simulado (Simulated Anneling).

Maquina de Cauchy (Szu)


AGOSTO 2002 ESCOM IPN 43

Aprendizaje por Reforzamiento


El aprendizaje de una comparacin entrada/salida se desempea a travs de la interaccin continua del medio ambiente de tal forma que se minimice un ndice escalar de su desempeo.

AGOSTO 2002

ESCOM IPN

44

Tipos de Asociacin Entrada /Salida

AGOSTO 2002

ESCOM IPN

45

Tipos de Asociacin entre las Informaciones de Entrada y Salida

Heteroasociacin:

Se refiere al caso en el que la red aprende parejas de datos; de tal forma que cuando se presente cierta informacin de entrada Ai, deber responder generando la correspondiente salida asociada Bi.
AGOSTO 2002 ESCOM IPN 46

Tipos de Asociacin entre las Informaciones de Entrada y Salida

Autoasociacin:

La red aprende cierta informaciones A1, A2, ... AN, de tal forma que cuando se le presenta cierta informacin de entrada realizar una autocorrelacin respondiendo con uno de los datos almacenados, el ms parecido al de entrada.

AGOSTO 2002

ESCOM IPN

47

Caractersticas de las Redes Hetereoasociativas


Precisan al menos de dos capas.

Conectividad: Con conexiones hacia delante (Perceptrn, Backpropagation, etc..) Con conexiones hacia atrs (Art, Bam, etc..) Con conexiones laterales (CABAM) Con capas multidimensionales (Neocognitron
AGOSTO 2002 ESCOM IPN 48

Caractersticas de las Redes Hetereoasociativas

Aprendizaje Con supervisin (Perceptron, Backpropation, etc..) Sin supervisin (Art, Bam, etc..)
de utilizacin Computar una funcin general de entrada Clasificacin de datos de entrada
ESCOM IPN 49

Objetivo

AGOSTO 2002

Redes Autoasociativas
Una red autoasociativa asocia una informacin de entrada con el ejemplar ms parecido de los almacenados conocidos por la red. De esta manera, su principal misin es reconstruir una determinada informacin de entrada que se presenta incompleta o distorsionada.
AGOSTO 2002 ESCOM IPN 50

Caractersticas de las Redes Autoasociativas


Precisan al menos de una capa

Conectividad Conexiones laterales entre las neuronas (Hopfield, etc.) Conexiones autorrecurrentes (Brain-State in-a-Box, Additive Grossberg, etc)

AGOSTO 2002

ESCOM IPN

51

Caractersticas de las Redes Autoasociativas


Aprendizaje

No supervisado (Hopfield, Additive Grossberg, etc..) Objetivo de utilizacin Filtrado de informacin para la reconstruccin de datos Facilitar la bsqueda por contenido en bases de datos Resolver problemas de optimizacin
AGOSTO 2002 ESCOM IPN 52

REPRESENTACIN DE LA INFORMACIN DE ENTRADA Y SALIDA.

Las neuronas pueden tambin clasificarse por el tipo de entradas y salidas que manejen. As unas redes manejaran valores analgicos en sus entradas y salidas, es decir valores reales continuos. Cuando esto ocurre las funciones de activacin de las neuronas sern tambin continuas, del tipo lineal o sigmoidal.
AGOSTO 2002 ESCOM IPN 53

Otras redes admiten solamente valores discretos o binarios (0, 1) en sus entradas y salidas, en este caso las funciones de activacin sern del tipo escaln. Existen un tipo de redes que podran denominarse como hbridas en los que los valores de entrada pueden ser valores continuos, aunque las funciones de salida sean discretas.
AGOSTO 2002 ESCOM IPN 54

Dudas ???

AGOSTO 2002

ESCOM IPN

55

Uff !!!

Hasta la prxima !!!


AGOSTO 2002 ESCOM IPN 56

También podría gustarte