Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ACFrOgB015lV3v2p8GS5no2tqKbZ6V5VDukmZgEOPIXXc7OsPku3zCb-fT8g RCRKD EfaZ3KdEfguqsP1bneOFMevh2rebQBb3B74pEjMTtJXRoUM85j zYc5KL0VeFu6W9rIcGk1hcgB1vTqai
ACFrOgB015lV3v2p8GS5no2tqKbZ6V5VDukmZgEOPIXXc7OsPku3zCb-fT8g RCRKD EfaZ3KdEfguqsP1bneOFMevh2rebQBb3B74pEjMTtJXRoUM85j zYc5KL0VeFu6W9rIcGk1hcgB1vTqai
Tema 4
Aprendizaje no supervisado
1
Aprendizaje no supervisado
Aprendizaje no supervisado
• Introducción
• Aprendizaje competitvo
• Mapas autoorganizados de Kohonen
• Otros algoritmos de agrupación
2
Aprendizaje no supervisado
1
Introducción
Introducción
4
Aprendizaje no supervisado
2
Introducción
• Problemas abordables con estas redes
– Agrupamiento (Clusterización)
Determinar la existencia de clases y clasificar los patrones
– Prototipado
Obtener prototipo (representante) asociado a la clase del
patrón de entrada
5
Aprendizaje no supervisado
Modelo básico
• Regla de Hebb
– Esta regla contribuye a decidir cómo y en qué grado
modificar las conexiones sin depender de factores
externos
– Varias propuestas
Δwij=ai·aj
Δwij= Δ ai·Δ aj Δ ai· es la variación de la activación con
respecto a su activación anterior
6
Aprendizaje no supervisado
3
Modelo básico
7
Aprendizaje no supervisado
Aprendizaje competitivo
• Características
8
Aprendizaje no supervisado
4
Aprendizaje competitivo
• Arquitectura
– Dos capas: F1 capa de entrada y F2 capa de competición
– Cada neurona de la capa F1 está conectada con todas las neuronas de la capa
F2 a través de conexiones ponderadas (con pesos)
9
Aprendizaje no supervisado
Aprendizaje competitivo
Procedimiento
1. Se recibe el estímulo o entrada en F1.
2. Se propaga la señal hasta F2 y se calcula el valor de activación para
cada neurona de F2.
3. Se inhiben las conexiones entre la capa F1 y la F2.
• Se propaga la señal por la capa F2, calculándose los nuevos
valores de activación de las neuronas.
• Cuando sólo haya una neurona (la ganadora) con un valor de
salida mayor que cero ir al paso 4.
10
Aprendizaje no supervisado
5
Aprendizaje competitivo
11
Aprendizaje no supervisado
Aprendizaje competitivo
• Aprendizaje
– La neurona ganadora representa al prototipo que es asignado al dato de
entrada
– Las conexiones entre la capa F1, la de la entrada, y la célula ganadora
son reforzadas
– Es por esto que se llama “el que gana se lo lleva todo” (winner takes all)
Célula ganadora
F2
j
F1
• Inconveniente
– Es necesario establecer a priori el número de categorías
12
Aprendizaje no supervisado
6
Mapas autoorganizados de Kohonen
• Problemas de agrupación (clasificación no supervisada)
• Arquitectura
– RNA de dos capas: Entrada y Competición
– Las neuronas en la capa de competición se pueden organizar:
• En una recta (mapa unidimensional)
• En un plano (mapa bidimensional)
Mapa 3x3
Neurona j
Mapa 1x5 (o 5x1)
Neurona j Competición
Competición
μ1j μnj
μ1j μnj
μ2j
μ2j
E … Entrada
E … Entrada
E1 E2 En
E1 E2 En
13
Aprendizaje no supervisado
14
Aprendizaje no supervisado
7
Mapas autoorganizados de Kohonen
• Representación geométrica
– Los datos de entrada y las neuronas de la c.c. se pueden representar
como puntos en un espacio n dimensional
– Cada neurona de la c.c. se representa en el espacio de entrada
utilizando los pesos asociados a esa neurona. (A las neuronas de la c.c.
se le llaman también prototipos) Representación del mapa 3x3
C1 C2 C3
E2
C4
Capa de C3
μ23
Competición
μ22 C2 C4
μ24
μ1j μ2j
μ1j C1
Capa de μ21
Entrada
E1 E2
μ13 μ12 μ14 μ11
E1
Puntos azules: patrones de entrada
Puntos rojos: Neuronas
15
Aprendizaje no supervisado
• Representación geométrica
– Lo mismo para un mapa unidimensional
22
C2
E1 E2
8
Mapas autoorganizados de Kohonen
• La activación de cada neurona j de la capa de competición
(denotada como τj) se calcula utilizando la distancia del vector de
entrada al vector de pesos asociado a cada neurona:
τj=d(E,μj)
• Se pueden elegir diversas distancias.
– El producto escalar: En este caso, la salida de la capa de
competición será la habitual en los modelos supervisados (suma
ponderada de las entradas por los pesos de las conexiones)
τj =d(E,μj)=Σi=1Eiμij
– La función más utilizada es la distancia euclídea
n
j (E
i 1
i ij ) 2
17
Aprendizaje no supervisado
• Funcionamiento
– Se recibe el vector de entrada
18
Aprendizaje no supervisado
9
Mapas autoorganizados de Kohonen
• Representación geométrica
– Se calcula la distancia de cada de entrada a las neuronas de la capa de
competición (prototipos) y se elige la ganadora:
Mapa 1x3 Mapa 3x3
E2
C3 E2
C3
d(p,C3)
C1 d(p,C1)
p
d(p,C2)
C2 C4
C2
p C1
E1 E1
d(p,C3) es la menor de d(p,C4) es la menor de
todas, luego C3 es la todas, luego C4 es la
neurona ganadora para el neurona ganadora para el
punto p punto p
19
Aprendizaje no supervisado
tasa de aprendizaje
Coordenada i de la
i=1,…,n
ij (t ) j (t )(ei (t ) ij (t )) neurona j
si no se tiene en
1 si j ganadora
j = cuenta el
0 en caso contrario vecindario
20
Aprendizaje no supervisado
10
Mapas autoorganizados de Kohonen
21
Aprendizaje no supervisado
1 j ( E1 1 j )
µ
µ2j µ2j
µ
E e
E2 e2
1 2 1
µ1j µ1j
E1 e1
22
Aprendizaje no supervisado
11
Mapas autoorganizados de Kohonen
µ21
µ11 µ12
Ejemplo 2 3 3
µ22
• Dos neuronas µ1=(2,3) y µ2=(3 , 2) 2
E1 E2
µ1 (2,3)
µ2j
Determinar la neurona
e(1,2) µ2 ganadora y ajustar sus pesos.
E2 (3,2) Tasa de aprendizaje 0.2
E1 µ1j
23
Aprendizaje no supervisado
µ21
µ11 µ12
• Calcular distancias µ22
• d(e,µ1)=1.41, d(e,µ2)=2
• µ1 es la neurona ganadora
E1 E2
µ1 ij ( e i ij )
µ2j
1.41 11 0.2(1 2) 0.2
µ2
e2 e 2
21 0.2( 2 3) 0.2
11 2 0.2 1.8
21 3 0.2 2.8
e2 µ1j
24
Aprendizaje no supervisado
12
Mapas autoorganizados de Kohonen
µ2j µ1 (2,3)
1.13 (1.8,2.8)
µ2
E2 e
E1 µ1j
25
Aprendizaje no supervisado
– Vecindarios unidimensionales
• Las neuronas pueden organizarse en una estructura unidimensional, abierta
o cerrada
26
Aprendizaje no supervisado
13
Mapas autoorganizados de Kohonen
Vecindarios en SOM_PAK
27
Aprendizaje no supervisado
cj ganadora,
α(t) (e (t) - μ (t)) (cj,cr)<θ
i ik
ik (cj,ck)
=
0 en caso contrario
i=1,…,n; k representa el índice de la neurona ganadora y sus vecinas
14
Mapas autoorganizados de Kohonen
• Aprendizaje con vecindario
29
Aprendizaje no supervisado
• Método de Kohonen
1. Inicializar pesos.
Asignar a los pesos valores pequeños aleatorios.
30
Aprendizaje no supervisado
15
Mapas autoorganizados de Kohonen
31
Aprendizaje no supervisado
32
Aprendizaje no supervisado
16
Mapas autoorganizados de Kohonen
33
Aprendizaje no supervisado
34
Aprendizaje no supervisado
17
Mapas autoorganizados de Kohonen
35
Aprendizaje no supervisado
36
Aprendizaje no supervisado
18
Mapas autoorganizados de Kohonen
37
Aprendizaje no supervisado
38
Aprendizaje no supervisado
19
Mapas autoorganizados de Kohonen
39
Aprendizaje no supervisado
40
Aprendizaje no supervisado
20
Mapas autoorganizados de Kohonen
41
Aprendizaje no supervisado
42
Aprendizaje no supervisado
21
Mapas autoorganizados de Kohonen
43
Aprendizaje no supervisado http://www.cis.hut.fi/research/som-research/worldmap.html
44
Aprendizaje no supervisado
22