Está en la página 1de 73

Aprendizaje no supervisado

Departamento de Informática
Universidad Carlos III de Madrid
Avda. de la Universidad, 30. 28911 Leganés (Madrid)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 1


Aprendizaje no supervisado

• Introducción

• Modelo básico
– Modelo de Interacción Lateral
– Aprendizaje Competitivo

• Mapas autoorganizados de Kohonen

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 2


Introducción

• Características principales de las RNA no supervisadas


– No necesitan de un profesor externo
– La red descubre en los datos de entrada y de forma autónoma:
• Características
• Regularidades
• Correlaciones
• Categorías

y es capaz de obtenerlas de forma codificada en la salida

– Por tanto, muestran cierto grado de Auto-organización


– Sólo consigue resultados útiles si existe algún tipo de redundancia
• sin redundancia sería imposible encontrar patrones o características en los
datos
Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 3
Introducción

• Características principales (II)


– Suelen requerir menores tiempos de entrenamiento que las
supervisadas
– Modelos más cercanos a estructuras neurobiológicas. Tienden a imitar
su comportamiento
– Arquitectura simple. Habitualmente son:
Una sola capa
Feed-forward
– Las leyes de aprendizaje suelen ser más complejas
– Tipos fundamentales
Kohonen (SOM)
Grossberg (ART)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 4


Introducción
• Problemas abordables con estas redes
– Familiaridad:
Similitud entre una entrada y un valor tipo
(media de valores presentados con anterioridad)
– Análisis de componentes principales
Qué atributos son más importantes en el conjunto de datos
De forma que los demás puedan eliminarse sin pérdida significativa de información
– Agrupamiento (Clusterización)
Determinar la existencia de clases y clasificar los patrones
– Prototipado
Obtener prototipo asociado a la clase del patrón de entrada
– Extracción y relación de características
Mapa topológico de los datos de entrada: que patrones parecidos produzcan
respuestas similares en células cercanas

• Estas categorías no son disjuntas


– Ej: componentes principales para reducir la dimensionalidad y luego aplicar
clustering

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 5


Modelo básico

• Regla de Hebb
– Aportación fundamental a las RNA
– En apr. no supervisado no hay información externa que
ayude a decidir cómo modificar las conexiones
– Esta regla contribuye a decidir cómo y en qué grado Donald Hebb (1904-1985)

modificar las conexiones sin depender de factores


externos
– Parte de la observación del comportamiento de células
cerebrales

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 6


Modelo básico

• Regla de Hebb
“Cuando el axón de una célula A está lo suficientemente cerca para
excitar a una célula B, y toma parte repetidamente en el proceso de
disparo de dicha célula, se produce algún tipo de cambio
metabólico en una de las células (o en las dos), que hace que la
eficacia con la que A disparaba a B se vea incrementada”

Esto significa que los pesos que unen a dos neuronas aumentan si se
activan a la vez y disminuyen si se activan en distinto momento

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 7


Modelo básico

• Regla de Hebb
– Hay muchas propuestas de implementación para esta regla

∆wij=ai·aj
∆wij= ∆ ai·∆ aj

∆wij=µ(ai - ai)(aj - aj)

• Característica básicas de las RNA no supervisadas:


– Interacción lateral
– Aprendizaje competitivo

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 8


Modelo de Interacción lateral

– En el cerebro, el orden de sus unidades es muy importante (tiene


características topológicas)
Unidades de estructura idéntica tienen una funcionalidad diferente,
porque dependen del 'vecindario‘

– Tratar de crear sistemas artificiales con propiedades observadas en los


modelos biológicos
– ¿Cómo conseguir que, en neuronas idénticas, el orden sea relevante?
– ¿Cómo relacionar la topología con las propiedades de las entradas?
– Modelo de Interacción Lateral:
Se conecta cada neurona con un conjunto próximo de ellas
Sólo interactúan si están conectadas

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 9


Modelo de Interacción lateral

• Antecedentes Biológicos
– Se ha observado la influencia que una neurona ejerce sobre las demás
en función de la distancia entre ellas, siendo muy pequeña cuando
están muy alejadas.

– Así, se ha comprobado que en determinados primates se producen


interacciones laterales de tipo excitatorio entre neuronas próximas en
un radio de 50 a 100 micras, de tipo inhibitorio en una corona circular
de 150 a 400 micras de anchura alrededor del círculo anterior, y de tipo
excitatorio muy débil , prácticamente nulo, desde ese punto hasta una
distancia de varios centímetros. Este tipo de interacción tiene la forma
típica de un sombrero mejicano.

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 10


Modelo de Interacción lateral

• Arquitectura
– Cada célula conectada con las de su entorno cercano de forma
excitatoria
– Cada célula conectada con las de su entorno menos cercano de forma
inhibitoria
– No hay conectividad entre células alejadas
– La intensidad de la conexión decrece con la distancia
Cuando una célula está activa influye en la actividad de las que la
rodean
El orden de las células es significativo

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 11


Modelo de Interacción lateral

• Arquitectura

Conexión excitatoria
Conexión inhibitoria
Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 12
Modelo de Interacción lateral

• Ecuaciones
– Su formulación sería:
l
µi (t ) = σ [θ i (t ) + ∑ γ k µi + k (t − 1)]
k =−l

– Donde:
– µi(t) es la salida de la unidad i.
– σ[x]: función no lineal de tipo sigmoide.
– γk : pesos de las conexiones laterales
– θi(t): entradas de la célula i.

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 13


Modelo de Interacción lateral

• Función de ‘sombrero mexicano’ para la interacción lateral

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 14


Modelo de Interacción lateral

• Se producen determinados grupos de activación a lo largo de la


red, influidos por neuronas con altos grados de activación que
propagan su nivel de actividad.

• El nivel de activación de una célula no depende sólo de la


entrada sino de su ubicación y de la actividad de su vecindario

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 15


Aprendizaje competitivo

• Características
– Tipo de Aprendizaje no supervisado utilizado en modelos de RNA
– Objetivo: categorizar los datos de entrada
– Datos parecidos han de ser clasificados como pertenecientes a la
misma categoría
– Hay una capa de clasificación compuesta por tantas neuronas como
categorías pueda haber en los datos
– Cada categoría representada por un prototipo
– El prototipo recoge las características similares de los datos de su
categoría
– En la capa de clasificación, cada célula se corresponde con un prototipo

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 16


Aprendizaje competitivo

• Características (II)
– El sistema debe relacionar cada célula (prototipo) con los datos de
entrada que representa

– Debe agrupar los datos de entrada en categorías, por razones de


similitud, y asignar a cada categoría un prototipo

– El prototipo sería utilizado para clasificar datos nuevos y desconocidos.

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 17


Aprendizaje competitivo

• Arquitectura
– Dos capas: F1 capa de entrada y F2 capa de competición
– Cada célula de la capa F1 está conectada con todas las células
de la capa F2 a través de conexiones ponderadas variables
– F2 tiene conexiones laterales
inhibitorias entre todas las
células de su capa, excepto
con ella misma, en que la
conexión es excitatoria

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 18


Aprendizaje competitivo

• Las conexiones en F2 son fijas

• Corresponde a un modelo de interacción lateral con valores


positivos para la propia célula y negativos y de valor constante
para las demás

• Cada célula se refuerza a sí misma


Una vez que las células de F2 han sido activadas por
las entradas de F1, esta deja de actuar y la señal se
propaga por F2: todas las células intentarán impedir que
las demás tengan un valor alto (conex. inhibit) e intentarán
tener ellas mismas un valor alto (conex. excitat).

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 19


Aprendizaje competitivo

• Procedimiento
1. Se recibe el estímulo en F1.
2. Se propaga la señal hasta F2 y se calcula el valor de excitación para
cada célula de F2.
3. Se inhiben las conexiones entre la capa F1 y la F2.
• Se propaga la señal por la capa F2, calculándose los nuevos
valores de excitación de las células.
• Cuando sólo haya una célula (célula ganadora) con un valor de
salida mayor que cero ir al paso 4.

4. Restablecer las conexiones entre las capas F1 y F2.


• Calcular los nuevos valores para los pesos de las conexiones
entre la capa F1 y la célula ganadora en el paso 3.

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 20


Aprendizaje competitivo

– La capa F2 se estabiliza cuando todas las salidas tienen valor 0


excepto una que será la que al principio ha recibido la entrada más
alta de F1 (la que ha inhibido más al resto y se ha reforzado más a
ella misma)

– Las células de la capa F2 compiten por la entrada: sólo una consigue


ganar la competición (célula ganadora)

– En F2 los pesos son fijos

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 21


Aprendizaje competitivo

• Aprendizaje
– La célula ganadora representa al prototipo que es asignado al dato de
entrada
– Las conexiones entre la capa F1, la de la entrada, y la célula ganadora
son reforzadas
– Es por esto que se llama “el que gana se lo lleva todo” (winner takes all)

Célula ganadora
F2
j

F1

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 22


Aprendizaje competitivo

• Ecuaciones de aprendizaje

dWij =(-W +θ ) × g(b )


ij i j
dt
Donde:
g(bj)= 1 si j ganadora
0 en caso contrario

Ii
θi= ΣM I
j=1 j

Siendo Ii el i-ésimo elemento del ejemplo de entrada


Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 23
Aprendizaje competitivo

• Problemas
– No es capaz de producir una codificación estable ante entradas
arbitrarias
Si se perturba la red con valores aleatorios y se vuelven a introducir los
valores de entrada, puede producirse una respuesta incorrecta

– Tiene una capacidad limitada de codificación


En función de las dimensiones de la red

– Es necesario establecer a priori el número de categorías de la


clasificación

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 24


Mapas autoorganizados de Kohonen

• Arquitectura
– Permiten realizar clasificación no supervisada

Teuvo Kohonen (1934 - )


– RNA de dos capas
– Entrada
– Competición

http://www.cis.hut.fi/research/som-research/nnrc-programs.shtml
http://www.cis.hut.fi/~hynde/lvq/index.html
Applet: http://neuron.eng.wayne.edu/software.html

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 25


Mapas autoorganizados de Kohonen

• Ecuaciones
– Si hay n atributos la entrada será: e={e1,…,en}
– Si hay m células en la capa de competición, entonces los pesos serán:
cada célula de
competición
µ11 µ12 … µ1m
µ22 µ22 … µ2m
… … … ...
µn1 µn2 … µnm

Donde µij es el peso de la conexión entre la célula i-ésima de la capa de entrada i la j-ésima
de la capa de competición
Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 26
Mapas autoorganizados de Kohonen

• Ecuaciones de distancia
– Si se hace referencia a la célula j de la capa de competición se tendrá el
vector:

µj={µ1j, µ2j, …, µij,…, µnj}


– Este vector tiene la misma dimensión que la entrada e
– Se puede comparar: d(e,µj):
• distancia entre el prototipo de la célula de competición y la entrada

– El modelo de Kohonen calcula una salida en la c.c. (τj) a través de la


distancia τj=d(e,µj)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 27


Mapas autoorganizados de Kohonen

• Ecuaciones de distancia
– Se pueden elegir diversas distancias.
– Ej si producto escalar
n
d(x,y)= Σi=1xiyi
– En este caso, la salida de la capa de competición será la habitual
en los modelos supervisados (suma ponderada de las entradas por
los pesos de las conexiones)

n
τj = Σi=1eiµij
Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 28
Mapas autoorganizados de Kohonen

– La función más utilizada es la distancia euclídea


n
d(x,y)= (Σi=1(xi-yi)2)1/2
– Si se elige la distancia euclídea el modelo quedaría como sigue:

n
τj = (Σi=1(ei-µij)2)1/2

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 29


Mapas autoorganizados de Kohonen

• Funcionamiento
– Se recibe el vector de entrada

– Se propaga por las conexiones hasta llegar a la capa de competición

– Cada célula de la c.c. produce una salida al comparar la entrada con


sus pesos

– Se selecciona aquella que produzca una salida más pequeña (célula


ganadora)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 30


Mapas autoorganizados de Kohonen

• Representación geométrica
– Los ejemplos y los prototipos (células de la c.c.) se pueden representar
como puntos en un espacio n dimensional

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 31


Mapas autoorganizados de Kohonen

• Representación geométrica
– Las coordenadas de los prototipos son los pesos de las células de la
c.c.

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 32


Mapas autoorganizados de Kohonen

• Representación geométrica
– Se calcula la distancia de cada punto a los prototipos y se elige la
ganadora:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 33


Mapas autoorganizados de Kohonen

• Aprendizaje
tasa de aprendizaje

dµij
=α(t)τj (t) (ei(t) - µij(t)) Coordenada i de la
unidad j
dt
1 si j ganadora si no se tiene en
τj = 0 en caso contrario cuenta el vecindario

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 34


Mapas autoorganizados de Kohonen

• Tasa de Aprendizaje α(t)


– El valor de α es decrementado una cantidad constante pequeña β tras
casa ciclo completo de todos los patrones de aprendizaje:
α(t+1)= α(t)- β

Mediante la asignación del parámetro β se pueden determinar el


número total de ciclos de aprendizaje que sería:
α(t)
Iteraciones =
β
– El valor de α es decrementado siguiendo un esquema logarítmico
(grandes variaciones al principio y disminución más lenta después)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 35


Mapas autoorganizados de Kohonen

• Ecuaciones de vecindario
– Se define una distancia de vecindario entre células d(ci,cj)
(siendo la distancia de la célula ganadora a ella misma 1)
– Se introduce el esquema en el aprendizaje

α(t) (e (t) - µ (t)) Si ci ganadora


i ij
dµij d(ci,cj) y d(ci,cj)<θ
=
dt
0 en caso contrario

– Donde θ es el límite del vecindario

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 36


Mapas autoorganizados de Kohonen

• Representación geométrica del aprendizaje


– Se calcula la diferencia, por coordenadas entre el punto y la célula
ganadora
– La célula se acerca al punto
∆µ1 j = α (e1 − µ1 j ) = −α
µ
µ2j µ2j
µ
e e
e2 e2

1 2 1
µ1j µ1j
e1 e1
Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 37
Mapas autoorganizados de Kohonen

• Vecindario
– Vecindarios bidimensionales

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 38


Mapas autoorganizados de Kohonen

• Vecindario
– Vecindarios unidimensional y tridimensional

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 39


Mapas autoorganizados de Kohonen

• Método de Kohonen

1. Inicializar pesos.
Asignar a los pesos valores pequeños aleatorios.

2. Presentar una nueva entrada.


(El conjunto de aprendizaje se presenta cíclicamente hasta llegar a la
convergencia de la red. Actualizar α )

3. Propagar el patrón de entrada hasta la capa de competición.


Obtener los valores de salida de las células de dicha capa.

4. Seleccionar la célula ganadora C cuya salida sea menor.

5. Actualizar las conexiones entre la capa de entrada y la célula C, así


como las de su vecindad, según
Redes de Neuronas. Aprend. No Supervisado
su grado de vecindad.
J.M.Valls-2007 40

6 Si i d i t b l l l 2 t i
Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones uniformes


– Distribución uniforme, iteración 1:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 41


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones uniformes


– Distribución uniforme, iteración 10:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 42


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones uniformes


– Distribución uniforme, iteración 20:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 43


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones uniformes


– Distribución uniforme, iteración 50:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 44


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones toroidales


– Distribución toroidal, iteración 1:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 45


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones toroidales


– Distribución toroidal, iteración 10:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 46


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones toroidales


– Distribución toroidal, iteración 20:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 47


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones toroidales


– Distribución toroidal, iteración 50:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 48


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones biuniformes


– Distribución biuniforme, iteración 1:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 49


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones biuniformes


– Distribución biuniforme, iteración 15:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 50


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones biuniformes


– Distribución biuniforme, iteración 25:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 51


Mapas autoorganizados de Kohonen

• Ejemplo: distribuciones biuniformes


– Distribución biuniforme, iteración 50:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 52


Mapas autoorganizados de Kohonen

• Problema del viajante


– Vecindario unidimensional para el problema del viajante:

Vecindario para tres células Vecindario para ocho células

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 53


Mapas autoorganizados de Kohonen

• Ejemplo: problema del viajante


– Problema del viajante, iteración 1:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 54


Mapas autoorganizados de Kohonen

• Ejemplo: problema del viajante


– Problema del viajante, iteración 10:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 55


Mapas autoorganizados de Kohonen

• Ejemplo: problema del viajante


– Problema del viajante, iteración 20:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 56


Mapas autoorganizados de Kohonen

• Ejemplo: problema del viajante


– Problema del viajante, iteración 500:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 57


Mapas autoorganizados de Kohonen

• Ejemplo: problema del viajante


– Problema del viajante, 64 ciudades:

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 58


Mapas autoorganizados de Kohonen

• Ejemplo: mapa de pobreza mundial


– Generado a partir de 39 dimensiones

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 59


http://www.cis.hut.fi/research/som-research/worldmap.html
Mapas autoorganizados de Kohonen

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 60


Mapas autoorganizados de Kohonen

• Ejemplo: expresión de genes (7d)


– SOM

Redes de Neuronas. Aprend. No Supervisado http://geneura.ugr.es/~jmerelo/tutoriales/heuristics101/


J.M.Valls-2007 61
Mapas autoorganizados de Kohonen

• Ejemplo: expresión de genes (7d)


– Proyección de Sammon

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 62


http://geneura.ugr.es/~jmerelo/tutoriales/heuristics101/
Enlaces…

• SOM 3D

• http://rfhs8012.fh-regensburg.de/~saj39122/jfroehl/diplom/e-
sample.html

• SOM 2D
• http://neuron.eng.wayne.edu/software.html

• TSP

• http://www.cs.usyd.edu.au/~irena/ai01/nn/tsp.html

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 63


Teoría de la resonancia adaptativa

• Introducción
Stephen Grossberg (1957- )
– Familia de modelos propuestos por Grossberg
– Abordan el dilema estabilidad-plasticidad
– Reacción plástica ante nuevos datos
– Reacción estable ante datos irrelevantes
– Se busca que el sistema conmute entre los estados
– Sistema de detección de la relevancia
– Aprendizaje no supervisado

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 64


Teoría de la resonancia adaptativa

• Arquitectura ART1
– Memoria a corto plazo STM
– Capacidad de recordar algo ocurrido en un intervalo reciente de
tiempo
– Independiente de número de veces que haya ocurrido
– Identificado en RNA con el valor de activación
– Memoria a largo plazo LTM
– Capacidad de recordar algo ocurrido en un intervalo distante de
tiempo
– Requieren estímulo repetido en el tiempo
– Identificado en RNA con los pesos de las conexiones

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 65


Teoría de la resonancia adaptativa

• Arquitectura ART1
– El modelo consta de un dos subsistemas y un término de control
– Subsistema atencional
– Fundamentalmente una RNA con aprendizaje competitivo
– Subsistema orientador
– Distingue entre entradas relevantes e irrelevantes
– Término de control
– Controla módulos que van a actuar
– Gobierna señales entre módulos

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 66


Teoría de la resonancia adaptativa

• Arquitectura ART1
– Arquitectura básica: capas
– Capa F1 (entrada)
– Propaga la señal de entrada a F2
– Misma dimensión que la entrada
– Capa F2 (competitiva)
– Tantas neuronas como prototipos (inicialmente vacía)
– Conexiones excitatorias con ellas mismas
– Conexiones inhibitorias de fuerza fija e igual con el resto

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 67


Teoría de la resonancia adaptativa

• Arquitectura ART1
– Arquitectura básica: interconexiones
– Bottom-up
– Las habituales
– Top-down
– Permiten el aprendizaje
– Facilitan la comparación de las predicciones con los datos de
entrada

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 68


Teoría de la resonancia adaptativa

• Arquitectura ART1
– Relación entre subsistemas
– Subsistema atencional
– Aprendizaje competitivo
– Incapaz de mantener simultáneamente representaciones
estables de categorías familiares y crear nuevas categorías
– El subistema orientador
– Inhibe al atencional ante estímulos no familiares

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 69


Teoría de la resonancia adaptativa

• Arquitectura ART1

Subsistema Atencional Subsistema


Orientador

STM F2
Gain control Onda de
Reset
LTM LTM
STM

STM F1
Gain control

Redes de Neuronas. Aprend. No Supervisado


Estímulo
J.M.Valls-2007 70
Teoría de la resonancia adaptativa

• Funcionamiento
– Conexiones bottom-up: almacenan los códigos de predicción
– Conexiones top-down: almacenan los valores de los prototipos
– El rendimiento del sistema es muy sensible al factor de vigilancia (ρ)

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 71


Teoría de la resonancia adaptativa

• Características de los modelos ART


– Unidades computacionales autoescalables
– Determina el número de forma automática
– Considera el contexto
– Sensibilidad a definiciones de señal y ruido dependientes del
aprendizaje

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 72


Teoría de la resonancia adaptativa

– Acceso a memoria autoajustable


– Más prototipos no implica más tiempo de categorización
– Búsqueda paralela
– Búsqueda ordenada
– Acceso directo a los códigos de reconocimiento
– Alta velocidad de reconocimiento
– Independiente de la complejidad del código aprendido
– A medida que el aprendizaje es más autoconsistente y
predictivamente exitoso, es más rápido

Redes de Neuronas. Aprend. No Supervisado J.M.Valls-2007 73

También podría gustarte