Está en la página 1de 3

Arquitectura de la ART2

A diferencia de la ART 1, la red ART 2 está diseñada para trabajar con entradas análogas positivas.
Hay una amplia similitud con la arquitectura de la ART1: hay una capa F 1 que envía su salida a una
capa F2 y a una capa Reset. La capa F 2 es del tipo “el ganador toma todo” y la capa Reset tiene el
mismo rol que en la ART1. De cualquier manera la capa F1 está compuesta de 6 subcapas
etiquetadas w, s, u, v, p y q. (Figura 1). Cada una de las subcapas tiene el mismo número de
neuronas como el número de componentes en el vector de entrada y tienen conexiones uno a uno
(incluyendo la entrada para w).

Figura 1. Arquitectura de la red ART2. Las flechas delgadas representan las conexiones de neurona a neurona entre
las (sub) capas; las flechas gruesas representan a las conexiones entre capas completas (de las neuronas a todas las
neuronas). Las “G” son las neuronas de control de ganancia que envían una señal inhibitoria; la “R” es la neurona de
reset.

1. El vector de entrada se envía a la subcapa w.


2. La salida de la subcapa w se envía a la subcapa s
3. La salida de la subcapa s se envía a la subcapa v
4. La salida de la subcapa v se envía a la subcapa u.
5. La salida de la subcapa u se envía a la subcapa p, a la capa reset r y vuelve a la subcapa w.
6. La salida de la subcapa p se envía a la subcapa q y a la capa reset. La salida de la subcapa p
también representa la salida de la capa F1 y se envía a la capa F2.
Algoritmo de la ART2

Inicialización

Las dimensiones de las capas w, s, u, v, p, q y r son igual a N (dimensión del vector de entrada). La
norma usada es la Euclidiana: ||x||=√ xT x .

1. Seleccionar las constantes para el aprendizaje de la red de tal manera que:

a , b> 0 , ρ ∈ ( 0 ,1 ) ,

cd
d ∈ ( 0 , 1 ) , c ∈ ( 0 ,1 ) , ≤1 ,
1−d

y K, es el tamaño de F2 (similar al algoritmo de la ART1).

2. Elegir una función de cambio de mejora h.


3. Inicializar los pesos:

1
W (1)=~
0 y W (2) de manera que w2 ki ≤
√ K (1−d)
W (2) será inicializada con valores aleatorios de modo que la condición de arriba se cumpla.

Ejecución y aprendizaje de la red

1. Tomar un vector de entrada x.


2. Iterar en los siguientes pasos hasta la estabilización (esto es, no hay más cambios de
salida):

w=¿

→¿

→¿

donde k es el F2 ganador.

El F2 ganador se encuentra calculando primero la activación: a (2)=W (2) p ; la k ganadora es


encontrada de: a (2) k =max
l
a(2 )l (F2 es del tipo de cambio de mejora).

3. Calcular las salida de la capa r:


u+cp
r=
||u||+ c∨| p|∨¿¿
Si hay un reset, esto es || r|| < ρ entonces el F2 ganador se inactiva para el vector de
entrada actual y regresa al paso 2, esto es comenzar de nuevo con las misma entrada x.

Si no hay reset entonces la resonancia fue encontrada y continua al siguiente paso.

4. Si el aprendizaje permite la actualización de los pesos:

u
W ( 1)(: ,k) =W T(2 ) (K ,:)=
1−d

5. La información regresada por la red es la clasificación del vector de entrada dado por la
neurona F2 ganadora en la codificación uno de k.

También podría gustarte