Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Plasticidad del aprendizaje: permite a una red neuronal poder aprender nuevos
patrones.
Estabilidad del aprendizaje: permite a una red neuronal poder retener los
patrones aprendidos.
Conseguir que un modelo de RNA sea capaz de resolver uno solo de estos problemas es
sencillo, el reto está en conseguir un modelo que sea capaz de dar respuesta a
ambos. Las redes más conocidas, tales como el Perceptrón multicapa o el Adaline,
son capaces de aprender como han de responder ante unos patrones de entrada pero,
una vez entrenados, el intentar que aprendan nuevos patrones puede suponer el
"olvido" de lo aprendido previamente.
Características
Arquitectura
Capa de entrada (F1): datos de entrada pasan a ser los valores de sus neuronas,
en ella también se hace la comparación de similitud.
Capa de salida (F2): es una capa de neuronas competitivas, o sea todas compiten
para ser la ganadora, pero solo una puede ser la ganadora y esta inhibe a las
demás.
Parámetro de vigilancia (p): Dice cuan semejante debe ser la entrada con la
categoría seleccionada. Este parámetro está dado por 0 < x > 1, si "x" es muy
cercano a 0, muchas entradas serán categorizadas en una misma categoría, mientras
si "x" en muy cercano a 1 se crearán muchas categorías (memorización)
Sistema de orientación: Sirve para orientar la red, ya que las neuronas de
ambas capas están totalmente interconectadas y hay una afluencia hacia adelante y
hacia atrás.
Sistema de reinicio: Sirve para inhibir la neurona ganadora cuando dicha no
cumple con la vigilancia, en el proceso de comparación de similitud.
En algunos casos se puede agregar una capa más, para hacer preprocesamiento de los
datos conocido como normalización de entradas, el cual puede consistir en agregarle
a la entrada su complemento o dividir cada una de las entradas por su norma.
Concepto
Cuando a la red se le presenta un patrón de entrada este se hace resonar con los
prototipos de las categorías conocidas por la red, si el patrón entra en resonancia
con alguna clase entonces es asociado a esta y el centro de cluster es desplazado
ligeramente para adaptarse mejor al nuevo patrón que le ha sido asignado. En caso
contrario, si el patrón no entra en resonancia con ninguna clase, pueden suceder
dos cosas: si la red posee una capa de salida estática entrará en saturación pues
no puede crear una nueva clase para el patrón presentado pero tampoco puede
asignarlo a una clase existente, si la red posee una capa de salida dinámica se
creará una nueva clase para dicho patrón, esto no afectará a las clases ya
existentes.
Funcionamiento general
En las redes ART existen dos tipos de pesos, los llamados W, que son pesos
feedforward (alimentación hacia adelante) entre la capa de entrada y la capa de
salida, y los llamados T, que son pesos feedback (alimentación hacia atrás ) entre
la capa de salida y la capa de entrada.
Los pesos feedforward (W) son iguales que los pesos feedback (T), solo que estos
están normalizados:
y i = { s i j = J ⟶ 1 s i j ≠ J ⟶ 0 {\displaystyle y_{i}=\left\{{\begin{array}
{lccl}si&j={J}&\longrightarrow &1\\si&j{\neq }{J}&\longrightarrow &0\end{array}}\
right.} {\displaystyle y_{i}=\left\{{\begin{array}{lccl}si&j={J}&\longrightarrow
&1\\si&j{\neq }{J}&\longrightarrow &0\end{array}}\right.}
Fase de comparación
De lo contrario, se envía una señal reinicio, para que inhiba la neurona ganadora y
proceda de nuevo la selección de una ganadora, excluyendo la neurona inhibida.
Fase de búsqueda
Hay dos métodos básicos de entrenar una red neural ART: lento y rápido. En el
método lento el grado de entrenamiento de los pesos de la neurona de reconocimiento
hacia el vector de entrada se calcula a valores continuos con ecuaciones
diferenciales y por lo tanto depende del tiempo durante el cual el vector de
entrada esté presente. Con el método rápido, se utilizan ecuaciones algebraicas
para calcular el grado de ajustes de peso, usándose valores binarios. Si bien el
aprendizaje rápido es eficaz y eficiente para ciertas tareas, el método de
aprendizaje lento es biológicamente posible y puede usarse con redes en tiempo
continuo (es decir, cuando el vector de entrada varía de forma continua).
Tipos de ART
ART 1
ART 123 Es el tipo más sencillo de red ART, sólo acepta entradas binarias.
Trabaja con un operador duro, el cual hace posible las salidas binarias.
ARTMAP,1 también conocido como ART Predictivo, combina de unidades de ART-1 o ART-2
ligeramente modificadas formando una estructura de aprendizaje supervisado, donde
la primera unidad tiene los datos de entrada y la segunda unidad toma la salida de
datos correctos, se utiliza para posibilitar el mínimo ajuste del parámetro de
vigilancia en la primera unidad con el fin de obtener una clasificación correcta.
Se presentan dos representaciones, una para la red ART a y otra para la red ART b,
en cada red, el vector de entrada, se multiplica por los pesos Ascendentes (hacia
delante) de la capa F1 → F2, con el resultado se busca cual neurona de la capa F2
tiene el valor más grande (ganador se lleva todo), cuando se elige una neurona
ganadora esta se multiplica por los pesos descendentes (hacia atrás ) F2 → F1,
generando un vector prototipo, este vector prototipo se compara mediante un AND
lógico con el vector de entrada, del vector resultante se suman todos los valores
que tenga un 1 y esto se divide entre el tamaño de la capa de entrada, con esto se
calcula la similitud entre el prototipo y la entrada. Si la similitud es menor la
vigilancia entonces se descarta el prototipo, se marca el vector de actividad de la
capa F2 de forma que no se contemple la neurona en las próximas elecciones de la
neurona ganadora. Esto se repite hasta encontrar un patrón que cumpla con el
parámetro de vigilancia. Si se comprueban todas las neuronas y no se encuentra una
que cumpla con el parámetro de vigilancia, el vector de entrada se guarda en los
pesos descendentes de una neurona libre de prototipos, y se devuelve como prototipo
seleccionado. Si un prototipo cumple con el valor de vigilancia se activa la
variable del campo de mapeo correspondiente a la red en cuestión. En el campo de
mapeo se comprueba hay alguna neurona del campo de mapeo activa, si hay más de una
quiere decir que no se cumple la relación entre las dos redes, por lo tanto se debe
ajustar el parámetro de vigilancia, para que ese prototipo no cumpla con la
vigilancia, se reinicia la red ART a y se vuelve a hacer la búsqueda de prototipos
con el nuevo valor de vigilancia. Si se activa solo una neurona entonces quiere
decir que el prototipo es adecuado y por lo tanto se debe hacer ajuste de pesos en
la red ART a. y se reinician las variables de activación del campo de mapeo con el
fin de que la red quede apta para seguir con el entrenamiento.
ARTMAP difuso8 como ARTMAP pero utilizando unidades ART difuso, dando como
consecuencia un aumento de la eficacia.
Referencias
Carpenter, G.A., Grossberg, S., & Reynolds, J.H. (1991), ARTMAP: Supervised real-
time learning and classification of nonstationary data by a self-organizing neural
network Archivado el 19 de mayo de 2006 en Wayback Machine., Neural Networks
(Publication), 4, 565-588
Carpenter, G.A. & Grossberg, S. (2003), Adaptive Resonance Theory Archivado el 19
de mayo de 2006 en Wayback Machine., In Michael A. Arbib (Ed.), The Handbook of
Brain Theory and Neural Networks, Second Edition (pp. 87-90). Cambridge, MA: MIT
Press
Grossberg, S. (1987), Competitive learning: From interactive activation to adaptive
resonance Archivado el 7 de septiembre de 2006 en Wayback Machine., Cognitive
Science (Publication), 11, 23-63
Carpenter, G.A. & Grossberg, S. (1987), ART 2: Self-organization of stable category
recognition codes for analog input patterns Archivado el 4 de septiembre de 2006 en
Wayback Machine., Applied Optics, 26(23), 4919-4930
Carpenter, G.A., Grossberg, S., & Rosen, D.B. (1991a), ART 2-A: An adaptive
resonance algorithm for rapid category learning and recognition Archivado el 19 de
mayo de 2006 en Wayback Machine., Neural Networks (Publication), 4, 493-504
Carpenter, G.A. & Grossberg, S. (1990), ART 3: Hierarchical search using chemical
transmitters in self-organizing pattern recognition architectures Archivado el 6 de
septiembre de 2006 en Wayback Machine., Neural Networks (Publication), 3, 129-152
Carpenter, G.A., Grossberg, S., & Rosen, D.B. (1991b), Fuzzy ART: Fast stable
learning and categorization of analog patterns by an adaptive resonance system
Archivado el 19 de mayo de 2006 en Wayback Machine., Neural Networks (Publication),
4, 759-771
Carpenter, G.A., Grossberg, S., Markuzon, N., Reynolds, J.H., & Rosen, D.B.
(1992), Fuzzy ARTMAP: A neural network architecture for incremental supervised
learning of analog multidimensional maps Archivado el 19 de mayo de 2006 en Wayback
Machine., IEEE Transactions on Neural Networks, 3, 698-713
Bibliografía
Wasserman, Philip D. (1989). Neural computing: theory and practice (en inglés).
New York: Van Nostrand Reinhold. ISBN 0-442-20743-3.