Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(continuación)
REDES HAMMING
La red Hamming fue diseñada explícitamente para resolver problemas de reconocimiento de patrones binarios, (en el
ejemplo, 1 y –1).
Este tipo de red contiene capas de conexión hacia adelante y recurrentes (de retroalimentación).
Hay una neurona en la capa recurrente para cada patrón prototipo. Cuando la capa recurrente converge
habrá una sóla neurona con salida distinta de cero. Esta neurona indica el patrón prototipo que está más
cercano al vector de entrada.
Las salidas de la capa de conexión hacia adelante son el producto interno de cada vector prototipo con el
vector de entrada, más R.
El producto interno será mayor cuando los vectores apuntan a la misma dirección y más pequeño cuando apuntan en
dirección opuesta
Aplicación de las ANNs
Al agregar R al producto interno se garantiza que las salidas de la capa sean no negativas (se requiere para la operación
adecuada de la capa recurrente).
La red se llama Hamming debido a que la neurona con la mayor salida, en esta capa, corresponderá al patrón prototipo
más cercano en distancia Hamming al patrón de entrada.
La distancia Hamming entre dos vectores es igual al número de elementos que son diferentes (definida para vectores
binarios).
Capa recurrente
Esta capa es conocida como una capa “competitiva”.
Las neuronas de esta capa se inicializan con las salidas de la capa de conexión hacia adelante, las cuales indican la
correlación entre los patrones prototipos y el vector de entrada.
Las neuronas compiten para determinar una ganadora. Después de la competencia, solo una neurona tiene salida
distinta de cero.
La ganadora indica cuál categoría fue presentada como entrada (categoría de manzanas o naranjas).
La función de transferencia poslin es lineal para valores positivos y cero para los negativos.
Aplicación de las ANNs
W2 es de la forma:
Cada elemento se reduce en la misma fracción del otro. El mayor elemento será reducido menos y el menor
será reducido más, por lo tanto la diferencia entre el grande y el pequeño se incrementa.
Aplicación de las ANNs
El efecto de la capa recurrente es poner cero en las salidas de sus neuronas, a excepción de aquella con el valor inicial
más grande (la cual corresponde al patrón prototipo que está más cerca en distancia Hamming a la entrada).
Las iteraciones sucesivas producen las mismas salidas, es decir la red converge.
El patrón prototipo número 1 es seleccionado como la fruta correcta, la naranja, dado que la neurona número 1 tiene
la única salida no cero.
Aplicación de las ANNs
Esta es la selección correcta, dado que la distancia Hamming del prototipo naranja al patrón de entrada es 1, y la
distancia Hamming del prototipo manzana al patrón de entrada es 2.
Hay redes cuya operación está basada en el principio de la red Hamming, es decir, realizan una operación de
producto interno seguido por una capa dinámica competitiva. Esas son las redes auto-organizantes, las cuales
aprenden a ajustar sus vectores prototipos a partir de las entradas que le son presentadas.
Aplicación de las ANNs
(continuación)
REDES HOPFIELD
Esta es una red recurrente similar en algunos aspectos a la capa recurrente de la red Hamming, pero que realiza las
operaciones de las dos capas de esa red.
Si la red opera correctamente, la salida es uno de los vectores prototipos (en la red Hamming la neurona con
salida no cero indica el patrón prototipo escogido).
La función de transferencia es lineal en el rango [-1, 1] y se satura en 1 para entradas > 1 y en –1 para entradas
<-1.
Sin importar el patrón de entrada, queremos que el primer elemento del patrón de salida converja a 1, el tercer
elemento converja a –1, y el segundo elemento sea 1 ó –1, lo que esté más cercano al segundo elemento del
vector de entrada.
Independientemente de los valores iniciales, ai(0), el primer elemento se incrementará hasta saturarse en 1, y el
tercer elemento se decrementará hasta saturarse en –1.
El segundo elemento se multiplica por un número mayor que 1. Por lo tanto si es inicialmente negativo,
eventualmente se saturará a –1, y si es inicialmente positivo se saturará a 1.
Trabajando con la naranja ovalada para revisar la capacidad
de la red Hopfield
Las salidas para las tres primeras iteraciones:
La red converge al patrón naranja como lo hicieron las redes perceptrónica y la Hamming.
Resumen
La red perceptrónica tiene una única salida, que toma valores –1 (naranja) o 1 (manzana).
En la red Hamming, la neurona cuya salida es distinta de cero indica el patrón prototipo más cercano al vector de
entrada. Si la primera neurona tiene salida distinta de cero, se tiene una naranja, y si la segunda neurona tiene
salida distinta de cero, se tiene una manzana.
El perceptrón es un ejemplo de las redes de conexión hacia adelante. En esas redes la salida se calcula directamente de la
entrada, es decir, no hay realimentación.
Las redes de conexión hacia adelante se utilizan para reconocimiento de patrones y para aproximación de funciones.
Las redes competitivas representadas por las Hamming tienen dos propiedades: Calculan una medida de distancia entre
los patrones prototipos almacenados y el patrón de entrada. Luego realizan una competencia para determinar cuál
neurona representa el prototipo más cercano a la entrada.
Las redes recurrentes como la de Hopfield se han usado como memorias asociativas, en las cuales los prototipos
almacenados se recuperan por asociación con los datos de entrada.
Referencias
Cualquier libro, página web, blog, paper o pdf que trate las Redes Neuronales Artificiales.
Martin Hagan, Howard Demuth y Mark Beale. Neural Network Design. PWS Publishing
Company, 1996.