Está en la página 1de 9

Neurona de múltiples entradas

n = Wp + b
n = w11p1 + w12p2 + ... + w1RpR + b

W para el caso de una neurona tiene una sola fila.

La salida de la neurona se escribe ahora como: a = f(Wp+b).

El número de entradas a la red depende de las especificaciones del problema. Por ejemplo, si se desea predecir las
condiciones de vuelo de un misil y las entradas sean la temperatura del aire, la velocidad del viento y la humedad, la
red necesitará tres entradas.
Arquitectura de las ANNs
Una neurona, aún, con muchas entradas no es suficiente para resolver muchos problemas. Se necesitan varias neuronas
operando en paralelo, lo que se llama una capa.

Capa de Neuronas
Una ANN de una sola capa de S neuronas incluye una matriz de pesos, los sumadores, el vector de sesgo, las funciones de
transferencia y el vector de salida a.

as
Capa de Neuronas

Cada elemento del vector de entrada P, (Rx1), se conecta a cada neurona a través de un peso w.
Cada neurona tiene un sesgo bi, un sumador, una función de transferencia f y una salida ai.

Las salidas de las S neuronas constituyen el vector a.


El número de entradas de una capa es, en general, diferente al número de neuronas, (R#S).

No todas las neuronas deben tener necesariamente la misma función de transferencia.

Esas neuronas tendrían las mismas entradas pero diferentes formas de salidas.
Múltiples Capas de Neuronas
Red de Múltiples Capas de Neuronas
Cada capa tiene su propia matriz de pesos W, su propio vector de sesgo b, un vector de entradas de red n, sus
funciones de transferencia y un vector de salidas a.

Hay R entradas, M neuronas en la primera capa, S neuronas en la segunda capa y K neuronas en la tercera.

Las capas pueden tener diferentes números de neuronas.

Las salidas de la capa uno son las entradas para la capa dos, las salidas de la capa dos son las entradas para la tres. En
consecuencia, la capa 2 se puede pensar como una red de una capa con R= M entradas, y S neuronas y una matriz de
pesos con dimensiones SxM.

A la capa cuya salida es la salida de la red, se le llama capa de salida. Las capas internas se llaman capas ocultas.

Las redes multicapas son más poderosas que las redes de una capa.

Por ejemplo, una red de dos capas, con la primera capa sigmoidal y la segunda lineal, se puede entrenar para
aproximar gran cantidad de funciones, con buenos resultados. Las redes de una capa no lo pueden hacer.
Escogencia de Arquitecturas
El número de entradas y salidas de una red están determinados por especificaciones del problema.

Si hay cuatro variables externas que se usan como entradas, hay cuatro entradas a la red.
Si hay siete salidas de la red, es deseable siete neuronas en la capa de salida.

Las características deseadas de las señales de salida de la red, ayudan a seleccionar la función de
transferencia para la capa de salida. Si la salida es del tipo –1 ó 1, deberíamos utilizar la función de
transferencia escalón simétrico.

La arquitectura de una red de una capa está determinada completamente por las especificaciones del
problema, incluyendo el número específico de entradas y salidas, y las características de la señal de
salida.

Cuando hay más de dos capas, el problema no da suficiente información sobre el número de neuronas
requerido en las capas ocultas.

Hay pocos problemas para los cuales se puede predecir el número de neuronas óptimo en una capa
oculta.Todo un campo de investigación.

Para resolver muchos problemas el número de capas usado es de dos o tres. Lo contrario es raro.
Información sobre el sesgo
Se pueden escoger las neuronas con o sin sesgo. El sesgo es una variable extra.
Las redes con sesgo son más poderosas que las que no lo tienen.

Por ejemplo, una neurona sin sesgo siempre tendrá una entrada de red n cero, cuando las entradas P
son cero. En algunos casos esto es no deseable y se puede evitar por el uso del sesgo.

Bloque de retardo

La salida retardada a(t) se calcula de la entrada u(t): a(t) = u(t-1).

La salida es la entrada retardada por un paso de tiempo (el tiempo se cambia en pasos discretos y toma
solo valores enteros).

La ecuación requiere que la salida se inicialice en el instante t = 0.


Redes Recurrentes
Una red recurrente es una red con retroalimentación, donde algunas de sus salidas están
conectadas a sus entradas.
Ejemplo de red recurrente de una capa de S neuronas en tiempo discreto

a(0)=P
a(t+1) = satlins(Wa(t)+b)

En esta red el vector P proporciona las condiciones iniciales (a(0)=P).


Las salidas futuras de la red se calculan de las salidas pasadas:
a(1) = satlins(Wa(0)+b)
a(2) = satlins(Wa(1)+b)
Las redes recurrentes son más poderosas que las redes de conexión hacia delante y pueden exhibir
comportamiento temporal.
Referencias
Cualquier libro, página web, blog, paper o pdf que trate las Redes Neuronales Artificiales.

Martin Hagan, Howard Demuth y Mark Beale. Neural Network Design. PWS Publishing
Company, 1996.

José Hilera y Victor Martínez. Redes Neuronales Artificiales, Fundamentos, Modelos y


Aplicaciones. Alfaomega RA-MA, 2000
.
Simon Haykin. Neural Networks. A Comprehensive Foundation. MacMillan Publishing.

Robert Hecht-Nielsen. Neuroncomputing. Addison Wesley.

Bart Kosko. Neural Networks and Fuzzy Systems. Prenticell Hall.

También podría gustarte