Está en la página 1de 4

REDES NEURONALES SUPERVISIDAS:

TIPOS DE ARQUITECTURA

La estructura de la red neuronal depende de cómo se


conectan las neuronas y de cómo están ligadas la
entrada y la salida.
La red Neuronal más común es aquella en la que todos los nodos están
agrupados en diferentes capas y la información fluye en una sola dirección.
En este caso, no se comparte información entre los nodos en una capa
dada (propagación hacia delante o “feedforward”) y la información fluye de
izquierda a derecha (líneas negras).

TIPOS DE CONEXIONES EN
UNA RED NEURONAL.

Tomado y modificado de Aminzadeh y de Groot (2006)


Perceptrones multi-capas (Multi-layer perceptrons o MLP).

Es la red neuronal más general y la más ampliamente utilizada.


Las neuronas o perceptrones están organizados en capas.
En el caso más simple se tienen tres capas: una capa de entrada, una
escondida y una capa de salida.
Pueden incluirse más capas escondidas.
No existen conexiones entre neuronas que pertenecen a la misma capa.
El flujo de datos es “feed-forward”
Se entrenan en un subconjunto representativo de los datos.
Constituye una forma de aprendizaje supervisado.

Tomado y modificado de Aminzadeh y de Groot (2006)


Así, ejemplos conocidos de patrones de entrada y sus correspondientes
patrones de salida, se ofrecen repetidamente a la red durante el
entrenamiento.
Se usa el algoritmo de aprendizaje de propagación hacia a tras o “back-
propagation”. Este algoritmo intenta minimizar el error entre la salida
predicha por la red y la salida conocida, ajustando los pesos entre las
conexiones.

Las MLPs tienen dos propiedades de interés: abstracción y


generalización:
La abstracción es la habilidad para extraer las características relevantes
de los patrones de entrada y descartar los irrelevantes.
La generalización permite a la red, una vez entrenada, reconocer
patrones de entrada que no fueron parte del conjunto de entrenamiento.
Tomado y modificado de Aminzadeh y de Groot (2006)

También podría gustarte