La estructura de la red neuronal depende de cómo se
conectan las neuronas y de cómo están ligadas la entrada y la salida. La red Neuronal más común es aquella en la que todos los nodos están agrupados en diferentes capas y la información fluye en una sola dirección. En este caso, no se comparte información entre los nodos en una capa dada (propagación hacia delante o “feedforward”) y la información fluye de izquierda a derecha (líneas negras).
TIPOS DE CONEXIONES EN UNA RED NEURONAL.
Tomado y modificado de Aminzadeh y de Groot (2006)
Perceptrones multi-capas (Multi-layer perceptrons o MLP).
Es la red neuronal más general y la más ampliamente utilizada.
Las neuronas o perceptrones están organizados en capas. En el caso más simple se tienen tres capas: una capa de entrada, una escondida y una capa de salida. Pueden incluirse más capas escondidas. No existen conexiones entre neuronas que pertenecen a la misma capa. El flujo de datos es “feed-forward” Se entrenan en un subconjunto representativo de los datos. Constituye una forma de aprendizaje supervisado.
Tomado y modificado de Aminzadeh y de Groot (2006)
Así, ejemplos conocidos de patrones de entrada y sus correspondientes patrones de salida, se ofrecen repetidamente a la red durante el entrenamiento. Se usa el algoritmo de aprendizaje de propagación hacia a tras o “back- propagation”. Este algoritmo intenta minimizar el error entre la salida predicha por la red y la salida conocida, ajustando los pesos entre las conexiones.
Las MLPs tienen dos propiedades de interés: abstracción y
generalización: La abstracción es la habilidad para extraer las características relevantes de los patrones de entrada y descartar los irrelevantes. La generalización permite a la red, una vez entrenada, reconocer patrones de entrada que no fueron parte del conjunto de entrenamiento. Tomado y modificado de Aminzadeh y de Groot (2006)