Está en la página 1de 26

El

inters inicial en estos sistemas de redes neuronales artificiales proviene por la creencia de que nos permitiran mejorar el conocimiento del cerebro, el conocimiento y la percepcin humana; con la esperanza de que se pudieran crear sistemas pensantes que tuvieran mejores resultados en tareas como clasificacin, problemas de decisin, pronsticos y sistemas de control adaptables.

1936

- Alan Turing. Warren McCulloch, neurofisilogo, y Walter Pitts, matemtico. 1949 - Donald Hebb, sus trabajos formaron las bases de la Teora de las Redes Neuronales. 1950 - Karl Lashley. La informacin no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de l. 1957 - Frank Rosenblatt. Perceptron es la red neuronal ms antigua.

1960

- Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline. 1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte abrupta. 1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de propagacin hacia atrs. 1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA).

Las

redes neuronales artificiales estn formadas por una gran cantidad de neuronas, estas no suelen denominarse neuronas artificiales sino nodos o unidades de salida.

Redes monocapa: son aquellas compuestas por una nica capa de neuronas.

Redes multicapa (layered networks): son aquellas cuyas neuronas se organizan en varias capas.

Atendiendo

al flujo de datos en la red neuronal, podemos hablar de:


Redes unidireccionales (feedforward): la informacin circula en un nico sentido desde las neuronas de entrada a las de salida. Redes recurrentes o realimentadas (feedback): la informacin puede circular entre las capas en cualquier sentido.

La

distribucin de neuronas dentro de la red se realiza formando niveles o capas, con un nmero determinado de dichas neuronas en cada una de ellas. A partir de su situacin dentro de la red, se pueden distinguir tres tipos de capas:

Capa

de entrada: es la capa que recibe directamente la informacin proveniente de las fuentes externas de la red. Capa ocultas: son internas a la red y no tienen contacto directo con el entorno exterior. Las neuronas de las capas ocultas pueden estar interconectadas de distintas maneras, lo que determina, junto con su nmero, las distintas topologas de redes neuronales. Capa de salidas: transfieren informacin de la red hacia el exterior.

Funcin

de entrada (input function)

La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el nombre de entrada global. Esto se logra a travs de la funcin de entrada, la cual se calcula a partir del vector entrada.

Algunas

de las funciones de entrada ms comnmente utilizadas y conocidas son:


Sumatoria de las entradas pesadas

Productoria de las entradas pesadas

Mximo de las entradas pesadas

Una

neurona biolgica puede estar activa (excitada) o inactiva (no excitada); es decir, que tiene un estado de activacin. La funcin activacin calcula el estado de actividad de una neurona; transformando la entrada global (menos el umbral) en un valor (estado) de activacin, cuyo rango normalmente va de (0 a 1) o de (1 a 1). Esto es as, porque una neurona puede estar totalmente inactiva (0 o 1) o activa (1).

El

valor resultante de esta funcin es la salida de la neurona (outi); por ende, la funcin de salida determina que valor se transfiere a las neuronas vinculadas. Si la funcin de activacin est por debajo de un umbral determinado, ninguna salida se pasa a la neurona subsiguiente.

Una

red neuronal debe aprender a calcular la salida correcta para cada constelacin (arreglo o vector) de entrada en el conjunto de ejemplos. Este proceso de aprendizaje se denomina: proceso de entrenamiento o acondicionamiento. Si la topologa de la red y las diferentes funciones de cada neurona (entrada, activacin y salida) no pueden cambiar durante el aprendizaje, mientras que los pesos sobre cada una de las conexiones si pueden hacerlo; el aprendizaje de una red neuronal significa: adaptacin de los pesos.

En

los sistemas biolgicos existe una continua destruccin y creacin de conexiones entre las neuronas. En los modelos de redes neuronales artificiales, la creacin de una nueva conexin implica que el peso de la misma pasa a tener un valor distinto de cero. De la misma manera, una conexin se destruye cuando su peso pasa a ser cero.

Un

aspecto importante respecto al aprendizaje de las redes neuronales es el conocer cmo se modifican los valores de los pesos, es decir, cules son los criterios que se siguen para cambiar el valor asignado a las conexiones cuando se pretende que la red aprenda una nueva informacin. Hay dos mtodos de aprendizaje importantes que pueden distinguirse:

Aprendizaje supervisado. Aprendizaje no supervisado.

Aprendizaje

por correccin de error Aprendizaje por refuerzo Aprendizaje estocstico

No

requieren influencia externa para ajustar los pesos de las conexiones entre neuronas. La red no recibe ninguna informacin por parte del entorno que le indique si la salida generada es o no correcta, as que existen varias posibilidades en cuanto a la interpretacin de la salida de estas redes. Aprendizaje competitivo y cooperativo: Las neuronas compiten unas con otras con el fin de llevar a cabo una tarea dada.

Se

detiene cuando el clculo del error cuadrado sobre todos los ejemplos de entrenamiento ha alcanzado un mnimo. El error observado est por debajo de un determinado umbral.

Cuando

un cierto nmero de ciclos y/o pasos de entrenamiento hayan sido completamente corridos. Luego de alcanzarse la condicin de detencin, los pesos no se volvern a cambiar. Entonces podemos decir que la transformacin de los datos de entrada a los de salida est resuelta.

Se

debe comprobar si la red neuronal puede resolver nuevos problemas, del tipo general, para los que ha sido entrenada. Con el propsito de validar la red neuronal se requiere de otro conjunto de datos, denominado conjunto de validacin o testeo.

Una

red neuronal, es un sistema de procesadores paralelos conectados entre s en forma de grafo dirigido. Esquemticamente cada elemento de procesamiento de la red se representa como un nodo. Estas conexiones establecen una estructura jerrquica que tratando de emular la fisiologa del cerebro busca nuevos modelos de procesamiento para solucionar problemas concretos del mundo real.

Aprendizaje

Adaptativo. Capacidad de aprender a realizar tareas basadas en un entrenamiento o en una experiencia inicial. Auto-organizacin. Una red neuronal puede crear su propia organizacin o representacin de la informacin que recibe mediante una etapa de aprendizaje. Tolerancia a fallos. La destruccin parcial de una red conduce a una degradacin de su estructura; sin embargo, algunas capacidades de la red se pueden retener, incluso sufriendo un gran dao.

Operacin

en tiempo real. Los cmputos neuronales pueden ser realizados en paralelo; para esto se disean y fabrican mquinas con hardware especial para obtener esta capacidad. Fcil insercin dentro de la tecnologa existente. Se pueden obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilitar la integracin modular en los sistemas existentes.