Está en la página 1de 6

Qu son las redes neuronales?

Las redes neuronales son sistemas ideados como abstracciones de las estructuras neurobiolgicas (cerebros) encontradas en la naturaleza y tienen la caracterstica de ser sistemas desordenados capaces de guardar informacin. La forma en que desarrollan su trabajo es esencialmente distinta de la utilizada por las computadoras convencionales. Los procesadores microscpicos del cerebro (neuronas) operan en paralelo y presentan cualitativamente ms ruido que los elementos que forman a las computadoras. No ejecutan un programa fijo con base en un conjunto previamente especificado de datos, sino que comunican seales a travs de retransmisores que llamamos sinpsis, que llegan a centros de conjuncin llamados los cuerpos de las neuronas y desde los cuales surgen seales elctricas a travs de canales conocidos con el nombre de axones. La importancia de cada sinpsis en el proceso de retransmisin se actualiza contnuamente y lo mismo ocurre con algunas propiedades intrnsecas de las neuronas, proporcionando un sistema de autoprogramacin y adaptacin que sustituye a la programacin externa de los sistemas de cmputo comunes. Existe as una dinmica de las sinpsis y de las neuronas en el cual los programas y los datos cambian todo el tiempo.

Una neurona tpica recibe del orden de 6 000 a 10 000 seales provenientes de otras neuronas y trasmitidas a travs d Los cerebros no tienen una arquitectura o mapa de conexiones especfico, por ejemplo, presentan estructuras relativamente ordenadas en centros receptores de informacin, pero estructuras amorfas, prcticamente aleatorias, en las regiones procesadoras de alto nivel como el neocrtex. Operando en paralelo los cerebros dedican grandes cantidades de neuronas a una actividad determinada, lo cual da por resultado actividades posibles muy diferentes y complejas. Pueden adaptarse a circunstancias cambiantes, reconocer objetos deformados, borrosos, o parcialmente visibles. En sntesis, las redes neuronales son esencialmente diferentes de los sistemas de cmputo de la vida cotidiana. Los distintos modelos de redes neuronales han planteado importantes e interesantes retos a los fsicos tericos y a los matemticos, pues exhiben

conductas muy ricas y nada triviales. Se trata de sistemas sumamente complejos de analizar por el gran nmero de elementos interactuantes, por el carcter no lineal de los elementos individuales que operan en ellas, porque las interacciones entre ellos no son idnticas ni simtricas y porque la magnitud de las interacciones, as como los umbrales internos de cada neurona, pueden cambiar en el tiempo.

Desde el punto de vista biolgico el funcionamiento detallado de las neuronas es extremadamente complicado, de hecho, gran cantidad de aspectos fisiolgicos y qumicos de stas es an materia de investigacin cientfica, de modo que para iniciar la bsqueda de un tratamiento formal de grupos de ellas se requiere introducir un conjunto de hiptesis simplificadoras que nos llevan a diferenciar entre una neurona biolgica y una neurona formal. Nuestro propsito ahora es aclarar esta diferencia.

En los intentos por sistematizar la comprensin del cerebro pueden distinguirse dos caminos: 1 El primero es el seguido por los neurofisilogos, quienes generalmente confrontan una abundancia de datos tan vasta que dificulta el examen sistemtico dentro de un marco de trabajo experimental. Los datos estn perturbados por una cantidad muy grande de influencias que no pueden ser fcilmente eliminadas por el experimentador. 2 El segundo es el que han abierto los constructores de modelos sobre la base de un conjunto tambin grande de suposiciones acerca del sistema que se busca explicar, con la esperanza de que el enfoque ayude al surgimiento de nuevas hiptesis, susceptibles de ser verificadas con la diversidad de datos disponibles.

Dentro del segundo de los caminos antes mencionados hay dos opciones para los creadores de modelos: 1. La primera opcin consiste en tratar de modelar al sistema real tanto como sea posible. Sin embargo, suele suceder que se introducen tantos parmetros que en realidad no se alcanza ningn entendimiento profundo; de donde se llega al resultado paradjico de que, buscando tanta fidelidad al sistema real, resulta una copia tan mala que la comprensin del fenmeno se desvanece. 2. El otro enfoque consiste en descartar, a priori, todos aquellos parmetros que a primera vista parecen no ser esenciales, a fin de simplificar el anlisis matemtico. Estos no constituyen

representaciones realistas del cerebro, sino que su inspiracin neuronal puede contribuir a comprender algunas de las propiedades que los caracterizan en el procesamiento de informacin}.

La combinacin de estas dos ltimas opciones va acompaada y motivada por la experiencia, la intuicin y el deseo de cuantificar el problema. La calidad del enfoque puede respaldarse en los resultados obtenidos en aos recientes, que han mostrado progresos en el proceso de incorporacin de ms detalles biolgicos a los modelos analticamente solubles.

Sobre la base de las consideraciones anteriores, podemos enumerar las simplificaciones ms importantes que nos llevan de la neurona biolgica a la neurona formal: No ponemos atencin a los detalles de las avalanchas de seales electroqumicas que el cuerpo de la neurona enva a travs de su axn. Solamente atendemos la existencia o la ausencia de una seal y le asignamos un "1" o un "0" a cada caso, o equivalentemente "1" y "-1". Dejamos de lado los aspectos qumicos del proceso de conversin con el cual una sinpsis modifica las seales elctricas que recibe para liberar sobre la membrana de la neurona los neurotransmisores que aumentan o disminuyen el potencial elctrico de esta ltima. nicamente atendemos al carcter excitador o inhibidor de la sinpsis y le asignamos un nmero real Jij que es positivo si la seal recibida excita y negativo si inhibe al potencial de la neurona receptora. No consideramos la distribucin espacial de las dendritas y las tomamos como si fueran cables pasivos de transmisin. El xito o el fracaso de cada sinpsis para retransmitir una seal lo consideramos azaroso, con una cierta probabilidad, tal que asociamos variables aleatorias independientes a cada dendrita. Cada neurona tiene un umbral de respuesta al potencial elctrico de su cuerpo principal, que al ser rebasado transmite una seal a travs del axn. Nosotros lo consideramos como una variable aleatoria que se conduce conforme a una distribucin gaussiana en torno a un promedio dado.

No consideramos diferencias de tiempo entre el envo y la recepcin de una seal, y por ltimo, no diferenciamos grados distintos de respuesta de las neuronas, solamente nos importa saber si lanza o no una seal.

Con base en las simplificaciones mencionadas, podemos establecer que una red neuronal, en su forma ms general, es un sistema de neuronas o nodos, cada uno de los cuales est asociado con un valor numrico real, que es el estado de la neurona. Frecuentemente los valores son restringidos a +1 y -1, tal que cada nodo es como un espn de Ising. Hay conexiones entre las

neuronas, de modo que el estado de una de ellas puede influir en el estado de otras. Cada neurona registra entradas y les aplica una funcin, que generalmente es de la forma siguiente:

donde j=1,...,k numera las seales recibidas por la neurona i, sj son los estados de las neuronas que enviaron su seal y Jij son los pesos de la interaccin de la i-sima neurona con las dems.

Dependiendo del tipo de red, los pesos son variables que sern modificadas durante su evolucin, o por el contrario, sern magnitudes fijas como en el modelo de Hopfield.

Las neuronas tienen, y las redes tambin, entradas y salidas, tales que las salidas son calculadas en funcin de las entradas. As surge el concepto de regla de aprendizaje, que consiste en la sistematizacin de la asociacin entre una pregunta y una respuesta. Por lo general, la pregunta es un vector de mayor dimensin que la respuesta . Un ejemplo tpico es el reconocimiento de voces o sonidos, en los cules el vector de entrada es un espectro de frecuencias, que tiene que ser transformado en una lista de palabras . Formalmente se escribe

donde

es la regla de aprendizaje.

De lo anterior surgen varios propsitos distintos: 1 Conocida una regla, se busca construir una red que la reproduzca. 2 Disponiendo de pares de preguntas y respuestas, se trata de disear una red que haga las asociaciones correctas. A esto se le llama aprendizaje supervisado. 3 Otro propsito esencialmente diferente es el almacenamiento de memorias, que son las respuestas, para plantear preguntas, que son los estados iniciales, y dejar que la red evolucione hacia un estado final buscando la respuesta almacenada ms adecuada a la pregunta. En sntesis: Las redes neuronales y su historia Qu son? Son sistemas de procesamiento de informacin desarrollados con base en el conocimiento que tenemos de los cerebros biolgicos.

Se forman con unidades de procesamiento simples llamados nodos o neuronas.

Hay distintas formas de conectar a las neuronas entre si. A esta forma se les llama: arquitectura de la computadora. A cada conexin entre una neurona y otra se le asigna un peso.

Cada neurona tiene una funcin de activacin que suma las seales entrantes pesadas. As, la neurona determina si lanza su propia seal o no lo hace. Los pesos son adaptados para que la neurona mejore su trabajo hasta reproducir la tarea que se le ha pedido. A esto se le llama proceso de aprendizaje. En el proceso de adaptacin de los pesos se utiliza una regla de aprendizaje.

La tarea asignada a la red neuronal se plantea como objetivo: 1 la reproduccin inicial de patrones de entrenamiento, 2 una etapa de comprobacin del aprendizaje de la red y 3 la etapa de aplicacin de la red a los trabajos especficos para los cuales ha sido diseada. Los primeros aos

1943 1949 1951 1956

McCulloch y Pitts presentan la neurona formal. D. Hebb publica su regla de aprendizaje para neuronas. Minsky plantea su mquina neuronal. Rochester, Holland, entre otros, realizan pruebas sobre ensambles de clulas y su accin en el cerebro. Von Neumann propone un modelo para el cerebro. Rosenblatt propone el perceptrn. Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mnimos cuadrados. Lo aplican a la eliminacin del eco en llamadas telefnicas y constituye la primera aplicacin prctica de las redes neuronales. Minsky y Papert analizan el preceptrn y encuentran que tiene limitaciones lgicas importantes.

1958 1958 1960

1969

Reflexin y estancamiento

1972

Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias asociativas. J. Anderson desarrolla la red neuronal llamada: estado cerebral en una caja. Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrn, una red neuronal especializada en reconocimiento de patrones. No logra reconocer caracteres distorsionados o rotados. Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales artificiales. Se distingue por su carcter altamente matemtico y con sentido biolgico. Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre en ingls).

1972

1975

1976

1982

La dcada de oro de las redes neuronales

1982-1985

J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza tcnicas de la Fsica Estadstica para demostrar que tiene propiedades de memoria asociativa. Gran impacto en el mundo de los fsicos. Ackley, Hinton y Sejnoski desarrollan la mquina de Boltzmann. Una red neuronal Se establece el sistema de propagacin hacia atrs, que haba aparecido para ser olvidado en diversas ocasiones. Surge el mapeo de Kohonen. El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teora del aprendizaje de desarrollo acelerado con aplicaciones muy diversas.

1984

1985

1986 2000