Está en la página 1de 5

Historia Sobre Las Redes Neuronales Artificiales

Las redes neuronales como su nombre lo indica pretenden imitar a


pequesima escala la forma de funcionamiento de las neuronas que forman el
cerebro humano. Todo el desarrollo de las redes neuronales tiene mucho que
ver con la neurofisiologa, no en vano se trata de imitar a una neurona humana
con la mayor exactitud posible. Entre los pioneros en el modelado de neuronas
se encuentra Warren McCulloch y Walter Pitts. Estos dos investigadores
propusieron un modelo matemtico de neurona. En este modelo cada neurona
estaba dotada de un conjunto de entradas y salidas. Cada entrada est
afectada por un peso. La activacin de la neurona se calcula mediante la suma
de los productos de cada entrada y la salida es una funcin de esta activacin.
La principal clave de este sistema se encuentra en los pesos de las diferentes
entradas. Como se ha visto, las entradas son modificadas por el peso y las
salidas son funcin de estas modificaciones. Esto nos lleva a concluir que los
pesos influyen de forma decisiva en la salida y por lo tanto pueden ser
utilizados para controlar la salida que se desea.
En realidad cuando se tienen interconectadas muchas de estas neuronas
artificiales lo que se hace inicialmente es entrenar el sistema. El entrenamiento
consiste en aplicar unas entradas determinadas a la red y observar la salida
que produce. Si la salida que produce no se adecua a la que se esperaba, se
ajustan los pesos de cada neurona para interactivamente ir obteniendo las
respuestas adecuadas del sistema. A la red se le somete a varios ejemplos
representativos , de forma que mediante la modificacin de los pesos de cada
neurona , la red va "aprendiendo".
A pesar de disponer de herramientas y lenguajes de programacin diseados
expresamente para el desarrollo de mquinas inteligentes, existe un enorme
problema que limita los resultados que se pueden obtener: estas mquinas se
implementan sobre computadoras basadas en la filosofa de Von Neumann, y
que se apoyan en una descripcin secuencial del proceso de tratamiento de
la informacin. Si bien el desarrollo de estas computadoras es espectacular, no
deja de seguir la lnea antes expuesta: una mquina que es capaz de realizar
tareas mecnicas de forma increblemente rpida, como por ejemplo clculo,

ordenacin o control, pero incapaz de obtener resultados aceptables cuando se


trata de tareas como reconocimiento de formas, voz, etc.
La otra lnea de la investigacin ha tratado de aplicar principios fsicos que
rigen en la naturaleza para obtener mquinas que realicen trabajos pesados en
nuestro lugar. De igual manera se puede pensar respecto a la forma y
capacidad de razonamiento humano; se puede intentar obtener mquinas con
esta capacidad basadas en el mismo principio de funcionamiento.
No se trata de construir mquinas que compitan con los seres humanos, sino
que realicen ciertas tareas de rango intelectual con que ayudarle, principio
bsico de la Inteligencia Artificial.
Las primeras explicaciones tericas sobre el cerebro y el pensamiento ya
fueron dadas ya por Platn (427-347 a.C.) y Aristteles (348-422 a.C.). Las
mismas

ideas

tambin

las

mantuvo Descartes (1569-1650)

los filsofos empiristas del siglo XVIII. La clase de las llamadas mquinas
cibernticas, a

la

cual

la computacin neuronal

pertenece,

tiene

ms historia de la que se cree: Hern (100 a.C) construy un autmata


hidrulico.
1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de
ver el mundo de la computacin. Sin embargo, los primeros tericos que
concibieron los fundamentos de la computacin neuronal fueron Warren
McCulloch, un neuro fisilogo, y Walter Pitts, un matemtico, quienes, en 1943,
lanzaron una teora acerca de la forma de trabajar de las neuronas (Un Clculo
Lgico

de

la

Inminente

Idea

de

la

Actividad

Nerviosa

Boletn

de

Matemtica Biofsica 5: 115-133). Ellos modelaron una red neuronal simple


mediante circuitos elctricos. 1949 - Donald Hebb. Escribi un importante
libro: La organizacin del comportamiento, en el que se establece una conexin
entre psicologa y fisiologa.

Fue

el

primero

en

explicar

los procesos del

aprendizaje (que es el elemento bsico de la inteligencia humana) desde un


punto de vista psicolgico, desarrollando una regla de como el aprendiza
recurra. Aun hoy, este es el fundamento de la mayora de las funciones de
aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el
aprendizaje ocurra cuando ciertos cambios en una neurona eran activados.

Tambin intent encontrar semejanzas entre el aprendizaje y la actividad


nerviosa. Los trabajos de Hebb formaron las bases de la Teora de las Redes
Neuronales.
1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no
era almacenada en forma centralizada en el cerebro sino que era distribuida
encima de l.
1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona
para

indicar

el

nacimiento

de

la

inteligencia

artificial. 1957

Frank

Rosenblatt. Comenz el desarrollo del Perceptrn. Esta es la red neuronal ms


antigua; utilizndose hoy en da para aplicacin como reconocedor de
patrones. Este modelo era capaz de generalizar, es decir, despus de haber
aprendido una serie de patrones poda reconocer otros similares, aunque no se
le hubiesen presentado anteriormente. Sin embargo, tena una serie de
limitaciones, por ejemplo, su incapacidad para resolver el problema de
lafuncin OR-exclusiva y, en general, era incapaz de clasificar clases no
separables linealmente. En 1959, escribi el libro Principios de Neuro dinmica,
en el que confirm que, bajo ciertas condiciones, el aprendizaje del Perceptron
converga hacia un estado finito (Teorema de Convergencia del Perceptrn).
1960

Bernard

Widrow/Marcial

Hoff. Desarrollaron

el

modelo

Adaline

(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un


problema real (filtros adaptativos para eliminar ecos en las lneas telefnicas)
que se ha utilizado comercialmente durante varias dcadas. 1961 - Karl
Steinbeck:

Die

Lernmatrix. Red

neuronal

para

simples

realizaciones tcnicas (memoria asociativa). 1967 - Stephen Grossberg. A partir


de sus conocimientos fisiolgicos, ha escrito numerosos libros y desarrollado
modelo de redes neuronales. Realiz una red: Avalancha, que consista en
elementos

discretos

con

actividad

que

vara

en

el tiempo que

satisface ecuaciones diferenciales continuas, para resolver actividades como


reconocimiento continuo de habla y aprendizaje de los brazos de un robot.
1969 - Marvin Minsky/Seymour Papert. En este ao surgieron crticas que
frenaron, hasta 1982, el crecimiento que estaban experimentando las
investigaciones sobre

redes

neuronales.

Minsky

Papera,

del

Instituto

Tecnolgico de Massachussets (MIT), publicaron un libro Perceptrons. Probaron


(matemticamente)

que

el

Perceptrn

no

era

capaz

de

resolver problemas relativamente fciles, tales como el aprendizaje de una


funcin no-lineal. Esto demostr que el Perceptrn era muy dbil, dado que las
funciones no-lineales son extensamente empleadas en computacin y en los
problemas del mundo real. A pesar del libro, algunos investigadores
continuaron su trabajo. Tal fue el caso de James Anderson, que desarroll un
modelo lineal, llamado Asociador Lineal, que consista en unos elementos
integradores lineales (neuronas) que sumaban sus entradas. Este modelo se
basa en el principio de que las conexiones entre neuronas son reforzadas cada
vez que son activadas. Anderson dise una potente extensin del Asociador
Lineal, llamada Brain State in a Box (BSB). 1974 - Paul Werbos. Desarroll la
idea

bsica

del algoritmo de

aprendizaje

de propagacin

hacia

atrs(backpropagation); cuyo significado qued definitivamente aclarado en


1985. 1977 - Stephen Grossberg. Teora de Resonancia Adaptada (TRA). La
Teora de Resonancia Adaptada es una arquitectura de red que se diferencia de
todas las dems previamente inventadas. La misma simula otras habilidades
del cerebro: memoria a largo y corto plazo. 1977 - Teuvo Kohonen. Ingeniero
electrnico de la Universidad de Helsinki, desarroll un modelo similar al de
Anderson, pero independientemente.
1980

Kunihiko

Fukushima. Desarroll

un

modelo

neuronal

para

el

reconocimiento de patrones visuales..


1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su
libro:

"Computacin

neuronal

de

decisiones

en

problemas

de

optimizacin." 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo


de aprendizaje de propagacin hacia atrs (back propagation). A partir de
1986, el panorama fue alentador con respecto a las investigaciones y el
desarrollo de las redes neuronales. En la actualidad, son numerosos los
trabajos que se realizan y publican cada ao, las aplicaciones nuevas que
surgen (sobre todo en el rea de control) y las empresas que lanzan al mercado
productos nuevos, tanto hardware como software (sobre todo para simulacin).

Actualmente, son numerosos los trabajos que se realizan y se publican, las


aplicaciones nuevas que surgen y las empresas que lanzan al mercado
productos nuevos, tanto hardware como software, sobre todo para simulacin.
Definiciones de una red neuronal Existen numerosas formas de definir a las
redes neuronales; desde las definiciones cortas y genricas hasta las que
intentan explicar ms detalladamente qu son las redes neuronales. Por
ejemplo:
1) Una nueva forma de computacin, inspirada en modelos biolgicos.
2) Un modelo matemtico compuesto por un gran nmero de elementos
procesales organizados en niveles.
3) Un sistema de computacin compuesto por un gran nmero de elementos
simples, elementos de procesos muy interconectados, los cuales procesan
informacin por medio de su estado dinmico como respuesta a entradas
externas.
4) Redes neuronales artificiales son redes interconectadas masivamente en
paralelo de elementos simples (usualmente adaptativos) y con organizacin
jerrquica, las cuales intentan interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biolgico.

Cules son las principales revistas cientficas de la RNA?