Está en la página 1de 9

Ing.

de Sistemas

Núcleo Puerto Ordaz

IX Semestre

Redes Neuronales

HISTORIA DE LAS REDES NEURONALES

Facilitador:

Ing. Julio Laprea

Bachiller:

Ricardo Sánchez C.I.: 21.498.310

Ciudad Guayana, noviembre de 2016.


INTRODUCCIÓN

Conseguir diseñar y construir máquinas capaces de realizar procesos con cierta


inteligencia ha sido uno de los principales objetivos de los científicos a lo largo de la
historia. De los intentos realizados en este sentido se han llegado a definir las líneas
fundamentales para la obtención de máquinas inteligentes: En un principio los esfuerzos
estuvieron dirigidos a la obtención de autómatas, en el sentido de máquinas que
realizaran, con más o menos éxito, alguna función típica de los seres humanos. Hoy en
día se continúa estudiando en ésta misma línea, con resultados sorprendentes, existen
maneras de realizar procesos similares a los inteligentes y que podemos encuadrar
dentro de la llamada Inteligencia Artificial (IA).

La otra línea de la investigación ha tratado de aplicar principios físicos que rigen


en la naturaleza para obtener máquinas que realicen trabajos pesados en nuestro lugar.
De igual manera se puede pensar respecto a la forma y capacidad de razonamiento
humano; se puede intentar obtener máquinas con esta capacidad basadas en el mismo
principio de funcionamiento. No se trata de construir máquinas que compitan con los
seres humanos, sino que realicen ciertas tareas de rango intelectual con que ayudarle,
principio básico de la Inteligencia Artificial.

Las primeras explicaciones teóricas sobre el cerebro y el pensamiento ya fueron


dadas ya por Platón (427-347 a.C.) y Aristóteles (348-422 a.C.). Las mismas ideas
también las mantuvo Descartes (1569-1650) y los filósofos empiristas del siglo XVIII.

La clase de las llamadas máquinas cibernéticas, a la cual la computación neuronal


pertenece, tiene más historia de la que se cree: Herón (100 a.C) construyó un autómata
hidráulico.
Historia de las redes neuronales

1943. En 1943, el neurobiólogo Warren McCulloch, y


el estadístico Walter Pitss, publicaron el artículo "A
logical calculus of Ideas Imminent in Nervous
Activity" (Un Cálculo Lógico de la Inminente Idea de
la Actividad Nerviosa). Este artículo constituyó la
base y el inicio del desarrollo en diferentes campos
como son los Ordenadores Digitales (John Von
Neuman), la Inteligencia Artificial (Marvin Minsky con los Sistemas Expertos) y el
funcionamiento del ojo (Frank Rosenblatt con la famosa red llamada Perceptron).

1949. Regla de Hebb, desarrollada por Donald Hebb quien fue el


primero en explicar los procesos del aprendizaje (que es el elemento
básico de la inteligencia humana) desde un punto de vista psicológico,
desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este
es el fundamento de la mayoría de las funciones de aprendizaje que
pueden hallarse en una red neuronal. Su idea fue que el aprendizaje
ocurría cuando ciertos cambios en una neurona eran activados.
También intentó encontrar semejanzas entre el aprendizaje y la
actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes
Neuronales.

1950. Karl Lashley. En sus series de ensayos, encontró que la información no era
almacenada en forma centralizada en el cerebro, sino que era distribuida encima de él.

1956. La Conferencia de Dartmouth (en inglés: the


Dartmouth Summer Research Project on Artificial
Intelligence). Es el nombre del encuentro que tuvo
lugar en el verano de 1956 en la universidad
Dartmouth College, ubicada en Hanover, Nuevo
Hampshire (Estados Unidos), considerado como el evento germen de la Inteligencia
Artificial como esfera o campo de actividad.
1957. Frank Rosenblatt publicó el mayor trabajo de
investigación en computación neuronal realizado hasta esas
fechas. Su trabajo consistía en el desarrollo de un elemento
llamado "Perceptron". El perceptron es un sistema
clasificador de patrones que puede identificar patrones
geométricos y abstractos. El primer perceptron era capaz de
aprender algo y era robusto, de forma que su
comportamiento variaba sólo si resultaban dañados los
componentes del sistema. Además, presentaba la característica de ser flexible y
comportarse correctamente después de que algunas celdas fueran destruidas.

1959. Bernard Widrow en Stanford desarrolló "ADALINE" (ADAptative


LINear Element, elemento lineal adaptativo) y una versión de dos
capas, llamada "Madaline", fueron utilizadas en distintas aplicaciones
como reconocimiento de voz y caracteres, predicción del tiempo,
control adaptativo y sobre todo en el desarrollo de filtros adaptativos
que eliminen los ecos de las líneas telefónicas.

1967. Stephen Grossberg. A partir de sus conocimientos


fisiológicos, ha escrito numerosos libros y desarrollado modelos
de redes neuronales. Realizó una red: Avalancha, que consistía
en elementos discretos con actividad que varía en el tiempo que
satisface ecuaciones diferenciales continuas, para resolver
actividades como reconocimiento continuo de habla y
aprendizaje de los brazos de un robot.

1969. Marvin Minsky y Seymour Papert pertenecientes al Laboratorio de Investigación


de Electrónica del MIT (Massachussets Institute Technology) comenzaron un trabajo
profundo de crítica al perceptron. El resultado de
este trabajo, el libro Perceptrons, era un análisis
matemático del concepto del perceptron. La
conclusión de este trabajo, que se transmitió a la
comunidad científica del mundo entero, es que el Perceptron y la Computación Neuronal
no eran temas interesantes que estudiar y desarrollar. A partir de este momento
descendieron drásticamente las inversiones en la investigación de la computación
neuronal.

1974. Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de


propagación hacia atrás (backpropagation); cuyo significado quedó
definitivamente aclarado en 1985.

1977. Uno de los pocos investigadores que continuaron con su


trabajo en la computación neuronal tras la publicación del libro
Perceptrons fue James Anderson. Su trabajo se basó en el
desarrollo de un modelo lineal que consiste en un modelo asociativo
distribuido basado en el principio de Hebb (las conexiones son
reforzadas cada vez que son activadas las neuronas). Una versión extendida de este
modelo lineal es el llamado modelo Brain-State-in- a Box (BSB).

1977. Stephen Grossberg estaba especialmente interesado en la


utilización de datos de la neurología para construir modelos de
computación neuronal. La mayoría de sus reglas y postulados
derivaron de estudios fisiológicos. Su trabajo ha constituido un gran
impulso en la investigación del diseño y construcción de modelos
neuronales. Una de estas clases de redes es la Adaptive Resonance
Theory (ART).

1978. Teuvo Kohonen, de la Universidad de Helsinki, es uno de los mayores impulsores


de la computación neuronal de la década de los 70. De su trabajo
de investigación destacan dos aportaciones: la primera es la
descripción y análisis de una clase grande de reglas adaptativas,
reglas en las que las conexiones ponderadas se modifican de
una forma dependiente de los valores anteriores y posteriores de
las sinapsis. Y la segunda aportación es el principio de aprendizaje competitivo en el que
los elementos compiten por responder a un estímulo de entrada, y el ganador se adapta
él mismo para responder con mayor efecto al estímulo.
1980. Kunihiko Fukushima. Desarrolló un modelo neuronal para el
reconocimiento de patrones visuales.

1985. En 1985 John Hopfield con la publicación del artículo Hopfield Model o Crossbar
Associative Network, junto con la invención del algoritmo
Backpropagation se consiguió devolver el interés y la confianza en
el fascinante campo de la computación neuronal tras dos décadas
de casi absoluta inactividad y desinterés. Hopfield presenta un
sistema de computación neuronal consistente en elementos
procesadores interconectados que buscan y tienden a un mínimo de
energía. Esta red con este tipo de función de energía y mecanismo
de respuesta no es más que un caso de la clase genérica de redes que consideró
Grossberg.

1986. David Rumelhart/G. Hinton. Redescubrieron el


algoritmo de aprendizaje de propagación hacia atrás
(backpropagation). A partir de 1986, el panorama fue
alentador con respecto a las investigaciones y el
desarrollo de las redes neuronales.

En la actualidad. Existen muchos grupos con sedes en diferentes universidades de todo


el mundo que están realizando trabajos de investigación en el área de las redes
neuronales artificiales. Cada grupo tiene diferente énfasis y motivación con los
neurólogos, psicólogos del conocimiento, físicos, programadores y matemáticos. Todos
ellos ofrecen nuevos puntos de vista e intuiciones en esta área de la técnica. Y cuentan
con el esfuerzo económico y técnico que están realizando las empresas privadas tanto
en USA como en Japón y en la Comunidad Económica Europea.
Línea de tiempo de la historia de las redes neuronales artificiales.
CONCLUSIÓN
Denominadas habitualmente como RNA o en inglés como: “ANN”. Las redes
neuronales artificiales son un paradigma de aprendizaje y procesamiento automático
inspirado en la forma en que funciona el sistema nervioso biológico. Estas redes
consisten en un sistema de interconexión de neuronas que colaboran entre sí para
producir un estímulo de salida. En el ámbito de la inteligencia artificial se les conoce
como redes de neuronas o redes neuronales.
Una red neuronal artificial es una herramienta diseñada para emular la forma en
que el cerebro humano funciona. En ella se establecen interrogantes fundamentales,
tales como:
 ¿Cómo funciona el ser humano?
 ¿Cómo aprende el ser humano?
 ¿Dónde se guarda el conocimiento?
 ¿Por qué es tan eficiente el cerebro?
REFERENCIAS BIBLIOGRÁFICAS

Redes-neuronales.com.es. (n.d.). Breve Historia de las redes Neuronales Redes Neuronales en java.
[online] Available at: http://www.redes-neuronales.com.es/tutorial-redes-neuronales/historia-de-las-
redes-neuronales.htm [Accessed 6 Nov. 2016].

Gruporedesneuronales's Blog. (n.d.). Historia de las Redes Neuronales. [online] Available at:
https://gruporedesneuronales.wordpress.com/historia-de-las-redes-neuronales-2/ [Accessed 6 Nov.
2016].

Es.wikipedia.org. (n.d.). Red neuronal artificial. [online] Available at:


https://es.wikipedia.org/wiki/Red_neuronal_artificial [Accessed 6 Nov. 2016].

Avellano.usal.es. (n.d.). Redes Neuronales. [online] Available at: http://avellano.usal.es/~lalonso/RNA/


[Accessed 6 Nov. 2016].

Es.slideshare.net. (2016). REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA. [online] Available at:
http://es.slideshare.net/mentelibre/redes-neuronales-artificiales-historia-y-teoria [Accessed 6 Nov.
2016].

También podría gustarte