Está en la página 1de 14

REDES NEURONALES

Introduccin

Depto. De Computacin FCEyN UBA

1er. Cuatrimestre 2015


Desde la neurona biolgica . . .
La sinapsis
. . . hacia la neurona artificial

W. McCulloch y W. Pitts, A Logical Calculus of Ideas Immanent in Nervous Activity,


Bulletin of Mathematical Biophysics 5:115-133
Perceptrn Simple Perceptrn Multicapa
Red recurrente (Hopfield)
para memoria asociativa

neurona conexin sinptica


Paradigma Conexionista / Paradigma Procedural

Robustez y tolerancia a fallas: Inestabilidad ante fallas:


destruccin parcial conlleva destruccin de una sola lnea de
degradacin parcial de la performance programa puede invalidar
completamente su funcin
Aprendizaje Adaptativo: a partir Requiere programacin:
de datos (estmulos) del entorno - no especfica para la tarea deseada
requiere programacin
Neurobiolgicamente inspirado - Basado en instrucciones a un
procesador
Opera en paralelo: naturalmente,
sin necesidad de supervisin de alto - Opera secuencialmente: slo es
nivel -> apropiado para paralelizable mediante programacin
implementacin VLSI ad hoc

Autoorganizado: se estructura - La forma en que se representa


independientemente y representa en la informacin debe ser
forma autnoma la informacin
recibida. definida por el diseador
Computabilidad: Paradigmas
Matemtico
- Hilbert (1926)
- Wilhelm Ackermann (1928).
- Funciones recursivas generales
- Kleene-Church: clculo lambda (1936)
- Tesis de Church: Funciones computables = Funciones recursivas generales

Lgico-operacional
- Alan Turing (1936)

Computacional (=con computadoras)


- Konrad Zuse (Berln, 1938-44)
- Mark I (Harvard), Eniac
- Mark I (Manchester)

Autmatas celulares

Biolgico (redes neuronales)


- McCulloch & Pitts (1943)
- N. Wiener (1948)
El proceso de aprendizaje
Por el cual los parmetros libres de una RN son adaptados
a travs de los estmulos del entorno en el cual est inmersa
El tipo de aprendizaje es determinado por la forma en que tienen
lugar los cambios en los parmetros:
w(n+1) = w(n) + w(n)

Aprendizaje

Paradigmas
Algoritmos Un modelo del entorno
definidos por la forma en que con el que la RN se
w es actualizado relaciona y en el cual opera

Por correcin
de errores de Boltzmann Hebbiano Competitivo Supervisado Por refuerzo No supervisado
Historia
La evolucin del pensamiento conexionista no ha sido parsimoniosa

Etapa Cualitativa o de los fundamentos (fines s. XIX comienzos s. XX):


trabajo interdisciplinario en fsica, psicologa y neurofisiologa (Helmholtz,
Mach, Pavlov), teoras generales de aprendizaje, visin, condicionamiento.

Etapa Cuantitativa o formal (a partir de los aos 40):


McCulloch y Pitts [43]: muestran que las RNA podran calcular cualquier
funcin aritmtica o lgica.
Hebb [49]: el condicionamiento clsico (pavloviano) est presente dadas las
propiedades de las neuronas individuales. Propone un mecanismo de
aprendizaje en neuronas biolgicas.
Rosenblatt [58]: construye el Perceptrn Simple y lo aplica exitosamente a
reconocimiento de patrones.
Withrow y Hoff [60]: algoritmo de aprendizaje para entrenar RN lineales,
similares al Perceptrn de Rosenblatt (regla de aprendizaje).
La Crisis
Minsky y Papert [69]: limitaciones de las redes de Rosenblatt y de Withrow.
Estos proponen redes ms sofisticadas pero no algoritmos de aprendizaje.
Este [momentneo] fracaso, sumado a la carencia de computadoras digitales
potentes, conduce a una impasse de alrededor de una dcada.

Sin embargo:
1972: Kohonen, Anderson: redes neuronales que actuaban como memorias
1976: Grossberg: redes autoorganizadas.

El renacimiento
Debido a:
- La aparicin de nuevos conceptos:
Uso de mecnica estadstica para analizar las propiedades y la dinmica de
redes recurrentes capaces de funcionar como memorias asociativas (Hopfield).
Algoritmo de Retropropagacin para entrenar perceptrones multi-capa, en
respuesta a las crticas de Minsky y Papert (Rumelhart y McClelland).

- La disponibilidad de computadoras potentes en las cuales testearlos.


Nuevas tendencias
RN y Big data (no tan nuevo)
- grandes bases de datos
- alta dimensionalidad
- aprendizaje en paralelo
- desafio de escalabilidad de los modelos

Aprendizaje y arquitecturas profundas


- distintos niveles de representacion
- estructuras feed-forward
- arquitecturas recurrentes profundas
Algunas Aplicaciones
- Cientfico-tecnolgicas
Modelado y diagnstico del sistema cardiovascular, narices electrnicas,
anlisis de clulas cancerosas, EEG, ECG, modelos en biologa y
neurofisiologa (memoria, aprendizaje, percepcin), bioinformtica (prediccin
de estructuras de protenas, secuenciamiento de DNA)

- Industriales
Blicas, aeronutica, electrnica, robtica, procesamiento de seales,
automotrices, exploracin de petrleo y gas, control de procesos

- Servicios
Mdicas (diagnstico inteligente), entretenimiento (animacin, efectos
especiales, prediccin de tendencias del mercado)

- Econmicas y financieras
Evaluacin de solicitudes de crdito e hipotecas, tasacin de propiedades,
evaluacin de polticas de seguros, prediccin de mercados de valores, ttulos
y monedas, prediccin del comportamiento de los consumidores
Bibliografa
Neural Networks, a Comprehensive Foundation
Simon Haykin, Prentice Hall

Introduction to the Theory of Neural Computation


John Hertz, Anders Krogh y Richard Palmer; Addison-Wesley.
Disponible en Infoteca

. Neural Networks and Learning Machines


Simon Haykin, Upper Saddle River, PearsonPrentice Hall, 2011

. Neural Networks. Methodology and applications


Grard Dreyfus. Berlin, Springer-Verlag, 2005
Consultar a los docentes

Redes Neuronales. Algoritmos, Aplicaciones y Tcnicas de


Programacin
James Freeman y David Skapura; Addison-Wesley
Disponible en Infoteca

Neural Network Design


Martin T. Hagan, Howard B. Demuth, Mark H. Beale
http://hagan.ecen.ceat.okstate.edu/nnd.html

También podría gustarte