Está en la página 1de 9

REDES

NEURONALES

CONTENIDO

INTRODUCCIN
1. RESEA HISTORICA
1.1 Historia de redes neuronales
2. GENERALIDADES
2.1 Definicin de una red neuronal
2.2 Ventajas que ofrecen la red neuronal
2.3 Redes neuronales y computacin digital
3. PRINCIPALES TOPOLOGAS
3.1 Topologa de las redes neuronales.
3.2 Redes Monocapa
3.3 Redes multicapa:
3.4 Conexin entre neuronas.
3.5 Redes de propagacin hacia atrs (backpropagation)
4. ESTRUCTURA
4.1 Los elementos bsicos de una RNA son

INTRODUCCION

Uno de los problemas ms antiguos de la ciencia experimental es encontrar funciones que


ajusten, o expliquen, datos que se observan de fenmenos naturales.
La principal ventaja de la existencia de tales funciones es la posibilidad de predecir el
comportamiento del sistema natural en el futuro y controlar sus salidas mediante la
aplicacin de las entradas adecuadas. Algunos ejemplos interesantes podran ser la
prediccin de valores en bolsa, la prediccin meteorolgica o la clasificacin de formas
tumorales. La dificultad estriba en que los datos observados tienden a ir acompaados de
ruido, y los mecanismos exactos que los generan normalmente son desconocidos.
En ocasiones ser posible encontrar un modelo matemtico exacto que explique el proceso
del que provienen los datos que observamos. Muchas veces, sin embargo, no podremos dar
detalles de ese proceso. El objetivo, en este caso, ser estimar el modelo subyacente que
genera los datos observados.
En estos casos, las tcnicas de aprendizaje automtico nos permiten establecer estos
modelos utilizando datos de ejemplo o experiencias pasadas. De este modo se podrn
identificar ciertos patrones o regularidades en los datos y as podremos construir buenas
aproximaciones al problema. Dentro de estas tcnicas, que podramos llamar de estimacin
semiparamtrica, se encuentran las Redes de Neuronas Artificiales que se explicarn a
continuacin.

1. RESEA HISTORICA:
1.1 Historia de las redes neuronales:

1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de
ver el mundo de la computacin. Sin embargo, los primeros tericos que
concibieron los fundamentos de la computacin neuronal fueron Warren
McCulloch, un neurofisilogo, y Walter Pitts, un matemtico, quienes, en
1943, lanzaron una teora acerca de la forma de trabajar de las neuronas (Un
Clculo Lgico de la Inminente Idea de la Actividad Nerviosa - Boletn de
Matemtica Biofsica 5: 115-133). Ellos modelaron una red neuronal simple
mediante circuitos elctricos.

1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje
(que es el elemento bsico de la inteligencia humana) desde un punto de vista
psicolgico, desarrollando una regla de como el aprendizaje ocurra. Aun hoy,
este es el fundamento de la mayora de las funciones de aprendizaje que pueden
hallarse en una red neuronal. Su idea fue que el aprendizaje ocurra cuando
ciertos cambios en una neurona eran activados. Tambin intent encontrar
semejanzas entre el aprendizaje y la actividad nerviosa. Los trabajos de Hebb
formaron las bases de la Teora de las Redes Neuronales.

1950 - Karl Lashley. En sus series de ensayos, encontr que la informacin no


era almacenada en forma centralizada en el cerebro sino que era distribuida
encima de l.

1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona


para indicar el nacimiento de la inteligencia artificial.

1957 - Frank Rosenblatt. Comenz el desarrollo del Perceptron. Esta es la red


neuronal ms antigua; utilizndose hoy en da para aplicacin como
identificador de patrones. Este modelo era capaz de generalizar, es decir,
despus de haber aprendido una serie de patrones poda reconocer otros
similares, aunque no se le hubiesen presentado en el entrenamiento. Sin
embargo, tena una serie de limitaciones, por ejemplo, su incapacidad para
resolver el problema de la funcin OR-exclusiva y, en general, era incapaz de
clasificar clases no separables linealmente.

1959 - Frank Rosenblatt: Principios de Neurodinmica. En este libro confirm


que, bajo ciertas condiciones, el aprendizaje del Perceptron converga hacia un
estado finito (Teorema de Convergencia del Perceptron).

1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline


(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un
problema real (filtros adaptativos para eliminar ecos en las lneas telefnicas)
que se ha utilizado comercialmente durante varias dcadas.

1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples


realizaciones tcnicas (memoria asociativa).

1969 - Marvin Minsky/Seymour Papert. En este ao casi se produjo la muerte


abrupta de las Redes Neuronales; ya que Minsky y Papert probaron

(matemticamente) que el Perceptrons no era capaz de resolver problemas


relativamente fciles, tales como el aprendizaje de una funcin no-lineal. Esto
demostr que el Perceptron era muy dbil, dado que las funciones no-lineales
son extensamente empleadas en computacin y en los problemas del mundo
real.

1974 - Paul Werbos. Desarroll la idea bsica del algoritmo de aprendizaje de


propagacin hacia atrs (backpropagation); cuyo significado qued
definitivamente aclarado en 1985.

1977 - Stephen Grossberg: Teora de Resonancia Adaptada (TRA). La Teora de


Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
dems previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.

1985 - John Hopfield. Provoc el renacimiento de las redes neuronales con su


libro: Computacin neuronal de decisiones en problemas de optimizacin.

1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje


de propagacin hacia atrs (backpropagation).

A partir de 1986, el panorama fue alentador con respecto a las investigaciones y


el desarrollo de las redes neuronales. En la actualidad, son numerosos los
trabajos que se realizan y publican cada ao, las aplicaciones nuevas que
surgen (sobretodo en el rea de control) y las empresas que lanzan al mercado
productos nuevos, tanto hardware como software (sobre todo para simulacin).

2. GENERALDADES:
2.1 Definicin de una red neuronal:

Una nueva forma de computacin, inspirada en modelos biolgicos.

Un modelo matemtico compuesto por un gran nmero de elementos


procesales organizados en niveles.

Un sistema de computacin compuesto por un gran nmero de elementos


simples, elementos de procesos muy interconectados, los cuales procesan
informacin por medio de su estado dinmico como respuesta a entradas
externas.

Redes neuronales artificiales son redes interconectadas masivamente en


paralelo de elementos simples (usualmente adaptativos) y con organizacin
jerrquica, las cuales intentan interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biolgico.

2.2 Ventajas que ofrecen la red neuronal:

Ofrezcan numerosas ventajas y que este tipo de tecnologa se est aplicando en


mltiples reas. Entre las ventajas se incluyen:

Aprendizaje Adaptativo: Capacidad de aprender a realizar tareas basadas en un


entrenamiento o en una experiencia inicial.

Auto-organizacin: Una red neuronal puede crear su propia organizacin o


representacin de la informacin que recibe mediante una etapa de aprendizaje.

Tolerancia a fallos: La destruccin parcial de una red conduce a una


degradacin de su estructura; sin embargo, algunas capacidades de la red se
pueden retener, incluso sufriendo un gran dao.

Operacin en tiempo real: Los cmputos neuronales pueden ser realizados en


paralelo; para esto se disean y fabrican mquinas con hardware especial para
obtener esta capacidad.

Fcil insercin dentro de la tecnologa existente: Se pueden obtener chips


especializados para redes neuronales que mejoran su capacidad en ciertas
tareas. Ello facilitar la integracin modular en los sistemas existentes.

2.3 Redes neuronales y computacin digital:


Para entender el potencial de la computacin neuronal, sera necesario hacer una breve
distincin entre sistemas de computacin neuronal y digital:
Sistemas neurolgicos no aplican principios de circuitos lgicos o digitales. Un sistema
de computacin digital debe ser sncrono o asncrono. Si fuera asncrono, la duracin de
los impulsos neuronales debera ser variable para mantener uno de los valores binarios
por periodos de tiempo indefinido, lo cual no es el caso. Si el principio fuera sncrono,
se necesitara un reloj global o maestro con el cual los pulsos estn sincronizados, este
tampoco es el caso.
Las neuronas no pueden ser circuitos de umbral lgico, porque hay miles de entradas
variables en la mayora de las neuronas y el umbral es variable con el tiempo, siendo
afectado por la estimulacin, atenuacin, etc. La precisin y estabilidad de tales
circuitos no es suficiente para definir ninguna funcin Booleana. Los procesos
colectivos que son importantes en computacin neuronal no pueden implementarse por
computacin digital. Por todo ello, el cerebro debe ser un computador analgico. Ni las
neuronas ni las sinapsis son elementos de memoria biestable. Todos los hechos
fisiolgicos hablan a favor de las acciones de las neuronas como integradores
analgicos, y la eficiencia de la sinapsis cambia de forma gradual, lo cual no es
caracterstico de sistemas biestables. Los circuitos del cerebro no implementan
computacin recursiva y por lo tanto no son algortmicos. Debido a los problemas de
estabilidad, los circuitos neuronales no son suficientemente estables para definiciones
recursivas de funciones como en computacin digital. Un algoritmo, por definicin,
define una funcin recursiva.
3. PRINCIPALES TOPOLOGAS

3.1 Topologa de las redes neuronales.


La topologa o arquitectura de una red neuronal consiste en la organizacin y
disposicin de las neuronas en la misma, formando capas o agrupaciones de neuronas
ms o menos alejadas de la entrada y salida de dicha red. En este sentido, los
parmetros fundamentales de la red son: el nmero de capas, el nmero de neuronas por
capa, el grado de conectividad y el tipo de conexiones entre neuronas.
3.2 Redes Monocapa :
Se establecen conexiones entre las neuronas que pertenecen a la nica capa que
constituye la red. Las redes monocapas se utilizan generalmente en tareas relacionadas
con lo que se conoce como autoasociacin (regenerar informacin de entrada que se
presenta a la red de forma incompleta o distorsionada).
3.3 Redes multicapa:
Son aquellas que disponen de un conjunto de neuronas agrupadas en varios niveles o
capas. En estos casos, una forma para distinguir la capa a la que pertenece una neurona,
consistira en fijarse en el origen de las seales que recibe a la entrada y el destino de la
seal de salida. Normalmente, todas las neuronas de una capa reciben seales de
entrada desde otra capa anterior (la cual est ms cerca a la entrada de la red), y envan
seales de salida a una capa posterior (que est ms cerca a la salida de la red). A estas
conexiones se las denomina conexiones hacia adelante o feedforward.
Sin embargo, en un gran nmero de estas redes tambin existe la posibilidad de
conectar la salida de las neuronas de capas posteriores a la entrada de capas anteriores;
a estas conexiones se las denomina conexiones hacia atrs o feedback.
3.4 Conexin entre neuronas.
La conectividad entre los nodos de una red neuronal est relacionada con la forma en
que las salidas de las neuronas estn canalizadas para convertirse en entradas de otras
neuronas. La seal de salida de un nodo puede ser una entrada de otro elemento de
proceso, o incluso ser una entrada de s mismo (conexin autorrecurrente).
Cuando ninguna salida de las neuronas es entrada de neuronas del mismo nivel o de
niveles precedentes, la red se describe como de conexin hacia delante. Cuando las
salidas pueden ser conectadas como entradas de neuronas de niveles previos o del
mismo nivel, incluyndose ellas mismas, la red es de conexin hacia atrs.
Las redes de propagacin hacia atrs que tienen lazos cerrados son llamadas: sistemas
recurrentes.
3.5 Redes de propagacin hacia atrs (backpropagation):
El nombre de backpropagation resulta de la forma en que el error es propagado hacia
atrs a travs de la red neuronal, en otras palabras el error se propaga hacia atrs desde
la capa de salida. Esto permite que los pesos sobre las conexiones de las neuronas
ubicadas en las capas ocultas cambien durante el entrenamiento.
4. ESTRUCTURA:

Una RNA consta de un conjunto de elementos de procesamiento conectados entre s y entre


los que se envan informacin a travs de conexiones. Un esquema bsico de una red
neuronal artificial se observa en la figura 4.1, la cual presenta las diferentes capas que tiene
esta topologa, que es una estructura que se conoce con el nombre de feed-forward (hacia
delante) debido al flujo de la informacin.

Figura 3.1 Esquema bsico de una RNA.


4.1 Los elementos bsicos de una RNA son:

Conjuntos de unidades de procesamiento (neuronas).


Conexiones entre unidades (asociado a cada conexin un peso o valor).
Funciones de salida o activacin para cada unidad de procesamiento.

El modelo de la neurona y la arquitectura de la red describen cmo esta ltima


transforma sus entradas en las salidas. Los elementos individuales de clculo
que forman la mayora de los modelos de sistemas neurales artificiales, se
conocen como neuronas artificiales.
5. APLICACIONES:
Algunas reas donde se aplican RNA son:
Automviles: Sistemas de piloto automtico. Deteccin de fallas por reconocimiento
externo de vibraciones.
Bancos: Lectura de cheques y otros documentos. Evaluacin de aplicaciones de crditos.
Electrnica: Prediccin de secuencia de cdigos. Distribucin de elementos en CI. Control
de procesos. Anlisis de fallas. Visin artificial. Reconocimiento de voz.
Finanzas: Tasacin real de los bienes. Asesora de prstamos. Previsin en la evolucin de
precios.
Seguimiento de hipotecas. Anlisis de uso de lnea de crdito. Evaluacin del riesgo en
crditos. Identificacin de falsificaciones. Interpretacin y reconocimiento de firmas.

Manufactura: Control de la produccin y del proceso. Anlisis y diseo de productos.


Diagnstico de fallas en el proceso y maquinarias. Identificacin de partculas en tiempo
real. Inspeccin de calidad mediante sistemas visuales. Anlisis de mantenimiento de
mquinas.
Medicina: Anlisis de clulas portadoras de cncer mamario. Anlisis de
electroencefalograma y de electrocardiograma. Reconocimiento de infartos mediante ECG.
Diseo de prtesis. Optimizacin en tiempos de trasplante. Reduccin de gastos
hospitalarios.
Robtica: Control dinmico de trayectoria. Robots elevadores. Controladores. Sistemas
pticos.
Seguridad: Cdigos de seguridad adaptivos. Criptografa. Reconocimiento de huellas
digitales.
Telecomunicaciones: Compresin de datos e imgenes. Automatizacin de servicios de
informacin. Traslacin en tiempo real de lenguaje hablado.
Transporte: Diagnstico de frenos en camiones. Sistemas de ruteo y seguimiento de flotas.
Voz: Reconocimiento de voz. Compresin de voz. Clasificacin de vocales.
Transformacin de texto escrito a voz.