Está en la página 1de 11

Redes Neuronales

Método de aprendizaje automático basado en el funcionamiento del


cerebro.
Las células llamadas neuronas son una unidad de procesamiento que
recibe un estimulo eléctrico de otras neuronas principalmente a través
de su árbol dendrítico.
El estimulo eléctrico recibido al pasar de un cierto umbral causa que la
neurona a su vez imprima una señal eléctrica a través de su axón a
otras neuronas.

Redes Neuronales
Modelo biológico: Modelo matemático:

• El cerebro tiene unas 1010 neuronas


• Conexiones por neurona: 104-5
• Tiempo de activación/desactivación 0.001 seg.
• Tiempo en reconocer una cara 0.1 seg
• Computación paralela!
Redes Neuronales
Historia:
1943 - Warren McCulloch y Walter Pitts, primer modelo.
1962 - Widrow & Hoff desarrollan un método de aprendizaje.
1963-1980 olvidadas
1980- Múltiples aplicaciones y diferentes modelos

Redes Neuronales

z Funciones lineales: f(x) = x.


z Funciones paso: Dan una salida binaria
dependiente de si el valor de entrada está por
encima o por debajo del valor umbral.
z Funciones sigmoidales: Funciones
monótonas acotadas que dan una salida
gradual no lineal.
Redes Neuronales
z Perceptrón simple:
z Un perceptrón calcula la suma
ponderada de los valores de entrada.
z Por simplicidad, suponemos que
tenemos dos valores de entrada, x e y
para un perceptrón P. Sean los pesos
A y B, por tanto la suma ponderada
será:
z A x + B y.
z Podemos escribir que la salida del
perceptrón no sea cero si la suma
ponderada excede de un valor C:
z Salida de P= 1 if A x + B y > C
0 if A x + B y < = C

Redes Neuronales
z Por tanto A x + B y > C y A x + B y < C son dos regiones en el plano
x y separados por la línea A x + B y + C = 0.
z Si consideramos la entrada (x,y) como un punto del plano entones
el perceptrón nos dice a que región del plano pertenece el punto de
entrada. Estas regiones, se llaman linealmente separables.
z Este resultado es útil ya que algunas funciones lógicas como AND,
OR o NOT son operadores linealmente separables por D. Es cedir
se pueden representar utilizando un perceptrón simple

• El XOR no es linealmente separable, por tanto necesitamos de


más perceptrones para poder representarlo
Redes Neuronales
Red neuronal multicapa:
Cada perceptrón está conectado a todos
los demás de la siguiente capa.
Las capas ocultas no están conectadas
al exterior.
No hay conexión entre las neuronas de
la misma capa.

Redes Neuronales
z Unión de diferentes regiones linealmente
separables.
z Fase de Aprendizaje y Fase de prueba.
z Modificación de los pesos entre las uniones de las
diferentes neuronas.
Redes Neuronales
z Fase de Aprendizaje: Aprenden por la actualización o cambio de
los pesos sinápticos que caracterizan a las conexiones.
z Los pesos son adaptados de acuerdo a la información extraída de
los patrones de entrenamiento nuevos que se van presentando.
Normalmente, los pesos óptimos se obtienen optimizando
(minimizando o maximizando) alguna "función de energía". Por
ejemplo, un criterio popular en el entrenamiento supervisado es
minimizar el least-square-error (error cuadratico medio) entre el
valor deseado y el valor de salida de la red.
z Aprendizaje supervisado vs Aprendizaje no-supervisado.
z Fase de Prueba: Una vez calculados los pesos de la red, las
neuronas de la última capa se comparan con la salida deseada para
determinar la validez del diseño.

Redes Neuronales

z Aprendizaje: ¿Cómo se pueden obtener los


pesos adecuados para “aprender" un conjunto
de patrones?
Redes Neuronales

z Aprendizaje Hebbiano: Inicialmente se eligen


valores aleatorios para los pesos. La idea del
aprendizaje Hebbiano es modificar los pesos
acorde a la correlación entre las unidades.

Redes Neuronales

z Descenso de Gradiente:
Inicialmente se eligen valores
aleatorios para los pesos. La idea
de este método es utilizar un
proceso iterativa que minimice la
función de error.
z En el caso lineal f(x) =x
z En general se tiene:

Donde η es el parámetro de aprendizaje


Redes Neuronales
z Aprendizaje del preceptrón multicapa:
z El método más popular de aprendizaje se denomina
retro-propagación (back-propagation) y está basado
en minimizar la función de error mediante un método
de descenso de gradiente.

Redes Neuronales

z Los pesos de correspondientes a las


neuronas de la capa de salida yi = f(yi) son
modificados considerando los valores de las
neuronas ocultas hi = f(hi).
Redes Neuronales

Redes Neuronales
Redes Neuronales

z Aplicaciones: Reconocimiento de patrones

Redes Neuronales

z Aprendizaje de
comportamientos, eventos.
Seguimiento, seguridad,
etc..
Redes Neuronales

z Simulación del
movimiento de
objetos (juegos,
realidad virtual, etc..)

Redes Neuronales

zPredicción de series de datos:


{Meteorológica
{Bolsa
{Medicina
{Créditos
Redes Neuronales
Reconocimiento de caras

Redes Neuronales

z Aplicaciones Industriales