Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Neuronales (Neurales)
CO-6612
Coordenadas iniciales:
Prof. Minaya Villasana
Oficina: CBI-112
Extension: 906 3386
forma ms fcil (preferida) de contacto: mvillasa@usb.ve
Bibliografia:
Simon Haykin, Neural Networks: A comprehensive
Foundation, Segunda Edicin, Prentince Hall, 1998.
H.
Sistema de Evaluacin:
Proyecto asignado (30%)
Ser una data comn para todos que deben analizar (clasificar,
interpolar) con cierto grado de dificultad asociado. Se espera
que ustedes realicen un analisis profundo de la data y obtener
los mejores resultados.
El proyecto es la ltima entrega del trimestre en semana 11/12
y lo tendrn desde la semana 8/9 (aprox.)
Tareas (50%)
Me gustan mucho las tareas (una especie de adiccin).
Las tareas vencen a las dos semanas de ser entregadas.
INTRODUCCIN A LAS
REDES NEURONALES Y
SUS APLICACIONES
Introduccin
Introduccin
Introduccin
http://www.4colorvision.com/pix/pyramidpix.gif
Introduccin
Introduccin
Ejemplo
Respuesta
Estmulo 1
Estmulo 2
Respuesta
Introduccin
Introduccin
Introduccin
Hopfield network
Kohonen network
Introduccin
Introduccin
MODELO DE UNA
NEURONA
Dendritas:
Pesos sinpticos:
wj
w1
w2
wm
Axn:
Para enviar la
respuesta
Ncleo:
Para procesar la
informacin
Introduccin a las Redes Neuronales Artificiales
( x1 , x 2 , , x m )
Cada entrada del vector corresponde a un estmulo o variable en particular de la cual
se tiene cierta cantidad de observaciones o valores.
Cuando se recibe el estmulo, cada entrada de este es multiplicada por el
correspondiente peso sinptico de la dendrita que recibe dicho valor, y luego cada
uno de estos resultados se suman.
x1
w1
m
x2
xm
w2
w1 x1 + w2 x2 + + wm xm = wj xj
j=1
wm
Este valor se considera como el
estmulo que recibe la neurona
Introduccin a las Redes Neuronales Artificiales
wj x j + b = X tW + b
j= 1
x1
x2
xm
w1
w2
wm
( X tW + b)
El parmetro de sesgo
m
m
wj x j + b = wj x j = X tW
j=1
j= 0
1
x
X = 1
xm
b
w
W = 1
wm
ACERCA DE LA FUNCIN
DE ACTIVACIN
La funcin de activacin
La funcin de activacin
1 si x 0
(x) =
0 si x < 0
La respuesta de la neurona es entonces 1 o 0.
Estos valores se pueden asociar a verdadero o falso y esta condicin
depender de si
X tW b
X tW < b
La funcin de activacin
X tW +b 0
1 =
-1
0 =
-1
X tW +b 0
0
W = 1
1
1
X = x
y
X tW + b = x + y
Introduccin a las Redes Neuronales Artificiales
La funcin de activacin
Ejemplo:
0
1
estmulo X =
1
0
0.8
1
Pesos sinpticos W =
1
0.5
sesgo
b = 1
( 1) = 0
La funcin de activacin
La funcin signo
Esta funcin est definida como
1 si x < 0
( x ) = 0 si x = 0
1 si x > 0
-1
En matlab la funcin se
denomina hardlimits
Introduccin a las Redes Neuronales Artificiales
La funcin de activacin
X tW +b > 0
1 =
-1 =
-1
X tW +b < 0
0 =
-1
X tW +b = 0
X tW + b = x + y
Introduccin a las Redes Neuronales Artificiales
La funcin de activacin
Ejemplo:
0
1
estmulo X =
1
0
0.8
1
Pesos sinpticos W =
1
0.5
sesgo
b = 1
( 1) = 1
La funcin de activacin
La funcin logstica
Esta funcin est definida como
(x ) =
1
1 + exp
( x )
x R, > 0
1.4
=3
1.2
=1
= 0.3
0.8
0.6
0.4
En matlab la funcin se
denomina logsig
0.2
0
-10
-5
10
La funcin de activacin
Ejemplo:
0
1
estmulo X =
1
0
0.8
1
Pesos sinpticos W =
1
0.5
sesgo
b = 1
1
1 + exp
(1)
= 0 . 2689
La funcin de activacin
( x ) = tanh( x / 2) =
1 exp ( x )
1 + exp ( x )
x R, > 0
1.5
=3
=1
0.5
= 0.3
0
-0.5
En matlab la funcin se
denomina tansig
-1
-1.5
-10
-5
10
La funcin de activacin
Ejemplo:
0
1
estmulo X =
1
0
0.8
1
Pesos sinpticos W =
1
0.5
sesgo
b = 1
0 . 76159
La funcin de activacin
La funcin Lineal
Esta funcin est definida como
(x ) = x
xR
3
2
1
1
En matlab la funcin se
denomina purelin
La funcin de activacin
Una regresin lineal simple puede ser vista como la respuesta de una
neurona con funcin de activacin lineal
1
X =
x
1
b
W =
a
X tW = ax+ b
( X tW ) = ax + b
La funcin de activacin
si x 0
0
( x ) = x si 0 x 1
1 si x 1
En matlab la funcin se
denomina satlin (saturating
linear)
Introduccin a las Redes Neuronales Artificiales
La funcin de activacin
si x 1
1
( x ) = x si 1 x 1
1 si x 1
-1
-1
En matlab la funcin se
denomina satlins (symmetric
saturating linear
Introduccin a las Redes Neuronales Artificiales
La funcin de activacin
Estmulo
Respuesta
Umbral o threshold
Signo
-1
logstica
Tangente Hiperblica
0.2689
-0.76159
Lineal
-1
Lineal Acotada
-1
w1
w2
wm
Algoritmos de entrenamiento
Son tcnicas matemticas o heursticas bien establecidas a travs de
los cuales se obtienen los valores de los pesos sinpticos y el
parmetro de sesgo. Estos algoritmos NO modifican la funcin de
activacin elegida para el modelo de red neuronal que se entrena.
Lo que hacen es modificar los pesos sinpticos utilizando el valor
anterior de este mas un factor de correccin
nuevo
=W
viejo
+ W
x1
x2
xm
wk 1
Neuron
wk 2
Yk =k (wkj xj )
wkm
= Constante de aprendizaje
ek = dk Yk =
Error cometido
wkj
Introduccin a las Redes Neuronales Artificiales
xj
w kj
Yk
Neuron
Competitive Learning
En este tipo de algoritmos se establece un mecanismo de competencia
entre las neuronas y la respuesta de la red ante un determinado estmulo
proviene exclusivamente de la neurona ganadora
Wj (t +1) = Wj (t ) + (t ) [ X (t ) Wj (t ) ]
w kj
X (t )
||x-y||
x
y
xTy
Introduccin a las Redes Neuronales Artificiales
Arquitecturas
Arquitecturas
Una capa, feedforward
Multicapa feedforward
Redes recurrentes
Problemas