Documentos de Académico
Documentos de Profesional
Documentos de Cultura
• Procesamiento paralelo
• Intervención de miles de millones de neuronas
• Memoria distribuida
• En un computador la información está en posiciones de memoria bien
definidas
• En redes neuronales biológicas la información está distribuida por la sinapsis
de la red
• Redundancia para evitar pérdida de información al resultar dañada una
sinapsis
• Adaptabilidad al entorno
• Por medio de la información de las sinapsis
• Aprender de la experiencia
• Posible generalizar conceptos a partir de casos particulares
• Neuronas todo-nada
n
X
fi ( wij xj − θi ) = fi (hi ) es una función escalonada
j=1
n
X
1 wij xj ≥ θi
si
j=1
yi = Xn
0 si wij xj < θi
j=1
1
yi = , con yi ∈ [0, 1]
1+e− (hi )
e(hi ) − e− (hi )
yi = , con yi ∈ [−1, 1]
(h )
e i +e − (hi )
y = (y1 , . . . , ym ) = W x = W (x1 , . . . , xn )
X n
o bien yi = wij xj , con i = 1, . . . , m
j=1
• Potencial pos-sináptico por medio de la suma ponderada,
posteriormente una función de activación identidad
D = {(xr , yr ), r = 1, . . . , N }
new old r
wij = wij + ∆wij
r
con ∆wij = εyir xrj
Tema 14: Redes Neuronales– p. 21/49
El Asociador Lineal
• Deducir los algoritmos de aprendizaje a partir de un cierto criterio
a optimizar
• Proponer un criterio que mida el rendimiento de la red neuronal
para encontrar una regla de actualización de pesos que la
optimice
• Error cuadrático medio de las salidas actuales de la red respecto
de las deseadas
N N X m X n
1 X r 1 X
||y − W xr || = (yir − W xrj )2
N r=1 N r=1 i=1 j=1
N N m n
1 X 1 XXX r
r r
||y − W x || = (yi − W xrj )2
N r=1 N r=1 i=1 j=1
con i = 1, . . . , m
• Neuronas de entrada son discretas
• Función de activación de las neuronas de la capa de salida es de
tipo escalón
• Dispositivo entrenable: determinar automáticamente los pesos
sinápticos que clasifican un conjunto de patrones etiquetados
Tema 14: Redes Neuronales– p. 24/49
El Perceptrón Simple
entrada
• Actualización de pesos:
• Si ante la presentación del r-ésimo patrón la respuesta que
proporciona el perceptrón simple es correcta, no
actualizaremos los pesos
• Si la respuesta es incorrecta los pesos se modificarán según
la regla de Hebb
• Es decir:
2εc r x r si yi r 6= ci r
r i j
∆wij (t) =
0 si yi r = ci r
r
∆wij (t) = ε(ci r − yi r )xj r
r
∆wij (t) = ε(ci r − yi r )xj r
con i = 1, . . . , m
• θi , bias, parámetro que proporciona un grado de libertad adicional
al modelo (no umbral de disparo)
E : IR(n×m)+m −→ IR
(w11 , . . . , w1n , . . . , wm1 , . . . , wmn , θ1 , . . . , θm ) −→ E(w11 , . . . , w1n , . . . , wm1 , . . . , wmn , θ1 , . . . , θm )
N r N
∂E(wij )
X
1 dy X
=− 2 (cri − yir ) i
=− (cri − yir ) xrj
∂wij 2 r=1
dwij r=1
N
∂E(wij ) X
∆wij = −ε =ε (cri − yir ) xrj
∂wij r=1
multicapa con una capa oculta (en medio) y el perceptrón multicapa cn dos capas
ocultas (abajo)
Tema 14: Redes Neuronales– p. 44/49
El Perceptrón Multicapa
• xi con i = 1, . . . n neuronas de entrada de la red
o o n
!
X X X
′
zk = wkj yj − θk′ = ′
wkj f wji xi − θj − θk′
j=1 j=1 i=1
• E(w, w′ , θ, θ′ ) = 1 N
P Pm r r 2
2 r=1 k=1 (c k − z k )
o o Pn
con zk = j=1 wkj yj − θk = j=1 wkj f ( i=1 wji xri − θj ) − θk′
r r
P ′ ′
P ′
N
X
∆wji = ε ∆rj xri
r=1 !
n
X
o
∂f wji xri − θj
X i=1
r r
con ∆j = ck −
′
wkj yjr − θk′ wkj
′
n
!
j=1
X
∂ wji xri − θj
i=1