Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Organización
Un poco de historia...
Perceptrón multicapa
Organización
Un poco de historia...
Perceptrón multicapa
Notas históricas
Organización
Un poco de historia...
Perceptrón multicapa
Perceptrón A: x2 = −1 − x1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
wA0 wA1
Perceptrón A: x2 = −1 − x1 = wA2 − wA2 x1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón A: x2 = −1 − x1 = wwA0
A2
− wwA1
A2
x1
wA0 = −1
→ wA1 = +1 → yA = sgn(x2 + x1 + 1)
wA2 = +1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón A: x2 = −1 − x1 = wwA0
A2
− wwA1
A2
x1
wA0 = −1
→ wA1 = +1 → yA = sgn(x2 + x1 + 1)
wA2 = +1
Perceptrón B: x2 = +1 − x1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón A: x2 = −1 − x1 = wwA0
A2
− wwA1
A2
x1
wA0 = −1
→ wA1 = +1 → yA = sgn(x2 + x1 + 1)
wA2 = +1
Perceptrón B: x2 = +1 − x1
wB0 = +1
→ wB1 = +1 → yB = sgn(x2 + x1 − 1)
wB2 = +1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón C: yA = +1 + yB
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón C: yA = +1 + yB
wC0 = +1
→ wC1 = −1 → yC = sgn(yA − yB − 1)
wC2 = +1
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón C: yA = +1 + yB
wC0 = +1
→ wC1 = −1 → yC = sgn(yA − yB − 1)
wC2 = +1
¿Cómo es la arquitectura
de esta red neuronal?
yA = sgn(x2 + x1 + 1)
→ yC = sgn(yA − yB − 1)
yB = sgn(x2 + x1 − 1)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Perceptrón C: yA = +1 + yB
wC0 = +1
→ wC1 = −1 → yC = sgn(yA − yB − 1)
wC2 = +1
¿Cómo es la arquitectura
de esta red neuronal?
yA = sgn(x2 + x1 + 1)
→ yC = sgn(yA − yB − 1)
yB = sgn(x2 + x1 − 1)
¿Resuelve el problema XOR?
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Organización
Un poco de historia...
Perceptrón multicapa
• Concepto:
Mover los pesos en la dirección en que se reduce el error,
dirección que es opuesta a su gradiente con respecto a los
pesos
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
• Concepto:
Mover los pesos en la dirección en que se reduce el error,
dirección que es opuesta a su gradiente con respecto a los
pesos
• Interpretación gráfica
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
• Concepto:
Mover los pesos en la dirección en que se reduce el error,
dirección que es opuesta a su gradiente con respecto a los
pesos
• Interpretación gráfica
• Ecuación básica:
• Concepto:
Mover los pesos en la dirección en que se reduce el error,
dirección que es opuesta a su gradiente con respecto a los
pesos
• Interpretación gráfica
• Ecuación básica:
• Aplicación:
• Caso sencillo: perpectrón simple (least mean squares)
• Caso más general: perceptrón multicapa
(back-propagation)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Organización
Un poco de historia...
Perceptrón multicapa
• Capa I:
N
vIj = wI , x =
P
wIji xi (completo vI = Wx)
i=0
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
• Capa I:
N
vIj = wI , x =
P
wIji xi (completo vI = Wx)
i=0
2
yIj = φ(vIj ) = I − 1 (simétrica ± 1)
1 + e−bvj
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
• Capa I:
N
vIj = wI , x =
P
wIji xi (completo vI = Wx)
i=0
2
yIj = φ(vIj ) = I − 1 (simétrica ± 1)
1 + e−bvj
• Capa II:
vIIj = wII , yI
→ yIIj = φ(vIIj )
• Capa III:
vIII
III II
j = w ,y → yIII III
j = φ(vj ) = yj
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Criterio de error
M
1X 2
ξ(n) = e (n)
2 j=1 j
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n)
∆wji (n) = −µ ∂w ji (n)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n)
∆wji (n) = −µ ∂w ji (n)
∂ξ(n)
∆wji (n) = −µ ∂w ji (n)
N
P
∂ wji (n)yi (n)
∂vj (n) i=0
= = yi (n)
∂wji (n) ∂wji (n)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n)
∆wji (n) = −µ ∂w ji (n)
n o
2
∂yj (n) ∂ −1
1+e−vj (n)
=
∂vj (n) ∂vj (n)
e−vj (n)
= 2 2
1 + e−vj (n)
1 e−vj (n)
= 2
1 + e−vj (n) 1 + e−vj (n)
0
z }| {
1 −1 + 1 +e−vj (n)
= 2
1 + e−vj (n) 1 + e−vj (n) !
1 −1 1 + e−vj (n)
= 2 +
1 + e−vj (n) 1 + e−vj (n) 1 + e−vj (n)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂yj (n) 1 1
= 2 1−
∂vj (n) 1 + e−vj (n) 1 + e−vj (n)
yj (n) + 1 yj (n) + 1
= 2 1−
2 2
yj (n) + 1
= (yj (n) + 1) 1 −
2
2 − yj (n) − 1
= (yj (n) + 1)
2
1
= (yj (n) + 1)(yj (n) − 1)
2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Organización
Un poco de historia...
Perceptrón multicapa
∆wIII III II
ji (n) = µδj (n)yi (n)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∆wIII III II
ji (n) = µδj (n)yi (n)
∂ξ(n) 1
δjIII (n) = − (1 + yIII III
j (n))(1 − yj (n))
∂yIII
j (n) 2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∆wIII III II
ji (n) = µδj (n)yi (n)
∂ξ(n) 1
δjIII (n) = − (1 + yIII III
j (n))(1 − yj (n))
∂yIII
j (n) 2
n P o n o
1 2
∂ 2 j ej (n) ∂ djIII (n) − yIII
j (n)
δjIII (n) = − · ·
∂ej (n) ∂yIII
j (n)
1
· (1 + yIII III
j (n))(1 − yj (n))
2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
n P o n o
1 2
∂ 2 j ej (n) ∂ djIII (n) − yIII
j (n)
δjIII (n) = − · ·
∂ej (n) ∂yIII
j (n)
1
· (1 + yIII III
j (n))(1 − yj (n))
2
n P o n o
1 2
∂ 2 j ej (n) ∂ djIII (n) − yIII
j (n)
δjIII (n) = − · ·
∂ej (n) ∂yIII
j (n)
1
· (1 + yIII III
j (n))(1 − yj (n))
2
∂ξ(n) 1
δjII (n) = − (1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n) 1
δjII (n) = − (1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
1 P 2
∂ k ek (n) 1
δjII (n) =− 2
(1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n) 1
δjII (n) = − (1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
1 P 2
∂ k ek (n) 1
δjII (n) =− 2
(1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
1 X ∂e2 (n) 1
δjII (n) = − k
(1 + yIIj (n))(1 − yIIj (n))
2 ∂yIIj (n) 2
k
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
∂ξ(n) 1
δjII (n) = − (1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
1 P 2
∂ k ek (n) 1
δjII (n) =− 2
(1 + yIIj (n))(1 − yIIj (n))
∂yIIj (n) 2
1 X ∂e2 (n) 1
δjII (n) = − k
(1 + yIIj (n))(1 − yIIj (n))
2 ∂yIIj (n) 2
k
X ∂ek (n) 1
δjII (n) = − ek (n) II (1 + yIIj (n))(1 − yIIj (n))
∂yj (n) 2
k
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
X 1
δjII (n) = − ek (n)·(−1) · (1 + yIII III
k (n))(1 − yk (n)) ·
2
k
1
·wIII II II
kj · (1 + yj (n))(1 − yj (n))
2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
X 1
δjII (n) = ek (n) · (1 + yIII III III
k (n))(1 − yk (n)) · wkj ·
2
k
1
· (1 + yIIj (n))(1 − yIIj (n))
2
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
X 1
δjII (n) = ek (n) · (1 + yIII III III
k (n))(1 − yk (n)) · wkj ·
2
k
1
· (1 + yIIj (n))(1 − yIIj (n))
2
X 1
δjII (n) = ek (n) · (1 + yIII III III
k (n))(1 − yk (n)) · wkj ·
2
k
1
· (1 + yIIj (n))(1 − yIIj (n))
2
Reemplzando:
X 1
δjII (n) = δkIII (n)wIII II II
kj · (1 + yj (n))(1 − yj (n))
2
k
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Volviendo a:
Volviendo a:
Por lo tanto:
∆wIIji (n) δkIII wIII (1 + yIIj (n))(1 − yIIj (n))yIi (n)
P
=η kj (n)
k
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
" #
X
∆wIIji (n) = η δkIII wIII II II I
kj (n) (1 + yj (n))(1 − yj (n))yi (n)
k
D E
(p) (p+1) (p) (p) (p−1)
∆wji (n) = η δ (p+1) , wj (1 + yj (n))(1 − yj (n))yi (n)
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
1. Inicialización aleatoria
2. Propagación hacia adelante (de la entrada)
3. Propagación hacia atras (del error)
4. Adaptación de los pesos
5. Iteración: vuelve a 2 hasta convergencia o finalización
Introducción XOR Entrenamiento ∇ PS Perceptrón multicapa Retropropagación
Término de momento