Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A2 Perceptron
A2 Perceptron
1 si w1 x1 w2 x2 ... wn xn
y f ( x1 , x2 ,..., xn )
w1 1 si w1 x1 w2 x2 ... wn xn
x1
w2
x2 y
w3
x3 w1 x1 w2 x2
w1 x1 w2 x2
w1 x1 w2 x2
Funcin paso o De Heaviside Funcin signo
Qu se pretende con el Perceptrn?
Se dispone de la siguiente informacin:
Conjunto de patrones {xk}, k = 1,2,,p1 , de la clase C1 (zk = 1)
Conjunto de patrones {xr}, k = p1+1,...,p , de la clase C2 (zr = -1)
error
w j (k ) 2x j (k ) si y (k ) 1 y z (k ) 1,
tasa de
w j (k 1) w j (k ) si y (k ) z (k )
aprendizaje
w j (k ) 2x j (k ) si y (k ) 1 y z (k ) 1
Cmo se modifica el sesgo ?
w2
y w1 x1 w2 x2 ... wn xn (1) 0
x2
w3
x3
1
k (k ) z k y k
Algoritmo del Perceptrn
Paso 0: Inicializacin
Inicializar los pesos sinpticos con nmeros aleatorios del intervalo [-1,1].
Ir al paso 1 con k=1
Paso 1: (k-sima iteracin)
n 1
Calcular
y (k ) sgn w x j j (k )
j 1
Paso 2: Correccin de los pesos sinpticos
Si z(k) y(k) modificar los pesos sinpticos segn la expresin:
w j k 1 w j k z i k y i k x j k , j 1,2,..., n 1
Paso 3: Parada
Si no se han modificado los pesos en las ltimas p iteraciones, es decir,
w j (r ) w j (k ), j 1,2,..., n 1, r k 1,..., k p
parar. La red se ha estabilizado.
(1, 1)
1 1
(1,1)
1
Paso 0: Inicializacin aleatoria
w1 = 0.4, w2 = 0.2, = 0.6,
Disea un perceptrn que implemente la funcin
lgica AND
0.3
1
0.2
1 y
0.6
1
Paso 1:
Patrn de entrada (1,1): h 0.3(1) 0.2(1) 0.6(1) 1.1
0.4
1
Paso 1:
Patrn de entrada (1,1): h 0.7(1) 0.8(1) 0.4(1) 0.5
0.4
1
Paso 1:
Patrn de entrada (1,1): h 0.7(1) 0.8(1) 0.4(1) 0.3
0.6
1
Paso 1:
Patrn de entrada (1,1): h 0.3(1) 1.8(1) 0.6(1) 2.1
0.4
1
Paso 1:
Patrn de entrada (1,1): h 1.3(1) 0.8(1) 0.4(1) 0.1
Paso 1:
Patrn de entrada (1,1): h 1.3(1) 0.8(1) 0.4(1) 0.1
Problema XOR
Entradas Salidas
(1, 1) 1
(1, 1)
1
(1, 1)
1
(a) (b)
(1,1)
1
Conjuntos separables linealmente
Teorema de convergencia del Perceptrn
Si el conjunto de patrones de entrenamiento con sus salidas deseadas,
{x1 ,z1}, {x2 ,z2},,{ xp ,zp},
es linealmente separable entonces el Perceptrn simple encuentra una
solucin en un nmero finito de iteraciones
Demostracin
j 1
si son de la clase C1
w x
j 1
*
j j wn1 si son de la clase C2
Demostracin
w k 1 w w (k ) z (k ) y(k ) x (k ) w
n 1 n 1
* 2 * 2
j j j j j
j 1 j 1
n 1 n 1 n 1
wj k w * 2
z k y k x k 2 z k y k w j k w*j x j k
2 2 2
j j
j 1 j 1 j 1
n 1 n 1
2 z k y k ( w j (k ) x j k ) 2 z k y k w*j x j k
j 1 j 1
n 1 n 1
2 wj k x j k 2 w*j x j k
j 1 j 1
wj k w
n 1 n 1 n 1
* 2
4 x k 0 4 w*j x j k
2 2
j j
j 1 j 1 j 1
Demostracin
w k 1 w w k w
n 1 n 1 n 1 n 1
j 1
j
* 2
j
j 1
j
* 2
j 4 2
x k
j 1
j
2
4 w*j x j k
j 1
w k 1 w w k w
n 1 n 1
* 2 * 2
4 2 L 4T n 1
j 1
j j
j 1
j j
T min
1 k p
j x j k
w *
j 1
n 1
x k
2
L max j
1 k p
j 1
w k 1 w w k w
n 1 n 1
* 2 * 2
j j j j 4 (L T )
j 1 j 1
w k 1 w w k w
n 1 n 1
* 2 * 2
Si L T 0 j j j j
j 1 j 1
T
L
Tasa de aprendizaje ptima
Se trata de elegir de la tasa de aprendizaje manera que se
produzca un mayor decrecimiento del error en cada iteracin
n 1
D k 1 w j k 1 w*j
2
j 1
E n 1 n 1 n 1
8 x j k 4 w j k x j k 4 w*j x j k 0
2
j 1 j 1 j 1
n 1 n 1
w kx k w x k
j 1
j j
j 1
*
j j
opt n 1
2 x j k
2
j 1
Tasa de aprendizaje ptima
n 1 n 1 n 1
w kx k w x k
j 1
j j
j 1
*
j j w kx k j j
opt ~opt
j 1
n 1 n 1
2 x j k
xj k
2 2
j 1
j 1
n 1 n 1
2 w j (k ) x j k z k y k w j (k ) x j k
j 1 j 1
n 1
z (k ) y (k ) w j k x j k
~opt n 1
j 1
2 x j k
2
j 1
Regla de aprendizaje normalizada
n 1
z k y k w j k x j k
w j (k 1) w j k n 1
j 1
z k y k x j k
2 x j k
2
j 1
n 1
w kx k j j
w j (k 1) w j k 2 xj k
j 1
n 1
x k
2
j
j 1
Regla de aprendizaje normalizada
n 1
w (k 1) w j (k 1) 2
2
j 1
2
n 1
n 1
n 1 n 1
w j (k ) x j (k ) w j (k ) x j (k ) n 1
w j (k ) x j (k ) 2
w
j 1 j 1
2 2
4 (k ) x j (k )
n 1 n 1 j
j 1 j 1
x j (k ) 2 x j (k ) 2 i 1
j 1 j 1
n 1
w j (k ) 2 1
j 1
Interpretacin de la regla de aprendizaje del
Perceptrn
n 1
w x wj x j 0
T
x C1
j 1
y sgn(w T x) z , x C1 C 2
n 1
w x w j x j 0 x C2
T
j 1
a(k) w(k+1)
a(k)
(a(k )) w (k ) 0
T
w(k)
(a(k ))T w (k ) 0
Deduccin de la regla de aprendizaje
La regla de aprendizaje del Perceptrn intenta encontrar una
solucin w* para el siguiente sistema de desigualdades:
a( k ) T w 0 k =1,2,,p
Funcin criterio: J (w ) a ( k
kI ( w )
) T
w
Paso 0: Inicializacin
Inicializar los pesos sinpticos con nmeros aleatorios del
intervalo [-1,1]. Fijar un valor de parada s. Ir al paso 1 con k=1
w (k 1) w (k ) (k ) a( k )
kI ( w )
Paso 2: Parada
Si (k ) a( k ) s
kI ( w )
parar.
Paso 1 w (k 1) w (k ) (k )a(k )
Una modificacin: La Regla del Bolsillo
x , x
1 2
,..., x p 1 p k N 1
2
1 p k
E z y k 2
z w j ( k ) x kj
z , z
1 2
,..., z
p 2 k 1 2 k 1 j 1
La ADALINA
Aprendizaje individualizado: 2
p p N 1
1 1
z k y k z k w j (k ) x j
2
E k
2 k 1 2 k 1 j 1
wr (k 1) wr (k ) wr (k )
E
z k y (k ) x rk wr (k )
wr (k )
La ADALINA
Aprendizaje por lotes: 2
k
p p N 1
1 1
z k y k z w j x j
2
E k
2 p k 1 2 p k 1
j 1
wr (k 1) wr (k ) wr (k )
E
wr (k )
wr (k )
1 p k
z y (k ) x kj
p k 1
Neuronas con salida continua:
1
g x
1 exp 2 x
e x e x
g x tanh x x
e e x
Neuronas con salida continua:
2
p p N 1
1 1
z k y k z k g ( w j (k ) x kj )
2
E
2 k 1 2 k 1 j 1
E
w j (k )
w j (k )
z k y (k ) g ' h x kj
Neuronas con salida continua:
2
k
p p N 1
1 1
y k
2
E z k
z g ( w x k
)
2 p k 1 2 p k 1 j j
j 1
E
w j 1 p k
z y (k ) g ' (h) x kj
w j p k 1