Está en la página 1de 1

Redes neuronales

martes, 16 de octubre de 2012 07:31 a.m.

- La red backpropagation (Retropropagacion) . Funcin de activacin sigmoidal

i xi

j Salida

eso

Siguiendo el algoritmo: x1 i
11 x1 w21,11 x2 w21,12

x2
12

Capa de entrada

Patrones de entrenamiento para la red neuronal:

Paso 1: inicializar los pesos con valores pequeos aleatorios. (-1/3 a 1/3) o (-0.5 a 0.5) W21,11= 0.21 W31,12= 0.12 W21,12= 0.01

X1
p=1

X2 1 0 1
0

d 1 0 0
0

1 1 0
0

21 y21
de21

Capa oculta

Paso 2: presentar patrones de entrenamiento X1=1 x2=1 d=1 Paso 3: calcular la salida net21 =x1*w21,11 + x2*w21,12 Y21 = 1/(1+e^-net21) net31 = y21*w31,21 Y31 = 1/(1+e^-net31) Paso 4: calcular los trminos de error de31 = (d-y31)*y31(1-y31) de21 = y21(1-y21)*[de31*w31,21] *ojo: si al costado de la neurona 31 habra una neurona 32 de21 = y21*(1-y21)*[de31*w31,21+de32*w32,21] Paso 5: Actualizacin de pesos w31,21 = w31,21+alfa*de31*y21+beta(...) W21,11 = w21,11+alfa*de21*x1+beta(...) W21,12 = w21,12+alfa*de21*x2+beta(...)
*se agrega el beta para encontrar mnimos globales, y acelerar el aprendizaje

w31,21

k
de31

31

Capa de salida

Y31 = 0.45 (suponiendo que hemos resuelto la expresin)

Paso 6: Calcular el error E1 = 1/2*(de31^2) < 10-6 REALICE DESDE EL PASO 2 HASTA EL PASO 6 CON EL PATRON 2 REALICE DESDE EL PASO 2 HASTA EL PASO 6 CON EL PATRON 3 REALICE DESDE EL PASO 2 HASTA EL PASO 6 CON EL PATRON 4

Segundo Parcial pgina 1

También podría gustarte