Documentos de Académico
Documentos de Profesional
Documentos de Cultura
AGy RN
AGy RN
Algoritmos genticos El Perceptrn Descenso por gradiente y regla delta Redes multicapa Retropropagacin
UPM
c 2008 DIT-ETSIT-UPM
transp. 1
Ontognesis Modelos neurocibernticos Filognesis Modelos evolucionistas Al n y al cabo, no hay tantas tcnicas informticas que hayan demostrado su valor a lo largo de 3.000 millones de aos de pruebas de campo (Forsyth, 1986)
UPM
c 2008 DIT-ETSIT-UPM
transp. 2
La evolucin como modelo Primeras ideas: Generacin de mutaciones al azar sobre el cdigo binario de programas (Frieldberg, 1958) Actualmente, nfasis en otros mecanismos genticos, p. ej., entrecruzamiento de genes (crossover) Computacin evolucionista:
reproduccin mutaciones
Algoritmos genticos:
individuos = cadenas de bits Programacin gentica: individuos = rboles sintcticos de los programas
Aprendizaje: Algoritmos genticos y redes neuronales transp. 3
UPM
c 2008 DIT-ETSIT-UPM
Optimizacin con algoritmos genticos Problema: encontrar el mximo/mnimo de f (x1, . . . xn) Poblacin: valores de (x1, . . . xn) en binario (cromosomas) Operadores genticos:
Mutacin (cambio de un bit con probabilidad pequea) Seleccin de las parejas reproductoras (probabilidad
proporcional al valor de la funcin)
Mutacin:
La medida de bondad o fuerza depende de la aplicacin: Clasicacin: fallo o acierto Prediccin: cercana al valor Control: resultado de la accin de control
UPM
c 2008 DIT-ETSIT-UPM
transp. 5
Reglas padres: [A1=valor11][A2=valor12] [R=R1] [A1=valor21][A2=valor22] [R=R2] Codicacin: A1 A2 R 111 001 00 010 101 11
11100100 01010111
Aplicacin:
mscara: 00011110 11110110 01000101
UPM
c 2008 DIT-ETSIT-UPM
transp. 6
Sistema GABIL (DeJong et al., 1993) Poblacin: {reglas de orden 0+} Evaluacin de reglas: f (r) = porcentaje de ejemplos correctamente clasicados por r En cada generacin, p reglas (constante)
Seleccin aleatoria de (1 t) p reglas de la poblacin actual para aadir a la siguiente, con probabilidad:
P(ri) =
f (ri) p j=1 f (r j )
Entrecruzamiento entre t p/2 pares de reglas de la poblacin actual (seleccionadas con la misma funcin), aadiendo el resultado a la siguiente Mutacin de m p reglas (con probabilidad uniforme) de la poblacin resultante
UPM
c 2008 DIT-ETSIT-UPM
transp. 8
GABIL: algoritmo
UPM
c 2008 DIT-ETSIT-UPM
transp. 9
e 1 e n i 1 i m
s=1 si ( ej U) y ( i k = 0)
e, i, s binarias U (umbral) entero
UPM
c 2008 DIT-ETSIT-UPM
transp. 10
x x x 1 2 3
x x x 1 2 3
x +x +x 1 2 3
x x x 1 2 3
McCulloch, W. and Pitts, W. (1943): A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 7:115 - 133.
UPM
c 2008 DIT-ETSIT-UPM
transp. 11
w1 wn
s = 1 si y > 0 s = 1 si y <= 0
xn
UPM
c 2008 DIT-ETSIT-UPM
transp. 13
x n algoritmo de aprendizaje
Condicin de convergencia: separabilidad lineal en el espacio (x1, x2, . . . xn) Minsky y Papert (1969)
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genticos y redes neuronales transp. 14
Descenso (o ascenso) por gradiente: principio Mtodo clsico para optimizacin: hill climbing Neurona lineal: s(x) = y(x) = w x Error de una hiptesis, w :
E
E(w) =
w 2
w 1
E =
E E . . . wn w0
w = K E
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genticos y redes neuronales transp. 15
E(w) =
1 (re se)2; 2 e
E =
E E w0 . . . wn
w = K E
Como se = w xe,
UPM
c 2008 DIT-ETSIT-UPM
transp. 16
UPM
c 2008 DIT-ETSIT-UPM
transp. 17
Iteracin sobre los ejemplos, modicando wi para cada uno Algoritmo (igual al del Perceptron, pero re, se [0, 1]):
UPM
c 2008 DIT-ETSIT-UPM
transp. 18
Delta aproxima Gradiente para K sucientemente pequeo, y requiere menos computacin Si hay varios mnimos (funciones no lineales), Delta mejor que Gradiente para evitar mnimos locales Perceptron usa el error (discreto) a la salida del umbral; Gradiente/Delta, el error (continuo) de la combinacin lineal de entradas Perceptron converge tras un nmero nito de iteraciones a una hiptesis (w) que clasica perfectamente los ejemplos siempre que stos sean linealmente separables Gradiente/Delta convergen asintticamente a una hiptesis de mnimo error (local) aunque los ejemplos no sean linealmente separables (Demostraciones en Hertz et al., 1991)
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genticos y redes neuronales transp. 19
UPM
UPM
c 2008 DIT-ETSIT-UPM
transp. 20
Perceptron y otras funciones de activacin con una sola capa: limitacin por la condicin de separabilidad lineal Se pueden conseguir supercies no lineales con una red de varias capas? Para funciones lgicas, s (ejemplo tpico: ORX) Pero no con el algoritmo del gradiente ni la regla delta: la red seguira siendo lineal Con funciones de activacin no lineales? (como el Perceptron) Nuestra opinin personal es que la extensin es estril (Minsky y Papert, 1969: 1958 + 11)
UPM
c 2008 DIT-ETSIT-UPM
transp. 21
UPM
c 2008 DIT-ETSIT-UPM
transp. 22
El entrenamiento de redes multicapa Problema para el diseo de una estrategia de aprendizaje: asignacin de mrito (credit assignment) Mrito (o culpa, o responsabilidad) de un peso (wi j ): E medida de su contribucin al error global ( w )
ij
Dicultad con el Perceptron: la funcin de activacin no es diferenciable Se necesita una neurona con funcin de activacin
UPM
c 2008 DIT-ETSIT-UPM
transp. 23
("net ") j
ds dy
= s(y) (1 s(y))
1 = y j ( 2 (r j s j)2) = (r j s j) y jj = (r j s j ) s j (1 s j )
wi j = K j xi j , con j = (r j s j ) s j (1 s j )
Pero r j slo se conoce en la capa de salida
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genticos y redes neuronales transp. 24
j = Ee y j
Para la funcin de activacin sigmoidal resulta: En neuronas de salida: l = sl (1 sl ) (rl sl ) En neuronas de la capa anterior a la de salida, como no se conoce rh se estima el mrito en funcin de la contribucin de las siguientes: h = sh (1 sh) l (whl l ) En neuronas de la capa c, igual:
h = sh (1 sh)
r: capa c+1
(whr r )
transp. 27
En el caso de una sola capa, hemos terminado (falta cerrar el bucle de ejemplos y la condicin de terminacin) En el caso de varias capas falta lo ms interesante: propagar hacia atrs los errores, modicando los pesos convenientemente
UPM
c 2008 DIT-ETSIT-UPM
transp. 28
Atribuido generalmente a Rumelhart, Hinton y Williams (1985) Idea original de Werbos (1974) redescubierta por Parker (1982) (Widrow, Proc. IEEE, Sep. 1990)
UPM
c 2008 DIT-ETSIT-UPM Aprendizaje: Algoritmos genticos y redes neuronales transp. 29
Aplicaciones de retropropagacin: ejemplo Una capa oculta: supercies convexas Dos capas ocultas: supercies arbitrarias Ejemplo: reconocimiento de 10 sonidos vocales en el contexto h_d (Huang y Lippmann, 1988)
4000
head
heed
hid
2000 F2 (Hz)
1000
F 2
hud hod
whod
500 0 500
hawed
1000 F1 (Hz) 1400
hood
UPM
c 2008 DIT-ETSIT-UPM
transp. 30
SNNS (Stuttgart Neural Network Simulator) Simulador y GUI para Unix (portado tambn a Windows) Incluye muchos algoritmos, adems de retropropagacin: conterprop, quickprop, Rprop...
JavaNNS Sucesor de SNNS, multiplataforma
UPM
c 2008 DIT-ETSIT-UPM
transp. 31