Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Diapositivas Redes Neuronales-Algoritmos Geneticos PDF
Diapositivas Redes Neuronales-Algoritmos Geneticos PDF
1. El Perceptron
2. Descenso por gradiente
3. Regla Delta
4. Redes multicapa
5. Funciones de activación
6. Retropropagación
7. Computación evolucionista
e
1
e
s=1 si ( e U) y ( i = 0)
n i j
i
1 U
i
m
El modelo simula:
Sinapsis excitadoras e inhibidoras
Umbral de excitación
Sumación espacial
x x x
1 1 1
x 3 x ·x ·x x 2 x ·x ·x x 1 x +x +x
2 1 2 3 2 1 2 3 2 1 2 3
x x x
3 3 3
x
1 1
1
x x
x 1 2
1 1 x ·x ·x x ·x ·x 1 x ·x +x ·x
1 1 2 3 1 2 1 2
1 2 3 x x
x 2 1
2 1 1
x x
x 3 2
3
x0=-1
x w
1 w 0
1
y= w ·x s = 1 si y > 0
i i
s = -1 si y <= 0
w
n
x
n
Conjunto de entrenamiento:
E x1 x2 xn r r
1 1
Regla de entrenamiento (refuerzo):
Si s 1 y r 1 aumentar los w i correspondientes a xi 0y
reducir los correspondientes a xi 0
Si s 1 y r 1 reducir los wi correspondientes a xi 0y
aumentar los correspondientes a xi 0
c 2002 DIT-ETSIT-UPM Aprendizaje: redes neuronales (y algoritmos genéticos) transp. 4
Algoritmo del Perceptron
x0=-1
x w
1 w 0
1
y= w ·x s = 1 si y > 0
i i
s = -1 si y <= 0
w
n
x
n
while (!cond_term) {
for (e=0; e<nEj; e++)
for (i=0; i<=n; i++) {
dw[i] = k*(r[e]-s[e])*x[i][e];
w[i] = w[i] + dw[i];
}
}
x[i][e] = xi para el ejemplo e
c 2002 DIT-ETSIT-UPM Aprendizaje: redes neuronales (y algoritmos genéticos) transp. 5
x
1
x
2
x
n
algoritmo de
refuerzo
Condición de convergencia:
separabilidad lineal en el espacio x1 x2 xn
Elemento lineal: y x
s x
w x
E
Error de una hipótesis w :
E w r e se
1
2
Σ
2
incrementos de w proporcionales al
gradiente de E
∂E ∂E
∇E ∂w0 ∂wn : dirección de máximo crecimiento de E
∆w K ∇E
∂E ∂E
2Σ ∇E ∆w K ∇E
1 2
E w
re se ;
Como se w xe ,
∂E 1 ∂
2 Σ ∂wi Σ re se xie
2
∂wi re se
∆wi K Σ re se xie
while (!cond_term) {
for (i=0; i<=n; i++) dw[i] = 0;
for (e=0; e<nEj; e++)
for (i=0; i<=n; i++)
dw[i] = dw[i] + k*(r[e]-s[e])*x[i][e];
for (i=0; i<=n; i++)
w[i] = w[i] + dw[i];
}
x[i][e] es xie: valor de la entrada i para el ejemplo e
2 re se
while (!cond_term) {
for (e=0; e<nEj; e++)
for (i=0; i<=n; i++)
w[i] = w[i] + k*(r[e]-s[e])*x[i][e];
}
Redes multicapa
∂E
medida de su contribución al error global ( ∂w )
ij
x nj
ds
Con esta función sigmoidal (o logística), dy sy
1 sy
∂E ∂E ∂y j ∂E
∂wi j ∂y j ∂wi j ∂y j xi j
Si se conoce r j (neurona de salida) para un ejemplo e,
∂Ee ∂ 1
∂s j
∂y j ∂y j 2
rj sj
2
rj sj
∂y j
rj sj sj 1
sj
∆wi j K δ j xi j , con δ j
rj sj sj 1
sj
Regla delta: Ee w
1
Σ
2 l
rle sle
2
∂Ee
Considerando regla Delta, ∆wi j K ∂wi j K δ j xi j , con
∂Ee
δj ∂y j
Neuronas de
la capa c:
δh sh 1 sh Σ
r: capa c+1 whr δr
head
heed had
hid 2000
head
F2 (Hz)
hid
F
1
hud
heard
1000
F who’d hod
2
hood
hawed
500
who’d
0 500 1000 1400
F1 (Hz)
hood
Ontogénesis
Modelos neurocibernéticos
Filogénesis
Modelos evolucionistas
«Al fin y al cabo, no hay tantas técnicas informáticas que hayan
demostrado su valor a lo largo de 3.000 millones de años de
pruebas de campo» (Forsyth, 1986)
Operadores genéticos:
Mutación (cambio de un bit con probabilidad pequeña)
Selección de las parejas reproductoras (probabilidad
proporcional al valor de la función)
Entrecruzamiento de los genomas de cada pareja
Nueva generacion: los hijos sustituyen a los individuos menos
adaptados
Convergencia: cuando hay muchos valores iguales
La mutación sirve para resolver el problema de los
máximos locales
c 2002 DIT-ETSIT-UPM Aprendizaje: redes neuronales (y algoritmos genéticos) transp. 23