Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CAPITULO III
3.1 Introducción
ha sido la neurocomputación.
40
3.2 La neurocomputación
sean interconectadas.
distinto.
“aprendizaje supervisado”.
red.
46
red de pro-alimentación).
cuestión.
de retroalimentación.
48
de salida.
concordantemente. El resultado de la
a su actual estado).
aquellas entradas.
en aquella entrada.
guardados en la red.
completación.
más.
55
estadísticos.
56
entradas ruidosas.
a una pelota.
58
en la neurocomputación.
capa de entrada.
r
Figura 3.6 Red típica de Back-Propagation
.
se mencionó anteriormente.
66
sigue:
neurona en la capa s.
capa s.
x [js ] = f ∑ ( w[jis] ⋅ x[i s−1] )
i [1]
( )
= f I [sj]
67
(
f ( z ) = 1.0 + e − z )
−1
[2]
se define como
nivel s.
niveles s+1 :
( ) (
e [js] = f ′ I [js] ⋅ ∑ e [ks+1] ⋅ w[kjs +1] ) [4]
k
69
capas internas.
f ′( z ) = f ( z ) ⋅ (1.0 − f ( z ) ) [5]
como
( ) (
e [js] = x [js ] ⋅ 1.0 − x[js ] ⋅ ∑ e[ks +1] ⋅ w[kjs+1] ) [6]
k
escala el error.
nodo.
(
∇w[jis ] = −lcoef ⋅ ∂E / ∂w[jis] ) [7]
superficie de error.
y [1]:
( )(
∂E / ∂w[jis ] = ∂E / ∂I [js] ⋅ ∂I [js ] / ∂w[jis] )
[8]
= −e[js ] ⋅ x [i s −1]
72
(
E = 0.5 ⋅ ∑ ( d k − o k ) 2 ) [10]
k
73
e (ko) = −∂E / ∂I k( o)
= −∂E / ∂ok ⋅ ∂o k / ∂I k [11]
= ( d k − o k ) ⋅ f ′( I k )
error.
inversa
hacer lo siguiente:
vector de salida o.
en la red.
Término de momento
peso delta:
presentado.
entrenamiento.
78
ez − e −z
f (z) = z [13]
e + e−z
términos de si misma:
( )( ) (
e [js] = 1.0 + x [js] ⋅ 1.0 − x [js] ⋅ ∑ e [ks+1] ⋅ w[kjs +1] ) [15]
k
3.3 Observaciones
discriminante.
cobranzas.
81
en el capítulo 1.