Documentos de Académico
Documentos de Profesional
Documentos de Cultura
REDES NEURONALES
MULTICAPA CON
CONEXIONES
FEEDFORWARD
PERCEPTRON MULTICAPA
Es una red neuronal multicapa con 3 o más capas, con conexiones hacia
adelante.
TOPOLOGÍA:
La capa de entrada tiene N neuronas, con función de transferencia identidad.
1 o más capas ocultas con función de transferencia sigmoidal o tangente
hiperbólica.
La capa de salida tiene M neuronas, con función de transferencia sigmoidal o
tangente hiperbólica o identidad.
Algoritmo Backpropagation
1.Leer los parámetros de aprendizaje:
N = número de variables de entrada
M = número de variables de salida
L = número de neuronas de la capa oculta
npe = número de parámetros de entrada
alfa, emax=error máximo, itmax=No. máximo de iteraciones
2. Leer los patrones de entrada y la salida deseada
Xp=(X1p, X2p, … , Xnp) , dp, con 1<= p <= npe
3.Inicializar los pesos en 0 o en valores aleatorios próximos a 0
Wji=0 (capa oculta), Wkj= 0 (capa de salida)
4. t= 1 # iteración 1
5. sw = 0
5. while t<=itmax and sw==0 do
6. p= 1 # patrón de entrada 1
7. while p<=npe do
8. # calcular la salida
# CAPA OCULTA
NETj= X0PWj0+X1pWj1+…+XNPWjN # Entrada neta
Algoritmo Backpropagation
# CAPA DE SALIDA
NETK= Y0PWK0+YKpWK1+…+YLPWKL # Entrada neta
yK = F(NETK ), para 1<= k <= M
9. # Calcular el error
# CAPA DE SALIDA
k = (dk – yk) F’(NETk) para 1<= k <= m
# CAPA OCULTA
J = F’(NETj) (wkj * J) , con 1 <= j <= L
10. # Regla de aprendizaje (ACTUALIZAR PESOS)
# CAPA OCULTA
wJI = wJI + (J ) X0P
# CAPA DE SALIDA
wKJ = wKJ + (K )YJP
11. p= p + 1
12. # CALCULAR EL ERROR PROMEDIO
13. Ep = (1/M)* (k)^2, con 1<= k <= M
14. end-while
Algoritmo Backpropagation
x2
(0,1) (1,1)
A B
A
B
B A x1
(0,0) A (1,0)
TOPOLOGIA
SI
PESOS Etrain<emax
NO
EJEMPLOS DE
TEST
TEST
SI
Etest<emax
NO
QUERY (SIMULATION)
ENTRADA SALIDA
TIPOS DE INFORMACIÓN DE
ENTRADA Y SALIDA
Como se vio antes, se tienen los tipos de información siguientes:
1) INFORMACIÓN DISCRETA
Se usa una neurona para representarla.
a) Binaria
0 y 1 ó -1 y 1
b) No binaria
0 , 0.5, 1
-1, -0.5, 0, 0.5, 1
2) INFORMACIÓN CONTINUA
Se usa una neurona para representarla
[ -∞ , ∞ ]
[ -1 , 1 ]
[0,1]
C. TIPOS DE INFORMACIÓN DE
ENTRADA Y SALIDA
3) INFORMACIÓN SIMBÓLICA
Si son símbolos ordenables se usa una neurona para
representarla.
Si son símbolos no ordenables se usa N neuronas para
representarla.
Edad Ordenable No Ordenable
Bebe -1 00001
Niño -0.5 00010
Joven 0 00100
Adulto 0.5 01000
Anciano 1 10000
NORMALIZACIÓN DE LA
INFORMACIÓN CONTINUA
En el caso de la información continua:
Si en la capa de salida se tiene la función de transferencia sigmoidal
(devuelve valores entre [ 0,1 ]) o tanh (devuelve valores entre [-1,1] )
entonces los datos de los ejemplos de aprendizaje, que toman valores
entre [-∞ , ∞] tienen que ser normalizados.
Es decir, si la salida deseada varía entre [10, 100], nunca va a
coincidir con la salida obtenida que varía entre [0,1] si la red tiene
función sigmoidal en la capa de salida y la red neuronal no va a
aprender. Para que coincida hay que normalizar los ejemplos de
aprendizaje.
Vemos el caso en que se normalizan los datos que varían entre [a,b]
al intervalo [0,1] (algo similar es cuando se normalizan a [-1,1])
NORMALIZACIÓN DE LA
INFORMACIÓN CONTINUA
NORMALIZADO
0.9
Y
ɸ
0.1
A X B SIN
NORMALIZAR