Documentos de Académico
Documentos de Profesional
Documentos de Cultura
LÓGICA DIFUSA
Sesión 09
Prof. Ing. Eduardo Steve Rodriguez Canales
Repaso
4. Valores objetivo.-
Es importante que los valores objetivos (respuestas deseadas) estén elegidos dentro del rango de la
función de activación sigmoidea.
Específicamente la salida deseada dj de una neurona j en la salida de una red multicapa debe ser
compensada por algún valor ε desde el límite de la función sigmoidea.
De otra manera la red tenderá a llevar parámetros hacia el infinito lo que causará saturación y lentitud
en el proceso de aprendizaje.
para un a= 1.7159 tenemos un valor ε= 0.7159 considerando las respuestas deseadas de +-1.
Método heurístico para mejorar el funcionamiento del algoritmo Backpropagation
5. Normalizando las entradas.- Las
variables de entrada deben ser normalizadas,
tal que el valor medio (sobre la data de
entrenamiento) sea cercano a cero o
relativamente pequeño en comparación de su
desviación estándar. Además otras dos
consideraciones deben ser tomadas:
Los pesos sinápticos son considerados sobre una distribución con media cero
Método heurístico para mejorar el funcionamiento del algoritmo Backpropagation
Ahora podemos escribir la media y variancia del campo inducido local como
Ahora podemos escribir la media y variancia del campo inducido local como
Método heurístico para mejorar el funcionamiento del algoritmo Backpropagation
Con estos resultados podemos considerar elegir valores para los pesos sinápticos
con una media igual a cero y una varianza igual al recíproco del número de
conexiones sinápticas de la neurona.
Método heurístico para mejorar el funcionamiento del algoritmo Backpropagation
8. Tasa de aprendizaje
● Idealmente todas las neuronas de una red deben tener la misma tasa de
aprendizaje.
● Pero usualmente los gradientes locales de las últimas capas son más
grandes que los de las primeras.