Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Jefe de la empresa
Alto directivo
Director medio
Jefe de departamento
Operarios
Backpropagation y descenso del
gradiente
Cada uno de los 5 niveles tendrá que rendir cuenta del porque los errores en
la empresa y las responsabilidades de los malos resultados, el cual pasara el
reporte que se le pasara al departamento de recursos humanos, ese reporte
será el gradiente de nuestro modelo
El proceso que se saco del ejemplo es el algoritmo de Backpropagation
Backpropagation y descenso del
gradiente
El departamento de recursos humanos le informara al jefe de la empresa la
responsabilidad de las perdidas de cada persona
El departamento de recursos humano lo lea e indicara tal trabajador tuvo tal
responsabilidad en estas perdidas. Posteriormente el departamento de
recursos humano
Despido
Modificar su comportamiento
En ahí el departamento de recursos humanos estaría operando en la labor del
descenso del gradiente
Formulación Matemática
𝜕𝐶 𝜕𝐶
𝜕𝑏𝐿 𝜕𝑤 𝐿
L capas
Como se lo calcula
C ( 𝑎( 𝑍 𝐿 ) ) = ERROR
También llamada composición de funciones
Para calcular la derivada de una composición de funciones se utilizara la
herramienta de calculo “CHAIN RULE” (regla de la cadena)
Ejemplo: una liebre es 3 veces mas rápido que un perro, un perro es 5 veces mas
rápido que una tortuga ¿Cuántas veces es mas rápido la liebre que la tortuga?
Como se lo calcula
Para el caso de las redes neuronales se debe de calcular las derivas por
“Chain Rules”
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿
= ∙ ∙
𝜕𝑤 𝐿 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑤 𝐿
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿
𝐿 = ∙ ∙
𝜕𝑏 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑏𝐿
𝑍𝐿 = 𝑊 𝐿 𝑎𝐿−1 + 𝑏 𝐿 C ( 𝑎( 𝑍 𝐿 ) )
Como se lo calcula
𝜕𝐶
𝜕𝑎𝐿
Función de coste
Error cuadrático medio
1 2
𝑐 𝑎j𝐿 = ∙ 𝑦𝑖 − 𝑎j𝐿
2
𝑗
𝜕𝐶 𝐿
𝐿 = (𝑎j −𝑦𝑖 )
𝜕𝑎j
Como se lo calcula
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿
= ∙ 𝐿 ∙
𝜕𝑤 𝐿 𝜕𝑎𝐿 𝜕𝑧 𝜕𝑤 𝐿
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿
= ∙ 𝐿 ∙
𝜕𝑏𝐿 𝜕𝑎𝐿 𝜕𝑧 𝜕𝑏𝐿
𝜕𝑎𝐿 𝜕𝐶 𝐿 𝜕𝑧 𝐿 𝜕𝑧 𝐿
= 𝑎𝐿 (𝑧 𝐿 ) ∙ (1 − 𝑎𝐿 (𝑧 𝐿 )) = (𝑎j −𝑦𝑖 ) 𝐿 =1 = 𝑎𝑖𝐿−1
𝜕𝑧 𝐿 𝜕𝑎j𝐿 𝜕𝑏 𝜕𝑤 𝐿
Como se lo calcula
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿
= ∙ ∙
𝜕𝑤 𝐿 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑤 𝐿
𝜕𝐶
𝜕𝑧 𝐿
Reestructurando la ecuación
1
𝜕𝐶 𝐿 𝜕𝑧 𝐿
=𝛿 ∙
𝜕𝑤 𝐿 𝜕𝑏𝐿
𝑎𝑖𝐿−1
𝜕𝐶 𝐿 𝜕𝑧 𝐿
𝐿 =𝛿 ∙
𝜕𝑏 𝜕𝑤 𝐿
DERIVADA DE FUNCION DEL COSTE
𝜕𝐶
= 𝛿 𝐿 𝑎𝑖𝐿−1
𝜕𝑤 𝐿
Algoritmo de Backpropagation
𝜕𝐶 𝜕𝑎 𝐿
𝛿𝐿 = 𝐿 ∙ 𝐿
𝜕𝑎 𝜕𝑧
𝜕𝐶
= 𝛿𝐿
𝜕𝑏𝐿
𝜕𝐶 𝐿 𝑎 𝐿−1
= 𝛿 𝑖
𝜕𝑤 𝐿
? ? ? ? =? ? ? ? ? ? ?
Algoritmo de Backpropagation
𝛿𝐿 𝑤𝐿 𝑎𝐿−2
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑎𝐿−1 𝜕𝑧 𝐿−1
= ∙ ∙ ∙ ∙
𝜕𝑤 𝐿−1 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑎𝐿−1 𝜕𝑧 𝐿−1 𝜕𝑤 𝐿−1
1
𝜕𝐶 𝜕𝐶 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑎𝐿−1 𝜕𝑧 𝐿−1
𝐿−1 = ∙ ∙ ∙ ∙
𝜕𝑏 𝜕𝑎𝐿 𝜕𝑧 𝐿 𝜕𝑎𝐿−1 𝜕𝑧 𝐿−1 𝜕𝑏𝐿−1
Derivada de la función de activación
𝜕𝐶
= 𝛿 𝐿−1
𝜕𝑧 𝐿−1
Lo que obtenemos es