Está en la página 1de 64

Deep Learning con Python

Sesión 1

Docente: Christian Fonseca


¡Hola, soy Christian Fonseca!
• Bachiller en Ingeniería Mecatrónica –
UNI.
• Diplomado en Advanced Computing
– C-DAC.
• 6+ años desarrollando modelos
analíticos en Academia e Industria.
• Actualmente me desempeño como
Manager Data Scientist en Finanzas -
BBVA.
REGLAS

Se requiere puntualidad para un mejor desarrollo del curso.

Para una mayor concentración mantener silenciado el micrófono durante la


sesión.

Las preguntas se realizarán a través del chat y en caso de que lo requieran


podrán activar el micrófono.

Realizar las actividades y/otareasencomendadas en los plazos determinados.

Identificarse en la sala Zoom con el primer nombre y primer apellido.


ITINERARIO
Martes

06:40 PM – 07:00 PM Soporte técnico DMC

07:00 PM – 08:30 PM Agenda


08:30 AM – 08:45 PM Pausa Activa
08:40 AM – 10:15 PM Agenda

Jueves

06:40 PM – 07:00 PM Soporte técnico DMC

07:00 PM – 08:30 PM Agenda


08:30 AM – 08:45 PM Pausa Activa
08:40 AM – 10:15 PM Agenda

Horario de Atención Área Académica 09:00 am a 10:00 pm


CONTENIDO GENERAL

I. Inteligencia Artificial y Deep Learning


II. Entrenamiento de Redes Neuronales
III. Redes Neuronales Convolucionales
IV. Redes Neuronales Recurrentes
V. Tópicos Adicionales con Python
VI. Segundo caso integrador
CALIFICACIÓN

Asistencia (Curso): mínimo 80% sesiones para


recibir la certificación

Examen Final Trabajos


(60%) + (40%)
Inteligencia Artificial y Deep Learning
¿Qué es IA? ¿Big Data? ¿Machine Learning? ¿Deep Learning?
Evolución de las arquitecturas de IA, en particular de Deep Learning
¿Por qué Deep Learning? Aplicaciones y usos en las industrias
Frameworks de trabajo en Deep Learning: Keras y Tensorflow
Sistemas Biológicos: La Neurona. Sinapsis entre neuronas
La neurona artificial, función de activación, función de costo
Backpropagation. Optimización de parámetros: Gradiente de descenso
El aprendizaje en arquitecturas de redes neuronales
¿Qué es IA?

La Inteligencia artificial es el campo


científico de la informática que se centra en
la creación de programas y mecanismos
que pueden mostrar comportamientos
considerados inteligentes.

En otras palabras, la IA es el concepto según


el cual “las máquinas piensan como seres
humanos”.

https://www.salesforce.com/
¿Qué es Big Data?
El Big Data consta de datos que son tan grandes o complejos que no
pueden manejarse con los métodos de procesamiento tradicionales.

https://www.redhat.com/es/topics/big-data
¿Qué es Machine Learning?

Machine Learning es una forma de la IA


que permite a un sistema aprender de
los datos en lugar de aprender mediante
la programación explícita.

https://medium.com/ai-learners
¿Qué es Deep Learning?

Deep learning es un subconjunto de


machine learning (que a su vez es parte de
la inteligencia artificial) donde las redes
neuronales, algoritmos inspirados en cómo
funciona el cerebro humano, aprenden de
grandes cantidades de datos.

https://www.ibm.com/pe-es/cloud/deep-learning
¿Qué es Deep Learning?
Arquitecturas
Aplicaciones y usos en la Industria
Frameworks de trabajo
Creada en 2015 por el equipo de Google de IA, se ha
convertido en una de las aplicaciones más populares,
porque es open source y con facilidad de uso.

Creada en 2015, fue diseñada para ser una API de alto


nivel, es decir, diseñada para ser una herramienta que
facilita el desarrollo sin conocer las características de las
capas internas de una red neuronal profunda

A partir de la versión 2.0, liberada en 2019, integra a


Keras nativamente.
Frameworks de trabajo

TensorFlow te permite crear grafos basados Keras nos permite programar de forma rápida
en los tensores y en las operaciones que y sencilla cualquier trabajo de redes
cada capa efectuará, dándote más control neuronales. Al ser una interface entre el bajo
de todo el flujo de trabajo, proveyendo así nivel y el programador, no te permite tener
interfaces para poder controlar inclusive la tanto control por lo que se puede perder un
posición del grafo, es decir, en qué punto y poco dicho control y la propiedad de
qué operación se encuentra actualmente. explicabilidad de tu modelo, aparte de que el
control de errores es mejor en la librería de
bajo nivel.
Sistemas Biológicos: La Neurona

https://magiquo.com/redes-neuronales-o-el-arte-de-imitar-el-cerebro-
humano/
La neurona artificial, función de activación, función de costo

Input 1

Input 2 Neurona Output


Input “n”
La neurona artificial, función de activación, función de costo

Sinapsis
Input 1 X1

Input X2 Neurona y Output


2

Input “n” Xn
La neurona artificial, función de activación, función de costo

Input 1 X1
Variable
Independiente
1

Input 2 X2 Neurona y Output


Variable
Independiente

Input “n” Xn
Variable
Independiente
“n”

Estandarizar / Normalizar
La neurona artificial, función de activación, función de costo

Input 1 X1
Variable
Independiente
1

Input 2 X2 Neurona y Output


Variable
Independiente • Continua

2 • Binario
• Categórico

Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo

Input 1 X1
y1 Output 1
Variable
Independiente
1

Input 2 X2 Neurona y2 Output 2


Variable
Independiente

ym Output “m”
Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo

Input 1 X1
Variable
Independiente
1
w1

w2
Input 2 X2 Neurona y Output
Variable
Independiente
wn

Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo

Input 1 X1
Variable
Independiente
1
w1

w2
Input 2 X2 Neurona y Output
Variable
Independiente
2
wn

Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
w1

𝑛
w2 𝑓(∙)
Input X2 ෍ 𝑤𝑖 𝑋𝑖
y Output
2 𝑖=1
Variable
Independiente
2
wn

Input “n” Xn
𝑛
Variable
Independiente
“n”
𝑦 = 𝑓 ෍ 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Umbral (Threshold)
y
1 ; 𝑥≥0
𝑓 𝑥 =ቊ
0 ; 𝑥<0
1

𝑛
0 ෍ 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Sigmoidea
y

1
𝑓 𝑥 =
1 1 + 𝑒 −𝑥

𝑛
0 ෍ 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Rectificadora (ReLu)
y

1
𝑓 𝑥 = max(𝑥, 0)

𝑛
0 ෍ 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Tangente Hiperbólica
y
1 1 − 𝑒 −2𝑥
𝑓 𝑥 =
1 + 𝑒 −2𝑥

𝑛
0 ෍ 𝑤𝑖 𝑋𝑖
𝑖=1

-1
La neurona artificial, función de activación, función de costo

X1

y1

X2
La neurona artificial, función de activación, función de costo

෍ 𝒘𝒊 𝑿𝒊
𝒊=𝟏

X1

෍ 𝒘𝒊 𝑿𝒊
𝒊=𝟏
y1

X2

෍ 𝒘𝒊 𝑿𝒊
𝒊=𝟏
La neurona artificial, función de activación, función de costo

X1

y1

X2
La neurona artificial, función de activación, función de costo

X1

y1

X2
La neurona artificial, función de activación, función de costo

X1 𝒏

෍ 𝒘𝒊 𝑿𝒊
𝒊=𝟏

y1

X2
La neurona artificial, función de activación, función de costo

X1 𝒏

෍ 𝒘𝒊 𝑿𝒊
𝒊=𝟏

y1

X2
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
Área de la casa
Antigüedad
Material de Fabricación
Con Cochera?
Ciudad
Etc.

¿Precio?
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
X1

y1
Área de la casaX2

Antigüedad X3
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
X1

y1
Área de la casaX2

Antigüedad X3
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
X1

y1
Área de la casaX2

Antigüedad X3
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
X1

y1
Área de la casaX2

Antigüedad X3
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones
X1

y1
Área de la casaX2

Antigüedad X3
La neurona artificial, función de activación, función de costo

Cantidad de Habitaciones X1

y1
Área de la casa X2

Antigüedad X3
BackPropagation

Input 1 X1

w1

𝑛
w2 𝑓(∙)
Input 2 X2 ෍ 𝑤𝑖 𝑋𝑖 𝒚 Output
𝑖=1

w3

Input 3 X3
BackPropagation ID Área Habitacion Antigüeda Precio
es d
1 70 2 5 150

Área X1

w1

𝑛
w2 𝑓(∙)
Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 ෝ
𝒚 Precio
𝑖=1

w3
𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶 = 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶 = 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150

Área X1
w1

w2 𝑛

Habitaciones X2 ෍ 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3

𝒚 Precio real/actual

Antigüedad X3
BackPropagation ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚

ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1
𝐶 = ෍ 𝑦ො𝑖 − 𝑦𝑖 2
2
𝑖=1
BackPropagation

Backpropagation
BackPropagation
Paso 1: Inicialización de pesos aleatoria con números cercanos a 0, pero no 0.

Paso 2: Ingresar los primeros registros de tu base de datos in la capa de entrada, donde cada columna o
variables será un nodo.

Paso 3: De la izquierda a la derecha, las neuronas son activadas de manera que cada activación es limitada
por los pesos. Hasta llegar a predecir el resultado “y”.

Paso 4: Comparar la predicción con el resultado actual, midiendo el error generado.

Paso 5: Backpropagation: del derecha a izquierda, el error es propagado hacia atrás, actualizando los pesos
de acuerdo a que tanto ha subido o bajado el error. El factor de aprendizaje decide por cuanto más son
actualizados los pesos.

Paso 6: Repetir los pasos 1 al 5 para actualizar los pesos luego de haber pasado los primeros registros.

Paso 7: Cuando todo el set o base de entrenamiento haya pasado por la red neuronal, significa que hemos
pasado una iteración o una época, por lo que continuará con la siguiente hasta minimizar el error o hasta
acabar el numero de épocas seteadas.
Gradiente de descenso ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚

ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1 2
𝐶 = ෍ 𝑦ො𝑖 − 𝑦𝑖
2
𝑖=1
Gradiente de descenso

1 2
𝐶 = 𝑦ො − 𝑦
2
Gradiente de descenso

1 2
𝐶= 𝑦ො − 𝑦
2


𝒚
Gradiente de descenso

1 2
𝐶 = 𝑦ො − 𝑦
2


𝒚
Gradiente de descenso

1 2
𝐶 = 𝑦ො − 𝑦
2


𝒚
Gradiente de descenso

1 2
𝐶 = 𝑦ො − 𝑦
2


𝒚
Gradiente de descenso

𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚

ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1
𝐶 = ෍ 𝑦ො𝑖 − 𝑦𝑖 2
2
𝑖=1
Gradiente de descenso


𝒚
Gradiente de descenso ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚

ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1 2
𝐶 = ෍ 𝑦ො𝑖 − 𝑦𝑖
2
𝑖=1

También podría gustarte