Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sesión 1
Jueves
https://www.salesforce.com/
¿Qué es Big Data?
El Big Data consta de datos que son tan grandes o complejos que no
pueden manejarse con los métodos de procesamiento tradicionales.
https://www.redhat.com/es/topics/big-data
¿Qué es Machine Learning?
https://medium.com/ai-learners
¿Qué es Deep Learning?
https://www.ibm.com/pe-es/cloud/deep-learning
¿Qué es Deep Learning?
Arquitecturas
Aplicaciones y usos en la Industria
Frameworks de trabajo
Creada en 2015 por el equipo de Google de IA, se ha
convertido en una de las aplicaciones más populares,
porque es open source y con facilidad de uso.
TensorFlow te permite crear grafos basados Keras nos permite programar de forma rápida
en los tensores y en las operaciones que y sencilla cualquier trabajo de redes
cada capa efectuará, dándote más control neuronales. Al ser una interface entre el bajo
de todo el flujo de trabajo, proveyendo así nivel y el programador, no te permite tener
interfaces para poder controlar inclusive la tanto control por lo que se puede perder un
posición del grafo, es decir, en qué punto y poco dicho control y la propiedad de
qué operación se encuentra actualmente. explicabilidad de tu modelo, aparte de que el
control de errores es mejor en la librería de
bajo nivel.
Sistemas Biológicos: La Neurona
https://magiquo.com/redes-neuronales-o-el-arte-de-imitar-el-cerebro-
humano/
La neurona artificial, función de activación, función de costo
Input 1
Input “n”
La neurona artificial, función de activación, función de costo
Sinapsis
Input 1 X1
Input “n” Xn
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
Input “n” Xn
Variable
Independiente
“n”
Estandarizar / Normalizar
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
2 • Binario
• Categórico
Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo
Input 1 X1
y1 Output 1
Variable
Independiente
1
ym Output “m”
Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
w1
w2
Input 2 X2 Neurona y Output
Variable
Independiente
wn
…
Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
w1
w2
Input 2 X2 Neurona y Output
Variable
Independiente
2
wn
Input “n” Xn
Variable
Independiente
“n”
La neurona artificial, función de activación, función de costo
Input 1 X1
Variable
Independiente
1
w1
𝑛
w2 𝑓(∙)
Input X2 𝑤𝑖 𝑋𝑖
y Output
2 𝑖=1
Variable
Independiente
2
wn
Input “n” Xn
𝑛
Variable
Independiente
“n”
𝑦 = 𝑓 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Umbral (Threshold)
y
1 ; 𝑥≥0
𝑓 𝑥 =ቊ
0 ; 𝑥<0
1
𝑛
0 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Sigmoidea
y
1
𝑓 𝑥 =
1 1 + 𝑒 −𝑥
𝑛
0 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Rectificadora (ReLu)
y
1
𝑓 𝑥 = max(𝑥, 0)
𝑛
0 𝑤𝑖 𝑋𝑖
𝑖=1
La neurona artificial, función de activación, función de costo
Función Tangente Hiperbólica
y
1 1 − 𝑒 −2𝑥
𝑓 𝑥 =
1 + 𝑒 −2𝑥
𝑛
0 𝑤𝑖 𝑋𝑖
𝑖=1
-1
La neurona artificial, función de activación, función de costo
X1
y1
X2
La neurona artificial, función de activación, función de costo
𝒘𝒊 𝑿𝒊
𝒊=𝟏
X1
𝒘𝒊 𝑿𝒊
𝒊=𝟏
y1
X2
𝒘𝒊 𝑿𝒊
𝒊=𝟏
La neurona artificial, función de activación, función de costo
X1
y1
X2
La neurona artificial, función de activación, función de costo
X1
y1
X2
La neurona artificial, función de activación, función de costo
X1 𝒏
𝒘𝒊 𝑿𝒊
𝒊=𝟏
y1
X2
La neurona artificial, función de activación, función de costo
X1 𝒏
𝒘𝒊 𝑿𝒊
𝒊=𝟏
y1
X2
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
Área de la casa
Antigüedad
Material de Fabricación
Con Cochera?
Ciudad
Etc.
¿Precio?
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
X1
y1
Área de la casaX2
Antigüedad X3
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
X1
y1
Área de la casaX2
Antigüedad X3
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
X1
y1
Área de la casaX2
Antigüedad X3
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
X1
y1
Área de la casaX2
Antigüedad X3
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones
X1
y1
Área de la casaX2
Antigüedad X3
La neurona artificial, función de activación, función de costo
Cantidad de Habitaciones X1
y1
Área de la casa X2
Antigüedad X3
BackPropagation
Input 1 X1
w1
𝑛
w2 𝑓(∙)
Input 2 X2 𝑤𝑖 𝑋𝑖 𝒚 Output
𝑖=1
w3
Input 3 X3
BackPropagation ID Área Habitacion Antigüeda Precio
es d
1 70 2 5 150
Área X1
w1
𝑛
w2 𝑓(∙)
Habitaciones X2 𝑤𝑖 𝑋𝑖 ෝ
𝒚 Precio
𝑖=1
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶 = 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶 = 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation
ID Área Habitacion Antigüeda Precio
es d ෝ
𝒚 𝒚 𝑪
1 70 2 5 150
Área X1
w1
w2 𝑛
Habitaciones X2 𝑤𝑖 𝑋𝑖 𝑓(∙) ෝ
𝒚 Precio 1 2
𝑖=1 𝐶= 𝑦ො − 𝑦
2
w3
𝒚 Precio real/actual
Antigüedad X3
BackPropagation ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚
ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1
𝐶 = 𝑦ො𝑖 − 𝑦𝑖 2
2
𝑖=1
BackPropagation
Backpropagation
BackPropagation
Paso 1: Inicialización de pesos aleatoria con números cercanos a 0, pero no 0.
Paso 2: Ingresar los primeros registros de tu base de datos in la capa de entrada, donde cada columna o
variables será un nodo.
Paso 3: De la izquierda a la derecha, las neuronas son activadas de manera que cada activación es limitada
por los pesos. Hasta llegar a predecir el resultado “y”.
Paso 5: Backpropagation: del derecha a izquierda, el error es propagado hacia atrás, actualizando los pesos
de acuerdo a que tanto ha subido o bajado el error. El factor de aprendizaje decide por cuanto más son
actualizados los pesos.
Paso 6: Repetir los pasos 1 al 5 para actualizar los pesos luego de haber pasado los primeros registros.
Paso 7: Cuando todo el set o base de entrenamiento haya pasado por la red neuronal, significa que hemos
pasado una iteración o una época, por lo que continuará con la siguiente hasta minimizar el error o hasta
acabar el numero de épocas seteadas.
Gradiente de descenso ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚
ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1 2
𝐶 = 𝑦ො𝑖 − 𝑦𝑖
2
𝑖=1
Gradiente de descenso
1 2
𝐶 = 𝑦ො − 𝑦
2
Gradiente de descenso
1 2
𝐶= 𝑦ො − 𝑦
2
ෝ
𝒚
Gradiente de descenso
1 2
𝐶 = 𝑦ො − 𝑦
2
ෝ
𝒚
Gradiente de descenso
1 2
𝐶 = 𝑦ො − 𝑦
2
ෝ
𝒚
Gradiente de descenso
1 2
𝐶 = 𝑦ො − 𝑦
2
ෝ
𝒚
Gradiente de descenso
ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚
ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1
𝐶 = 𝑦ො𝑖 − 𝑦𝑖 2
2
𝑖=1
Gradiente de descenso
ෝ
𝒚
Gradiente de descenso ෝ
𝒚
ID Área Habitacion Antigüeda Precio ෝ𝟏𝟏
𝒚
es d
1 70 2 5 150 ෝ𝟐𝟏
𝒚
2 90 3 5 200 ෝ𝟑𝟏
𝒚
3 53 1 2 120
4 60 2 10 100
ෝ𝟒𝟏
𝒚
5 80 2 10 180 ෝ𝟓𝟏
𝒚
6 72 3 5 180
ෝ𝟔𝟏
𝒚
7 100 4 15 200
8 100 4 6 250 ෝ𝟕𝟏
𝒚
𝒘𝟏 , 𝒘𝟐 , 𝒘𝟑 ෝ𝟖𝟏
𝒚
ෝ𝟏𝟏
𝒚 𝒚𝟏 ෝ𝟐𝟏
𝒚 𝒚𝟐 ෝ𝟑𝟏
𝒚 𝒚𝟑 ෝ𝟒𝟏
𝒚 𝒚𝟒 ෝ𝟓𝟏
𝒚 𝒚𝟓 ෝ𝟔𝟏
𝒚 𝒚𝟔 ෝ𝟕𝟏
𝒚 𝒚𝟕 ෝ𝟖𝟏
𝒚 𝒚𝟖
8
𝑪 1 2
𝐶 = 𝑦ො𝑖 − 𝑦𝑖
2
𝑖=1