Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ia 2
Ia 2
Inteligencia artificial 2 B1
Reto 1
PRESENTADO POR:
PROFESOR:
Luis Carlos Guayacán
Bucaramanga
2024
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Modelo de regresion
Número de capas: 4
Tamaño de la entrada: 28
Inteligencia artificial 2 B1
Reto 1
Modelo de clasificacion
Número de capas: 4
Tamaño de la entrada: 9
Inteligencia artificial 2 B1
Reto 1
Número de capas y neuronas: Entre diferentes experimentos creo que las dos capas ocultas de
140 y 40 me dieron un buen ejemplo, porque cuando miré y comparé las gráficas vi que este
cambio fue exitoso.
Funciones de activación: Relu (Rectified Linear Unit) es una opción común para las capas ocultas
debido a su simplicidad y eficacia en la mayoría de los casos.
Optimizador Adam es una herramienta popular y eficaz para aumentar la tasa de aprendizaje
durante la formación. Funciona bien para una variedad de problemas y parece una buena opción
como punto de partida.
Función de pérdida: el error cuadrático medio (MSE) es una función de pérdida común para
problemas dinámicos. Es sensible a los factores externos y castiga de manera efectiva los errores
mas grandes
Número de epoch: 100 epoch es un valor comúnmente utilizado como punto de partida. Me
parecio suficiente para ver cómo evoluciona el entrenamiento y si el modelo está convergiendo.
Tamaño del lote (batch size): Un tamaño de lote de 32 es un valor comúnmente utilizado y suele
ser eficiente en términos de velocidad de entrenamiento y estabilidad.
Inteligencia artificial 2 B1
Reto 1
Número de capas y neuronas: Basándome en el modelo anterior decidí usar el mismo tipo de
capas.
Funciones de activación: Usando un simulador, vi que Relu era la opción mas viable para la
clasificación
Optimizador: Adam es una herramienta popular y eficaz para aumentar la tasa de aprendizaje
durante la formación. Funciona bien para una variedad de problemas y parece una buena opción
como punto de partida.
Número de epoch: 100 epoch es un valor comúnmente utilizado como punto de partida. Me
pareció suficiente para ver cómo evoluciona el entrenamiento y si el modelo está convergiendo.
Tamaño del lote (batch size): Un tamaño de lote de 32 es un valor comúnmente utilizado y suele
ser eficiente en términos de velocidad de entrenamiento y estabilidad.
Inteligencia artificial 2 B1
Reto 1
Use también el validation loss ( línea amarilla ) , mide la discrepancia entre las predicciones del
modelo y las etiquetas verdaderas en el conjunto de datos de validación , junto con el valor de loss
( línea azul ) , la cual simboliza la discrepancia entre las predicciones del modelo y las etiquetas
verdaderas en el conjunto de datos de entrenamiento.
Inteligencia artificial 2 B1
Reto 1
Este sería el modelo si en lugar de usar relu hiciéramos uso de tanh y un Batch size de 50 , como
podemos ver el modelo empeora , esto puede ser debido a que a un batch size tan grande genera
que haya menos generalización , el modelo solo se actualiza una vez por lote, haciendo que la
información que recibe sea menos variada y mas “ruidosa”.
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Este seria el modelo si reducimos el batch size a 32 , y mantuviéramos la función tanh , como se
puede observar el loss y validation loss casi llegan a una convergencia esto puede ser debido a que
La función tanh es suave y diferenciable en todo su dominio. Esto puede llegar a ser ventajoso
durante el entrenamiento, ya que facilita el cálculo de gradientes y puede conducir a una
convergencia más estable del modelo.
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Este es el modelo con la función relu , podemos ver que desde el inicio del entrenamiento , el
parámetro loss y validation loss , están casi iguales hasta los 10-15 epochs , la función relu es
también la mejor resultado nos ha brindado , esto puede ser a que la función ReLU es más simple
computacionalmente en comparación con la función tanh. La función ReLU simplemente devuelve
cero para valores negativos y la entrada misma para valores no negativos, mientras que la función
tanh involucra cálculos más complejos, como la exponenciación y la normalización.
Con esto, podemos decir que la función relu y un batch size de 32, nos dieron los mejores
resultados para nuestro modelo de regresión.
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Inteligencia artificial 2 B1
Reto 1
Inteligencia artificial 2 B1
Reto 1
Conclusiones:
Con los diferentes hiperparametros que usamos pudimos determinar el mejor modelo para
nuestro problema, sin embargo, no se descarta que haya una manera que de mejores resultados.
Una posibilidad para mejorar el modelo puede ser en lugar de usar una matriz para la matricula ,
usar un aplanado de datos , el array se acomodaría mejor al tipo de datos que estamos
manejando.
Por otro lado, la diferencia principal entre un modelo de clasificación y un modelo de regresión
Modelo de clasificación: Se utiliza para predecir la etiqueta o categoría de una entrada. Es decir, la
salida es la categoría o clase a la que pertenece la entrada. Estos modelos son útiles cuando el
objetivo es clasificar datos en diferentes grupos, como predecir si un correo electrónico es spam o
determinar si una imagen contiene una persona u objeto. Para este fin se suelen utilizar
algoritmos de clasificación como la regresión logística, los árboles de decisión y las máquinas de
vectores de soporte.
Modelo de regresión: se utiliza para predecir valores continuos en función de las entradas. En
otras palabras, el resultado es un número que representa una cantidad medible, como el precio de
una vivienda en función de sus características, o la probabilidad de comprar un producto en
función del historial de compras de un cliente. Algoritmos de regresión, como la regresión lineal, la
regresión logística, y la regresión de bosques aleatorios, son aplicados para resolver este tipo de
problemas
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Bibliografía:
Funciones de activación: Sigmoid, Tanh, ReLU, Leaky ReLU, Softmax. (2022, 28 octubre).
ICHI.PRO. https://ichi.pro/es/funciones-de-activacion-sigmoid-tanh-relu-leaky-relu-
softmax-88869174103717
How to interpret loss and accuracy for a machine learning model. (s. f.). Stack Overflow.
https://stackoverflow.com/questions/34518656/how-to-interpret-loss-and-accuracy-
for-a-machine-learning-model
Lightning AI. (2023, 17 mayo). Unit 9.5 Increasing Batch Sizes to Increase Throughput -
techniques-for-speeding-up-model-training/unit-9.5-increasing-batch-sizes-to-
increase-throughput/
Ingenierobeta.com. https://ingenierobeta.com/clasificacion-vs-regresion-machine-
learning/
DataSource.ai. https://www.datasource.ai/es/data-science-articles/metricas-de-
evaluacion-de-modelos-en-el-aprendizaje-automatico
Science, B. o. C., & Science, B. o. C. (2023, 15 septiembre). Training and Validation Loss
Science. https://www.baeldung.com/cs/training-validation-loss-deep-learning
UNIVERSIDAD INDUSTRIAL DE SANTANDER
ESCUELA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA
Inteligencia artificial 2 B1
Reto 1
Shen, K. (2018, 20 junio). Effect of batch size on training dynamics - Mini Distill -
dynamics-21c14f7a716e
The Black Box Lab. (2022, 30 junio). Machine Learning: Algoritmos de clasificación y
learning-diferencias-entre-algoritmos-clasificacion-regresion/