Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Taller RNA
Presentado por:
Presentado a:
Asignatura:
Aprendizaje Computacional
Universidad de Córdoba
Facultad de ingeniería
Ingeniería de sistemas
Montería - Córdoba
Taller RNA 2
2023
Tabla de contenido
Tabla de contenido 2
Introduccion 3
Objetivos 4
Desarrollo 5
Preprocesamiento 5
Entrenamiento 6
Prueba 1, valores por defecto para el modelo MultilayerPerceptron 6
Prueba 2, variación en el número de capas ocultas y neuronas 8
Prueba 3, variación en el número de capas ocultas, neuronas y número de iteraciones 9
Prueba 4, variación en el número de capas ocultas, neuronas y número de iteraciones 10
Prueba 5, variación en el número de iteraciones 11
Prueba 6, variación en el número de iteraciones 11
Prueba 7, variación en el número de capas ocultas y neuronas 12
Prueba 8, variación en el número de capas ocultas, neuronas y número de iteraciones 14
Prueba 9, variación en el número de capas ocultas, neuronas y semilla 15
Prueba 10, variación en el número de semilla 16
Prueba 11, variación en el número de neuronas, número de semilla y número de
iteraciones 17
Prueba 12, variación en el número de capas ocultas, neuronas y número de iteraciones 19
Prueba 13, variación en número de capas, neuronas y semilla 21
Prueba 14, variación en el número de neuronas 23
Prueba 15, variación en el número de iteraciones y momentum 24
Conclusiones 29
Referencias 30
Taller RNA 3
Introduccion
modelo de clasificación. En este taller, aprenderemos a utilizar las RNA para construir modelos
conjunto de datos de clientes existentes, que incluye información demográfica y del tipo de
Los perceptrones multicapa son una clase de redes neuronales artificiales que se utilizan para
Objetivos
de clientes rentables.
Especificos:
modelo de clasificación.
un modelo de clasificación.
Taller RNA 5
Desarrollo
Preprocesamiento
Eliminación de atributo ID
Entrenamiento
En la primera prueba, se empleó una configuración con una sola capa oculta y 7 neuronas. Los
resultados arrojaron una notable precisión del 95%, señalando que esta estructura simple
La segunda prueba introdujo una configuración con dos capas ocultas y 1 y 2 neuronas
del 68.33%, indicando que esta estructura más compleja no proporcionó mejoras significativas
iteraciones
llevó a una baja precisión del 54.33%. Esta observación sugiere que la mayor complejidad
introducida por esta configuración no resultó beneficiosa y podría haber afectado negativamente
iteraciones
Taller RNA 11
Las pruebas 4 a 6 exploraron configuraciones con dos capas ocultas y 9 neuronas en cada una,
precisión también mejoró, alcanzando un máximo del 87.17% con 700 unidades de tiempo.
La séptima prueba presentó nuevamente la configuración con dos capas ocultas y 3 y 4 neuronas.
Sin embargo, la precisión resultante de 66.67% sugiere que esta estructura no fue tan efectiva en
iteraciones
Taller RNA 15
En la octava prueba, la configuración con dos capas ocultas y 4 neuronas en cada una logró una
iteraciones
Taller RNA 18
La undécima prueba presentó una configuración simple con una sola capa oculta y 7 neuronas,
alcanzando la máxima precisión del 95.83%. Este resultado resalta la eficacia de una estructura
iteraciones
Taller RNA 20
La duodécima prueba introdujo una configuración con dos capas ocultas y 2 y 1 neuronas. A
pesar de la complejidad adicional, la precisión fue de 68.67%, indicando que esta configuración
Las pruebas 14 y 15 exploraron una configuración con una sola capa oculta y 7 neuronas,
1. HIDDEN_LAYERS:
Tras realizar diversas pruebas con configuraciones variadas para el número de neuronas
en las capas ocultas, que incluyen arreglos como '7', '1, 2', '3, 4', '9, 9', entre otros, se observaron
variaciones sustanciales en la precisión del modelo. Se destacó que configuraciones con más de
comparación con las pruebas que utilizaron una sola capa oculta. Esta observación sugiere que,
para el conjunto de datos y el problema particular abordado, configuraciones más simples con
Taller RNA 27
una sola capa oculta demostraron ser más efectivas en términos de precisión del modelo. Esta
preferencia por estructuras más simples puede reflejar la capacidad de estas configuraciones para
generalizar bien a nuevos datos, evitando posiblemente el sobreajuste asociado con modelos más
complejos
2. LEARNIGN_RATE:
sustanciales en el rendimiento del modelo. Esta observación sugiere que, para el problema
abordado y el conjunto de datos específico, la adopción de una tasa de aprendizaje más baja
conlleva beneficios notables. Un valor reducido de la tasa de aprendizaje, como 0.1, propicia
ajustes más precisos y refinados de los pesos durante el entrenamiento, lo que resulta en mejoras
significativas en la precisión del modelo. Este fenómeno podría indicar que, al adoptar un
3. TRAINING_TIME:
En relación con el tiempo de entrenamiento, se observa que a medida que este valor aumenta,
a medida que se avanzó en las pruebas, se evidenció que la configuración óptima para este
parámetro se encuentra en el rango de 400 a 500 unidades de tiempo. Es destacable que el mejor
entrenamiento se establece en 500 unidades. Este hallazgo sugiere que, para el problema
Taller RNA 28
4. Observaciones:
varias pruebas. Estos casos pueden indicar configuraciones prometedoras que podrían
Conclusiones
A lo largo de las pruebas realizadas en el taller, se pueden destacar los siguientes puntos:
El número de capas ocultas y neuronas: Las pruebas realizadas sugieren que, para el conjunto
de datos y el problema particular abordado, configuraciones más simples con una sola capa
oculta demostraron ser más efectivas en términos de precisión del modelo. Esta preferencia por
estructuras más simples puede reflejar la capacidad de estas configuraciones para generalizar
bien a nuevos datos, evitando posiblemente el sobreajuste asociado con modelos más complejos.
La tasa de aprendizaje: Las pruebas realizadas sugieren que, para el problema abordado y el
conjunto de datos específico, la adopción de una tasa de aprendizaje más baja conlleva
beneficios notables. Un valor reducido de la tasa de aprendizaje, como 0.1, propicia ajustes más
El tiempo de entrenamiento: Las pruebas realizadas sugieren que, para el problema abordado,
unidades de tiempo.
Taller RNA 30
Referencias
Universidad de Bogotá Jorge Tadeo Lozano. (s.f.). Taller Redes de Neuronas Artificiales en
Marketing.