Está en la página 1de 30

1

Taller RNA

Presentado por:

Carlos Mateo Martinez Guerra

Eylin Vanessa Ortega Buelvas

Presentado a:

Oswaldo Enrique Vélez Langs

Asignatura:

Aprendizaje Computacional

Universidad de Córdoba

Facultad de ingeniería

Ingeniería de sistemas

Montería - Córdoba
Taller RNA 2

2023

Tabla de contenido

Tabla de contenido 2
Introduccion 3
Objetivos 4
Desarrollo 5
Preprocesamiento 5
Entrenamiento 6
Prueba 1, valores por defecto para el modelo MultilayerPerceptron 6
Prueba 2, variación en el número de capas ocultas y neuronas 8
Prueba 3, variación en el número de capas ocultas, neuronas y número de iteraciones 9
Prueba 4, variación en el número de capas ocultas, neuronas y número de iteraciones 10
Prueba 5, variación en el número de iteraciones 11
Prueba 6, variación en el número de iteraciones 11
Prueba 7, variación en el número de capas ocultas y neuronas 12
Prueba 8, variación en el número de capas ocultas, neuronas y número de iteraciones 14
Prueba 9, variación en el número de capas ocultas, neuronas y semilla 15
Prueba 10, variación en el número de semilla 16
Prueba 11, variación en el número de neuronas, número de semilla y número de
iteraciones 17
Prueba 12, variación en el número de capas ocultas, neuronas y número de iteraciones 19
Prueba 13, variación en número de capas, neuronas y semilla 21
Prueba 14, variación en el número de neuronas 23
Prueba 15, variación en el número de iteraciones y momentum 24
Conclusiones 29
Referencias 30
Taller RNA 3

Introduccion

El taller de preprocesamiento y entrenamiento de modelos de aprendizaje automático tiene como

objetivo explorar los efectos de diferentes configuraciones de parámetros en el rendimiento de un

modelo de clasificación. En este taller, aprenderemos a utilizar las RNA para construir modelos

predictivos de clientes. El objetivo de este taller es identificar las configuraciones óptimas de

parámetros para un modelo de clasificación de clientes rentables. Para ello, utilizaremos un

conjunto de datos de clientes existentes, que incluye información demográfica y del tipo de

cuentas que poseen. Se utilizará un modelo de aprendizaje automático, un perceptrón multicapa.

Los perceptrones multicapa son una clase de redes neuronales artificiales que se utilizan para

resolver problemas de clasificación y regresión.


Taller RNA 4

Objetivos

General: Identificar las configuraciones óptimas de parámetros para un modelo de clasificación

de clientes rentables.

Especificos:

● Explorar los efectos de diferentes configuraciones de parámetros en el rendimiento de un

modelo de clasificación.

● Comprender cómo funcionan los perceptrones multicapa.

● Comprender las implicaciones de las configuraciones de parámetros en el rendimiento de

un modelo de clasificación.
Taller RNA 5

Desarrollo

Preprocesamiento

Eliminación de atributo ID

El atributo ID es irrelevante en la predicción y no tiene relación con los atributos, además de

causar problemas en la ejecución del modelo predictivo.


Taller RNA 6

Entrenamiento

Prueba 1, valores por defecto para el modelo MultilayerPerceptron


Taller RNA 7

En la primera prueba, se empleó una configuración con una sola capa oculta y 7 neuronas. Los

resultados arrojaron una notable precisión del 95%, señalando que esta estructura simple

demuestra ser altamente efectiva para el problema en cuestión.


Taller RNA 8

Prueba 2, variación en el número de capas ocultas y neuronas


Taller RNA 9

La segunda prueba introdujo una configuración con dos capas ocultas y 1 y 2 neuronas

respectivamente. Sin embargo, el rendimiento se vio comprometido, alcanzando una precisión

del 68.33%, indicando que esta estructura más compleja no proporcionó mejoras significativas

en comparación con configuraciones más simples.

Prueba 3, variación en el número de capas ocultas, neuronas y número de

iteraciones

En la tercera prueba, la configuración con dos capas ocultas y 3 y 4 neuronas respectivamente

llevó a una baja precisión del 54.33%. Esta observación sugiere que la mayor complejidad

introducida por esta configuración no resultó beneficiosa y podría haber afectado negativamente

la capacidad de generalización del modelo


Taller RNA 10

Prueba 4, variación en el número de capas ocultas, neuronas y número de

iteraciones
Taller RNA 11

Prueba 5, variación en el número de iteraciones

Prueba 6, variación en el número de iteraciones


Taller RNA 12

Las pruebas 4 a 6 exploraron configuraciones con dos capas ocultas y 9 neuronas en cada una,

variando el tiempo de entrenamiento. A medida que el tiempo de entrenamiento aumentó, la

precisión también mejoró, alcanzando un máximo del 87.17% con 700 unidades de tiempo.

Prueba 7, variación en el número de capas ocultas y neuronas


Taller RNA 13

La séptima prueba presentó nuevamente la configuración con dos capas ocultas y 3 y 4 neuronas.

Sin embargo, la precisión resultante de 66.67% sugiere que esta estructura no fue tan efectiva en

comparación con otras configuraciones más simples.


Taller RNA 14

Prueba 8, variación en el número de capas ocultas, neuronas y número de

iteraciones
Taller RNA 15

En la octava prueba, la configuración con dos capas ocultas y 4 neuronas en cada una logró una

precisión del 75.5%, mostrando un rendimiento competitivo pero no sobresaliente en

comparación con estructuras más simples.

Prueba 9, variación en el número de capas ocultas, neuronas y semilla


Taller RNA 16

Prueba 10, variación en el número de semilla


Taller RNA 17

Prueba 11, variación en el número de neuronas, número de semilla y número de

iteraciones
Taller RNA 18

La undécima prueba presentó una configuración simple con una sola capa oculta y 7 neuronas,

alcanzando la máxima precisión del 95.83%. Este resultado resalta la eficacia de una estructura

simple con un número moderado de neuronas.


Taller RNA 19

Prueba 12, variación en el número de capas ocultas, neuronas y número de

iteraciones
Taller RNA 20

La duodécima prueba introdujo una configuración con dos capas ocultas y 2 y 1 neuronas. A

pesar de la complejidad adicional, la precisión fue de 68.67%, indicando que esta configuración

no fue tan efectiva como algunas alternativas más simples.


Taller RNA 21

Prueba 13, variación en número de capas, neuronas y semilla


Taller RNA 22
Taller RNA 23

Prueba 14, variación en el número de neuronas


Taller RNA 24

Prueba 15, variación en el número de iteraciones y momentum


Taller RNA 25

Las pruebas 14 y 15 exploraron una configuración con una sola capa oculta y 7 neuronas,

variando el tiempo de entrenamiento y la tasa de aprendizaje. Se lograron altas precisiones,

destacando el 96.33% con 500 unidades de tiempo y tasa de aprendizaje 0.1.

PRUEBA HIDDEN_ LEARNIG MOMENT TRAININ SEED PRECISIO


LAYERS N_RATE UM G_TIME N (%)

1 a(7) 0.3 0.2 500 0 95.5

2 1, 2 0.3 0.2 500 0 68.3333

3 3, 4 0.3 0.2 400 1 54.3333

4 9, 9 0.3 0.2 510 1 85.3333

5 9, 9 0.3 0.2 600 1 87

6 9, 9 0.3 0.2 700 1 87.1667

7 3, 4 0.3 0.2 700 1 66.6667

8 4, 4 0.3 0.2 500 1 75.5

9 5 0.3 0.2 500 0 94

10 5 0.3 0.2 500 5 94

11 7 0.3 0.2 800 1 95.8333

12 2, 1 0.3 0.2 400 1 68.6667

13 2 0.1 0.2 400 0 87.8333

14 a(7) 0.1 0.2 400 0 96

15 a(7) 0.1 0.3 500 0 96.3333


Taller RNA 26

A lo largo de las pruebas se pueden destacar los siguientes puntos:

1. HIDDEN_LAYERS:

Tras realizar diversas pruebas con configuraciones variadas para el número de neuronas

en las capas ocultas, que incluyen arreglos como '7', '1, 2', '3, 4', '9, 9', entre otros, se observaron

variaciones sustanciales en la precisión del modelo. Se destacó que configuraciones con más de

dos capas ocultas y varias neuronas no aportaron resultados significativamente relevantes en

comparación con las pruebas que utilizaron una sola capa oculta. Esta observación sugiere que,

para el conjunto de datos y el problema particular abordado, configuraciones más simples con
Taller RNA 27

una sola capa oculta demostraron ser más efectivas en términos de precisión del modelo. Esta

preferencia por estructuras más simples puede reflejar la capacidad de estas configuraciones para

generalizar bien a nuevos datos, evitando posiblemente el sobreajuste asociado con modelos más

complejos

2. LEARNIGN_RATE:

En el análisis de la tasa de aprendizaje, se destaca que un valor de 0.1 muestra mejoras

sustanciales en el rendimiento del modelo. Esta observación sugiere que, para el problema

abordado y el conjunto de datos específico, la adopción de una tasa de aprendizaje más baja

conlleva beneficios notables. Un valor reducido de la tasa de aprendizaje, como 0.1, propicia

ajustes más precisos y refinados de los pesos durante el entrenamiento, lo que resulta en mejoras

significativas en la precisión del modelo. Este fenómeno podría indicar que, al adoptar un

enfoque más cauteloso en la actualización de los pesos, se evitan oscilaciones, divergencias y

posibles problemas de sobreajuste.

3. TRAINING_TIME:

En relación con el tiempo de entrenamiento, se observa que a medida que este valor aumenta,

los resultados en términos de precisión no experimentan variaciones significativas. Sin embargo,

a medida que se avanzó en las pruebas, se evidenció que la configuración óptima para este

parámetro se encuentra en el rango de 400 a 500 unidades de tiempo. Es destacable que el mejor

resultado en términos de precisión se alcanza específicamente cuando el tiempo de

entrenamiento se establece en 500 unidades. Este hallazgo sugiere que, para el problema
Taller RNA 28

abordado, incrementar el tiempo de entrenamiento más allá de cierto punto no proporciona

mejoras sustanciales en el rendimiento del modelo, y se identifica un punto óptimo alrededor de

500 unidades de tiempo.

4. Observaciones:

Algunas configuraciones, como "a(7)" y "5", parecen proporcionar altas precisiones en

varias pruebas. Estos casos pueden indicar configuraciones prometedoras que podrían

beneficiarse de más ajustes y exploración.


Taller RNA 29

Conclusiones

A lo largo de las pruebas realizadas en el taller, se pueden destacar los siguientes puntos:

El número de capas ocultas y neuronas: Las pruebas realizadas sugieren que, para el conjunto

de datos y el problema particular abordado, configuraciones más simples con una sola capa

oculta demostraron ser más efectivas en términos de precisión del modelo. Esta preferencia por

estructuras más simples puede reflejar la capacidad de estas configuraciones para generalizar

bien a nuevos datos, evitando posiblemente el sobreajuste asociado con modelos más complejos.

La tasa de aprendizaje: Las pruebas realizadas sugieren que, para el problema abordado y el

conjunto de datos específico, la adopción de una tasa de aprendizaje más baja conlleva

beneficios notables. Un valor reducido de la tasa de aprendizaje, como 0.1, propicia ajustes más

precisos y refinados de los pesos durante el entrenamiento, lo que resulta en mejoras

significativas en la precisión del modelo.

El tiempo de entrenamiento: Las pruebas realizadas sugieren que, para el problema abordado,

incrementar el tiempo de entrenamiento más allá de cierto punto no proporciona mejoras

sustanciales en el rendimiento del modelo, y se identifica un punto óptimo alrededor de 500

unidades de tiempo.
Taller RNA 30

Referencias

Universidad de Bogotá Jorge Tadeo Lozano. (s.f.). Taller Redes de Neuronas Artificiales en

Marketing.

También podría gustarte