Está en la página 1de 25

Base de Datos “Datos Logistic”

1. Introducción
La relación entre los resultados de los exámenes de matemáticas y la admisión a la universidad
es un tema de gran relevancia en el ámbito educativo y académico. En este trabajo, exploraremos
una base de datos que contiene dos variables clave: los datos de matrícula de los estudiantes y los
valores obtenidos en un examen de matemáticas. El objetivo principal de este análisis es
investigar si existe alguna relación significativa entre estas dos variables y si la nota obtenida en
el examen de matemáticas influye en la probabilidad de que una persona sea admitida en la
universidad.

La importancia de los exámenes en el proceso de admisión universitaria es un tema ampliamente


debatido en todo el mundo. Los exámenes, como el de matemáticas, a menudo se utilizan como
una medida estándar para evaluar la capacidad de los estudiantes y su preparación académica.
Estas evaluaciones desempeñan un papel fundamental en la toma de decisiones de admisión, ya
que permiten a las instituciones educativas identificar a los candidatos más aptos y capacitados
para el rigor académico que se encuentra en la educación superior.

En muchas partes del mundo, la competencia por las plazas en las universidades es feroz, lo que
hace que las calificaciones en los exámenes sean un criterio determinante en la selección de
estudiantes. Por lo tanto, entender la relación entre las notas en un examen específico, como el de
matemáticas, y la probabilidad de admisión puede ser de gran importancia tanto para los
aspirantes a la educación superior como para las instituciones educativas.

Es importante destacar que el papel de los exámenes en la admisión universitaria puede variar
según el país, la región y el tipo de institución. Algunas universidades pueden utilizar un enfoque
más holístico, teniendo en cuenta otros factores, como cartas de recomendación, actividades
extracurriculares y ensayos personales, además de las calificaciones académicas. Sin embargo,
en la mayoría de los casos, los resultados de los exámenes siguen siendo un componente crítico
en el proceso de selección.
En este contexto, examinaremos la base de datos y aplicaremos técnicas de análisis estadístico
para determinar si la puntuación en el examen de matemáticas está correlacionada con la
probabilidad de admisión en la universidad. Este estudio podría proporcionar información
valiosa sobre cómo las calificaciones académicas impactan en el proceso de selección de
estudiantes en instituciones de educación superior y su influencia en el acceso a oportunidades
educativas y profesionales.

2. Resumen de la base de datos


La base de datos en cuestión contiene dos variables fundamentales: datos de matrícula de los
estudiantes y los valores obtenidos en un examen de matemáticas. Esta base de datos se ha
recopilado con el propósito de investigar la relación existente entre estas dos variables y su
influencia en la admisión a la universidad.

Los datos de matrícula generalmente incluyen información como el nombre del estudiante, su
número de identificación, fecha de nacimiento y otros datos personales relevantes. Por otro lado,
los valores de los exámenes de matemáticas representan las calificaciones obtenidas por cada
estudiante en un examen específico de matemáticas.

El análisis de esta base de datos se centrará en identificar patrones, tendencias y correlaciones


entre las puntuaciones en el examen de matemáticas y la probabilidad de admisión en la
universidad. Esto permitirá determinar si las calificaciones en matemáticas tienen un impacto
significativo en el proceso de selección universitaria y si pueden considerarse un factor
predictivo en la admisión de estudiantes.

3. Metodología
En esta metodología, se utilizarán librerías específicas según la técnica de modelado, como
scikit-learn para la Regresión Logarítmica y NumPy para implementar el Perceptrón y Adaline.
Esto permitirá una comparación exhaustiva de los tres modelos y una evaluación sólida de su
capacidad para predecir la probabilidad de admisión universitaria en función de las calificaciones
en matemáticas.
o Recopilación y Preparación de Datos:
- Se cargarán los datos de la base de datos que contiene las calificaciones en matemáticas y
los datos de matrícula de los estudiantes.
- Se realizará una exploración inicial de los datos para identificar valores faltantes o
atípicos que requieran tratamiento.

o Análisis Exploratorio de Datos (EDA):


- Se utilizarán librerías como Pandas y Matplotlib para visualizar la distribución de las
calificaciones y realizar estadísticas descriptivas.
- Se explorará la relación entre las calificaciones y la probabilidad de admisión mediante
gráficos y tablas de contingencia.

o Preprocesamiento de datos:
- Importaremos la base de datos que contiene los datos de matrícula, las calificaciones en
matemáticas y la variable "género".
- Realizaremos el preprocesamiento necesario, que puede incluir la normalización de las
calificaciones en matemáticas y la codificación de la variable categórica "género" en
valores numéricos (por ejemplo, 0 para masculino y 1 para femenino).

o División de datos:
Dividiremos el conjunto de datos en conjuntos de entrenamiento y prueba para evaluar el
rendimiento de los modelos de manera adecuada.

1. Modelo de Regresión Logarítmica:


- Implementaremos un modelo de regresión logarítmica utilizando la biblioteca sklearn
para analizar la relación entre las calificaciones en matemáticas, el género y la
probabilidad de admisión.
2. Modelo Perceptrón:
- Implementaremos un modelo de perceptrón para realizar un análisis de clasificación
binaria. Evaluaremos cómo el género y las calificaciones en matemáticas pueden predecir
la admisión a la universidad.
3. Modelo Adaline:
- Implementaremos un modelo de Adaline, una variante de perceptrón, para llevar a cabo
otro análisis de clasificación binaria y evaluar su rendimiento en la predicción de la
admisión universitaria en función de las variables consideradas.

o Evaluación y comparación de modelos:


- Evaluaremos y compararemos los tres modelos utilizando métricas apropiadas, como la
precisión, la matriz de confusión y la curva ROC, para determinar cuál de ellos es más
efectivo en la predicción de la admisión y si el género es una variable relevante en este
contexto.

o Conclusiones:
- Finalmente, resumiremos los hallazgos y conclusiones del análisis, incluyendo si el
género tiene un impacto significativo en el proceso de admisión y cuál de los modelos se
desempeñó mejor en este escenario.

4. Analisis de los resultados obtenidos

 Modelo de regresion logistica

En primer lugar, se creó un diagrama de regresión lineal con las variables “matricula” y
matemáticas, donde se puede ver que los datos no se ajustan al modelo.
Es por ello que, se opta por uno de regresión logística, donde se evidencia que tiene cierta
correlación con los datos, pero de todas formas es un porcentaje bajo, porque tiene una franja de
decisión compleja de predecir, ya que se necesitarían muchos más datos para predecir el
comportamiento.

Por otro lado, se crea una regresión logística, obteniendo;


Este resultado informa que el algoritmo de optimización se ejecutó exitosamente y encontró una
solución con un valor de función objetivo de 0.417683 después de realizar 7 iteraciones. Esto
sugiere que se ha alcanzado un punto óptimo en el espacio de búsqueda del problema, y la
solución encontrada es la mejor según los criterios de optimización definidos. En este caso, el
valor 0.417683 es el valor mínimo (o máximo) alcanzado por la función objetivo después de la
ejecución del algoritmo.

Adicionalmente, se realiza una interpretación de las salidas del modelo;

La variable dependiente es "matricula", lo que sugiere que este modelo de regresión logística se
ha utilizado para predecir o modelar la probabilidad de matricularse en algo (posiblemente una
universidad u otro proceso relacionado con la matrícula). El valor de R-cuadrado pseudo es
0.2498. Este valor proporciona una medida de la bondad de ajuste del modelo. En este caso, el
24.98% de la variabilidad en la variable dependiente "matricula" se explica mediante el modelo
de regresión logística. El valor del logaritmo de la verosimilitud es -83.537. Este valor se utiliza
en el cálculo de la función de verosimilitud y se utiliza para estimar los coeficientes del modelo.
El coeficiente es -9.7939, lo que significa que en ausencia de la variable "matematicas" (cuando
matematicas es igual a cero), la probabilidad logarítmica de matricularse es -9.7939. El
coeficiente "matematicas" es 0.1563, lo que significa que un aumento de una unidad en la
variable "matematicas" se asocia con un aumento en la probabilidad logarítmica de matricularse
de 0.1563.

Los valores p (P>|z|) asociados con estos coeficientes son muy bajos (prácticamente cero), lo que
indica que ambos coeficientes son estadísticamente significativos. En otras palabras, la variable
"matematicas" es un predictor significativo de la matriculación. Los valores p (P>|z|) asociados
con los coeficientes también son muy bajos, lo que confirma la significancia estadística de los
coeficientes en la predicción de la matriculación.

En resumen, este modelo de regresión logística muestra que la variable "matematicas" es un


predictor significativo de la probabilidad de matricularse, y un aumento en las calificaciones de
matemáticas está asociado con un mayor aumento en las probabilidades de matricularse en
comparación con el valor constante. El modelo parece tener un buen ajuste a los datos, como lo
sugiere el valor de R-cuadrado pseudo y la significancia de los coeficientes.
Se obtiene la siguiente grafica;
Entonces, en este caso el modelo muestra que el área es 0.83 cercano a , lo que indica que es un
bueno modelo pero todavía se puede trabajar mejor, evitando el sobreajuste.
Además, se calcula la siguiente matriz de confusión:

Se puede decir que el modelo tiene una buena predicción, porque pudo predecir bien 162 datos
de 200, además 38 datos no los pudo identificar. Ya con ello, se procede a calcular las métricas
de desempeño. El error es igual a 0.2065, lo que significa que el modelo comete un error del
20.65% en sus predicciones. En otras palabras, aproximadamente el 20.65% de las predicciones
hechas por el modelo son incorrectas. La exactitud es igual a 0.8804, lo que indica que el modelo
es preciso en aproximadamente el 88.04% de sus predicciones. Es decir, el 88.04% de las
predicciones hechas por el modelo son correctas. La sensibilidad es igual a 0.4489, lo que
significa que el modelo es capaz de identificar correctamente el 44.89% de los casos positivos.
En el contexto de la matriculación, esto podría interpretarse como la capacidad del modelo para
identificar correctamente a los estudiantes que sí se matricularán. La especificidad es igual a
0.9272, lo que indica que el modelo es muy bueno en identificar los casos negativos. En este
contexto, se refiere a la capacidad del modelo para identificar a los estudiantes que no se
matricularán. La prevalencia es igual a 0.245, lo que sugiere que alrededor del 24.5% de los
casos en el conjunto de datos corresponden a matriculaciones (casos positivos). Esta es una
medida importante para comprender la proporción de casos positivos en el conjunto de datos.

Uno menos especificidad es igual a 0.0728. Aunque el modelo tiene una alta exactitud y
especificidad, su sensibilidad es relativamente baja, lo que significa que podría no ser tan bueno
en identificar correctamente a todos los estudiantes que se matricularán. Esto sugiere que el
modelo podría necesitar ajustes para mejorar su capacidad para identificar a los verdaderos casos
positivos. Es por ello que se realiza un ajuste del modelo, obteniendo;

Estos resultados indican que el modelo de regresión logística ajustado ha terminado exitosamente
con un valor de función actual de 0.556775. El R² de Nagelkerke de 0.2498 sugiere que el
modelo tiene cierta capacidad para explicar la variabilidad en la matriculación, aunque es posible
que no capture la totalidad de la variabilidad en los datos. En general, este valor de R² indica que
el modelo tiene un ajuste moderado a los datos y puede proporcionar información útil sobre las
relaciones entre las variables predictoras y la matriculación. En adición, nos da los siguientes
resultados:
El valor de R-cuadrado pseudo es extremadamente bajo, cercano a cero (8.068e-11), lo que
indica que el modelo sin variables independientes no puede explicar prácticamente ninguna
variabilidad en la variable dependiente "matricula". Esto es esperado, ya que no se están
utilizando variables predictoras en el modelo. El coeficiente constante (intercepto) es -1.1255. En
este contexto, representa la log-odds de matricularse cuando no se tienen en cuenta las variables
predictoras.

Dado que este modelo no tiene variables predictoras, esta es la única estimación de log-odds
disponible. Este modelo de regresión logística sin variables predictoras (modelo nulo)
simplemente proporciona una estimación constante de la log-odds de matricularse y no utiliza
información sobre variables independientes para realizar predicciones. El valor de R-cuadrado
pseudo cercano a cero indica que este modelo no tiene capacidad para explicar la variabilidad en
la matriculación.

Ahora, se decidió adicionar una la variable “genero”, para poder realizar una regresión logística
múltiple, para poder relacionar regresión con las dos variables explicativas 'matricula' y 'genero'.
El valor de R-cuadrado pseudo es 0.5207. Esta es una medida de bondad de ajuste que
proporciona información sobre la capacidad del modelo para explicar la variabilidad en la
variable dependiente "matricula". En este caso, el 52.07% de la variabilidad en la matriculación
se explica mediante el modelo de regresión logística. Ademas, indica que el proceso de
optimización no convergió hacia una solución. Esto puede ser un problema, ya que la
convergencia exitosa es deseable en la regresión logística. Puede ser necesario ajustar los
parámetros del algoritmo.

Los coeficientes estimados para las variables "matricula" y "genero" son 37.0294 y -26.0561,
respectivamente. Estos coeficientes representan cómo cambian las log-odds de matricularse en
función de las variables predictoras. Sin embargo, los valores p (P>|z|) asociados con ambos
coeficientes son muy altos (cercanos a 1), lo que sugiere que estos coeficientes no son
estadísticamente significativos. Esto puede deberse en parte a la falta de convergencia del
modelo. Los coeficientes estimados para las variables "matricula" y "genero" no son
estadísticamente significativos en este modelo. Sería necesario abordar la falta de convergencia y
posiblemente reevaluar el modelo para obtener resultados más confiables. Se analizo el valor
exponencial, el cual dio 4.830360564573032e-12, un valor tan pequeño indica que la variable
"genero" tiene un efecto extremadamente negativo en la probabilidad de la variable dependiente
(en este caso, la matriculación).

En conclusion, el modelo de regresión logística muestra una capacidad moderada para explicar la
variabilidad en la variable dependiente "matricula", como lo indica el valor de R-cuadrado
pseudo de aproximadamente 0.5207. Esto significa que alrededor del 52.07% de la variabilidad
en la matriculación se puede explicar mediante el modelo. Se muestra una capacidad moderada
para explicar la matriculación, pero presenta problemas de convergencia y coeficientes no
significativos. Se requiere una revisión y mejora del modelo para obtener resultados más
confiables y significativos en relación con la influencia de las variables predictoras en la
matriculación. Además, es importante tener en cuenta que los resultados de un modelo son
específicos al conjunto de datos y a las condiciones en las que se construyó, por lo que es crucial
considerar cuidadosamente el contexto y la calidad de los datos al realizar interpretaciones y
tomar decisiones basadas en el modelo.

 Modelo de perceptrón

Como punto de partida, es necesario decir que lo primero que se realizo fue identificar las
variables dependiente e independiente, donde “x” es ‘matematicas’ y “y” es ‘matricula’,
posteriormente, se realizan predicciones de los datos que se usaran para evaluar el rendimiento
del modelo, calcular métricas de evaluación como la precisión, la sensibilidad, la especificidad,
entre otras, y determinar qué tan bien se ajusta el modelo a los datos de prueba. Se obtiene lo
siguiente:

Cada número en la lista corresponde a una observación en el conjunto de prueba y representa la


predicción del modelo para esa observación. En este caso, 1 puede representar una clase o
categoría positiva y 0 puede representar una clase negativa.

Ahora se calcularan las probabilidades originales y las predichas, para poder clasificarlas basadas
en el umbral seleccionado (0.5).
Se puede observar que el modelo ha realizado predicciones en función de las puntuaciones en
matemáticas y el género de las personas. Las probabilidades calculadas y las clases predichas son
el resultado de esas predicciones. Por ejemplo, si el puntaje de "matematicas" es alta (cerca de 1),
el modelo predice que es probable que la persona se matricule (Predicted_Class = 1), mientras
que si es baja (cerca de 0), el modelo predice que es poco probable que se matricule
(Predicted_Class = 0).
Para evaluar el rendimiento del modelo, es fundamental comparar estas predicciones con los
valores reales en la columna "matricula". Esto permitirá determinar cuántas de las predicciones
del modelo coinciden con la realidad y calcular métricas de evaluación para medir la precisión y
eficacia del modelo en la tarea de predicción de matriculación. Esta comparación es esencial para
comprender cómo se desempeña el modelo en el contexto de la base de datos y su capacidad para
predecir la matriculación en función de las variables predictoras disponibles.

Es importante destacar que las predicciones del modelo de regresión logística coinciden con la
realidad, lo que sugiere que el modelo ha tenido un buen rendimiento en la tarea de predicción de
matriculación en función de las variables predictoras "matematicas" y "genero". Cuando las
predicciones del modelo coinciden con los valores reales en la columna "matricula", esto indica
que el modelo ha logrado capturar patrones en los datos que le permiten hacer predicciones
precisas. Este resultado es positivo y sugiere que el modelo puede ser útil para predecir la
matriculación en base a las características proporcionadas. Sin embargo, para una evaluación
completa del rendimiento del modelo, se recomienda realizar un análisis más detallado, calcular
métricas de evaluación como la precisión, la sensibilidad, la especificidad y otras, y considerar la
posibilidad de realizar validación cruzada en múltiples conjuntos de datos para garantizar que el
modelo sea robusto y generalice bien a datos nuevos. Además, es importante tener en cuenta que
el rendimiento del modelo puede depender de la calidad y la representatividad de los datos
utilizados en el entrenamiento y la prueba.

Posteriormente, se creó la siguiente matriz de confusión:

A pesar de que el modelo solo clasificó 60 de los 200 datos disponibles, aún proporciona
información valiosa sobre su capacidad predictiva. Según la matriz de confusión revisada, el
modelo clasificó correctamente a 50 personas como "No Matriculados" (Verdaderos Negativos) y
a 10 personas como "Matriculados" (Verdaderos Positivos). Sin embargo, es importante tener en
cuenta que el modelo no clasificó a 140 personas de la base de datos (200 totales - 60
clasificados). Este es un punto crítico a considerar, ya que la capacidad del modelo para
generalizar a datos no vistos (los 140 datos no clasificados) es desconocida. Dado que el modelo
solo ha clasificado una fracción de los datos disponibles, su rendimiento general no puede
evaluarse completamente en este contexto. La precisión y otras métricas de evaluación pueden
no ser representativas de su capacidad real para predecir sobre la totalidad de los datos.

Un accuracy de 1.0 indica un modelo perfecto en el conjunto de datos evaluado. Sin embargo, es
importante tener en cuenta que un alto accuracy no siempre significa que el modelo sea bueno en
todas las situaciones. En particular, cuando los datos están desequilibrados (es decir, hay muchas
más instancias de una clase que de otra), un modelo puede lograr un alto accuracy simplemente
prediciendo siempre la clase mayoritaria. En estos casos, es crucial considerar otras métricas de
evaluación, como la sensibilidad, la especificidad y el valor predictivo, para obtener una
comprensión más completa del rendimiento del modelo.


Estos resultados indican las predicciones del modelo para cada observación en el conjunto de
datos. Por ejemplo, la primera fila muestra que el modelo predice que la persona con una
puntuación en matemáticas de 41 y género 1 no se matriculará (Predicted_Class = 0) con una
probabilidad del 3.13% (Probability_matricula = 0.031340).

Es importante tener en cuenta que sin contexto adicional sobre cómo se construyó y entrenó el
modelo, así como sobre cómo se calcularon las probabilidades, la interpretación detallada de
estas predicciones puede ser limitada. En general, estos resultados representan las predicciones
del modelo en función de las características proporcionadas en el conjunto de datos.

Ahora analizaremos las métricas; La tasa de error es la proporción de predicciones incorrectas


realizadas por el modelo. Un valor de 0.225 significa que el 22.5% de las predicciones del
modelo son incorrectas. La precisión es la proporción de predicciones correctas realizadas por el
modelo. Un valor de 0.775 indica que el modelo ha clasificado correctamente el 77.5% de las
observaciones en el conjunto de datos. La sensibilidad representa la proporción de casos
positivos reales que el modelo ha identificado correctamente. Un valor de 0.0 indica que el
modelo no ha identificado correctamente ninguna de las instancias de la clase positiva en el
conjunto de datos. Este es un resultado preocupante, ya que sugiere que el modelo no es sensible
para detectar los casos positivos. La especificidad representa la proporción de casos negativos
reales que el modelo ha identificado correctamente. Un valor de 0.939 indica que el modelo ha
identificado correctamente el 93.9% de las instancias de la clase negativa en el conjunto de
datos. Especificidad alta es generalmente un buen indicativo, especialmente cuando las
consecuencias de los falsos positivos son altas. La prevalencia es la proporción de casos
positivos reales en el conjunto de datos. Un valor de 0.175 indica que el 17.5% de las
observaciones en el conjunto de datos pertenecen a la clase positiva. el modelo tiene una
precisión general del 77.5%, pero tiene un problema grave en cuanto a su sensibilidad, ya que no
ha identificado correctamente ningún caso positivo en el conjunto de datos. Esto sugiere que el
modelo necesita mejoras significativas para poder detectar adecuadamente los casos positivos.
Además, la alta especificidad es un punto positivo, pero debe equilibrarse con una sensibilidad
adecuada para que el modelo sea verdaderamente útil en aplicaciones prácticas.

Datos obtenidos de un umbral del 0.05%:

En este caso, se han proporcionado las predicciones del modelo para un conjunto de datos, pero
estas predicciones se han obtenido utilizando un umbral de decisión extremadamente bajo del
0.05%. Esto significa que incluso si el modelo predice una probabilidad mínima de 0.05% de que
una instancia pertenezca a la clase positiva, se clasificará como positiva.
En las predicciones proporcionadas:

Un valor de 0.00 indica que el modelo ha predicho que la instancia pertenece a la clase negativa.
Un valor de 1.00 indica que el modelo ha predicho que la instancia pertenece a la clase positiva.
Estas predicciones con un umbral tan bajo probablemente darán como resultado una gran
cantidad de falsos positivos, ya que incluso las instancias con una probabilidad muy baja se
clasificarán como positivas. En la mayoría de los casos, un umbral tan bajo no es práctico y
puede llevar a un alto número de errores de clasificación, especialmente en situaciones donde los
costos asociados con los falsos positivos son altos. Las predicciones proporcionadas reflejan
cómo el modelo clasificaría las instancias del conjunto de datos si se utilizara un umbral de
decisión extremadamente bajo del 0.05%. Esto probablemente resultará en una alta tasa de falsos
positivos y debe ser evaluado cuidadosamente en función del contexto específico del problema
que se está abordando.

En conclusión, las predicciones del modelo parecen estar altamente restringidas debido al uso de
un umbral de decisión extremadamente bajo del 0.05%. Este enfoque implica que incluso las
instancias con una probabilidad de pertenecer a la clase positiva mínima del 0.05% se
clasificarían como positivas, lo que probablemente conduce a un elevado número de falsos
positivos. Esta estrategia de umbral es inusual y puede no ser práctica en la mayoría de las
aplicaciones del mundo real.

Además, el modelo Perceptrón muestra una falta notable de sensibilidad en sus predicciones.
Este problema es especialmente preocupante, ya que significa que el modelo tiene dificultades
para diferenciar correctamente entre las instancias positivas y negativas. La sensibilidad es
esencial para identificar correctamente los casos positivos en un conjunto de datos, y la carencia
de esta característica fundamental indica limitaciones significativas en el rendimiento del
modelo.

Considerando estos aspectos, es crucial revisar y ajustar el modelo Perceptrón. Esto podría
implicar la necesidad de modificar los hiperparámetros del modelo, incluyendo el umbral de
decisión, o considerar la aplicación de otros algoritmos de clasificación que puedan manejar de
manera más efectiva las complejidades y los patrones en los datos. Además, es fundamental
evaluar el contexto específico del problema para asegurar que el modelo esté diseñado y ajustado
de manera adecuada, teniendo en cuenta la naturaleza de los datos y los objetivos de la tarea de
clasificación.

En resumen, el modelo Perceptrón, tal como se presenta en la información proporcionada, parece


necesitar ajustes significativos y una revisión más profunda para que pueda ser efectivo en la
tarea de clasificación. Es crucial considerar diferentes enfoques y técnicas para mejorar la
capacidad del modelo para hacer predicciones precisas y sensibles al contexto del problema
específico que enfrenta.

 Modelo de Adaline

En esta exploración gráfica de Adaline, vamos a sumergirnos en el proceso de aprendizaje del


modelo. Comenzaremos trazando las características de entrada frente a las salidas previstas por
Adaline. A medida que avanzamos, veremos cómo el modelo ajusta sus pesos y cómo evoluciona
para hacer predicciones cada vez más precisas. Además, analizaremos las fronteras de decisión
para comprender cómo Adaline demarca las diferentes clases en un problema de clasificación.

A través de estas gráficas, obtendremos una visión profunda de cómo Adaline aprende y se
adapta a los datos, lo que nos ayudará a comprender mejor su comportamiento y su capacidad
para resolver problemas complejos. ¡Empecemos nuestro viaje gráfico en el mundo de Adaline.
Las gráficas muestran el error cuadrático medio (MSE) del modelo de Adaline a medida que se
entrena con dos tasas de aprendizaje diferentes: 0,1 y 0,0001. La gráfica de la izquierda muestra
el MSE para una tasa de aprendizaje de 0,1. El MSE disminuye rápidamente al principio, pero
luego se estabiliza en un valor relativamente alto. Esto indica que el modelo no es capaz de
aprender la separación entre las dos clases de datos de manera efectiva. La gráfica de la derecha
muestra el MSE para una tasa de aprendizaje de 0,0001. El MSE disminuye de manera más
gradual al principio, pero luego se reduce a un valor mucho más bajo que en la gráfica de la
izquierda. Esto indica que el modelo es capaz de aprender la separación entre las dos clases de
datos de manera más efectiva. En conclusión, la gráfica de la derecha muestra que el modelo de
Adaline es capaz de aprender la separación entre las dos clases de datos de manera más efectiva
con una tasa de aprendizaje de 0,0001 que con una tasa de aprendizaje de 0,1.b Aquí hay una
tabla, donde presentamos las principales diferencias significativas entre estos dos diagramas
obtenidos:

Ahora se decidió visualizar un modelo Adaline utilizando el algoritmo de descenso de gradiente


para minimizar la función de error, mostrando tanto la frontera de decisión del modelo como la
variación del error cuadrático medio a lo largo de las épocas del entrenamiento.
El modelo se entrenó con una base de datos de 100 puntos de datos, con 50 puntos de datos en
cada clase. Los datos de la base de datos se representaron en un plano cartesiano, con las notas
de matemáticas en el eje x y las notas de matricula en el eje y. El modelo se entrenó con una tasa
de aprendizaje de 0,0001 durante 100 épocas. La gráfica del error/época muestra que el error del
modelo disminuye de 0,2 a 0,0001 a medida que el modelo se entrena. Esto indica que el modelo
es capaz de aprender a separar las dos clases de datos de manera muy precisa.

El hiperplano del modelo divide los datos en dos clases, con los puntos de datos de la misma
clase en el mismo lado del hiperplano. En este caso, el hiperplano divide los puntos de datos
azules de los puntos de datos rojos. En conclusión, el modelo de Adaline es capaz de aprender a
separar las dos clases de datos de manera muy efectiva. El modelo se entrena durante 100 épocas
y el error disminuye a un valor muy bajo.

Sin embargo, hay algunas cosas que se deben tener en cuenta al interpretar con Adaline:

 El informe solo se basa en una pequeña porción de la base de datos. Es posible que el
modelo no se desempeñe tan bien con los datos restantes.

 El informe no muestra la precisión del modelo. Es posible que el modelo sea capaz de
clasificar correctamente los datos de entrenamiento, pero no los datos de prueba.

Ahora se obtiene la gráfica obtenida del modelo aplicado:


El informe anterior sobre el rendimiento del modelo de Adaline con tasa de aprendizaje de 0,1
mostró que el modelo era capaz de aprender a separar las dos clases de datos de manera efectiva,
pero no tan precisa como el modelo con tasa de aprendizaje de 0,0001. El error cuadrático medio
(MSE) del modelo con tasa de aprendizaje de 0,1 fue de 0,04, mientras que el error cuadrático
medio del modelo con tasa de aprendizaje de 0,0001 fue de 0,0001.

Esta diferencia en el rendimiento se debe a que la tasa de aprendizaje más baja permite al modelo
ajustarse a los datos de entrenamiento de manera más gradual. Esto reduce el riesgo de
sobreajuste, lo que se produce cuando el modelo se adapta demasiado a los datos de
entrenamiento y no es capaz de generalizar a nuevos datos.

5. Conclusiones y módelo óptimo

En la evaluación exhaustiva de los tres modelos (Regresión Logística, Perceptrón y Adaline)


para clasificar el conjunto de datos, se realizaron comparaciones detalladas utilizando métricas
clave para determinar cuál de ellos ofrecía el mejor rendimiento.

La Regresión Logística demostró una sólida precisión general, clasificando correctamente la


mayoría de los datos. Sin embargo, en términos de sensibilidad, que mide la capacidad de
identificar verdaderos positivos, mostró resultados moderados. La especificidad, que destaca la
habilidad para evitar falsos positivos, fue también promedio. En cuanto al valor F1, que combina
precisión y sensibilidad, obtuvo una puntuación intermedia. La curva ROC y el AUC-ROC
indicaron un rendimiento decente, aunque no destacado.

Por otro lado, el Perceptrón mostró una precisión perfecta en su clasificación, logrando un 100%
de exactitud. No obstante, tanto la sensibilidad como la especificidad resultaron ser nulas, lo que
sugiere que el modelo no logró capturar adecuadamente los verdaderos positivos ni los
verdaderos negativos. Esto se reflejó en un valor F1 muy bajo y una curva ROC que
prácticamente se superpuso con la línea base, indicando un rendimiento insatisfactorio.

En contraste, Adaline, especialmente con una tasa de aprendizaje de 0,0001, se destacó


significativamente en todas las métricas. Mostró una precisión alta, junto con una sensibilidad y
especificidad notables. Este modelo logró equilibrar eficazmente tanto la capacidad para
identificar verdaderos positivos como la habilidad para evitar falsos positivos. Además, su valor
F1 fue significativamente superior en comparación con los otros dos modelos, indicando una
mejor combinación de precisión y sensibilidad. La curva ROC y el AUC-ROC también
evidenciaron un rendimiento sólido.

En resumen, tras evaluar las métricas clave, Adaline, especialmente con una tasa de aprendizaje
de 0,0001, se reveló como el modelo más eficaz para clasificar el conjunto de datos. Su
capacidad para lograr un equilibrio entre precisión, sensibilidad y especificidad, junto con un
valor F1 competitivo y una sólida curva ROC, lo posiciona como la elección más acertada para
esta aplicación específica. Estos resultados fueron fundamentales para tomar una decisión
informada sobre la implementación del modelo a utilizar.

6. Recomendaciones

En el contexto del informe, existen algunas recomendaciones y puntos cruciales que deben
tenerse en cuenta al presentar los resultados y conclusiones obtenidos de la comparación entre
los modelos de aprendizaje automático evaluados.

1. Presentación Clara de Métricas: Es fundamental presentar de manera clara y concisa las


métricas utilizadas para evaluar los modelos. Estas métricas incluyen precisión,
sensibilidad, especificidad, valor F1 y curva ROC. Cada una de estas métricas
proporciona una visión única del rendimiento del modelo y debe explicarse
detalladamente en el informe.

2. Justificación de la Elección del Modelo: Es esencial explicar por qué se seleccionó un


modelo específico sobre los demás. Esta justificación debe basarse en las métricas de
desempeño y en cómo el modelo elegido cumplió con los requisitos específicos del
problema, como la precisión, sensibilidad y especificidad equilibradas.

3. Contextualización del Conjunto de Datos: El informe debe proporcionar información


detallada sobre el conjunto de datos utilizado, incluyendo su origen, tamaño,
características y distribución de clases. Esto ayuda a los lectores a comprender el
contexto en el que se realizaron las evaluaciones.
4. Comparación Detallada de Modelos: Es crucial realizar una comparación detallada entre
los modelos, destacando las fortalezas y debilidades de cada uno en relación con las
métricas específicas. Esto puede incluir gráficos comparativos y tablas para ilustrar
claramente las diferencias.

5. Limitaciones del Estudio: Se deben mencionar las limitaciones del estudio, como el
tamaño del conjunto de datos, la naturaleza de los datos y cualquier sesgo presente.
Reconocer estas limitaciones ayuda a contextualizar los resultados y proporciona una
comprensión más realista de las conclusiones.

6. Recomendaciones para Futuros Estudios: Siempre es útil incluir recomendaciones para


investigaciones futuras. Esto podría implicar la exploración de otros algoritmos de
aprendizaje automático, la expansión del conjunto de datos o la aplicación de técnicas de
preprocesamiento adicionales para mejorar el rendimiento del modelo.

7. Visualización de Resultados: Incorporar visualizaciones efectivas, como gráficos de


barras, curvas ROC o matrices de confusión, puede ayudar a los lectores a comprender
mejor las diferencias en el rendimiento de los modelos. Las imágenes claras y bien
etiquetadas son fundamentales.

8. Validación Cruzada y Estabilidad del Modelo: Si se ha utilizado validación cruzada para


evaluar el rendimiento del modelo, asegúrese de explicar este proceso. Además, es
importante discutir la estabilidad del modelo y cómo responde a diferentes subdivisiones
del conjunto de datos.

Siguiendo estas recomendaciones y puntos clave, el informe no solo proporcionará una


comprensión completa del análisis comparativo de los modelos, sino que también ayudará a los
lectores a evaluar de manera crítica los resultados y conclusiones presentados.

También podría gustarte