Está en la página 1de 6

== Run information ===

Scheme: weka.classifiers.rules.ZeroR
Relation: INFRAESTRUCTURA
Instances: 10
Attributes: 6
ID del Proyecto
Nombre del Proyecto
Fecha de Inicio
Fecha de Finalización
Responsable
¿CUMPLIO EL PLAZO?
Test mode: 10-fold cross-validation

=== Classifier model (full training set) ===

ZeroR predicts class value: SI

Time taken to build model: 0 seconds


=== Stratified cross-validation ===
=== Summary ===

Correctly Classified Instances 7 70 %


Incorrectly Classified Instances 3 30 %
Kappa statistic 0
Mean absolute error 0.4727
Root mean squared error 0.5012
Relative absolute error 100 %
Root relative squared error 100 %
Total Number of Instances 10

=== Detailed Accuracy By Class ===

TP Rate FP Rate Precision Recall F-Measure MCC ROC Area PRC Area Class
1.000 1.000 0.700 1.000 0.824 ? 0.000 0.700 SI
0.000 0.000 ? 0.000 ? ? 0.000 0.300 NO
Weighted Avg. 0.700 0.700 ? 0.700 ? ? 0.000 0.580

=== Confusion Matrix ===


a b <-- classified as
7 0 | a = SI
3 0 | b = NO

Y Después para interpretar los datos del siguiente programa con uso de la inteligencia artificial.

1. Resumen General:

• Instancias: Hay 10 instancias en tu conjunto de datos.

• Atributos: Hay 6 atributos, incluyendo el ID del Proyecto, Nombre del Proyecto, Fecha de Inicio, Fecha de Finalización,
Responsable, y la variable objetivo "¿CUMPLIO EL PLAZO?".

• Esquema de Clasificación: El clasificador utilizado es ZeroR, que predice la clase mayoritaria en el conjunto de datos.

2. Rendimiento del Modelo:

• Correctly Classified Instances: 7 instancias (70%).

• Incorrectly Classified Instances: 3 instancias (30%).

• Kappa statistic: Mide la concordancia entre las predicciones del modelo y las clases reales. Un valor de 0 indica un rendimiento
igual al azar.

• Mean absolute error: 0.4727, que indica la diferencia promedio entre las predicciones y los valores reales.

• Root mean squared error: 0.5012, que mide la dispersión de los errores.

3. Detalle de Precisión por Clase:

• Para la clase "SI":


• TP Rate (Tasa de Verdaderos Positivos): 1.000 (todos los casos positivos fueron clasificados correctamente).

• Precision: 0.700 (la proporción de instancias predichas como positivas que son realmente positivas).

• Para la clase "NO":

• Todas las métricas para la clase "NO" no se pudieron calcular debido a la falta de predicciones correctas.

4. Matriz de Confusión:

• La matriz de confusión muestra que de las 7 instancias de la clase "SI", todas fueron clasificadas correctamente. Sin embargo,
para la clase "NO", todas las instancias fueron incorrectamente clasificadas como "SI".

En resumen, el modelo ZeroR está prediciendo la clase mayoritaria ("SI") para todas las instancias, lo que resulta en un rendimiento deficiente en
términos de precisión global y especialmente para la clase minoritaria ("NO"). Este modelo no está proporcionando información útil sobre las
instancias que no cumplen el plazo. Considerar modelos más complejos y ajustar los parámetros puede mejorar los resultados.

También podría gustarte