Está en la página 1de 9

CASO DE USO II: ARBOL DE DECISION

PRESENTADO POR:
VALENTINA FUENTES MEJIA

PRESENTADO A :
OSWALDO VELEZ

ASIGNATURA:
APRENDIZAJE COMPUTACIONAL

FACULTAD DE INGENIERIA
INGENIERIA DE SISTEMAS
UNIVERSIDAD DE CORDOBA

2021
INTRODUCCION:
El caso de uso mostrado a continuación se ilustra, a través de un paso a paso,
como elaborar un modelo de Árbol de Decisión usando el algoritmo, se toma
como insumo el conjunto de datos:
“vegetación”

Clase
ID CORRIENTE INCLINACION ELEVACION VEGETACION

1 FALSO escarpado alta chaparral

2 VERDADERO moderado baja ribera

3 VERDADERO escarpado media ribera

4 FALSO moderado media chaparral

5 FALSO plano alta conifera

6 VERDADERO escarpado muy alta conifera

7 VERDADERO escarpado alta chaparral


CASO DE USO ÁRBOL DE DESICION

El conjunto de datos “vegetación” contiene:

Atributos: 5 teniendo en cuenta que el atributo vegetación es la clase

Instancias: 7

DESCRIPCION ATRIBUTOS:

 ID(cuantitativo)
Tipo numerico
 CORRIENTE(cualitativo)
Tipo numerico
 INCLINACION(cualitativo)
Tipo nominal
 ELEVACION(cualitativa)
Tipo nominal
 VEGETACION clase(cualitativo)
Tipo nominal

PASOS PARA REALIZAR ARBOL DE DECISION EN WEKA

 Abrimos la herramienta weka ,damos click en explorer


 Luego click en open file y escogemos el archivo que vamos abrir.

 Luego de tener nuestro archivo abierto

 Nos dirigimos a la pestaña de classify


 Seleccionamos choose nos dirigimos donde dice tree y damos clic en J48

 CLIC EN START
En la imagen anterior se nos muestra el algoritmo de clasificación J48 que viene a
continuación:

=== Run information ===

Scheme: weka.classifiers.trees.J48 -U -M 2
Relation: vegeta-arbol
Instances: 7
Attributes: 5
ID
Corriente
Inclinacion
Elevacion
Vegetacion
Test mode: evaluate on training data

=== Classifier model (full training set) ===

J48 unpruned tree


------------------

Elevacion = alta: chaparral (3.0/1.0)


Elevacion = baja: ribera (1.0)
Elevacion = media: chaparral (2.0/1.0)
Elevacion = muy alta: conifera (1.0)

Number of Leaves : 4

Size of the tree : 5

Time taken to build model: 0 seconds

=== Evaluation on training set ===

Time taken to test model on training data: 0 seconds

=== Summary ===

Correctly Classified Instances 5 71.4286 %


Incorrectly Classified Instances 2 28.5714 %
Kappa statistic 0.5333
Mean absolute error 0.2222
Root mean squared error 0.3333
Relative absolute error 50.7246 %
Root relative squared error 71.3766 %
Total Number of Instances 7

=== Detailed Accuracy By Class ===

TP Rate FP Rate Precision Recall F-Measure MCC ROC Area PRC Area Class
1,000 0,500 0,600 1,000 0,750 0,548 0,792 0,644 chaparral
0,500 0,000 1,000 0,500 0,667 0,645 0,950 0,833 ribera
0,500 0,000 1,000 0,500 0,667 0,645 0,900 0,750 conifera
Weighted Avg. 0,714 0,214 0,829 0,714 0,702 0,604 0,868 0,729

=== Confusion Matrix ===

a b c <-- classified as
3 0 0 | a = chaparral
1 1 0 | b = ribera
1 0 1 | c = conífera

 En el algoritmo anterior se nos muestra


 El numero de instancias 7 de las cuales
Instancias correctamente clasificadas 5 71.4286 %
Instancias incorrectamente clasificadas 2 28.5714 %

 El numero de atributos 5
 Error absoluto 50.7246 %
 Error cuadrático 71.3766 %
 Nos muestra en detalle el Accuracy

 Y la matriz de confusión en donde la clase se encuentra clasificada de la siguiente manera


Chaparral: 3
Ribera: 2
Conífera: 2

 Para hacer visible el árbol de decisión damos clic derecho en visualize tree
 Visualizamos el árbol de decisión

En el árbol de decisión anterior lo que notamos es esto:

Elevacion = alta: chaparral (3.0/1.0)

Elevacion = baja: ribera (1.0)

Elevacion = media: chaparral (2.0/1.0)

Elevacion = muy alta: conifera (1.0)

Number of Leaves : 4

Size of the tree : 5

También podría gustarte