Documentos de Académico
Documentos de Profesional
Documentos de Cultura
P9 ArbolesDecision
P9 ArbolesDecision
Árboles de decisión
En esta práctica vamos a ver un sistema de aprendizaje basado en árboles de decisión
capaz de generar un conjunto de reglas. Este sistema es el más utilizado y conocido.
1 C4.5
C4.5 es el nombre del sistema de aprendizaje que vamos a utilizar. Lo puedes obtener
en:
http://www.aic.uniovi.es/ssii/P9/winc4.5.zip
Tiene dos clases: jugar o no jugar. Y tiene cuatro atributos: dos simbólicos y dos
numéricos. Los simbólicos indican los símbolos que pueden tomar.
En el fichero golf.data están los ejemplos:
Son 14 ejemplos. Cada ejemplo tiene un valor para cada atributo y su clase o categoría.
$ c4.5 –f Data\golf
Options:
File stem <Data\golf>
Read 14 cases (4 attributes) from Data\golf.data
Decision Tree:
Tree saved
En la salida del algoritmo se ve también el resultado del árbol antes y después de podar.
Size es el número de nodos del árbol, Errors el número de errores en el conjunto de
entrenamiento y Estimate el porcentaje de error que estima que tendría sobre un
conjunto de test.
Si tenemos un conjunto de test, podemos utilizar el parámetro –u, que hace que el
algoritmo, una vez haya aprendido, evalúe su árbol sobre el conjunto de test
mostrándonos los resultados y la matriz de confusión.
Podríamos, ahora, ejecutar consult. Este programa nos permite evaluar nuevos
ejemplos.
$ consult –f Data\golf
C4.5 [release 8] decision tree interpreter Fri May 06 12:54:13 2005
------------------------------------------
outlook: sunny
humidity: 34
Decision:
Play CF = 1.00 [ 0.50 - 1.00 ]
Podemos obtener reglas a partir del árbol. Esto se logra con el algoritmo c4.5rules:
$ c4.5rules –f Data\golf
Options:
File stem <Data\golf>
------------------
Processing tree 0
Rule 2:
outlook = overcast
-> class Play [70.7%]
Rule 4:
outlook = rain
windy = false
-> class Play [63.0%]
Rule 1:
outlook = sunny
humidity > 75
-> class Don't Play [63.0%]
Rule 3:
outlook = rain
windy = true
-> class Don't Play [50.0%]
Default class: Play
Vemos que aparecen varias reglas y al final una clase por defecto. Los ejemplos que no
cumplan las condiciones de ninguna regla serán clasificados con el valor que tiene la
clase por defecto. Entre corchetes se indica el acierto esperado de cada regla.
Aparece, luego, una tabla con los siguientes valores:
• Rules: número de regla que le asignó c4.5rules
• Size: número de antecedentes de la regla
• Error: el error esperado de la regla
• Used: número de veces que fue utilizada
• Wrong: número de veces que ha fallado
• Advantage: ventaja entre aciertos y fallos de la regla. Por ejemplo, si tenemos
2(3|1) quiere decir que esta regla se ha utilizado 4 veces: tres veces
correctamente y una vez de manera incorrecta. Por tanto la ventaja es dos.
Finalmente vemos la matriz de confusión.
La ejecución de c4.5rules genera un fichero:
• golf.rules. Este fichero almacena las reglas y es necesario para ejecutar el
programa consultr.
Podemos, por tanto, utilizar consultr para evaluar un ejemplo con las reglas:
$ consult –f Data\golf
C4.5 [release 8] production rule interpreter Fri May 06 13:21:11
2005
--------------------------------------------
outlook: sunny
Decision:
Play (default class)
http://www2.cs.uregina.ca/~dbd/cs831/notes/ml/dtrees/c4.5/tutorial.html
1.1 Trabajo
Aplicar este algoritmo sobre los conjuntos de datos que aparecen en el directorio Data.
C:\Archivos de programa\MATLAB\R2007a\java\jar
¿Por qué estamos tan interesados en instalar el Weka? Porque tienen una
implementación del C4.5 llamada j48 (¿?) y la nueva versión de Spider nos permite
utilizarla como un algoritmo más. Veamos un problema en el que tenemos 200 ejemplos
en un espacio bidimensional uniformemente distribuidos en el intervalo [0,1]:
>> x=rand(200,2);
>> y=ones(200,1);
Serán de clase positiva todos los ejemplos excepto aquellos cuyas coordenadas cumplan
que ambas son menores que 0.5 o la primera mayor que 0.75 y la segunda mayor que
0.9.
>> indexneg=find(x(:,1)<0.5 & x(:,2)<0.5);
>> y(indexneg)=-1;
>> indexneg=find(x(:,1)>0.75 & x(:,2)>0.9);
>> y(indexneg)=-1;
>> d=data(x,y);
Ahora ya podemos crear un sistema j48 y experimentar con el utilizando las técnicas
de evaluación vistas en la práctica anterior.
>> a=j48;
>> [r s]=train(cv(a),d);
>> get_mean(r)
Podemos también ver el árbol que genera cuando hacemos un entrenamiento simple:
Number of Leaves : 5
Incluso podemos ver gráficamente las reglas si trabajamos con problemas de dos
dimensiones:
>> plot(s,d)
http://www.ics.uci.edu/~mlearn/MLRepository.html
y experimentamos con diferentes conjuntos de datos. Utiliza el j48 para aprender sobre
esos conjuntos. ¿Qué sistema te ofrece mejores resultados? ¿El knn? ¿El j48?