Está en la página 1de 32

APRENDIZAJE

COMPUTACIONAL

CASO DE USO II: ARBOL DE DECISION


Oswaldo Velez-Langs, PhD
oswaldovelez@correo.unicordoba.edu.co

Web:
INTRODUCCION
El caso de uso mostrado a continuación nos
ilustra, a través de un paso a paso, como
elaborar un modelo de Árbol de Decisión
usando el algoritmo, se toma como insumo
el conjunto de datos:
“farmaco”
INTRODUCCION
Un vistazo a los datos:
Presion Azucar en Indice de Alergia a Otras Administrar
Paciente Arterial Sangre Colesterol Antibioticos Alergias Farmaco
1 Alta Alto Alto No No Si
2 Alta Alto Alto Si No Si
3 Baja Alto Bajo No No Si
4 Media Alto Alto No Si No
5 Media Bajo Alto Si Si No
6 Baja Bajo Alto Si Si Si
7 Alta Bajo Alto Si No Si
8 Alta Bajo Bajo No Si Si
9 Alta Alto Bajo Si Si No
10 Baja Bajo Alto Si Si Si
11 Media Bajo Bajo Si Si Si
12 Alta Bajo Alto Si Si No
13 Baja Alto Alto Si Si Si
14 Baja Alto Bajo No No Si
Árbol de decisión
Selección de atributos mediante ganancia de información
Clase Administrar Farmaco F = “Si”
Clase Administrar Farmaco F = “No”
I(p, n) = I(10, 4) =0.863

p p n n
I ( p, n)   log 2  log 2
pn pn pn pn

Entropía del Conjunto inicial de Datos D


Árbol de decisión
Selección de atributos mediante ganancia de información

presion art pi ni I(pi, ni)


baja 5 (3,6,10,13) 0 0
media 1 (11) 2 (4,5) 0,919
alta 4(1,2,7,8) 2 (9,12) 0,918

azucar pi ni I(pi, ni)


bajo 5 (6,7,8,10,11) 2 (5,12) 0,86
alto 5 (1,2,3,13,14) 2 (4,9) 0,86
Árbol de decisión
Selección de atributos mediante ganancia de información

colesterol pi ni I(pi, ni)


bajo 4 (3,8,11,14) 1 (9) 0,721
alto 6 (1,2,6,7,10,13) 3 (4,5,12) 0,918

antibioticos pi ni I(pi, ni)


NO 4 (1,3,8,12) 1 (4) 0,721
SI 6 (2,6,7,10,11,13) 3 (5,9,12) 0,918
Árbol de decisión
Selección de atributos mediante ganancia de información

otras alergias pi ni I(pi, ni)


NO 5 (1,2,3,7,14)' 0 0
SI 5 (6,8,10,11,13)' 4 (4,5,9,12) 0,991
Árbol de decisión
Selección de atributos mediante ganancia de información
Árbol de decisión
La “presion arterial” es la seleccionada para hacer
la primera partición de nuestro árbol
Árbol de decisión
La “presion arterial” es el atributo seleccionado para hacer
la primera partición de nuestro árbol

Ahora hay que aplicar de nuevo el método para ver que atributo iría aquí
Árbol de decisión
Un vistazo a los datos:

Azucar en Indice de Alergia a Otras Administrar


Paciente Sangre Colesterol Antibioticos Alergias Farmaco
4 Alto Alto No Si No
5 Bajo Alto Si Si No
11 Bajo Bajo Si Si Si
Árbol de decisión
Selección de atributos mediante ganancia de información
Clase Administrar Farmaco F = “Si”
Clase Administrar Farmaco F = “No”
I(p, n) = I(1, 2) =0.918

p p n n
I ( p, n)   log 2  log 2
pn pn pn pn

Entropía del Conjunto de Datos D2


Árbol de decisión
Selección de atributos mediante ganancia de información

azucar pi ni I(pi, ni)


bajo 1 (11) 1 (5) 1
alto 0 1 (4) 0

colesterol pi ni I(pi, ni)


bajo 1 (11) 0 0
alto 0 2 (4,5) 0
Árbol de decisión
Selección de atributos mediante ganancia de información

antibioticos pi ni I(pi, ni)


NO 0 1 (4) 0
SI 1 (11) 1 (5) 1

otras pi ni I(pi, ni)


NO 0 0 0
SI 1 (11) 2 (4,5) 0,919
Árbol de decisión
Selección de atributos mediante ganancia de información
Árbol de decisión
El “colesterol” es el atributo seleccionado para hacer
la segunda partición de nuestro árbol
Árbol de decisión
El “colesterol” es el atributo seleccionado para hacer
la segunda partición de nuestro árbol

Ahora hay que aplicar de nuevo


el método para ver que atributo iría aquí
Árbol de decisión
Un vistazo a los datos:

Azucar en Alergia a Otras Administrar


Paciente Sangre Antibioticos Alergias Farmaco
1 Alto No No Si
2 Alto Si No Si
7 Bajo Si No Si
8 Bajo No Si Si
9 Alto Si Si No
12 Bajo Si Si No
Árbol de decisión
Selección de atributos mediante ganancia de información
Clase Administrar Farmaco F = “Si”
Clase Administrar Farmaco F = “No”
I(p, n) = I(4, 2) =0.918

p p n n
I ( p, n)   log 2  log 2
pn pn pn pn

Entropía del Conjunto de Datos D3


Árbol de decisión
Selección de atributos mediante ganancia de información

azucar pi ni I(pi, ni)


bajo 2 (7,8) 1 (12) 0,919
alto 2 (1,2) 1 (9) 0,919

antibioticosl pi ni I(pi, ni)


NO 2 (1,8) 0 0
SI 2 (2,7) 2 (9,12) 1
Árbol de decisión
Selección de atributos mediante ganancia de información

otras pi ni I(pi, ni)


NO 3 (1,2,7) 0 0
SI 1 (8) 2 (9,12) 0,919
Árbol de decisión
Selección de atributos mediante ganancia de información
Árbol de decisión
“otras alergias” es el atributo seleccionado para hacer
la tercera partición de nuestro árbol
Árbol de decisión
“otras alergias” es el atributo seleccionado para hacer
la tercera partición de nuestro árbol

Ahora hay que aplicar de nuevo


el método para ver que atributo iría aquí
Árbol de decisión
Un vistazo a los datos:

Azucar en Alergia a Administrar


Paciente Sangre Antibioticos Farmaco
1 Alto No Si
2 Alto Si Si
7 Bajo Si Si
Árbol de decisión
Selección de atributos mediante ganancia de información
Clase Administrar Farmaco F = “Si”
Clase Administrar Farmaco F = “No”
I(p, n) = I(3, 0) =0

p p n n
I ( p, n)   log 2  log 2
pn pn pn pn

Entropía del Conjunto de Datos D24


Árbol de decisión
Selección de atributos mediante ganancia de información

azucar pi ni I(pi, ni)


bajo 1 (7) 0 0
alto 2 (1,2) 0 0

antibioticosl pi ni I(pi, ni)


NO 1 (1) 0 0
SI 2 (2,7) 0 0
Árbol de decisión
Selección de atributos mediante ganancia de información

Da igual uno u otro!!


Árbol de decisión

Cualquiera de los dos atributos puede ser seleccionado


para hacer la cuarta partición de nuestro árbol,
supongamos “Azucar en sangre”
Ejercicio
• Termine de realizar la(s) partición(es)
faltante(s) (La solución es trivial!)
Árbol de decisión
Un vistazo a los datos:

Alergia a Administrar
Paciente Antibioticos Farmaco
8 No Si
9 Si No
12 Si No
Ejercicio

También podría gustarte