Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aprendizaje:
Arboles de Decisin
Indice
rboles de decisin
Planteamiento del problema
Ejemplo: Concesin de crditos
Entropa y Ganancia de Informacin
Algoritmo ID3
Algoritmo recursivo
Aplicacin al ejemplo
Consideracin de atributos numricos
Atributos con un gran nmero de valores
rboles de decisin
Caractersticas:
Estructura para clasificacin de
vectores de atributos.
Establece en qu orden testar los
atributos para conseguir la
clasificacin del vector de
entrada.
Para componer dicho orden se
eligen primero aquellos atributos
que mejor ganancia de
informacin prometen a efectos
de descubrir la clase del vector de
entrada.
Es interesante aprenderlos a
partir de un conjunto de vectores
Ejemplo Concesin de crditos
no
s
Aprendizaje:
Por qu atributo comenzar primero?
Esquema voraz: Elegir uno y filtrar recursivamente.
Entropa
Definicin:
Medida del grado de incertidumbre
asociado a una distribucin de
probabilidad.
En una distribucin uniforme, todos
los valores son igualmente probables
Pi = 1/N y por tanto la entropa es
si no
-0.5log2(0.5) 0.5log2(0.5) = 1
mxima, lo cual indica mxima
incertidumbre.
Por el contrario, en una distribucin
pico en la que Pi = 1 y Pj=0, para
todo ji la entropa es mnima lo
cual indica mnima incertidumbre o
sea mxima informacin. si
-1.0log2(1.0) 0.0log2(0.0) = 0
Entropa condicionada
Definicin:
Entropa de la distribucin de Y X Y
condicionada a X. Math Yes
Una entropa condicionada menor History No
que E(Y) indica que el conocimiento CS Yes
de X mejora la informacin que se Math No
dispone sobre X Math No
E(Y | X) = j Prob( X= vj) E(Y | X = vj) CS Yes
History No
vj Prob(X = vj) E(Y | X = vj)
Math Yes
Math 0.5 1
History 0.25 0 E(Y) = 1
CS 0.25 0 E(Y|X) = 0.5
E(Y|X) = 0.5*1 + 0.25*0 + 0.25*0
Ganancia de informacin
Entropa inicial:
Aplicando la ecuacin de
entropa a los datos de
entrada del ejemplo
tenemos:
E(S)= -0.4log2(0.4)-
0.6log2(0.6)= 0.971 Prob(S<1)=0.3,Prob(S1-5)=0.4,Prob(S>5)=0.3
Extensiones:
Atributos numricos: ID3 slo trabaja con atributos discretos. Si se
usan atributos continuos hay que descomponerlos en rangos. Para ello
se ordenan los ejemplos segn el valor y se toman como puntos lmite los
puntos medios de aquellos en que se cambie de clase.