Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Minería de Datos
Universidad del Cauca
Enfoque probabilístico al aprendizaje
Permiten
interpretar el funcionamiento de otros
métodos en términos probabilísticos
2.
Devolver la hipótesis hMAP con la máxima
probabilidad a posteriori
Esel modelo de red bayesiana orientada a
clasificación más simple
Supone que todos los atributos son
independientes conocida la variable clase.
En
un Naïve Bayes (NB) la hipótesis MAP queda
como:
Clasificar instancia(x)
devolver
<soleado, fría, alta, cierto>
p'(jugar=si) = 9/14 = 0,64 (ver)
p'(jugar=no) = 5/14 = 0,36 (ver)
p'(Cielo=soleado / jugar=si) = 2/9 = 0,22 (ver)
p'(Cielo=soleado / jugar=no) = 3/5 = 0,6 (ver)
p'(Temp=fría / jugar=si) = 3/9 = 0,33 (ver)
p'(Temp=fría / jugar=no) = 1/5 = 0,2 (ver)
p'(Humedad=alta / jugar=si) = 3/9 = 0,33 (ver)
p'(humedad=alta / jugar=no) = 4/5 = 0,8 (ver)
p'(Viento=cierto / jugar=si) = 3/9 = 0,33 (ver)
p'(Viento=cierto / jugar=no) = 3/5 = 0,6 (ver)
0,64 * 0,22 * 0,33 * 0,33 * 0,33
Uno de los algoritmos de aprendizaje más
prácticos, junto a árboles, redes de neuronas y
K-NN
Condiciones de uso
Conjunto de entrenamiento grande
Atributos razonablemente independientes
Aplicaciones
Diagnosis
Clasificación de texto
Ventajas:
Es fácil de implementar
Obtiene buenos resultados en gran parte de los casos
Desventajas:
Asumir que las variables tienen independencia condicional respecto a la clase
lleva a una falta de precisión