Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MetodosBayesianos Basicospptx PDF
MetodosBayesianos Basicospptx PDF
1. Motivación
2. Teorema de Bayes
3. Hipótesis HMAP
4. Clasificador Bayesiano Óptimo
5. Clasificador Naive Bayes
6. Ejemplo de aplicación: clasificación de texto
7. Bibliogrfía
2
1. Motivación
3
1. Motivación
4
Razonamiento bayesiano
Supone que:
5
Interés métodos bayesianos
6
Frente a otros paradigmas
Similitudes:
Inductivo basado en ejemplos
Supervisado: necesitamos conocer la clase de los
ejemplos para estimar la probabilidad a posteriori de
las observaciones
Diferencia:
No basado en el error: las hipótesis compiten entre
si, venciendo la que tenga mayor probabilidad
7
Dificultades
8
2. Teorema de Bayes
9
2. Teorema de Bayes
Teorema de Bayes
10
Teorema de Bayes
P( D | h ) P(h )
P(h | D ) =
P( D )
O bien:
V: conjunto finito de valores de la clase
Obtener el valor de la clase de una instancia (v∈V)
No se obtiene h de forma (totalmente) explícita
Sólo se necesita:
∑ hi ∈H
P ( hi ) = 1
∑ hi ∈H
P ( hi D ) = 1
12
En el problema de asignación de
crédito
D: conjunto de entrenamiento
p(alto/D) + p(medio/D) + p(bajo/D) =1
p(alto/D)=6/14, p(moderado/D)=3/14, p(bajo/D)=5/14
13
3. Hipótesis hMAP
3. Hipótesis hMAP
P ( D | d ) P ( h)
= arg max
h∈H P( D)
= arg max P( D | h) P(h)
h∈H
Ejemplo
16
hMAP ?
hMAP: h-
17
4. Clasificador bayesiano óptimo
18
4. Clasificador bayesiano óptimo
19
Clasificador bayesiano óptimo
20
Ejemplo
Dados:
Se tiene:
Y:
21
Propiedades Clasificador Bayesiano
Óptimo
22
5. Clasificador Naive Bayes
23
5. Clasificador Naive Bayes
Dados
Descripción de Instancias, X, (atributos, valores)
Descripción de las Hipótesis, H
Concepto objetivo, c
Ejemplos y su clase, D, pares (<x, c(x)>)
Determinar
Valor más probable de c(x)
Notación
Describimos las instancia como una conjunción de atributos
x=<a1, a2, ... an> siendo ai el valor del atributo i-ésimo
c : X V, V finito
24
Valor más probable
P( a 1, a 2,...an | vj ) P( vj )
= arg max
vj∈V P( a 1, a 2,...an )
= arg max P( a 1, a 2,...an | vj ) P( vj )
vj∈V
25
Estimación de probabilidades
26
Aproximación Naive Bayes
27
Estimación probabilidades NB
Nº de términos p(ai/vj)
| valores de ai |* |V|
28
Algoritmo Naive Bayes
Aprendizaje_Bayesiano_Naive(ejemplos)
Para cada posible valor del resultado vj
Obtener estimación p’(vj) de la probabilidad p(vj)
Para cada valor ai de cada atributo a
Obtener estimación p’(ai/vj) de la probabilidad P(ai/vj)
Clasificar ejemplo(x)
devolver
29
Ejemplo: datos “weather”
31
Estimación de probabilidades
32
Clasificación
p´(no) p´( soleado / no) p´( fría / no) p´(alta / no) p´(cierto / no)= 0,0206 (0,795)
33
Hipótesis de independencia
P( a 1, a 2,...an | vj ) ≠ ∏ P( ai | vj )
i
34
Estimación probabilidades
nc + mp
Solución habitual, m-estima: p' ( ai | v j ) =
n+m
n: número de ejemplos de entrenamiento con clase vj
nc: nº ejemplos clase vj con valor ai para el atributo a
p: estimación a priori de p(ai|vj)
m: peso de la estimación a priori (nº de ejemplos
virtuales)
35
Discusión Naive Bayes
Condiciones de uso
Conjunto de entrenamiento grande
Atributos razonablemente independientes
Aplicaciones
Diagnosis
Clasificación de texto
36
Extensiones: atributos desconocidos
p´(no) p´( fría / no) p´(alta / no) p´(cierto / no)= 0,0343 (0,587)
37
Extensión: Atributos numéricos
38
Implementación en Weka
weka.classifiers.bayes.NaiveBayesSimple
El clasificador que hemos presentado
Atributos numéricos: aproximación normal
weka.classifiers.bayes.NaiveSimple
Distintas opciones para estimar probabilidad atributos
numéricos
39
6. Ejemplo de aplicación: clasificación
de texto
40
6. Clasificación de texto
41
Planteamiento
42
Estimación de probabilidades
43
Suposición adicional
nkj + 1
P ( wk | v j ) =
n + | vocabulario |
44
7. Bibliografía