Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Curso de Estadistica
Curso de Estadistica
Teorema de Bayes
Retomando los conceptos básicos de teoría de probabilidad vistos en la
clase anterior. Sean X = {xi |i = 1, . . . , M } e Y = {yi |i = 1, . . . , L} dos
variables aleatorias con M y L elementos, respectivamente. Sean p(X) y
p(Y ) las probabilidade marginales de X e Y . Sea p(X, Y ) las probabilidades
conjuntas de X e Y . Sea p(Y |X) la probabilidad condicional de Y dado X.
Entonces, las dos reglas básicas de probabilidad se definen como [1]:
P
Regla de la suma: p(X) = Y p(X, Y ).
p(X|Y )p(Y )
p(Y |X) = , (1)
p(X)
la cual es conocida como el Teorema de Bayes.
Adaptando (1) al problema de clasificación de patrones se tiene:
p(x|ωi )p(ωi )
p(ωi |x) = , (2)
p(x)
1
Riesgo condicional
El riesgo condicional asociado con tomar la acción αi es [2]:
C
X
R(αi |x) = λ(αi |ωj )p(ωj |x), i = 1, . . . , a, (3)
j=1
λ11 p(ω1 |x) + λ12 p(ω2 |x) < λ21 p(ω1 |x) + λ22 p(ω2 |x). (6)
Reacomodando términos en (6):
λ21 p(ω1 |x) − λ11 p(ω1 |x) > λ12 p(ω2 |x) − λ22 p(ω2 |x), (7)
(λ21 − λ11 )p(ω1 |x) > (λ12 − λ22 )p(ω2 |x). (8)
Por tanto, a partir de (8) se deriva la regla de decisión de mínimo riesgo:
(
ω1 si (λ21 − λ11 )p(ω1 |x) > (λ12 − λ22 )p(ω2 |x)
Decidir . (9)
ω2 otro caso
2
Expresando (8) en términos de probabilidades a priori se tiene:
(λ21 − λ11 )p(x|ω1 )p(ω1 ) > (λ12 − λ22 )p(x|ω2 )p(ω2 ). (10)
(
0 i=j
λ(αi |ωj ) = , (12)
6 j
1 i=
3
Simulación del Teorema de Bayes
A continuación se ilustra una simulación del Teorema de Bayes tomando
como referencia el ejemplo de la clasificación de pescados, róbalo y salmón,
dado en el libro “Pattern Classification” [2].
En el Algoritmo 1 se presenta el código en Matlab para generar datos
de luminosidad para las clases róbalo y salmón.
4
1 % Genera conjunto de datos usando Algoritmo 1
2 [w1,w2] = dataset;
3 % Numero de patrones
4 N1 = numel(w1); % Clase 1
5 N2 = numel(w2); % Clase 2
6 N = N1+N2; % Total
7 % Verosimilitud clase 1
8 [h1,c1] = hist(w1,50);
9 pw1 = h1/N;
10 p1 = N1/N; % Probabilidad a priori clase 1
11 % Verosimilitud clase 2
12 [h2,c2] = hist(w2,50);
13 pw2 = h2/N;
14 p2 = N2/N; % Probabilidad a priori clase 2
15 % Teorema de Bayes
16 px = pw1*p1 + pw2*p2; % Evidencia (probabilidad total)
17 ps1 = (pw1*p1)./px; % Probabilidad a posteriori clase 1
18 ps2 = (pw2*p1)./px; % Probabilidad a posteriori clase 2
19 % Grafica probabilidades
20 figure;
21 subplot 211;
22 plot(c1,pw1,c2,pw2,'linewidth',2);
23 legend('\omega_1','\omega_2');
24 xlim([9 15]);
25 xlabel('{\it x}'); ylabel('{\it p}({\it x}|\omega)');
26 set(gca,'FontSize',11);
27 subplot 212;
28 plot(c1,ps1,c2,ps2,'linewidth',2);
29 legend('\omega_1','\omega_2');
30 xlim([9 15]);
31 xlabel('{\it x}'); ylabel('{\it p}({\it \omega}|x)');
32 set(gca,'FontSize',11);
5
Figura 1: Arriba: Funciones de verosimilitud para las clases de pescado
ω1 =róbalo y ω2 =salmón. Abajo: Probabilidades a posteriori para ambas
clases de pescado.
6
Referencias
[1] C. M. Bishop, Pattern Recognition and Machine Learning, Springer, 1st
edition, 2006.