Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los fundamentos de la teora de la decisin estn construidos sobre las disciplinas matemticas de
la probabilidad y las variables aleatorias.
Los elementos bsicos del problema de la decisin son: 1) Un conjunto de hiptesis que
caractericen los posibles estados verdaderos por naturaleza, 2) Una prueba en dnde los datos se
obtienen a partir de aquellos que deseamos inferir la verdad, 3) Una regla de decisin que opera
sobre los datos para decidir, de forma ptima, cual hiptesis describe mejor el estado verdadero por
naturaleza, y 4) Un criterio de optimizacin. El criterio de optimizacin que eligiremos para la regla
de decisin es minimizar la probabilidad de hacer una decisin errnea.
2.1.
FUNDAMENTOS DE PROBABILIDAD
El espacio S es conocido como el evento seguro o espacio de muestreo y sus elementos son
resultados experimentales.
1 de 13
A ={1, 3, 5, 6}
Se dice que dos eventos son mutuamente exclusivos si ellos no tienen eventos elementales en
comn. Por ejemplo, A y B son eventos mutuamente exclusivos y A y A tambin lo son.
La unin (suma) de dos eventos es un evento que consiste de todos los eventos elementales en los
dos eventos. Por ejemplo, la unin de B y C, denotada como BC, es el evento D
D=BC={1, 2, 3, 6}
Similarmente
A A =S
Por otra parte, la interseccin de dos eventos es un evento que consiste de los eventos elementales
que son comunes a ambos eventos. Entonces, si E=BC representa la interseccin de los eventos B
y C, entonces
E=BC={1, 3}
Cuando dos eventos son mutuamente exclusivos, la interseccin es el conjunto vaco. Por ejemplo,
A y B son eventos mutuamente exclusivos, y A A y tambin lo son ya que
AB=
A A =
Las definiciones de unin e interseccin se pueden extender a ms de dos eventos de forma similar.
ij=1, 2,
P U Ai = P( Ai )
i
i
(2.1)
P( A) =
2
6
2 de 13
P( B) =
3
6
P( A B ) = P( A) + P( B) =
2 3 5
+ =
6 6 6
P( Bj ) = P( AiBj )
(2.2)
i =1
S
A2
A3
A1
Bj
A4
A5
A6
P( Ai ) = P( AiBj )
(2.3)
j =1
P( A B) =
P( A B) P( AB)
=
P( B)
P( B)
(2.4)
3 de 13
P( B A) =
P( B A) P( AB)
=
P( A)
P( A)
(2.5)
(2.6)
Una relacin extremadamente til para probabilidades condicionales es el teorema de Bayes que
muestra que la probabilidad para los eventos mutuamente exclusivos Ai, i=1, 2, , n, es
P( Ai B) =
P( B Ai ) P( Ai )
P( AiB)
= n
P( B)
P( B Aj) P( Aj )
(2.7)
j =1
j =1
j =1
P( B) = P( AjB) = P( B Aj ) P( Aj )
Otro concepto importante en la teora de la probabilidad es la independencia estadstica. Para
explicar este concepto, consideremos los eventos A y B y su probabilidad condicional P(AB), que
es la probabilidad de la ocurrencia de A dado que B ha ocurrido. Suponga que la ocurrencia de A no
depende de la ocurrencia de B. Esto es
P(AB)=P(A)
(2.8)
(2.9)
Esto significa que la probabilidad conjunta de los eventos A y B se puede factorizar en el producto
de sus probabilidades marginales P(A), P(B) respectivamente. De esta forma, la expresin general
de 2.9 es
I A = P( A )
i
(2.10)
4 de 13
Dada una variable aleatoria X=X(s), consideremos el evento {Xx} en donde x es cualquier nmero
en el intervalo (-, ). Podemos escribir la probabilidad de este evento como P(Xx) y su notacin
simple como F(x)
F(x)= P(Xx)
(-x)
(2.11)
X=X(s)=s
1
2
3
4
5
6
P(X)
1/6
1/6
1/6
1/6
1/6
1/6
F(x)=P(Xx)
1/6
2/6
3/6
4/6
5/6
6/6
F(x)
6/6
5/6
4/6
3/6
2/6
1/6
0
x
1
5 de 13
p( x) =
dF ( x)
dx
(-x)
(2.12)
(-x)
(2.13)
o en forma equivalente
F ( x) =
p(u ) du
x2
x1
(2.14)
p ( x )dx
En otras palabras, la probabilidad del evento {x1<Xx2} es simplemente el rea debajo de la pdf en
el rango x1<Xx2.
Promedios estadsticos
El valor medio, mx, o valor esperado de una variable aleatoria X esta definido por
mx = E ( X ) =
(2.15)
xp( x) dx
x n p ( x )dx
(2.16)
x 2 p ( x )dx
(2.17)
En forma adicional se pueden definir los momentos centrales, que son los momentos de la
diferencia entre X y mx. El segundo momento central, conocido como la varianza de X, x2, esta
definido por
var( X ) = x 2 = E (( X mx) 2 ) =
( x mx ) 2 p( x )dx
(2.18)
6 de 13
2.2.
TEORA DE LA DECISIN
Los fundamentos matemticos de las pruebas de hiptesis descansan en el teorema de Bayes, que se
deriva a partir de la definicin de la relacin entre las probabilidades condicionales y conjuntas,
como se demostr en la ecuacin 2.7 y que repetimos aqu por comodidad cambiando la notacin
P( si zj ) =
P ( zj si ) P ( si )
M
P ( z s ) P( s )
j i
i=1, ..., M
(2.19)
i =1
p ( z si ) P ( si )
M
p ( z s ) P( s )
i
i=1, ..., M
(2.20)
i =1
Ejemplo.
Consideremos las dos clases de seal s1 y s2, caracterizadas por sus pdfs condicionales de forma
triangular p(zs1) y p(zs2), mostradas en la figura 2.4. Una seal se recibe; esta puede tener
7 de 13
cualquier valor en el eje z. Si las pdfs no se solapan, nosotros podemos clasificar la seal con
certeza. Para el ejemplo de la figura 2.4, necesitamos una regla que nos ayude a clasificar las
seales recibidas, ya que algunas seales caern en la regin en donde las dos pdf se solapan.
Consideremos una seal recibida za. Asumamos que las dos clases de seal s1 y s2, son igualmente
probables, y calculemos las dos probabilidades a posteriori alternativas. Adems, sugiramos una
regla que el receptor pueda utilizar para decidir a que clase de seal pertenece za.
Probabilidad
1
p(zs2)
p(zs1)
0.5
0.3
za
Muestras recibidas
Solucin
De la figura podemos observar que p(zas1)=0.5 y p(zas2)=0.3. Sustituyendo en 2.20 con
P(s1)=P(s2)=0.5
P( s1 za ) =
(0.5)(0.5)
5
=
(0.5)(0.5) + (0.3)(0.5) 8
P( s1 za ) =
(0.5)(0.5)
5
=
(0.5)(0.5) + (0.3)(0.5) 8
Una regla es decidir que la seal recibida pertenece a la clase con mxima probabilidad a posteriori
(clase s1). Examine la figura 2.4 y notar que esta regla de mxima probabilidad va con el sentido
comn.
8 de 13
(2.21)
n(t)
Fuente de
seal
+
si (t)
r(t)
z(T)
Regla de decisin
(Hi z)
Decisin Hi
.
M hiptesis
M clases de seal
HM : sM
La muestra z(T) esta constituida de una componente de seal, ai(T), y una componente de ruido
no(T). El tiempo T es la duracin del smbolo. En cada kT, en donde k es un entero, el receptor usa la
regla de decisin para decidir que clase de seal se recibi. Por simplicidad de notacin,
normalizando T=1s, la ecuacin 2.21 se puede escribir como z=ai+no.
Un punto razonable para establecer la regla de decisin en el receptor para el caso de dos clases de
seal se muestra a continuacin
P( s1 z )
H1
>
<
H2
P( s 2 z )
(2.22)
La ecuacin 2.22 muestra que debemos elegir la hiptesis H1 si la probabilidad a posteriori P(s1z)
es mayor que la probabilidad a posteriori P(s2z). De otra forma, debemos elegir H2.
Podemos reemplazar las probabilidades a posteriori de la ecuacin 2.22 con sus expresiones
equivalentes del teorema de Bayes, ecuacin 2.20
p ( z s1) P ( s1)
H1
>
<
H2
p ( z s 2) P ( s 2)
9 de 13
(2.23)
Entonces ahora tenemos una regla de decisin en trminos de las pdfs. Si ordenamos la ecuacin
2.23, tenemos la ecuacin conocida como prueba de relacin de probabilidades
H1
p ( z s1) > P ( s 2 )
p ( z s 2) < P ( s1)
H2
(2.24)
en donde
Relacin de probabilidades
p ( z s1)
.
p ( z s 2)
La ecuacin 2.24 corresponde a hacer una decisin basada en la comparacin de una medicin de la
seal recibida contra un umbral. Ya que la prueba esta basada en la eleccin de una clase de seal
con mxima probabilidad a posteriori, el criterio de decisin es conocido como criterio mximo a
posteriori (MAP). Tambin es conocido como criterio de mnimo error, ya que en el promedio,
este criterio proporciona el mnimo de errores en decisiones incorrectas.
1 no 2
1
exp 2
o 2
2 o
(2.25)
Probabilidad
p(zs2)
p(zs1)
z(T)
o
a1
a2
Muestras recibidas
p ( z s1)
p ( z s 2)
10 de 13
1 z a1 2
1
exp
o 2
2 o
L( z ) =
1 z a2 2
1
exp
o 2
2 o
z2
a1 2
2 za1
exp
exp
exp
2
2
2
2o
2o
2o
L( z ) =
z2
a2 2
2 za 2
exp
exp
exp
2
2
2
2o
2o
2o
H1
z ( a1 a 2) a1 a 2 > P ( s 2 )
L ( z ) = exp
2
2o 2 < P( s1)
o
H2
2
(2.26)
l ( z) =
z (a1 a 2) a1 a 2
2o 2
o 2
2
H1
> P ( s 2)
ln
< P( s1)
H2
> a1 + a 2
= o
< 2
H2
11 de 13
(2.27)
Por lo tanto la regla de decisin para el caso analizado compara la muestra recibida, z, con un
umbral de comparacin ptimo o.
s2
H1
H2
Error=(H2s1)+ (H2s1)
z =o = ( a1+ a 2 ) / 2
p( z s 2)dz
1 z a2 2
1
exp
PB =
dz
z =o = ( a1+ a 2 ) / 2 o 2
2 o
z a2
;
o
z = u o + a 2 ;
12 de 13
dz = odu
(2.28)
a1 + a 2
a2
a1 a 2
2
=
o
2o
z a 2 o a 2
u=
=
=
o
o
La ecuacin 2.28 se puede escribir como
PB =
u2
1
a1 a 2
exp du = Q
2
2o
2
u =( a1 a 2 ) / 2o
(2.29)
En donde Q(x), es conocida como la funcin de error complementario o funcin co-error, y esta
graficada en la figura 2.8.
Otra forma de funcin de co-error que es utilizada frecuentemente es
erfc( x ) =
[ ]
exp u 2 du
(2.30)
(2.31)
1
x
Q ( x ) = erfc
2
2
(2.32)
erfc( x ) = 2Q x
1
0.9
0.8
0.7
0.6
Q(x)
0.5
0.4
0.3
0.2
0.1
0
-5
-4
-3
-2
-1
u2
1
exp du
x
2
2
La figura 2.8 fue graficada en Matlab usando las siguientes instrucciones
Figura 2.8. Funcin de error complementario Q ( x ) =
x = -5:0.1:5;
q = 0.5*erfc(x/sqrt(2));
plot(x,q)
13 de 13