Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROBABILIDAD COMPUESTA.
PROBABILIDAD
CONDICIONADA.
PROBABILIDAD TOTAL.
TEOREMA DE BAYES
1.2.3.4.5.6.-
INTRODUCCN
PROBABILIDAD CONDICIONADA
INDEPENDENCIA ALEATORIA O ESTOCSTICA
PROBABILIDAD COMPUESTA
TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES
EJEMPLOS
64.1
INTRODUCCIN
PROBABILIDAD CONDICIONADA
de la probabilidad de la interseccin.
Dos aos despus de la muerte de Bayes se public un trabajo en el que, por vez
primera, se calculaba la probabilidad de las causas a partir de los efectos que se han
observado. A pesar de que fue Laplace quien mejor y desarroll la mayor parte de
dichas probabilidades, el clculo de stas recibe el nombre de teorema de Bayes.
En los problemas relacionados con la probabilidad, y es especial con la probabilidad
condicionada, as como con la probabilidad total y el teorema de Bayes, resulta interesante y recomendable organizar la informacin y los datos del problema en tablas de
contingencia o en diagramas de rbol. Adems, es muy til desde el punto de vista
metodolgico.
64.2
PROBABILIDAD CONDICIONADA
Mediante un espacio probabilstico damos una formulacin matemtica al fenmeno aleatorio que estemos observando. Parece por tanto razonable que si observamos algo que
aporte informacin a nuestro fenmeno aleatorio, sta deba alterar el espacio probabilstico de partida.
Por ejemplo, la extraccin de una bola de una urna con tres bolas blancas y dos negras,
puede formalizarse con un espacio probabilstico en el que los sucesos elementales sean las
cinco bolas y donde la probabilidad sea uniforme sobre estos cinco sucesos elementales,
es decir, igual a 15 .
Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra,
y no la devolvemos a la urna, es razonable que el espacio probabilstico cambie en el
sentido no slo de que ahora ya habr nicamente cuatro sucesos elementales, sino que
adems la funcin de probabilidad deber cambiar en orden a recoger la informacin que
la observacin del suceso A nos proporcion.
Es decir, en el nuevo espacio probabilstico deber hablarse de probabilidad condicionada al suceso A, de forma que se recojan hechos tan evidentes como que ahora la
probabilidad (condicionada) de obtener negra se habr reducido y habr aumentado la
de blanca.
Denicin 64.2.1 Sea (E; A; P ) un espacio de probabilidad y A E un suceso con
P (A) > 0: Para cualquier otro suceso B se dene la probabilidad de B condicionada a
A como:
P (A \ B)
P (BA) =
P (A)
Ejemplos 64.2.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes (V ) y 1 bola negra (N). Se extraen dos bolas, sin reemplazamiento. Cul es la
probabilidad de que la segunda sea roja si la primera era verde?
Como es usual llamaremos R al suceso salir roja, V al suceso salir verde y N al
Cipri
Temas de Matemticas
luego como Bk 2 A )
1
S
k=1
k=1
k=1
Bk 2 A ) A \
1
S
k=1
Bk
1
S
k=1
Ck 2 AA :
C.Q.D.
PA (C) 0 ?
P (A \ B)
P (C)
=
P (A)
P (A)
PROBABILIDAD CONDICIONADA
Como A \ B A tenemos que 0 P (A \ B) P (A), luego dividiendo esta desigualdad por P (A) resulta:
0
P (A \ B)
P (A)
=1
P (A)
P (A)
es decir, 0 PA (C) 1
(2) PA (A) = 1 ?
PA (A) =
(3) PA
1
S
Tomamos
k=1
1
S
k=1
1
P
PA (Ck )
8Ck \ Cj = ; con k 6= j ?
1
S
Ck = A \
Bk . Entonces:
Ck
PA
k=1
k=1
1
S
Ck
k=1
P
=
P (A \ A)
=1
P (A)
=P
1
S
k=1
1
S
k=1
P
Ck A =
(A \ Bk )
P (A)
1
P
k=1
A\
1
S
Bk
k=1
P (A)
P (A \ Bk )
P (A)
1
1
1 P (A \ B )
P
P
P
k
=
PA (A \ Bk ) =
PA (Ck )
P (A)
k=1
k=1
k=1
C:Q:D:
P (CA) = P (BA) + P C \ BA
de donde se deduce que
P (BA) P (CA)
Cipri
Temas de Matemticas
ya que P C \ BA 0:
(2)
P (BA) =
P (A \ B)
P (B)
=
P (A)
P (A)
(3)
P (BA) =
P (A \ B) P (A)
=
=1
P (A)
P (A)
64.3
P (A \ B)
P (;)
0
=
=
=0
P (A)
P (A)
P (A)
C.Q.D.
INDEPENDENCIA ALEATORIA
P (A \ B)
= P (B) ) P (A \ B) = P (A) P (B)
P (A)
P (A \ B)
P (A) P (B)
=
= P (B)
P (A)
P (A)
C:Q:D:
INDEPENDENCIA ALEATORIA
P (A \ B)
P (A) P (B)
=
= P (A)
P (B)
P (B)
es decir, A es independiente de B:
C.Q.D.
P (A \ B)
P (A) P (B)
=
= P (A)
P (B)
P (B)
Anlogamente se demuestra la otra igualdad.
() Si
P (AB) = P (A)
P (AB) =
se tiene que
P (A \ B)
= P (A)
P (B)
de donde se deduce que A y B son independientes. C.Q.D.
P (AB) =
P (BA) 6= P (B)
Cipri
Temas de Matemticas
Corolario 64.3.7 Si A y B son sucesos incompatibles con probabilidades no nulas, entonces son dependientes.
Demostracin:
Como A y B son incompatibles, entonces A \ B = ;, por tanto
0 = P (;) = P (A \ B) 6= P (A) P (B) > 0
C.Q.D.
Enunciamos a continuacin algunas propiedades relativas a la independencia estocstica de sucesos, pero antes necesitamos un resultado previo:
Lema 64.3.8 Sean A y B dos sucesos con probabilidades no nulas. Entonces:
P BA = 1 P (BA)
Demostracin:
1 = P (AA) = P B [ BA = PA B [ B = PA (B) + PA B PA B \ B =
= PA (B) + PA B = P (BA) + P BA
de donde
P BA = 1 P (BA)
P (BA) 6= P BA
Demostracin:
P (A \ B) P A \ B
,
P (BA) = P BA ,
=
P (A)
P A
, P A P (A \ B) = P A \ B P (A) ,
P A \ B P (A) = 0 ,
()
INDEPENDENCIA ALEATORIA
P A \ B = P (B (A \ B)) = P (B) P (A \ B)
ya que A \ B B:
C.Q.D.
P A \ B = P A P BA = P A 1 P BA =
= P A [1 P (B)] = P A P B
C.Q.D.
Denicin 64.3.12 Se dice que los sucesos A1 ; ::; An 2 A son totalmente independientes
mtuamente independientes sii verican:
() P (Ai \ Aj ) = P (Ai ) P (Aj ) 8i 6= j
() P (Ai \ Aj \ Ak ) = P (Ai ) P (Aj ) P (Ak ) 8i 6= j 6= k
...
n
n
T
Q
() P
Ai =
P (Ai )
i=1
i=1
Cipri
Temas de Matemticas
64.4
PROBABILIDAD COMPUESTA
Sea (E1 ; A1 ; P1 ) el espacio de probabilidad que dene un experimento aleatorio, y consideremos un segundo espacio de probabilidad (E2 ; A2; P2) que dene un segundo experimento
aleatorio. Denotamos los sucesos de primer experimento por Ai y los del segundo por Bj :
Llamaremos experimento aleatorio compuesto de los dos dados al que tiene por espacio
de probabilidad (E1 E2 ; A1 A2 ; P ), donde la probabilidad se dene como sigue:
P1 (Ai ) P2 (Bj )
si Ai y Bj son independientes
P (Ai ; Bj ) =
P1 (Ai ) P2 (Bj Ai )
si son dependientes
De forma anloga se puede extender a un nmero nito de experimentos aleatorios.
Teorema 64.4.1 (Frmula de la probabilidad compuesta): Sea (E; A; P ) un espacio de probabilidad, y consideremos n-sucesos ordenados A1; :::; An . Entonces:
n
!
\
Ak = P (A1) P (A2 A1 ) P (A3 A1 \ A2) :::P (An A1 \ ::: \ An1 )
P
k=1
Demostracin:
Lo demostraremos por induccin sobre n :
n=2:
P (A1 \ A2 )
PA1 (A2 ) =
= P (A2 A1) ) P (A1 \ A2) = P (A1 ) P (A2 A1 )
P (A1 )
n=3:
P (A1 \ A2 \ A3 ) = P (A1) P (A2 \ A3 A1 ) = P (A1 )
= P (A1 )
P (A1 \ A2 \ A3)
=
P (A1 )
An
n1
T
j=1
Aj
H.I.
C:Q:D:
10
Ejemplos 64.4.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes
(V ) y 1 bola negra (N). Se extraen tres bolas, sin reemplazamiento, y nos preguntamos
por la probabilidad de que la primera sea roja, la segunda sea verde y la tercera sea negra
(utilizaremos los sucesos nombrados en el ejemplo anterior). Esta probabilidad viene dada
por:
3 2 1
1
P (R \ V \ N) = P (R) P (V R) P (N R \ V ) = =
6 5 4
20
64.5
Denimos ahora el concepto de particin del espacio muestral, necesario para poder
enunciar el teorema de la probabilidad total y como consecuencia el teorema de BAYES.
Denicin 64.5.1 Sea (E; A; P ) un espacio de probabilidad. Se llama particin de E a
cualquier familia fAn g1
n=1 A que verique:
(i) An \ Am = ; 8n 6= m
1
S
(ii)
An = E
n=1
Teorema 64.5.2 (Teorema de la probabilidad total): Sea fAn gn2N A una particin de E y supongamos que P (An ) > 0 8n 2 N. Entonces, 8B 2 A se tiene:
P (B) =
1
X
P (An ) P (BAn )
n=1
Demostracin:
Sea B = B \ E = B \
P (B) = P
1
[
n=1
1
S
An
n=1
(An \ B)
1
S
n=1
1
X
n=1
()
1
X
P (An ) P (BAn )
n=1
C.Q.D.
Cipri
Temas de Matemticas
11
Demostracin:
P (An B) =
P (An ) P (BAn )
P (An \ B)
= P
1
()
P (B)
P (An ) P (BAn )
n=1
C.Q.D.
Las probabilidades P (An ) que aparecen el teorema de BAYES se llaman probabilidades a priori, las probabilidades P (BAn ) se llaman verosimilitudes y las probabilidades
P (An B) se llaman probabilidades a posteriori.
As, el teorema de BAYES consiste en calcular las probabilidades a posteriori, conocidas las probabilidades a priori.
Acerca de la interpretacin del teorema de BAYES, si los An son considerados como
hiptesis sobre alguna cuestin en estudio y tenemos una cierta informacin, subjetiva
o no, acerca de dichas hiptesis An , reejada sta por las P (An ) > 0, supongamos se
produce un suceso B asociado a un experimento aleatorio (usualmente provocado por el
experimentador para obtener ms informacin), el teorema de BAYES nos proporciona el
medio para obtener la alteracin, provocada por B, en nuestras hiptesis An , dndonos las
probabilidades a posteriori P (An B). Usualmente se continuar el proceso provocando
otro suceso C (es decir, obteniendo otro nuevo resultado de nuestro experimento aleatorio
considerado) y utilizando ahora las P (An B) antes calculadas, como probabilidades a
priori.