Está en la página 1de 11

Captulo 64

PROBABILIDAD COMPUESTA.
PROBABILIDAD
CONDICIONADA.
PROBABILIDAD TOTAL.
TEOREMA DE BAYES
1.2.3.4.5.6.-

INTRODUCCN
PROBABILIDAD CONDICIONADA
INDEPENDENCIA ALEATORIA O ESTOCSTICA
PROBABILIDAD COMPUESTA
TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES
EJEMPLOS

64.1

INTRODUCCIN

En el clculo de probabilidades de algunos sucesos, el valor de dicha probabilidad vara


en funcin del conocimiento de determinadas informaciones relativas a estos sucesos. En
este sentido la probabilidad condicionada nos da las herramientas necesarias para calcular
una determinada probabilidad teniendo en cuenta dichas informaciones adicionales.
Pero conocer cierta informacin adicional, por ejemplo saber que ha ocurrido un suceso, no siempre modica la probabilidad de otro suceso. Los sucesos en los que sabiendo
que uno se ha vericado, no se modica la probabilidad del otro, decimos que son independientes, en cambio, si se modica la probabilidad del otro, decimos que son dependientes
entre s.
El concepto de dependencia e independencia de sucesos fue presentado y aplicado al
Clculo de Probabilidades por De Moivre en 1711, y posteriormente extendido por Thomas Bayes (1702-1761), quien adems expres la probabilidad condicionada en funcin

PROBABILIDAD CONDICIONADA

de la probabilidad de la interseccin.
Dos aos despus de la muerte de Bayes se public un trabajo en el que, por vez
primera, se calculaba la probabilidad de las causas a partir de los efectos que se han
observado. A pesar de que fue Laplace quien mejor y desarroll la mayor parte de
dichas probabilidades, el clculo de stas recibe el nombre de teorema de Bayes.
En los problemas relacionados con la probabilidad, y es especial con la probabilidad
condicionada, as como con la probabilidad total y el teorema de Bayes, resulta interesante y recomendable organizar la informacin y los datos del problema en tablas de
contingencia o en diagramas de rbol. Adems, es muy til desde el punto de vista
metodolgico.

64.2

PROBABILIDAD CONDICIONADA

Mediante un espacio probabilstico damos una formulacin matemtica al fenmeno aleatorio que estemos observando. Parece por tanto razonable que si observamos algo que
aporte informacin a nuestro fenmeno aleatorio, sta deba alterar el espacio probabilstico de partida.
Por ejemplo, la extraccin de una bola de una urna con tres bolas blancas y dos negras,
puede formalizarse con un espacio probabilstico en el que los sucesos elementales sean las
cinco bolas y donde la probabilidad sea uniforme sobre estos cinco sucesos elementales,
es decir, igual a 15 .
Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra,
y no la devolvemos a la urna, es razonable que el espacio probabilstico cambie en el
sentido no slo de que ahora ya habr nicamente cuatro sucesos elementales, sino que
adems la funcin de probabilidad deber cambiar en orden a recoger la informacin que
la observacin del suceso A nos proporcion.
Es decir, en el nuevo espacio probabilstico deber hablarse de probabilidad condicionada al suceso A, de forma que se recojan hechos tan evidentes como que ahora la
probabilidad (condicionada) de obtener negra se habr reducido y habr aumentado la
de blanca.
Denicin 64.2.1 Sea (E; A; P ) un espacio de probabilidad y A E un suceso con
P (A) > 0: Para cualquier otro suceso B se dene la probabilidad de B condicionada a
A como:
P (A \ B)
P (BA) =
P (A)
Ejemplos 64.2.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes (V ) y 1 bola negra (N). Se extraen dos bolas, sin reemplazamiento. Cul es la
probabilidad de que la segunda sea roja si la primera era verde?
Como es usual llamaremos R al suceso salir roja, V al suceso salir verde y N al

Cipri

Temas de Matemticas

suceso salir negra. La probabilidad que nos piden es:


6
P (R \ V )
3
= 30
P (RV ) = =
2
5
P (V )
6
ya que hay 30 casos posibles (6 favorables a RR; 6 a V R; 6 a RV , 2 a V V , 3 a RN; 3 a
NR, 2 a NV y 2 a V N).
Hay que observar que al calcular P (BA) realmente estamos calculando la P (B)
con respecto al espacio muestral re6ducido A en vez del espacio muestral E:
Construyamos la lgebra cuyo conjunto fundamental es A, esto es, teniendo en
cuenta que A es el conjunto de resultados posibles.
Proposicin 64.2.3 AA = fA \ B : B 2 Ag A es una lgebra
Demostracin:
(i) ; 2 AA , A 2 AA
(ii) Veamos que si C 2 AA entonces C 2 AA
Como C 2 AA entonces C = A \ B y por tanto C = A \ B, luego C 2 AA
1
S
(iii) Sea fCk g1
Ck 2 AA
k=1 AA . Tenemos que demostrar que
k=1

Como cada Ck 2 AA se tiene que Ck = A \ Bk y por tanto


1
!
1
1
[
[
[
Ck =
(A \ Bk ) = A \
Bk
k=1

luego como Bk 2 A )

1
S

k=1

k=1

k=1

Bk 2 A ) A \

1
S

k=1

Bk

1
S

k=1

Ck 2 AA :

C.Q.D.

Veamos ahora que la probabilidad condicionada es una autntica probabilidad.


Proposicin 64.2.4 La funcin de conjunto
PA : AA ! [0; 1]
C = A \ B ! PA (C) =
es una medida de probabilidad.
Demostracin:
(1) 8C 2 AA

PA (C) 0 ?

P (A \ B)
P (C)
=
P (A)
P (A)

PROBABILIDAD CONDICIONADA

Como A \ B A tenemos que 0 P (A \ B) P (A), luego dividiendo esta desigualdad por P (A) resulta:
0

P (A \ B)
P (A)

=1
P (A)
P (A)

es decir, 0 PA (C) 1
(2) PA (A) = 1 ?
PA (A) =
(3) PA

1
S

Tomamos

k=1
1
S

k=1

1
P

PA (Ck )
8Ck \ Cj = ; con k 6= j ?

1
S
Ck = A \
Bk . Entonces:
Ck

PA

k=1

k=1

1
S

Ck

k=1

P
=

P (A \ A)
=1
P (A)

=P

1
S

k=1

1
S

k=1

P
Ck A =

(A \ Bk )

P (A)

1
P

k=1

A\

1
S

Bk

k=1

P (A)

P (A \ Bk )
P (A)

1
1
1 P (A \ B )
P
P
P
k
=
PA (A \ Bk ) =
PA (Ck )
P (A)
k=1
k=1
k=1

C:Q:D:

Corolario 64.2.5 (A; AA ; PA ) es un espacio de probabilidad.


Propiedades de la probabilidad condicionada:

Proposicin 64.2.6 La probabilidad condicionada cumple las siguientes propiedades:


(1) Si B C, entonces P (BA) P (CA)
P (B)
(2) Si B A, entonces P (BA) =
P (A)
(3) Si A B, entonces P (BA) = 1
(4) Si A \ B = ;, entonces P (BA) = 0
Demostracin:

(1) Si B C, entonces C = B [ C \ B , y por tanto

P (CA) = P (BA) + P C \ BA
de donde se deduce que

P (BA) P (CA)

Cipri

Temas de Matemticas

ya que P C \ BA 0:
(2)
P (BA) =

P (A \ B)
P (B)
=
P (A)
P (A)

(3)
P (BA) =

P (A \ B) P (A)
=
=1
P (A)
P (A)

(4) Si A \ B = ;, entonces P (BA) = 0, y por tanto


P (BA) =

64.3

P (A \ B)
P (;)
0
=
=
=0
P (A)
P (A)
P (A)

C.Q.D.

INDEPENDENCIA ALEATORIA

Denicin 64.3.1 Sean A; B 2 A dos sucesos de probabilidades no nulas. Se dice que


el suceso B es independiente del suceso A (independiente estocsticamente) sii
P (BA) = P (B)
Ejemplos 64.3.2 Una moneda se lanza dos veces consecutivas. Si se ha obtenido cara
la primera vez, cul es la proabilidad de obtener cara la segunda vez?
1
P (C1 \ C2 )
1
P (C2 C1) =
= 4 = = P (C2 )
1
P (C1 )
2
2
donde Ci es el suceso obtener cara en el lanzamiento i (i = 1; 2) y por tanto ambos
sucesos son independientes.
A continuacin caracterizamos la independencia aleatoria de sucesos:
Teorema 64.3.3 Una condicin necesaria y suciente para que B sea independiente de
A es que P (A \ B) = P (A) P (B).
Demostracin:
)) Como B es independiente de A se tiene que P (BA) = P (B) y por tanto:
P (BA) =

P (A \ B)
= P (B) ) P (A \ B) = P (A) P (B)
P (A)

() Como P (A \ B) = P (A) P (B) resulta:


P (BA) =

P (A \ B)
P (A) P (B)
=
= P (B)
P (A)
P (A)

C:Q:D:

INDEPENDENCIA ALEATORIA

Proposicin 64.3.4 La independencia estocstica es una propiedad recproca.


Demostracin:
Sean A y B dos sucesos de probabilidades no nulas y supongamos que B es independiente de A. Entonces
P (BA) = P (B)
Vamos a demostrar que A es independiente de B:
Se tiene que:
P (AB) =

P (A \ B)
P (A) P (B)
=
= P (A)
P (B)
P (B)

es decir, A es independiente de B:

C.Q.D.

Como consecuencia de esta propiedad, si A es independiente de B se dir que A y B


son (estocsticamente) independientes.
La idea de independencia es que ninguno de los dos sucesos interviene en la vericacin
del otro.
Corolario 64.3.5 Si los sucesos A y B tienen probabilidades no nulas, se tiene que: A
y B son independientes si, y slo si, P (AB) = P (A) y P (BA) = P (B) :
Demostracin:
))

P (A \ B)
P (A) P (B)
=
= P (A)
P (B)
P (B)
Anlogamente se demuestra la otra igualdad.
() Si
P (AB) = P (A)
P (AB) =

se tiene que

P (A \ B)
= P (A)
P (B)
de donde se deduce que A y B son independientes. C.Q.D.
P (AB) =

Se da frecuentemente el caso de que se confunden sucesos incompatibles con sucesos


independientes. Observemos para evitar dicha confusin que los sucesos incompatibles
son los ms dependientes (dos sucesos son dependientes si el resultado de uno inuye
en el otro) que existen, puesto que la ocurrencia de uno de ellos proporciona la mxima
informacin: el otro suceso no va a ocurrir.
Denicin 64.3.6 Dos sucesos A y B con probabilidades no nulas son dependientes si
el resultado de uno inuye en el otro, es decir, si
P (AB) 6= P (A)

P (BA) 6= P (B)

Cipri

Temas de Matemticas

Corolario 64.3.7 Si A y B son sucesos incompatibles con probabilidades no nulas, entonces son dependientes.
Demostracin:
Como A y B son incompatibles, entonces A \ B = ;, por tanto
0 = P (;) = P (A \ B) 6= P (A) P (B) > 0

C.Q.D.

Enunciamos a continuacin algunas propiedades relativas a la independencia estocstica de sucesos, pero antes necesitamos un resultado previo:
Lema 64.3.8 Sean A y B dos sucesos con probabilidades no nulas. Entonces:

P BA = 1 P (BA)

Demostracin:

1 = P (AA) = P B [ BA = PA B [ B = PA (B) + PA B PA B \ B =


= PA (B) + PA B = P (BA) + P BA

de donde

como queramos demostrar.


Nota 64.3.9

P BA = 1 P (BA)

P (BA) 6= P BA

Para demostrar la armacin hecha en la nota anterior, vamos a demostrar el siguiente


resultado.
Proposicin 64.3.10 Sean A y B dos sucesos con probabilidades no nulas. Entonces:

P (BA) = P BA , A y B son independientes

Demostracin:

P (A \ B) P A \ B
,
P (BA) = P BA ,
=
P (A)
P A

, P A P (A \ B) = P A \ B P (A) ,

, (1 P (A)) P (A \ B) = P A \ B P (A) , P (A \ B) P (A) P (A \ B)

P A \ B P (A) = 0 ,
()

, P (A \ B) P (A) P (A \ B) P (B) P (A) P (A \ B) P (A) = 0 ,


, P (A \ B) = P (A) P (B) , A y B son independientes

INDEPENDENCIA ALEATORIA

donde en () hemos tenido en cuenta que A \ B = B (A \ B) y que

P A \ B = P (B (A \ B)) = P (B) P (A \ B)

ya que A \ B B:

C.Q.D.

Proposicin 64.3.11 Si A; B 2 A son independientes, entonces tambin lo son:


(1) A y B
(2) A y B
(3) A y B
Demostracin:
(1) Sabemos que P (A \ B)
A y B son independientes, y
= P(A) P (B) ya
que

tenemos que demostrar que P A \ B = P (A) P B . Se tiene que:

P A \ B = P (A) P BA = P (A) [1 P (BA)] =



= P (A) [1 P (B)] = P (A) P B

es decir, A y B son independientes.


(2) Se tiene que:

P A \ B = P (B) P AB = P (B) [1 P (AB)] =




= P (B) [1 P (A)] = P (B) P A = P A P (B)

es decir, A y B son independientes.


(3) Se tiene que:

P A \ B = P A P BA = P A 1 P BA =


= P A [1 P (B)] = P A P B

es decir, A y B son independientes.

C.Q.D.

Denicin 64.3.12 Se dice que los sucesos A1 ; ::; An 2 A son totalmente independientes
mtuamente independientes sii verican:
() P (Ai \ Aj ) = P (Ai ) P (Aj ) 8i 6= j
() P (Ai \ Aj \ Ak ) = P (Ai ) P (Aj ) P (Ak ) 8i 6= j 6= k
...
n

n
T
Q
() P
Ai =
P (Ai )
i=1

i=1

Cipri

Temas de Matemticas

64.4

PROBABILIDAD COMPUESTA

Sea (E1 ; A1 ; P1 ) el espacio de probabilidad que dene un experimento aleatorio, y consideremos un segundo espacio de probabilidad (E2 ; A2; P2) que dene un segundo experimento
aleatorio. Denotamos los sucesos de primer experimento por Ai y los del segundo por Bj :
Llamaremos experimento aleatorio compuesto de los dos dados al que tiene por espacio
de probabilidad (E1 E2 ; A1 A2 ; P ), donde la probabilidad se dene como sigue:

P1 (Ai ) P2 (Bj )
si Ai y Bj son independientes
P (Ai ; Bj ) =
P1 (Ai ) P2 (Bj Ai )
si son dependientes
De forma anloga se puede extender a un nmero nito de experimentos aleatorios.
Teorema 64.4.1 (Frmula de la probabilidad compuesta): Sea (E; A; P ) un espacio de probabilidad, y consideremos n-sucesos ordenados A1; :::; An . Entonces:
n
!
\
Ak = P (A1) P (A2 A1 ) P (A3 A1 \ A2) :::P (An A1 \ ::: \ An1 )
P
k=1

Demostracin:
Lo demostraremos por induccin sobre n :
n=2:
P (A1 \ A2 )
PA1 (A2 ) =
= P (A2 A1) ) P (A1 \ A2) = P (A1 ) P (A2 A1 )
P (A1 )
n=3:
P (A1 \ A2 \ A3 ) = P (A1) P (A2 \ A3 A1 ) = P (A1 )
= P (A1 )

P (A1 \ A2 \ A3)
=
P (A1 )

P (A1 \ A2) P (A3A1 \ A2 )


= P (A1 ) P (A2 A1 ) P (A3 A1 \ A2 )
P (A1 )

Hiptesis de induccin: lo suponemos cierto para n 1, es decir:


n1 !
\
P
Ak = P (A1 ) P (A2 A1 ) P (A3 A1 \ A2 ) :::P (An1A1 \ ::: \ An2)
k=1

Vamos a demostrarlo para n :

P (A1 \ ::: \ An1 \ An ) = P ((A1 \ ::: \ An1 ) \ An ) =


= P (A1 \ ::: \ An1) P

An

n1
T
j=1

Aj

H.I.

= P (A1 ) P (A2 A1) P (A3 A1 \ A2 ) :::P (An A1 \ ::: \ An1 )

como queramos demostrar.

C:Q:D:

10

TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES

Ejemplos 64.4.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes
(V ) y 1 bola negra (N). Se extraen tres bolas, sin reemplazamiento, y nos preguntamos
por la probabilidad de que la primera sea roja, la segunda sea verde y la tercera sea negra
(utilizaremos los sucesos nombrados en el ejemplo anterior). Esta probabilidad viene dada
por:
3 2 1
1
P (R \ V \ N) = P (R) P (V R) P (N R \ V ) = =
6 5 4
20

64.5

TEOREMAS DE LA PROBABILIDAD TOTAL


Y DE BAYES

Denimos ahora el concepto de particin del espacio muestral, necesario para poder
enunciar el teorema de la probabilidad total y como consecuencia el teorema de BAYES.
Denicin 64.5.1 Sea (E; A; P ) un espacio de probabilidad. Se llama particin de E a
cualquier familia fAn g1
n=1 A que verique:
(i) An \ Am = ; 8n 6= m
1
S
(ii)
An = E
n=1

Teorema 64.5.2 (Teorema de la probabilidad total): Sea fAn gn2N A una particin de E y supongamos que P (An ) > 0 8n 2 N. Entonces, 8B 2 A se tiene:
P (B) =

1
X

P (An ) P (BAn )

n=1

Demostracin:
Sea B = B \ E = B \
P (B) = P

1
[

n=1

1
S

An

n=1

(An \ B)

1
S

n=1

1
X
n=1

(An \ B). Entonces:


P (An \ B) =

()

1
X

P (An ) P (BAn )

n=1

donde en () hemos usado la frmula de la probabilidad compuesta.

C.Q.D.

Corolario 64.5.3 (Teorema de BAYES o de la probabilidad inversa, 1764): Sea


fAn gn2N A una particin de E con P (An ) > 0 8n 2 N. Entonces, 8B 2 A se tiene:
P (An ) P (BAn )
P (An B) = P
1
P (An ) P (BAn )
n=1

Cipri

Temas de Matemticas

11

Demostracin:
P (An B) =

P (An ) P (BAn )
P (An \ B)
= P
1
()
P (B)
P (An ) P (BAn )
n=1

donde en () hemos usado el teorema de la probabilidad total.

C.Q.D.

Las probabilidades P (An ) que aparecen el teorema de BAYES se llaman probabilidades a priori, las probabilidades P (BAn ) se llaman verosimilitudes y las probabilidades
P (An B) se llaman probabilidades a posteriori.
As, el teorema de BAYES consiste en calcular las probabilidades a posteriori, conocidas las probabilidades a priori.
Acerca de la interpretacin del teorema de BAYES, si los An son considerados como
hiptesis sobre alguna cuestin en estudio y tenemos una cierta informacin, subjetiva
o no, acerca de dichas hiptesis An , reejada sta por las P (An ) > 0, supongamos se
produce un suceso B asociado a un experimento aleatorio (usualmente provocado por el
experimentador para obtener ms informacin), el teorema de BAYES nos proporciona el
medio para obtener la alteracin, provocada por B, en nuestras hiptesis An , dndonos las
probabilidades a posteriori P (An B). Usualmente se continuar el proceso provocando
otro suceso C (es decir, obteniendo otro nuevo resultado de nuestro experimento aleatorio
considerado) y utilizando ahora las P (An B) antes calculadas, como probabilidades a
priori.

También podría gustarte