Está en la página 1de 49

TEMA 2: Conceptos elementales de Probabilidad

2.1.– Introducción.
2.2.– Experimentos aleatorios. Sucesos.
Operaciones con sucesos y propiedades.
2.3.– Definiciones de probabilidad: frecuentista, clásica y axiomática.
2.4.– Operaciones elementales con probabilidades.
2.5.– Probabilidad condicionada.
Dependencia e independencia estocástica de sucesos.
2.6.– Regla de la multiplicación.
Teorema de la probabilidad total.
Teorema de Bayes. Aplicaciones.
2.7.– Análisis combinatorio.
2.1. Introducción
La Probabilidad es la disciplina matemática que estudia situaciones de riesgo e
incertidumbre, que pueden dar lugar a varios resultados con consecuencias muy
diferentes y no sabemos cuál de ellos se producirá.
La obtención de conclusiones generales a partir de los posibles resultados
que se pueden obtener es siempre incierta porque, cada vez que se da una
situación de riesgo, nosotros sólo observamos uno de los resultados.
Uno de los objetivos de la probabilidad es medir esta incertidumbre.
Los métodos que permiten medir los diferentes grados de incertidumbre se en-
globan dentro del Cálculo de Probabilidades.

La probabilidad también es importante porque muchos fenómenos aleatorios


tienen un comportamiento similar, es decir, la distribución de frecuencias de las
observaciones que se tienen responden a un mismo modelo.
El Cálculo de Probabilidades construye y estudia estos modelos.
En este curso estudiaremos algunos de estos modelos, por ejemplo: el modelo
uniforme, de Bernoulli, binomial, Poisson, geométrico, exponencial y normal.
2.2. Experimentos aleatorios
Un experimento es un proceso a partir del cual obtenemos un resultado.
La finalidad de un experimento es obtener información sobre el fenómeno que
se investiga, para establecer las leyes del comportamiento de ese fenómeno.
• Experimento determinista:
• Siempre que se realice en las mismas condiciones proporciona el mismo
resultado, por lo que éste puede predecirse con seguridad.
• Las condiciones de experimentación contiene a TODOS los factores que in-
fluyen
Ejemplo: determinar el espacio recorrido por un vehı́culo que marcha a una
velocidad determinada en un trayecto dado.
• Experimento aleatorio
• Conocemos todos los posibles resultados antes de realizar el experimento.
• Realizado en las mismas condiciones, no tiene por qué proporcionar el mismo
resultado.
• Las condiciones de experimentación NO contiene a TODOS los factores que
influyen.
Ejemplo: Si lanzamos una moneda al aire ¿saldrá cara o saldrá cruz?
La probabilidad trata de MEDIR el grado de conocimiento que tenemos sobre la
aparición de un determinado resultado cuando se realiza un experimento aleatorio.
2.2. Experimentos aleatorios. Resultados y sucesos.

CONCEPTOS BÁSICOS

El espacio muestral de un experimento aleatorio es el conjunto de todos los


posibles resultados que pueden obtenerse en las diferentes pruebas de ese ex-
perimento aleatorio. Lo denotamos por ⌦ .
Ejemplo: conjunto de todos los resultados posibles al lanzar un dado

⌦ = {1, 2, 3, 4, 5, 6}

El espacio muestral puede ser:


Finito: el experimento aleatorio tiene un número finito de resultados posibles.
Ejemplo: lanzamiento de dos monedas ⌦ = {CC, CF, F C, F F }
Infinito numerable: el experimento aleatorio tiene un número infinito numera-
ble de resultados posibles. Ejemplo: lanzamiento de una moneda hasta que
aparece por primera vez la cara ⌦ = {C, F C, F F C, F F F C, F F F F C, . . .}
Infinito no numerable. el experimento aleatorio tiene un número infinito no
numerable de resultados posibles. Ejemplo: elección al azar de un número
entre 0 y 1, ⌦ = [0, 1]
2.2. Experimentos aleatorios. Resultados y sucesos.
La introducción formal de las probabilidades no se construye a partir de los
resultados de los experimentos, sino a partir de un concepto más amplio, que es
el de suceso de un espacio muestral
• Un SUCESO es cualquier proposición lógica que pueda formularse sobre la ca-
racterı́stica que se estudia, se identifica con un subconjunto del espacio muestral
formado por los resultados que lo verifican. Designaremos los sucesos por letras
mayúsculas.
CLASES DE SUCESOS
• Un suceso elemental es el que sólo se verifica con un resultado del espacio
muestral. A cada resultado del espacio muestral le corresponde un único
suceso elemental. Ejemplo: Al lanzar un dado los sucesos elementales son
{1}, {2}, {3}, {4}, {5}, {6}.
• Un suceso compuesto es el que se verifica con más de un resultado del es-
pacio muestral. Ejemplo: Al lanzar un dado, salir número impar A = {1, 3, 5}
• Un suceso seguro es el que se verifica siempre que se realiza un experimento
asociado al espacio muestral. Coincide con el espacio muestral ⌦.
Ejemplo: Al lanzar un dado, salir número mayor que 0 y menor que 7.
• Un suceso imposible es el que no se verifica nunca. Se identifica con el
conjunto vacı́o ;. Ejemplo: Al lanzar un dado, salir número mayor que 6.
2.2. Operaciones con sucesos.
• Unión de sucesos A y B: es el suceso A [ B, que ocurre cuando al menos
ocurre uno de los dos sucesos A y/o B. Dicho de otra forma: ocurre A u ocurre
B u ocurren ambos

• Intersección de sucesos A y B: es el suceso A \ B, que ocurre sólo cuando


A y B ocurren simultámeamente.
• Suceso complementario o contrario de A: es el suceso A c o Ā, que ocurre
exactamente cuando no ocurre A .
Un suceso A y su contrario Ac cumplen A [A c = ⌦ y A\Ac = ;
c
También se verifica: (Ac )c = A; ⌦c = ;; ; =⌦

• Diferencia de dos sucesos A y B: es el suceso A-B, que sólo ocurre si ocurre


el primero pero no ocurre el segundo:
A-B = A \ Bc ; B-A = B \ Ac
• Diferencia simétrica de sucesos A y B: es el suceso A 4 B, que ocurre cuando
ocurre uno y sólo uno de los sucesos A o B:
A 4 B = (A-B) [ (B-A)
2.2. Relaciones entre sucesos.
• Inclusión de sucesos: El suceso A está incluı́do o contenido en otro B, y se nota
A ⇢ B, si siempre que ocurre A se verifica B.
Si A ⇢ B, se verifican a la vez las igualdades: A \ B = A y A [ B = B.

• Igualdad de sucesos: Dos sucesos A y B son iguales, y se nota A = B, si


siempre que ocurre A se verifica B y siempre que ocurre B se verifica A.
La igualdad de sucesos equivale a la doble inclusión:
A = B () A ⇢ B y A B
• Incompatibilidad de sucesos: Dos sucesos son incompatibles, mutuamente
excluyentes o disjuntos si su intersección es el suceso imposible:
A\B=;
• Compatibilidad de sucesos: Dos sucesos A y B son compatibles cuando existe
algún resultado que los verifica simultáneamente: A \ B 6= ;

Leyes de De Morgan:

(A [ B)c = Ac \ B c ; (A \ B)c = Ac [ B c
([ni=1 Ai )c = \ni=1 Aci ; (\ni=1 Ai )c = [ni=1 Aci
RELACIONES ENTRE SUCESOS
!"#$%&'() #*+,-.'/'$'0-0
D!F # !
!
" 4
3
4#$#3
A! B " !

!#$#"#%&'#()*+,$('-(%#&# 3#$#4#%&'#*&/01-.2+(% cuando


.'*&/01-.2+(% cuando es pueden darse los dos a la vez en
imposible que se den los dos la misma prueba.
a la vez en la misma prueba.
')#$%&'()
c G!H "G
: :
< 5#(%-7 .'*+,.8&#('#6 5
cuando en toda prueba
9'#%,*(%&#:#$#%,#*&'-;1;.&# donde se dé G también
se dará H. 6
%&'#()*+,$('-(%
2.2. Operaciones y relaciones con sucesos: ejemplo
Ejemplo: Consideremos el experimento consistente en lanzar un dado y anotar
su resultados. El espacio muestral asociado es ⌦ = {1, 2, 3, 4, 5, 6}.
Consideremos los sucesos:
A =“el resultado es un número par”={2, 4, 6}
B = “el resultado es un número menor o igual que 3”={1, 2, 3}.
C= “el resultado es un un número impar menor que 5”= {1, 3}.
Entonces:
Ac = {1, 3, 5}; B c = {4, 5, 6} : A [ B = {1, 2, 3, 4, 6}; A \ B = {2};

A B = {4, 6}; B A = {1, 3}; A4B = {1, 3, 4, 6};

C ⇢ B = {1, 3} ⇢ {1, 2, 3}; C \ B = {1, 3}; C [ B = {1, 2, 3}; A\C =;

c
Ac \ B c = {1, 3, 5} \ {4, 5, 6} = {5}; (A [ B)c = {1, 2, 3, 4, 6} = {5};

c
Ac [ B c = {1, 3, 5} [ {4, 5, 6} = {1, 3, 4, 5, 6}; (A \ B)c = {2} = {1, 3, 4, 5,
2.2. Propiedades entre sucesos.
Conmutativa: Asociativa:
A[B =B[A A [ (B [ C) = (A [ B) [ C
A\B =B\A A \ (B \ C) = (A \ B) \ C
Elemento neutro: Distributiva:
A[;=A A [ (B \ C) = (A [ B) \ (A [ C)
Unión: suceso imposible Unión respecto de la intersección

A\⌦=A A \ (B [ C) = (A \ B) [ (A \ C)
Intersección:suceso seguro Intersección respecto de la unión
Complementación: Idempotencia:
A [ Ac = ⌦ A[A=A
A \ Ac = ; A\A=A
Absorción: Simplificación:
A[⌦=⌦ A [ (A \ B) = A
A\;=; A \ (A [ B) = A
2.3. Definiciones de probabilidad

La probabilidad de un suceso trata de representar y formalizar


el conocimiento que tenemos sobre la aparición de ese suceso
cuando se realiza un experimento aleatorio

¿Qué valor le asignarı́amos a.........

• Ejemplo 1: la probabilidad de sacar un seis al lanzar un dado


• Ejemplo 2: la probabilidad de aprobar esta asignatura (!!!!!)
• Ejemplo 3: la probabilidad de que mañana llueva
• Ejemplo 4: la probabilidad de que me toque la loterı́a de Navidad

El cálculo de una probabilidad no es siempre es fácil


2.3. Definiciones de probabilidad: frecuentista

DEFINICIÓN FRECUENTISTA

Cuando un experimento aleatorio puede repetirse muchas veces en las mismas


condiciones, se llama frecuencia relativa de un suceso al cociente entre el número
de veces que ha ocurrido ese suceso y el número total de repeticiones del expe-
rimento.
Cuando crece indefinidamente el número de repeticiones del experimento, las
sucesivas frecuencias relativas de un mismo suceso tienden a estabilizar sus
valores en torno a un número fijo.
En un experimento indefinidamente repetible, la probabilidad de un suceso S es
el valor lı́mite de las frecuencias relativas con las que se observa ese suceso en
una sucesión indefinida de grupos de N repeticiones del experimento.
La probabilidad podrı́a considerarse como la frecuencia ideal, el patrón en torno
al cual puede actuar el azar; la frecuencia real sólo se conoce con exactitud una
vez realizado el experimento un cierto número de veces.
2.3. Definiciones de probabilidad: frecuentista
Ejemplo: Lanzamos un moneda al aire 100, 200, 300 y 1000 veces y anotamos
el número de veces que sale cara. Calculamos la frecuencia relativa de aparición
de ese suceso. Las gráficas asociadas son1.0las siguientes:
1.0

0.9
0.8
0.8
0.6
0.7

0.6 0.4

0.5
0.2
0.4

20 40 60 80 100 50 100 150 200


1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

50 100 150 200 250 300 200 400 600 800 1000

Obsérvese que a medida que se aumenta el número de lanzamientos, la frecuen-


cia relativa del suceso “número de caras ” tiende a estabilizarse en torno al valor
0.5
2.3. Definiciones de probabilidad: clásica

DEFINICIÓN CLÁSICA

La interpretación clásica de la probabilidad se basa en dos condiciones:


(1) el número de resultados del experimento es finito.
(2) los resultados del experimento son igualmente verosı́miles.

Si A es un suceso de un experimento que cumple estas condiciones,


se llama número de casos favorables al suceso A al número de los resultados
que lo verifican.
Se llama número de casos posibles al número de resultados del espacio
muestral del experimento, ⌦.

En estas condiciones, la probabilidad del suceso A es Las fórmulas del análisis


combinatorio, son muy útiles
para conocer el número de
casos favorables a A sucesos elementales que
Regla de Laplace: P (A) = componen el espacio
casos posibles muestral y el suceso
estudiado.
2.3. Definiciones de probabilidad: clásica. Ejemplo
Ejemplo: Se consideran los numeros del 0 al 9 y se forman números de cinco
cifras (las cifras pueden estar repetidas o no.
• ¿Cuál es la probabilidad de que 1 aparezca en primer lugar? Sea A el suceso “el
1 aparece en primer lugar”
4
casos favorables a A V R10 104 1
P (A) = = 4
= =
casos posibles 9 · V R10 9 · 104 9
Observación: Para los casos favorables: fijo el 1 al principio y se hacen grupos de 4.
Para los casos posibles: el número no debe empezar por 0, luego sólo hay 9 posibles
números al principio y para cada uno de ellos se hacen grupos de 4 números.
• ¿Cuál es la probabilidad de que 1 y 2 aparezcan en primer lugar y en este orden?
Sea B el suceso “el 1 y el 2 aparecen en primer lugar y en ese orden ”
3
casos favorables a B V R10 103 1
P (B) = = 4
= =
casos posibles 9 · V R10 9 · 104 90
• ¿Cuál es la probabilidad de que 1 y 2 aparezcan en primer lugar y en cualquier
orden orden?
Sea C el suceso “el 1 y el 2 aparecen en primer lugar y en cualquier orden ”
3
casos favorables a C 2 · V R10 2 · 103 2
P (C) = = 4
= =
casos posibles 9 · V R10 9 · 104 90
2.3. Definiciones de probabilidad: inconvenientes
• Inconvenientes de la definición frecuentista:
• ¿Qué ocurre cuando el experimento no se puede repetir de forma indefinida
y en las mismas condiciones?
Ejemplo: ¿cuál es la la probabilidad de que la duración de una bombilla sea
superior a 4 horas?
• La probabilidad se considera el lı́mite de unas frecuencias relativas, pero no
es un lı́mite de una sucesión de valores.

• Inconvenientes de la definición clásica:


• ¿Qué ocurre cuando los sucesos elementales no tiene la misma probabili-
dad?
Ejemplo: Ejemplo: cuando el dado está trucado ¿cuál es la probabilidad de
que salga el 6?
• ¿Cómo definimos la probabilidad de un suceso cuando el espacio muestral
es infinito numerable o infinito no numerable?
2.3. Definiciones de probabilidad: ejemplo
Ejemplo: Un dado está cargado de forma que las puntuaciones pares se obtienen
con una probabilidad doble que las puntuaciones impares.
• ¿Cuál es la probabilidad de obtener un 6 en el lanzamiento del dado? El dado está
cargado, con lo que no todos las sucesos elementales tiene igual probabilidad.
La regla de Laplace no es posible aplicarla.
El espacio muestral ⌦ = {1, 2, 3, 4, 5, 6}

P (1) + P (3) + P (5) = 3p; P (2) + P (4) + P (6) = 3 · 2p = 6p; 3p + 6p = 1 =) p = 1/9

P (1) = P (3) = P (5) = 1/9; P (2) = P (4) = P (6) = 2/9; P (6) = 2/9
• Si se lanza dos veces este dado: ¿cuál es la probabilidad de que la suma de las
puntuaciones sea 8?
Sea A el suceso “la suma de las puntuaciones es 8”

A = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}
2 2 4 1 1 1 2 2 4
P (2, 6) = 9 · 9 = 81 = P (6, 2) ; P (3, 5) = 9 · 9 = 81 = P (5, 3) ; P (4, 4) = 9 · 9 = 81

4 1 4 17
+ P (A) = 2 ·
+2· =
81 81 81 81
Ejercicio: ¿Qué suma es la más probable?
2.3. Definiciones de probabilidad: axiomática de Kolmogorov

DEFINICIÓN AXIOMÁTICA DE KOLMOGOROV

Una función de probabilidad es una función P que a cada suceso A del espacio
muestral ⌦, le hace corresponder un número, P(A) , de forma que se verifican los
siguientes axiomas:

A1. 0  P(A)1 (Una probabilidad no puede ser ni negativa ni mayor que 1)


A2. P(⌦)=1 (La probabilidad del suceso seguro es 1)
A3. Si dos sucesos son disjuntos (A \ B = ;) se verifica que
P (A [ B) = P (A) + P (B) (Propiedad de aditividad finita)

El axioma A3 tiene una generalización para n sucesos (propiedad de -aditividad):

Sean A1 , A2 , ..., An , n sucesos disjuntos dos a dos (es decir Ak \ Ai = ;


para todo, i 6= k, i, k = 1, 2, . . ., n
Entonces: Pn
P ([ni=1 Ai ) = i=1 P (Ai )
2.4. Operaciones elementales con probabilidades
Sean A, B, C y D sucesos cualesquiera de un mismo espacio muestral.
Entonces:
(1) P (Ac ) = 1 P (A)
(2) P (;) = 0
(3) P (A B) = P (A \ B c ) = P (A) P (A \ B)
(4) Si A ⇢ B, entonces P (B A) = P (B) P (A) y P (A)  P (B)
(5) P (A [ B) = P (A) + P (B) P (A \ B)
(6) P (A [ B [ C) =
P (A)+ P (B)+ P (C) P (A \ B) P (A \ C) P (B \ C) + P (A \ B \ C)
Esta última propiedad es generalizable para n sucesos cualesquiera
Nota: Con frecuencia es más fácil calcular P (A [ B [ C) teniendo en cuenta las
leyes de Morgan:

P (A [ B [ C) = 1 P (A [ B [ C)c = 1 P (Ac \ B c \ C c )

(lo contrario de que ocurra al menos uno de tres sucesos es que no ocurra nin-
guno de ellos)
2.5. Probabilidad condicionada
En algunas condiciones al realizar un experimento aleatorio se dispone de infor-
mación que permite reducir el espacio muestral, lo que modifica las probabili-
dades de los sucesos.
Ejemplo: En el lanzamiento de un dado consideremos el sucesos A: “salir un
6”, entonces P (A) = 1/6. Pero, ¿qué pasa si nos dicen que al lanzar el dado ha
ocurrido el suceso B: “ha salido un número par”?, ¿sigue siendo P (A, sabiendo
esta información)=1/6?
Dados dos sucesos A y B, con P (B) > 0, se define la probabilidad condicio-
nada del suceso A por el suceso B como la probabilidad de que ocurra el suceso
A cuando se sabe que ha ocurrido el suceso B y se denota por la expresión
P (A | B)
La probabilidad condicionada P (A | B)se calcula con el cociente
Se lee “probabilidad de A
dado B”o bien
P (A \ B) “probabilidad de A
P (A | B) = condicionada a B”
P (B)
El suceso A se llama suceso condicionado y el suceso B se llama suceso condi-
cionante, y debe tener probabilidad positiva, P (B) > 0, para que la fórmula an-
terior tenga sentido.
La probabilidad condicionada P (A | B)cuantifica la creencia en la verificación del
suceso A en una prueba en la que se sabe que ha ocurrido el suceso B
2.5. Probabilidad condicionada: ejemplo
Ejemplo: En la reprografia de la Escuela hay dos fotocopiadoras A y B. En una
hora la fotocopiadora A hace 80 fotocopias de las cuales 11 son defectuosas,
mientras que la B hace 50 fotocopias de las que 6 son defectuosas.
Defectuosas No defectuosas
Fotocopiadora A 11 69 80
Fotocopiadora B 6 44 50
17 113 130

• Si se selecciona una fotocopia al azar, ¿cuál es la probabilidad de que haya sido


hecha por A :
P (A) = 80/130 = 0.61
• Si la fotocopia es defectuosa, (D), ¿cuál es la probabilidad de que haya sido
producido por la maquina A?
11/130
P (A | D) = P P(A\D)
(D)
= 17/130
= 11
17
= 0.647
• Si la fotocopia no es defectuosa, (Dc ), ¿cuál es la probabilidad de que haya sido
producido por la maquina A?
c P (A\Dc ) 69/130 69
P (A | D ) = P (Dc ) = 113/130 = 113 = 0.611
Ejercicio: Calcular P (B), P (B | D) y P (B | Dc )
2.5. Probabilidad condicionada: Propiedades
Sea B un suceso con probabilidad positiva, entonces:
P1. P (A | B) 0 para todo suceso A
P2. P (⌦ | B) = 1
P3. Si A1 \ A2 = ; entonces se verifica que

P (A1 [ A2 | B) = P (A1 | B) + P (A2 | B)

P4. En general si A1 , A2 . . . An son sucesos disjuntos dos a dos (Ai \ Aj = ;


para i 6= j) entonces se verifica que

P (A1 [ A2 [ . . . [ An | B) = P (A1 | B) + P (A2 | B) + . . . P (An | B)

P5. Si A y B son dos sucesos con probabilidades positivas, entonces

P (A \ B) = P (B)P (A | B) = P (A)P (B | A)
2.5. Dependencia e independencia estocástica de sucesos.
Dos sucesos, A y B, son independientes (estocásticamente) cuando saber que
ha ocurrido uno de ellos no influye en la probabilidad que le asignamos al otro,
es decir, cuando se cumplen a la vez las igualdades

P (A | B) = P (A) y P (B | A) = P (B)

Los dos sucesos son dependientes (estocásticamente) si se cumple

P (A | B) 6= P (A) o P (B | A) 6= P (B)

• Si P (A | B) > P (A), se dice que B da información positiva para A


o que la ocurrencia de B favorece la aparición de A.
• Si P (A | B) < P (A), se dice que B da información negativa para A
o que la ocurrencia de B perjudica la aparición de A.
2.5. Dependencia e independencia estocástica de sucesos.

PROPIEDADES

P1. A y B son independientes () P (A \ B) = P (A)P (B)

P2. La relación de dependencia estocástica es recı́proca:


A depende de B () B depende de A
P3. La relación de independencia estocástica es recı́proca:
A es independiente de B () B es independiente de A
P4. A y B son independientes () A y B c son independientes.
A y B son independientes () Ac y B son independientes.
A y B son independientes () Ac y B c son independientes.
P5. P (A | B) = 1 P (Ac | B); es decir, P (A | B) y P (Ac | B) son probabilidades
complementarias.
NOTA: El suceso vacı́o no es independiente ni dependiente de ningún otro suceso
ya que por definición este suceso no puede ocurrir en ningún experimento
Observación: Ser independiente y ser incompatibles no es lo mismo.
Si dos sucesos son incompatibles, entonces son dependientes.
Si son compatibles pueden ser depedientes o independientes.

A B
Si entonces A es dependiente de B

A!B=Ø

B Entonces Que A sea dependiente de B(*)


Si A o bien
puede ocurrir Que A sea independiente deB(**)

A!B!Ø

En el lanzamiento de un dado E={1,2,3,4,5,6}


(*) A={1,2,3}; B={2,4,6};( P(A|B)=1/3! P(A)=1/2)
(**) A={1,2}; B={2,4,6};( P(A|B)=1/3= P(A)=1/3)
Si dos sucesos son independientes, entonces son compatibles.
Si son dependientes pueden ser compatibles o incompatibles.

B
Si A es independiente de B entonces A

A!B!Ø

A B A!B!Ø(*)
Si A dependiente de B entonces
o bien
A!B=Ø(**)
A B

En el lanzamiento de un dado E={1,2,3,4,5,6}


(*) A={1,2,3}; B={2,4,6};(P(A|B)=1/3! P(A)=1/2)
(**) A={1,3}; B={2,4,6} ;(P(A|B)=0! P(A)=1/3)
2.6. Probabilidad Compuesta o regla de la multiplicación
Sean A1 , A2 , . . . , An n sucesos, tales que la probabilidad de cualquier inter-
sección de n 1 de estos sucesos sea positiva (por ejemplo la de los n 1
primeros). Entonces

P (A1 \ . . . \ An ) = P (A1 )P (A2 | A1 )P (A3 | A1 \ A2 ) . . . P (An | A1 \ . . . \ An 1)

Demostración:
Sin más que aplicar la definición de probabilidad condicionada a cada uno de los
factores y simplificar
P (A1 )P (A2 | A1 )P (A3 | A1 \ A2 ) . . . P (An | A1 \ . . . \ An 1 )
P (A1 \ A2 ) P (A1 \ A2 \ A3 ) P (A1 \ . . . \ An 1 \ An )
= P (A1 ) · ...
P (A1 ) P (A1 \ A2 ) P (A1 \ . . . \ An 1 )
= P (A1 \ . . . \ An )

Caso particular: para n = 3

Sean A1 , A2 , A3 tres sucesos tales que, por ejemplo P (A1 \ A2 ) > 0. Entonces

P (A1 \ A2 \ A3 ) = P (A1 )P (A2 | A1 )P (A3 | A1 \ A2 )


2.6. Probabilidad Compuesta o regla de la multiplicación
Observación: La condición impuesta en el enunciado de que, por ejemplo,

P (A1 \ . . . \ An 1) >0

asegura que todas las probabilidades condicionadas que aparecen en la fórmula


están bien definidas, ya que como

A1 \ . . . \ An 1 ⇢ A1 \ . . . \ An 2 ⇢ . . . ⇢ A1 \ A2 ⇢ A1

los denominadores de todas las probabilidades condicionadas por interseccio-


nes de estos sucesos son todas estrictamente mayores que cero, pues las pro-
piedades de la probabilidad aseguran que

0 < P (A1 \ . . . \ An 1)  P (A1 \ . . . \ An 2)  . . .  P (A1 \ A2 )  P (A1 )

Además, nos aseguramos de que la probabilidad de la intersección no depende


del orden en el que se toman los n sucesos de la familia.
2.6. Probabilidad Compuesta o regla de la multiplicación

EJEMPLO: 40 jugadores en fila van extrayendo cada uno, sin devolución, una
carta de una baraja española. Gana el juego aquel jugador que saque el as de
espadas. Calcular la probabilidad que tiene cada jugador de ganar el juego.
Sea Gi : “el jugador i gana el juego”
Sea Ai : “el jugador i saca el as de espadas”
P (G1 ) = P (A1 ) = 1/40
P (G2 ) = P (Ac1 \ A2 ) = P (Ac1 )P (A2 | A1 c) = (39/40)(1/39) = 1/40
En general, para el jugador i, se tiene
P (Gi ) =P (Ac1 \ Ac2 . . . Aci 1 \ Ai )
=P (Ac1 ) · P (Ac2 | Ac1 ) · P (Ac3 | Ac2 \ Ac1 ) . . . P (Ai | Ac1 \ Ac2 \ Ac3 . . . Ai 1c )
39 38 37 40 (i 1)) 1 1
= · · ... · =
40 39 38 (40 (i 2) 40 (i 1) 40

TODOS LOS JUGADORES TIENEN A PRIORI LA MISMA PROBABILIDAD DE GA-


NAR EL JUEGO
2.6. Probabilidad Total
Sean A1 , A2 , . . . , An n sucesos que verifican
(1) [ni=1 Ai = ⌦ (2) Ai \ Aj = ; 8i 6= j, (3) P (Ai ) > 0 8i.

Sea B un suceso del mismo espacio muestral, del que se conocen P (B | Ai )


Entonces la probabilidad de que ocurra B, sin tener en cuenta cuál de los
sucesos Ai ha ocurrido es:

Pn
P (B) = i=1 P (B | Ai )P (Ai )

Esta probabilidad se llama probabilidad total de B


Demostración:
De la condición (1) y de la propiedad distributiva
Sn de la intersecci
Sn ón respecto de
la unión, se deduce que : B = B \ ⌦ = B \ ( i=1 Ai ) = i=1 (B \ Ai )
De la condición (2) se deduce que si i 6= j ; (B \Ai )\(B \Aj ) = B \Ai \Aj = B \; = ;
Entonces por el tercer axioma de probabilidad y la regla de la multiplicación :
Sn Pn Pn
P (B) = P i=1 (B \ Ai ) = i=1 P (B \ Ai ) = i=1 P (B | Ai )P (Ai )
2.6. Probabilidad Total
El significado de estos sucesos y de sus probabilidades es el siguiente:

El suceso B es un EFECTO , que puede haber sido producido por alguno


de los sucesos A1 , A2 , . . . , An .

Los sucesos A1 , A2 , . . . , An se llaman: CAUSAS POSIBLES DEL EFECTO B.

Los números positivos P (Ai ) se llaman PROBABILIDADES A PRIORI DE LAS


CAUSAS porque se han asignado antes de que se produzca B

Las probabilidades P (B | Ai ) se llaman VEROSIMILITUDES DE LAS CAUSAS


porque, cuanto mayor sea P (B | Ai ), más verosı́mil será que B se deba a la causa Ai
2.6. Probabilidad Total
Ejemplo: En la reprografia de la Escuela hay dos fotocopiadoras A y B. En una
hora la fotocopiadora A hace 80 fotocopias de las cuales 11 son defectuosas,
mientras que la B hace 50 fotocopias de las que 6 son defectuosas.

Defectuosas No defectuosas
Fotocopiadora A 11 69 80
Fotocopiadora B 6 44 50
17 113 130

Se selecciona una fotocopia al azar,


• ¿cuál es la probabilidad de que sea defectuosa?
11 80 6 50 11+6 17
P (D) = P (D | A)P (A) + P (D | B)P (B) = 80
· 130
+ 50
· 130
= 130
= 130
= 0.13
• ¿y de que no sea defectuosa?
69 80 44 50 69+44 113
P (Dc ) = P (Dc | A)P (A) + P (Dc | B)P (B) = 80
· 130
+ 50
· 130
= 130
= 130
= 0.187
Obsérvese que P (Dc ) = 1 P (D)
2.6. Teorema de Bayes
Sean A1 , A2 , . . . , An n sucesos que verifican:
(1) [ni=1 Ai = ⌦ (2) Ai \ Aj = ; 8i 6= j, (3) P (Ai ) > 0 8i.
Sea B un suceso con P (B) > 0, del mismo espacio muestral, del que se conocen
P (B | Ai )

Entonces:
P (B | Ak )P (Ak )
P (Ak | B) = Pn
i=1 P (B | Ai )P (Ai )

Demostración:
Inmediata sin más que tener en cuenta la definición de probabilidad condicionada
y del teorema de la probabilidad total.

P (Ak \ B) P (B | Ak )P (Ak )
P (Ak | B) = = Pn
P (B) i=1 P (B | Ai )P (Ai )
2.6. Teorema de Bayes

Este teorema utiliza la información de que ha ocurrido el suceso B , para mo-


dificar las probabilidades de los sucesos A1 , A2 , . . . , An .

• Los sucesos A1 , A2 , . . . , An son todas las CAUSAS POSIBLES que pueden


ocurrir.

• Los números positivos P (Ai ) se llaman PROBABILIDADES A PRIORI DE LAS


CAUSAS porque se han asignado antes de que se produzca B

• Las probabilidades P (B | Ai ) se llaman VEROSIMILITUDES DE LAS CAUSAS


porque, cuanto mayor sea P (B | Ai ), más verosı́mil será que B se deba a la causa Ai

• Las probabilidades P (Ai | B) se llaman PROBABILIDADES A POSTERIORI


DE LAS CAUSAS porque P (Ak | B) es la probabilidad de que haya ocurrido Ak ,
después de saber que ha sucedido B
2.6. Teorema de Bayes: ejemplo
Ejemplo: Una caja contiene una moneda legal, M 1 , lue y otra con una cara en
cada lado, M 2 . Se selecciona una de las dos monedas al azar y al lanzarla se
obtiene una cara, C 1 . ¿Cuál es la probabilidad de que la moneda sea la legal?
Aplicando el teorema de Bayes se tiene
1
P (C1 | M1 )P (M1 ) 2 · 12 1
P (M1 | C1 ) = = 1 1
=
P (C1 | M1 )P (M1 ) + P (C1 | M2 )P (M2 ) 2 · 2 + 12 · 1 3

A priori hemos considerado que la probabilidad inicial para cada moneda es 1/2,
pero después del primer lanzamiento las probabilidades son 1/3 para la moneda
legal y 2/3 para la moneda trucada. La información ha reducido la probabilidad
de la moneda legal.
2.6. Teorema de Bayes: continuación del ejemplo
Lanzamos de nuevo la moneda elegida la primera vez y se obtiene otra cara. ¿Cuál
es la probabilidad de que la moneda sea la legal?
Existen dos formas de calcular la probabilidad de que la moneda elegida haya
sido la moneda legal:
Primera forma: continuando con el experimento, tomamos como probabilidades
iniciales de cada moneda, las probabilidades finales obtenidas después del pri-
mer lanzamiento de ésta y aplicamos el teorema de Bayes con estas nuevas
probabilidades iniciales
1
P (C2 | M1|C1 )P (M1 | C1 ) 2 · 13 1
P (M1 | C1 \ C2 ) = = 1 1 2
=
P (C2 | M1|C1 )P (M1 | C1 ) + P (C2 | M2|C1 )P (M2 | C1 ) 2 · 3 +1· 3
5

Segunda forma: Volver al principio del experimento y suponer que las probabili-
dades iniciales son 1/2 para cada moneda:
1 1
P (C1 \ C2 | M1 )P (M1 ) 2 · 2· 12 1
P (M1 | C1 \C2 ) = = 1 1 1 1
=
P (C1 \ C2 | M1 )P (M1 ) + P (C1 \ C2 | M2 )P (M2 ) 2 · 2 · 2 +1·1· 2
5

En ambos casos P (M2 | C1 \ C2 ) = 1 P (M1 | C1 \ C2 ) = 4/5


2.7. Análisis Combinatorio

En muchas ocasiones es frecuente trabajar con espacios muestrales finitos, en


los que los sucesos elementales son equiprobables y, por tanto para asignar
probabilidades a un suceso se utilizará la regla de Laplace:

casos favorables a A
P (A) =
casos posibles

A veces los resultados posibles de un experimento pueden ser enumerados


fácilmente, pero en muchos casos, el conjunto de los resultados es tan grande
que enumerarlos todos es demasiado caro, demasiado lento o demasiado pro-
clive a errores para ser útil. En este tipo de experimentos es conveniente disponer
de métodos de conteo para determinar el número total de resultados del experi-
mento.
2.7. Análisis Combinatorio: variaciones

Llamamos variaciones de m elementos tomados de n en n y lo notaremos Vmn


a los diferentes grupos de tamaño n que se pueden formar con los m elementos
dados sin que se repita ninguno, de modo que dos grupos se consideran distin-
tos si ocurre, al menos, una de estas dos condiciones:
(a) difieren en algún elemento
(b) difieren en el orden de disposición de sus elementos.
El número de variaciones distintas es igual a

m!
Vmn = m(m 1)(m 2) . . . (m n + 1) =
(m n)!

.
Ejemplo: ¿De cuantas maneras distintas pueden sentarse 10 personas en
una fila de 4 asientos?.
La primera silla puede ser ocupada por cualquiera de las 10 personas, la
segunda silla sólo por 9, la tercera por 8 y la cuarta por 7. Por tanto el número
pedido es:
V104 = 10 · 9 · 8 · 7 = 5040
2.7. Análisis Combinatorio: variaciones con repetición
Llamamos variaciones con repetición de m elementos tomados de n en n y lo
n
notaremos V Rm a los diferentes grupos de tamaño n que se pueden formar con
los m elementos dados repetidos o no, de modo que dos grupos se consideran
distintos si ocurre, al menos, una de estas dos condiciones:
(a) difieren en algún elemento
(b) difieren en el orden de disposición de sus elementos.
El número de variaciones distintas es igual a

n
V Rm = mn

Ejemplo: ¿Cuántos números de tres cifras se pueden formar con los dı́gitos
1,2,3,4,5?
Formamos grupos de 3 cifras y se pueden repetir los numero, por tanto el
número pedido es:
V R53 = 53
2.7. Análisis Combinatorio: permutaciones

Llamamos permutaciones de N elementos y lo notaremos PN a los diferentes


grupos de tamaño N que se pueden formar con los N elementos distintos, de
modo que dos grupos se consideran distintos si
(a) difieren en el orden de disposición de sus elementos.
El número de permutaciones distintas es igual a

PN = N (N 1)(N 2) . . . 3 · 2 · 1 = N !

N ! se lee “factorial de N”˙Obsérvese que las permutaciones de N elementos


son las variaciones de N elementos tomados de N en N : PN = VNN

Ejemplo: ¿De cuántas formas pueden colocarse en fila 5 personas para una
foto de grupo?
P5 = 5! = 5 · 4 · 3 · 2 · 1 = 120
2.7. Análisis Combinatorio: permutaciones con repetición
Llamamos permutaciones con repetición de N elementos, entre los que hay r
elementos distintos, de tal forma que el i-ésimo elemento se repite ni veces con
n1 ,n2 ,...,nr
n1 + n2 + . . . + nr = N y ni 0 i = 1, 2, . . . r, lo notaremos P RN a
los distintos grupos que se pueden formar con estos N elementos de manera
que dos grupos se van a considerar distintos si
(a) difieren en el orden de colocación de sus elementos.
El número de permutaciones con repetición es:

n1 ,n2 ,...,nr N!
P RN =
n1 ! · n2 ! . . . nr !

Ejemplo: ¿Cuántos números de ocho cifras se pueden formar con los dı́gitos 2,
4 ,6 de modo que el 2 se repita tres veces, y el 4 y el 6 dos veces cada uno?
El número pedido serı́a

8! 40320
P R83,2,2 = = = 420
3! · 2! · 2! 96
2.7. Análisis Combinatorio: combinaciones
Llamamos combinaciones de m elementos tomados de n en n y lo notaremos
n
Cm a los diferentes grupos de tamaño n que se pueden formar con los m ele-
mentos dados sin que se repita ninguno, de modo que dos grupos se consideran
distintos si o
(a) difieren en algún elemento
El número de combinaciones distintas es igual a

✓ ◆
n m! N
Cm = =
n!(m n)! n

Ejemplo: De un grupo de 6 estudiantes que comparten piso se acuerda que


cada dı́a se encarguen dos de realizar las tareas domésticas, ¿cuántos gru-
pos distintos se pueden formar?

6!
C62 = = 60
2!3!
2.7. Análisis Combinatorio: combinaciones con repetición
Llamamos combinaciones con repetición de m elementos tomados de n en n y lo
n
notaremos CRm a los diferentes grupos de tamaño n que se pueden formar con
los m elementos dados repetidos o no, de modo que dos grupos se consideran
distintos si
(a) difieren en algún elemento
El número de combinaciones con repetición distintas es igual a

✓ ◆
n m+n 1
CRm =
n

Ejemplo: En una pastelerı́a hay 10 tipos distintos de pasteles. ¿De cuántas


formas se pueden elegir media docena de pasteles?
Si nos gusta un pastel lo podemos pedir todos los pasteles iguales. Además
no importa el orden en que elijamos los pasteles y los repetir. El número
pedido es ✓ ◆
6 15
CR10 = = 5005
6
2.7. Fórmulas clásicas del análisis combinatorio
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
N N N N N
(1) = (2) =N (3) =
N 0 1 n N n
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ X N ✓ ◆
N N N +1 N N 1 N
(4) + = (5) n =N (6) = 2N
n n+1 n+1 n n 1 n=0
n
Xn ✓ ◆ ✓ ◆ XN ✓ ◆
N +k N +n+1 n N
(7) = (8) ( 1) =0 si N 1
N N +1 n=0
n
k=0
La demostración de 1,2,3,4,5 y 7 es inmediata sin más que aplicar la definición.
Las fórmulas 6 y 8 se basan en la expresión del binomio de Newton
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
N N 0 N N N N N 0 N
(a + b)N = a b + a 1 1
b + a 2 2
b + ... + ab
0 1 2 N

considerando a = b = 1 para demostrar 6 y a = 1 y b = 1 para demostrar 8.


2.7. Fórmulas clásicas del análisis combinatorio
XN ✓ ◆ XN ✓ ◆
N N
(9) n = N 2N 1 (10) ( 1)n n =0 si N 2
n=0
n n=0
n
N
X1 ✓ ◆ X n ✓ ◆✓ ◆
N N N k
(11) n(n + 1) = N (N 1)2N 2
(12) ( 1)k =0
n=1
n+1 k n k
k=0
Xn ✓ ◆✓ ◆ ✓ ◆
N N k N n
(13) = 2
k n k n
k=0
n ✓ ◆✓
X ◆ ✓ ◆
N N k k N
(14) para cualquier a 2 IR se verifica que a = (1 + a)n
k n k n
k=0
Xn ✓ ◆✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
N M N +M N N + k 1
(15) = (16) = ( 1)k
k n k n k k
k=0
Xn ✓ ◆ ✓ ◆ ✓ ◆
N +j N +n+1 N +m
(17) = si n m
j=m
k k + 1 k + 1
X1 ✓ ◆
n 1 k n k
(18) p q =1 con p + q = 1
k 1
n=k
2.7. Fórmulas clásicas del análisis combinatorio
n ✓ ◆2
X ✓ ◆
n 2n
(19) =
j=0
j n
Xn ✓ ◆✓ ◆ ✓ ◆
n k + j k
(20) ( 1)n j =
j=1
j k + 1 n 1
Xn ✓ ◆ ✓ ◆
N N 1
(21) ( 1)n j =
j=0
j n
n
Xk ✓ ◆✓ ◆ ✓ ◆
N n j n N
(22) ( 1)j =
j=0
j k n k
Xn ✓ ◆✓ ◆ ✓ ◆
N +n j 1 M +j 1 M +N +n 1
(23) =
j=0
n j j n
Xn ✓ ◆ n
n
(24) ( 1)n j j k = 0 si k < n
j=0
j n! si k = n
Xn ✓ ◆ X n
1 n 1
(25) ( 1)j 1 =
j=1
j j j=1
j
2.7. Fórmulas clásicas del análisis combinatorio
Como ejemplo demostraremos la propiedad 15, las demostraciones del resto de
las propiedades se dejan como ejercicios:
n ✓ ◆✓
X ◆ ✓ ◆
N M N +M
=
k n k n
k=0

Consideremos los desarrollos por el binomio de Newton de (1 + x)N y (1 + x)M


✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
N 0 N 1 N 2 N N N
(1 + x)N = x + x + x + ··· + xN 1 + x
0 1 2 N 1 N
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
M 0 M 1 M 2 M M M
(1 + x)M = x + x + x + ··· + xM 1 + x
0 1 2 M 1 M
Multiplico las expresiones de (1 + x)N y(1 + x)M
✓ ◆ ✓ ◆ ✓ ◆
N +M 0 N +M 1 N +M 2
(1 + x)N (1 + x)M = (1 + x)N +M = x + x + x+
0 1 2
✓ ◆ ✓ ◆
N +M N + M N +M
+ ··· + xN +M 1 + x
N +M 1 N +M

Dados que los polinomios (1 + x)N (1 + x)M y (1 + x)N +M son el mismo, los coefi-
cientes de una misma potencia de x en ambos han de ser iguales
2.7. Fórmulas clásicas del análisis combinatorio

Coef.de: término en (1 + x)N (1 + x)M : término en (1 + x)N +M :


N M N +M
x0 0 0 0
N M
x1 0 1 + N1 M
0
N +M
1
N M N M
x2 0 2 + 1 1 + N2 M
0
N +M
2
.. .. ..
. Pp . .
N M N +M
xp k=0 k p k p
.. .. ..
. . .
N M N +M
xN +M N M N +M

En la comparación de términos anterior se ha tenido en cuenta que si p > a,


el número combinatorio ap es idénticamente nulo, para todo a y p enteros no
negativos.

También podría gustarte