Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teor
a Elemental de Probabilidad
Indice
1. Introducci
on
3. Definici
on axiom
atica de probabilidad
4. Propiedades de la funci
on de probabilidad
5. Probabilidad condicionada
6. Independencia de sucesos
7. Bibliografa
1.
Introducci
on
El origen del calculo de probabilidades se debe a los juegos de azar. Algunos jugadores, durante los siglos
XVII y XVIII, plantearon a distintos matematicos acerca de si era mas conveniente apostar a algunas
combinaciones de dados o apostar a alguna lotera de las muchas que haba en la epoca y otras cuestiones
relacionadas con diversos juegos. La correspondencia que se dirigieron esos matematicos entre s dio origen
a esta parte de la Matematica.
Se dice que un experimento es determinista si siempre que se realiza bajo las mismas condiciones se
obtienen los mismos resultados. En caso contrario, si no se es capaz de predecir el resultado del experimento, se dice que este es aleatorio o estoc
astico. El calculo de probabilidades ofrece mecanismos para
estudiar los experimentos aleatorios y es necesario para poder utilizar de un modo adecuado las tecnicas
estadsticas.
2.
El primer paso en el analisis de muchos experimentos es elaborar una lista de las posibilidades del mismo,
llamada espacio muestral. Este termino se define como sigue:
Definici
on 1 Se llama espacio muestral o universo asociado a un experimento aleatorio, y se denota
por , al conjunto de todos los posibles resultados del experimento. Cada elemento del espacio muestral
recibe el nombre de suceso elemental o punto muestral.
Ejemplo 1 Si el experimento consiste en lanzar un dado, el espacio muestral es
= {1, 2, 3, 4, 5, 6} .
Es habitual que pueda identificarse sin dificultades el espacio muestral cuando el n
umero de posibilidades
es peque
no, como ocurre en el ejemplo anterior. A medida que este n
umero de posibilidades aumenta, es
u
til tener un sistema para desarrollar el espacio muestral. Uno de esos sistemas es el diagrama de
arbol.
Veamos el siguiente ejemplo:
1
secundarios. Estos
funcionan independientemente uno de otro, de modo que los fallos en uno de los
sistemas no tienen efecto en los dem
as. Interesa el estado funcional de los tres sistemas en el momento
del lanzamiento. Cu
al es el espacio muestral asociado a este experimento?
Puesto que interesa principalmente que cada sistema este en condiciones de funcionar cuando ocurra el
lanzamiento, s
olo se necesita encontrar un espacio muestral que aporte dicha informaci
on. Se usa un
arbol
como el de la Figura 1 para generar dicho espacio. El sistema primario est
a en condiciones funcionales
Primer
sistema
de respaldo
Sistema
primario
Segundo
sistema
de respaldo
Punto
muestral
sss
n
s
ssn
sns
n
s
snn
nss
n
s
nsn
nns
nnn
s
s
n
s
n
n
Figura 1:
(s) o no funcionales (n) en el momento del lanzamiento. Esta situaci
on nos dar
a la primera ramificaci
on
del
arbol. De igual modo, el primer sistema de respaldo est
a en condiciones de funcionar o no lo est
a, lo
que dar
a lugar a la segunda ramificaci
on y, por u
ltimo, completaremos el
arbol teniendo en cuenta que el
segundo sistema de respaldo puede estar en condiciones funcionales o no.
El espacio muestral del experimento puede leerse en el
arbol al considerar cada una de las ocho ramas
como trayectorias diferentes del
arbol, a saber:
= {sss, ssn, sns, snn, nss, nsn, nns, nnn}
En funcion del n
umero de posibilidades del experimento aleatorio, el espacio muestral podra ser finito,
infinito numerable o infinito no numerable.
Definici
on 2 Se llama suceso a cada subconjunto del espacio muestral
Ejemplo 3 En el ejemplo anterior, si definimos los sucesos
A = El sistema primario funciona en el momento del lanzamiento.
B = El primer sistema de respaldo funciona en el momento del lanzamiento.
C = El segundo sistema de respaldo funciona en el momento del lanzamiento.
tenemos que:
A = {sss, ssn, sns, snn}
B = {sss, ssn, nss, nsn}
C = {sss, sns, nss, nns}
son subconjuntos de y, por tanto, sucesos.
Podemos definir algunos sucesos especiales de interes:
Definici
on 3
Dados dos o mas sucesos de , podemos construir nuevos sucesos a partir de los mismos realizando
operaciones como las que se definen a continuacion:
Definici
on 5 Sean A, B :
a) Se llama suceso uni
on de A y B al suceso que resulta cuando ocurre A, B o ambos a la vez. Se
denota por A B.
b) Se llama suceso intersecci
on de A y B al suceso que resulta cuando A y B ocurren a la vez. Se
denota por A B.
A B = A B,
b)
A B = A B.
Nota: Suelen expresarse las leyes de De Morgan mediante estas frases faciles de recordar:
a) El complementario de la uni
on es la intersecci
on de los complementarios.
b) El complementario de la intersecci
on es la uni
on de los complementarios.
3.
Definici
on axiom
atica de probabilidad
Supongamos que el espacio muestral asociado a cierto experimento aleatorio contiene n elementos, y que
en principio, se tiene el mismo grado de creencia de que ocurra cualquiera de ellos. Podramos asignar
1
entonces a cada elemento una probabilidad de . A partir de aqu, obtendremos la probabilidad de un
n
suceso A sumando las probabilidades de los elementos de A:
X
X1
nA
P (A) =
Pi =
=
(1)
n
n
iA
iA
siendo nA el n
umero de elementos del suceso A. De lo anterior se desprende la definici
on cl
asica de
probabilidad, atribuida a Laplace:
nA
N
El inconveniente de esta definicion (probabilidad como frecuencia relativa) es que no puede aplicarse
tal cual ya que, en general, no disponemos de una expresion analtica en funcion de N que permita
calcular el lmite. Es mas, ni siquiera tenemos garantizado que tal lmite exista. Pero si admitimos que
existe, podemos usar esta definicion para calcular probabilidades de forma aproximada si repetimos el
experimento un n
umero N de veces tan grande, que podamos tomar:
P (A) '
nA
N
Definici
on 7 (Definici
on axiom
atica de probabilidad)
Dado un espacio muestral , se llamar
a funci
on de probabilidad sobre , o simplemente probabilidad
a toda funci
on P : R que verifique:
1. P (A) > 0,
A .
2. P () = 1.
3. Si Ai son tales que Ai Aj = ,
i 6= j, entonces P
S
i=1
Ai
i=1
P (Ai ).
4.
Propiedades de la funci
on de probabilidad
A partir de los axiomas de probabilidad, se deducen algunas consecuencias inmediatas como las que a
continuacion se detallan.
Proposici
on 1 Sean A, B de modo que A B. Entonces P (A) 6 P (B).
= (B A) (B A)
= A (B A)
y por lo tanto, al ser A
n: B = B = B (A A)
Demostracio
= P (A) + P (B A),
P (B) = P A (B A)
luego
P (A) 6 P (B)
Proposici
on 2 Si A, B , entonces P (A B) = P (A) + P (B) P (A B).
B
Figura 2:
En general se verifica la f
ormula de Poincare:
n !
n !
n
[
X
X
X
\
n+1
P
Ai =
P (Ai )
P (Ai Aj ) +
P (Ai Aj Ak ) + (1)
P
Ai
i=1
i=1
i6=j
i=1
i6=j6=k
Proposici
on 4 P () = 0.
= , al aplicar la Proposicion 3 resulta
n: En efecto, puesto que
Demostracio
P () = 1 P () = 1 1 = 0.
Proposici
on 5 Sea A , entonces P (A) 6 1.
> 0, luego de acuerdo con la
n: Del primer axioma de probabilidad se deduce que P (A)
Demostracio
Proposicion 3, 1 P (A) > 0, y por lo tanto P (A) 6 1.
Proposici
on 6 Sea = A1 An con Ai , i = 1, ..., n sucesos elementales e incompatibles dos
a dos. Si P (A1 ) = P (A2 ) = = P (An ) = 1/n, entonces, A , A = A1 A2 Ak , con k 6 n,
se tiene
n
umero de casos favorables
k
,
P (A) = P (A1 ) + P (A2 ) + + P (Ak ) = =
n
n
umero de casos posibles
expresi
on conocida como regla de Laplace.
n:
Demostracio
Proposici
on 7 Si {Ai }i=1,...,n es una partici
on de , entonces P
n
S
Ai
i=1
n
P
P (Ai ) = 1.
i=1
n
S
i=1
Ai y Ai Aj = , i 6= j,
de manera que si aplicamos la formula de Poincare, todos los sumatorios que aparecen en la misma
son nulos salvo el primero. Empleando ahora el segundo axioma de probabilidad, la propiedad queda
demostrada.
Proposici
on 8 Si A, B , entonces P (B \ A) = P (B) P (A B).
o lo que es lo mismo
P (B \ A) = P (B) P (A B).
Proposici
on 9 Sean A, B tales que A B, entonces P (B \ A) = P (B) P (A).
n: En efecto, de A B, se deduce, que A B = A, de modo que basta con aplicar la
Demostracio
Proposicion 8.
5.
Probabilidad condicionada
P (A B)
P (B)
Nota: No debe confundirse la igualdad anterior con esta otra P (A | B) = 1 P (A | B), muy parecida
formalmente, pero que en general no es cierta.
Comprobemos que esta definicion es coherente con el ejemplo anterior: Si A = {2} = Obtener un 2,
entonces tenemos que
P (A B)
P ({2})
1/6
1
obtener un 2 sabiendo que
P (A|B) = P
=
=
=
= .
ha salido un n
umero par
P (B)
P ({2, 4, 6})
1/2
3
A continuaci
on, veremos dos resultados muy importantes dentro del calculo de probabilidades, ambos
relacionados con la probabilidad condicionada. En la Figura 3 se ilustra la situacion descrita en estos
resultados.
A1
A2
A3
A6
B
A4
A5
Figura 3:
n
S
i=1
Ai = , entonces
n
n
X
X
P (B Ai ) =
P (Ai ) P (B|Ai ).
i=1
i=1
B = B = B A1 A2 . . . An = (B A1 ) (B A2 ) . . . (B An ) .
Como Ai Aj = cuando i 6= j, tambien ha de ser (B Ai ) (B Aj ) = cuando i 6= j, por lo tanto
P (B) = P (BA1 )+P (BA2 )+. . .+P (BAn ) = P (B|A1 )P (A1 )+P (B|A2 )P (A2 )+. . .+P (B|An )P (An ).
n
S
Ai = . Para
i=1
P (B|Ai ) P (Ai )
P (Ai |B) = P
n
P (B|Aj ) P (Aj )
j=1
por lo tanto
P (Ai |B) =
P (B|Ai )P (Ai )
P (B).
Sustituyendo ahora P (B) por la expresion obtenida en el Teorema de las Probabilidades Totales, queda
demostrado el Teorema.
P (B|A) = 0,6
P (B) = 0,25
= 0,1
P (B|A)
Nos piden P (A|B). Al ser una probabilidad condicionada, es natural buscar la soluci
on en la definici
on
de la misma, es decir
P (A B)
,
P (A|B) =
P (B)
pero no contamos de forma inmediata con la probabilidad P (A B).
Sean los sucesos
A1 = A = consumo de bebidas alcoh
olicas
A2 = A = no consumo de bebidas alcoh
olicas
entonces se tiene que:
A1 A2 =
P (A1 ) = 0,3 6= 0
P (A2 ) = 0,7 6= 0
A1 A2 =
y adem
as, P (B) = 0,25 6= 0.
P (B|A1 ) P (A1 )
0,6 0,3
=
= 0,72
2
P
0,6 0,3 + 0,1 0,7
P (B|Aj ) P (Aj )
j=1
Con lo que si hubo velocidad excesiva en un accidente, existe una probabilidad de 72 % de que se acompa
ne
de consumo de bebidas alcoh
olicas.
6.
Independencia de sucesos
En muchas ocasiones, la informacion que proporciona saber que ha ocurrido un determinado suceso no
influye sobre la probabilidad de otros sucesos asociados al mismo experimento. En este caso, se dice que
los sucesos son independientes. Formalmente,
Definici
on 11 Los sucesos A y B son independientes si P (A B) = P (A) P (B).
De esta definicion se deduce que si A y B son independientes, entonces se verifica
P (A) = P (A|B) y P (B) = P (B|A)
Definici
on 12 Dados A1 , A2 y A3 , decimos que estos tres sucesos son independientes si:
1. P (Ai Aj ) = P (Ai ) P (Aj ),
i 6= j
Ejemplo 7 Consideremos los datos del ejemplo 3, y supongamos que P (A) = P (B) = P (C) = 0,9. Si
se necesita calcular P (A B C), entonces al ser estos sucesos independientes, se tiene que
3
7.
Bibliografa
Huntsberger D.V. y Billingsley P. Elementos de Estadstica Inferencial. Compa
nia Editorial Continental 1983.
Mendenhall W. y Sincich T. Probabilidad y Estadstica para Ingeniera y Ciencias (4a edicion).
Pearson Educacion 1995.
Milton J.S. y Arnold J.C. Probabilidad y Estadstica con aplicaciones para ingeniera y ciencias
computacionales (4a edicion). McGraw-Hill 2004.
Montgomery D.C. y Runger G.C. Probabilidad y Estadstica aplicadas a la Ingeniera McGraw-Hill
1996.
Spiegel M.R. Estadstica. McGraw-Hill. (Coleccion Schaum)
Walpole R.E., Myers R.H. y Myers, S. L. Probabilidad y Estadstica para Ingenieros (6a edicion).
Pearson Educacion 1998.