Está en la página 1de 11

4

4. CONCEPTOS BÁSICOS DE PROBABILIDAD

4.1 Espacio muestral y eventos.


La probabilidad es un término utilizado para describir un
experimento con un resultado aleatorio, lo que se conoce como
experimento aleatorio. En la práctica, un experimento es el
proceso por medio del cual una observación o medición es
registrada. El primer componente de un modelo de probabilidad,
es la colección de posibles resultados llamado espacio
muestral, S, del experimento. Por ejemplo, si consideramos que
lanzar una moneda es un experimento aleatorio, los posibles
resultados son águila o sol. Simbólicamente, el espacio muestral
de lanzar una moneda es: S = {águila, sol}.
Por otro lado, existe la posibilidad de que la moneda caiga de
canto o ruede a una coladera con lo cual no se obtendría ningún
resultado, a éste evento se le denota por , se le llama evento
nulo y su probabilidad de ocurrencia es cero.
Si lanzamos un una moneda, tenemos la seguridad de que
obtendremos uno de los resultados posibles contenidos en S,
cada uno de éstos resultados se conocen como eventos
simples, éstos eventos comúnmente se denotan por Ei. Una
característica evidente de los eventos simples, es que en un
experimento aleatorio ocurre uno y solo un evento simple. Los
eventos compuestos, simplemente son colecciones o
subconjuntos de eventos simples definidos por alguna
característica en común.

4.1.1 Función de probabilidad.


Si un experimento se repite un gran número de veces, se obtiene
una población de observaciones. En el caso del lanzamiento de
una moneda, unas veces resultará águila y otras veces resultará
5

sol. En forma práctica, se puede suponer que la fracción de


veces que ocurre un evento, es la probabilidad del evento.
Si tomamos N experimentos muestrales, y de estas ocurre nA
veces el evento A, la probabilidad de este evento se obtiene por:
nA
P ( A) 
N
.
Sean S cualquier espacio muestral definido y Ei cualquier evento
de éste. Se llamará función de probabilidad a P(Ei) si satisface los
siguientes axiomas:
1) 0  P E i   1
2)  P( E )  1 Esto es que la suma de las
P( S )  i

probabilidades de todos los eventos en S, es la


probabilidad de S, lo que se conoce como evento
seguro.
3) Si Ei  Ej para toda i  j, entonces la probabilidad de un
evento compuesto A, se define por P(A), que es igual a
la suma de las probabilidades de los eventos simples
que contiene.
6

4.2

Figura 1.- Diagrama de Venn donde se representa el espacio


muestral de los resultados de lanzar un dado y se representan
los eventos A “números pares y B números mayores a dos.

Figura 2.- Representación de la unión de los eventos A y B.


Incluye números que cumplen con alguno criterios, números
pares y números mayores a 2.

Figura 3 representación de la intersección de los eventos A y B.


Incluye a los números que cumplen con ambos criterios,
números pares mayores a 2.
7

Relaciones entre eventos.


Para representar las relaciones entre eventos que son comunes,
se utilizará el siguiente ejemplo: si realizamos como un
experimento aleatorio el lanzamiento de un dado, el espacio
muestral se define entonces como: S   1,2 ,3,4 ,5,6 , al lanzar un dado
sabemos por lógica que obtendremos solo uno de los valores
contenidos en el espacio muestral. Estos valores son los eventos
simples que posteriormente se pueden agrupar en eventos
compuestos.
Si definimos el evento A “números pares”, esta constituido por:
A   2 ,4 ,6 , en donde se dice que ocurrió el evento A, cuando

ocurre uno de los posibles eventos simples. así mismo, el evento


B “números mayores a 2”, esta comupesto por: B   3,4 ,5,6 (figura
1).
El evento A unión B, será entonces cuando el resultado del
experimento aleatorio esta en A o en B, es decir que incluye los
números que cumplen con uno ó el otro criterio con el cual se
definieron ambos eventos. En el ejemplo, se incluyen los
números pares y también los números que son mayores a dos,
esto implica que esten algunos números nones mayores
a dos, y al dos mismo por ser par; esto se representa por:
A  B   2 ,3,4 ,5,6 (figura 2).

El evento A intersección B, ocurre cuando el resultado esta tanto


en A como en B, es decir que incluye solo los elementos que
cumplen con ambas definiciones. Con referencia al ejemplo,
incluye solo los que son pares y que son mayores a dos, esto es:
A  B  AB   4 ,6 (figura 3).

La ley de aditividad establece que la probabilidad de un evento


compuesto es igual a la suma de las probabilidades de los
eventos simples que contiene. En el ejemplo propuesto, la
8

probabilidad de A es: P A  P E 2   P E 4   P E 6  y la probabilidad de B


es: P B  P E 3   P E 4   P E 5   P E 6  .

4.2.1 Eventos
complementarios.

Figura 4.- Eventos


complementarios.

Figura 5.- Eventos


mutuamente excluyentes.
El evento A complemento, denotado por Ac, consiste de todos
los posibles resultados en S que no están en el evento A. En el
ejemplo, A   1,3,5 .
c

En base a la ley de aditiva de las probabilidades se tiene que:


P A  P A   1 , por lo tanto la probabilidad de A complemento es:
c

P A   1  P A .
c
9

4.2.2 Eventos mutuamente excluyentes


Existe el caso en el cual la intersección entre dos eventos no
existe, en cuyo caso se dice que son eventos disjuntos o
mutuamente excluyentes. Si en el ejemplo del lanzamiento de un
dado, definimos el evento C como “Números menores que 3”
entonces B intersección C es: BC =  , por esto se dice
que B y C son mutuamente excluyentes.
Por la ley de aditividad, la probabilidad de A unión B en el ejemplo
del lanzamiento de un dado es: P A  B   P A  P B   P AB ,
además tenemos que: P B  C   P B   P C  ,
esto es por el hecho de que P BC   0 .

4.3 Probabilidad conjunta y probabilidad marginal.


Para introducir éste concepto se considera el siguiente ejemplo:
sea el espacio muestral la población adulta de cierta ciudad, que
se divide en los eventos mutuamente excluyentes: Fumador A1 y
No fumador A2, Hombre B1 y Mujer B2. Los eventos del espacio muestral se
pueden representar por la siguiente tabla:
B1 B2
A1 n1,1 n1,2
A2 n2,1 n2,2
Supóngase que se desea determinar la probabilidad simultánea
de los eventos A1 y B2. Mediante la interpretación de frecuencia
relativa puede argumentarse que la probabilidad es: n1,2 / n.
ni , j
La probabilidad de los eventos Ai  Bj está dada por: P( Ai B j ) 
n
para todo i,j. Esta recibe el nombre de probabilidad conjunta.
Suponga ahora que se desea determinar la probabilidad de Ai sin
importar cualquier evento Bj. Haciendo uso de la interpretación de
frecuencia relativa, el número total de personas no fumadoras es
10

n2,1 + n2,2; de ésta forma se tiene que la probabilidad marginal de


n 2 ,1  n 2 , 2
no fumadores es: P ( A2 ) 
n
.
2 ni , j
Generalizando: P ( Ai )  j 1 n ,
ni , j
como P ( Ai B j ) 
n
,
2

entonces se tiene que: P ( Ai )   P( A B


j 1
i j ) ,
2

y análogamente se tiene que: P ( Bi )   P ( Ai B j ) .


i 1

4.4 Probabilidad condicional.


Con frecuencia dos eventos se encuentran relacionados de
manera tal que la probabilidad de ocurrencia de uno de ellos
depende de si el otro ha ocurrido o no, esto se conoce como
probabilidad condicional de un evento. Suponga que se desea
determinar la probabilidad del evento Ai dado que ha ocurrido el
evento Bj. Por ejemplo: se escogió una mujer adulta, ¿Cuál es la
probabilidad de que fumé?.
Usando la noción de frecuencia relativa se tiene que: la
probabilidad es el número de mujeres que fuman n1,2 entre el
número total de mujeres n1,2 + n2,2, denotado por:
n 12
P A 1 B 2   , la barra  se lee “dado que ha ocurrido”. A1
n 12  n 22
está condicionado a la ocurrencia de B2, que es la probabilidad
condicional de A1 dada la ocurrencia de B2.
ni , j
En general se tiene que: 
P Ai B j  n i,j
, ...(*)
i

ni , j
por simetría se tiene: 
P B j Ai  ,
n
j
i,j
11

Si dividimos entre n el numerador y el denominador en (*) se


tiene que:
ni , j

P Ai B j   n n i,j
,
i
n
2
ni , j
y consideramos que: P( Ai B j )  y P ( Bi )   P ( Ai B j ) ;
n i 1

P ( Ai B j )
se tiene entonces que: 
P Ai B j   P(B j ) ,
P(B j )  0 ,

P ( Ai B j )
de manera equivalente: 
P B j Ai   P ( Ai )
,
P ( Ai )  0 .

4.5 Eventos estadísticamente independientes.


Sean A y B dos eventos cualesquiera en un espacio muestral S.
Se dice que A es estadísticamente independiente de B si:
P A B   P A . Se puede demostrar entonces que si A es
estadísticamente independiente de B, entonces por analogía B es
estadísticamente independiente de A, esto es: P  B A  P  B  .

Por la ley multiplicativa, si despejamos la intersección AB en las


ecuaciones de probabilidad condicional, tenemos que:
P AB   P A  P B A  P B   P A B  .

Si A y B son independientes, entonces: P AB   P A  P B  .

4.6 Teorema de Bayes.


Sea B un evento y Bc su complemento. Si otro evento A ocurre,
entonces la probabilidad condicional es:
P AB  P A B   P B 
P B A 
   .

P A 
P A B   P B   P A B c  P B c
12

La probabilidad P B A se llama probabilidad a-posteriori del


evento B dado la información contenida en el evento A. Las
probabilidades (incondicionales) P B y P B  son referidas como
c

probabilidades a-priori de los eventos B y Bc respectivamente.


La probabilidad a-posteriori utiliza tanto información a-priori como
la información recuente (ocurrió A) y es por ello que proporciona
un modelo más eficiente. En algunas ocasiones las
probabilidades condicionales P A B y P A B  o las probabilidades
c

incondicionales P B y P B  no se conocen. Cuando éste es el


c

caso, se utilizan estimaciones empíricas o subjetivas.

4.7 Conteo de puntos muestrales.


Los eventos simples posibles en un espacio muestral dado,
comúnmente se conocen como puntos muestrales. En los
ejemplos anteriores, el número de puntos muestrales es
reducido, por lo que es fácil la enumeración de ellos. Sin
embargo, en la práctica, los problemas tienen un número mucho
mayor de puntos muestrales y una lista resultaría imposible.
Existen diferentes técnicas de conteo de puntos muestrales,
éstas pueden ser útiles para resolver problemas de probabilidad
cuando se tiene un gran número de posibles puntos muestrales.
Supóngase que es de interés conocer la probabilidad del evento
A y que se sabe que todos los puntos muestrales del espacio S
son equiprobables, es decir que tienen la misma probabilidad de
ocurrencia. Entonces:
nA
P ( A) 
N
nA = número de puntos muestrales en A
N = número de puntos muestrales en S.
Con frecuencia se utilizan las técnicas de conteo para conocer
los valores de nA y N, eliminando así la necesidad de listar todos
los puntos muestrales de S.
13

4.7.1 Regla nm
Esta se aplica en situaciones en las que se busca el número de
maneras distintas en las que se pueden formar pares de objetos,
en donde cada uno de ellos se selecciona de dos grupos
distintos. Sea m un grupo con elementos a1, a2, a3, ..., am y n el otro
con elementos b1, b2, b3, ..., bn , es posible formar nm pares que
contengan un elemento de cada grupo. Esto también es aplicable
a más de dos grupos de elementos.

4.7.2 Conteo de permutaciones.


Un arreglo ordenado de t objetos distintos se llama una
permutación. El número total de maneras que se pueden ordenar
n objetos distintos tomando k cada vez, esto equivale a contar el
número de maneras en las que se pueden llenar k espacios con n
objetos distintos. La regla de conteo es:
n!
Pkn  n( n  1)(n  2).....( n  k  1) 
 n  k !
Recuérdese que n !  n(n  1)(n  2).....(2)(1) , y se conviene que 0! = 1.

4.7.3 Conteo de combinaciones.


A diferencia de las permutaciones, el número de combinaciones
posibles de n objetos distintos tomando k cada vez, sin importar
el orden de los objetos. Si se selecciona una combinación de k
elementos, si contamos el número de permutaciones de éstos
tendremos k! permutaciones, esto se extiende para cualquier
posible combinación. Por este motivo, el número de
combinaciones se define por:
Pkn n!
C kn  
k ! k !  n  k  !

Sugerencias para la aplicación de las reglas de conteo:


14

1. Una de las tres reglas de conteo se pueden aplicar a un


problema de probabilidad si los puntos muestrales son
identificables por un número fijo de elementos.
2. La regla nm puede aplicarse si los elementos referidos se
toman uno solo de cada uno de dos o más conjuntos.
3. La regla de combinaciones puede ser aplicada si los
elementos se toman de un solo conjunto y el reordenamiento
de éstos no produce otro punto muestral.
4. La regla de las permutaciones se puede aplicar si los objetos
se toman de un solo conjunto y cada reordenamiento de
éstos produce un nuevo punto muestral.

También podría gustarte