Está en la página 1de 8

DEFINICIONES DE PROBABILIDAD

a) Enfoque clsico
Probabilidad Clsica y Probabilidad Subjetiva. La probabilidad clsica es aquella que se
toma de manera objetiva y que puede considerarse de dos maneras: a priori y a posteriori.

Probabilidad a Priori. La probabilidad de un evento A, P(A), es la medida del chance de que
ese evento ocurra.

En este caso los resultados del experimento son igualmente probables. Este mtodo fue
desarrollado por Laplace.

# de maneras que A puede ocurrir
P(A) = -------------------------------------------------
# total de resultados posibles

A (eventos que corresponden a A )
P(A) = ----------------------------------------------------------
S (eventos totales en el espacio muestral S )


Ejemplo. Se lanzan dos monedas al aire, cul es la probabilidad de que ambas sean cara
(H)?
S = {HH, HT, TH, TT} P (HH) = _

b) Enfoque emprico o frecuencial
Probabilidad a posteriori. En el caso que los eventos no poseen igual posibilidad de
ocurrencia, el problema de asignar las probabilidades ocurre a posteriori. El concepto de
probabilidad a posteriori lo desarrolla Richard Von Mises y est basado en el principio
siguiente:
Si un experimento se realiza un nmero grande de veces, N por ejemplo, y sea n el
nmero de veces que ocurre un evento E. Entonces, se observa experimentalmente el
hecho de que a medida N aumenta la relacin n / M tiende a un valor estable p. Ese valor
p se llama la probabilidad de E y se escribe p (E).


c) Axiomas bsicos de la probabilidad.
Los axiomas de probabilidad son las condiciones mnimas que deben verificarse para que
una funcin definida sobre un conjunto de sucesos determine consistentemente sus
probabilidades.
Para el clculo de probabilidades hay que tomar en cuenta los Axiomas que a continuacin
se enumeran.

1) La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.

0 s p(A) > 1

2) La probabilidad de que ocurra el espacio muestral o debe de ser 1.

P (o) = 1

3) Si A y B son eventos mutuamente excluyentes, entonces la p(AB) = p(A) + p(B)

Generalizando:

Si se tienen n eventos mutuamente excluyentes o exclusivos A
1
, A
2
, A
3
,.....An, entonces;

P (A
1
A
2
.........A
n
) = p(A
1
) + p(A
2
) + .......+ p(A
n
)
En trminos ms formales, una probabilidad es una medida sobre una -lgebra de
subconjuntos del espacio muestral, siendo los subconjuntos miembros de la -lgebra los
sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su
definicin matemtica, verifica igualmente los tres axiomas de Kolmogrov. A la terna
formada por el espacio muestral, la -lgebra y la funcin de probabilidad se la denomina
Espacio probabilstico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se
han definido los posibles sucesos a considerar (la -lgebra) y la probabilidad de cada
suceso (la funcin de probabilidad).

d) Probabilidad subjetiva
La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del
conocimiento que esta persona tenga sobre el tema. Precisamente por su carcter de
subjetividad no se considera con validez cientfica, aunque en la vida diaria es de las ms
comunes que se utilizan al no apoyarse ms que en el sentido comn y los conocimientos
previos, y no en resultados estadsticos.
Ejemplos de la probabilidad subjetiva son estimar la probabilidad de que los Salgado de
Salta ganen la Lotera el prximo ao y estimar la probabilidad de que ocurra un
terremoto en Los ngeles este ao.
CALCULO DE PROBABILIDADES
- Tabla de contingencia
Las tablas de contingencia se emplean para registrar y analizar la relacin entre dos o ms
variables, habitualmente de naturaleza cualitativa (nominales u ordinales).

Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias
marginales y la cifra situada en la esquina inferior derecha es el gran total.
La tabla nos permite ver de un vistazo que la proporcin de hombres diestros es
aproximadamente igual a la proporcin de mujeres diestras. Sin embargo, ambas
proporciones no son idnticas y la significacin estadstica de la diferencia entre ellas
puede ser evaluada con la prueba de Pearson, supuesto que las cifras de la tabla son
una muestra aleatoria de una poblacin. Si la proporcin de individuos en cada columna
vara entre las diversas filas y viceversa, se dice que existe asociacin entre las dos
variables. Si no existe asociacin se dice que ambas variables son independientes.
- Tablas de probabilidad


- Probabilidad simple

Si quisiramos saber cul es la probabilidad de sacar un dos o un cinco al tirar un dado,
estamos hablando de sucesos mutuamente excluyentes; pues slo al tirar el dado puedes
sacar uno de ellos dos, es decir, un evento (sacar dos) imposibilita el otro (sacar un cinco)
ya que no puedes sacar los dos al mismo tiempo.

Para sacar la probabilidad total de dos o ms sucesos mutuamente excluyentes se suman
las probabilidades de cada uno de los sucesos.

Primero calculemos la probabilidad de obtener una vela. 150 invitados es el nmero de
casos posibles, mientras que 50 es el nmero de casos favorables pues son 50 velas.



La probabilidad de obtener un centro de mesa es exactamente la misma pues hay el
mismo nmero de centros de mesa.



La probabilidad total ser la suma de cada una de las probabilidades obtenidas, es decir:


- Probabilidad conjunta

Si quisiramos conocer cul es la probabilidad de sacar 5 al tirar dos veces un dado,
estamos hablando de sucesos independientes; pues los tiros son distintos.

Para estos casos la probabilidad de ocurrencia de ambos sucesos simultneamente ser
igual al producto de las probabilidades individuales.

Nota: Aplicamos la misma frmula para eventos dependientes siempre y cuando estemos
buscando la probabilidad simultnea de los sucesos. Por ejemplo al buscar la probabilidad
de sacar dos reinas en una baraja de 52 cartas sin devolver la primera carta, se tomar en
cuenta para la segunda extraccin que ya hay 51 cartas y slo 3 reinas. Es decir:




- Regla general de adicin.
Si A y B son dos eventos que no son mutuamente excluyentes, entonces
P(A o B) se calcula con la siguiente frmula:
P(A o B) = P(A) + P(B) - P(A y B)

La Regla de la Adicin expresa que: la probabilidad de ocurrencia de al menos dos sucesos A y B es
igual a: P(A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente excluyente P(A o B) = P(A) +
P(B) - P(A y B) si A y B son no excluyentes Siendo: P(A) = probabilidad de ocurrencia del evento A
P(B) = probabilidad de ocurrencia del evento B P(A y B) = probabilidad de ocurrencia simultanea de
los eventos A y B
- Probabilidad condicional e independencia estadstica

Sea o un espacio muestral en donde se ha definido un evento E, donde p(E)>0, si
deseamos determinar la probabilidad de que ocurra un evento A (el que tambin es
definido en el mismo espacio muestral), dado que E ya ocurri, entonces deseamos
determinar una probabilidad de tipo condicional, la que se determina como se muestra;






Dnde:

p(A|E) = probabilidad de que ocurra A dado que E ya ocurri
p(AE) = probabilidad de que ocurra A y E a un mismo tiempo
p(E) = probabilidad de que ocurra E

) E ( p
) E A ( p
) E | A ( p

=



Luego;





Por tanto:



Dnde:

|AE|= nmero de elementos comunes a los eventos A y E
|E|= nmero de elementos del evento E
Luego entonces podemos usar cualquiera de las dos frmulas para calcular la
probabilidad condicional de A dado que E ya ocurri.


En teora de probabilidades, se dice que dos sucesos aleatorios son independientes entre
s cuando la probabilidad de cada uno de ellos no est influida por que el otro suceso
ocurra o no, es decir, cuando ambos sucesos no estn correlacionados.
Dos sucesos son independientes si la probabilidad de que ocurran ambos
simultneamente es igual al producto de las probabilidades de que ocurra cada uno de
ellos, es decir, si A y B son dos sucesos, y P(A) y P(B) son las probabilidades de que ocurran
respectivamente entonces:
A y B son independientes si y solo si
Sean A y B dos sucesos tales que P(B) > 0, intuitivamente A es independiente de B si la
probabilidad de A condicionada por B es igual a la probabilidad de A. Es decir si:

De la propia definicin de probabilidad condicionada:

I I
I I
=
o
E A
) E A ( P
I I
I I
=
o
E
) E ( P
I I
I I
=
E
E A
) E | A ( P
se deduce que y dado que
deducimos trivialmente que .
Si el suceso A es independiente del suceso B, automticamente el suceso B es
independiente de A.
- Regla de la multiplicacin e independencia de la estadstica
Un frecuente objeto de estudio en la estadstica es si los diferentes sucesos son
dependientes o independientes uno del otro, es decir si favorece a la realizacin de un
suceso a travs de otro. Se analizan ejemplos en la investigacin de mercados, si influyen
el estatus y la educacin de un consumidor la compra de un determinado peridico.




- Teorema de Bayes
El teorema de Bayes, enunciado por Thomas Bayes, en la teora de la probabilidad, es el
resultado que da la distribucin de probabilidad condicional de un evento aleatorio A
dado B en trminos de la distribucin de probabilidad condicional del evento B dado A y la
distribucin de probabilidad marginal de slo A.
Sea {A
1
,A
3
,...,A
i
,...,A
n
} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y
tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso
cualquiera del que se conocen las probabilidades condicionales P(B | A
i
). Entonces, la
probabilidad P(A
i
| B) viene dada por la expresin:

Dnde:
- P(A
i
) son las probabilidades a priori.
- P(B | A
i
) es la probabilidad de B en la hiptesis A
i
.
- P(A
i
| B) son las probabilidades a posteriori.
Esto se cumple A
i
= 1n
Aplicaciones
El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin
embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia,
los seguidores de la estadstica tradicional slo admiten probabilidades basadas en
experimentos repetibles y que tengan una confirmacin emprica mientras que los
llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede
servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas
cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est
demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a
priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica
es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son
los clasificadores bayesianos que son frecuentemente usados en implementaciones de
filtros de correo basura o spam, que se adaptan con el uso.
Como observacin, se tiene y su demostracin resulta trivial.