Está en la página 1de 8

Guatemala 07 junio 2014

Probabilidad I:
Ideas Introductorias.

Teoría de la Probabilidad
La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y, lo que es más
importante en nuestro estudio, a problemas sociales y económicos.
En la actualidad, la teoría matemática de la probabilidad es la base para las aplicaciones
estadísticas, tanto en investigaciones sociales como en la toma de decisiones.
La probabilidad constituye parte importante de nuestra vida cotidiana. En la toma de
decisiones personales y administrativas, nos enfrentamos a la incertidumbre y utilizamos la
teoría de la probabilidad, admitamos o no el uso de algo tan complejo.

Objetivos

 Examinar el uso de la teoría de la probabilidad en la toma de Decisiones


 Explicar las diferentes maneras en que surge la probabilidad
 Desarrollar reglas para el cálculo de diferentes tipos de probabilidades
 Utilizar las probabilidades para tomar en cuenta nueva información: definición y uso del
teorema de Bayes,
Probabilidad I:
Ideas Introductorias.

4.1 Historia y Relevancia de la Teoría de la Probabilidad

Jacob Bernoulli (1654-1705), Abraham de Moivre (1667-1754), el reverendo Thomas Bayes


(1702-1761) y Joseph Lagrange (1736-1813) desarrollaron fórmulas y técnicas para el cálculo de
la probabilidad.
En el siglo XIX, Pierre Simon, marqués de Laplace (1749-1827), unificó todas estas ideas y
compiló la primera teoría general de probabilidad.

La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y lo que es más
importante, a problemas sociales y económicos. La industria de seguros, que surgió en el siglo
XIX, requería un conocimiento preciso acerca de los riesgos de pérdida, con el fin de calcular las
primas.
En la actualidad, la teoría matemática de la probabilidad es la base para las aplicaciones
estadísticas, tanto en investigaciones sociales como en la toma de decisiones.

4.2 Terminología Básica en Probabilidad

En general, la probabilidad es la posibilidad de que algo pase. Las probabilidades se expresan


como fracciones (1/6, 1/2, 8/9) o como decimales (0.167, 0.500, 0.889) que están entre cero y
uno. Tener una probabilidad de cero significa que algo nunca va a suceder; una probabilidad de
uno indica que algo va a suceder siempre.

En la teoría de la probabilidad, un evento es uno o más de los posibles resultados de hacer algo.
Al lanzar una moneda al aire, si cae cruz es un evento, y si cae cara es otro.
En la teoría de probabilidad, la actividad que origina uno de dichos eventos se conoce como
experimento.

Utilizando un lenguaje formal, podríamos hacer la siguiente pregunta: en un experimento de


lanzar una moneda, ¿cuál es la probabilidad del evento cara? Al conjunto de todos los
resultados posibles de un experimento se le llama espacio muestral del experimento.
En el de lanzar una moneda, el espacio muestral es:
S = (cara, cruz)

2
Se dice que los eventos son mutuamente excluyentes si uno y sólo uno de ellos puede tener
lugar a un tiempo. Considere de nuevo el ejemplo de la moneda. En cualquier lanzamiento
obtendremos una cara o una cruz, nunca ambas.

La pregunta fundamental que se debe formular al decidir si ciertos eventos son mutuamente
excluyentes es: ¿pueden ocurrir dos o más de tales eventos al mismo tiempo? Si la respuesta es
afirmativa, los eventos no son mutuamente excluyentes.

Cuando una lista incluye todos los eventos que pueden resultar de un experimento, se dice que
la lista es colectivamente exhaustiva. En el ejemplo de la moneda, la lista —cara y cruz—, es
colectivamente exhaustiva (a menos, por supuesto, que la moneda caiga parada cuando la
lancemos).

4.3 Tipos de Probabilidad

Existen tres maneras básicas de clasificar la probabilidad; éstas representan planteamientos


conceptuales bastante diferentes para el estudio de la teoría de probabilidad.
De hecho, los expertos no se ponen de acuerdo sobre cuál planteamiento es el más apropiado.

1. El planteamiento clásico.
2. El planteamiento de frecuencia relativa.
3. El planteamiento subjetivo.

1. Probabilidad clásica
El planteamiento clásico define la probabilidad de que un evento ocurra como:

Se debe resaltar el hecho de que, con el fin de que la ecuación sea válida, cada uno de
los resultados posibles debe ser igualmente posible.
Primero plantearemos la pregunta ¿cuál es la probabilidad de obtener una cara en un
solo lanzamiento? Como:
P(cara)

3
A la probabilidad clásica, a menudo, se le conoce como probabilidad a priori, debido a
que si empleamos ejemplos ordenados como monedas no alteradas, entonces podemos
establecer la respuesta de antemano (a priori).
El planteamiento clásico de probabilidad supone un mundo que no existe. Supone que
no existen situaciones que son bastante improbables pero que podemos concebir como
reales. La probabilidad clásica supone también una especie de simetría en el mundo, y
esta suposición también puede ocasionarnos problemas. Las situaciones de la vida real,
desordenadas y poco probables como son a menudo, hacen que sea útil definir la
probabilidad de otras formas.

2. Frecuencia relativa de presentación


En la actualidad, a este planteamiento se le llama frecuencia relativa de presentación de
un evento y define la probabilidad como:
1. La frecuencia relativa observada de un evento durante un gran número de
intentos o;
2. la fracción de veces que un evento se presenta a la larga, cuando las
condiciones son estables.
Este método utiliza la frecuencia relativa de las presentaciones pasadas de un evento
como probabilidad. Determinamos qué tan frecuentemente ha sucedido algo en el
pasado y usamos esa cifra para predecir la probabilidad de que suceda de nuevo en el
futuro.
En lenguaje estadístico, diríamos que la frecuencia relativa se vuelve estable conforme la
cantidad de lanzamientos crece (si lanzamos la moneda siempre en las mismas
condiciones). En consecuencia, cuando utilizamos el planteamiento de frecuencia
relativa para establecer probabilidades, el número que obtenemos como probabilidad
adquirirá mayor precisión a medida que aumenten las observaciones.

4
Una dificultad implicada en el planteamiento de frecuencia relativa es que la gente a
menudo lo utiliza sin evaluar el número suficiente de resultados.

3. Probabilidades subjetivas
Las probabilidades subjetivas están basadas en las creencias de las personas que
efectúan la estimación de probabilidad. De hecho, la probabilidad subjetiva se puede
definir como la probabilidad asignada a un evento por parte de un individuo, basada en
la evidencia que tenga disponible. Esta evidencia puede presentarse en forma de
frecuencia relativa de presentación de eventos pasados o puede tratarse, simplemente,
de una creencia meditada.
Las asignaciones de probabilidad subjetiva se dan con más frecuencia cuando los
eventos se presentan sólo una vez o un número muy reducido de veces.

4.4 Reglas de Probabilidad

La mayoría de los administradores que utiliza la probabilidad se preocupan por dos condiciones:
1. El caso en que un evento u otro se presente.
2. La situación en que dos o más eventos se presenten al mismo tiempo.
Demostramos interés en el primer caso cuando preguntamos: “¿Cuál es la probabilidad de que
la demanda de hoy exceda nuestro inventario?” Para ilustrar la segunda situación, podríamos
preguntar: “¿Cuál es la probabilidad de que la demanda de hoy exceda nuestro inventario y que
el 10% de nuestra fuerza de ventas no se presente a trabajar?”

Algunos símbolos, definiciones y reglas de uso común


Símbolo para una probabilidad marginal, En la teoría de probabilidad, utilizamos símbolos para
simplificar la presentación de ideas. La probabilidad de un evento A se podría expresar como:
Una probabilidad sencilla quiere decir que sólo un evento puede llevarse a cabo. Se le conoce
como probabilidad marginal o incondicional.

Usamos una representación gráfica conocida como diagrama de Venn, en honor al matemático
inglés del siglo XIX, John Venn. En tales diagramas, el espacio muestral completo se representa
mediante un rectángulo y los eventos se representan como partes de ese rectángulo. Si dos
eventos son mutuamente excluyentes, las partes correspondientes de éstos en el rectángulo no
se traslaparán. Si dos eventos no son mutuamente excluyentes, sus partes correspondientes en
el rectángulo sí se traslapan, como se ilustra en el diagrama.

5
A B A B

Dos Eventos mutuamente excluyentes Dos Eventos no excluyentes

Regla de la adición para eventos mutuamente excluyentes.


A menudo, sin embargo, estamos interesados en la probabilidad de que una cosa u otra
sucedan. Si estos dos eventos son mutuamente excluyentes, podemos expresar esta
probabilidad haciendo uso de la regla de adición para eventos mutuamente excluyentes. Esta
regla se expresa simbólicamente de la siguiente manera:

Y se calcula de la siguiente manera:

Existe un caso especial importante de la ecuación. Para cualquier evento A, tenemos que éste
sucede o no sucede. De modo que los eventos A y no A son mutuamente excluyentes y
exhaustivos.

Regla de adición para eventos que no son mutuamente excluyentes


Si dos eventos no son mutuamente excluyentes, es posible que ambos se presenten al mismo
tiempo. En tales casos, debemos modificar la regla de adición. Como resultado de lo anterior, la
ecuación correcta para la probabilidad de uno o más eventos que no son mutuamente
excluyentes es:

6
4.5 Probabilidades bajo condiciones de independencia estadística

Independencia: cuando se presentan dos eventos, el resultado del primero puede, o no, tener
un efecto en el resultado del segundo. Los eventos pueden ser dependientes o independientes.

Los eventos independientes son aquellos en donde la presentación de uno no tiene efecto
sobre la probabilidad de presentación de cualquier otro. Tal es el caso de una moneda lanzada

Existen tres tipos de probabilidades que se presentan bajo la independencia estadística:

 Marginal
 Conjunta
 Condicional

Probabilidades conjuntas bajo condiciones de independencia estadística

La probabilidad de que dos o más eventos independientes se presenten juntos o en sucesión es


el producto de sus probabilidades marginales.

Su fórmula es:

P (AB) = P (A) X P(B)

Donde:

P (AB) = probabilidad de que los eventos A y B se presenten juntos o en sucesión, se le conoce


como probabilidad conjunta.

P (A) = probabilidad marginal de que se le presente el evento A.

P(B) = probabilidad marginal de que se le presente el evento B.

Probabilidades condicionales bajo independencia estadística

La probabilidad condicional es la probabilidad de que un segundo evento (B) se presente si un


primer evento (A) ya ha ocurrido.

P(B|A) = P(B)

7
4.6 Probabilidades bajo condiciones de independencia estadística

La dependencia estadística existe cuando la probabilidad de que se presente algún evento


depende o se ve afectada por la presentación de algún otro. Exactamente igual que con los
eventos dependientes, los tipos de probabilidad bajo condiciones de dependencia estadística
son:

1. Condicional
2. Conjunta
3. Marginal

Probabilidad condicional bajo dependencia estadística

Las probabilidades condicional y conjunta bajo condiciones de dependencia estadística son más
complicadas que la probabilidad marginal en estas mismas circunstancias.

Su fórmula es:

P (B|A) = P(BA)

P(A)

Las probabilidades marginales en condiciones de dependencia estadística se calculan mediante


la suma de las probabilidades de todos los eventos conjuntos en los que se presenta el evento
sencillo.

4.7 Teorema de Bayes

Las nuevas probabilidades se conocen como probabilidades revisadas o posteriores.

El teorema de Bayes ofrece un potente método estadístico para evaluar nueva información y
revisar nuestras anteriores estimaciones (basadas solo en información limitada) de la
probabilidad de que las cosas se encuentren en un estado o en otro.

También podría gustarte