Está en la página 1de 8

PROBABILIDAD CONDICIONAL Y TEOREMA DE BAYES

I. INTRODUCCIÓN:

Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo


que también sucede otro evento B. La probabilidad condicional se escribe P(A|B),
y se lee «la probabilidad de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede
causar B, viceversa o pueden no tener relación causal. Las relaciones causales o
temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden
desempeñar un papel o no dependiendo de la interpretación que se le dé a los
eventos. Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar
un dado. ¿Cuál es la probabilidad que en el dado salga un 6 dado que ya haya
salido una cara en la moneda? Esta probabilidad se denota de esta manera:
P(6|C)

El condicionamiento de probabilidades puede lograrse aplicando el teorema de


Bayes el cual se encarga de determinar la relación entre las probabilidades
condicionadas de dos sucesos. Este teorema tiene que ver con la condicionalidad
de dos eventos aleatorios A y B pertenecientes a un universo de estudio. Cuando
se analizan ambos eventos, principalmente se busca determinar la probabilidad de
uno dado el otro, es decir, la probabilidad de A dado B (P(A|B)), o la probabilidad
de B dado A (P(B|A)). Resulta que cuando se realiza este análisis ocurre un error
muy común, señalado por el matemático Pablus en su libro El hombre anumérico,
quien indicó que el error es muy frecuente en personas que no conozcan de
probabilidad. El error consiste en considerar P(A|B) y P(B|A) como números
iguales. Para darnos cuenta de que no son iguales, por definición se trata de
valores muy distintos que aunque tienen elementos comunes cuentan con
denominadores diferentes, entonces no es posible considerar que son iguales.
Este tipo de error fue observado por el matemático Thomas Bayes en 1763, quien
al encontrar que realmente no era una igualdad, buscó establecer una relación
entre ambas condicionalidades, para poder determinar exactamente cuál es la
proporción de una en la otra en función de su misma configuración. Esta relación
recibe el nombre de Teorema de Bayes. Para el establecimiento de esta relación
se partió de los conceptos de P(A|B) y P(B|A), de los de despejamos P(AnB) y
P(BnA), las cuales igualamos para poder encontrar la influencia de una
condicinoalidad sobre la otra, es decir, el Teorema de Bayes que es igual a
(P(B)/P(A) = P(B|A).
II. OBJETIVOS:

- Introducir la probabilidad condicionada y su uso en resolver problemas.

-Estudiar las aplicaciones del teorema de Bayes y la interpretación subjetiva de la


probabilidad.

III. MARCO TEORICO:

3.1 Biografía de Thomas Bayes

Thomas Bayes nació en Londres, Inglaterra, en 1702, y murió el 7 de abril de


1761. Ministro presbiteriano y matemático, dedicó su vida al estudio de las causas
de los hechos. Su obra más conocida es el Teorema de Bayes. Estudió el
problema de la determinación de la probabilidad de las causas a través de los
efectos observados. El teorema que lleva su nombre se refiere a la probabilidad de
un suceso condicionado por la ocurrencia de otro suceso. Más específicamente,
con su teorema se resuelve el problema conocido como "de la probabilidad
inversa". Esto es, valorar probabilísticamente las posibles condiciones que rigen
supuesto que se ha observado cierto suceso. Se trata de probabilidad "inversa" en
el sentido de que la "directa" sería la probabilidad de observar algo supuesto que
rigen ciertas condiciones.

3.2. Teorema De Bayes

El teorema de Bayes es un procedimiento para obtener probabilidades


condicionales (probabilidades de ocurrencia de acontecimientos condicionadas a
la ocurrencia de otros acontecimientos). La expresión del teorema de Bayes para
dos variables discretas es:

Para variables que toman más de dos valores, la expresión es:

El teorema de Bayes da respuesta a cuestiones de tipo causal, predictivas y de


diagnóstico. En las cuestiones causales queremos saber cuál es la probabilidad de
acontecimientos que son la consecuencia de otros acontecimientos. En las
cuestiones predictivas queremos saber cuál es la probabilidad de acontecimientos
dada información de la ocurrencia de los acontecimientos predictores. En las
cuestiones de tipo diagnóstico queremos saber cuál es la probabilidad del
acontecimiento (o acontecimientos) causales o predictivos dado que tenemos
información de las consecuencias. Para resumir, en las situaciones causales o
predictivas desconocemos las consecuencias y tenemos evidencia de las causas.
Por el contrario, en las situaciones de diagnóstico desconocemos las causas y
tenemos evidencia de las consecuencias.

3.3. Aplicaciones:

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la


probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades
que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten
probabilidades basadas en experimentos repetibles y que tengan una confirmación
empírica mientras que los llamados estadísticos bayesianos permiten
probabilidades subjetivas. El teorema puede servir entonces para indicar cómo
debemos modificar nuestras probabilidades subjetivas cuando recibimos
información adicional de un experimento. La estadística bayesiana está
demostrando su utilidad en ciertas estimaciones basadas en el conocimiento
subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la
evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento.
Una aplicación de esto son los clasificadores bayesianos que son frecuentemente
usados en implementaciones de filtros de correo basura o spam, que se adaptan
con el uso. Otra aplicación se encuentra en la fusión de datos, combinando
información expresada en términos de densidad de probabilidad proveniente de
distintos sensores.

Como observación, se tiene y su demostración resulta trivial.

Como aplicaciones puntuales:

1. El diagnóstico de cáncer.

2. Evaluación de probabilidades durante el desarrollo de un juego de bridge


por Dan F. Waugh y Frederick V. Waugh.

3. Probabilidades a priori y a posteriori.

4. Un uso controvertido en la Ley de sucesión de Laplace.4


5. En el testeo de hipótesis en Ciencia Política cuando se usa
metodología process tracing.

3.4. Ejemplo:

Unos psicólogos especializados en el tratamiento de trastornos de personalidad


están interesados en diagnosticar el trastorno que afecta un paciente, en el que
observan un conjunto de síntomas que indican que el paciente podría sufrir el
trastorno A o el trastorno B. Además saben que los porcentajes de individuos
afectados por los trastornos A, B o ningún trastorno son 10, 30 y 70. También
saben que el porcentaje de individuos afectados por el trastorno A y que muestran
el síntoma X es igual al 60%, el porcentaje de individuos que sufren el trastorno B
y muestran el síntoma X es el 30% y el porcentaje de individuos no afectados que
muestran los síntomas de trastorno es el 10%. Resumiendo, la información que
disponemos es:

Sustituyendo en el teorema de Bayes:

la probabilidad de que el individuo padezca el trastorno A es 0.27. Las


probabilidades de que esté afectado por el trastorno B o el C son:
La conclusión es que lo más probable es que el individuo padezca el trastorno B,
pero es un valor moderado y los psicólogos piensan que hay que obtener más
evidencia.

El teorema de Bayes es especialmente adecuado para actualizar las conclusiones


a medida que disponemos de nueva información. Pasado un tiempo observan que
el paciente muestra un nuevo síntoma (Y), y saben que presentan Y el 70% de los
individuos que sufren el trastorno A, el 20% de los individuos que sufren B y el
10% de los individuos que padecen el trastorno C. Para obtener las probabilidades
incorporando la nueva información hacemos que las probabilidades posteriores
pasen a ser las probabilidades previas:

Una vez hechos los cálculos la probabilidad de que el individuo esté afectado por
el trastorno A ha pasado de 0.27 a 0.62

3.5Probabilidad Condicional

Es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro


evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad
de A dado B».
No tiene por qué haber una relación causal o temporal entre A y B. A puede
preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B,
viceversa o pueden no tener relación causal. Las relaciones causales o temporales son
nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se le dé a los eventos.

Tomando los casos en los que B se cumple, p (A|B) se puede interpretar como la
parte en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el
evento A es tener dolor de cabeza. p (A|B) sería la probabilidad de tener dolor de cabeza
cuando se está enfermo de gripe.

Ejemplo :

Se seleccionan dos semillas aleatoriamente, una por una, de una bolsa que
contiene 10 semillas de flores rojas y 5 de flores blancas. ¿Cuál es la
probabilidad de que:

a. La primera semilla sea roja?


b. La segunda semilla sea blanca dado que la primera fue roja?

Solución:

a. La probabilidad de que la primera semilla sea roja es , puesto que hay


10 semillas de flores rojas de un total de 15. Escrito con notación de

probabilidad tenemos:
b. La probabilidad de que la segunda semilla sea blanca se ve influida por lo
que salió primero, es decir esta probabilidad está sujeta a una condición, la
de que la primera semilla sea roja. Este tipo de probabilidad se le llama
probabilidad condicional y se denota por

, y se lee: la probabilidad de B2 dado R1.

Esta probabilidad , puesto que todavía hay 5 semillas blancas en un


total de 14 restantes.

Veamos la situación en un diagrama de árbol:


IV. CONCLUSIÓNES:

La enseñanza de probabilidades se hace cada vez más necesaria, especialmente


hoy en donde la cantidad de información disponible es muy grande y es
absolutamente necesario desarrollar habilidades para poder procesar tantos datos.
Más aún, muchos de los procesos o fenómenos cotidianos se pueden idealizar a
través El teorema de Bayes es muy importante dado que nos permite dar
respuesta a cuestiones de tipo causal, predictivas y de diagnóstico.

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la


probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades
que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten
probabilidades basadas en experimentos repetibles y que tengan una confirmación
empírica mientras que los llamados estadísticos bayesianos permiten
probabilidades subjetivas.

El Teorema de Bayes es de gran utilidad para conocer las probabilidades de los


eventos o circunstancias que se nos presente y se convierte en una gran
herramienta para la toma de decisiones bajo ciertas circunstancias. Es necesario
ahondar más en el tema ya que tiene muchas aplicaciones y es bastante extenso
como a la vez interesante. Por lo que esperamos que esta aproximación al tema
se convierta en el inicio de un mayor aprendizaje

V. REFERENCIAS BIBLIOGRÁFICAS:
-Levin R. (2004).Estadística para Administración y Economía. Ed. Pearson.
México.

-Berenson M. (1996). Estadística básica en administración. Ed. Pearson. México

También podría gustarte