Está en la página 1de 8

Teorema de Bayes

El teorema de Bayes, en la teoría de la probabilidad, es una proposición planteada por el


filósofo inglés Thomas Bayes ( 1702-1761)1 en 1763,2 que expresa la probabilidad
condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad
condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme
relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es
decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se
podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de
cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la
ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la
probabilidad de aspectos causales dados los efectos observados.

Sea un conjunto de sucesos mutuamente excluyentes y


exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un
suceso cualquiera del que se conocen las probabilidades condicionales . Entonces, la
probabilidad viene dada por la expresión:

donde:

 son las probabilidades a priori.


 es la probabilidad de en la hipótesis .

 son las probabilidades a posteriori.

Fórmula de Bayes[editar]

Con base en la definición de Probabilidad condicionada, obtenemos la Fórmula de Bayes,


también conocida como la Regla de Bayes:

Esta fórmula nos permite calcular la probabilidad condicional de cualquiera de los


eventos , dado . La fórmula "ha originado muchas especulaciones filosóficas y
3
controversias".
Aplicaciones[editar]

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin


embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los
seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos
repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos
bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar
cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información
adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas
estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas
estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de
hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son
frecuentemente usados en implementaciones de filtros de correo basura o spam, que se
adaptan con el uso. Otra aplicación se encuentra en la fusión de datos, combinando
información expresada en términos de densidad de probabilidad proveniente de distintos
sensores.

Como observación, se tiene y su demostración resulta trivial.

Como aplicaciones puntuales:

1. El diagnóstico de cáncer.
2. Evaluación de probabilidades durante el desarrollo de un juego de bridge por Dan F.
Waugh y Frederick V. Waugh.

3. Probabilidades a priori y a posteriori.

4. Un uso controvertido en La ley de sucesión de Laplace 4

Un programa de control de calidad en una línea de botellas de plástico implica


inspeccionar botellas terminadas para detectar fallas, como huecos
microscópicos. La proporción de botellas que tiene esa falla en realidad es de
sólo 0,0002. Si una botella tiene una falla, la probabilidad de que no pase la
inspección es de 0,995. Si una botella no tiene falla, la probabilidad de que pase
la inspección es de 0,99.
a. Si una botella no pasa la inspección. ¿Cuál es la probabilidad de que tenga
falla?
b. Si una botella pasa la inspección. ¿Cuál es la probabilidad de que no tenga
falla?

RESPUESTA

Probabilidad de falla: P (F) = 0.0002


Probabilidad de que no haya falla: P (no F) = 0.9998
Dado que tiene falla no pase la inspección: P ( no In | F ) : 0.995
Dado que no tiene falla, pase la inspección: P ( In | no F ) : 0.99 y
Dado que no tiene falla, no pase la inspección: P ( no In | no F ) : 0.01

A) Aplicas el teorema de bayes

P ( F | no In ) = P ( no In | F ) * P (F) / P ( no In)

Para calcular P ( no In) utilizas el teorema de probabilidad total:

P ( no In) = P ( no In | F ) * P (F) + P (no In | no F) * P (no F)

P ( no In) = 0.995 * 0.0002 + 0.01* 0.9998 = 0.010197

RETOMANDO EL TEOREMA DE BAYES:

P ( F | no In ) = P ( no In | F ) * P (F) / P ( no In)
P ( F | no In ) = 0.995 * 0.0002 / 0.010197

RTA: P ( F | no In ) = 0.01951

B) También aplicas el teorema de bayes:

P ( no F | In ) = P ( In | no F ) * P (no F) / P ( In )

Necesitamos calcular P ( In), pero como habíamos calculado P ( no In ),


hacemos el complemento:
P ( In ) = 1 - P (no In) = 0.989803

Entonces..
P ( no F | In ) = P ( In | no F ) * P (no F) / P ( In )
P ( no F | In ) = 0.99 * 0.9998 / 0.989803

RTA: P ( no F | In ) = 0.9999..

El Teorema de la probabilidad total nos permite calcular la


probabilidad de un suceso a partir de probabilidades condicionadas:

Ejemplo: supongamos que si llueve la probabilidad de que ocurra un


accidentes es x% y si hace buen tiempo dicha probabilidad es y%. Este
teorema nos permite deducir cuál es la probabilidad de que ocurra un
accidente si conocemos la probabilidad de que llueva y la probabilidad
de que haga buen tiempo.

La fórmula para calcular esta probabilidad es:

Es decir, la probabilidad de que ocurra el suceso B (en nuestro


ejemplo, que ocurra un accidente) es igual a la suma de multiplicar
cada una de las probabilidades condicionadas de este suceso con
los diferentes sucesos A (probabilidad de un accidente cuando llueve y
cuando hace buen tiempo) por la probabilidad de cada suceso A.

Para que este teorema se pueda aplicar hace falta cumplir un


requisito:
Los sucesos A tienen que formar un sistema completo, es decir,
que contemplen todas las posibilidades (la suma de sus probabilidades
debe ser el 100%).
Una distribuidora recibe un importante cargamento de componentes. A la
empresa le gustaria aceptar el cargamento si 10% o menos de los componentes
esta defectuoso y rechazarlo si mas del 10% presenta defecto. Se opta por
seleccionar diez de estos y regresar el envio si mas de uno tiene defecto.
A. Si la proporcion de componenetes defectuosos en la muestra es del 10%
¿ cuál es la probabilidad de que la distribuidora regrese el cargamento?
B. Si la proporcion de componenetes defectuosos es del 20% ¿cuál es la
probabilidad de que la empresa regrese el cargamento?

Distribución binomial

A)
p = 0.10
q = 1 - 0.10 = 0.90

P(10;x>1) = 1 - (P(10;x = 0) + P(10;x = 1))

P(10 ; x = 0) = C10;0 p^0 q^10


P(10 ; x = 0) = q^10 = 0.9^10 = 0.3487

P(10 ; x = 1) = C10;1 p^1 q^(10-1)


P(10 ; x = 1) = 10 p q^9 = 10*0.1*0.9^9 = 0.3874

P(10;x>1) = 1 - (0.3487 + 0.3874)


P(10;x>1) = 1 - 0.7361
P(10;x>1) = 0.2639
***************************

B)
p = 0.20
q = 1 - 0.20 = 0.80

P(10;x>1) = 1 - (P(10;x = 0) + P(10;x = 1))

P(10 ; x = 0) = C10;0 p^0 q^10


P(10 ; x = 0) = q^10 = 0.8^10 = 0.1074

P(10 ; x = 1) = C10;1 p^1 q^(10-1)


P(10 ; x = 1) = 10 p q^9 = 10*0.2*0.8^9 = 0.2684

P(10;x>1) = 1 - (0.1074 + 0.2684)


P(10;x>1) = 1 - 0.3758
P(10;x>1) = 0.6242

También podría gustarte