Está en la página 1de 25

Probabilidades

AUTOR:
SILVA GIL, Luis Alberto. C.I.: 18.114.729

SECCIÒN: 3DA
CATEDRA: Estadísticas I

PROF.: ALBERTO ALFONZO

Porlamar, 25 de Julio de 2016

1. PROBALIDAD
1.1 Probabilidad (Definición)

La probabilidad es un método por el cual se obtiene la frecuencia de


un acontecimiento determinado mediante la realización de experimentos
aleatorios, de los que se conocen todos los resultados posibles, bajo
condiciones suficientemente estables. La probabilidad es un evento o suceso
que puede ser improbable, probable o seguro.

La teoría de la probabilidad se usa extensamente en áreas como la


estadística, la física, la matemática, las ciencias y la filosofía para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la
mecánica subyacente discreta de sistemas complejos, por lo tanto, es la
rama de las matemáticas que estudia, mide o determina a los experimentos o
fenómenos aleatorios.

1.2 Teoría de la probabilidad

La probabilidad constituye un importante parámetro en la


determinación de las diversas casualidades obtenidas tras una serie de
eventos esperados dentro de un rango estadístico.

Existen diversas formas como método abstracto, como la teoría


Dempster-Shafer y la teoría de la relatividad numérica, esta última con un
alto grado de aceptación si se toma en cuenta que disminuye
considerablemente las posibilidades hasta un nivel mínimo ya que somete a
todas las antiguas reglas a una simple ley de relatividad.

La probabilidad de un evento se denota con la letra “p” y se expresa


en términos de una fracción y no en porcentajes, por lo que el valor de p cae
entre 0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra"
equivale a 1 menos el valor de p y se denota con la letra q

P(Q)=1-P(E)
Los tres métodos para calcular las probabilidades son la regla de la
adición, la regla de la multiplicación y la distribución binomial.

1.2.1 Regla de la adición

La regla de la adición o regla de la suma establece que la probabilidad


de ocurrencia de cualquier evento en particular es igual a la suma de las
probabilidades individuales, si es que los eventos son mutuamente
excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.

P (A o B) = P(A) U P(B) = P(A) + P(B) si A y B son mutuamente


excluyente.

P (A o B) = P(A) + P(B) − P (A y B) si A y B son no excluyentes.

Siendo: P(A) = probabilidad de ocurrencia del evento A. P(B) =


probabilidad de ocurrencia del evento B. P (A y B) = probabilidad de
ocurrencia simultánea de los eventos A y B.

1.2.2 Regla de la multiplicación

La regla de la multiplicación establece que la probabilidad de


ocurrencia de dos o más eventos estadísticamente independientes es igual al
producto de sus probabilidades individuales.

P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.

P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los
objetos son seleccionados uno después del otro para ver si ellos son
defectuosos. Suponga que dos objetos son seleccionados sin reemplazo
(significa que el objeto que se selecciona al azar se deja por fuera del lote).
¿Cuál es la probabilidad de que los dos objetos seleccionados sean
defectuosos? Solución:
Sea los eventos

A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso}

Entonces dos objetos seleccionados serán defectuosos, cuando


ocurre el evento A1∩ A2 que es la intersección entre los eventos A1 y A2. De
la información dada se tiene que:

P (A1) = 20/100; P (A2/A1) = 19/99

Así probabilidad de que los dos objetos seleccionados sean


defectuosos es:

P (A1 ∩ A2) = P (A1) P (A2/A1)

(20/100) (19/99)

19/495 = 0.038

Ahora suponga que selecciona un tercer objeto, entonces la


probabilidad de que los tres objetos seleccionados sean defectuosos es

P (A1 ∩ A2 ∩ A3) = P (A1) P (A2/A1) P (A3/A1∩A2)

(20/100) (19/99) (18/98)

19/2695 = 0.007

1.2.3 Regla de Laplace

La Regla de Laplace establece que:

 La probabilidad de ocurrencia de un suceso imposible es 0.

 La probabilidad de ocurrencia de un suceso seguro es 1, es


decir, P(A) = 1.
Para aplicar la regla de Laplace es necesario que los experimentos
den lugar a sucesos equiprobables, es decir, que todos tengan o posean la
misma probabilidad.

 La probabilidad de que ocurra un suceso se calcula así:

P(A) = Nº de casos favorables / Nº de resultados posibles

Esto significa que: la probabilidad del evento A es igual al cociente del


número de casos favorables (los casos dónde sucede A) sobre el total de
casos posibles.

1.2.4 Distribución binomial

La probabilidad de ocurrencia de una combinación específica de


eventos independientes y mutuamente excluyentes se determina con la
distribución binomial, que es aquella donde hay solo dos posibilidades, tales
como masculino/femenino o si/no.

 Hay dos resultados posibles mutuamente excluyentes en cada


ensayo u observación.

 La serie de ensayos u observaciones constituyen eventos


independientes.

 La probabilidad de éxito permanece constante de ensayo a


ensayo, es decir el proceso es estacionario.

Para aplicar esta distribución al cálculo de la probabilidad de obtener


un número dado de éxitos en una serie de experimentos en un proceso de
Bermnoulli, se requieren tres valores: el número designado de éxitos (m), el
número de ensayos y observaciones (n); y la probabilidad de éxito en cada
ensayo (p).
Entonces la probabilidad de que ocurran m éxitos en un experimento
de n ensayos es: P (x = m) = (nCm)(Pm)(1−P) n−m

Siendo: nCm el número total de combinaciones posibles de m


elementos en un conjunto de n elementos.

En otras palabras: P (x = m) = [n! / (m! (n−m)!)](pm)(1−p) n−m

 Ejemplo

La probabilidad de que un alumno apruebe la asignatura Cálculo de


Probabilidades es de 0,15. Si en un semestre intensivo se inscriben 15
alumnos ¿Cuál es la probabilidad de que aprueben 10 de ellos?

P (x = 10) = 15C10(0,15)10(0,85)5 = 15! / (10! (15−10)!) (0,15)10(0,85)5 =


7,68 * 10−6

Generalmente existe un interés en la probabilidad acumulada de "m o


más " éxitos o "m o menos" éxitos en n ensayos. En tal caso debemos tomar
en cuenta que:

P(x < m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m − 1)


P(x > m) = P(x = m+ 1) + P(x = m+ 2) + P(x = m+3) +....+ P(x = n)
P(x ≤ m) = P(x = 0) + P(x = 1) + P(x = 2) + P(x = 3) +....+ P(x = m)
P(x ≥ m) = P(x = m) + P(x = m+1) + P(x = m+2) +....+ P(x = n)

Supongamos que del ejemplo anterior se desea saber la probabilidad


de que aprueben:

a.− al menos 5

b.− más de 12

a.− la probabilidad de que aprueben al menos 5 es:

P (x ≥ 5) es decir, que:
1 - P(x < 5) = 1 - [P(x = 0)+P(x = 1)+P(x = 2)+P(x = 3)+P(x = 4)] =
1 - [0,0874 + 0,2312 + 0,2856 + 0,2184 + 0,1156] = 0,0618

Nota: Al menos, a lo menos y por lo menos son locuciones adverbiales


sinónimas.

1.3. La importancia de la aplicación de la Probabilidad y su relación en


el Computacional (Informática).

La esencial importancia de la aplicación de los métodos de cálculo de


la probabilidad reside en su capacidad para estimar o predecir eventos.
Cuanto mayor sea la cantidad de datos disponibles para calcular la
probabilidad de un acontecimiento, más preciso será el resultado calculado.
Dada la complejidad de los sistemas en los que suele aplicarse la teoría de la
probabilidad, se requiere de modelos informáticos y estadísticos de gran
elaboración, que serían imposibles de no contarse con los modernos
recursos tecnológicos relacionados con la computación.

La probabilidad mide la frecuencia con la que se obtiene un resultado


(o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que
se conocen todos los resultados posibles, bajo condiciones suficientemente
estables.

La Informática es la ciencia aplicada que abarca el estudio y aplicación


del tratamiento automático de la información, utilizando sistemas
computacionales, generalmente implementados como dispositivos
electrónicos. También está definida como el procesamiento automático de la
información

La informática y la probabilidad influyen en diversos campos de los


que se benefician mutuamente tales son los casos son:
 En los análisis algoritmos. Para contrastar la eficiencia de un
algoritmo es determinante conocer la rapidez con que se
ejecuta la tarea. Para evaluar su rapidez, suponemos que los
datos de entrada son aleatorios y media nos el tiempo que
tarda en realizar.

 Base de datos Introduce y valida datos lógicos, alfanuméricos y


fechas; crea y diseña tablas y formulario y la Distinción entre
software y hardware, y comprende su interacción.

 Crear hojas de cálculo

 Introduce y valida datos alfanuméricos, numéricos y fechas;


selecciona celdas y rangos, en libros y hojas de cálculo.

 Edita adecuadamente información en libros y hojas de cálculo:


corta, pega, modifica, da formato y visualiza la hoja en pantalla.

 Efectúa operaciones y utiliza funciones aritméticas,


estadísticas, financieras, de Fecha y hora.

 Reconoce la utilidad de la hoja de cálculo para elaborar cuadros

 Presupuestales, simulaciones de pagos, estados de ingresos y


gastos y Cuadros estadísticos.

 Presenta información de manera gráfica, utilizando


adecuadamente las series, leyendas, formatos y tipos de
gráficos.

 Elabora la gráfica de una función y, en su caso, obtiene


máximos y mínimos.
 También se relacionan es cuando un programa lo estas
utilizando ejemplo: Word estas escribiendo un texto te
equivocas al escribir una palabra él te da varias posibles
palabras que serían tu opción

 También la elaboración de gráficas de una función y, en su


caso, obtiene máximos y mínimos

 Tema bien en el internet llevas historiales y hay veces que ya


no escribes todas las letras te da posibles resultados o en los
buscadores también como google

 Presentador de exposiciones

 Crea presentaciones utilizando esquemas, plantillas, así como


los colores y

 patrones de diapositivas.

 Mueve y copia diapositivas entre archivos de presentaciones e


importa información de otros programas, incorporándola a
diapositivas ya creadas o creando nuevas diapositivas con ella.

 Cambia el diseño de diapositivas, agrega textos y gráficos y


genera efectos especiales en ellas.

 Elige adecuadamente distintas opciones de impresión.

 Procesador de textos

 Ingresa y sale adecuadamente, luego de recuperar y grabar los


archivos Manipulados, usando barras de herramientas, íconos y
combinaciones de teclas.
 Crea documentos y utiliza pertinentemente sus plantillas en la
elaboración de otros.

 Edita textos: atribuye y modifica formatos de caracteres,


párrafos y secciones en documentos; tabula y utiliza sangrías;
prepara páginas, determina el tamaño del papel y los
márgenes; inserta encabezados y pies de página.

 Emplea el corrector de ortografía y redacción.

 Crea, edita y da formato a columnas y tablas dentro de un


documento.

 Elabora e inserta esquemas y gráficas en un documento.

En conclusión, la informática necesita la probabilidad para su


funcionamiento sin ello no podría existir la informática como tal es o ni
existiría y necesitan en todo el momento y en todas horas.

2. EXPERIMENTO ALEATORIO

2.1 Experimento aleatorio (Definición)

En teoría de la probabilidad un experimento aleatorio es aquel que,


bajo el mismo conjunto aparente de condiciones iniciales, puede presentar
resultados diferentes, es decir, no se puede predecir o reproducir el resultado
exacto de cada experiencia particular. (Ej.: Lanzamiento de un dado).

Este tipo de fenómeno es opuesto al fenómeno determinista, en el que


conocer todos los factores de un experimento nos hace predecir
exactamente el resultado del mismo. Por ejemplo, conociendo la altura desde
la que se arroja un móvil es posible saber exactamente el tiempo que tardará
en llegar al suelo en condiciones de vacío.
2.2 Propiedades

Es toda aquella situación que debe llevarse a cabo para saber cual es
el resultado. Un experimento se dice aleatorio si verifica las siguientes
condiciones:

 Si los resultados se pueden contar se le llama experimento


aleatorio numerable; y si no se pueden contar, se le llama
experimento aleatorio no numerable.

 Si es posible conocer previamente todos los posibles resultados


(el espacio muestral, constituido por diferentes sucesos) o por
lo menos nombrar al último resultado se le llama experimento
aleatorio finito; y si no se puede nombrar al último resultado,
se le llama experimento aleatorio infinito.

 Es imposible predecir el resultado exacto del mismo antes de


realizarlo.

 A cada realización de un experimento se le llama experiencia o


prueba (Evento estadístico).

2.3 Controversia

Existe cierta controversia sobre si los fenómenos aleatorios existen


realmente o simplemente surgen del desconocimiento de los factores que
desencadenan el mismo o de las leyes físicas que lo rigen. Por ejemplo, si en
el lanzamiento de un dado conociéramos exactamente la fuerza, altura al
suelo y ángulo del lanzamiento, las dimensiones exactas del dado y las
propiedades del suelo, se podría mediante complejos cálculos conocer el
resultado final. Es por esto que algunas veces se define un fenómeno
aleatorio como aquel en el que pequeños cambios en sus factores producen
grandes diferencias en su resultado.
Esto no quiere decir necesariamente que exista un completo
determinismo científico, sino que en ocasiones el azar es consecuencia de la
ignorancia de un suceso o de la incapacidad para procesar toda la
información que se tiene.

Algunas propuestas realizadas desde la física, como la interpretación


de Copenhague de la mecánica cuántica sostienen que a nivel atómico
existen los fenómenos aleatorios genuinos, aunque otras interpretaciones
como la de David Bohm atribuyen la aleatoriedad aparente de los fenómenos
cuánticos a la ignorancia de ciertas condiciones (las teorías cuánticas
deterministas reciben el nombre de teorías de variables ocultas).

Recientemente ha aparecido la propuesta de que algunos sistemas


físicos, en concreto los sistemas macroscópicos caóticos podrían ser
genuinamente no-computables aunque deterministas, eso implica que aun
siendo deterministas no es posible calcular con seguridad su evolución
futura, mostrando un comportamiento aparentemente aleatorio.

3. EVENTO O SUCESOS.

3.1 Evento o Sucesos (Definición)

En la teoría de la probabilidad, un evento o suceso aleatorio,


probabilístico o estadístico es un subconjunto de un espacio muestral, es
decir, un conjunto de posibles resultados que se pueden dar en un
experimento aleatorio. Son aquellos hechos en los que no se sabe con
certeza lo que va a suceder, dependen del azar y no se puede determinar
sus resultados aun repitiéndolo en varias ocasiones.

Formalmente, sea Ω un espacio muestral, entonces un evento es un


subconjunto A: = {w1,w2,…} C Ω donde (w1,w2,…) son una serie de posibles
resultados.
Se dice que un evento A ocurre, si el resultado del experimento
aleatorio es un elemento de A.

“Un evento es el resultado posible o un grupo de resultados posibles


de un experimento y es la mínima unidad de análisis para efectos de cálculos
probabilísticos”. -Marcy Lisseth Elías Vásquez-

3.2 Tipos de eventos

3.2.1 Evento simple o suceso elemental

Un suceso o evento simple es un subconjunto del espacio muestral


que contiene un único elemento.

Ejemplos de espacios muéstrales y sucesos elementales:

 Si se trata de contar objetos y el espacio muestral S = {1, 2,


3,4,5,6,7 ...} (los números naturales), entonces los sucesos
elementales son cada uno de los conjuntos {k}, donde k E N.

 Si se lanza una moneda dos veces, S = {cc, cs, sc, ss}, donde
(c representa "sale cara" y s, "sale cruz"), los sucesos
elementales son {cc}, {cs}, {sc} y {ss}.

 Si X es una variable aleatoria normalmente distribuida, S = (-∞,


+∞), los números reales, los sucesos elementales son todos los
conjuntos {x}

Los sucesos elementales pueden tener probabilidades que son


estrictamente mayores que cero, no definidas o cualquier combinación de
estas. Por ejemplo, la probabilidad de cualquier variable aleatoria discreta
está determinada por las probabilidades asignadas a los sucesos
elementales del experimento que determina la variable. Por otra parte,
cualquier suceso elemental tiene probabilidad cero en cualquier variable
aleatoria continua. Existen distribuciones mixtas que no son completamente
continuas, ni completamente discretas, entre las que pueden darse ambas
situaciones.

3.2.2Otros sucesos

 Un evento compuesto es un conjunto {w1,...,wn} C Ω

 Los eventos triviales son el conjunto universal Ω y el conjunto vacío.


Al primero se le llama también evento seguro o cierto, y al segundo,
evento imposible.

 Sean dos eventos A y B, si ambos son conjuntos disjuntos, entonces


ellos son eventos excluyentes.

 Un evento con elementos infinitos pero numerables se llama σ-álgebra


(sigma-álgebra), y un evento con elementos finitos se llama álgebra
de sucesos de Boole.

3.3 Propiedades

Dados dos eventos A y B, entonces:

 El evento A ∩ B ocurre si A y B ocurren a la vez.

 El evento A U B ocurre si por lo menos ocurre A, B o ambos.

3.4 Relación entre eventos

 Dos sucesos se dicen independientes si la probabilidad del suceso


conjunto P (A ∩ B) coincide con el producto de probabilidades de cada
evento, es decir, P (A ∩ B) = P(A)P(B)
 Dos eventos se dicen disjuntos si no pueden ocurrir simultáneamente
por ser incompatibles.

3.5 sucesos o eventos mutuamente excluyentes.

Dos o más sucesos son mutuamente excluyentes si la ocurrencia de uno


cualquiera de ellos, imposibilita la ocurrencia de los otros. De la teoría de
conjuntos se sabe que dos o más conjuntos que no tengan puntos
muestrales en común su intersección es nula. La probabilidad de ocurrencia
de E1 o E2, es la suma de las probabilidades de cada uno.

3.6 Eventos solapados: Dos eventos E1 y E2, son solapados si tienen


puntos muestrales comunes, los puntos muestrales comunes a E1 y E2,
forman un subconjunto llamado intersección de E1 y E2, y se representa por

E1 E2. La fórmula para calcular la probabilidad de dos eventos solapados

es:

Donde:

Fórmula para tres eventos solapados:

3.7 Eventos Complementarios: Dos eventos E1 y E2, son complementarios


si el segundo es un subconjunto que contiene todos los puntos muestrales
del espacio muestral que no están en el primero. Los eventos
complementarios, son a su vez mutuamente excluyentes:
S, representa el espacio muestral

, es el complementario de E, es decir, es lo que le falta a E, para ser igual

a S.

, se lee complementario de E o “No E”

La probabilidad del espacio muestral es 1;

3.8 Eventos Independientes.

Dos eventos E1 y E2 son independientes cuando la ocurrencia o no


ocurrencia de uno de ellos en una prueba, no afecta la probabilidad del otro
en cualquier otra prueba.

En el lanzamiento de una moneda la probabilidad de obtener cara es


½ y la probabilidad de obtener otra cara en otra prueba, es también ½. Por lo
que los dos eventos E1 y E2.

La fórmula para buscar la probabilidad de que E 1 y E2, aparezcan


cuando sean independientes es:

EJEMPLO:
Se lanzan dos dados simultáneamente. Uno verde y uno rojo. ¿Cuál

es la probabilidad de que

Procedimiento:

1. Se construye el espacio muestral (en un diagrama cartesiano),


señalando los puntos muestrales para cada dado.
2. Para el dado rojo existen 12 puntos muestrales, que resultan de la
combinación (1 y 2) con los puntos (1, 2, 3, 4, 5,6) del dado verde.
3. Para el dado verde existen 18 puntos muestrales al combinar los
puntos (4, 5 y 6), con los (1, 2, 3, 4, 5, 6) del dado rojo.
4. Se calcula la probabilidad para cada evento:

5. Se sustituye en la fórmula para eventos independientes:

6. También se obtiene el mismo resultado dividiendo los puntos


muestrales de la intersección de los dos eventos, por la cantidad de
puntos muestrales del espacio muestral.
7. Interpretación: Si se lanzan dos dados simultáneamente, uno rojo y
otro verde, la probabilidad de que el verde muestre una cara con
números mayores o iguales a 4 y el rojo, menores o iguales a dos, es
de 1/6.

3.9 Eventos Dependientes:

Dos o más eventos son dependientes cuando el conocimiento de la


verificación de uno de ellos, altera la probabilidad de verificación del o de los
otros.
La fórmula para calcular la probabilidad de eventos dependientes, es, si los
eventos son: E1 y E2:

EJEMPLOS:

Una caja contiene 5 bolas blancas y 3 negras. Se hace una primera


extracción y sale una bola blanca. ¿Cuál es la probabilidad de que en una
segunda extracción sin reemplazo salga otra bola blanca?

Procedimiento:

1.E1= Es el evento primera extracción de una bola blanca.


2.E2= Es el evento segunda extracción de una bola blanca.
3.Se calcula la probabilidad de extraer una bola blanca.

4.Se halla la probabilidad de sacar una bola blanca en una segunda


extracción dado que en la primera extracción salió blanca y no hubo
reemplazamiento.

4. LEYES DE DE MORGAN

4.1. Leyes de De Morgan.

Las Proposiciones

Una proposición es una afirmación que puede recibir un valor de verdad


falso (F), o bien verdadero (V), pero no ambos a la vez.

Su denotación generalmente la encontramos con las letras (p, q, r)


4.2 Conectores Lógicos

Podemos formar nuevas proposiciones a partir proposiciones dadas


mediante el uso de conectivos lógicos. Algunos de ellos son:

^ “y” conjunción

v “o” disyunción

-> “si —, entonces” implicación

<-> “si y sólo si” doble implicación

¬ “no” negación

4.3 Leyes de Morgan (Definición)

Son una parte de la Lógica proposicional, analítica, y fueron creada por


Augustus de Morgan.

Estas declaran las reglas de equivalencia en las que se muestran que dos
proposiciones pueden ser lógicamente equivalentes.

4.4 Las Leyes de Morgan permiten:

El cambio del operador de conjunción en operador de disyunción y


viceversa. Las proposiciones conjuntivas o disyuntivas a las que se aplican
las leyes de Morgan pueden estar afirmadas o negadas (en todo o en sus
partes).

4.5 Casos:
¬ (P ^ Q) ≡ (¬P v ¬Q)

Si nos encontramos con una proposición conjuntiva totalmente negada, la


ley de Morgan nos permite transformarla en una proposición disyuntiva con
cada uno de sus miembros negados

¬ (P v Q) ≡ (¬P ^ ¬Q)

Si nos encontramos con una proposición disyuntiva totalmente negada, la


ley de Morgan nos permite transformarla en una proposición conjuntiva con
cada uno de sus miembros negados

(P ^ Q) ≡ ¬ (¬ P v ¬ Q)

Si nos encontramos con una proposición conjuntiva afirmada, la ley de


Morgan nos permite transformarla en una proposición disyuntiva negada en
su totalidad y en sus miembros.

(P v Q) ≡ ¬ (¬P ^ ¬Q)

Si nos encontramos con una proposición disyuntiva afirmada, la ley de


Morgan nos permite transformarla en una proposición conjuntiva negada en
su totalidad y en sus miembros.

5. PROBABILIDAD CONDICIONAL

5.1 Probabilidad condicional

Es la probabilidad de que ocurra un evento A, sabiendo que también


sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee
«la probabilidad de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A


puede preceder en el tiempo a B, sucederlo o pueden ocurrir
simultáneamente. A puede causar B, viceversa o pueden no tener relación
causal. Las relaciones causales o temporales son nociones que no
pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no
dependiendo de la interpretación que se les dé a los eventos.

Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar


un dado. ¿Cuál es la probabilidad de obtener una cara (moneda) y luego un
6 (dado)? Pues eso se escribiría como P (6 | Cara).

El condicionamiento de probabilidades puede lograrse aplicando el


teorema de Bayes

5.1.1 Definición Probabilidad Condicional

Dado un espacio de probabilidad y dos eventos (o sucesos)


con P(B)>0, la probabilidad condicional de A dado B está definida como:

5.2 Interpretación

Tomando los mundos en los que B se cumple, P(A\B) se puede


interpretar como la fracción en los que también se cumple A. Si el evento B
es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, P(A\B)
sería la probabilidad de tener dolor de cabeza cuando se está enfermo de
gripe.

5.3 Propiedades

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza,
entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1.
5.4 Independencia de sucesos

Dos sucesos aleatorios A y B son independientes si y sólo si:

O sea que, si A y B son independientes, su probabilidad conjunta,

Puede ser expresada como el producto de las probabilidades


individuales. Equivalentemente:

En otras palabras, si A y B son independientes, la probabilidad


condicional de A dado B es simplemente la probabilidad de A y viceversa.

5.5 Exclusividad mutua

Dos sucesos A y B son mutuamente excluyentes si y sólo si

Entonces,

Además, si P(B) > 0 entonces P (A\ B) es igual a 0.

5.6 La falacia de la probabilidad condicional

La falacia de la probabilidad condicional se basa en asumir que P(A|B)


es casi igual a P(B|A). El matemático John Allen Paulos analiza en su libro El
hombre anumérico este error muy común cometido por personas que
desconocen la probabilidad.
La verdadera relación entre P(A|B) y P(B|A) es la siguiente:

(Teorema de Bayes)

5.7 Problemas de ejemplo

La paradoja del falso positivo

La magnitud del error cometido con esta falacia se entiende mejor en


términos de probabilidades condicionales.

Supongamos un grupo de personas de las que el 1 % sufre una cierta


enfermedad, y el resto está bien. Escogiendo un individuo al azar:

Supongamos que aplicando una prueba a una persona que no tiene la


enfermedad, hay una posibilidad del 1 % de conseguir un falso positivo, esto
es:

Finalmente, supongamos que aplicando la prueba a una persona que


tiene la enfermedad, hay una posibilidad del 1 % de un falso negativo, esto
es:

Ahora, uno puede calcular lo siguiente:

La fracción de individuos en el grupo que están sanos y dan negativo:


La fracción de individuos en el grupo que están enfermos y dan
positivo:

La fracción de individuos en el grupo que dan falso positivo:

La fracción de individuos en el grupo que dan falso negativo:

Además, la fracción de individuos en el grupo que dan positivo:

Finalmente, la probabilidad de que un individuo realmente tenga la


enfermedad, dado un resultado de la prueba positivo:

En este ejemplo, debería ser fácil ver la diferencia entre las


probabilidades condicionadas P (positivo | enfermo) (que es del 99 %) y P
(enfermo | positivo) (que es del 50 %): la primera es la probabilidad de que
un individuo enfermo dé positivo en la prueba; la segunda es la probabilidad
de que un individuo que da positivo en la prueba tenga realmente la
enfermedad. Con los números escogidos aquí, este último resultado
probablemente sería considerado inaceptable: la mitad de la gente que da
positivo en realidad está sana.
La probabilidad de tener una enfermedad rara es de 0,001:

La probabilidad de que cuando el paciente está enfermo se acierte en


el diagnóstico es de 0,99:

La probabilidad de falso positivo es de 0,05:

Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay de


que tenga la enfermedad?

También podría gustarte