Está en la página 1de 65

Cálculo de Probabilidades

Estela Sánchez Rodríguez


Departamento de Estadística e Investigación Operativa.
Universidad de Vigo
e-mail: esanchez@uvigo.es

Curso 2020/2021
Guía docente:

Experimento aleatorio. Definición frecuentista y axiomática de


Probabilidad. Regla de la Adición. Probabilidad condicionada.
Probabilidades totales y teorema de Bayes. Independencia de
sucesos. Asignación de probabilidades. Aplicaciones en
Biología: test diagnósticos, riesgo relativo y odds ratio.
Contenidos:

Introducción

Definiciones probabilidad

Regla de la adición

Probabilidad condicionada

Regla del producto

Probabilidades totales y Bayes

Independencia de sucesos

Asignación de probabilidades

Aplicaciones
Probabilidad

La teoría de la probabilidad es la disciplina que estudia las


propiedades de los modelos matemáticos de los
fenómenos aleatorios

Ejemplo: Supongamos que tenemos una nueva vacuna para


insensibilizar a los pacientes contra la gripe A. De 200
individuos vacunados, 180 han presentado menos síntomas.
Entonces,
180
p= = 0.90
200
Diríamos que la vacuna es eficaz en el 90 % de los casos de la
muestra considerada.

0≤p≤1
Experimento aleatorio

I Los experimentos deterministas son aquellos que si se


realizan del mismo modo se obtienen los mismos
resultados, debido a que el principio de causalidad que los
rige es una ley
I Ejemplos de experimentos deterministas son todos los
fenómenos que siguen las leyes de la física clásica, como
por ejemplo la caída libre de un cuerpo. Podríamos pensar
que bajo unas condiciones dadas de temperatura,
humedad,..., la caída de un cuerpo dado se producirá
siempre en el mismo tiempo y en el mismo lugar
I Un experimento es aleatorio o estocástico si verifica los
siguientes postulados:
I Se puede repetir las veces que se quiera
I No se puede predecir el resultado con certeza
I Se conocen todos los resultados con antelación
Ejemplos

I Número de individuos que contraen la gripe en un día


I Tiempo de supervivencia de un enfermo de una cierta
enfermedad
I Peso de un recién nacido
I Tiempo de reacción ante un estímulo auditivo
I Número de reactivos defectuosos en la producción de un
día
I Tiempo que tarda en realizarse un test
I Tiempo que tardamos en pescar un pez de una especie
determinada
Población y Espacio Muestral
I Población
Conjunto de elementos homogéneos en los que desea
investigar la ocurrencia de una característica.
I Puede ser finita (por ejemplo, 20 cultivos de laboratorio) o
conceptualmente infinita (por ejemplo, el conjunto de
cultivos analizados con una máquina en toda la vida útil de
la misma).
I Espacio muestral y sucesos
I El espacio muestral es el conjunto de resultados posibles
del experimento. Se conoce como suceso seguro y lo
denotaremos por Ω 1 .
I Un suceso elemental es cada uno de los posibles
resultados de un experimento aleatorio (siempre ocurre
alguno de ellos y son mutuamente excluyentes, i.e. la
ocurrencia de uno implica la no ocurrencia de los demás).
I Un suceso es cada uno de los posibles subconjuntos del
espacio muestral. Por tanto, cada suceso se puede
construir a partir de la unión de sucesos elementales.
1
Para designar al suceso imposible usaremos el conjunto vacío, ∅.
Experimentos y Sucesos

I Experimento: lanzamiento de un dado.


I Sucesos elementales: {1, 2, 3, 4, 5, 6}
I Sucesos:
A: “salir par” = {2, 4, 6}
B “múltiplo de 3” ={3, 6}
I Experimento: contar el número de averías de una
máquina en un mes
I Sucesos elementales: {0, 1, 2, 3, . . .}
I Sucesos:
A: “Que haya más de 10 averías”
B : “Que haya entre 5 y 15 averías”
Dos sucesos son incompatibles si son disjuntos como
conjuntos, i.e. si A ∩ B = ∅
Por ejemplo, salir par y salir impar en el primer experimento.
Operaciones con sucesos

Las de los conjuntos (uniones, intersecciones,


complementarios,...)

A∪B A∩B A\B

Complementario de un suceso: A = Ω\A

A=A

Leyes de De Morgan:

A∩B =A∪B
A∪B =A∩B

Si aplicamos complementarios: A ∩ B = A ∪ B, A ∪ B = A ∩ B
Descomposición del suceso unión como unión disjunta de
sucesos

Dados dos sucesos A y B, podemos expresar:

A = (A ∩ B) ∪ (A ∩ B)

B = (B ∩ A) ∪ (B ∩ A)

Así,

A ∪ B = (A ∩ B) ∪ (A ∩ B) ∪ (B ∩ A)
Representa las anteriores igualdades con diagramas de Venn
(fíjate en las uniones disjuntas)
Definición de probabilidad
I Un hecho comprobable empíricamente es que la
frecuencia relativa de aparición de un suceso, tiende, al
aumentar el número de observaciones, hacia un valor
constante. Esta propiedad fue inicialmente descubierta
para los juegos de azar (lanzamiento de una moneda y
probabilidad de cara o cruz).
I Un ejemplo de cálculo de probabilidades usando la
experimentación lo llevó a cabo Mendel con miles de
plantas de guisantes, que fueron cruciales para formular
las leyes que llevan su nombre.
En el siglo XIX se definió como el valor límite de su
frecuencia relativa al repetir indefinidamente la
experimentación.
Sea A un suceso, n el número de veces que repetimos el
experimento y nA el número de veces que se da el suceso A,
entonces fr (A) = nnA
P(A) = limn→∞ fr (A)
fr

0,75

0,5

0,25

5 50 100 150 200 n

Figura: Frecuencias relativas de salir cara en 200 tiradas de una


moneda.
I En espacios finitos, el cálculo de la frecuencia relativa
puede ser simple, pero cuando la población es
conceptualmente infinita surge la dificultad de calcular la
frecuencia relativa.
I En los años 30 se introdujo de forma axiomática, dentro de
la teoría general de la medida:

P : A → [0, 1]

P(A) representa una medida de la incertidumbre del


suceso A
σ álgebra

Concepto matemático que captura la información que se puede


conocer al realizar un experimento aleatorio.
I A es una σ álgebra de sucesos (colección de sucesos
verificando determinados axiomas).
I ∅∈A
I A ∈ A entonces Ac ∈ A
I Aj ∈ A, j = 1, 2, . . . entonces ∪j Aj ∈ A
I Si Ω finito: A podría ser el conjunto de todos los posibles
subconjuntos de Ω o bien A = {∅, A, Ac , Ω} (siendo A un
suceso).
I Si Ω = R, A: σ álgebra de Borel (la generada por todos los
intervalos (a, b] con a < b).
Definición de probabilidad

Al espacio (Ω, A, P) se le denomina espacio probabilístico.

0 ≤ P(A) ≤ 1, A ∈ A

A XIOMAS (def. RAE cada uno de los principios fundamentales


e indemostrables sobre los que se construye una teoría.):
Axioma I P(Ω) = 1
Axioma II {Ai }∞
i=1 sucesos tales que Ai ∩ Aj = ∅ si i 6= j ,


[ ∞
X
P( Ai ) = P(Ai )
i=1 i=1
Consecuencias de los axiomas

De los axiomas anteriores se deducen:


1. P(∅) = 0
2. La probabilidad de la unión finita de sucesos mutuamente
excluyentes es la suma de las probabilidades de los
sucesos.
3. P(A) = 1 − P(A)
4. A ⊂ B entonces P(A) ≤ P(B). Propiedad de Monotonía.
5. Regla de la adición
Sean A y B dos sucesos

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)


Demostración de la regla de la adición
Se basa en el hecho de romper los sucesos en uniones
disjuntas (representar con diagramas de Venn) Sabemos que

A = (A ∩ B) ∪ (A ∩ B), B = (A ∩ B) ∪ (B ∩ A)

A ∪ B = (A ∩ B) ∪ (A ∩ B) ∪ (B ∩ A)

P(A) = P(A ∩ B) + P(A ∩ B), P(B) = P(A ∩ B) + P(B ∩ A)

P(A ∪ B) = P(A ∩ B) + P(A ∩ B) + P(B ∩ A)


= P(A ∩ B) + P(A) − P(A ∩ B) + P(B) − P(A ∩ B)
= P(A) + P(B) − P(A ∩ B)
Regla de la adición generalizada

n
[ n
X X X
P( Ai ) = P(Ai ) − P(Ai ∩ Aj ) + P(Ai ∩ Aj ∩ Ak ) − . . .
i=1 i=1 i<j i<j<k
n
\
n+1
(−1) P( Ai )
i=1

I Regla de la adición para tres sucesos A, B, C

P(A ∪ B ∪ C) =
P(A)+P(B)+P(C)−P(A∩B)−P(A∩C)−P(B∩C)+P(A∩B∩C)
Ejemplo

Tres características A, B y C de los individuos de una población


se presentan en las siguientes proporciones: A (tener ojos
marrones) en el 62 %; B (ser varón) en el 92 %; C (tener entre
40 y 50 años) en el 11 %; A y B en el 60 %; A y C en el 6 %; B y
C en el 11 %; A, B y C en el 6 %. Calcula la probabilidad de que
elegido un individuo de la población:
1. Presente alguna de las tres características.
2. No presente ninguna característica.
3. Presente exactamente dos de las tres características.
4. Presente una sola característica.

AB̄ C̄ ĀB C̄
AB C̄

ABC
AB̄C ĀBC

ĀB̄C
A∪B∪C

Figura: Diagrama de Venn para tres sucesos (ĀBC = Ā ∩ B ∩ C).


Resolución:

La σ álgebra de sucesos viene dada por las uniones,


intersecciones y complementarios de los tres sucesos A, B, C.
a) P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩
C) − P(B ∩ C) + P(A ∩ B ∩ C) = 0.94
b) P(A ∩ B ∩ C) = P(A ∪ B ∪ C) = 1 − P(A ∪ B ∪ C) = 0.06
c) P(A ∩ B ∩ C) + P(A ∩ B ∩ C) + P(A ∩ B ∩ C) = 0.59
I P(A ∩ B ∩ C) = P(A ∩ B) − P(A ∩ B ∩ C) = 0.6 − 0.06 = 0.54
I P(A ∩ B ∩ C) = P(A ∩ C) − P(A ∩ B ∩ C) = 0.06 − 0.06 = 0
I P(A∩B ∩C) = P(B ∩C)−P(A∩B ∩C) = 0.11−0.06 = 0.05
d) P(A ∩ B ∩ C) + P(A ∩ B ∩ C) + P(A ∩ B ∩ C) =
0.02 + 0.27 + 0 = 0.29
Probabilidad condicionada
Es frecuente trabajar en subconjuntos de un espacio muestral
dado. Por ejemplo en el colectivo de personas que padecen
una determinada enfermedad o en el colectivo de aquellos
individuos que tienen colesterol y cuya edad está entre 50 y 60
años.
Sea B un suceso tal que P(B) > 0

P(A ∩ B)
P(A|B) =
P(B)

Es trivial comprobar que está entre 0 y 1.


De modo análogo se definirían, por ejemplo:

P(A ∩ B ∩ C)
P(A|(B ∩ C)) =
P(B ∩ C)
y
P(A ∩ B ∩ C)
P((A ∩ B)|C)) =
P(C)
Regla del producto

A y B sucesos tal que P(A) > 0 y P(B) > 0

P(A ∩ B) = P(A)P(B|A)
= P(B)P(A|B)

R EGLA DEL PRODUCTO GENERALIZADA: T


{Ai }ni=1 colección de sucesos tal que: P( n−1
i=1 Ai ) > 0

n
\ n−1
\
P( Ai ) = P(A1 )P(A2 |A1 )P(A3 |(A1 ∩ A2 )) . . . P(An | Ai )
i=1 i=1

n−1
\ n−2
\
Nota: Ai ⊂ Ai ⊂ . . . ⊂ (A1 ∩ A2 ) ⊂ A1
i=1 i=1
Teorema de Probabilidades Totales
Sea {Bi }ni=1 una partición de Ω (∪ni=1 Bi = Ω, Bi ∩ Bj = ∅ si i 6= j)
tal que P(Bi ) > 0, entonces
n
X
P(A) = P(Bi )P(A|Bi )
i=1


B2 Ā B1 Ā

B2 A B1 A

B3 A

B3 Ā

Figura: Diagrama de Venn de una partición {B1 , B2 , B3 } de Ω y un


suceso A.
Demostración:

n
[ n
[ n
X
P(A) = P(A ∩ Ω) = P(A ∩ ( Bi )) = P( (A ∩ Bi )) = P(A ∩ Bi )
i=1 i=1 i=1
n
X
= P(Bi )P(A|Bi )
i=1

Nota: (A ∩ Bi ) ∩ (A ∩ Bj ) = ∅ si i 6= j.
Teorema de Bayes

En las condiciones del teorema anterior:


I {Bi }ni=1 una partición de Ω (∪ni=1 Bi = Ω, Bi ∩ Bj = ∅ si i 6= j)
tal que P(Bi ) > 0
I Sea A suceso tal que P(A) > 0

P(Bi )P(A|Bi )
P(Bi |A) = n
i = 1, . . . , n
X
P(Bi )P(A|Bi )
i=1
Ejemplo

En un parque natural, hay tres sectores donde están recogidos


diversos ejemplares de aves marinas afectadas por un vertido
tóxico: el primero tiene 1000 ejemplares, el segundo 2250 y el
tercero 300. Se sabe que, de entre esos ejemplares, el 6.5 %,
8 % y el 11 %, respectivamente, presentan malformaciones en
el pico a causa del vertido. Halla la probabilidad de que al
examinar un ave al azar:
1. no presente malformaciones.
2. si tiene el pico deformado, provenga del segundo o del
tercer sector.
3. un ave elegida al azar no presente deformaciones y
proceda del primer sector.
Resolución
Denotamos por M : ave con malformación y por Si : ave
procede del sector i (i = 1, 2, 3). Sabemos que el espacio
muestral está formado por todas las aves marinas. Además,
Ω = S1 ∪ S2 ∪ S3 y que Si ∩ Sj = ∅ para i 6= j.
De los datos del problema podemos deducir:

1000 2250 300


P(S1 ) = , P(S2 ) = , P(S3 ) =
3550 3550 3550
Además, las probabilidades de malformación en los sectores
son:

P(M|S1 ) = 0.065, P(M|S2 ) = 0.08, P(M|S3 ) = 0.11


1. Aplicando
Pel teorema de probabilidades totales,
P(M) = 3i=1 P(Si )P(M|Si ) = 0.9217.
2. Aplicando la regla de la adición, P((S2 ∪ S3 )|M) =
P(S2 |M) + P(S3 |M) = P(S2P(M)
)P(M|S2 )
+ P(S3P(M)
)P(M|S3 )
= 0.7662.
3. Aplicando la regla del producto,
1000
P(M ∩ S1 ) = P(S1 )P(M̄|S1 ) = 3550 (1 − 0.065) = 0.2634.
Ejemplo

Una población de estudio de patos coloreados y ánsares


comunes se encuentra dividida en tres recintos: el R1 que
contiene 5 patos coloreados y 5 ánsares comunes; el recinto
R2 que contiene 1 pato coloreado y 9 ánsares comunes; y el
recinto R3 que alberga 8 patos coloreados y 2 ánsares
comunes. Queremos elegir un ave al azar, para lo cual primero
escogemos aleatoriamente el recinto con probabilidades del
25 % para las zonas R1 y R2 y del 50 % para la R3 . Designemos
por A el suceso “el ave elegida es un pato coloreado”, por lo
que Ā es el suceso “el ave elegida es un ánsar común”.

P(A) = P(R1 ∩ A) + P(R2 ∩ A) + P(R3 ∩ A)


= P(R1 )P(A|R1 ) + P(R2 )P(A|R2 ) + P(R3 )P(A|R3 )
11 1 1 14 11
= 42 + 4 10 + 25 = 20 = 0.55.
La probabilidad de elegir un ánsar común es:
9
P(Ā) = 1 − P(A) = 20 = 0.45

Aplicando el teorema de Bayes, podemos calcular la


probabilidad de que el ave se haya elegido del recinto R3
sabiendo que salió un ánsar común.
1 2
P(R3 ∩ Ā) 2 10 2
P(R3 |Ā) = = 9
= 9 = 0.222.
P(Ā) 20
Supongamos ahora que se realiza una segunda elección de
una de las aves, sin haber devuelto la primera a su recinto.
Denotemos por B el suceso “el ave elegida es la segunda
elección es un pato coloreado”. Obviamente, B̄ es el suceso “el
ave elegida en la segunda elección es un ánsar común”.
Probabilidad de que las dos aves elegidas sean patos
coloreados:

P(A ∩ B) =
= P(R1 ∩ A ∩ B) + P(R2 ∩ A ∩ B) + P(R3 ∩ A ∩ B)
= P(R1 )P(A|R1 )P(B|(R1 ∩ A)) + P(R2 )P(A|R2 )P(B|(R2 ∩ A))
+ P(R3 )P(A|R3 )P(B|(R3 ∩ A)
1 5 4 1 1 1 8 7 11
= 4 10 9 + 4 10 + 2 10 9 = 30 = 0.367.
De forma similar calcularíamos la probabilidad de que la
primera ave fuese un un ánsar común y la segunda un pato
coloreado,
1 5 5 1 9 1 1 2 8 11
P(Ā ∩ B) = 4 10 9 + 4 10 9 + 2 10 9 = 60 = 0.183

Para calcular la probabilidad de que la segunda ave elegida


sea un pato coloreado fijémonos en que hay dos posibilidades:
que la primera ave fuese un pato coloreado o que la primera
fuese un ánsar común. Por tanto,
11 11
P(B) = P(A ∩ B) + P(Ā ∩ B) = 30 + 60 = 0.55
Finalmente, si suponemos que se realiza una segunda
elección de una de las aves pero habiendo devuelto la primera
ave a su recinto, entonces,
1 5 5 1 1 1 1 8 8 77
P(A ∩ B) = 4 10 10 + 4 10 10 + 2 10 10 = 200 = 0.385.
1 5 5 1 9 1 1 2 8 33
P(Ā ∩ B) = 4 10 10 + 4 10 10 + 2 10 10 = 200 = 0.165
77 33 110
P(B) = 200 + 200 = 200 = 0.55.
Independencia de sucesos

I Dos sucesos A y B de un espacio Ω, tales que


P(A) > 0, P(B) > 0 se dicen independientes si
P(A|B) = P(A) o P(B|A) = P(B), ó equivalentemente

P(A ∩ B) = P(A)P(B)

I Una colección de sucesos {Ai }ni=1 se dice que son


mutuamente independientes si para Q cualquier subfamilia
finita {Aij }sj=1 de {Ai }ni=1 , P(∩sj=1 Aij ) = sj=1 P(Aij ).
I Una colección de sucesos {Ai }ni=1 se dice que son
independientes dos a dos si P(Ai ∩ Aj ) = P(Ai )P(Aj )
para todo i 6= j, con i, j ∈ {1, . . . , n}.
Sucesos mutuamente independientes

Los sucesos A, B, C son mutuamente independientes si se


verifica que:

P(A∩B) = P(A)P(B), P(A∩C) = P(A)P(C), P(B∩C) = P(B)P(C)

y
P(A ∩ B ∩ C) = P(A)P(B)P(C)

I En los temas de inferencia habitualmente se habla de


sucesos independientes entendiendo que son
mutuamente independientes.
I Ejemplo: talla y peso pueden ser suceso dependientes, sin
embargo peso y color de los ojos serán independientes.
Ejemplo

Comprueba que en el primer caso los sucesos son


mutuamente independientes y en el segundo son
independientes dos a dos, pero no lo son mutuamente.

Figura: Dos ejemplos con tres sucesos A, B, C


Asignación de probabilidades: caso finito

Asignación equiprobable. Regla de Laplace


Ω = {w1 , w2 , . . . , wn }.

casos favorables A
P(A) =
casos posibles

Ejemplo: Ω = {1, 2, 3, 4, 5, 6}. Sea A : salir impar

3
P(A) =
6
Asignación de probabilidades: Caso infinito numerable

Sea Ω = {w1 , w2 , . . .}, no puede haber asignación


equiprobable dado que

X
P(wi ) = 1
i=1

Ejemplo: Experimento lanzamiento de una moneda hasta


obtener la primera cruz (ó lanzar la caña hasta obtener la
primera captura).
Suceso Ai la primera cruz sale en la tirada i.
P(A1 ) = 12 ; P(A2 ) = P(c+) = 12 21 = 14 ; P(A3 ) = 213 , P(Ai ) =
1
2i
, i = 1, . . .
1 1
De esta forma, ∞
P P1
i=1 P(Ai ) = 1 = 1.
2 2
2i = 1− 1 =
2 2
Asignación de probabilidades: Caso infinito no numerable

Probabilidades geométricas. Sea Ω el conjunto de números


reales ó un intervalo (lo mismo en el plano o en el espacio)

medida de A
P(A) =
medida de Ω

Nota: P(A) = 0 no implica A = ∅ (ejemplo: una línea o un punto


en R2 ).
Ejemplos
I ¿Cuál es la probabilidad de elegir un número entre 0 y 1
menor que 0.5 ?
Sea Ω = (0, 1] y A = (0, 0.5]. Entonces,

medida de A 0.5
P(A) = = = 0.5.
medida de Ω 1
I ¿Cuál es la probabilidad de tirar un dardo en un círculo de
radio 1, si la diana tiene radio 3?
Sea Ω = {(x, y ) ∈ R2 : x 2 + y 2 = r 2 } y
A = {(x, y ) ∈ R2 : x 2 + y 2 = r0 2 }. Entonces,

medida de A πr0 2 r0 2
P(A) = = = .
medida de Ω πr 2 r2
En nuestro caso concreto r0 = 1 y r = 3. Por tanto,
P(A) = 19 .
De modo similar podríamos calcular la probabidad de que
un barco estuviese en un zona determinada del Pacífico.
Aplicaciones

Consideremos el experimento aleatorio de lanzar dos dados


(que se practica en algunos juegos de mesa). Calcula la
probabilidad de que la suma sea 4. Interpreta la probabilidad
obtenida.
Lo primero que debemos considerar es cuál es el espacio
muestral. En nuestro caso es, Ω = {(i, j) : 1 ≤ i, j ≤ 6}.
Construimos la tabla que nos da las distintas sumas posibles
con los dos dados:
D1 /D2 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
Cada tirada en el dado D1 y D2 tiene la misma probabilidad.
Para que la suma sea 4, o bien ocurrió el par (1, 3) ó el par
(3, 1) ó el par (2, 2). Por tanto,

3
P(A) = = 0.083.
36
Si repetimos el experimento, a la larga, cabe esperar que
en el 8.3 % de las veces obtengamos una suma de 4.

Observando la tabla tenemos que el 7 es el valor que más


6
aparece y su probabilidad es 36 = 0.167.
En un supermercado hay cuatro colas atendidas por cuatro
cajeras igualmente eficientes. Un cliente se coloca al azar en
una de las cuatro colas. ¿Cuál es la probabilidad de que la cola
escogida no sea la más rápida?

Suceso Ai la cola i es la más rápida. Eliminando las


posibilidades de empate, Ω = {A1 , A2 , A3 , A4 }. Entonces,

1
P(Ai ) =
4
Supongamos que un cliente elige la cola i, entonces,

3
P(Ai ) = 1 − P(Ai ) =
4

Así, el 75 % de los días observará que alguna otra cola va


más rápida
¿Qué ocurre a medida que aumenta el número de colas?
La fiabilidad de un sistema es la probabilidad de que funcione
satisfactoriamente. Supongamos que tiene 50 componentes y
que para que el sistema funcione tienen que funcionar todos
correctamente. La probabilidad de que cada componente
funcione después de 100 horas es de 0,99 y los componentes
se averían independientemente. ¿Cuál es la fiabilidad del
sistema después de 100 horas?
Ai : el componente i funciona después de 100 horas de
funcionamiento.

P(∩50
i=1 Ai ) = 0.99
50
= 0.605

Fijémonos que aunque la fiabilidad de cada componente sea


alta, la fiabilidad del sistema puede ser baja. Para aumentar la
fiabilidad podemos disponer de varios sistemas en paralelo.
Para aumentar la fiabilidad podemos disponer de varios
sistemas en paralelo. En el caso anterior el sistema estaba
formado por 50 componentes instaladas en serie.
¿Cuánto valdría la fiabilidad a las 100 horas si instalamos dos
sistemas como el anterior en paralelo (que se averíen
independientemente)?

P(S1 ∪S2 ) = P(S1 )+P(S2 )−P(S1 ∩S2 ) = 2×0.605−(0.605)2 = 0.844

¿Y si hubiera instalados tres sistemas en paralelo?

P(S1 ∪ S2 ∪ S3 ) = P(S1 ) + P(S2 ) + P(S3 ) − P(S1 ∩ S2 )


− P(S1 ∩ S3 ) − P(S2 ∩ S3 ) + P(S1 ∩ S2 ∩ S3 )
= 3 × 0.605 − 3 × 0.6052 + 0.6053 = 0.9384.

Como ejercicio alternativo, ¿cuál sería la fiabilidad del sistema


si la fiabilidad de cada pieza fuese de 0.9? ¿Y si fuese de 0.5?
La paradoja de Monty Hall

Un concursante debe elegir entre tres puertas, detrás de una


de las cuales se encuentra un premio importante. Hecha la
elección y antes de abrir la puerta, el presentador le muestra
que en una de las dos puertas no escogidas no está el premio.
¿Qué debe hacer el concursante?

I ¿Cuál es la probabilidad de ganar si cambia de puerta?


I ¿Cuál es la probabilidad de ganar si mantiene su elección
inicial?
Observamos que este experimento tiene tres momentos de
aleatoriedad, el primero en dónde esconden el premio, el
segundo, la casilla que escoge el concursante, y el tercero, la
casilla que destapa el presentador (si el concursante acertó en
el primer intento podrá destapar dos, pero si el concursante
falló sólo podrá destapar una de ellas). Además, como suele
ocurrir, el concursante no tiene información extra de dónde
puede ocultarse el premio, pero el presentador sabe
exactamente la casilla en la que está escondido.
Un juego de monedas

El juego consiste en tirar sucesivamente una moneda hasta


que gana uno de los dos jugadores. Uno apuesta a la
combinación cc y otro a la combinación +c. Dicha combinación
ha de aparecer de manera consecutiva.
¿Hay la misma probabilidad de ganar siendo el jugador 1 que
el 2?
I Aparentemente podríamos pensar que ambos jugadores
tienen la misma probabilidad de ganar, sin embargo
analizando el juego observamos fácilmente que para que
gane la combinación cc tiene que salir la primera cara y a
continuación la segunda cara, es decir la probabilidad es
de 14 . Si sale la primera cruz + entonces ya gana el
segundo jugador, a la siguiente tirada (si sale cara) o en
más de una tirada (por ejemplo, ++++++++c). La
probabilidad de ganar para el segundo jugador es 43 .
Genética y Leyes de Mendel

I En los experimentos de Mendel con guisantes de dos


tipos, lisos o rugosos, el fenotipo está controlado por dos
alelos, uno dominante, A y otro recesivo a.
I La primera ley de Mendel establece que el cruce de dos
individuos homocigóticos, AA y aa, origina sólo individuos
heterocigóticos, es decir, los individuos de la primera
generación filial tienen todos el mismo fenotipo (Aa). En el
caso de los guisantes, piel lisa es dominante sobre piel
rugosa, y por tanto al cruzar uno de piel lisa con uno de
piel rugosa se obtienen guisantes con fenotipo liso, pero
portadores del carácter rugoso.
Cruce Descendientes
AA × aa Aa, Aa, Aa, Aa

En este caso, Ω = {Aa}, y por tanto obtenemos el 100 % de


guisantes lisos.
I La segunda ley de Mendel establece que al cruzar dos
individuos de la primera generación filial (Aa), la
proporción de individuos en los que se manifiesta el
dominante (piel lisa, en el ejemplo de los guisantes) es del
75 % frente al 25 % en los que se manifiesta el recesivo
(piel rugosa).
Cruce Descendientes
Aa × Aa AA, Aa, aA, aa

En este caso, Ω = {AA, Aa, aA, aa}, y teniendo en cuenta que


A es dominante sobre a, el 75 % serán lisos y el 25 % serán
rugosos.
I Otro ejemplo similar es el grupo sanguíneo humano que
viene determinado por tres alelos diferentes, A, B y 0. En
este caso, A y B son dominantes sobre el 0, que es un
alelo recesivo. Además A y B son codominantes entre sí,
es decir, se manifiestan ambos.
I De este modo, los distintos grupos sanguíneos y genotipos
son los siguientes:

Grupo AB A B 0
Genotipo AB A0 B0 00

Así, por ejemplo, si la madre es del grupo AB y el padre es del


grupo 0 entonces hay una probabilidad del 50 % de que los
descendientes sean del grupo A y también del 50 % de que
sean del grupo B.

Cruce Descendientes
AB × 00 A0, A0, B0, B0
De esta forma se puede hacer una comprobación sencilla de
paternidad o maternidad en algunos casos, por ejemplo, si el
hijo de la pareja anterior fuese del grupo AB significaría que
uno de los progenitores no podría ser del grupo 0.
I El sexo del descendiente también se determina de manera
sencilla mediante los cruces XX con XY , lo que nos da un
50 % de hombres y un 50 % de mujeres.

Cruce Descendientes
XX × XY XX , XY , XX , XY
La Paradoja de Simpson

Consideremos las siguientes tablas de frecuencias.


Variables en consideración: X : tratamiento (A ó B), Y : individuo
sobrevive (S) o muere, Sexo: hombre (H) o mujer (M) .

H Sobrevive Muere
A 36 64 100
B 450 550 1000
486 614 1100
M Sobrevive Muere
A 600 400 1000
B 65 35 100
665 435 1100
Tabla agrupada, conjuntamente para hombres y mujeres

Sobrevive Muere
A 636 464 1100
B 515 585 1100
1151 1049 2200

Cálculos:

36 45
P(S|(A ∩ H)) = < P(S|(B ∩ H)) =
100 100

60 65
P(S|(A ∩ M)) = < P(S|(B ∩ M)) =
100 100

636 515
P(S|A) = = 0.578 > P(S|B) = = 0.4681
1100 1100
Conclusiones paradoja

I ¡¡¡En los grupos es mejor el tratamiento B y globalmente


es mejor el A !!!
I En este ejemplo, la explicación está en que aunque
tenemos el mismo número de mujeres que hombres, los
grupos no son homogéneos, muchos hombres son
sometidos al tratamiento B y muchas mujeres son
sometidas al tratamiento A.
I El problema radica en que en una misma tabla será
posible, en muchas ocasiones, encontrar un desglose por
una tercera variable (por ejemplo por grupo de edad, por
raza,...) en el que aparezca de nuevo la paradoja de
Simpson
I Solución: Diseñar el experimento lo mejor posible para
evitar la paradoja
Test diagnósticos y coeficientes

I Un test de diagnóstico es un test para detectar la


presencia de una condición (enfermedad, factor genético,
embarazo, presencia de colesterol,...)
I Sería deseable que los test funcionaran de modo que
detectaran siempre la condición si está presente y no la
detectaran si no lo está, pero esto en la práctica no es así
I Hay dos tipos de errores:
I Coeficiente de falsos positivos:

α = P(test + |no condicion)

I Coeficiente de falsos negativos:

β = P(test − |condicion)
Test diagnósticos y coeficientes

I Las repercusiones de dichos coeficientes son importantes


I Si la primera probabilidad es alta (y la condición fuera, por
ejemplo, ’estar enfermo’) generaría costes en aplicar
tratamientos a individuos sanos
I Si es alta la segunda no se aplicaría tratamiento a
individuos que lo necesitan

A partir de estos coeficientes se definen:


I Especificidad del test:

P(test − |no condicion) = 1 − α

I Sensibilidad del test:

P(test + |condicion) = 1 − β
Ejemplo

Gen No gen
Test + 97 8
Test - 3 67

I α = P(test + |no condicion) = 8


75 = 0.107
I Especificidad = 0.893
I β = P(test − |condicion) = 3
100 = 0.03
I Sensibilidad = 0.97
Riesgo relativo y Odds ratio

I Supongamos que tenemos dos muestras. Una, denotada


mediante F , consiste en individuos sometidos a un factor
de riesgo, la otra, NF denota a individuos no sometidos al
factor de riesgo.

I Si identificamos a los individuos según tengan o no una


condición (estar enfermo, presentar un factor genético,...),
interesa comparar P(C|F ) con P(C|NF ).
Se define riesgo relativo como

P(C|F )
RR =
P(C|NF )

El riesgo relativo es el cociente entre el riesgo en el grupo de


factor sobre el riesgo en el grupo de referencia.
I Si RR = 1 no existe asociación entre el factor de riesgo y
la condición
I Si RR > 1 el individuo expuesto al riesgo tiene mayor
probabilidad de presentar la condición
I Si RR < 1 la probabilidad es menor
Los factores de riesgo pueden ser la edad, el sexo, el estar
expuesto a factores contaminantes,...
I ¿Qué significa que el riesgo relativo sea 4?
I ¿Qué significa que el riesgo relativo sea 0.5?
Ejemplo

Calcula e interpreta el riesgo relativo en la siguiente tabla (el


factor es ”ser fumador” y la condición ”padecer una
enfermedad”). Se recoge información de 100 individuos que se
clasifican en las distintas categorías

Condición / Factor NF F (factor)


Enfermo 10 15
No enfermo 50 25
Total 60 40
15
P(E|F ) 40
RR = = 10
= 2.25
P(E|NF ) 60
Hay un riesgo 2.25 veces mayor de padecer la enfermedad si
se es fumador.
Odds Ratio
La ODDS RATIO o razón de disparidades compara las ODDS
(disparidades) en el grupo de factor y en el grupo de referencia.

ODDS factor P(C|F )/P(C̄|F )


ODDS RATIO = = .
ODDS nofactor P(C|F̄ )/P(C̄|F̄ )

I La odds en el factor (respectivamente, no factor) consiste


en comparar la probabilidad de ocurrir frente a la
probabilidad de no ocurrir en los individuos expuestos al
factor (respectivamente, no factor)
I Si la odds ratio es 1 no hay asociación entre el factor y lo
que se mide
I Si es mayor que 1 significa que existe más riesgo
(entendido como comparación entre tener la condición y
no tenerla) en el grupo que presenta el factor
I Si es menor que 1, existe menos riesgo en el grupo que
presenta el factor
Ejemplo cálculo Odds Ratio

Condición / Factor NF F (factor)


Enfermo 10 15
No enfermo 50 25
Total 60 40
15/40
ODDS factor 25/40 15×50
ODDS RATIO= ODDS nofactor = 10/60 = 10×25 =3
50/60

I En un diseño caso-control se selecciona una muestra de


individuos con la enfermedad (casos) y una muestra de
individuos sanos (controles). Se utiliza la odds ratio como
medida de riesgo
I En un diseño cohorte se selecciona una muestra de
individuos de acuerdo al factor y se espera hasta ver si
desarrollan la enfermedad. En estos diseños se puede
utilizar el riesgo relativo o la odds ratio
Simulaciones con Excel (ejercicios optativos)

I Simula el lanzamiento de una moneda 10 veces (cara, 0;


cruz, 1) en una hoja de cálculo (repite con 100, 500 y 1000
lanzamientos).
Los pasos a seguir, de manera abreviada, son los
siguientes:
I Función: = ALEATORIO()
I Función condicional: = SI(D5 < 0.5; 0; 1)
I Construcción de tabla de frecuencias
I Representación gráfica: diagrama de barras, columnas ó
sectores
I Cálculo de la probabilidad estimada
¿Qué ocurre a medida que se repite el experimento más
veces?
Simulaciones con Excel (ejercicios optativos)

I Simula el lanzamiento de un dado (1000 lanzamientos) de


6 caras equiprobables y el lanzamiento de un dado de 6
caras en el que el número 3 esté más cargado. Construye
las tablas de frecuencias, las representaciones gráficas y
las probabilidades estimadas.
I Caso equiprobable: Función =ALEATORIO.ENTRE(1,6)
I Caso no equiprobable: Función =ALEATORIO() y Función
condicional.
I Programa los coeficientes de los test diagnósticos, el
riesgo relativo y la odds ratio en un ejemplo. Observa
cómo cambian dichos coeficientes al variar los datos,
realizando las interpretaciones oportunas.

También podría gustarte