Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CURSO
ACTUALIZACIÓN
EN
ESTADÍSTICAS
Y
PROBABILIDADES
EN
EL
AULA
UNIDAD
3
¿Cuáles
son
las
probabilidades?
Como
vimos
al
final
del
módulo
anterior,
es
importante
saber
algo
de
probabilidades
para
entender
la
inferencia
estadística.
Consideremos
en
primer
lugar
el
problema
de
lanzar
una
moneda
un
cierto
número
de
veces.
En
un
experimento
virtual
(realizado
en
un
computador),
anotamos
la
proporción
de
caras
obtenidas
al
lanzar
n
monedas.
El
resultado
de
los
experimentos
para
n
entre
1
y
1.000
se
representa
gráficamente
a
continuación.
figura1
Notemos
que
para
cada
valor
de
n
se
trata
de
un
nuevo
experimento
y
no
de
una
continuación
del
anterior.
Se
puede
observar
cómo,
a
medida
que
lanzamos
más
veces
la
moneda,
la
proporción
de
caras
parece
“acercarse”
a
0,5,
sin
embargo
no
es
exactamente
0,5
y
sigue
variando
alrededor
de
ese
valor,
aún
después
de
muchos
lanzamientos.
Esta
es
la
interpretación
en
términos
de
frecuencia
relativa
de
lo
que
se
conoce
como
modelo
de
Laplace
de
probabilidades.
Decimos
entonces
que
la
probabilidad
de
obtener
una
cara
al
lanzar
la
moneda
es
0,5.
Hay
dos
casos
equiprobables
(suponemos
una
moneda
que
no
está
cargada)
y
si
consideramos
como
favorable
uno
de
ellos,
la
probabilidad
de
que
ocurra
es
½,
es
decir
(número
de
casos
favorables)
dividido
por
(número
de
casos
totales).
Si
lanzamos
la
moneda
1.000
veces
esperamos
obtener
cerca
de
500
caras,
pero
no
exactamente
500.
Veamos
el
caso
de
1.000
lanzamientos
de
otra
forma.
Repetimos
el
mismo
experimento
muchas
veces
y
anotamos
cuántas
veces
obtenemos
un
cierto
número
de
caras.
El
resultado
que
esperamos
obtener
con
más
frecuencia
es
500,
pero
también
499
o
501
debieran
tener
frecuencias
altas.
Repetimos
el
experimento
10.000
veces
(es
decir
hemos
simulado
el
lanzamiento
de
10
millones
de
monedas)
y
obtuvimos
figura2
En
este
gráfico
mostramos
el
número
de
veces
o
frecuencia
(eje
y)
que
obtuvimos
n
caras
(eje
x).
Observemos
que
de
las
10.000
veces
que
repetimos
el
experimento,
en
aproximadamente
250
de
ellas
obtuvimos
500
caras
y
en
la
gran
mayoría
de
ellas
obtuvimos
algún
número
entre
450
y
550
caras.
Haríamos
bien
en
apostar
que
el
número
de
caras
obtenidas
al
lanzar
la
moneda
1.000
veces
estará
entre
450
y
550,
pero
no
debiéramos
apostar
a
que
obtendremos
exactamente
500
caras.
Parece
que
la
probabilidad
de
esto
último
está
cerca
de
0,025.
Si
calculamos
el
promedio
del
número
de
caras
obtenidas
en
los
10.000
lanzamientos,
este
es
500,1483.
La
desviación
estándar
de
este
conjunto
de
datos
es
15,993.
Para leer más sobre el modelo de Laplace, vea el libro “Datos y azar” páginas 53 – 70.
Antes
de
tratar
de
entender
el
modelo
teórico
tras
la
figura2,
veamos
una
situación
simplificada.
Lanzaremos
una
moneda
3
veces
y
queremos
conocer
la
probabilidad
de
obtener
un
cierto
número
de
caras.
Para
poder
aplicar
el
modelo
de
Laplace,
debemos
conocer
todos
los
resultados
posibles
para
luego
identificar
los
favorables.
Anotemos
los
sellos
sy
las
caras
c.
Para
obtener
un
listado
de
casos
equiprobables,
resulta
importante
distinguir
el
orden
en
que
son
lanzadas
las
monedas,
es
decir
ssces
un
resultado
diferente
de
scs.
El
conjunto
completo
de
resultados
posibles
es
{sss,
css,
scs,
ssc,ccs,
csc,
scc,
ccc}.
Para
calcular
la
probabilidad
de
obtener
2
caras,
los
casos
favorables
son
3,
de
manera
que
la
probabilidad
es
3/8=0,375.
Este
método
puede
haber
resultado
conveniente
para
3
lanzamientos,
sin
embargo
no
podemos
aplicarlo
cuándo
lanzamos
1.000
veces
la
moneda.
Para
determinar
la
probabilidad
de
obtener
500
caras
al
lanzar
1.000
veces
la
moneda,
debemos
“contar”
el
número
de
casos
posibles
y
el
número
de
casos
favorables.
Por
el
principio
multiplicativo,
sabemos
que
el
número
de
casos
posibles
es
21.000
o
aproximadamente
1,07x10301.
El
número
de
casos
favorables
corresponde
con
el
número
de
maneras
en
que
podemos
ordenar
500
s
y
500
c.
Si
pensamos
en
posicionar
primero
las
c,
en
500
de
1.000
casillas
disponibles,
el
principio
multiplicativo
nos
dice
que
podemos
hacerlo
de
1.000x999x…x501=1000!/500!
maneras
si
distinguimos
el
orden
en
el
que
colocamos
las
c
en
los
casilleros.
Como
ese
orden
no
nos
importa,
debemos
dividir
por
el
número
de
maneras
de
ordenar
las
500
c,
es
decir
por
500!
Finalmente
la
probabilidad
de
obtener
exactamente
500
caras
al
lanzar
1.000
veces
la
moneda
es:
𝟏. 𝟎𝟎𝟎
𝟓𝟎𝟎 = 𝟏. 𝟎𝟎𝟎! ∙ 𝟏 ≈ 𝟎, 𝟎𝟐𝟓𝟐𝟐
𝟐𝟏.𝟎𝟎𝟎 𝟓𝟎𝟎! 𝟓𝟎𝟎! 𝟐𝟏.𝟎𝟎𝟎
Esto
es
bastante
parecido
al
resultado
experimental
obtenido
antes.
Para
una
explicación
detallada
del
método
para
contar
y
una
definición
del
símbolo
𝑛
combinatorio
,
veahttp://www.disfrutalasmatematicas.com/combinatoria/combinaciones-‐
𝑘
permutaciones.html.
Otro
ejemplo
clásico
donde
se
utiliza
el
modelo
de
Laplace
para
calcular
probabilidades,
es
el
lanzamiento
de
un
dado.
El
espacio
muestral,
es
decir
el
conjunto
de
los
resultados
posibles
es
!
{1,
2,
3,
4,
5,
6}.
Como
los
consideramos
equiprobables,
la
probabilidad
de
sacar
un
2
es
.
!
! !
También
podemos
calcular
la
probabilidad
de
obtener
un
número
par
como
= .
! !
En
general
los
eventos
posibles
no
son
equiprobables
y
debemos
generalizar
nuestra
idea
de
probabilidad.
Siguiendo
las
ideas
de
Kolmogorov,
lo
que
rescatamos
como
esencial
en
un
modelo
probabilístico
es
un
espacio
muestral
Ω
(eventos
posibles)
y
una
medida
(probabilidad)
definida
como
función
con
valores
reales
para
subconjuntos
de
Ω
(eventos)
que
satisface
ciertas
propiedades
(vea
Wikipedia
para
una
definición
precisa
en
general).
En
el
caso
de
que
el
conjunto
de
eventos
posibles
sea
finito,
estos
axiomas
se
traducen
en
que
cada
evento
tiene
una
probabilidad
mayor
o
igual
a
cero
y
la
suma
de
todas
las
probabilidades
es
exactamente
uno.
Probabilidad condicional
La
probabilidad
condicional
se
refiere
a
la
probabilidad
de
ocurrencia
de
un
evento
dada
información
parcial
sobre
el
resultado.
Se
escribe
P(A|B),
se
lee
“probabilidad
de
A
dado
B”
y
se
calcula
𝑃(𝐴 ∩ 𝐵)
𝑃 𝐴𝐵 =
𝑃(𝐵)
Podríamos
por
ejemplo
lanzar
un
dado
y
preguntar
sobre
la
probabilidad
de
que
muestre
un
número
par,
si
alguien
nos
informó
que
muestra
un
valor
mayor
a
3.
En
este
caso
el
evento
A
es
{2,
4,
6}
y
el
evento
B
es
{4,
5,
6}.
Como
𝐴 ∩ 𝐵 = {4, 6},
tenemos
!
! 2
𝑃 𝐴𝐵 = ! =
3
!
Y
también
podría
haberse
calculado
usando
directamente
el
modelo
de
Laplace,
restringido
al
espacio
B.
Inferencia Bayesiana
El
método
de
inferencia
Bayesiana
(vea
Wikipedia)
se
utiliza
para
calcular
la
probabilidad
de
un
evento
dada
una
probabilidad
base
(a
priori)
y
un
resultado
experimental.
Lo
que
obtenemos
se
llama
probabilidad
actualizada
(a
posteriori).
Para
facilitar
la
comprensión
del
método,
analizaremos
tres
casos
diferentes
de
una
persona
que
se
realiza
un
cierto
análisis
para
determinar
si
padece
de
cáncer
a
la
próstata.
Como
antecedente
general,
el
laboratorio
nos
indica
que
la
probabilidad
de
que
el
test
salga
positivo
si
la
persona
tiene
cáncer
es
0,99
(sensibilidad)
y
la
probabilidad
de
que
salga
negativo
si
no
padece
cáncer
es
0,98
(especificidad).
1. Sujeto
A
es
un
hombre
que
decide
realizarse
el
test
pues
acaba
de
cumplir
50
años.
No
tiene
malestares,
pero
se
dice
que
siempre
es
preferible
prevenir.
El
test
resulta
positivo,
¿cuál
es
la
probabilidad
de
que
A
padezca
de
cáncer
a
la
próstata?
Si
consideramos
que
la
probabilidad
a
priori
de
que
un
hombre
de
50
años
tenga
cáncer
a
la
próstata
es
0,05%,
podemos
usar
el
método
de
inferencia
bayesiana
para
calcular
la
nueva
probabilidad.
A
priori
nuestro
árbol
de
probabilidades
es:
0,99
Test
positivo
0,000495
0,0005
Tiene
cáncer
0,01
Test
negativo
0,000005
Como
ahora
sabemos
que
el
test
resultó
positivo,
podemos
calcular
la
probabilidad
condicional
apropiada,
es
decir:
!,!!!"#$
P(tiene
cáncer|test
positivo)
=
≈ 0,024
!,!"###!!,!!!"#$
Lo
que
quiere
decir
que
la
probabilidad
de
que
padezca
de
cáncer,
conocido
el
resultado
del
test,
es
aproximadamente
2,4%.
2. Sujeto
Bes
un
hombre
cuyos
síntomas
lo
hacen
visitar
un
médico
quién
estima
que
la
probabilidad
de
que
tenga
cáncer
es
de
50%
y
le
recomienda
realizarse
el
test.
El
test
resulta
de
positivo,
¿cuál
es
la
probabilidad
de
que
B
tenga
cáncer
a
la
próstata?
Repitamos
el
análisis
anterior:
0,99
Test
positivo
0,495
Tiene
cáncer
0,5
0,01
Test
negativo
0,005
El
modelo
Normal
es
una
distribución
de
probabilidad
de
variable
continua
también
conocida
como
“campana
de
Gauss”.
La
expresión
analítica
de
la
función
de
densidad
es
relativamente
complicada
y
depende
de
dos
parámetros,
la
media
µ
y
la
desviación
estándar
σ.
1 ! !!! !
!!
𝑓 𝑥 = 𝑒 !
𝜎 2𝜋
Su gráfica en el intervalo [-‐4, 4], para µ=0 y σ=1 es:
Es
probable
que
le
llame
la
atención
la
similitud
entre
esta
gráfica
y
la
figura2.
Para
ilustrar
aún
mejor
esta
similitud,
hagamos
un
gráfico
superpuesto
de
la
frecuencia
relativa
correspondiente
a
la
figura2
y
una
distribución
normal
de
media
500
y
desviación
estándar
250 ≈ 15,81
(es
la
que
corresponde
al
modelo
teórico
de
lanzar
1.000
monedas).
En
realidad
el
modelo
binomial
que
corresponde
a
lanzar
1.000
monedas
es
muy
parecido
al
modelo
Normal
y
esa
similitud
es
una
de
las
razones
por
las
que
el
modelo
Normal
es
tan
usado.
Vea
más
sobre
el
modelo
normal
en
Wikipedia.
Volviendo
a
la
interpretación
de
datos,
supongamos
que
hemos
seleccionado
una
muestra
de
la
población
que
nos
interesa
estudiar
y
que
tenemos
los
datos
de
esa
muestra.
Nos
interesa
por
ejemplo
estimar
el
valor
medio
de
la
variable
para
toda
la
población.
Podríamos
comenzar
por
calcular
la
media
de
los
datos
muestrales,
pero,
¿qué
tan
cerca
de
la
media
de
la
población
estará
este
valor?
y
¿qué
tan
confiable
es
la
estimación?
Para
responder
a
estas
preguntas
haremos
uso
de
un
resultado
teórico
importante
que
dice
que
si
tenemos
una
población
con
media
µ
y
desviación
estándar
σ
y
tomamos
muestras
de
tamaño
𝑛,
con
𝑛
suficientemente
grande,
entonces
las
medias
de
estas
muestras
se
!
distribuyen
de
forma
aproximadamente
normal
con
media
µ
y
desviación
estándar
.
!
En
la
práctica
tenemos
una
sola
muestra
de
tamaño
𝑛,
con
media
𝑥
y
desviación
estándar
𝑠
y
queremos
determinar
un
intervalo
en
el
cual
se
encuentre
la
media
de
µ
de
la
población
con
cierto
nivel
de
confianza.
El
tamaño
del
intervalo
que
propongamos
depende
del
grado
de
confianza
que
queramos
tener,
mientras
más
grande
el
intervalo,
mayor
será
la
confianza,
pero
menor
la
precisión
de
la
estimación.
Es
usual
considerar
intervalos
de
radio
s,
2s
o
3s
alrededor
de
la
media
muestral𝑥,
correspondientes
a
niveles
de
confianza
de
68%,
95%
y
99,7%
respectivamente.
Estos
valores
provienen
de
calcular
el
área
bajo
la
curva
normal
en
el
intervalo
propuesto
y
pueden
obtenerse
de
una
tabla.
Ver
Wikipedia
para
otra
exposición
sobre
intervalos
de
confianza
y
un
ejemplo
detallado.
Ejemplo
Volvamos
una
vez
más
a
los
datos
meteorológicos.
Queremos
determinar
la
temperatura
promedio
a
partir
de
una
muestra
extraída
al
azar.
Empecemos
considerando
muestras
de
20
datos
elegidos
al
azar
(con
reposición)
entre
los
801
datos
de
la
población.
La
teoría
predice
que
estas
muestras
se
distribuirán
de
manera
normal
con
media
igual
a
la
media
de
la
!
población
y
con
desviación
estándar
igual
a
≈0,84.
!"
Los
datos
correspondientes
a
una
muestra
fueron
{6.8,
10.0,
3.9,
3.8,
17.0,
0.20,
2.7,
4.0,
12.0,
2.2,
9.8,
5.0,
8.0,
4.3,8.0,
8.9,
10.0,
12.,
8.1,
8.2}
cuya
media
es
7,21°C.
Si
queremos
determinar
un
intervalo
con
un
95%
de
confianza,
debemos
tomar
un
radio
de
1,68
(dos
veces
la
desviación
estándar),
es
decir
[5,53
,
8,89].
Efectivamente
la
media
del
conjunto
completo
de
los
datos
(8,27°C)
está
en
el
intervalo,
pero
esto
solo
lo
sabemos
pues
conocemos
todos
los
datos.
Para
ilustrar
la
situación,
hemos
simulado
la
selección
de
1.000
muestras,
de
20
datos
cada
una,
y
mostramos
a
continuación
una
tabla
conlas
medias
obtenidas.
El
ancho
elegido
para
los
intervalos
es
0,84.
Media
Frecuencia
[4.91,
5.75[
2
[5.75,
6.59[
23
[6.59,
7.43[
129
[7.43,
8.27[
337
[8.27,
9.11[
344
[9.11,
9.95[
145
[9.95,
10.79[
20
[10.79,
11.63]
0
Notemos
que
el
intervalo
de
radio
1,68
centrado
en
una
media
muestral
incluye
la
media
de
la
población
si
y
solo
si
la
media
muestral
está
en
el
intervalo
de
radio
1,68
centrado
en
la
media
de
la
población.
De
las
1.000
medias
obtenidas,
esto
se
cumple
para
955,
es
decir
un
95,5%
de
las
veces
lo
que
corresponde
cercanamente
con
la
confianza
estimada
originalmente
(95%).
Si
deseamos
una
mayor
precisión
(intervalo
más
pequeño)
manteniendo
el
nivel
de
confianza,
debemos
aumentar
el
tamaño
de
la
muestra.
Una
muestra
de
80
valores
permite
disminuir
a
la
mitad
el
largo
del
intervalo.
El
término
empate
técnico
se
usa
mucho
al
anunciar
los
resultados
de
una
encuesta
que
no
es
capaz
de
predecir
al
ganador
de
una
elección.
En
estricto
rigor
no
se
trata
de
un
empate,
que
prácticamente
nunca
se
produce
en
una
votación,
sino
que
de
una
limitación
de
la
encuesta
debido
a
que
el
error
estimado
es
mayor
a
la
diferencia
entre
los
resultados
de
los
candidatos.
Esto
puede
deberse
a
que
efectivamente
los
resultados
esperados
sean
muy
estrechos
o,
a
que,
por
el
diseño
de
la
encuesta,
su
margen
de
error
sea
demasiado
grande.
A
modo
de
ejemplo,
utilicemos
un
modelo
binomial
para
analizar
el
resultado
de
una
encuesta
ficticia.
Elegimos
al
azar
una
muestra
de
400
personas
y
resulta
que
53%
se
manifiestan
en
favor
del
candidato
A
mientras
que
47%
lo
hacen
en
favor
de
B.
Hay
muchos
factores
de
error
en
una
encuesta,
no
sabemos
si
los
encuestados
votarán
efectivamente
o
si
nos
han
mentido,
pero
en
este
ejemplo
solo
consideraremos
el
error
debido
al
muestreo.
Supongamos
además
que
nos
interesa
conocer
el
margen
de
error
que
nos
dé
un
nivel
de
confianza
del
95%.
El
proceso
de
elegir
la
muestra
y
obtener
las
respuestas
se
puede
interpretar
como
el
lanzamiento
de
una
moneda
100
veces.
Lo
que
nos
interesa
saber,
es
si
esta
“moneda”
está
cargada
a
favor
de
A.
Como
aproximadamente
la
mitad
de
la
población
favorece
a
cada
candidato,
podemos
estimar
p=0,5
para
simplificar
el
cálculo
de
la
desviación
estándar.
La
varianza
en
el
modelo
binomial
es
V=p(1-‐p)/n,
en
este
caso
V=0,25/400=0,000625
de
manera
que
la
desviación
estándar
es
σ
=
0,000625
=
0,025.
Para
un
nivel
de
confianza
de
95%,
el
margen
de
error
es
aproximadamente
2σ,
en
este
caso
5%.
Concluimos
que
el
53%
realmente
solo
nos
permite
asegurar
que
el
porcentaje
de
votos
a
favor
de
A
estará
entre
48%
y
58%
y
no
podemos
decir
que
sea
mayor
al
de
B
que
se
encontrará
entre
42%
y
52%.
Ante
esta
situación,
el
resultado
de
la
encuesta
se
puede
declarar
un
“empate
técnico”.
Esta
expresión
se
utiliza
en
muchos
estudios
que
buscan
demostrar
que
un
resultado
no
se
debe
al
azar.
Podría
ser
que
se
quiera
demostrar
la
efectividad
de
un
tratamiento
o
la
superioridad
de
los
resultados
de
un
colegio
por
sobre
otro.
En
cualquier
caso
se
determina
a
priori
el
nivel
de
significación
deseado
(probabilidad
de
que
el
resultado
se
deba
al
azar)
y
se
compara
con
el
valor
P
obtenido
a
partir
de
los
datos
que
supone
tienen
una
distribución
conocida.
Si
el
valor
P
es
menor
al
nivel
de
significación,
se
rechaza
la
hipótesis
nula
(de
que
el
efecto
se
debe
al
azar)
y
se
valida
como
estadísticamente
significativo
el
resultado.
Esto
no
quiere
decir
que
el
resultado
sea
significativo
en
el
sentido
usual
de
la
palabra,
pues
puede
que
en
términos
absolutos
sea
muy
pequeño.
Podríamos
estar
reduciendo
el
dolor
en
un
2%
o
los
puntajes
en
la
PSU
de
un
colegio
podrían
promediar
3
puntos
más
que
en
otro.
Un ejemplo concreto:
Miremos
nuevamente
el
gráfico
de
la
figura2,
que
representa
los
datos
recogidos
de
repetir
10.000
veces
el
experimento
de
lanzar
una
moneda
justa
(no
cargada).
Ahora
disponemos
de
una
moneda
que
podría
estar
cargada
y
la
lanzamos
1.000
veces.
Si
el
resultado
obtenido
es
“improbable”
de
acuerdo
a
la
distribución
obtenida
para
la
moneda
normal,
diremos
que
es
“probable”
que
la
moneda
nueva
esté
cargada.
Por
ejemplo,
si
obtenemos
menos
de
450
caras,
la
probabilidad
de
que
esto
ocurra
con
una
moneda
normal
es
menor
a
0,0002
por
lo
que
podemos
decir
que
la
moneda
está
cargada
a
favor
de
sello
con
un
nivel
de
significación
estadística
menor
a
p=0,0002.
Si
en
cambio
obtenemos
490
caras,
no
podemos
concluir
ni
que
la
moneda
está
cargada
ni
que
no
lo
está
pues
el
nivel
de
significación
sería
demasiado
alto(malo).
Recordemos
que
por
lo
general
el
resultado
de
un
test
nos
puede
permitir
rechazar
una
hipótesis
(moneda
justa),
pero
no
nos
puede
permitir
verificar
la
hipótesis.
Para
más
información
sobre
test
de
hipótesis,
vea
Wikipedia.
Ejercicio:
¿Es
Santiago
más
o
menos
frío
que
Concepción
en
el
mes
de
Julio?
¿Puede
afirmarlo
tomando
una
muestra
de
50
temperaturas
en
cada
uno
de
los
lugares?