Está en la página 1de 66

Īema 3:

Distribuciones
de Probabilidad
Notables

Estadística. Grado en
Distribuciones de probabilidad notables o
"especiales"
En esta secció n nos ocuparemos de algunas distribuciones de probabilidad
que hemos llamado "especiales" simplemente en razó n de su uso frecuente en
las aplicaciones prá cticas:

Distribuciones discretas Distribuciones continuas

Binomial Exponencial

Hipergeomé trica Uniforme

De Poisson Normal

2 / 66
Distribución
Binomial

3 / 66
Distribución
Binomial
Se llama experimento de
Bernoulli a aqué l que tiene só lo
dos resultados posibles, 1
(é xito) y 0 (fracaso) con
probabilidades
respectivas p y 1 − p.

Se llama distribución
binomial de parámetros n y p
y se denota B ( n , p) , a la
distribució n
Jakob Bernoulli (1654–1705)
de la variable:

X = "Número de éxitos en n experimentos independientes de Bernoulli de


parámetro p"

4 / 66
Distribución
Binomial
La funció n de probabilidad de la variable X con distribució n B ( n , p) es de
la forma:

P (X = k) = ( n
k
pk (1 −
p)
n −k
, k = 0, 1,
… ,n

5 / 66
Distribución
Binomial
Ejemp
los
1. Se lanza 4 veces al aire una moneda equilibrada y se considera X =
"Número de caras en los cuatro lanzamientos". Entonces X ≈ B(4, 12 )

2. Se aplica un tratamiento a cada uno de 8 pacientes. El tratamiento puede


tener é xito (cura al paciente) con probabilidad p o fracasar con
probabilidad 0.3. Sea X el nú mero de pacientes que se curan entre los
ocho. Entonces X ≈ B (8, p)

3. En cierta especie de peces el porcentaje de machos es del 40% y el de


hembras el 60% restante. Durante un estudio se capturan al azar 50
ejemplares de esta especie. La variable X ="Número de machos en esta
muestra de peces" sigue una distribució n B(50, 0.4)

6 / 66
Deducción de la función de probabilidad de la distribución
binomial.
En el ejemplo 2 anterior, sea X ="Número de pacientes que se curan entre los 8
tratados" ≈ B(8, p ) . Calculemos P ( X = 3)

Llamemos B al suceso "el paciente se cura" y B c a su suceso contrario,


siendo P ( B ) = p y P ( B c ) = 1 − p.

Una de las formas en que se pueden curar só lo 3 pacientes es que sean los
tres primeros:

B ∩ B ∩ B ∩ Bc ∩ Bc ∩ Bc ∩ Bc ∩ Bc
Como cada paciente se cura o no independientemente del resto, la
probabilidad de que ocurra el suceso anterior es:

P (B ∩ B ∩ B ∩ B c ∩ B c ∩ B c ∩ B c ∩ B c ) =

= P (B )P (B )P (B )P (B c )P (B c )P (B c )P (B c )P (B c ) =

= P ( B ) 3 ⋅ P ( B c ) 5 = p3 ⋅ (1 − p) 5

7 / 66
Deducción de la función de probabilidad de la distribución
binomial.
El nú mero de formas en que curarse 3 pacientes entre 8 coincide con el
nú mero de formas en que podemos elegir 3 posiciones entre 8, para
colocar en ellas las B :

(88!3 ) 5! ⋅
=3!
La probabilidad total de que se curen 3 pacientes entre 8 será la suma de
las probabilidades de cada una de estas (38) formas. Como cada una
ellas tiene la misma probabilidad p3(1 − p) 5, la probabilidad total
de

()
será :
8 3
P ( X = 3) = p (1 )
3 5
−p
En general, si X ≈ B ( n ,
p) :
P (X = k ) = ()
n k
k
p (1
n −k
, k = 0, 1,
− p) …

8 / 66
Representación gráfica de la distribución binomial para n=8 y
varios valores de p

9 / 66
Esperanza y varianza de la distribución
binomial.
E [X ] = np

V ar ( X ) = np(1 − p)

10 / 66
Distribución
Hipergeométrica

11 / 66
Distribución
Hipergeométrica
Supongamos que se dispone de
una població n finita de
tamañ o N , que está dividida
en dos grupos: éxitos (con N E
elementos) y fracasos (con
N − N E elementos).
Se llama Distribución
Hipergeométrica H ( n , N ,
NE )
a la distribució n de
probabilidad de la variable:

Christiaan Huygens (1629–1695)

X = "Número de éxitos obtenidos al extraer al azar y sin reemplazamiento n


objetos de esta población"

12 / 66
Distribución
Hipergeométrica
La funció n de probabilidad de la distribució n hipergeomé trica H ( n , N ,
NE )
es de la forma:

( )( −−
NE
k
N NE
n k
P (X = k )
= ) ( N
n

) max {0,
Obviamente el valor de k está comprendido entre n − ( N − N E )}
y
min { N E , n }
La primera referencia histó rica a la distribució n hipergeomé trica (aú n sin ese
nombre) aparece en el problema 4 del libro De Ratiociniis in Ludo Aleae
(1657, p. 12) de Christiaan Huygens.

13 / 66
Deducción de la función de probabilidad de la distribución
hipergeométrica
La funció n de probabilidad de la distribució n hipergeomé trica se sigue
directamente de la regla de Laplace:

Que ocurra el suceso X = k significa que en la muestra de


tamañ o n hay
k é xitos y n − k fracasos. N −N E
Los é xitos pueden ocurrir de ( kE ) formas y los fracasos de )
N
n −k
(
formas (no hay repeticiones y no importa el orden).

Por tanto, hay (Nk ) ⋅ NN−−Nk )


E E
formas distintas en que pueden ocurrir
é(xitos y n − k fracasos (casos
k
favorables).
Hay ( n ) formas de escoger n objetos de entre N (casos
N

posibles).
NE
(
Por tanto, aplicando la regla de Laplace, P ( X = k) N−NkE
)(
N )

= n− k (
n
)

14 / 66
Distribución
Hipergeométrica
Ejem
plo:
En una pecera hay 10 peces de los cuales 6 son machos y 4 hembras. Se
extraen al azar y sin reemplazamiento 5 peces. ¿Cuá l es la probabilidad
de que sean 3 machos y 2 hembras?

La variable X = "Número de machos en la muestra de 5 peces" es


hipergeomé trica H (5, 10, 6)

La probabilidad pedida es entonces:

(6) 20 ⋅
P ( X = 3) = (4)3 2 = 625
=
10
( )
5 0.4762
2

15 / 66
Ejem
plo:
En las mismas condiciones, ¿cuá l es la probabilidad de que los cinco peces
extraídos sean machos?

( 6) 6
P ( X = 5) = (4) = 25
5 0 =
10
( )
5 0.0238
2

¿Cuá l es la probabilidad de que de los cinco peces extraídos só lo uno sea


macho?

( 6) 6
P ( X = 1) = (4)1 4 = 25
=
10
( )
5 0.0238
2

16 / 66
Esperanza y varianza de la distribución
hipergeométrica
Llamando p= NE
N :

n⋅
E [X ] =
NE np
=
N
(N − n )
V ar ( X ) = np(1 − p)
( N − 1)

17 / 66
Convergencia de la distribución hipergeométrica a la
binomial
La diferencia fundamental entre las distribuciones binomial e
hipergeomé trica es que mientras en la primera hay reemplazamiento, en
la segunda no.

Cuando N es muy grande respecto de n , aún cuando haya


reemplazamiento, es muy difícil que el mismo elemento sea extraído dos
veces, por lo que la distribució n binomial produce probabilidades muy
similares a la hipergeomé trica.

La hipergeomé trica y la binomial tienen la misma esperanza, y sus


varianzas se aproximan cuando N es muy grande respecto de n .

18 / 66
Representación gráfica de la distribución binomial para n = 8
y varios valores de N y pE (probabilidad de éxito)

19 / 66
Distribución de
Poisson

20 / 66
Distribución de
Poisson
Aparece asociada a la variable
aleatoria consistente en contar el
nú mero de ocurrencias de cierto
proceso que se caracterizan por
estar distribuidas:

independientemente unas de
otras

de modo completamente
aleatorio

con tasa (densidad) constante


Simé on D. Poisson (1781–1840)
en un medio continuo.

21 / 66
Distribución de
Poisson
Ejempl
os:
El nú mero de llamadas que llegan a una centralita telefó nica durante un
intervalo de tiempo.

El nú mero de tortugas que llegan para anidar a una playa durante un


intervalo de tiempo.

El nú mero de partículas emitidas por un compuesto radiactivo durante


un cierto periodo.

El nú mero de nidos de tortuga en una porció n rectangular de una playa.

El nú mero de accidentes de trá fico que ocurren en una regió n durante un


periodo determinado.

22 / 66
Distribución de
Poisson
Sean:

X t = "Número de eventos que ocurren en un periodo de duración t."

λ = tasa media de ocurrencia por unidad de tiempo de los eventos de


interé s (nú mero medio de eventos por unidad de tiempo).

Xt sigue una distribución de Poisson de pará metro λ , y lo


denotaremos
X t ≈ P ( λ ) , si su funció n de probabilidad es de la forma:

− λt ( λt ) k
P (X t = k) =
k
e
!

23 / 66
Distribución de
Poisson. Ejemplo:
Supongamos que el nú mero de tortugas que llegan a desovar a una playa
sigue una distribució n de Poisson de pará metro λ = 3 tortugas por día.

La probabilidad de que en 1 día lleguen 2 tortugas es:

−3
P ( X 1 = 2) = e32 = 0.224
3!

La probabilidad de que en 1 día lleguen 3 o má s tortugas es:

P ( X 1 ≥ 3) = 1 − P ( X 1 < 3) = 1 − [P ( X 1 = 0) + P ( X 1 = 1) + P
( X 1 = 2)] = = 1 − e2 (
−3 30
3 0! +
−3
e
31
1!
+ e
−3
= )
0.58 3!
La probabilidad de que en 2 días lleguen 5 tortugas es:

−3⋅2 (3 ⋅
P ( X 2 = 5) = =
2) 5 5
e 0.1606
!
24 / 66
Representación gráfica de la distribución de Poisson
para varios valores de λ

25 / 66
Deducción de la función de probabilidad de la distribución
de Poisson
Sea X una variable aleatoria con distribució n de Poisson que cuenta el
nú mero de eventos que ocurren al azar e independientemente en un
intervalo [0, t] siendo λ t el nú mero esperado de eventos en ese
intervalo.

Dividimos el intervalo [0, t] en n partes iguales; para un n lo


suficientemente grande ( n → ∞ ), las partes en que lo hemos
dividido llegan a hacerse tan pequeñ as que en cada una de ellas
puede ocurrir como má ximo un evento, o ninguno.

Como el nú mero esperado de eventos en [0, t] es λt , la probabilidad


de que ocurra un evento en una de las n partes en que hemos dividido
intervalo puede aproximarse por p = n
el
λt

26 / 66
Deducción de la función de probabilidad de la distribución
de Poisson
Dado que los distintos eventos ocurren de forma independiente, la
probabilidad de que ocurran k eventos en las n partes en que hemos
dividido el intervalo [0, t] puede aproximarse por una binomial B ( n , p),
y
entonces:

() k n −k
n k n −k n λt λt
P (X k ) = lim p (1 − p) = lim
n →∞ k n →∞ k n n
=
( )(li ( )) ((11 −−) )
n! λt
k
λt
n −k

( − )!
n →∞ n k n n
m =
! k
(1 − )
n −k
( − 1). . . ( − + 1)
n n n k λt
li ( )
n →∞ λ t !
k
k n
m nk =
lim 1 ⋅
)⋅. . . ⋅ 1 − )(1 − ) (1 − )
n −k
( λt ) k 1 k λt λt

(1 −
=
k! n →∞ n n n n
=
( )
λt k
(
1⋅1⋅⋯ ⋅
1−

( ) − ( )
e λt
λt k λt k
−λt
k! k! k! e
1= e −λt = 27 /
Esperanza y Varianza de la distribución de
Poisson
E [X ] = λ t

V ar ( X ) = λ t

28 / 66
Distribución
exponencial

29 / 66
Distribución
exponencial
Esta distribució n aparece asociada a fenó menos en los que la variable que
se considera es la distancia entre eventos puntuales que se presentan en
un medio continuo de acuerdo con una distribució n de Poisson.

Supongamos que Yt ≈ P ( λt ) cuenta el nú mero de tortugas que llegan


a una playa durante un intervalo de tiempo de duració n t .

Sea X el tiempo que falta hasta que llegue la siguiente tortuga.

La probabilidad de que hasta la llegada de la pró xima tortuga pase un


tiempo mayor que t es igual a la probabilidad de que en un intervalo de
longitud t no llegue ninguna tortuga:

0 −λ t
− λt λ
P ( X ≤ t ) = 1 − P ( X > t ) = 1 − P ( Yt = 0) = 1 − e =1−
0!
e Si λ es el nú mero medio de tortugas que llegan por unidad de tiempo,
es el tiempo medio que transcurre entre llegada y llegada.
μ = 1λ

30 / 66
Distribución
exponencial
La variable aleatoria X se dice que sigue una distribución exponencial de
pará metro μ , y se denota como X ≈ exp ( μ ) , si su funció n de distribució n es
de la forma:

−1t
F (t ) = 1 −
e μ

Su funció n de densidad es entonces:

1
f (t ) e− 1 t
μ
= μ

31 / 66
Representación gráfica de la función de densidad de la
distribución exponencial para varios valores de μ

32 / 66
Ejem
plo:
El tiempo entre la caída de rayos durante una tormenta sigue una distribució n
exponencial de pará metro μ = 30 segundos

(1). ¿Cuá l es la probabilidad de que el pró ximo rayo caiga antes de 20


segundos?

X ≈ ex p(30) ⇒ P ( X ≤ 20) = F (20) = 1 −


−3 e =
20 0
0.4866
(2). ¿Cuá l es la probabilidad de que el pró ximo rayo tarde má s de 30 segundos
en caer?

P ( X > 30) = 1 − F (30) =− 3e =


30 0
0.3679
(3). ¿Cuá l es la probabilidad de que el pró ximo rayo tarde entre 50 y 70
segundos en caer?

∫ [
7
1 1x − 31 x
7 50
P (50 ≤ X ≤ 70) = 0 e− 3 dx = − 0 70
=
5 3 0
e
0 5 = e− 30 − e− 30
0.0919
] 0 0 0

33 / 66
Esperanza y varianza de la distribución
exponencial
E [X ] = μ

V ar ( X ) = μ 2

34 / 66
Distribución
uniforme

35 / 66
Distribución U [a ,
uniforme
b]
Esta es la distribució n de la variable:

X = "Resultado de elegir un valor al azar en el intervalo [a, b]"


cuando la probabilidad se reparte de manera homogé nea (uniforme) sobre el
intervalo, esto es, no hay má s probabilidad de observar valores en una zona
que en otra del mismo.

Su funció n de densidad es de la
forma:

1
f (x ) a≤x ≤
b− b
=
a
Ya hemos visto esta distribució n en el ejemplo del lugar (aleatorio) donde se
avería un coche en una carretera larga y recta.
36 / 66
Distribución uniforme: Función de
distribución
x−
F (x ) = P (X ≤ x ) x ∈ ( a,
a b
= b)
−a
Distribución uniforme: Esperanza y
varianza
Es fá cil comprobar que:

a + b E[X] =
2

( b −Vaa) 2r ( X ) =
12

37 / 66
Distribución Normal o
de Gauss

38 / 66
Distribución Normal
o de Gauss
La distribució n normal aparece
asociada a variables aleatorias que
se comportan de tal manera que lo
má s probable es observar valores en
torno a la media; y a medida que
los valores se alejan de la media,
bien sea hacia arriba o hacia abajo,
van siendo progresivamente má s
difíciles de observar:

Carl Friedrich Gauss (1777-1855)


39 / 66
Distribución Normal
o de Gauss
Mú ltiples ejemplos de variables con esta distribució n:

Errores de Medida.

Variables físicas: Temperatura y salinidad del mar en una zona

concreta. Variables Bioló gicas: peso, talla, nivel de glucosa en sangre ...

Consumo de energía diario en una ciudad o en una empresa.

Kilometraje mensual recorrido por un vehículo arbitrario.

...

¿Por qué es tan ubicua la distribució n normal?

Acció n del teorema central del límite

40 / 66
Īeorema central
del límite
Mike's Galton Machine

De forma intuitiva, el teorema central del límite afirma que dado un


conjunto de variables aleatorias independientes, con cualquier distribució n
de probabilidad y suponiendo que su varianza sea finita, la suma de un
nú mero elevado de estas variables tiende a distribuirse de manera similar a
una variable normal.

41 / 66
Distribución Normal
o de Gauss
Una variable aleatoria X sigue una distribució n Normal de pará metros μ
(esperanza) y σ (desviació n típica) y se denota como X ≈ N ( μ , σ ) , si
su funció n de densidad de probabilidad es de la forma:

f (x ) =
1 − 12 (
x −μ
σ
2

,x∈ R
e σ √2 )
π
Puede comprobarse que:
E [X ] = ∞
x f ( x ) dx =

V ar [X ] =
−∞ μ

( x − μ ) 2f ( x ) dx =
∫ −∞ σ

42 / 66
Representación gráfica de la función de densidad de la
distribución normal para varios valores de μ y σ

43 / 66
Distribución normal: cálculo de
probabilidades.
La funció n de densidad de la distribució n normal no puede integrarse
de manera analítica, sino numé rica. De ahí que para calcular
probabilidades de la forma P ( X ≤ x ) o P ( a ≤ X ≤ b) haya que
recurrir a calculadora,
ordenador o tablas de referencia.

El siguiente resultado permite convertir una variable N ( μ , σ ) en


una N(0, 1); de esta forma las probabilidades de la primera
pueden calcularse a partir de las probabilidades de la segunda:

Teorema (de la tipificación): Si una variable


( X − μ ) aleatoria X tiene
de probabilidad N ( μ , σ ) , entonces, Z = σ tiene distribución de
distribución
probabilidad N (0, 1) (normal estándar o
P ( X ≤Por x )tanto:
=P
) (
tipificada).
x−

(
X −μ x − =P Z ≤
≤ μ
μ σ
σ ) σ

44 / 66
45 / 66
Distribución normal: uso de la
tabla de la N(0,1)
Esta tabla nos permite calcular probabilidades de la forma P ( Z > x )
donde Z es una variable aleatoria con distribució n N (0, 1) y x es un
nú mero de la forma a. bc = a. b + 0.0c. El valor de dicha probabilidad
se encuentra en el cruce de la fila a. b con la columna 0.0c.

Ejemplo: para calcular P ( Z > 1.23) se busca en el cruce de la fila 1.2


con la columa 0.03, donde se encuentra el valor 0.10935.

En el caso de que se desee calcular la probabilidad de que Z sea mayor


que un nú mero negativo, se puede proceder aprovechando la
circunstancia de que la funció n de densidad de Z es simé trica y por tanto:

P ( Z > −x ) = P ( Z < x ) = 1 − P ( Z > x )

Para calcular la probabilidad de un intervalo:

P ( a ≤ Z ≤ b) = P ( Z > a) − P ( Z > b)

46 / 66
Distribución normal: uso de la
tabla de la N(0,1)
Sea X ≈ N ( μ = 8, σ =
3) :

P ( X ≤ 10) = P ( 10 −
Z ≤
8 3
)
=
= P ( Z ≤ 0.66) = 1 − P ( Z >
0.66)
= 1 − 0.25463 = 0.74537

47 / 66
Distribución normal: uso de la
tabla de la N(0,1)
Sea X ≈ N ( μ = 8, σ =
3) :

P ( X ≤ 4) = P ( 4−
Z ≤
83
)
=
= P ( Z ≤ −1.33) = P ( Z > 1.33) =
0.09176

48 / 66
Propiedad reproductiva de la
distribución Normal.
Dadas n variables aleatorias normales e independientes, tales que
n
X i ≈ N ( μ i , σi ) , i = 1, … , n , su i= X i sigue tambié n una
suma ∑ n normal, siendo:
distribució 1

⎛∑ ∑ ⎞
∑X ⎝ ⎷⎠
n n n

i ≈N μi, σ i2
i= i= i=
1 1 1

49 / 66
Propiedad reproductiva de la
distribución Normal.
Como consecuencia de esta propiedad, en el caso particular de que
X i ≈ N ( μ , σ ) ∀i = 1, … , n , aplicando las propiedades de la esperanza
y la varianza, se tiene que:

¯¯¯
X
¯¯ =
1
n
∑X
n

i=
i ≈N ( ,√
μ
σ

o, expresado de otra forma,


)
1 n

¯X¯¯¯¯ − μ
≈ N (0,
1)
σ/√n

50 / 66
Ejem
plo
El peso de las capturas diarias realizadas por un barco de pesca sigue una
distribució n normal de media 87 kg y desviació n típica 16 kg. Durante un mes,
el barco ha salido a pescar 20 días. ¿Cuá l es la probabilidad de que el peso
total de las capturas supere los 1800 kg?

Si X ≈ N(87, 16) entonces el peso total de las capturas sigue


una distribució n:

∑X
2
T = 0 ≈ N (20 ⋅ 87, 16 ⋅ √20) = N
i
i=1
(1740, 71.55)
y por tanto:

P ( T > 1800) = 1 − P ( T ≤ 1800) = 1 − pnorm(1800, 1740, 71.55)


=0.20

51 / 66
Ejem
plo
El peso de las capturas diarias realizadas por un barco de pesca sigue una
distribució n normal de media 87 kg y desviació n típica 16 kg. Durante un mes,
el barco ha salido a pescar 20 días, con probabilidad 0.95 ¿cuá l será el peso
mínimo de las capturas? Tambié n con probabilidad 0.95 ¿Cuá l será el peso
má ximo?

Mínimo: es el percentil 5, pues:

P ( X ≥ m ) = 0.95 ⇒ P ( X ≤ m ) = 0.05 ⟹

⟹ m = qnorm(0.05, 1740, 71.55) = 1622.311

Má ximo: es el percentil 95, pues:

P ( X ≤ M ) = 0.95 ⇒ M = qnorm(0.95, 1740, 71.55) =


1857.69

52 / 66
Ejem
plo
El peso de las capturas diarias realizadas por un barco de pesca sigue una
distribució n normal de media 87 kg y desviació n típica 16 kg. Si se eligen al
azar 10 días de pesca ¿Cuá l es la probabilidad de que el peso medio de las
capturas realizadas durante esos días esté entre 85 y 90 kg?

Como X ≈ N(87, 16), la captura media realizada durante 10 días seguirá


una distribució n:

¯¯¯
X
¯¯ = ∑
1 10
X ≈N
1 i= i
(87,√161 ) N (87,
5.06)
0 =
1 0
y por tanto:

P (85 ≤ X ≤ 90) = P (X ≤ 90) − P


¯¯¯¯¯
¯¯¯¯¯
¯¯¯¯¯

(0.377
= ≤ 85) 87,
pnorm(90,
X = 5.06) − pnorm(85, 87, 5.06) =

53 / 66
Ejem
plo
Se ha observado que la desviació n típica del peso de las capturas diarias
realizadas por cada uno de los barcos que faenan en cierta regió n es σ = 20
kg. Se ha hecho un seguimiento de las capturas realizadas por el barco Juanita
II durante los ú ltimos 36 días de pesca. El peso total de las capturas durante
ese periodo ha sido de 3532 kg, lo que da una captura media de ¯x¯ = 98.11
kg por día. Suponiendo que el peso de las capturas diarias sigue una
distribució n N ( μ , σ = 20), utiliza la informació n anterior para obtener un
intervalo de
confianza al 95% para el valor de μ .

Se sabe que:
¯¯¯
X
¯¯ −μ
≈ N (0,
σ /√n1)

Podemos utilizar R para encontrar los valores z0.025 y z0.975 tales que:

P ( z0.025≤
0.975
¯¯¯
¯¯
X −μ
σ/√n ≤ z
) =
0.95

54 / 66
Ejem
plo
Tenemos que z0.025=qnorm(0.025)=-1.96 y z0.975=qnorm(0.975)=1.96, y por
tanto:

P ( −1.96
¯¯¯
X
≤¯¯
σ /√n
−μ

1.96) = 0.95
P (≤−1.96


σ
n
− X¯¯¯¯¯
σ
μ ≤ 1.96
√n
) =
0.95
De aquí podemos despejar:

P ( ¯¯¯¯¯
X
¯¯¯¯¯−
σ
1.96 ≤ μ ≤ X + 1.96
√n √n
σ
) =
0.95

55 / 66
Ejem
plo
Como σ = 20, n = 36 y ¯x¯ = 98.11, sustituimos en la expresió n anterior
y se obtiene que con una confianza del 95%:

20
98.11 − 1.96 ≤
20
μ ≤ 98.11 + 1.96
√36
98.11 − 6.53 ≤ μ ≤ 98.11 + 6.53 ⇒ 91.58 ≤ μ ≤ 104.64
√36
Dicho de otra manera, la media ¯x¯ de 36 días nos dio el valor 98.11;
podemos por tanto asumir que el peso medio μ de las capturas diarias en
general para todos los días, no solo para esos 36 días en particular, es un
valor parecido a 98.11.

Este valor es una estimación de μ . El procedimiento anterior (intervalo de


confianza) nos permite evaluar el margen de error para dicha estimació n:
el verdadero valor de μ a lo mejor no es exactamente 98.11, pero con una
confianza del 95% se diferencia de 98.11 como mucho en 6.53 kg, y está en el
intervalo [91.58, 104.64]

56 / 66
Īeorema Central
del Límite.
El Teorema Central del Límite establece que dada una colecció n de
variables aleatorias independientes X 1 , X 2 , … , X n tales que E [ X i ] =
μ y ( X i ) = σ 2, cuando n → ∞ la distribució n de probabilidad de la suma
Vi ar i
de
estas variables es aproximadamente normal:

⎛∑ ∑ ⎞
∑X ⎝ ⎷
n n n

i ≈N μi, σi2
i= i= i=
1 1 1

⎠ 
En el caso particular de que todas las X i tengan la misma distribució n, esto es,
E [X i ] = μ y V ar ( X i ) = σ 2 ∀i se tiene que:

∑X
n

i ≈ N (nμ , σ√n )
i=
1

57 / 66
Aplicaciones del ĪCL: aproximación de la
Binomial por la Normal:
Si X es una variable B ( n, p ), su valor representa el nú mero de é xitos en
n experimentos independientes en cada uno de los cuales la probabilidad
de é xito es p.

Si definimos el resultado de cada experimento como:


X =
1 1−p
{ i (Variable de
(fracaso)
Bernoulli)
2 p (éxito)
podemos expresar la binomial como suma de variables de Bernoulli:

X =X1+ X2+ ⋯ + Xn

Obsé rvese que:

μ i = E [X i ] = 1 ⋅ p + 0 ⋅ (1 − p) = p

σ2 = V a r ( X i ) = E [ X 2 ] − ( E [ X i ]) 2 = 12 ⋅ p + 02 ⋅ (1 − p) − p2 =
p(1 − p)
i i
58 / 66
Aplicaciones del ĪCL: aproximación de la
Binomial por la Normal
Entonces, si el valor de n es grande:

∑ (np, √np(1
n
B (n , ) ≈ X = Xi ≈ N
n →∞
(nμ , σ√n ) = N
p i=

− p) ) 1

En general la aproximació n es razonablemente buena cuando n ≥


30, np ≥ 5 y n (1 − p) ≥ 5
Como la normal es continua y la binomial es discreta, en el cá lculo
aproximado se considera que el valor (discreto) k es equivalente al
intervalo [k − 21 , k + 1
] 2

59 / 66
Ejem
plo:
Si X ≈ B (120, 0.35) , se puede aproximar por

X N ≈ N (120 ⋅ 0.35, √120 ⋅ 0.35 ⋅ 0.65 =


N (42, 5.2249)

P ( X = 40) = 0.0716 (Valor exacto)


P ( X = 40) ≅ P (39.5 < X N < 40.5) = P ( X N < 40.5) − P < 39.5)
(XN =
= 0.387 − 0.3162 = 0.0709 (Valor aproximado)

P ( X ≤ 40) = 0.3905 (Valor exacto)

P ( X ≤ 40) ≅ P ( X N ≤ 40.5) = 0.387 (Valor aproximado)

P ( X ≥ 40) = 0.6811 (Valor exacto)


P ( X ≥ 40) ≅ P ( X N ≥ 39.5) = 0.6838 (Valor
aproximado)

60 / 66
Aproximación de la Binomial
por la Normal
Supongamos que X ≈ B ( n , p) es el nú mero de é xitos en n pruebas
X
sería
independientes; si realizá ramos efectivamente este experimento, p^ n

= la proporción observada de é xitos en esas n pruebas. Si n es


grande:

y por tanto:
X ≈N ( ,√
np n p (1 − p) )
p^
X
n
≈N (
np √
n
, np (1 −
, p)
n
) (√ =N p
p (1 −
p) n

)
=
De aquí se sigue que:

p^ −
p p(1−p ≈ N (0,
√1) ) n

61 / 66
Aproximación de la Binomial
por la Normal
Utilizando la distribució n normal N(0, 1), podemos encontrar el valor z α/2 tal
que:
α/
p^ − p

P

⎜⎝ −

α/
2 z
z
p(1−p

⎞⎟ =

) n
2
1−α

De aquí se deduce que la diferencia entre el valor (desconocido) de p y el valor
(observado) p^ en la muestra cumple:

P ( |p^ − p| ≤
α/ z
2
√(1 )−
p
p n
) =1
−α

Este resultado es aproximado, y só lo es vá lido si n ≥ 30, np ≥ 5


y
n (1 − p) ≥ 5. 62 / 66
Aproximación de la Binomial
por la Normal
La probabilidad anterior puede expresarse tambié n como:

P ( |p − p^| ≤
α /z
2
√)(1 −
p
p n
) =1
−α
o lo que es lo mismo:
P

( −z
α/
2
√)(1 −
p
p n ≤ p − p^ ≤α /
2
√)(1 −
p
p n
) =1
z −α
y de aquí:

P ( p^ α/
2
√)(1 − p
p n ≤ p ≤ p^ +α /
2
√)(1 −
p
p n
) =1
−z z −α
esto es,

P ( [
p∈ p^ α /
2
√)(1 − p
p n , p^ α/
2
√)(1 −
p
p n
]) =1
63 /
Aproximación de la Binomial
por la Normal
Una vez realizado el experimento, p^ no es una variable aleatoria, sino un
valor fijo. Podemos decir entonces que tenemos una confianza 1 − α en que
el valor (desconocido) de p cae en el intervalo:

p∈ [ p^ − √
α/z
2
)
(1 −
p
p n
p)
, p^ α/
2
p (1 −
n

] √ +z

Ahora bien, este intervalo es poco ú til en la prá ctica, ya que sus extremos
dependen de p, que es desconocido. Una opció n es sustituirlo por el
valor observado p^:

[ p^ −α /z
2
√ (1

p^
p
n
^)
, p^ α/
2
p^ (1 −
n

] √ p^)+ z
(intervalo de Wald) aunque, como es obvio, no podemos garantizar
entonces que se consigue la confianza deseada 1 − α . Por ello no es
recomendable utilizar este intervalo en la práctica.
64 / 66
Aproximación de la Binomial
por la Normal
En Agresti & Caffo, 2000 se señ ala como la aproximació n del intervalo de Wald
(al 95% de confianza) anterior mejora notablemente si se añ aden 4 pseudo-
observaciones a la muestra, 2 é xitos y 2 fracasos. De esta forma:

n se sustituye por n ˜ =n + 4
El nú mero de é xitos X se sustituye por X + 2. Por tanto la
proporció
observadande é xitos p^ se sustituye por p˜ n +
4+2
X
=
El intervalo ajustado para p (intervalo de Agresti-Coull) es entonces:

[ p˜ −
α /z
2
√−˜ (1 ˜)˜), ˜
p
pn p
+
p
z
α/
2
p˜ (1 −
n

] √˜ ˜

65 / 66
Ejem
plo
Se desea conocer la proporció n de hembras en una població n de peces. Con
este fin se obtiene una muestra de 200 peces elegidos aleatoriamente en esta
població n. En la muestra 140 peces son hembras. ¿Cuá l es la proporció n de
hembras en esa població n?

La proporció n de hembras en la muestra es 1200


40
= 0.7 ≅70%. Para evaluar
el margen de error con que la proporció n de hembras en la població n se
aproxima a este valor calculamos el intervalo de Agresti-Coull:

n˜ = 200 + 4

p˜ = 20
=
4 0.6961
[˜ √ ]
142
p˜(1− p˜(1−
p α/ p˜)n , p˜ α/ p˜)n = [0.6961 ± 1.96 ⋅
2 +z 2
−z
√ ˜ ˜
= [0.633,
0.0322] =

0.759]
Por tanto a partir de estos datos podemos tener una confianza aproximada del
95% en que la proporció n de hembras en la població n es un valor
comprendido entre el 63.3% y el 75.9%.
66 /

También podría gustarte