Está en la página 1de 24

Clase 14: Distribución de la media muestral para

poblaciones normales, TLC (Teorema del Lı́mite Central)

Lina Marı́a Acosta Avena*


ASESORIAS: LUNES DE 4:00 pm - 6:00 pm. VIERNES DE
9:00 am - 11:00 am, B43-103
Escuela de Estadı́stica
Universidad Nacional de Colombia, Sede Medellin
limacostaav@unal.edu.co
*
Estudiante de la Maestrı́a en Ciencias Estadı́stica

Estadı́stica I.

1
DISTRIBUCIONES MUESTRALES

En el proceso de identificar y explicar las caracterı́sticas esenciales que per-


miten describir el comportamiento de un fenómeno, nuestro objetivo es el de
establecer de manera aproximada dicho comportamiento usando parte de to-
da la información relevante acerca del fenómeno.

Estadı́stica I.

2
DISTRIBUCIONES MUESTRALES

Cuando se desea estimar un parámetro poblacional se puede presentar cualquiera


de los próximos 3 casos:

1. Estimar la proporción de lavadoras que se descomponen antes del tiem-


po de garantı́a.

2. Estimar el tiempo promedio que una persona permanece en fila.

3. Estimar la variabilidad en los diámetros de tuercas de cierto tipo.

Note en los casos anteriores que la caracterı́stica de interés es una propor-


ción, un promedio y una varianza; las cuales en cada caso son únicas.
Estadı́stica I.

3
DISTRIBUCIONES MUESTRALES

Definición:
Sean X y Y dos variables aleatorias con una distribución conjunta, se dice que
X y Y son estadı́sticamente independientes Sı́ y solo sı́:

p(x, y) = p(x)p(y) Si X y Y son discretas

f (x, y) = f (x) f (y) Si X y Y son continuas


Si en algún caso al menos una pareja (x, y) no cumple lo anterior se dice que
X y Y son dependientes.

Estadı́stica I.

4
DISTRIBUCIONES MUESTRALES

De esta manera, si X y Y son estadı́sticamente independientes, entonces

pX|y = p(x) ó pY |x = p(y) para el caso discreto

fX|y = f (x) ó fY |x = f (y) para el caso continuo

Estadı́stica I.

5
DISTRIBUCIONES MUESTRALES

Sean a, b, c y d , constantes. Si X y Y son independientes, entonces

1. P(a < X < b, c < Y < d) = P(a < X < b)P(c < Y < d)

2. E[XY ] = E[X]E[Y ]

3. Cov(X,Y ) = ρx,y = 0 (OJO: Si ρ = 0 = Cov(X,Y ) no implica que X y


Y sean independientes).

4. Var(aX + bY ) = a2Var(X) + b2Var(Y )

Recuerde que: Var(X ±Y ) = Var(X) +Var(Y ) ± 2Cov(X,Y )


Estadı́stica I.

6
DISTRIBUCIONES MUESTRALES

Definición:
Si las variables aleatorias X1, X2, . . . , Xn cumplen que

1. Las Xi con i = 1, 2, . . . , n son variables aleatorias independientes.

2. Cada Xi tiene la misma distribución de probabilidad.

Entonces se dice que X1, X2, . . . , Xn, forman una muestra aleatoria (m.a);
ası́ que el conjunto de las n variables son estadı́sticamente independientes e
idénticamente distribuı́das. De modo que
n
f (x1, x2, . . . , xn) = ∏ f (xi) E[Xi] = µ Var[Xi] = σ2 i = 1, 2, 3, . . . , n
i=1

Estadı́stica I.

7
DISTRIBUCIONES MUESTRALES

De una muestra aleatoria nos interesa principalmente dos cosas

1. Estimar los parámetros desconocidos de la f.d.p. Por ejemplo: la media,


la varianza, una proporción, etc.

2. Realizar inferencias* sobre los parámetros de un distribución

*
Este tema se estudia más adelante

Estadı́stica I.

8
DISTRIBUCIONES MUESTRALES

Un Estadı́stico es una función de la muestra aleatoria que no tiene cantidades


desconocidas.
No todos los estadı́sticos que se definen a partir de una m.a. son de interés. La
idea está en encontrar aquellos que permiten obtener mejores aproximaciones
a los parámetros de interés. (Por ejemplo la media µ, la varianza σ2 o una
proporción p).
Una buena aproximación para µ es X̄ = 1n ∑ Xi
n
Una buena aproximación para σ es S = n−1 ∑ (Xi − X̄)2
2 2 1
i=1
Una buena aproximación para p es Xn , X ∼ b(n, p)

Estadı́stica I.

9
DISTRIBUCIONES MUESTRALES

¿Cuál es la distribución de X̄ ?
¿Cuál es la distribucción de S2 ?
¿Cuál es la dsitribución de Xn ; con X ∼ b(n, p)?.

Estadı́stica I.

10
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Definición:
Sea X1, . . . , Xn una muestra aleatoria de una distribución con media µ y vari-
anza σ2. n
1
Sea X̄ = n ∑ Xi. Ahora
i=1
" #
1 n
E[X̄] = E ∑ Xi
n i=1
1 n
= ∑ E[Xi] por propiedad del valor esperado
n i=1
1 n
= ∑ µ como los Xi son una m.a. tienen la misma media
n i=1
1
= (nµ)
n

Estadı́stica I.

11
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

" #
1 n
Var[X̄] = Var ∑ Xi
n i=1
1 n
= 2 ∑ Var[Xi] como los Xi son una m.a. son independientes
n i=1
1 n 2
= 2 ∑σ como los Xi son una m.a. tienen la misma varianza
n i=1
1
= 2 (nσ2)
n
σ2
=
n
Ası́ la distribución muestral de X̄ , tiene media µ y varianza σn .
2

Estadı́stica I.

12
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

n
Análogamente se tiene que si T = ∑ Xi entonces E[T ] = nµ y Var[T ] = nσ2
i=1
TEOREMA:
Suponga que X1, . . . , Xn es una muestra aleatoria de una población normal
con media µ y varianza σ2, entonces
n
X̄ ∼ n(µ, σ2/n) T= ∑ Xi ∼ n(nµ, nσ2)
i=1
Ası́
X̄ − µ T − nµ
√ ∼ n(0, 1) y √ ∼ n(0, 1)
σ/ n nσ

Estadı́stica I.

13
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Ejemplo 1
Suponga que el QI de los estudiantes de primer año de Matemáticas es una
v.a. normalmente distribuı́da con media 120 y varianza 100, se seleccionan
25 estudiantes aleatoriamente.

(a) ¿Cuál es la probabilidad de que el QI promedio de esta muestra sea


superior a 122?

(b) ¿Cuál debe ser el tamaño de la muestra que garantice que el 5 % de las
veces el QI promedio sea superior a 122?

Estadı́stica I.

14
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

Sln:
Sea X1, . . . , X25 una m.a. que representa los QI de 25 estudiantes de primer
año de matemáticas. Se sabe que Xi ∼ n(120, 100), i = 1, 2, . . . , n.

(a)
 
X̄ − µ 122 − 120
P(X̄ > 122) = P √ > √ = P(Z > 1) = 1−Φ(1) = 0,1587
σ/ n 10/ 25

Estadı́stica I.

15
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

(b)
 
X̄ − µ 122 − 120
0,05 = P(X̄ > 122) = P √ > √
σ/ n 10/ n
   √ 
2 n
=P Z> √ = 1−P Z ≤
10/ n 5
√ 
n
= 1−Φ
5
√  √
n n
⇐⇒ Φ 5 = 0,95 =⇒ 5 = 1,645 =⇒ n = 67,65 ≈ 68

Estadı́stica I.

16
DISTRIBUCIÓN DE LA MEDIA MUESTRAL

¿Qué pasa cuando la muestra aleatoria no proviene de una nor-


mal?

Recuerde que si X1, . . . , Xn es una m.a. de una población con media µ y vari-
X̄−µ
anza σ2, la variable aleatoria √ , tiene media cero y varianza uno.
σ/ n
Además,
σ2
lı́m σ = lı́m
2 =0
n→∞ X̄ n→∞ n
por lo tanto el histograma de las X̄ es cada vez más parecido al de una dis-
tribución simétrica en forma de campana.

Estadı́stica I.

17
TEOREMA DEL LÍMITE CENTRAL (TLC)

Suponga que X1, . . . , Xn es una m.a. de una población con media µ y varian-
za σ2. Sea X̄ la media muestral (la cuál depede de n), entonces cuando n
X̄−µ
√ es aproximadamente normal
tiende a infinito, la distribución muestral de
σ/ n
estándar. Escribimos
X̄ − µ a
√ ∼n→∞ n(0, 1)
σ/ n
Entre mayor sea el n mejor es la aproximación. Si la distribucón muestral es
simétrica y continua, los tamaños muestrales permiten obtener buenas aprox-
imaciones. Si la distribución es discreta, se requiere de tamaños muestrales
grandes.

Estadı́stica I.

18
TEOREMA DEL LÍMITE CENTRAL (TLC)

Ası́
   
X̄ − µ a−µ a−µ
P(X̄ ≤ a) = P √ ≤ √ ≈P Z< √
σ/ n σ/ n σ/ n
Si σ2 es desconocida y n es grande, se puede reemplazar a σ2 por S2. Ası́

X̄ − µ a
√ ∼n→∞ n(0, 1)
S/ n

Estadı́stica I.

19
TEOREMA DEL LÍMITE CENTRAL (TLC)

Ejemplo 2
Parmenio vende ensalada de frutas en tres tamaños diferentes: Pequeño, me-
diano y grande, cuyos precios son 1800, 2500 y 4000, respectivamente. De
todas las ensaldas vendidas el 30 % son pequeñas, 20 % medianas y 50 %
grandes. Durante un dı́a dado se reporta la venta de 225 ensaladas. Calcule
la probabilidad de que el ingreso obtenido supere los 720000.

Estadı́stica I.

20
TEOREMA DEL LÍMITE CENTRAL (TLC)

Sln:
Si decimos que X1, . . . , X225 es una muestra aleatoria que representa los pre-
cio de las 225 ensaladas tenemos que:

x 1800 2500 4000


p(X = x) 0,3 0,2 0,5

De donde
4000
µx = E[X] = ∑ xp(x) = 1800 ∗ 0,3 + 2500 ∗ 0,2 + 4000 ∗ 0,5 = 3040
x=1800

4000
E[X 2] = ∑ x2 p(x) = (1800)2 ∗0,3+(2500)2 ∗0,2+(4000)2 ∗0,5 = 10222000
x=1800

=⇒ σ2x = 10222000 − (3040)2 = 980400 =⇒ σx = 990,1515

Estadı́stica I.

21
TEOREMA DEL LÍMITE CENTRAL (TLC)

Luego
! !
225 1 225 720000
P ∑ Xi > 720000 =P ∑ Xi >
n i=1 225
i=1
= P(X̄ > 3200)
 
X̄ − µ 3200 − 3040
=P √ > √
σ/ n 990,1515/ 225
 
160
=P Z> √
990,1515/ 225
= P(Z > 2,42) = 1 − P(Z ≤ 2,42)
= 1 − 0,99224
= 0,0078

Estadı́stica I.

22
TEOREMA DEL LÍMITE CENTRAL (TLC)

Ejemplo 3
La resistencia a la compresión del concreto es una v.a con una resistencia me-
dia de 2500 psi y una desviación estándar de 50 psi. Si se examinan 36 espec-
imenes de concreto, ¿cuál es la probabilidad de que la resistencia promedio
en esta muestra esté entre 2497 y 2505?

Sln:
Si decimos que X1, . . . , X36 es una muestra aleatoria que representa las re-
sistencias a la comprensión de los 36 especı́menes. Se sabe que

µxi = E(Xi) = 2500 σ2xi = E(Xi) = 502 = 2500

Estadı́stica I.

23
TEOREMA DEL LÍMITE CENTRAL (TLC)

 
2497 − 2500 X − µ 2505 − 2500
P(2497 < X̄ < 2505) = P √ < √ < √
50/ 36 σ/ n 50/ 36
≈ P(−0,36 < Z < 0,6)
= P(Z < 0,6) − P(Z < −0,36)
= Φ(0,6) − Φ(−0, 36)
= Φ(0,6) − 1 + Φ(0, 36)
= 0,725747 − 1 + 0,640576
= 0,3663

Estadı́stica I.

24

También podría gustarte