0% encontró este documento útil (0 votos)
60 vistas43 páginas

Muestreo y Distribuciones Estadísticas

Este documento introduce conceptos clave sobre muestreo y distribuciones de muestreo. Explica la diferencia entre inferencia inductiva y deductiva, y cómo el muestreo permite realizar inferencias sobre una población mediante el estudio de una muestra. También define población, muestra, estadísticos y momentos de una muestra.

Cargado por

JuanGabrielMagne
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
60 vistas43 páginas

Muestreo y Distribuciones Estadísticas

Este documento introduce conceptos clave sobre muestreo y distribuciones de muestreo. Explica la diferencia entre inferencia inductiva y deductiva, y cómo el muestreo permite realizar inferencias sobre una población mediante el estudio de una muestra. También define población, muestra, estadísticos y momentos de una muestra.

Cargado por

JuanGabrielMagne
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Muestreo y distribuciones del muestreo Rubén Medinaceli O.

MUESTREO Y DISTRIBUCIONES DEL MUESTREO

El propósito de este tema es introducir el concepto de muestreo y presentar algunas


distribuciones engendradas por el muestreo.

1. Muestreo

1.1. Inferencia inductiva

Hasta ahora se han tratado temas ligados a la teoría de probabilidades. El tema del
muestreo constituye un ingreso a la teoría de la estadística propiamente dicha.

El progreso de la ciencia, en gran proporción, se adscribe a la experimentación. El


investigador realiza un experimento y obtiene algunos datos; con base en estos datos, él
emite ciertas conclusiones. Generalmente, estas conclusiones van más allá de los
materiales y operaciones del experimento particular; en otras palabras, el investigador
generaliza los resultados de un experimento particular a la clase de todos los experimentos
similares. Esta suerte de extensión de lo particular a lo general, es llamada inferencia
inductiva. Es uno de los caminos para encontrar conocimiento nuevo.

Como se sabe, la inferencia inductiva es un proceso peligroso. De hecho, es un teorema


de la lógica formal que en la inferencia inductiva está presente la incertidumbre. Uno no
puede, libremente, efectuar ciertas generalizaciones. Sin embargo, es posible efectuar
inferencias inciertas cuando se puede medir la incertidumbre asociada; para ello, el
experimento debe desarrollarse en el marco de ciertos principios.

Un papel de la estadística es la provisión de técnicas para efectuar inferencias inductivas


y para medir el grado de incertidumbre asociado. La incertidumbre es medida en términos
de probabilidades. En definitiva la denominada inferencia estadística es una inferencia
inductiva.

Antes de continuar, es importante decir algo sobre el otro tipo de inferencia, la inferencia
deductiva. Mientras las conclusiones que se logran a través de la inferencia inductiva son
probables, las conclusiones logradas por la inferencia deductiva son conclusivas.

Para ilustrar la inferencia deductiva, considere las siguientes premisas:

Premisa mayor: Uno de los ángulos interiores de un triángulo rectángulo vale 90


grados.

Premisa menor: El triángulo A es rectángulo

Si se acepta estas dos premisas, la conclusión obligada es:

Conclusión: Uno de los ángulos interiores del triángulo A vale 90 grados

Este es un ejemplo de inferencia deductiva que puede ser definida como un método para
deducir información (conclusión) a partir de hechos aceptados (premisas).

1
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

A pesar de la enorme importancia de la inferencia deductiva, gran parte del nuevo


conocimiento en el mundo real se logra a través de la inferencia inductiva.

En la matemática, por ejemplo, se utiliza la inferencia deductiva para probar teoremas;


mientras que en las ciencias empíricas se utiliza la inferencia inductiva para lograr
conocimiento nuevo.

Para ilustrar la inferencia inductiva considere el siguiente ejemplo:

Suponga que se tiene un silo de almacenamiento con 10 millones de semillas de flores


dentro. Se sabe que una parte de las semillas producirá flores blancas y la parte restante
producirá flores rojas. Se desea conocer cuántas (o que porcentaje) de las semillas
producirán flores blancas.

La única manera de estar seguros de la respuesta que se dé a la pregunta es plantar cada


semilla, esperar un tiempo, y luego proceder al conteo de las flores blancas.

Sin embargo, lo señalado no es factible ya que se quiere vender las semillas; aun cuando
no se las quiera vender, se preferiría obtener una respuesta sin tanto esfuerzo.

Otra manera de lograr una respuesta sería plantar unas pocas semillas, esperar un tiempo,
y en base a los colores de estas pocas flores, predecir cuántas de las 10 millones de
semillas, producirán flores blancas. Si por ejemplo se plantan 100 semillas y 40 de ellas
producen flores blancas, se podría afirmar que 40% de los 10 millones de semillas
producirán flores blancas. Obviamente, no se tendría ninguna seguridad sobre esta
afirmación. Desde el punto de vista de la estadística se podría llegar a una afirmación
probabilística como esta: el porcentaje de semillas que producirán flores blancas es algún
valor entre 35% y 45% y la probabilidad que esto ocurra es igual al 90%.

La manera descrita es, en los hechos, es la única factible. Este es un proceso de inferencia
inductiva. Nótese que no se tiene plena seguridad sobre la respuesta que se brinda aunque
se siente cierta confiabilidad en la respuesta en un sentido probabilístico.

1.2. Poblaciones y muestras

Se ha visto que el problema central en el descubrimiento de conocimiento nuevo en el


mundo real consiste en observar a unos pocos de los elementos en discusión; y sobre la
base de estos pocos plantear una conclusión referida a la totalidad de los elementos.

1.2.1. Definición

La totalidad de los elementos en discusión y acerca de los cuales se requiere información,


recibe el nombre de población.

La inferencia inductiva, en el mundo real, puede enfocarse de la siguiente manera: el


objetivo de una investigación (el problema) es estudiar algún aspecto referido a una
característica de una población; para ello, es imposible o poco práctico examinar la
población entera; sin embargo, se puede investigar una parte de la población (una muestra
de la población); y, sobre la base de esta investigación limitada, efectuar inferencias
relacionadas con la población entera.

2
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

En estadística, la característica de interés de la población se describe con una variable


aleatoria (por ejemplo, X) y la población se representa por la función de distribución o de
densidad de probabilidad de la variable aleatoria X, 𝒇𝑿 (𝒙); el objetivo de la investigación (el
problema a resolver) debe expresarse a través de un parámetro de 𝒇𝑿 (𝒙). Esto es:

REALIDAD MODELO ESTADÍSTICO

fX(x)
Población

Característica
de interés

Problema u objetivo de la investigación X


(relacionado con la característica de interés) Parámetros de X = {θ1 … θn}

1.2.2. Definición

fX(x)

σ2

Población:

µ X

Muestra aleatoria: X1, X2, X3, … , Xn

Realización: x1, x2, x3, … , xn (*)

(*) En estadística se dice que una variable aleatoria X se realiza cuando toma un valor específico x

Si las variables aleatorias X1, X2, X3, … , Xn tienen una función de distribución o densidad
de probabilidad conjunta dada por 𝑓𝑋1 ,𝑋2 ,⋯,𝑋𝑛 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ).

X1, X2, X3, … , Xn es una muestra aleatoria de tamaño n de una población 𝑓𝑋 (𝑥) con
media µ y varianza σ2, si y solamente si,

3
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

a)

𝑓𝑋1 ,𝑋2 ,⋯,𝑋𝑛 (𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ) = 𝑓𝑋1 (𝑥1 ) 𝑓𝑋2 (𝑥2 ) ⋯ 𝑓𝑋𝑛 (𝑥𝑛 )

Vale decir que las variables aleatorias X1, X2, X3, … , Xn son independientes

b)

𝑓𝑋 (. ) es común a cada una de las variables aleatorias X1, X2, X3, … , Xn (en forma y en
parámetros), esto es:

 Cada una de las variables aleatorias X1, X2, X3, … , Xn tiene la distribución de la
población:

𝑓𝑋 (𝑥) = 𝑓𝑋1 (𝑥1 ) = 𝑓𝑋2 (𝑥2 ) = ⋯ = 𝑓𝑋𝑛 (𝑥𝑛 )

 Cada una de las variables aleatorias X1, X2, X3, … , Xn tiene los parámetros de la
población:

𝐸[𝑋1 ] = 𝐸[𝑋2 ] = ⋯ = 𝐸[𝑋𝑛 ] = 𝜇

𝑉𝑎𝑟[𝑋1 ] = 𝑉𝑎𝑟[𝑋2 ] = ⋯ = 𝑉𝑎𝑟[𝑋𝑛 ] = 𝜎 2

En términos estrictamente estadísticos, X1, X2, X3, … , Xn es una muestra aleatoria de


tamaño n de una población 𝑓𝑋 (𝑥); si las variables aleatorias X1, X2, X3, … , Xn son
independientes e idénticamente distribuidas (iid)

4
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

REALIDAD MODELO ESTADÍSTICO

fX(x)
Población

Característica
de interés

Problema u objetivo de la investigación X


(relacionado con la característica de interés) Parámetros de X = {θ1 … θn}

Inferencia Muestra aleatoria:


Inductiva X1, X2, … Xn
Realización de la muestra:
x1, x2, … xn
Muestra Inferencia
estadística
Investigación de la muestra

Análisis estadístico
de la realización

1.3. Estadísticos y momentos de una muestra

1.3.1. Definición

Un estadístico es una función de variables aleatorias observables (medibles), y al mismo


tiempo es también una variable aleatoria observable (medible) y no contiene parámetros
desconocidos.

Se reitera que una variable aleatoria observable es una variable aleatoria que se puede
medir y obtener valores de la variable aleatoria. Parámetro desconocido es un parámetro
que no ha sido estimado.

Por ejemplo, si una variable aleatoria observable X sigue una distribución normal con media
µ y varianza σ2, donde los parámetros µ y σ2 son desconocidos; luego, X - µ no es un
estadístico ya que µ es un parámetro desconocida; tampoco X/σ es un estadístico, σ2 es
otro parámetro desconocido. Sin embargo, X, X + 3, X2, Ln X, son estadísticos.

Uno de los problemas centrales en estadística es precisamente encontrar


estadísticos apropiados para estimar parámetros.

5
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Por otro lado, si X1, X2, X3, … , Xn es una muestra aleatoria de una población fX(x) sigue
una distribución normal con media µ y varianza σ2, por ejemplo,
𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

Es un estadístico.

1
𝑃 = {min[𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 ] + 𝑚𝑎𝑥 [𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 ]}
2

También es un estadístico.

Sin embargo,

𝑇 =𝑋−𝜇

No es un estadístico, ya que µ es un parámetro desconocido.

1.3.2. Definición

Si X1, X2, X3, … , Xn es una muestra aleatoria de una población 𝑓𝑋 (𝑥), el r-avo momento
de la muestra, denotado por 𝑀𝑟′ , se define como:
𝑛
1
𝑀𝑟′ = ∑ 𝑋𝑖𝑟
𝑛
𝑖=1

En particular, si r = 1,
𝑛
1
𝑀1′ = ∑ 𝑋𝑖 = 𝑋̅
𝑛
𝑖=1

En palabras, el primer momento de la muestra es igual a la media de la muestra. Más


adelante se considerará en detalle la media de la muestra.

Nótese que los momentos de la muestra son ejemplos de estadísticos.

Recuerde que,

Si X es una variable aleatoria cuya función de distribución o de densidad de probabilidad es


fX(x), el r-avo momento de X, denotado por 𝜇𝑟′ , se define como:

𝜇𝑟′ = 𝐸[𝑋 𝑟 ]

Nótese que,

𝜇1′ = 𝐸[𝑋] = 𝜇𝑋

6
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

En palabras, el primer momento de una variable aleatoria X es igual a su media.

En el actual contexto, el r-avo momento de la variable aleatoria X, se constituye en el


r-avo momento de la población fX(x).

De esta manera, un momento de la muestra puede utilizarse para estimar el


correspondiente momento de la población, si este existe.

1.3.3. Teorema

Sea X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥).
Luego,

𝐸[𝑀𝑟′ ] = 𝜇𝑟′

En palabras, la esperanza o valor esperado del r-avo momento de la muestra es igual


al r-avo momento de la población

Demostrando el teorema se tiene que:


𝑛
1
𝐸[𝑀𝑟′ ] = 𝐸 [ ∑ 𝑋𝑖𝑟 ]
𝑛
𝑖=1

La esperanza de una constante por una variable es igual a la constante por la esperanza
de la variable, por tanto,
𝑛
1
𝐸[𝑀𝑟′ ] = 𝐸 [∑ 𝑋𝑖𝑟 ]
𝑛
𝑖=1

La esperanza de una suma es igual a la suma de las esperanzas, esto es,


𝑛 𝑛
1 1 1
𝐸[𝑀𝑟′ ] = ∑ 𝐸[𝑋𝑖𝑟 ] = ∑ 𝜇𝑟′ = 𝑛𝜇𝑟′ = 𝜇𝑟′
𝑛 𝑛 𝑛
𝑖=1 𝑖=1

1.4. Media de la muestra

1.4.1. Definición

Si X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥); la media de la muestra,
denotada por 𝑿 ̅ , se define como:

𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

7
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Nótese que la media de la muestra es función solamente de variables aleatorias


observables; por tanto, 𝑋̅ es un estadístico y consecuentemente es una variable aleatoria y
como tal tiene una media, una varianza y una distribución.

1.4.2. Teorema

Sea, X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) con media µ y varianza
σ2.

Sea,
𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

La media de la muestra.

Luego,

a)

𝐸[𝑋̅] = 𝜇𝑋̅ = 𝜇

En palabras, la media de la muestra, en promedio, es igual a la media de la población.

b)

𝜎2
𝑉𝑎𝑟[𝑋̅] = 𝜎𝑋2̅ =
𝑛

En palabras, la varianza de la media de la muestra es igual a la varianza de la población


dividida por el tamaño de la muestra.

Demostrando este teorema se tiene que,

a)
𝑛 𝑛 𝑛
1 1 1 1
𝐸[𝑋̅] = 𝐸 [ ∑ 𝑋𝑖 ] = 𝐸 [∑ 𝑋𝑖 ] = ∑ 𝐸[𝑋𝑖 ] = {𝐸[𝑋1 ] + 𝐸[𝑋2 ] + ⋯ + 𝐸[𝑋𝑛 ]}
𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1

Recuerde que,

𝐸[𝑋1 ] = 𝐸[𝑋2 ] = ⋯ = 𝐸[𝑋𝑛 ] = 𝜇

Por tanto,

1 1
𝐸[𝑋̅] = {𝜇 + 𝜇 + ⋯ + 𝜇} = {𝑛𝜇} = 𝜇
𝑛 𝑛

8
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

b)
𝑛
1
𝑉𝑎𝑟[𝑋̅] = 𝑉𝑎𝑟 [ ∑ 𝑋𝑖 ]
𝑛
𝑖=1

Recuerde que en general,

𝑉𝑎𝑟[𝑎𝑋] = 𝑎2 𝑉𝑎𝑟[𝑋]

Por tanto,
𝑛
1
𝑉𝑎𝑟[𝑋̅] = 2 𝑉𝑎𝑟 [∑ 𝑋𝑖 ]
𝑛
𝑖=1

Como,

X1, X2, X3, … , Xn son variables aleatorias independientes,


𝑛
1 1
𝑉𝑎𝑟[𝑋̅] = 2 ∑ 𝑉𝑎𝑟[𝑋𝑖 ] = 2 {𝑉𝑎𝑟[𝑋1 ] + 𝑉𝑎𝑟[𝑋2 ] + ⋯ + 𝑉𝑎𝑟[𝑋𝑛 ]}
𝑛 𝑛
𝑖=1

Recordando que,

𝑉𝑎𝑟[𝑋1 ] = 𝑉𝑎𝑟[𝑋2 ] = ⋯ = 𝑉𝑎𝑟[𝑋𝑛 ] = 𝜎 2

Finalmente se tiene que,

1 2 1 𝜎2
𝑉𝑎𝑟[𝑋̅] = {𝜎 + 𝜎 2
+ ⋯ + 𝜎 2}
= {𝑛𝜎 2}
=
𝑛2 𝑛2 𝑛

Hasta ahora se conocen la media y la varianza de la media de la muestra (𝑋̅); falta


conocer la forma de la distribución de 𝑋̅, 𝑓𝑋̅ (. ). El siguiente teorema, uno de los más
importantes de la estadística, proporciona la distribución asintótica de 𝑋̅.

1.4.3. Teorema central del límite

Sea 𝑓𝑋 (𝑥) una población con media µ y varianza σ2.

Sea X1, X2, X3, … , Xn una muestra aleatoria de tamaño n de dicha población.
1
Sea 𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖 la media de la muestra.

Luego, a medida que 𝑛 → ∞,

̅ , 𝒇𝑿̅ (. ), converge a una distribución normal con media µ y varianza


La distribución de 𝑿
σ /n.
2

9
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

̅ , esto es:
Si se estandariza 𝑿

𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛

Luego, a medida que 𝑛 → ∞,

La distribución de 𝑍, 𝑓𝑍 (𝑧), converge a una distribución normal estandarizada.

Vale decir,

𝑓𝑋 (𝑥)

σ2

µ X

Muestra aleatoria: X1, X2, X3, … , Xn


1
Media de la muestra: 𝑋̅ = 𝑛 ∑𝑛𝑖=1 𝑋𝑖

𝑨 𝒎𝒆𝒅𝒊𝒅𝒂 𝒒𝒖𝒆 𝒏 → ∞

𝑓𝑋̅ (. )

σ2 / n

µ ̅
𝑿

Este teorema señala que la distribución de Z (que es 𝑿 ̅ estandarizada) converge a una


̅ converge a una
distribución normal estandarizada (µ = 0; σ2 = 1); o que la distribución de 𝑿
distribución normal con media µ y varianza σ2/n.

10
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Lo sorprendente de este teorema es que no se dice nada sobre la forma de la distribución


de la población; cualquiera sea la forma de esta distribución, la distribución de la media de
̅ ) es aproximadamente normal para muestras grandes.
la muestra (𝑿

La demostración de este teorema se basa en la unicidad de la función generatriz de


momentos.

Recuerde que la función generatriz de momentos de una variable aleatoria X que sigue una
distribución normal con media µ y varianza σ2, viene dada por:
1 2 2
𝑚𝑋 (𝑡) = 𝑒 𝜇𝑡+ 2𝜎 𝑡

Si Z sigue una distribución normal estandarizada,


1 2
𝑚𝑍 (𝑡) = 𝑒 2𝑡

En el presente caso, se demostrará que, a medida que 𝑛 → ∞, la función generatriz de


momentos de Z

𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛

Converge a:
1 2
𝑚𝑍 (𝑡) = 𝑒 2𝑡

Iniciando la demostración,

∑ 𝑋𝑖 ∑ 𝑋𝑖 −𝑛𝜇
𝑋̅− 𝜇 −𝜇
𝑡( 𝜎 ) 𝑡( 𝑛 𝜎 ) 𝑡( 𝜎
𝑛 ) 𝑡√𝑛 ∑ 𝑋𝑖 −𝑛𝜇
( )
𝑚𝑍 (𝑡) = 𝐸[𝑒 𝑡𝑧 ] = 𝐸 𝑒 √𝑛 =𝐸 𝑒 √𝑛 =𝐸 𝑒 √𝑛 = 𝐸 [𝑒 𝑛 𝜎 ]

[ ] [ ] [ ]
𝑡 𝑋 −𝜇 𝑛 𝑡 𝑋𝑖 −𝜇
∑( 𝑖 ) ( )
𝑚𝑍 (𝑡) = 𝐸 [𝑒 √𝑛 𝜎 ] = 𝐸 [∏ 𝑒 √𝑛 𝜎
]
𝑖=1

Como las variables aleatorias X1, X2, … , Xn son independientes (por definición de muestra
aleatoria), la esperanza de un producto es igual al producto de las esperanzas; esto es,
𝑛 𝑡 𝑋𝑖 −𝜇
( )
𝑚𝑍 (𝑡) = ∏ 𝐸 [𝑒 √𝑛 𝜎 ]

𝑖=1

Si,

𝑋𝑖 − 𝜇
𝑌𝑖 =
𝜎

11
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑛 𝑡 𝑛
𝑌𝑖 𝑡
𝑚𝑍 (𝑡) = ∏ 𝐸 [𝑒 √𝑛 ] = ∏ 𝑚𝑌𝑖 ( )
𝑖=1 𝑖=1
√𝑛

𝑡 𝑛
𝑚𝑍 (𝑡) = [𝑚𝑌 ( 𝑛)] (*)

Antes de continuar es importante recordar la siguiente serie:



𝑋
𝑋𝑛 𝑋2 𝑋3
𝑒 =∑ =1+𝑋+ + +⋯
𝑛! 2 6
𝑛=0


𝑡𝑋
(𝑡𝑋)𝑛 𝑡2𝑋2 𝑡3𝑋3
𝑒 =∑ = 1 + 𝑡𝑋 + + +⋯
𝑛! 2 6
𝑛=0

En consecuencia,

𝑡2𝑋2 𝑡3𝑋3
𝑚𝑋 (𝑡) = 𝐸[𝑒 𝑡𝑋 ] = 𝐸 [1 + 𝑡𝑋 + + + ⋯]
2! 3!

Recordando además que:

𝜇𝑟′ = 𝐸[𝑋 𝑟 ]

El r-avo momento de la variable aleatoria X es igual a la esperanza de Xr

Se tiene,

1 2 ′ 1
𝑚𝑋 (𝑡) = 1 + 𝑡𝜇1′ + 𝑡 𝜇2 + 𝑡 3 𝜇3′ + ⋯
2! 3!

Esta última expresión es la serie de Taylor para la función generatriz de momentos.

Si,

𝑋−𝜇
𝑌=
𝜎

El primer momento de Y (media de Y) es igual a cero y el segundo momento de Y


(Varianza de Y) es igual a 1; esto es,

𝜇1′ = 0
𝜇2′ = 1

Por tanto,

12
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

1 2 1 3 ′
𝑚𝑌 (𝑡) = 1 + 0 + 𝑡 + 𝑡 𝜇3 + ⋯
2! 3!

𝑡 1 𝑡 2 1 𝑡 3
𝑚𝑌 ( ) = 1 + 0 + ( ) + ( ) 𝜇3′ + ⋯
√𝑛 2! √𝑛 3! √𝑛

𝑡 1 𝑡2 1 ′ 𝑡 3
𝑚𝑌 ( ) = 1 + 0 + + 𝜇3 ( ) + ⋯
√𝑛 2! 𝑛 3! √𝑛

Reemplazando esta última expresión en (*) y sabiendo que el tercer momento de Y (𝜇3′ ) es
despreciable, se tiene,
𝑛
1 2
𝑡 𝑛 𝑡 + ⋯
𝑚𝑍 (𝑡) = [𝑚𝑌 ( )] = [1 + 2 ]
√𝑛 𝑛

Ahora,
𝑛
1 2
𝑡 + ⋯
𝐿𝑖𝑚 𝑚𝑍 (𝑡)𝑛→∞ = 𝐿𝑖𝑚𝑛→∞ [1 + 2 ]
𝑛

Recordando que,

𝑢 𝑛
𝐿𝑖𝑚 (1 + ) = 𝑒𝑢
𝑛 𝑛→∞

Finalmente se tiene,
𝑛
1 2
𝑡 +⋯ 1 2
𝐿𝑖𝑚 𝑚𝑍 (𝑡)𝑛→∞ = 𝐿𝑖𝑚𝑛→∞ [1 + 2 ] = 𝑒 2𝑡
𝑛
El resultado obtenido es la función generatriz de momentos de una distribución normal con
µ = 0 y σ2 = 1

En efecto, a medida que 𝑛 → ∞, la distribución de:

𝑋̅ − 𝜇
𝑍= 𝜎
√𝑛

Converge a una distribución normal con µ = 0 y σ2 = 1

1.4.4. Ley débil de los grandes números

Sea µ es la media de una población 𝑓𝑋 (𝑥).


El problema es estimar µ.

13
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

En cierto sentido, µ es el promedio de un infinito número de valores de la variable aleatoria


X. En cualquier problema real, es posible observar (medir) solamente un número finito de
valores de la variable aleatoria X. Una pregunta crucial es: Utilizando solo un número finito
de valores de X (esto es una muestra aleatoria de tamaño n) ¿pueden efectuarse
inferencias confiables relacionadas con µ, el promedio de un infinito número de valores de
X? La respuesta es “si”. La ley débil de los números grandes justifica esta respuesta.

La ley de los grandes números dice:

Sea 𝑓𝑋 (𝑥) una población con media µ y varianza σ2.


Sea 𝑋̅ la media de una muestra aleatoria de tamaño n de 𝑓𝑋 (𝑥).

Sean 𝜀 𝑦 𝛿 dos números tales que 𝜀 > 0 y 0 < 𝛿 < 1.

Sea n un entero tal que,

𝜎2
𝑛>
𝜀2𝛿

Luego,

𝑃[−𝜀 < 𝑋̅ − 𝜇 < 𝜀] ≥ 1 − 𝛿

En palabras, la ley débil de los grandes números establece que para dos números pequeños
elegidos 𝜀 y 𝛿, existe un entero 𝑛 tal que si una muestra aleatoria de tamaño n o mayor
obtenida de la población 𝑓𝑋 (𝑥) y cuya media es 𝑋̅; la probabilidad es mayor a 1 − 𝛿 de que
𝑋̅ se aleje de µ una cantidad menor a 𝜀.

El siguiente ejemplo ilustra esta ley.

Suponga que una población 𝑓𝑋 (𝑥) tiene una media desconocida y una varianza igual a 1.
¿Cuán grande debe ser una muestra aleatoria para que la probabilidad que la media de la
muestra 𝑋̅ se aleje menos de 0,5 de la media de la población, sea al menos 0,95?

Se tiene que:

σ2 = 1; 𝜀 =0,5 y 𝛿 = 0,05

Por tanto,

𝜎2 1
𝑛> 2
= = 80
𝛿𝜀 0,05(0,5)2

1.5. Varianza de la muestra

1.5.1. Definición

Si X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥); la varianza de la
muestra, denotada por S2, se define como:

14
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑛
1
2
𝑆 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1

Nótese que la media de la muestra es función solamente de variables aleatorias


observables; por tanto, S2 también es un estadístico y consecuentemente es una variable
aleatoria y como tal, tiene una media, una varianza y una distribución.

1.5.2. Teorema

Sea, X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) con media µ y varianza
σ2.

Sea,
𝑛
1
2
𝑆 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1

La varianza de la muestra.

Luego,

a)

𝐸[𝑆 2 ] = 𝜎 2

En palabras, la varianza de la muestra, en promedio, es igual a la varianza de la población.

b)

1 𝑛−3 4
𝑉𝑎𝑟[𝑆 2 ] = (𝜇4 − 𝜎 ) ; 𝑝𝑎𝑟𝑎 𝑛 > 1
𝑛 𝑛−1

Donde, µ4 es el cuarto momento de X

La varianza de la varianza de la muestra es irrelevante para fines prácticos.

Se demuestra solamente la primera parte del teorema

a)

Inicialmente, se puede ver que:


𝑛 𝑛 𝑛

∑(𝑋𝑖 − 𝜇) = ∑(𝑋𝑖 − 𝑋̅ + 𝑋̅ − 𝜇) = ∑[(𝑋𝑖 − 𝑋̅ ) + (𝑋̅ − 𝜇)]2


2 2

𝑖=1 𝑖=1 𝑖=1

15
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑛 𝑛

∑(𝑋𝑖 − 𝜇) = ∑[(𝑋𝑖 − 𝑋̅)2 + 2(𝑋𝑖 − 𝑋̅)(𝑋̅ − 𝜇) + (𝑋̅ − 𝜇)2 ]


2

𝑖=1 𝑖=1
0
𝑛 𝑛 𝑛

∑(𝑋𝑖 − 𝜇)2 = ∑(𝑋𝑖 − 𝑋̅)2 + 2(𝑋̅ − 𝜇) ∑(𝑋𝑖 − 𝑋̅) + 𝑛(𝑋̅ − 𝜇)2


𝑖=1 𝑖=1 𝑖=1

𝑛 𝑛

∑(𝑋𝑖 − 𝜇) = ∑(𝑋𝑖 − 𝑋̅)2 + 𝑛 (𝑋̅ − 𝜇)2


2

𝑖=1 𝑖=1

De donde,
𝑛 𝑛

∑(𝑋𝑖 − 𝑋̅)2 = ∑(𝑋𝑖 − 𝜇)2 − 𝑛(𝑋̅ − 𝜇)2 (∗)


𝑖=1 𝑖=1

Continuando con la demostración del teorema,


𝑛 𝑛
1 1
𝐸[𝑆 2]
= 𝐸[ ∑(𝑋𝑖 − 𝑋̅)2 ] = 𝐸 [∑(𝑋𝑖 − 𝑋̅)2 ]
𝑛−1 𝑛−1
𝑖=1 𝑖=1

Utilizando (∗), se tiene:


𝑛 𝑛
1 1
𝐸[𝑆 2]
= 𝐸[ ∑(𝑋𝑖 − 𝜇)2 − 𝑛(𝑋̅ − 𝜇)2 ] = {∑ 𝐸[(𝑋𝑖 − 𝜇)2 ] − 𝑛𝐸[(𝑋̅ − 𝜇)2 ]}
𝑛−1 𝑛−1
𝑖=1 𝑖=1

𝑛 𝑛
1 1 𝜎2
𝐸[𝑆 2]
= {∑ 𝑉𝑎𝑟[𝑋] − 𝑛𝑉𝑎𝑟[𝑋̅]} = {∑ 𝜎 2 − 𝑛 }
𝑛−1 𝑛−1 𝑛
𝑖=1 𝑖=1

1 1
𝐸[𝑆 2 ] = {𝑛𝜎 2 − 𝜎 2 } = 𝜎 2 (𝑛 − 1) = 𝝈𝟐
𝑛−1 𝑛−1

Falta conocer la forma de la distribución de S2

2. Muestreo de poblaciones que siguen una distribución normal

2.1. El rol de la distribución normal en la estadística

Como se verá más adelante, la distribución normal juega un rol predominante en la


estadística. Solo el teorema del límite central asegura que este será el caso; aunque,
existen otras razones igualmente importantes.

En primer lugar, muchas poblaciones encontradas en investigaciones en diferentes áreas


del conocimiento, parecen tener una distribución normal a un buen grado de aproximación.
Este fenómeno es bastante razonable en virtud del teorema del límite central.

16
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Otra consideración que favorece a la distribución normal es el hecho que la matemática de


la estadística basada en una población que sigue una distribución normal es bastante
accesible.

2.1.1. Definición

Si X es una variable aleatoria cuya función de densidad de probabilidad viene dada por:

1 1 𝑥−𝜇 2
− ( )
𝑓𝑋 (𝑥) = 𝑒 2 𝜎 ; −∞ ≤𝑥≤∞
√2𝜋 𝜎

Se dice que la variable aleatoria X sigue una distribución normal con media µ y varianza
σ2; y se denota por 𝑿 ~ 𝑵(𝝁; 𝝈𝟐 ).

La forma de la distribución normal es aproximadamente la siguiente:

fX(x)

σ2

𝑿 ~ 𝑵(𝝁; 𝝈𝟐 )
µ

Nótese que:

 La curva es simétrica respecto de un eje vertical que pasa por la media µ


 La curva tiene sus puntos de inflexión en 𝑥 = 𝜇 ± 𝜎, es cóncava hacia abajo si 𝜇 −
𝜎 < 𝑋 < 𝜇 + 𝜎 y cóncava hacia arriba en caso contrario.
 La curva se aproxima en forma asintótica al eje horizontal, a medida que avanza
en uno u otro sentido a partir de la media.

2.1.2. Teorema

Sea X una variable aleatoria que sigue una distribución normal con media µ y varianza
σ2.
Luego, reiterando:

i)

𝐸[𝑋] = 𝜇𝑋 = 𝜇

17
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

ii)

𝑉𝑎𝑟[𝑋] = 𝜎𝑋2 = 𝜎 2

Para demostrar este teorema se recurre a la función generatriz de momentos de X

Para ello, inicialmente, se obtiene la función generadora de momentos de X que sigue una
distribución normal:
∞ ∞
1 1 𝑥−𝜇 2
𝑡𝑥 ] 𝑡𝑥 𝑡𝑥 − ( )
𝑚𝑋 (𝑡) = 𝐸[𝑒 = ∫ 𝑒 𝑓𝑋 (𝑥)𝑑𝑥 = ∫ 𝑒 𝑒 2 𝜎 𝑑𝑥
√2𝜋𝜎
−∞ −∞

∞ ∞
1 1 1 1
𝑡𝑥 − (𝑥 2 −2𝜇𝑥+𝜇2 ) − (−2𝑡𝑥𝜎 2 +𝑥 2 −2𝜇𝑥+𝜇2 )
𝑚𝑋 (𝑡) = ∫ 𝑒 2𝜎2 𝑑𝑥 = ∫ 𝑒 2𝜎2 𝑑𝑥
√2𝜋𝜎 √2𝜋𝜎
−∞ −∞


1 1
− [𝑥 2 −2𝑥(𝑡𝜎 2 +𝜇)+𝜇2 )
𝑚𝑋 (𝑡) = ∫ 𝑒 2𝜎2 𝑑𝑥
√2𝜋𝜎
−∞

Trabajando en una parte del exponente (𝑥 2 − 2𝑥(𝑡𝜎 2 + 𝜇) + 𝜇2 ), se conoce que,

[𝑥 − (𝜇 + 𝑡𝜎 2 )]2 = 𝑥 2 − 2𝑥(𝜇 + 𝑡𝜎 2 ) + (𝜇 + 𝑡𝜎 2 )2

Por tanto,

𝑥 2 − 2𝑥(𝑡𝜎 2 + 𝜇) + 𝜇2 = [𝑥 − (𝜇 + 𝑡𝜎 2 )]2 − 2𝜇𝑡𝜎 2 − 𝑡 2 𝜎 4

Continuando con la obtención de la función generadora de momentos se tiene,



1 1 2
− {[𝑥−(𝜇+𝑡𝜎 2 )] −2𝜇𝑡𝜎 2 −𝑡 2 𝜎 4 }
𝑚𝑋 (𝑡) = ∫ 𝑒 2𝜎2 𝑑𝑥
√2𝜋𝜎
−∞

∞ 2
1 [𝑥−(𝜇+𝑡𝜎 2 ] 1
− +𝜇𝑡+ 𝜎 2 𝑡 2
𝑚𝑋 (𝑡) = ∫ 𝑒 2𝜎2 2 𝑑𝑥
√2𝜋𝜎
−∞

∞ 2
1 2 2 1 1 𝑥−(𝜇+𝑡𝜎 2
− [ ]
𝑚𝑋 (𝑡) = 𝑒 𝜇𝑡 + 2𝜎 𝑡 ∫ 𝑒 2 𝜎 𝑑𝑥
√2𝜋𝜎
−∞

Ahora si,

𝑥 − (𝜇 + 𝑡𝜎 2 )
𝑤=
𝜎
𝑑𝑥
𝑑𝑤 = ; 𝑑𝑥 = 𝜎𝑑𝑤
𝜎

18
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Por tanto,

1 2 2 1 1 2
𝑚𝑋 (𝑡) = 𝑒 𝜇𝑡 + 2𝜎 𝑡 ∫ 𝑒 − 2𝑤 𝜎𝑑𝑤
√2𝜋𝜎
−∞


1 2 2 1 1 2
𝑚𝑋 (𝑡) = 𝑒 𝜇𝑡 + 2𝜎 𝑡 ∫ 𝑒 − 2𝑤 𝑑𝑤
√2𝜋
−∞

La integral es el área total debajo de una distribución normal estandarizada; vale decir,
media igual a cero (0) y varianza igual a uno (1). Este área es igual a uno (1).

Finalmente,
𝟏 𝟐 𝟐
𝒎𝑿 (𝒕) = 𝒆𝝁𝒕 + 𝟐𝝈 𝒕

i)
𝑑𝑚𝑋 (𝑡)
𝜇𝑋 = 𝐸[𝑋] = 𝜇1′ =
𝑑𝑡𝑡→0

𝑑𝑚𝑋 (𝑡) 1 2 2
= 𝑒 𝜇𝑡 + 2𝜎 𝑡 (𝜇 + 𝜎 2 𝑡)
𝑑𝑡
𝑑𝑚𝑋 (𝑡) 1 2(0)
= 𝑒 𝜇(0)+ 2𝜎 (𝜇 + 𝜎 2 (0)) = 𝜇
𝑑𝑡𝑡→0

Por tanto,

𝝁𝑿 = 𝑬[𝑿] = 𝝁

ii)

𝑉𝑎𝑟[𝑋] = 𝐸[𝑋 2 ] − 𝜇𝑋2

Donde,
𝑑2 𝑚𝑋 (𝑡)
𝐸[𝑋 2 ] = 𝜇2′ =
𝑑𝑡 2 𝑡→0

𝑑2 𝑚𝑋 (𝑡) 1 2 2 1 2 2 1 2 2
2
= 𝑒 𝜇𝑡+ 2𝜎 𝑡 𝜎 2 + (𝜇 + 𝜎 2 𝑡)𝑒 𝜇𝑡+ 2𝜎 𝑡 (𝜇 + 𝜎 2 𝑡) = 𝑒 𝜇𝑡+ 2𝜎 𝑡 [𝜎 2 + (𝜇 + 𝜎 2 𝑡)2 ]
𝑑𝑡

𝑑2 𝑚𝑋 (𝑡)
2 = 𝜎 2 + 𝜇2
𝑑𝑡𝑡→0

Por tanto,

19
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑑2 𝑚𝑋 (𝑡)
𝐸[𝑋 2 ] = 𝜇2′ = = 𝜎 2 + 𝜇2
𝑑𝑡 2 𝑡→0

Finalmente,

𝑉𝑎𝑟[𝑋] = 𝐸[𝑋 2 ] − 𝜇𝑋2 = 𝜎 2 + 𝜇2 − 𝜇2 = 𝝈𝟐

2.1.3. Definición

Si Z es una variable aleatoria que sigue una distribución normal con media µ = 0 y
varianza σ2 = 1, se dice que la variable aleatoria Z sigue una distribución normal
estandarizada y se denota por 𝒁 ~ 𝑵(𝟎; 𝟏). Esto ez,

fZ(z)

σ2 = 1

𝒁 ~ 𝑵(𝟎, 𝟏)
µ=0

2.1.4. Teorema

Sea,

𝑋 ~ 𝑁(𝜇; 𝜎 2 )

Sea, Z una variable aleatoria tal que:

𝑋−𝜇
𝑍=
𝜎

Luego,

𝑍 ~ 𝑁(0; 1)

Este teorema es muy importante para operar con la distribución normal. En palabras,
dice que, con el cambio de variable señalado, cualquier distribución normal puede
ser convertida en una distribución normal estandarizada

La pregunta inmediata es: ¿para que necesitamos convertir una distribución normal
cualquiera en una distribución normal estandarizada?

La respuesta está en el siguiente ejercicio.

20
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.1.5. Ejercicio 1

Problema:

Sea,

𝑋 ~ 𝑁(10; 9)

Calcular P(X ≤ 12)

Solución:

Se conoce que la variable aleatoria X sigue una distribución normal con media µ = 10 y
varianza σ2 = 9; esto es,

𝒇𝑿 (𝒙)

P(X ≤ 12)

σ2 = 9; σ =3

𝑋 ~ 𝑁(10; 9)
µ = 10
x0 = 12

Por tanto,
12
1 1 𝑥−10 2
− ( )
𝑃(𝑋 ≤ 12) = ∫ 𝑒 2 3 𝑑𝑥
√2𝜋3
−∞

Lamentablemente, esta integral es indeterminada; vale decir, no existe. ¿Qué hacer?. Se


debe recurrir a una aproximación numérica. Afortunadamente, ya se cuenta con la
aproximación numérica requerida y esta vienen en tablas. Sin embargo, estas tablas son
válidas solamente para una distribución normal estandarizada. Por tanto, aquí surge la
necesidad de convertir la distribución normal que se tiene en una distribución normal
estandarizada. Vale decir,

𝑋 − 𝜇 12 − 10
𝑃(𝑋 ≤ 12) = 𝑃 ( ≤ ) = 𝑃(𝑍 ≤ 0,67)
𝜎 3

Gráficamente, esta estandarización se puede expresar de la siguiente manera:

21
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝒇𝑿 (𝒙)

P(X ≤ 12)

σ2 = 9; σ =3

𝑿 ~ 𝑵(𝟏𝟎; 𝟗)
µ = 10
x0 = 12

𝒇𝒁 (𝒛)

P(Z ≤ 0,67)

𝑿−𝝁
𝒁= 𝝈
~𝑵(𝟎; 𝟏)
µ=0
z0 = 0,67

El acceso a la tabla (cualquier libro de estadística tiene esta tabla, la que se muestra es una
parte de la tabla) es muy sencillo, tal como se muestra a continuación:

Primer decimal Segundo decimal

z0 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133

Por tanto,

𝑋 − 𝜇 12 − 10
𝑃(𝑋 ≤ 12) = 𝑃 ( ≤ ) = 𝑃(𝑍 ≤ 0,67) = 𝟎, 𝟕𝟒𝟖𝟔
𝜎 3

22
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.2. Media de la muestra

2.2.1. Teorema

Sea X1, X2, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) que sigue una distribución
normal con media µ y varianza σ2.

Sea,
𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

La media de la muestra.

Luego,

𝑋̅ es una variable aleatoria que sigue una distribución normal con media µ y varianza σ2/n

Este es un teorema muy parecido al teorema del límite central. Sin embargo, en el teorema
del límite central la forma de la distribución de la población es cualquiera; en este teorema
es normal. En el teorema del límite central, la media de la muestra 𝑋̅ converge, a medida
que 𝑛 → ∞, a una distribución normal; en este teorema, 𝑋̅ tiene una distribución normal.

En la demostración de este teorema también se recurrirá al concepto de la función


generatriz de momentos.
𝑛 𝑛 𝑛
𝑡
∑ 𝑋𝑖 𝑋𝑖 𝑋𝑖 𝑡
𝑡𝑋̅
𝑚𝑋̅ (𝑡) = 𝐸[𝑒 ] = 𝐸 [𝑒 𝑛 ] = 𝐸 [∏ 𝑒 𝑡 𝑛 ] = ∏ [𝑒 𝑡 𝑛 ] = ∏ 𝑚𝑋𝑖 ( )
𝑛
𝑖=1 𝑖=1 𝑖=1

Si 𝑋 ~ 𝑁(𝜇; 𝜎 2 ), se tiene que,


1 2 2
𝑚𝑋 (𝑡) = 𝑒 𝜇𝑡 + 2𝜎 𝑡

𝑡 𝜇𝑡 1 2 𝑡 2
+ 𝜎
𝑚𝑋 ( ) = 𝑒 𝑛 2 𝑛2
𝑛

Continuando con la demostración del teorema,


𝑛
𝜇𝑡 1 2 𝑡 2 1 𝜎2
+ 𝜎 𝜇𝑡+ ( 2 )𝑡 2
𝑚𝑋̅ (𝑡) = ∏ 𝑒 𝑛 2 𝑛2 = 𝑒 2𝑛
𝑖=1

Esta última expresión es la función generatriz de momentos de una distribución normal


con media µ y varianza σ2/n. Por tanto, el teorema queda plenamente demostrado

23
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.3. Distribución Chi-cuadrada

La idea es encontrar la distribución de la varianza de la muestra,


𝑛
1
2
𝑆 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1

2.3.1. Definición

Si X es una variable aleatoria cuya función de densidad de probabilidad viene dada por:

1 1 𝑘⁄2 𝑘 1
𝑓𝑋 (𝑥) = ( ) 𝑥 2 −1 𝑒 − 2𝑥 ; 𝑥 ≥ 0; 𝑘 𝑒𝑠 𝑢𝑛 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝛤(𝑘⁄2) 2

Se dice que la variable aleatoria X sigue una distribución chi-cuadrada con k grados de
libertad y se denota por: 𝑿 ~ Ӽ𝟐𝒌

Nótese que la función de densidad de probabilidad incluye la función gamma. Recuerde


que,

𝛤(𝑡) = ∫ 𝑥 𝑡−1 𝑒 −𝑥 𝑑𝑥 ; 𝑡 > 0


0

Ocurre además que,

𝛤(𝑡 + 1) = 𝑡𝛤(𝑡)

Si t = n (un entero)

𝛤(𝑛 + 1) = 𝑛!

2.3.2. Teorema

Sea 𝑋 ~ Ӽ2𝑘

Luego,

i)

𝐸[𝑋] = 𝑘

ii)

𝑉𝑎𝑟[𝑋] = 2𝑘

iii)

24
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑘
1 2 1
𝑚𝑋 (𝑡) = [ ] ;𝑡 <
1 − 2𝑡 2

La distribución chi-cuadrada es un caso particular de la distribución gamma con


parámetros r y θ iguales, respectivamente, a k/2 y ½. La demostración del teorema es más
accesible cuando se efectúa para la distribución gamma.

Nótese que el parámetro de la distribución chi-cuadrada es k; si se conoce k se conoce


la media, la varianza y la forma específica de la distribución de X.

La forma general de la distribución chi-cuadrada es la siguiente:

𝑓𝑋 (𝑥)

Var [X] = 2k

0 E[X] = k 𝑋 ~ Ӽ𝟐𝒌

2.3.3. Ejercicio 2

Problema:
2
Sea 𝑋 ~ Ӽ10

Calcular la 𝑃(𝑋 ≤ 16,0)

25
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Solución:

𝑓𝑋 (𝑥)

P(X ≤ 16,0)

0 x0= 16,0 𝑋 ~ Ӽ𝟐𝟏𝟎

16
1 1 5 1
𝑃(𝑋 ≤ 16,0) = ∫ ( ) 𝑥 4 𝑒 − 2𝑥 𝑑𝑥
𝛤(10) 2
0

La integral es compleja, nadie desea resolver la misma; la solución es recurrir a una


aproximación numérica que generalmente viene en una tabla. Cualquier libro de estadística
incluye esta tabla. A continuación se muestra una parte de la misma.

PROBABILIDADES CON LA DISTRIBUCIÓN CHI-CUADRADA


𝒇𝑿 (𝒙)

F = P(X ≤ x0)

0 x0 𝑿 ~ Ӽ𝟐𝒌
K F
0,005 0,010 0,025 0,050 0,100 0,250 0,500 0,750 0,900 0,950 0,975 0,990 0,995
8 1,34 1,65 2,18 2,73 3,49 5,07 7,34 10,2 13,4 15,5 17,5 20,1 22,0
9 1,73 2,09 2,70 3,33 4,17 5,90 8,34 11,4 14,7 16,9 19,0 21,7 23,6
10 2,16 2,56 3,25 3,94 4,87 6,74 9,34 12,5 16,0 18,3 20,5 23,2 25,2
11 2,60 3,05 3,82 4,57 5,58 7,58 10,30 13,7 17,3 19,7 121,9 24,7 26,8
12 3,07 3,57 4,40 5,23 6,30 8,44 11,30 14,8 18,5 21,0 23,3 26,2 28,3
13 3,57 4,11 5,01 5,89 7,04 9,30 12,30 16,0 19,8 22,4 24,7 27,7 29,8

Se busca la fila correspondiente a los grados de libertad (en este caso k =10); en esta fila
se busca el valor correspondiente a x0 (en este caso x0 = 16,0); finalmente se obtiene la
probabilidad correspondiente en la fila de valores de F. En este caso,

𝑃(𝑋 ≤ 16,0) = 0,900

26
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Si la tabla no incluye el valor x0 de interés, hay que proceder a una interpolación lineal
tomando el inmediato inferior y el inmediato superior. Nótese que la tabla también puede
ser utilizada para encontrar x0 cuando se conoce F.

2.3.4. Teorema

Sea X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) que sigue una
distribución normal con media µ y varianza σ2.

Sea,
𝑛
𝑋𝑖 − 𝜇 2
𝑈 = ∑( )
𝜎
𝑖=1

Luego,

𝑈 ~ Ӽ2𝑛

En palabras, la suma de n distribuciones normales estandarizadas independientes elevadas


al cuadrado sigue una distribución chi-cuadrada con n grados de libertad.

Para demostrar este teorema, considere lo siguiente:

Las variables aleatorias X1, X2, X3, … , Xn son independientes (concepto de muestra
aleatoria); y que,

𝑋𝑖 − 𝜇
𝑍𝑖 = ~ 𝑁(0; 1)
𝜎
𝑛

𝑈 = ∑ 𝑍𝑖2
𝑖=1

Luego,
𝑛 𝑛
𝑡𝑈 ] 𝑡 ∑ 𝑍𝑖2 𝑡𝑍𝑖2 2
𝑚𝑈 (𝑡) = 𝐸[𝑒 = 𝐸 [𝑒 ] = 𝐸 [∏ 𝑒 ] = ∏ 𝐸 [𝑒 𝑡𝑍𝑖 ] (∗)
𝑖=1 𝑖=1

∞ ∞ ∞
𝑡𝑍𝑖2 𝑡𝑧 2
1 −
1 2
𝑧 1 1 2 2 1 1
(1−2𝑡)𝑧 2
𝐸 [𝑒 ]= ∫𝑒 𝑒 2 𝑑𝑧 = ∫ 𝑒 − 2𝑧 +𝑡𝑧 𝑑𝑧 = ∫ 𝑒− 2 𝑑𝑧
√2𝜋 √2𝜋 √2𝜋
−∞ −∞ −∞
1

𝑡𝑍𝑖2
1 √1 − 2𝑡 1 2
𝐸 [𝑒 ]= ∫ 𝑒 − 2(1−2𝑡)𝑧 𝑑𝑧
√1 − 2𝑡 √2𝜋
−∞

1
Área debajo de una distribución normal con 𝜇 = 0 𝑦 𝜎 2 = 1−2𝑡

27
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2 1
𝐸 [𝑒 𝑡𝑍𝑖 ] =
√1 − 2𝑡

Reemplazando este valor en (∗), se tiene,


𝑛
𝑛 𝑛 𝑛
𝑡𝑍𝑖2
1 1 1
𝑚𝑈 (𝑡) = ∏ 𝐸 [𝑒 ]=∏ =∏ 1 =[ 1]
𝑖=1 𝑖=1
√1 − 2𝑡 𝑖=1 (1 − 2𝑡)2 (1 − 2𝑡)2
𝑛
1 2
𝑚𝑈 (𝑡) = [ ]
1 − 2𝑡

Esta es la función generatriz de momentos de una variable aleatoria U que sigue una
distribución chi-cuadrada con n grados de libertad.

Por tanto,
𝑛 𝑛
𝑋𝑖 − 𝜇 2
𝑈 = ∑( ) = ∑ 𝑍𝑖2 ~ Ӽ2𝑛
𝜎
𝑖=1 𝑖=1

2.3.5. Teorema

Sea X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) que sigue una
distribución normal con media µ y varianza σ2.

Sea,
𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

La media de la muestra

Sea,
𝑛 2
𝑋𝑖 − 𝑋̅
𝑈 = ∑( )
𝜎
𝑖=1

Luego,

𝑈 ~ Ӽ2𝑛−1

Con respecto al teorema anterior, éste reemplaza la media de la población (µ) con la media
de la muestra (𝑿̅ ); y señala que por esta razón la distribución de U pierde un grado de
libertad.

Para demostrar este teorema recuerde (de la demostración de la E[S2]) que,

28
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑛 𝑛 2 2 𝑛 2
𝑋𝑖 − 𝜇 2 𝑋𝑖 − 𝑋̅ 𝑋̅ − 𝜇 𝑋𝑖 − 𝑋̅ 𝑋̅ − 𝜇
∑( ) = ∑( + ) = ⋯ = ∑( ) +𝑛( )
𝜎 𝜎 𝜎 𝜎 𝜎
𝑖=1 𝑖=1 𝑖=1

De donde,
𝑛 2 𝑛 2
𝑋𝑖 − 𝑋̅ 𝑋𝑖 − 𝜇 2 𝑋̅ − 𝜇
∑( ) =∑( ) − 𝑛( )
𝜎 𝜎 𝜎
𝑖=1 𝑖=1

2
𝑛 2 𝑛
𝑋𝑖 − 𝑋̅ 𝑋𝑖 − 𝜇 2 𝑋̅ − 𝜇
∑( ) =∑( ) − ( 𝜎 )
𝜎 𝜎
𝑖=1 𝑖=1
√𝑛

T1 = T2 - T3

Ӽ2𝑛 Ӽ12

𝑇1 = 𝑇2 − 𝑇3

𝑇2 = 𝑇1 + 𝑇3

𝑚 𝑇2 (𝑡) = 𝑚 𝑇1 (𝑡) 𝑚 𝑇3 (𝑡)

𝑛
1 2
𝑚 𝑇2 (𝑡) (1 − 2𝑡)
𝑚 𝑇1 (𝑡) = = 1
𝑚 𝑇3 (𝑡)
1 2
(1 − 2𝑡)

𝑛−1
1 2
𝑚 𝑇1 (𝑡) = ( )
1 − 2𝑡

Esta es la función generatriz de momentos de una distribución chi-cuadrada con n – 1


grados de libertad.

En efecto,
𝑛 2
𝑋𝑖 − 𝑋̅
𝑈 = ∑( ) ~ Ӽ2𝑛−1
𝜎
𝑖=1

2.3.6. Teorema

Sea X1, X2, X3, … , Xn una muestra aleatoria de una población 𝑓𝑋 (𝑥) que sigue una
distribución normal con media µ y varianza σ2.
Sea,

29
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1

La media de la muestra

Sea,
𝑛
1
2
𝑆 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1

La varianza de la muestra

Sea,

(𝑛 − 1)𝑆 2
𝑈=
𝜎2

Luego,

𝑈 ~ Ӽ2𝑛−1

En el anterior teorema se demostró que,


𝑛 2
𝑋𝑖 − 𝑋̅
𝑈 = ∑( ) ~ Ӽ2𝑛−1
𝜎
𝑖=1

Si esta expresión se multiplica y se divide por (n - 1), esto es,


𝑛
(𝑛 − 1) 1
𝑈= 2
∑(𝑋𝑖 − 𝑋̅)2 ~ Ӽ2𝑛−1
𝜎 (𝑛 − 1)
𝑖=1

El resultado es,

(𝑛 − 1)𝑆 2
𝑈= ~ Ӽ2𝑛−1
𝜎2

Recuerde que este punto se inició indicando que se buscaba la distribución de S2. No se
ha logrado este propósito. Sin embargo, se ha obtenido la distribución de una variable
aleatoria U de la que S2 es parte; esto es suficiente para los fines prácticos.

2.4. Distribución t de estudiante

2.4.1. Definición

Si X es una variable aleatoria cuya función de densidad de probabilidad viene dada por:

30
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝛤[(𝑘 + 1)⁄2] 1 1
𝑓𝑋 (𝑥) = ; −∞ ≤ 𝑥 ≤ ∞ ; 𝑘 𝑒𝑠 𝑢𝑛 𝑒𝑛𝑡𝑒𝑟𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝛤(𝑘⁄2) √𝑘𝜋 (1 + 𝑥 ⁄𝑘 )(𝑘+1)⁄2
2

Se dice que la variable aleatoria X sigue una distribución t de estudiante con k grados
de libertad y se denota por: 𝑿 ~ 𝒕𝒌

2.4.2. Teorema

Sea 𝑿 ~ 𝒕𝒌

Luego,

i)

𝐸[𝑋] = 0 ; 𝑠𝑖 𝑘 > 2

ii)

𝑘
𝑉𝑎𝑟[𝑋] = ; 𝑠𝑖 𝑘 > 2
𝑘−2

iii)

𝑚𝑋 (𝑡) = (𝑛𝑜 𝑒𝑥𝑖𝑠𝑡𝑒)

Nótese que el parámetro de la distribución t de estudiante es k. La forma de su función


de densidad de probabilidad es la siguiente:

fX(x)

σ2 = k / (k-2)

𝑿 ~ 𝒕𝒌
µ=0

La forma de la distribución t de estudiante es muy parecida a la forma de la distribución


normal estandarizada, es simétrica respecto de un eje vertical que pasa por µ = 0. La
media de la distribución t de estudiante es igual a 0 y su varianza prácticamente igual a 1
para valores grandes de k.

En otras palabras, para valores grandes de k la distribución t de estudiante converge a


una distribución normal estandarizada.

31
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.4.3. Ejercicio 3

Problema:

Sea X una variable aleatoria que sigue una distribución t de estudiante con cinco (5)
grados de libertad (𝑋 ~ 𝑡5 ).

Calcular la P(X ≤ 2,015).

Solución:

Si 𝑋 ~ 𝑡5

fX(x)

P(X ≤ 2,015)

𝑿 ~ 𝒕𝟓
µ=0
x0=2,015

Por tanto,
2,015
𝛤[3] 1 1
𝑃(𝑋 ≤ 2,015) = ∫ 𝑑𝑥
𝛤(5⁄2) √5𝜋 (1 + 𝑥 2 ⁄5)3
−∞

Es una integral compleja que nadie desea resolver. Por tanto, se debe recurrir a una
aproximación numérica la misma que viene en una tabla incluida en cualquier libro de
estadística. A continuación se muestra una parte de esta tabla:

32
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

PROBABILIDADES CON LA DISTRIBUCIÓN t de estudiante

fX(x)

α = P(X ≥ x0)

0 x0 𝑋 ~ 𝑡𝑘

k Α
0,10 0,05 0,025 0,01 0,005
3 1,638 2,353 3,182 4,541 5,841
4 1,533 2,132 2,776 3,747 4,604
5 1,476 2,015 2,571 3,365 4,032
6 1,440 1,943 2,447 3,143 3,707
7 1,415 1,895 2,365 2,998 3,499
8 1,397 1,860 2,306 2,896 3,355

El uso de la tabla es muy sencillo. Con los grados de libertad (k = 5, en el presente caso)
se ubica la fila de interés; en la misma se busca el valor de x0 (x0 = 2,015, en el presente
caso); el valor de α [P(X ≥ x0)] se encuentra en la primera fila de la tabla. Por tanto,

𝑃(𝑋 ≤ 2,015) = 1 − 𝑃(𝑋 ≥ 2,015) = 1 − 0,05 = 𝟎, 𝟗𝟓

Está permitida la interpolación lineal. La tabla también puede ser utilizada para encontrar el
valor de x0 que le corresponde a un cierto valor de α.

2.4.4. Teorema

Sea,

𝑍 ~ 𝑁(0,1)

Sea,

𝑈 ~ Ӽ2𝑘

Sean Z y U variables aleatorias independientes

Sea,

𝑍
𝑇=
√𝑈
𝑘

Luego,

33
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑇 ~ 𝑡𝑘

Este teorema señala el camino para lograr una distribución t de estudiante con k grados
de libertad. Dice que el cociente de una distribución normal estandarizada sobre la raíz
cuadrada de una distribución chi-cuadrada dividida por sus grados de libertad. La
distribución t de estudiante así formada tiene los mismos grados de libertad que la
distribución chi-cuadrada.

Este teorema resulta importante a la hora de buscar estadísticos requeridos por la inferencia
estadística.

2.5. Distribución F

2.5.1. Definición

Si X es una variable aleatoria cuya función de densidad de probabilidad viene dada por:

𝛤[(𝑚 + 𝑛)⁄2] 𝑚 𝑚⁄2 𝑥 (𝑚−2)⁄2


𝑓𝑋 (𝑥) = ( ) ; 𝑥 ≥ 0; 𝑚 𝑦 𝑛 𝑠𝑜𝑛 𝑒𝑛𝑡𝑒𝑟𝑜𝑠 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜𝑠
𝛤[𝑚⁄2]𝛤[𝑛⁄2] 𝑛 [1 + (𝑚⁄𝑛)𝑥](𝑚+𝑛)⁄2

Se dice que la variable aleatoria X sigue una distribución F con m y n grados de libertad,
y se denota por:

𝑿 ~ 𝑭𝒎; 𝒏

2.5.2. Teorema

Sea,

𝐹 ~ 𝐹𝑚; 𝑛

Luego,

i)
𝑛
𝐸[𝑋] = ; 𝑠𝑖 𝑛 > 2
𝑛−2

ii)

2𝑛2 (𝑚 + 𝑛 − 2)
𝑉𝑎𝑟[𝑋] = ; 𝑠𝑖 𝑛 > 4
𝑚(𝑛 − 2)2 (𝑛 − 4)

iii)

𝑚𝑋 (𝑡) = (𝑛𝑜 𝑒𝑥𝑖𝑠𝑡𝑒)

Nótese que los parámetros de la distribución F son m y n. La forma de su función de


densidad de probabilidad es la siguiente:

34
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

fX(x)

2𝑛2 (𝑚+𝑛−2)
𝜎 2 = 𝑚(𝑛−2)2 (𝑛−4)

𝑛
0 𝜇= 𝑋 ~ 𝐹𝑚;𝑛
𝑛−2

2.5.3. Ejercicio 4

Problema:

Sea X una variable aleatoria que sigue una distribución F con 4 y 6 grados de libertad
(𝑋 ~ 𝐹4;6 ).

Calcular la P(X ≤ 6,23)

Solución:

Si 𝑋 ~ 𝐹4;6

fX(x)

P(X ≤ 6,23)

0 𝑋 ~ 𝐹4;6
x0 = 6,23
6,23
𝛤[(4 + 6)⁄2] 4 4⁄2 𝑥 (4−2)⁄2
𝑃(𝑋 ≤ 6,23) = ∫ ( ) 𝑑𝑥
𝛤[4⁄2]𝛤[6⁄2] 6 [1 + (4⁄6)𝑥](4+6)⁄2
0

35
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Es una integral difícil, nadie desea resolverla analíticamente; por tanto, se debe recurrir a
una aproximación numérica que en este caso viene en una tabla, incluida en cualquier libro
de estadística. A continuación se muestra una parte de dicha tabla:

PROBABILIDADES CON LA DISTRIBUCIÓN F

𝑮 = 𝑷(𝑿 ≤ 𝒙𝟎 )

0 𝑥0 𝑋 ~ 𝐹𝑚;𝑛

G n m
2 3 4 5 6 7
0,900 5 3,78 3,62 3,52 3,45 3,40 3,37
0,950 5,79 5,41 5,19 5,05 4,95 4,88
0,975 8,43 7,76 7,39 7,15 6,98 6,85
0,990 13,30 12,10 11,40 11,00 10,70 10,50
0,995 18,30 16,5 15,60 14,90 14,50 14,20
0,900 6 3,46 3,29 3,18 3,11 3,05 3,01
0,950 5,14 4,76 4,53 4,39 4,28 4,21
0,975 7,26 6,60 6,23 5,99 5,82 5,70
0,990 10,90 9,78 9,15 8,75 8,47 8,26
0,995 14,50 12,9 12,00 11,50 11,10 10,80
0,900 7 3,26 3,07 2,96 2,88 2,83 2,78
0,950 4,74 4,35 4,12 3,97 3,87 3,79
0,975 6,54 5,89 5,52 5,29 5,12 4,99
0,990 9,55 8,45 7,85 7,46 7,19 6,99
0,995 12,4 10,90 10,10 9,52 9,16 8,89

Se ingresa con los grados de libertad en el debido orden; en la intersección se busca el


valor de x0 y se encuentra la probabilidad correspondiente en la primera columna de la
tabla.

Es importante recordar que,

𝐹𝑚;𝑛 ≠ 𝐹𝑛;𝑚

En el presente caso,

𝑃(𝑋 ≤ 6,23) = 𝟎, 𝟗𝟕𝟓

Cada libro tiene su propio formato para esta y las tablas anteriores; sin embargo, una
revisión cuidadosa a la tabla facilita su acceso.

36
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.5.4. Teorema

Sea,

𝑈 ~ Ӽ2𝑚

Sea,

𝑉 ~ Ӽ2𝑛

Sean

𝑈 𝑦 𝑉 variables aleatorias independientes.

Sea,

𝑈
𝐹= 𝑚
𝑉
𝑛

Luego,

𝐹 ~ 𝐹𝑚; 𝑛

En palabras, el teorema dice que el cociente de dos distribuciones chi-cuadrada divididas


por sus respectivos grados de libertad, sigue una distribución F con grados de libertad que
corresponden al numerador y denominador, en ese orden.

Este teorema es muy importante a la hora de buscar estadísticos requeridos por la


inferencia estadística.

2.5.5. Ejercicio 5

Problema:

Si T es una variable aleatoria que sigue una distribución t de estudiante con k grados
de libertad ( 𝑇 ~ 𝑡𝑘 ).

Obtener la distribución de T2

Solución:

Si 𝑇 ~ 𝑡𝑘

𝑍
𝑇=
√𝑈
𝑘

Donde,

37
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

𝑍 ~ 𝑁(0; 1)
𝑈 ~ Ӽ2𝑘

Por tanto,

𝑍2
𝑇2 = 1
𝑈
𝑘

Donde,

𝑍 2 ~ Ӽ12

Consecuentemente, resulta que 𝑇 2 es igual al cociente de dos distribuciones chi-cuadrada


divididas por sus respectivos grados de libertad. Por tanto,

𝑇 2 ~ 𝐹1; 𝑘

En palabras, 𝑇 2 sigue una distribución F con 1 y k grados de libertad.

2.5.6. Ejercicio 6

Problema:

Sea X1, X2 una muestra aleatoria de una población que sigue una distribución normal
estandarizada (µ = 0; σ2 = 1).

Cuál es la distribución de:

a)

𝑋1 + 𝑋2
𝑌=
√2

b)

𝑋1 + 𝑋2
𝑅=
√(𝑋1 − 𝑋2 )2

38
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Solución:

fX(x)

σ2 = 1

𝑋 ~ 𝑁(0; 1)
µ=0

X1, X2

Si X1, X2 es una muestra aleatoria de una población normal estandarizada

𝑋1 ~ 𝑁(0; 1) 𝑦 𝑋2 ~ 𝑁(0; 1)

Recuerde que la suma de distribuciones normales independientes es también normal con


una media igual a la suma de medias y varianza igual a la suma de varianzas; esto es:

(𝑋1 + 𝑋2 ) ~ 𝑁(0 + 0; 1 + 1) ~ 𝑁(0; 2)

(𝑋1 − 𝑋2 ) ~ 𝑁(0 − 0; 1 + 1) ~ 𝑁(0; 2)

Recordando además que, si a y b son constantes y las variables aleatorias independientes


X y Y siguen distribuciones normales con medias µx y µy y varianzas σx2 y σy2
respectivamente,

𝑎𝑋 + 𝑏𝑌 ~ 𝑁(𝑎𝜇𝑋 + 𝑏𝜇𝑌 ; 𝑎2 𝜎𝑋2 + 𝑏 2 𝜎𝑌2 )

Por tanto,

1 1 1 1 1 1
𝑋1 + 𝑋2 ~ 𝑁 [ (0) + (0); (1) + (1)] ~ 𝑁(0; 1)
√2 √2 √2 √2 2 2

1 1 1 1 1 1
𝑋1 − 𝑋2 ~ 𝑁 [ (0) − (0); (1) + (1)] ~ 𝑁(0; 1)
√2 √2 √2 √2 2 2

En consecuencia,

a)

𝑋1 + 𝑋2
𝑌= ~ 𝑁(0; 1)
√2

39
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

b)

𝑋1 + 𝑋2
𝑋1 + 𝑋2 √2 (
)
𝑁(0; 1)
𝑅= = √2 ~ ~ 𝑡1
√(𝑋1 − 𝑋2 )2 2
√ Ӽ 2
𝑋 − 𝑋2 1
√2√( 1 ) 1
√2

2.5.7. Ejercicio 7

Problema:

Sea X1, X2 una muestra aleatoria de una población que sigue una distribución normal
estandarizada (µ = 0; σ2 = 1).
Sea Y1, Y2 una muestra aleatoria de una población que sigue una distribución normal
estandarizada (µ = 0; σ2 = 1).
Sean 𝑋̅ 𝑦 𝑌̅ las medias de las muestras correspondientes.
Sean 𝑆𝑋2 𝑦 𝑆𝑌2 las varianzas de las muestras correspondientes

Cuál es la distribución de:

𝑋̅ − 𝑌̅
𝑃=
2 2
√𝑆𝑋 + 𝑆𝑌
2

Solución:

fX(x)

σ2 = 1

𝑋 ~ 𝑁(0; 1)
µ=0

X1, X2

Si X1, X2 es una muestra aleatoria de una población normal estandarizada:

𝑋1 ~ 𝑁(0; 1) 𝑦 𝑋2 ~ 𝑁(0; 1)

1
𝑋̅ ~ 𝑁 (0; )
2

40
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

(2 − 1)𝑆𝑋2 𝑆𝑋2
𝑈= = = 𝑆𝑋2 ~ Ӽ12
𝜎2 1

fY(y)

σ2 = 1

𝑌 ~ 𝑁(0; 1)
µ=0

Y1, Y2

Si Y1, Y2 es una muestra aleatoria de una población normal estandarizada:

𝑌1 ~ 𝑁(0; 1) 𝑦 𝑌2 ~ 𝑁(0; 1)

1
𝑌̅ ~ 𝑁 (0; )
2

(2 − 1)𝑆𝑌2 𝑆𝑌2
𝑉= = = 𝑆𝑌2 ~ Ӽ12
𝜎2 1
1 1
(𝑋̅ − 𝑌̅) ~ 𝑁 (0 − 0; + ) ~ 𝑁(0; 1)
2 2

(𝑆𝑋2 + 𝑆𝑌2 ) ~ Ӽ22

Por tanto,

𝑋̅ − 𝑌̅ 𝑁(0; 1)
𝑃= ~ ~ 𝑡2
2 2 2
√𝑆𝑋 + 𝑆𝑌 √Ӽ2
2 2

2.5.8. Ejercicio 8

Problema:

Sea X1, X2, … , Xn una muestra aleatoria de una población que sigue una distribución normal
con media µX y varianza σ2.

41
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

Sea Y1,Y2, … , Ym una muestra aleatoria de una población que sigue una distribución normal
con media µY y varianza σ2.

Sean 𝑆𝑋2 𝑦 𝑆𝑌2 las correspondientes varianzas de las muestras.

Encontrar la distribución de

𝑆𝑋2
𝑅=
𝑆𝑌2

Solución
𝑛
1
𝑆𝑋2 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1

𝑚
1
𝑆𝑌2 = ∑(𝑌𝑖 − 𝑌̅)2
𝑚−1
𝑖=1

(𝑛 − 1)𝑆𝑋2
𝑈= ~ Ӽ2𝑛−1
𝜎2

(𝑚 − 1)𝑆𝑌2
𝑉= ~ Ӽ2𝑚−1
𝜎2

Se conoce que,

𝑈
𝐹 = − 1 ~ 𝐹𝑛−1;𝑚−1
𝑛
𝑉
𝑚−1

Por tanto,

(𝑛 − 1)𝑆𝑋2
𝑈 𝜎2
𝑛−1 = 𝑛−1 𝑆𝑋2
= = 𝑅 ~ 𝐹𝑛−1; 𝑚−1
𝑉 (𝑚 − 1)𝑆𝑌2 𝑆𝑌2
𝑚−1 𝜎2
𝑚−1

Práctica
1.

Sea 𝑋 ~ 𝐹𝑚;𝑛
1
Sea 𝑌 = 𝑋
¿Cuál es la distribución de Y?

42
Muestreo y distribuciones del muestreo Rubén Medinaceli O.

2.

Sea X1, X2 una muestra aleatoria de una población que sigue una distribución normal con
µ = 0 y σ2 = 1.
Sea Y1, Y2 una muestra aleatoria de una población que sigue una distribución normal con
µ = 1 y σ2 =1

¿Cuál es la distribución de 𝑋̅ + 𝑌̅?

3.

Si X1, X2 es una muestra aleatoria de una población que sigue una distribución normal con
µ = 0 y σ2 = 1.

¿Cuál es la distribución de 1/Z si Z = X12/X22?

4.

Sea X1, X2 una muestra aleatoria de una población que sigue una distribución normal
estandarizada (µ = 0; σ2 = 1).
Sea Y1, Y2 una muestra aleatoria de una población que sigue una distribución normal
estandarizada (µ = 0; σ2 = 1).
Sean 𝑋̅ 𝑦 𝑌̅ las medias de las muestras correspondientes.
Sean 𝑆𝑋2 𝑦 𝑆𝑌2 las varianzas de las muestras correspondientes
Si,
𝑋̅ − 𝑌̅
𝑃=
2 2
√𝑆𝑋 + 𝑆𝑌
2

¿Cuál es la distribución de P2?

43

También podría gustarte