Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sabando/Villa Cox/Meja
Apuntes de Clase # 3
Fecha: II Termino-2012
4.
Estimaci
on
4.1.
Preliminares
Objetivo: Familiarizarse con las tecnicas estadsticas que permiten extraer conclusiones acerca
de los par
ametros de una poblaci
on a partir de datos experimentales.
Definici
on 4.1.1 La inferencia estadstica es el conjunto de metodos por los que se realizan
generalizaciones acerca de una poblacion.
Nota: Existen dos metodos que se utilizan para realizar inferencias estadsticas: El metodo cl
asico
y el metodo bayesiano, en este curso se profundizara sobre el metodo clasico.
Definici
on 4.1.2 El m
etodo cl
asico de estimaci
on es aquel que basa la inferencia estadstica
estrictamente en la informaci
on que se obtiene de una muestra.
Definici
on 4.1.3 Se llama estimaci
on puntual al proceso de utilizar el valor de un estadstico
(definici
on 3.1.4) para estimar un par
ametro poblacional. Al estadstico del cual se obtiene este valor
se lo llama estimador puntual, y al valor obtenido punto estimado.
Nota: Se habla de puntual para diferenciar de la estimacion por intervalos que se estudiara mas
adelante.
Ejemplos:
para estimar la media de la poblacion.
Utilizar el valor que toma X
Considerar a una proporci
on muestral observada como estimador del parametro de una
distribuci
on bernoulli.
Nota: A menos que se indique algo diferente, por estimador se entendera estimador puntual y
por estimado se entender
a punto estimado.
4.2.
4.2.1.
Insesgadez
A3-1
Pn
X)
n1
i=1 (Xi
Como parte de la demostracion del segundo postulado del teorema 3.4.7 se puede
S2 =
" n
#
X
2
(X
X)
1
i
i=1
)2
=
(Xi )2 n (X
n1
n 1 i=1
Pn
Pn
2
X)
n1
" n
#
X
2
2
E(Xi ) n E(X )
i=1 (Xi
1
n1
i=1
y puesto que
E(Xi )2 = 2
)2 =
E(X
2
n
entonces
E(S )
1
n1
E(S 2 )
2
2
n n
n
//
QED
Nota:
A3-2
y por tanto
y por tanto
du = dx
v = e(x)
entonces
Z
xe(x) dx
=
=
Z
xe(x)
e(x) dx
x
(x) e(x)
x
[0 1]
e(x)
x=
on de la forma
Como (x) evaluado en x = es una indefinici
e
obteniendose finalmente que
xe(x) dx
[0 ] + 1
1+
e(x) x=
+1
xe(x) dx
//
QED
e =
n
2
es un estimador sesgado de , pero asintoticamente insesgado.
Demostraci
on
=
E(e
2 )
1X
2 = 1 n 2 2
E(Xi X)
n i=1
n
n1
2
n
Por tanto
e2 es un estimador asint
oticamente insesgado de 2 .
e = Xi es un estimador
Ejemplo 4.2.4 Dada una muestra aleatoria X1 , X2 , . . . , Xn . El estimador X
insesgado de la media poblacional , para cualquier i {1, 2, 3, . . . , n}
Demostraci
on
Eficiencia relativa
b1 y
b 2 son dos estimadores insesgados del parametro de una poblacion
Definici
on 4.2.4 Si
b 1 es menor que la varianza de
b 2 , entonces
b 1 es relativamente m
dada y la varianza de
as
b2
eficiente que
Teorema 4.2.1 La varianza de todos los estimadores insesgados cumple la siguiente propiedad
conocida como la Desigualdad de Cramer-Rao
1
b
Var
"
nE
ln f (X; )
2 #
b =
Var
"
nE
ln f (X; )
2 #
La funci
on de densidad de la distribucion normal esta dada por
f (x; , 2 ) =
e 2 (
1
2 2
Se requiere calcular
"
E
ln f (X; )
2 #
"
=E
A3-4
ln f (X; , 2 )
2 #
ln f (x; , )
ln f (x; , 2 )
h i 1 x 2
ln 2
2
1 x
Reemplazando valores
"
E
ln f (X; , 2 )
2 #
1
= 2E
"
2 #
=
1
2
Finalmente se ha obtenido que un estimador insesgado de tendra como mnimo una varianza de
1
"
nE
ln f (X; , 2 )
2 # =
2
1
=
1
n
n 2
b1 y
b 2 dos estimadores insesgados de
Observaciones 4.2.1 Sean
b 1 respecto a
b 2 no implica que
b 1 sea el estimador m
La eficiencia relativa de
as eficiente
de .
b 1 es el estimador m
b 1 tambien sera asintoticamente eficiente.
Si
as eficiente entonces
b 1 no es asint
b 1 tampoco puede ser el m
Si
oticamente eficiente entonces
as eficiente.
Los dos puntos anteriores requieren que la informaci
on que la muestra provee sobre el parametro sea diferente de cero.
e = Xi para cualquier i {1, 2, 3, . . . , n} es un estimador insesgado de pero no
Ejemplo 4.2.6 X
es asint
oticamente eficiente.
Demostraci
on
Dado que la varianza del estimador no tiende a cero a medida que n tiende a infinito se concluye
que el estimador no es eficiente.
e = lm 2 = 2 6= 0
lm Var(X)
Ejemplo 4.2.7 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una poblacion normal, entonces
Pn
2
i=1 Xi X
2
S =
n1
es un estimador insesgado de 2 , su varianza no es mnima (es mayor al lmite inferior de CramerRao), pero es asint
oticamente eficiente.
A3-5
Soluci
on: En el ejemplo 4.2.1 ya se demostro que S 2 es un estimador insesgado de 2 . Queda por
demostrar que este estimador no es de varianza mnima para una poblacion normal. En particular,
se necesitar
a calcular
"
"
2 #
2 #
ln f (X; , 2 )
ln f (X; )
=E
E
2
Para esto, se tiene que
2
ln f (x; , 2 )
ln f (x)
2
1 (x )
1
= ln 2 2
2
2
2
"
#
2
1
1
1
(x )
2
= 2 + 4 (x ) =
1
2
2
2 2
2
por lo que
(
#)2
"
2 #
2
ln f (X; , 2 )
1
(x
E
= E
1
2
2 2
2
(
)
2
4
1
(x )
(x )
=
E
2
+1
4 4
4
2
h
i
i
h
4
2
E
(x
)
E
(x
)
1
=
+
1
4 4
4
2
4
1
3
2
1
=
+
1
=
(2)
4 4 4
2
4 4
1
=
2 4
Se concluye que para una poblacion normal, un estimador insesgado de varianza mnima de 2
tendr
a una varianza de
1
1
2 4
"
#
=
=
2
1
n
ln f (X; , 2 )
n 4
nE
2
2
"
Se procede ahora a calcular la varianza de S 2 , y para tal efecto se sabe por el teorema 3.4.7 que
h
i
(n 1)S 2
Var
= Var 2(n1)
2
2
(n 1)
Var(S 2 ) = 2(n 1)
4
por lo tanto
2 4
2 4
6=
Var(S 2 ) =
n1
n
finalmente se calcula el lmite de la varianza del estimador cuando n tiende a infinito.
2 4
lm Var(S 2 ) = lm
=0
n
n n 1
Lo cual demuestra que S 2 es un estimador insesgado que no tiene varianza mnima pero que es
asint
oticamente eficiente. (o S 2 s
olo es eficiente asintoticamente)
Nota: Si la media poblacional fuera conocida, entonces un estimador insesgado de varianza
mnima para una poblaci
on normal sera
b2 =
n
2
X
(Xi )
i=1
A3-6
b se define como
Definici
on 4.2.7 El error cuadr
atico medio de un estimador
2
b =E
b
ECM()
Observaciones 4.2.2
b la cual esta definida por
El ECM es diferente a la varianza de
2
b
b
b
Var() = E E()
b mide la dispersion de la distribucion de
b alrededor
La diferencia entre ambos es que la Var()
b mide la dispersion alrededor del verdadero valor
de su valor esperado, mientras que ECM()
del par
ametro.
La relaci
on entre ambos esta dada por
2
b =E
b
ECM()
h
i2
b E()
b + E()
b
=E
2
2
b E()
b
b E()
b
b + E()
b
=E
+2
E()
2
2
b E()
b
b + E E()
b
b E()
b
E()
+E 2
=E
b y son constantes
y dado que E()
2
2
b E()
b
b E
b E()
b
b
=E
+ 2 E()
+ E()
de donde se obtiene que
h
i2
b = Var()
b + b(,
b )
ECM()
b es igual a la varianza de
b mas el sesgo de
b al
Es decir, el error cuadr
atico medio de
cuadrado.
Definici
on 4.2.8 El criterio de mnimo ECM consiste en seleccionar un estimador cuyo ECM
sea el menor en un conjunto de estimadores comparables.
Observaciones 4.2.3
Si el sesgo es igual a cero el critero de mnimo ECM es equivalente al criterio de mnima
varianza, pues en ese caso
b = Var()
b
ECM()
En la pr
actica el criterio de mnimo ECM se utiliza cuando los estimadores insesgados son
incapaces de cumplir con el criterio de varianza mnima.
4.2.3.
Consistencia
Interpretaci
on: Para cada n
umero positivo c, existe un valor de n lo suficientemente grande
a partir del cu
al podemos estar pr
acticamente seguros que la diferencia entre el estimador y el
par
ametro no exceder
a a c.
A3-7
+c
ng
La clase de convergencia expresada por el lmite de la definicion 4.2.9 generalmente se llama convergencia en probabilidad.
b es un estimador insesgado del parametro y Var()
b desciende hacia cero
Teorema 4.2.3 Si
b es un estimador consistente de .
conforme n asciende a infinito, entonces
( )
l
f
l)
Var (
l) =
E (
b es asintoticamente eficiente.
El teorema 4.2.3 tambien es v
alido si
4.3.
M
etodos de estimaci
on puntual
Existe un n
umero infinito de estimadores para un mismo parametro de una poblacion.
Por las propiedades que cumplen, algunos de los metodos de estimacion mas conocidos son:
Metodo de momentos.
Metodo de m
axima verosimilitud.
Estimaci
on bayesiana.
Metodo de mnimos cuadrados.
4.3.1.
El m
etodo de m
axima verosimilitud
Los estimados hallados por este metodo maximizan la probabilidad de obtener la muestra
observada.
Los estimadores de m
axima verosimilitud son asint
oticamente insesgados de varianza mnima.
b es un estimador de maxima verosimilitud del parametro
Propiedad de invarianza: Si
b tambien es un estimador de maxima
y la funci
on dada por g() es continua, entonces g()
verosimilitud de g().
A3-8
Definici
on 4.3.1 Si x1 , x2 , . . . , xn son los valores observados en una muestra aleatoria de una poblaci
on con par
ametro , la funci
on de verosimilitud de esta muestra esta dada por
L() = f (x1 , x2 , . . . , xn ; )
Donde se encuentra dentro de un dominio dado y f (x1 , x2 , . . . , xn ; ) es el valor de la distribucion de
probabilidad conjunta de las variables aleatorias X1 , X2 , . . . , Xn cuando X1 = x1 , X2 = x2 , . . . , Xn =
xn .
Ejemplo 4.3.1 La probabilidad de que llueva en un da esta dada por . Hubo lluvia en 5 de los
7 das de la semana pasada. Cu
al es el valor de que maximiza la probabilidad de que suceda lo
observado?
Soluci
on: La probabilidad de que llueva en 5 de los 7 das de la semana pasada cuando la
probabilidad de lluvia para cada da es puede ser calculada a traves de la funcion de probabilidad
binomial
n x
nx
(1 )
x
donde n es el total de das en an
alisis y x representa el n
umero de das en los que efectivamente
llovi
o. Reemplazando valores se tiene que la probabilidad en cuestion es igual a
7 5
75
2
(1 )
= 21 5 (1 )
5
Esta probabilidad es una funci
on de y corresponde a la definicion de funci
on de verosimilitud L().
2
L() = 21 5 (1 )
Interesa encontrar el valor que maximice esta probabilidad (que maximice la funcion de verosimilitud)
= arg max L() = 21 5 (1 )2
=0
1
y por tanto
5
=
7
Se concluye que la probabilidad de que se hayan observado 5 das con lluvia la semana pasada se
maximiza cuando la probabilidad de lluvia para un da es igual a 5/7. Al valor obtenido se lo llama
estimado de m
axima verosimilitud.
Ejemplo 4.3.2 Se puede resolver el ejercicio anterior para un caso general: dado x exitos en n
b del parametro de una poblacion
intentos, encontrar el estimador de maxima verosimilitud ()
binomial.
Soluci
on:
La funci
on de verosimilitud para este caso esta dada por
n x
nx
(1 )
L() =
x
Para encontrar el valor que maximiza esta probabilidad es necesario maximizar la funcion de
verosimilitud con respecto a . As
n x
A3-9
lo que es equivalente a
n
= arg m
ax ln L() = ln
+ x ln() + (n x) ln(1 )
x
=0
1
x
=
n
por tanto, el estimador de m
axima verosimilitud de es
b=X
n
Observaciones 4.3.1
es el estimado de m
axima verosimilitud del parametro , es decir el valor que se hallo para
una muestra en particular.
El estimado de m
axima verosimilitud del parametro es aquel valor de que maximiza la
funci
on de verosimilitud o, dicho de otro modo, el valor de que hace maxima la probabilidad
de observar una muestra en particular.
b es el estimador de m
La funci
on de densidad para cada Xi esta dada por
1
(xi )2
1
e 2 2
2
f (xi ; , ) =
Como los elementos de una muestra aleatoria proveniente de una poblacion infinita son independientes, entonces la funci
on de densidad conjunta f (x1 , x2 , . . . , xn ; , ) de la muestra es la multiplicacion
de las funciones de densidad de cada Xi . Esta funcion de densidad conjunta evaluada en la muestra
constituye la funci
on de verosimilitud.
L(, )
n
Y
f (xi ; , )
i=1
=
n
e
n
1 X
(xi )2
2 2 i=1
ln L(, )
ln L(, )
2
n
n
1 X
+
(xi )2
2 2
2 4 i=1
A3-10
al igualar a cero ambas derivadas parciales se encuentran las condiciones que deben cumplir los
estimados de m
axima verosimilitud x
(para ) y s2 (para 2 )
n
1 X
(xi x
) = 0
2 i=1
n
X
xi n
x=0
i=1
Pn
i=1
x
=
xi
=x
n
n
1 X
2
+
(xi x
) = 0
2
s2
2
s4 i=1
s2
Pn
i=1
s2 =
s2 =
(xi x
)
1
n
2
Pn
(xi x
)
n
Pn
(xi x)
n
i=1
i=1
En conclusi
on, los estimadores de m
axima verosimilitud de los parametros y 2 de una poblacion
normal son
Pn
i=1 Xi
=
n
Pn
=
i=1
Xi X
n
2
Observaci
on 4.3.2 El estimador de maxima verosimilitud del parametro de una poblacion normal es
v
n
uX
2
u
u
Xi X
t
i=1
=
n
por la propiedad de invarianza del metodo de maxima verosimilitud.
4.4.
Estimaci
on por intervalo
Definici
on 4.4.1 Una estimador por intervalo de es un intervalo de la forma
bL < <
bU
bL y
b U son estadsticos elegidos de tal forma que la probabilidad de que el parametro se
donde
encuentre en el intervalo es un valor dado 1 .
bL < <
bU) = 1
Prob(
Observaciones 4.4.1
Al igual que los estimadores puntuales, los estimadores por intervalo de un parametro no son
u
nicos.
b L como
b L son variables aleatorias que dependen de la muestra aleatoria y de la
Tanto
probabilidad 1 .
A3-11
Definici
on 4.4.2 Un intervalo de confianza del (1 )100 % para el parametro
L < < U
es el valor que toma el estimador por intervalo de
bL < <
bU
U = X
al es la probabilidad 1 de que la media poblacional se encuentre dentro
de este intervalo? (probabilidad de que la media poblacional se encuentre dentro de dos desviaciones
est
andar de la media muestral)
Soluci
on:
x + 2 X > >
x 2 X
2 X > x
> 2 X
+ 2 X > x
> 2 X
2 X < x
< 2 X
Para determinar la probabilidad de que esto ocurra se definira la siguiente variable aleatoria
Z=
X
X
=
/n
X
A3-12
que se distribuye aproximadamente normal estandar dado que la muestra es mayor a 30. Por tanto
P (
L < <
U )
< 2 X )
P ( 2 X < X
P (2 < Z < 2)
0,955 //
R
En conclusi
on la probabilidad de que el verdadero valor de la media poblacional se encuentre a dos
desviaciones est
andar de la media muestral es 0,955.
se distribuye aproximadamente normal, por
Nota: En el ejemplo se ha podido asumir que X
tanto, la esperanza de la media muestral es la media poblacional y esta se encuentra ubicada en
el centro de la curva normal. (ver figura 1)
y un mismo
Figura 2: Intervalos de confianza para distintos valores de X
A3-13
Observaci
on 4.4.3 Por lo general se trabajara con dos tipos de intervalos de confianza:
b U ) = y Prob( <
b L) = ; y
Los de dos colas, en los que Prob( >
2
2
bU) = y
b L = , o Prob( <
b L) = y
b U = .
Los de una cola, en los que Prob( >
Su uso depender
a del problema a tratarse.
Tipos de intervalos de confianza para el par
ametro
U
^
L
^
U
Prob( < ^U)=1-
4.5.
4.5.1.
Estimaci
on de medias
Error de estimaci
on
Demostraci
on
2
X
=
2
n
X
/n
Prob X < Z/2 = 1
n
Corolario 4.5.1 Para muestras grandes (n > 30) los resultados del teorema se aplican de manera
aproximada independientemente de la distribucion que siga la poblacion.
Demostraci
on
central.
La demostraci
on es directa invocando al teorema 3.3.2, el teorema del lmite
Observaci
on 4.5.1 (el tama
no del error de estimaci
on) Manipulando el tama
no de la muestra n es posible conseguir un error de estimacion arbitrariamente peque
no para un nivel de confianza
1 dado.
se va a usar como un estimador de la media de una
Teorema 4.5.2 Si la media muestral X
2
poblaci
on normal, y la
entonces la probabilidad de que el
varianza
poblacional es desconocida,
error de estimaci
on X sea menor a t 2 ,n1 Sn es 1 ; donde S es la desviacion estandar
muestral y t 2 ,n1 es tal que la integral de la funcion de densidad t-student desde t 2 ,n1 hasta
es igual a /2.
Demostraci
on
X
S/n
< S t ,n1
Prob X
n 2
A3-15
=1
Corolario 4.5.3 Para muestras grandes (n > 30) el error de estimacion puede ser aproximado por
Z/2 Sn ; donde Z/2 es como se definio en el teorema 4.5.1.
Demostraci
on La distribuci
on t-student con n 1 grados de libertad converge a una normal
cuando n tiende a infinito. Se suele considerar que a partir de n > 30 la distribucion normal es una
buena aproximaci
on de la distribuci
on t-student con n 1 grados de libertad.
Corolario 4.5.4 Si la poblaci
on no se distribuye como una normal y la muestra es grande (n > 30),
entonces el error de estimaci
on puede ser aproximado por Z/2 Sn ; donde Z/2 es como se definio en
el teorema 4.5.1.
Idea de la demostraci
on
X
S/n
/n
S
y S 2 (teorema 3.4.7) se puede demostrar que el priy haciendo uso de la independencia entre X
mer termino de la multiplicaci
on converge en distribucion a una normal estandar y que el segundo
termino converge en probabilidad a 1.
Claramente est
an involucradas definiciones que no se han estudiado en el presente curso y por esto
no se desarrolla la demostraci
on.
4.5.2.
Intervalos de confianza
Se sabe que
Prob X < Z/2
n
A3-16
Tama
no muestral
n 30
Intervalo de confianza
al (1 )100 % de
x Z/2
x Z/2
s
n
s
n
x t 2 ,n1
s
n
n > 30
s
n
s
n
s
n
x t 2 ,n1
s
n
s
n
Se requiere conocer la
distribuci
on exacta de la poblaci
on
Las demostraciones son iguales a las de los dos teoremas anteriores mas la argumentacion de si
a
el tama
no de la muestra es lo suficientemente grande como para aproximar la distribucion de X
una normal.
4.6.
Estimaci
on de diferencias de medias
Establecida la relaci
on entre el error de estimacion y los intervalos de confianza que se estan
presentando, a partir de esta parte solo se trabajara con los intervalos de confianza.
Teorema 4.6.1 Si x1 y x2 son los valores de las medias de muestras aleatorias independientes de
tama
no n1 y n2 de poblaciones normales con varianzas conocidas 12 y 22 , entonces
s
s
12
22
12
2
(
x1 x
2 ) Z 2
+
< 1 2 < (
x1 x
2 ) + Z 2
+ 2
n1
n2
n1
n2
es un intervalo de confianza al (1 )100 % de la diferencia entre las dos medias poblacionales.
A3-17
1 y X
2 se distribuyen
Demostraci
on Por la observaci
on 3.3.1 y el corolario 3.3.2 se sabe que X
normalmente y que su combinaci
on lineal tambien sera normal, por tanto
Z=
1 X
) (1 2 )
(X
q2 2
1
22
n1 + n2
1 X
2 )(1 2 )
(X
q 2
22
n2
12
n1
22
n2
< Z/2
=1
< (1 2 )
q
12
n1
q 2
1 X
2 ) Z/2 1 +
Prob (X
n1
22
n2
1 X
2 ) < Z/2
(X
1 X
2 ) + Z/2
< (X
12
n1
22
n2
=1
< (1 2 )
2
+ n22 = 1
1 X
) (1 2 )
(X
q2 2
1
22
n1 + n2
se distribuye aproximadamente como una normal estandar. A partir de aqu el resto de la prueba es
igual que la del teorema.
Corolario 4.6.2 Para muestras grandes (n1 y n2 mayores a 30), si las poblaciones son normales
y las varianzas poblacionales 12 y 22 no son conocidas pero se puede disponer de las varianzas
muestrales (s21 y s22 respectivamente), entonces
s
s
s21
s22
s21
s2
(
x1 x
2 ) Z 2
+
< 1 2 < (
x1 x
2 ) + Z 2
+ 2
n1
n2
n1
n2
es aproximadamente un intervalo de confianza al (1 )100 % de la diferencia entre las dos medias
poblacionales.
Idea de la demostraci
on:
A3-18
Teorema 4.6.2 Si x
1 , x
2 , s1 y s2 son los valores de las medias y las desviaciones estandar de variables aleatorias independientes de tama
no n1 y n2 de poblaciones normales con varianzas iguales
(12 = 22 = 2 ), entonces
r
1
1
(
x1 x
2 ) t 2 ,n1 +n2 2 sp
+
< 1 2
n1
n2
r
1
1
< (
x1 x
2 ) + t 2 ,n1 +n2 2 sp
+
n1
n2
donde
s
sp =
Z
q
Y
n1 +n2 2
1 X
2 ) (1 2 )
(X
q
Sp n11 + n12
1 X
)(1 2 )
(X
q2
Sp n1 + n1
1
<t
2 ,n1 +n2 2
=1
de donde es f
acil ver que se obtiene el intervalo de confianza que propone el teorema
Observaciones:
Los resultados del teorema 4.6.2 son utilizados para muestras peque
nas (n1 +n2 230).
Para muestras en donde n1 + n2 2 > 30 los resultados del teorema 4.6.2 pueden aproximarse
con un intervalo de confianza construido en base a la distribucion normal.
Si alguna de las poblaciones no es normal, entonces se aplicaran los resultados para muestras
grandes y varianzas desconocidas solo si n1 > 30 y n2 > 30.
A3-19
4.7.
Estimaci
on de proporciones
Una proporci
on puede ser entendida como el parametro de una poblacion Bernoulli con funcion
de probabilidad
f (y) = y (1 )1y
y {0, 1}
representa en esta poblaci
on la probabilidad de exito, es decir, la probabilidad de que X = 1.
Si Y1 , Y2 , Y3 , . . . , Yn es una muestra aleatoria de esta poblacion, entonces el total de exitos dentro de
la muestra
n
X
X=
Yi
i=1
(1
Z 2
n
Demostraci
on
se distribuye aproximadamente como una normal estandar. Z puede ser re-escrito de la siguiente
manera
Z
X n
X n
p
=q
n2 (1)
n(1 )
n
X n
q
= qn
(1)
(1)
n
n
n
(1)
n
A3-20
Z0 = q
b
b
(1
)
n
La pregunta es si Z 0 sigue alguna distribucion conocida. Para responder a esta pregunta se puede
utilizar la misma argumentaci
on empleada en el corolario 4.5.4 y por tanto se puede decir que Z 0 se
distribuye aproximadamente como una normal estandar para muestras grandes.
A partir de lo expuesto anteriormente se tiene que
Prob |Z 0 | < Z 2 = 1
Reemplazando Z 0 se encuentra que
b
< Z
Prob q
2
b
b
)
(1
n
1
b
Prob q
< Z 2
b
b
(1
)
n
b
b
(1
)
b
< Z 2
Prob
n
De donde se puede ver que | | < Z/2
b
b
(1
)
n
(1 )
(1
Z 2
< < + Z 2
n
n
es un intervalo de confianza aproximado al (1 )100 % para .
Demostraci
on
En la prueba del teorema 4.7.2 ya se argumento las condiciones bajo las cuales
b
Z0 = q
b
b
(1
)
n
b
b
(1
)
b
=1
< Z 2
Prob
n
Ahora se manipular
a la expresi
on anterior para que la desigualdad haga referencia solo a .
s
b
b
b < Z (1 ) = 1
Prob
2
n
s
s
b )
b
b )
b
(1
(1
b < Z
=1
Prob Z 2
<
2
n
n
s
s
b )
b
b )
b
(1
(1
b Z
b + Z
=1
Prob
<<
2
2
n
n
Este resultado demuestra el teorema.
A3-21
4.8.
Estimaci
on de diferencias entre proporciones
Para establecer intervalos de confianza para la diferencia de proporciones entre poblaciones Bernoulli independientes con par
ametros 1 y 2 es necesario primero determinar cual es la distribucion
b1
b 2 que esta definido por
del estimador a usarse. En esta secci
on se trabajara con el estimador
b 1 = X1
n1
b 2 = X2
n2
sigue aproximadamente una distribucion normal estandar para muestras grandes para construir
un intervalo de confianza. Sin embargo, utilizando la misma argumentacion que en el corolario
4.5.4 podemos llegar a la conclusi
on de que si reemplazamos los parametros desconocidos 1 y 2
por sus versiones muestrales 1 y 2 respectivamente, la variable aleatoria resultante tambien se
distribuir
a aproximadamente como una normal estandar para muestras grandes. Es decir,
b1
b 2 ) (1 2 )
(
Z0 = q
b 1 (1
b 1)
b
b 2)
+ 2 (1
n1
n2
sigue aproximadamente una distribuci
on normal estandar para muestras grandes.
Partiendo de este hecho tenemos que
Prob |Z 0 | < Z 2 = 1
b1
b 2 ) (1 2 )
(
< Z = 1
Prob q
2
b 1 (1
b 1)
b 2 (1
b 2)
+
n1
n2
A3-22
b1
b 2 )
Prob (1 2 ) (
<Z
b 1 (1
b 1)
n1
q
b 1 (1
b 1)
b1
b 2) Z
+
Prob (
n1
2
b1
b 2) + Z
1 2 < (
2
b 2 (1
b 2)
n2
b 2 (1
b 2)
n2
b 1 (1
b 1)
n1
=
<
b 2 (1
b 2)
n2
4.9.
Estimaci
on de varianzas
Prob
2
1
>
> 2
(n 1)S 2
/2 ; n1
(n 1)S 2
(n 1)S 2
< 2 < 2
2
/2 ; n1
1/2 ; n1
1
21/2 ; n1
Prob
4.10.
Estimaci
on de la raz
on entre dos varianzas
Teorema 4.10.1 Si s21 y s22 son los valores de las varianzas de muestras aleatorias independientes
de tama
no n1 y n2 de poblaciones normales, entonces
s21
1
12
s21
<
<
f 2 ; n2 1 ; n1 1
s22 f 2 ; n1 1 ; n2 1
22
s22
es un intervalo de confianza al (1 )100 % para
12/ 2 .
A3-23
Demostraci
on Si S12 y S22 son las varianzas de muestras aleatorias independientes de tama
no n1
y n2 de poblaciones normales, entonces
2 S 2
F = 22 12
1 S2
es una variable aleatoria que tiene una distribucion F con n1 1 y n2 2 grados de libertad (teorema
1.6.1). As, se puede decir que
22 S12
Prob f1 2 ; n1 1 ; n2 1 < 2 2 < f 2 ; n1 1 ; n2 1 = 1
1 S2
lo cual puede ser re-escrito en virtud del teorema 3.6.2 como
22 S12
1
< 2 2 < f 2 ; n1 1 ; n2 1 = 1
Prob
f 2 ; n2 1 ; n1 1
1 S2
2
<
f
=1
<
Prob
2 ; n2 1 ; n1 1
S22 f 2 ; n1 1 ; n2 1
22
S22
lo que demuestra la veracidad del teorema.
A3-24