Está en la página 1de 24

Metodos Estadsticos II

Sabando/Villa Cox/Meja

Apuntes de Clase # 3
Fecha: II Termino-2012

4.

Estimaci
on

4.1.

Preliminares

Objetivo: Familiarizarse con las tecnicas estadsticas que permiten extraer conclusiones acerca
de los par
ametros de una poblaci
on a partir de datos experimentales.
Definici
on 4.1.1 La inferencia estadstica es el conjunto de metodos por los que se realizan
generalizaciones acerca de una poblacion.
Nota: Existen dos metodos que se utilizan para realizar inferencias estadsticas: El metodo cl
asico
y el metodo bayesiano, en este curso se profundizara sobre el metodo clasico.
Definici
on 4.1.2 El m
etodo cl
asico de estimaci
on es aquel que basa la inferencia estadstica
estrictamente en la informaci
on que se obtiene de una muestra.
Definici
on 4.1.3 Se llama estimaci
on puntual al proceso de utilizar el valor de un estadstico
(definici
on 3.1.4) para estimar un par
ametro poblacional. Al estadstico del cual se obtiene este valor
se lo llama estimador puntual, y al valor obtenido punto estimado.
Nota: Se habla de puntual para diferenciar de la estimacion por intervalos que se estudiara mas
adelante.
Ejemplos:
para estimar la media de la poblacion.
Utilizar el valor que toma X
Considerar a una proporci
on muestral observada como estimador del parametro de una
distribuci
on bernoulli.
Nota: A menos que se indique algo diferente, por estimador se entendera estimador puntual y
por estimado se entender
a punto estimado.

4.2.

Propiedades deseables de un estimador


Los estimadores, al ser una funcion de una muestra aleatoria (definiciones 4.1.3 y 3.1.4), son
variables aleatorias y por tanto no pueden brindar informacion exacta sobre el parametro que
tratan de estimar.
Para cada par
ametro existe un n
umero infinito de estimadores.
En esta secci
on se expondr
a un conjunto de criterios que permitiran calificar los meritos de
cada uno de los posibles estimadores de un parametro.

4.2.1.

Insesgadez

b es un estimador insesgado del parametro si


Definici
on 4.2.1 Un estadstico
b =
E()

A3-1

Ejemplo 4.2.1 S 2 , definido como


S2 =

Pn

X)
n1

i=1 (Xi

es un estimador insesgado de la varianza poblacional 2


Demostraci
on
establecer que

Como parte de la demostracion del segundo postulado del teorema 3.4.7 se puede
S2 =

" n
#
X
2
(X

X)
1
i
i=1
)2
=
(Xi )2 n (X
n1
n 1 i=1

Pn

a partir de este punto


E(S 2 )

 Pn

2
X)
n1
" n
#
X
2
2

E(Xi ) n E(X )

i=1 (Xi

1
n1

i=1

y puesto que
E(Xi )2 = 2

)2 =
E(X

2
n

entonces
E(S )

1
n1

E(S 2 )



2
2
n n
n

//

QED

b un estimador de , el sesgo del estimador esta definido como


Definici
on 4.2.2 (Sesgo) Sea
b ) = E()
b
b(,
b 6= 0 entonces se dice que
b es un estimador sesgado de
Si b()
b un estimador sesgado de , se dice que
b es
Definici
on 4.2.3 (Insesgadez asint
otica) Sea
asint
oticamente insesgado si el lmite del sesgo tiende a cero cuando n tiende a infinito
b ) = 0
lm b(,

Nota:

Todo estimador insesgado es tambien asint


oticamente insesgado.

Ejemplo 4.2.2 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de la poblacion dada por


 (x)
e
para x >
f (x) =
0
en otro caso
es un estimador sesgado de
entonces X
= E(X). Por otro lado, se tiene que la
Demostraci
on El teorema 3.3.1 establece que E(X)
esperanza de X es igual a
Z
E(X) =
xe(x) dx = 1 +

A3-2

para demostrarlo se utilizar


a el m
etodo de integraci
on por partes.
Z
Z
u dv = uv v du
Sea
u=x
dv = e(x) dx

y por tanto
y por tanto

du = dx
v = e(x)

entonces
Z

xe(x) dx

=
=

Z

xe(x)
e(x) dx



x

(x) e(x)




x

[0 1]
e(x)
x=

on de la forma
Como (x) evaluado en x = es una indefinici
e
obteniendose finalmente que

xe(x) dx

[0 ] + 1

1+

e(x) x=

se puede aplicar la regla de LHopital


+1

xe(x) dx

//
QED

es un estimador sesgado de , que es lo que se quera demostrar. En particular, el sesgo


Por tanto X
esta dado por
) = E(X)
= (1 + ) = 1 //
b(X,
R
1 es un estimador insesgado de
Nota: Del ejercicio anterior se puede concluir que Ye = X
. Por supuesto, en la mayora de los casos no es posible pasar de un estimador sesgado a uno insesgado por el simple conocimiento del sesgo.
Ejemplo 4.2.3 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una poblacion normal, entonces

Pn
2
i=1 Xi X
2

e =
n
2
es un estimador sesgado de , pero asintoticamente insesgado.
Demostraci
on

Siguiendo un procedimiento similar al del ejemplo 4.2.1 se tendra que


" Pn
 #
2
i=1 Xi X
2
E(e
) = E
n
n

=
E(e
2 )


1X
2 = 1 n 2 2
E(Xi X)
n i=1
n


n1
2
n

lo que demuestra que


e2 es un estimador sesgado de 2 con sesgo igual a




n1
b
e2 , 2
= E
e2 2 =
2 2
n


n1
1
= 2
1 = 2
n
n
No obstante, este sesgo tiende a cero cuando n tiende a infinito



1 2
2
2
lm b
e , = lm = 0
n
n
n
A3-3

Por tanto
e2 es un estimador asint
oticamente insesgado de 2 .
e = Xi es un estimador
Ejemplo 4.2.4 Dada una muestra aleatoria X1 , X2 , . . . , Xn . El estimador X
insesgado de la media poblacional , para cualquier i {1, 2, 3, . . . , n}
Demostraci
on

La esperanza de un elemento cualquiera de la muestra (el elemento i) es igual a


E(Xi ) =

e = Xi para cualquier i {1, 2, 3, . . . , n} es un estimador insesgado de .


En conclusi
on, X
4.2.2.

Eficiencia relativa

b1 y
b 2 son dos estimadores insesgados del parametro de una poblacion
Definici
on 4.2.4 Si
b 1 es menor que la varianza de
b 2 , entonces
b 1 es relativamente m
dada y la varianza de
as
b2
eficiente que
Teorema 4.2.1 La varianza de todos los estimadores insesgados cumple la siguiente propiedad
conocida como la Desigualdad de Cramer-Rao
1

 
b
Var

"
nE

ln f (X; )

2 #

donde es el conjunto de par


ametros que definen la poblacion, f (x) es el valor de la funcion de
densidad en x y n es el tama
no de la muestra aleatoria.
b es un estimador insesgado de y
Teorema 4.2.2 Si
1

 
b =
Var

"
nE

ln f (X; )

2 #

b es un estimador insesgado de varianza mnima de


entonces
Nota: La cantidad en el denominador se conoce como la informaci
on sobre que proporciona
la muestra. As, mientras menor sea la varianza mayor es la informacion.
b es un estimador de que cumple con el teorema 4.2.2 entonces
b es el
Definici
on 4.2.5 Si
estimador insesgado m
as eficiente de .
Nota: Cuando simplemente se dice que un estimador es el m
as eficiente usualmente es implcito
que se est
a hablando de el estimador insesgado m
as eficiente.
es un estimador insesgado de varianza mnima de la media de una poblacion
Ejemplo 4.2.5 X
normal.
Soluci
on:

La funci
on de densidad de la distribucion normal esta dada por
f (x; , 2 ) =

e 2 (
1

2 2

Se requiere calcular
"
E

ln f (X; )

2 #

"
=E

A3-4

ln f (X; , 2 )

2 #

Para tal efecto se requiere hacer los siguientes calculos


2

ln f (x; , )

ln f (x; , 2 )

h i 1  x 2
ln 2
2



1 x

Reemplazando valores
"
E

ln f (X; , 2 )

2 #

1
= 2E

"

2 #
=

1
2

Finalmente se ha obtenido que un estimador insesgado de tendra como mnimo una varianza de
1
"
nE

ln f (X; , 2 )

2 # =

2
1
=
1
n
n 2

el cual es un estimador insesgado de


Dado que esta es justamente la varianza del estadstico X,
es un estimador insesgado de varianza mnima de
, se concluye que para poblaciones normales X
sea el estimador mas eficiente de la media de
. (Recuerdese que no se puede generalizar que X
cualquier poblaci
on)
b es asint
Definici
on 4.2.6 (Eficiencia asint
otica) Un estimador
oticamente eficiente si su
varianza tiende a cero cuando n tiende a infinito
b =0
lm Var()

b1 y
b 2 dos estimadores insesgados de
Observaciones 4.2.1 Sean
b 1 respecto a
b 2 no implica que
b 1 sea el estimador m
La eficiencia relativa de
as eficiente
de .
b 1 es el estimador m
b 1 tambien sera asintoticamente eficiente.
Si
as eficiente entonces
b 1 no es asint
b 1 tampoco puede ser el m
Si
oticamente eficiente entonces
as eficiente.
Los dos puntos anteriores requieren que la informaci
on que la muestra provee sobre el parametro sea diferente de cero.
e = Xi para cualquier i {1, 2, 3, . . . , n} es un estimador insesgado de pero no
Ejemplo 4.2.6 X
es asint
oticamente eficiente.
Demostraci
on

e esta dada por


La varianza de X
e = Var(Xi ) = 2
Var(X)

Dado que la varianza del estimador no tiende a cero a medida que n tiende a infinito se concluye
que el estimador no es eficiente.
e = lm 2 = 2 6= 0
lm Var(X)

Ejemplo 4.2.7 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de una poblacion normal, entonces

Pn
2
i=1 Xi X
2
S =
n1
es un estimador insesgado de 2 , su varianza no es mnima (es mayor al lmite inferior de CramerRao), pero es asint
oticamente eficiente.
A3-5

Soluci
on: En el ejemplo 4.2.1 ya se demostro que S 2 es un estimador insesgado de 2 . Queda por
demostrar que este estimador no es de varianza mnima para una poblacion normal. En particular,
se necesitar
a calcular
"
"
2 #
2 #
ln f (X; , 2 )
ln f (X; )
=E
E

2
Para esto, se tiene que
2

ln f (x; , 2 )
ln f (x)
2

 1 (x )
1 
= ln 2 2
2
2
2
"
#
2
1
1
1
(x )
2
= 2 + 4 (x ) =
1
2
2
2 2
2

por lo que
(
#)2
"
2 #
2
ln f (X; , 2 )
1
(x

E
= E
1
2
2 2
2
(
)
2
4
1
(x )
(x )
=
E
2
+1
4 4
4
2
h
i
i
h

4
2

E
(x

)
E
(x

)
1
=

+
1

4 4
4
2
 4

1
3
2
1
=

+
1
=
(2)
4 4 4
2
4 4
1
=
2 4
Se concluye que para una poblacion normal, un estimador insesgado de varianza mnima de 2
tendr
a una varianza de
1
1
2 4
"
#
=
=

2
1
n
ln f (X; , 2 )
n 4
nE
2
2
"

Se procede ahora a calcular la varianza de S 2 , y para tal efecto se sabe por el teorema 3.4.7 que


h
i
(n 1)S 2
Var
= Var 2(n1)
2

2
(n 1)
Var(S 2 ) = 2(n 1)
4
por lo tanto
2 4
2 4
6=
Var(S 2 ) =
n1
n
finalmente se calcula el lmite de la varianza del estimador cuando n tiende a infinito.
2 4
lm Var(S 2 ) = lm
=0
n
n n 1
Lo cual demuestra que S 2 es un estimador insesgado que no tiene varianza mnima pero que es
asint
oticamente eficiente. (o S 2 s
olo es eficiente asintoticamente)
Nota: Si la media poblacional fuera conocida, entonces un estimador insesgado de varianza
mnima para una poblaci
on normal sera

b2 =

n
2
X
(Xi )
i=1

A3-6

b se define como
Definici
on 4.2.7 El error cuadr
atico medio de un estimador


2
b =E
b
ECM()
Observaciones 4.2.2
b la cual esta definida por
El ECM es diferente a la varianza de

2 
b
b
b
Var() = E E()
b mide la dispersion de la distribucion de
b alrededor
La diferencia entre ambos es que la Var()
b mide la dispersion alrededor del verdadero valor
de su valor esperado, mientras que ECM()
del par
ametro.
La relaci
on entre ambos esta dada por

2 
b =E
b
ECM()
h
 
i2 
b E()
b + E()
b
=E


2


 
2 
b E()
b
b E()
b
b + E()
b
=E
+2
E()

 



2 
2 
b E()
b
b + E E()
b
b E()
b
E()
+E 2
=E
b y son constantes
y dado que E()

2 

 
 
2
b E()
b
b E
b E()
b
b
=E
+ 2 E()
+ E()
de donde se obtiene que
h
i2
b = Var()
b + b(,
b )
ECM()
b es igual a la varianza de
b mas el sesgo de
b al
Es decir, el error cuadr
atico medio de
cuadrado.
Definici
on 4.2.8 El criterio de mnimo ECM consiste en seleccionar un estimador cuyo ECM
sea el menor en un conjunto de estimadores comparables.
Observaciones 4.2.3
Si el sesgo es igual a cero el critero de mnimo ECM es equivalente al criterio de mnima
varianza, pues en ese caso
b = Var()
b
ECM()
En la pr
actica el criterio de mnimo ECM se utiliza cuando los estimadores insesgados son
incapaces de cumplir con el criterio de varianza mnima.
4.2.3.

Consistencia

b es un estimador consistente del parametro si y solo si para


Definici
on 4.2.9 El estadstico
cada c > 0



b

lm P
< c = 1
n

Interpretaci
on: Para cada n
umero positivo c, existe un valor de n lo suficientemente grande
a partir del cu
al podemos estar pr
acticamente seguros que la diferencia entre el estimador y el
par
ametro no exceder
a a c.

A3-7

+c

ng

La clase de convergencia expresada por el lmite de la definicion 4.2.9 generalmente se llama convergencia en probabilidad.
b es un estimador insesgado del parametro y Var()
b desciende hacia cero
Teorema 4.2.3 Si
b es un estimador consistente de .
conforme n asciende a infinito, entonces

( )

l
f

l)
Var (

l) =
E (

b es asintoticamente eficiente.
El teorema 4.2.3 tambien es v
alido si

4.3.

M
etodos de estimaci
on puntual
Existe un n
umero infinito de estimadores para un mismo parametro de una poblacion.
Por las propiedades que cumplen, algunos de los metodos de estimacion mas conocidos son:
Metodo de momentos.
Metodo de m
axima verosimilitud.
Estimaci
on bayesiana.
Metodo de mnimos cuadrados.

4.3.1.

El m
etodo de m
axima verosimilitud

Los estimados hallados por este metodo maximizan la probabilidad de obtener la muestra
observada.
Los estimadores de m
axima verosimilitud son asint
oticamente insesgados de varianza mnima.
b es un estimador de maxima verosimilitud del parametro
Propiedad de invarianza: Si
b tambien es un estimador de maxima
y la funci
on dada por g() es continua, entonces g()
verosimilitud de g().

A3-8

Definici
on 4.3.1 Si x1 , x2 , . . . , xn son los valores observados en una muestra aleatoria de una poblaci
on con par
ametro , la funci
on de verosimilitud de esta muestra esta dada por
L() = f (x1 , x2 , . . . , xn ; )
Donde se encuentra dentro de un dominio dado y f (x1 , x2 , . . . , xn ; ) es el valor de la distribucion de
probabilidad conjunta de las variables aleatorias X1 , X2 , . . . , Xn cuando X1 = x1 , X2 = x2 , . . . , Xn =
xn .
Ejemplo 4.3.1 La probabilidad de que llueva en un da esta dada por . Hubo lluvia en 5 de los
7 das de la semana pasada. Cu
al es el valor de que maximiza la probabilidad de que suceda lo
observado?
Soluci
on: La probabilidad de que llueva en 5 de los 7 das de la semana pasada cuando la
probabilidad de lluvia para cada da es puede ser calculada a traves de la funcion de probabilidad
binomial
 
n x
nx
(1 )
x
donde n es el total de das en an
alisis y x representa el n
umero de das en los que efectivamente
llovi
o. Reemplazando valores se tiene que la probabilidad en cuestion es igual a
 
7 5
75
2
(1 )
= 21 5 (1 )
5
Esta probabilidad es una funci
on de y corresponde a la definicion de funci
on de verosimilitud L().
2

L() = 21 5 (1 )

Interesa encontrar el valor que maximice esta probabilidad (que maximice la funcion de verosimilitud)
= arg max L() = 21 5 (1 )2

este problema de maximizaci


on es equivalente a
= arg m
ax ln L() = ln 21 + 5 ln + 2 ln(1 )

para encontrar el valor de en cuesti


on se deriva la expresion anterior con respecto a y se iguala

a cero, obteniendo as la condici


on que debe cumplir .
2
5

=0

1
y por tanto
5
=
7
Se concluye que la probabilidad de que se hayan observado 5 das con lluvia la semana pasada se
maximiza cuando la probabilidad de lluvia para un da es igual a 5/7. Al valor obtenido se lo llama
estimado de m
axima verosimilitud.
Ejemplo 4.3.2 Se puede resolver el ejercicio anterior para un caso general: dado x exitos en n
b del parametro de una poblacion
intentos, encontrar el estimador de maxima verosimilitud ()
binomial.
Soluci
on:

La funci
on de verosimilitud para este caso esta dada por
 
n x
nx
(1 )
L() =
x

Para encontrar el valor que maximiza esta probabilidad es necesario maximizar la funcion de
verosimilitud con respecto a . As
 
n x

= arg max L() =


(1 )nx
x

A3-9

lo que es equivalente a
 
n

= arg m
ax ln L() = ln
+ x ln() + (n x) ln(1 )
x

derivando con respecto a e igualando a cero se obtiene que


x nx

=0

1
x
=
n
por tanto, el estimador de m
axima verosimilitud de es
b=X

n
Observaciones 4.3.1
es el estimado de m
axima verosimilitud del parametro , es decir el valor que se hallo para
una muestra en particular.
El estimado de m
axima verosimilitud del parametro es aquel valor de que maximiza la
funci
on de verosimilitud o, dicho de otro modo, el valor de que hace maxima la probabilidad
de observar una muestra en particular.
b es el estimador de m

axima veromilitud del parametro , es decir la f


ormula que indica
como a partir de los datos de una muestra calcular el estimado.
Ejemplo 4.3.3 Si X1 , X2 , . . . , Xn constituyen una muestra aleatoria de tama
no n de una poblacion
normal con media y varianza 2 , encuentre los estimadores conjuntos de maxima verosimilitud de
estos dos par
ametros.
Soluci
on:

La funci
on de densidad para cada Xi esta dada por
1

(xi )2
1
e 2 2
2

f (xi ; , ) =

Como los elementos de una muestra aleatoria proveniente de una poblacion infinita son independientes, entonces la funci
on de densidad conjunta f (x1 , x2 , . . . , xn ; , ) de la muestra es la multiplicacion
de las funciones de densidad de cada Xi . Esta funcion de densidad conjunta evaluada en la muestra
constituye la funci
on de verosimilitud.
L(, )

n
Y

f (xi ; , )

i=1


=

n
e

n
1 X
(xi )2
2 2 i=1

Para hacer mas f


acil el proceso de maximizacion se puede tomar logaritmos a la funcion de verosimilitud, as
n

n
1 X
2
ln L(, ) = ln(2) + ln( 2 ) 2
(xi )
2
2 i=1
las derivadas parciales con respecto a y 2 son las siguientes
n
1 X
(xi )
2 i=1

ln L(, )

ln L(, )
2

n
n
1 X
+
(xi )2
2 2
2 4 i=1

A3-10

al igualar a cero ambas derivadas parciales se encuentran las condiciones que deben cumplir los
estimados de m
axima verosimilitud x
(para ) y s2 (para 2 )
n
1 X
(xi x
) = 0
2 i=1

n
X

xi n
x=0

i=1

Pn

i=1

x
=

xi

=x

n
n
1 X
2
+
(xi x
) = 0
2
s2
2
s4 i=1

s2
Pn

i=1

s2 =
s2 =

(xi x
)

1
n
2

Pn

(xi x
)
n

Pn

(xi x)
n

i=1

i=1

En conclusi
on, los estimadores de m
axima verosimilitud de los parametros y 2 de una poblacion
normal son
Pn
i=1 Xi

=
n

Pn
=

i=1

Xi X
n

2

Observaci
on 4.3.2 El estimador de maxima verosimilitud del parametro de una poblacion normal es
v
n
uX
2
u
u
Xi X
t
i=1

=
n
por la propiedad de invarianza del metodo de maxima verosimilitud.

4.4.

Estimaci
on por intervalo

Definici
on 4.4.1 Una estimador por intervalo de es un intervalo de la forma
bL < <
bU

bL y
b U son estadsticos elegidos de tal forma que la probabilidad de que el parametro se
donde
encuentre en el intervalo es un valor dado 1 .
bL < <
bU) = 1
Prob(
Observaciones 4.4.1
Al igual que los estimadores puntuales, los estimadores por intervalo de un parametro no son
u
nicos.
b L como
b L son variables aleatorias que dependen de la muestra aleatoria y de la
Tanto
probabilidad 1 .
A3-11

Definici
on 4.4.2 Un intervalo de confianza del (1 )100 % para el parametro
L < < U
es el valor que toma el estimador por intervalo de
bL < <
bU

para una probabilidad 1 dada.


Definici
on 4.4.3 Al valor 1 se lo conoce con el nombre de nivel de confianza. A se lo suele
llamar nivel de significancia.
Definici
on 4.4.4 A los lmites inferior L y superior U de un intervalo de confianza se los llama
lmites de confianza inferior y superior respectivamente.
Observaciones 4.4.2
Mientras m
as alto sea 1 , mayor sera la amplitud del intervalo
Mientras m
as grande sea el intervalo mas imprecisa sera la informacion que se proporciona.
Ejemplo: Que es preferible? Saber con un nivel de confianza del 90 % que un parametro
se encuentra entre 2 y 4 o saber con un nivel de confianza del 99,99 % que el mismo parametro
se encuentra entre -10000 y 10000?
Una propiedad deseable de un intervalo de confianza es que la longitud del intervalo, dado un
nivel de confianza 1 , sea la menor posible.
bU
b L ), sea tan corta como sea
Otra propiedad deseable es que la longitud esperada, E(
posible.
Ejemplo 4.4.1 Para una muestra aleatoria X1 , X2 , . . . , Xn donde n > 30 se define el siguiente
2 X y
estimador por intervalo para la media poblacional :
L < <
U , donde
L = X
+ 2 X Cu

U = X
al es la probabilidad 1 de que la media poblacional se encuentre dentro
de este intervalo? (probabilidad de que la media poblacional se encuentre dentro de dos desviaciones
est
andar de la media muestral)
Soluci
on:

Considerese que efectivamente se encuentra dentro del intervalo


x
2 X < < x
+ 2 X

Reordenando terminos la expresi


on anterior tambien indica que x
se encuentra a dos desviaciones
est
andar de
+ 2 X
x
2 X < < x

x + 2 X > >
x 2 X
2 X > x
> 2 X
+ 2 X > x
> 2 X
2 X < x
< 2 X

Para determinar la probabilidad de que esto ocurra se definira la siguiente variable aleatoria
Z=



X
X
=
/n
X

A3-12

que se distribuye aproximadamente normal estandar dado que la muestra es mayor a 30. Por tanto
P (
L < <
U )

< 2 X )
P ( 2 X < X

P (2 < Z < 2)

0,955 //
R

En conclusi
on la probabilidad de que el verdadero valor de la media poblacional se encuentre a dos
desviaciones est
andar de la media muestral es 0,955.
se distribuye aproximadamente normal, por
Nota: En el ejemplo se ha podido asumir que X
tanto, la esperanza de la media muestral es la media poblacional y esta se encuentra ubicada en
el centro de la curva normal. (ver figura 1)

Figura 1: Distribucion aproximada de la media muestral


que se encuentran fuera del rango que va desde 2 X hasta + 2 X
Para todos los valores de X
+ 2 X ) no contendra a la verdadera media de la
2 X < < X
la estimaci
on por intervalo (X
poblaci
on. Esto sucede en el 4,5 % de los casos, es decir, en el area no sombreada de la figura 1.

y un mismo
Figura 2: Intervalos de confianza para distintos valores de X

A3-13

Observaci
on 4.4.3 Por lo general se trabajara con dos tipos de intervalos de confianza:
b U ) = y Prob( <
b L) = ; y
Los de dos colas, en los que Prob( >
2
2
bU) = y
b L = , o Prob( <
b L) = y
b U = .
Los de una cola, en los que Prob( >
Su uso depender
a del problema a tratarse.
Tipos de intervalos de confianza para el par
ametro

Intervalo de confianza de dos colas


Rango de posibles valores de

U
^

Prob( < ^L)= / 2

Prob( > ^U)= / 2

Prob(L < < U)=1-

Intervalos de confianza de una cola


Rango de posibles valores de

L
^

Prob( < ^L)=

Prob( > L)=1-

Rango de posibles valores de

U
Prob( < ^U)=1-

Prob( > ^U)=

b del parametro , el error de estimaci


Definici
on 4.4.5 Dado un estimador
on es un valor d tal
b y sea a lo mucho d es al menos 1 .
que la probabilidad de que la diferencia maxima entre
Esto puede ser expresado por





Prob d 1
Observaci
on 4.4.4 Para estimadores consistentes y un nivel de significancia dado es posible
establecer un error de estimaci
on tan peque
no como se desee manipulando el tama
no de la muestra
n. Esto se ver
a claramente en la siguiente seccion.

4.5.
4.5.1.

Estimaci
on de medias
Error de estimaci
on

la media de una muestra aleatoria de tama


Teorema 4.5.1 Si X,
no n de una poblacion normal con
2
varianza conocida , se va a usar
como
un
estimador
de
la
media
poblacional , la probabilidad


sea menor a Z/2 /n es 1 , donde Z/2 es tal que la
de que el error de estimaci
on X
integral de la funci
on de densidad normal estandar desde Z/2 hasta es igual a /2.
A3-14

Demostraci
on

sigue una distribucion normal con


Por la observaci
on 3.3.1 se sabe que X
X =

2
X
=

2
n

para muestras aleatorias de tama


no n de una poblacion normal con media y varianza 2 .
Si se define a la variable aleatoria Z por
Z=


X
/n

se puede decir que


Prob(|Z| < Z/2 ) = 1
lo cual puede ser re-escrito como



X


Prob < Z/2 = 1
/ n
de donde finalmente se obtiene





Prob X < Z/2 = 1
n
Corolario 4.5.1 Para muestras grandes (n > 30) los resultados del teorema se aplican de manera
aproximada independientemente de la distribucion que siga la poblacion.
Demostraci
on
central.

La demostraci
on es directa invocando al teorema 3.3.2, el teorema del lmite

Corolario 4.5.2 Si la poblaci


on no sigue una distribucion normal y el tama
no de la muestra es
peque
no (n < 30), entonces se requiere de mas informacion sobre la poblacion para poder decir algo
acerca del error de estimaci
on.
Demostraci
on

El teorema del lmite central solo se cumple para muestras grandes.

Observaci
on 4.5.1 (el tama
no del error de estimaci
on) Manipulando el tama
no de la muestra n es posible conseguir un error de estimacion arbitrariamente peque
no para un nivel de confianza
1 dado.
se va a usar como un estimador de la media de una
Teorema 4.5.2 Si la media muestral X
2
poblaci
on normal, y la
entonces la probabilidad de que el
varianza
 poblacional es desconocida,



error de estimaci
on X sea menor a t 2 ,n1 Sn es 1 ; donde S es la desviacion estandar
muestral y t 2 ,n1 es tal que la integral de la funcion de densidad t-student desde t 2 ,n1 hasta
es igual a /2.
Demostraci
on

Para una poblaci


on normal, se sabe que
T =


X
S/n

se distribuye como una t con n 1 grados de libertad. Por tanto


Prob(|T | < t 2 ,n1 ) = 1
De donde se puede obtener que



X
Prob S < t 2 ,n1 = 1
/ n
y por tanto que




< S t ,n1
Prob X
n 2
A3-15


=1

Corolario 4.5.3 Para muestras grandes (n > 30) el error de estimacion puede ser aproximado por
Z/2 Sn ; donde Z/2 es como se definio en el teorema 4.5.1.
Demostraci
on La distribuci
on t-student con n 1 grados de libertad converge a una normal
cuando n tiende a infinito. Se suele considerar que a partir de n > 30 la distribucion normal es una
buena aproximaci
on de la distribuci
on t-student con n 1 grados de libertad.
Corolario 4.5.4 Si la poblaci
on no se distribuye como una normal y la muestra es grande (n > 30),
entonces el error de estimaci
on puede ser aproximado por Z/2 Sn ; donde Z/2 es como se definio en
el teorema 4.5.1.
Idea de la demostraci
on

Se requiere demostrar que


T =


X
S/n

converge a una distribuci


on normal estandar cuando n tiende a infinito para cualquier distribucion
y S.
que haya generado a X
Re-escribiendo T de la siguiente manera
T =

/n
S

y S 2 (teorema 3.4.7) se puede demostrar que el priy haciendo uso de la independencia entre X
mer termino de la multiplicaci
on converge en distribucion a una normal estandar y que el segundo
termino converge en probabilidad a 1.
Claramente est
an involucradas definiciones que no se han estudiado en el presente curso y por esto
no se desarrolla la demostraci
on.
4.5.2.

Intervalos de confianza

Los errores de estimaci


on y los intervalos de confianza suelen hallarse ntimamente relacionados.
La causa es que se pueden construir intervalos de confianza a partir del conocimiento del error de
estimaci
on.
Teorema 4.5.3 Si x es el valor de la media de una muestra aleatoria de tama
no n de una poblacion
normal con varianza conocida 2 , entonces

x Z/2 < < x + Z/2


n
n
es un intervalo de confianza al (1 )100 % de la media poblacional.
Demotraci
on

Se sabe que





Prob X < Z/2
n



Prob Z/2 < X < Z/2


n
n



Prob Z/2 > X > Z/2


n
n



Prob Z/2 < X < Z/2


n
n



Prob X Z/2 < < X + Z/2


n
n

A3-16

Lo que demuestra que

x Z/2 < < x + Z/2


n
n

es el intervalo de confianza en cuesti


on.
Observaci
on 4.5.2 En general, se hacen afirmaciones de probabilidad cuando se habla de los valores
futuros de variables aleatorias (por ejemplo el error potencial de una estimacion) y afirmaciones de
confianza una vez que se han obtenido los datos.
Teorema 4.5.4 Si x y s son los valores de la media y la desviacion estandar de una muestra aleatoria
de tama
no n de una poblaci
on normal, entonces
s
s
x t 2 ,n1 < < x + t 2 ,n1
n
n
es un intervalo de confianza al (1 )100 % de la media de la poblacion.
Idea de la demostraci
on:
partiendo de

Se procede la misma manera que en el ejercicio anterior, pero ahora


Prob(|T | < t 2 ,n1 ) = 1

donde T es como se defini


o en el teorema 4.5.2.
Resumen para todos los casos:
Poblaci
on
Varianza
Normal Otras Conocida
No conoc.

Tama
no muestral

n 30

Intervalo de confianza
al (1 )100 % de

x Z/2

< < x + Z/2

x Z/2

s
n

< < x + Z/2

s
n

x t 2 ,n1

s
n

< < x + t 2 ,n1

n > 30

s
n

que se puede aproximar por


x Z/2

s
n

< < x + Z/2

s
n

x t 2 ,n1

s
n

< < x + t 2 ,n1

s
n

Se requiere conocer la
distribuci
on exacta de la poblaci
on

Las demostraciones son iguales a las de los dos teoremas anteriores mas la argumentacion de si
a
el tama
no de la muestra es lo suficientemente grande como para aproximar la distribucion de X
una normal.

4.6.

Estimaci
on de diferencias de medias

Establecida la relaci
on entre el error de estimacion y los intervalos de confianza que se estan
presentando, a partir de esta parte solo se trabajara con los intervalos de confianza.
Teorema 4.6.1 Si x1 y x2 son los valores de las medias de muestras aleatorias independientes de
tama
no n1 y n2 de poblaciones normales con varianzas conocidas 12 y 22 , entonces
s
s
12
22
12
2
(
x1 x
2 ) Z 2
+
< 1 2 < (
x1 x
2 ) + Z 2
+ 2
n1
n2
n1
n2
es un intervalo de confianza al (1 )100 % de la diferencia entre las dos medias poblacionales.

A3-17

1 y X
2 se distribuyen
Demostraci
on Por la observaci
on 3.3.1 y el corolario 3.3.2 se sabe que X
normalmente y que su combinaci
on lineal tambien sera normal, por tanto
Z=

1 X
) (1 2 )
(X
q2 2
1
22
n1 + n2

sigue una distribuci


on normal est
andar. Si en
Prob(Z/2 < Z < Z/2 )
se reemplaza Z se obtendr
a

Prob Z/2 <

1 X
2 )(1 2 )
(X


q 2

Prob Z/2 n11 +

22
n2

12
n1

22
n2


< Z/2

=1

< (1 2 )
q

12
n1


q 2
1 X
2 ) Z/2 1 +
Prob (X
n1

22
n2

1 X
2 ) < Z/2
(X

1 X
2 ) + Z/2
< (X

12
n1

22
n2


=1

< (1 2 )

2
+ n22 = 1

Obteniendo a partir de aqu el intervalo de confianza que propone el teorema.


Corolario 4.6.1 Para muestras grandes (n1 y n2 mayores a 30), si las poblaciones de donde provienen X1 y X2 no son normales, los resultados del teorema siguen siendo aplicables de manera
aproximada.
Demostraci
on Haciendo uso del teorema 3.3.2 (teorema del lmite central) se sabe que para
cualquier distribuci
on que sigan X1 y X2
Z=

1 X
) (1 2 )
(X
q2 2
1
22
n1 + n2

se distribuye aproximadamente como una normal estandar. A partir de aqu el resto de la prueba es
igual que la del teorema.
Corolario 4.6.2 Para muestras grandes (n1 y n2 mayores a 30), si las poblaciones son normales
y las varianzas poblacionales 12 y 22 no son conocidas pero se puede disponer de las varianzas
muestrales (s21 y s22 respectivamente), entonces
s
s
s21
s22
s21
s2
(
x1 x
2 ) Z 2
+
< 1 2 < (
x1 x
2 ) + Z 2
+ 2
n1
n2
n1
n2
es aproximadamente un intervalo de confianza al (1 )100 % de la diferencia entre las dos medias
poblacionales.
Idea de la demostraci
on:

Se aplica igual criterio que en el corolario 4.5.4.

A3-18

Teorema 4.6.2 Si x
1 , x
2 , s1 y s2 son los valores de las medias y las desviaciones estandar de variables aleatorias independientes de tama
no n1 y n2 de poblaciones normales con varianzas iguales
(12 = 22 = 2 ), entonces
r
1
1

(
x1 x
2 ) t 2 ,n1 +n2 2 sp
+
< 1 2
n1
n2
r
1
1
< (
x1 x
2 ) + t 2 ,n1 +n2 2 sp
+
n1
n2
donde

s
sp =

(n1 1)s21 + (n2 1)s22


n1 + n2 2

es un intervalo de confianza al (1 )100 % de la diferencia entre las dos medias poblacionales


Demostraci
on

Se sabe que para poblaciones normales


1 X
) (1 2 )
(X
q2 2
Z=
1
22
n1 + n2

sigue una distribuci


on normal est
andar, y por tanto si las varianzas poblaciones son iguales la misma
distribuci
on normal aplica para
1 X
) (1 2 )
(X
q2
Z=
n11 + n12
donde es un par
ametro desconocido que sera estimado por Sp . Aparte se sabe que
(n1 1)S12
(n2 1)S22
y
2
2
siguen distribuciones chi-cuadrado con n1 1 y n2 1 grados de libertad, y por tanto su suma
(n1 + n2 2)Sp2
(n1 1)S12
(n2 1)S22
+
=
2
2
2
sigue una distribuci
on chi-cuadrado con n1 + n2 2 grados de libertad. Z y Y son independientes
(lo cual no se demostrar
a) por lo que aplicando el teorema 3.5.1 tenemos que
Y =

Z
q

Y
n1 +n2 2

1 X
2 ) (1 2 )
(X
q
Sp n11 + n12

sigue una distribuci


on t con n1 + n2 2 grados de libertad. Reemplazando este valor en
Prob(t 2 ,n1 +n2 2 < T < t 2 ,n1 +n2 2 ) = 1
se obtiene

Prob t 2 ,n1 +n2 2 <

1 X
)(1 2 )
(X
q2
Sp n1 + n1
1


<t

2 ,n1 +n2 2

=1

de donde es f
acil ver que se obtiene el intervalo de confianza que propone el teorema
Observaciones:
Los resultados del teorema 4.6.2 son utilizados para muestras peque
nas (n1 +n2 230).
Para muestras en donde n1 + n2 2 > 30 los resultados del teorema 4.6.2 pueden aproximarse
con un intervalo de confianza construido en base a la distribucion normal.
Si alguna de las poblaciones no es normal, entonces se aplicaran los resultados para muestras
grandes y varianzas desconocidas solo si n1 > 30 y n2 > 30.
A3-19

4.7.

Estimaci
on de proporciones

Una proporci
on puede ser entendida como el parametro de una poblacion Bernoulli con funcion
de probabilidad
f (y) = y (1 )1y
y {0, 1}
representa en esta poblaci
on la probabilidad de exito, es decir, la probabilidad de que X = 1.
Si Y1 , Y2 , Y3 , . . . , Yn es una muestra aleatoria de esta poblacion, entonces el total de exitos dentro de
la muestra
n
X
X=
Yi
i=1

constituye una variable aleatoria binomial cuya funcion de probabilidad es la siguiente


 
n x
f (x) =
(1 )nx
x {0, 1, 2, . . . , n}
x
Teorema 4.7.1 Si X es una variable aleatoria que tiene una distribucion binomial con los parametros n y , entonces la distribuci
on de
X n
Z=p
n(1 )
se aproxima a la distribuci
on normal estandar cuando n
Bosquejo de la demostraci
on Para demostrar el teorema se requiere probar que la funcion
generatriz de momentos de la distribucion binomial tiende a la funcion generatriz de momentos de
la distribuci
on normal est
andar cuando n . No se realizara la prueba dado que las funciones
generatrices de momentos no han sido estudiadas en este curso.
Observaci
on 4.7.1 Los resultados del teorema solo son validos cuando n , sin embargo a
menudo se usa la distribuci
on normal para aproximar probabilidades binomiales. Una buena regla
emprica es usar esta aproximaci
on s
olo cuando n y n(1 ) son ambos mayores a 5.
Teorema 4.7.2 Si X es una variable aleatoria binomial con parametros n y , n es grande y = x/n,
donde x es el valor que toma la variable aleatoria X, entonces podemos afirmar con un (1 )100 %
de confianza que el error de estimaci
on es menor a
s
)

(1
Z 2
n
Demostraci
on

Se sabe por el teorema 4.7.1 que para muestras grandes


X n
Z=p
n(1 )

se distribuye aproximadamente como una normal estandar. Z puede ser re-escrito de la siguiente
manera
Z

X n
X n
p
=q
n2 (1)
n(1 )
n

X n
q
= qn
(1)
(1)
n
n
n

(1)
n

A3-20

b = X/n lo cual implica que


b tambien se distribuye
Es f
acil ver que (1)/n es la varianza de
aproximadamente normal en muestras grandes. Se observa que el error de estimacion que plantea
b
b
b esto es (1
)
el teorema utiliza la versi
on muestral de la desviacion estandar de ,
/n. Si utilizamos
0
esta versi
on tendremos una nueva variable aleatoria Z definida por
b

Z0 = q

b
b
(1
)
n

La pregunta es si Z 0 sigue alguna distribucion conocida. Para responder a esta pregunta se puede
utilizar la misma argumentaci
on empleada en el corolario 4.5.4 y por tanto se puede decir que Z 0 se
distribuye aproximadamente como una normal estandar para muestras grandes.
A partir de lo expuesto anteriormente se tiene que

Prob |Z 0 | < Z 2 = 1
Reemplazando Z 0 se encuentra que




b

< Z
Prob q
2
b
b
)
(1
n



1

b
Prob q
< Z 2

b
b
(1
)
n



b
b
(1

)

b

< Z 2
Prob
n
De donde se puede ver que | | < Z/2

b
b
(1
)
n

con un (1 )100 % de confianza

Teorema 4.7.3 Si X es una variable aleatoria binomial con parametros n y , n es grande y el


estimado de la proporci
on es = x/n, donde x es el valor que toma la variable aleatoria X,
entonces
s
s

(1 )
(1
Z 2
< < + Z 2
n
n
es un intervalo de confianza aproximado al (1 )100 % para .
Demostraci
on

En la prueba del teorema 4.7.2 ya se argumento las condiciones bajo las cuales
b

Z0 = q

b
b
(1
)
n

sigue aproximadamente una distribuci


on normal estandar, y a partir de este hecho se establecio que
s



b
b
(1

)

b
=1
< Z 2
Prob
n
Ahora se manipular
a la expresi
on anterior para que la desigualdad haga referencia solo a .
s



b
b

b < Z (1 ) = 1
Prob
2
n
s
s

b )
b
b )
b
(1
(1
b < Z
=1
Prob Z 2
<
2
n
n
s
s

b )
b
b )
b
(1
(1
b Z
b + Z
=1
Prob
<<
2
2
n
n
Este resultado demuestra el teorema.
A3-21

4.8.

Estimaci
on de diferencias entre proporciones

Para establecer intervalos de confianza para la diferencia de proporciones entre poblaciones Bernoulli independientes con par
ametros 1 y 2 es necesario primero determinar cual es la distribucion
b1
b 2 que esta definido por
del estimador a usarse. En esta secci
on se trabajara con el estimador
b 1 = X1

n1

b 2 = X2

n2

donde n1 y n2 son los tama


nos de las muestras aleatorias de cada poblacion y, X1 y X2 representan
el total de exitos encontrados en cada una de las dos muestras en cuestion.
b1
b 2 se puede demostrar que
De


b1
b2
E
= 1 2


1 (1 1 ) 2 (1 2 )
b1
b2
Var
+
=
n1
n2
y puesto que tanto 1 como 2 se distribuyen aproximadamente normal para muestras grandes (ver
la primera parte de la demostraci
on del teorema 4.7.2) entonces tambien su diferencia lo hara, esto
implica que
b1
b 2 ) (1 2 )
(
Z= q
1 (11 )
2)
+ 2 (1
n1
n2
es aproximadamente una variable aleatoria normal estandar.
Teorema 4.8.1 Si X1 es una variable aleatoria binomial con parametros n1 y 1 , X2 es una variable
aleatoria binomial con par
ametros n2 y 2 , n1 y n2 son grandes, y 1 = x1/n1 y 2 = x2/n2 , donde x1
y x2 son los valores que toman las variables aleatorias X1 y X2 respectivamente, entonces
s
1 (1 1 ) 2 (1 2 )
+
<
(1 2 ) Z 2
n1
n2
s
1 (1 1 ) 2 (1 2 )
1 2 < (1 2 ) + Z 2
+
n1
n2
es un intervalo de confianza aproximado al (1 )100 % para 1 2 .
Demostraci
on

Dado que 1 y 2 son desconocidos no podemos valernos del hecho que


b1
b 2 ) (1 2 )
(
Z= q
1 (11 )
2)
+ 2 (1
n1
n2

sigue aproximadamente una distribucion normal estandar para muestras grandes para construir
un intervalo de confianza. Sin embargo, utilizando la misma argumentacion que en el corolario
4.5.4 podemos llegar a la conclusi
on de que si reemplazamos los parametros desconocidos 1 y 2
por sus versiones muestrales 1 y 2 respectivamente, la variable aleatoria resultante tambien se
distribuir
a aproximadamente como una normal estandar para muestras grandes. Es decir,
b1
b 2 ) (1 2 )
(
Z0 = q
b 1 (1
b 1)
b
b 2)

+ 2 (1
n1
n2
sigue aproximadamente una distribuci
on normal estandar para muestras grandes.
Partiendo de este hecho tenemos que

Prob |Z 0 | < Z 2 = 1



b1
b 2 ) (1 2 )
(
< Z = 1
Prob q
2
b 1 (1
b 1)
b 2 (1
b 2)



+
n1

n2

A3-22




b1
b 2 )
Prob (1 2 ) (
<Z

b 1 (1
b 1)

n1


q
b 1 (1
b 1)
b1
b 2) Z
+
Prob (
n1
2
b1
b 2) + Z
1 2 < (
2

b 2 (1
b 2)

n2

b 2 (1
b 2)

n2

b 1 (1
b 1)

n1


=

<

b 2 (1
b 2)

n2

lo cual completa la prueba.

4.9.

Estimaci
on de varianzas

Teorema 4.9.1 Si s2 es el valor de la varianza de una muestra aleatoria de tama


no n de una
poblaci
on normal, entonces
(n 1)s2
(n 1)s2
< 2 < 2
2
/2 ; n1
1/2 ; n1
es un intervalo de confianza al (1 )100 % para 2 .
Demostraci
on Si S 2 es la varianza muestral de una poblacion normal con varianza 2 y n
representa el tama
no de la muestra, entonces
(n 1)S 2
2
es una variable aleatoria que sigue una distribucion chi-cuadrado con n1 grados de libertad (revisar
la secci
on 3.4, en especial el teorema 3.4.7). As


(n 1)S 2
2
2
Prob 1/2 ; n1 <
< /2 ; n1
= 1
2

Prob

2
1
>
> 2
(n 1)S 2
/2 ; n1

(n 1)S 2
(n 1)S 2
< 2 < 2
2
/2 ; n1
1/2 ; n1

1
21/2 ; n1

Prob

Lo cual implica que


(n 1)s2
(n 1)s2
< 2 < 2
2
/2 ; n1
1/2 ; n1
es un intervalo de confianza al (1 )100 % para 2 , tal como lo plantea el teorema.

4.10.

Estimaci
on de la raz
on entre dos varianzas

Teorema 4.10.1 Si s21 y s22 son los valores de las varianzas de muestras aleatorias independientes
de tama
no n1 y n2 de poblaciones normales, entonces
s21
1
12
s21

<
<
f 2 ; n2 1 ; n1 1
s22 f 2 ; n1 1 ; n2 1
22
s22
es un intervalo de confianza al (1 )100 % para

12/ 2 .

A3-23

Demostraci
on Si S12 y S22 son las varianzas de muestras aleatorias independientes de tama
no n1
y n2 de poblaciones normales, entonces
2 S 2
F = 22 12
1 S2
es una variable aleatoria que tiene una distribucion F con n1 1 y n2 2 grados de libertad (teorema
1.6.1). As, se puede decir que


22 S12
Prob f1 2 ; n1 1 ; n2 1 < 2 2 < f 2 ; n1 1 ; n2 1 = 1
1 S2
lo cual puede ser re-escrito en virtud del teorema 3.6.2 como


22 S12
1

< 2 2 < f 2 ; n1 1 ; n2 1 = 1
Prob
f 2 ; n2 1 ; n1 1
1 S2
2

Ordenando la desigualdad para que exprese un intervalo para 1/22 se obtiene



 2
1
S12
12
S1

<

f
=1
<
Prob
2 ; n2 1 ; n1 1
S22 f 2 ; n1 1 ; n2 1
22
S22
lo que demuestra la veracidad del teorema.

A3-24

También podría gustarte