Está en la página 1de 16

Captulo 4

Estimacion puntual

El objetivo que se marca la Estadstica es adaptar un modelo de comportamiento a distintas


caractersticas de una poblacion, para poder estimarlas. Para ello partimos del conocimiento de cada
caracterstica en una muestra a la que pedimos sea sucientemente representativa. Se puede denir
esta representatividad de distintas maneras, y cada una llevara a un concepto diferente de muestra.
La denicion que consideraremos en este captulo (y que utilizaremos en los sucesivos) es la mas
sencilla y habitual.
Una vez tomada una muestra representativa, se decide tomar cierto modelo para la caracterstica
estudiada, que supondremos es numerica. Si esta caracterstica, X, es de tipo de discreto, la conside-
raremos como una variable aleatoria, y as adaptaremos un modelo con distribucion dada por una
funcion de masa P . Si X es de tipo continuo, el modelo vendra dado por una funcion de masa, f .
Para abreviar, diremos que estamos estudiando una poblacion X con funcion de masa P (o funcion
de densidad f ).

1. Muestra aleatoria. Parametro y estimador


Denicion 1.1. Una muestra aleatoria de tamano N , de una poblacion X con funcion de
masa P (o funcion de densidad f ), es un vector aleatorio (X1 X2 . . . XN ) donde:

a) La distribucion marginal de cada Xi viene dada por P (o por f ).

b) X1 , . . . , XN son independientes.

Veamos como, con esta denicion, podemos tomar siempre una muestra aleatoria como una
muestra representativa de la poblacion estudiada.

a) Cada Xi representa el valor de X en el elemento iesimo de la muestra.

b) El hecho de que cada distribucion marginal venga dada por la misma distribucion signica,
informalmente, que todos los elementos de la poblacion tienen la misma oportunidad de aparecer
en la muestra. Con otras palabras: la probabilidad de que un valor aparezca en la observacion
iesima depende solo de la probabilidad que dicho valor tiene en la poblacion, de manera que
cada observacion representa por igual a la poblacion.

67
68 CAPITULO 4. ESTIMACION PUNTUAL

c) Suponer que las observaciones sean independientes, es comodo para el desarrollo teorico del mo-
delo del muestreo. As, si (X1 . . . XN ) es una muestra aleatoria de una poblacion X, la funcion
de masa de la muestra vendra dada por:

caso discreto: P (x1 . . . xN ) = P (x1 ) P (xN )


caso continuo: f (x1 . . . xN ) = f (x1 ) f (xN ) .

Esta independencia la podemos entender de dos maneras:

de un modo exacto, signica que cada vez que observamos un elemento lo devolvemos a la
poblacion (reemplazamiento);
de una manera aproximada, signica que el tamano de la poblacion es muy grande en com-
paracion con el de la muestra, de modo que la composicion de la poblacion se altera muy
poco al faltarle algunos elementos (los ya observados).

Nota: Conviene distinguir entre los conceptos de muestra aleatoria y muestra. La primera es
un vector aleatorio, con su funcion de masa (o densidad, segun el tipo). La segunda es una coleccion
de numeros, x1 . . . xN , que entenderemos como una realizacion del vector aleatorio (X1 . . . XN ).
En adelante, en general, usaremos letras mayusculas para referirnos a variables, y minusculas para
valores de las mismas.
Por supuesto desconocemos P (o f ), pues de conocerla el problema no sera tal. Precisamente,
nuestro objetivo es ganar informacion sobre P (o f ) a partir de las observaciones X1 . . . XN . Para
ello, una buena idea es resumir la informacion aportada por los datos muestrales. Lo mejor sera que
estos resumenes no perdiesen nada de la informacion contenida en la muestra. Esta necesidad nos
lleva a la denicion de estadstico:

Denicion 1.2. Un estadstico es una funcion real T de la muestra aleatoria (X1 . . . XN ).

En particular, un estadstico es una variable aleatoria, T (X1 . . . XN ), y, en consecuencia, podemos


hablar de su esperanza, varianza, . . . . Algunos de los mas utilizados, en todo tipo de situaciones, son:
N
1
Media muestral: X = Xi
N i=1
N
1
Varianza muestral: VX = (Xi X)2
N i=1
N
2 1
Cuasivarianza muestral: SX = (Xi X)2 .
N 1 i=1

Propiedades: Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con esperanza y
varianza 2 , entonces:
a) E[X] = ;
2
b) V (X) = ;
N
2
c) E[SX ] = 2;
d) E[VX ] = NN1 2 .
1. MUESTRA ALEATORIA. PARAMETRO Y ESTIMADOR 69

Ejercicio 1 Demostrar las propiedades anteriores.


Solucion: Basta aplicar las deniciones en cada caso, en efecto:
1 N 1
N
1
E[X] = E Xi = E[Xi ] = N = ;
N i=1 N i=1 N
1 N N
1
V (X) = V Xi = 2 V (Xi ) (por independencia)
N i=1 N i=1
1 2 2
= N = ;
N2 N
1 1 N
2
E[SX ] = E (Xi X)2 = E (Xi + X)2
N 1 i=1 N 1 i=1

1 N N
= E (Xi )2 + N (X )2 + 2( X) (Xi )
N 1 i=1 i=1

1 N
= E (Xi )2 N (X )2
N 1 i=1

1 1 2 2
N

= E (Xi )2 N E (X )2 = N N = 2 ;
N 1 i=1 N 1 N

N N 1 N 1
E[VX ] = E (Xi X)2 = E 2
SX = 2 .
i=1
N N

1.1. Inferencia parametrica


El problema que tenemos planteado es el desconocimiento de la disribucion concreta que sigue la
poblacion X. En la mayora de casos este desconocimiento sera parcial, y, por ejemplo, tendremos
cierta sospecha del tipo de funcion de masa o de densidad que buscamos: una binomial, una Poisson,
una normal, . . . . As, sera habitual suponer que la poblacion sigue cierto modelo de probabilidad del
que nos faltara conocer algun parametro. De la resolucion de este tipo de problemas se encarga la
Inferencia parametrica. En general, la situacion sera la siguiente:
La poblacion, X, sigue cierta distribucion, de la que conocemos la forma de su funcion de masa P
(o de su funcion de densidad, f ). En ella aparece un parametro, , desconocido (que puede ser
de una o mas dimensiones). El conjunto de posibles valores del parametro se denomina espacio
parametrico, y lo representaremos por .
Si la caracterstica que estudiamos es discreta, representaremos a su funcion de masa por P ; y si es
continua, a su funcion de densidad por f . En ambos casos, para resaltar el objetivo de nuestro
problema: resolver o estimar el valor del parametro desconocido .
La funcion de masa (o densidad) de la muestra aleatoria sera de la forma:
caso discreto: P (x1 . . . xN ) = P (x1 ) P (xN )
caso continuo: f (x1 . . . xN ) = f (x1 ) f (xN ) .
70 CAPITULO 4. ESTIMACION PUNTUAL

La Inferencia parametrica se divide en tres grandes partes, dependiendo de la naturaleza del pro-
blema a resolver, y del tipo de solucion que demos:
A. estimacion puntual;
B. estimacion por intervalos de conanza;
C. contraste de hipotesis parametricas;
y dedicaremos sendos captulos a cada una de ellas.
Terminamos esta introduccion a la Inferencia parametrica, ocupandonos de una cuestion que
quedo en el aire: no perder demasiada informacion con los estadsticos. Mas en concreto, introducido
en el lenguaje el concepto de parametro, , lo que nos gustara es utilizar estadsticos sencillos que
conserven toda la informacion sobre que lleva la muestra (X1 . . . XN ). Motivamos este ultimo
cometido con el siguiente ejemplo.
Ejemplo 32 La probabilidad de obtener cara al lanzar una moneda es un valor desconocido, , entre
0 y 1 (espacio parametrico = (0 1)). Si al suceso cara le asignamos el valor 1, y a su contrario,
cruz, el valor 0, y lanzamos la moneda N veces, obtenemos una muestra aleatoria (X1 . . . XN ) de
una poblacion, X, con funcion de masa
P (x) = x (1 )1x x = 0 1 ( distribuccion de Bernoulli ) .
La funcion de masa de la muestra es:
N N
P (x1 . . . xN ) = x1 (1 )1x1 xN (1 )1xN = i=1 xi
(1 )N i=1 xi
.
Parece claro, en este caso, que el estadstico
N

T (X1 . . . XN ) = Xi = numero de caras obtenidas
i=1
contiene tanta informacion sobre como la descripcion detallada del resultado de los N lanzamientos.
Observando que T B(N ; ), sera facil obtener la probabilidad de una muestra (x1 . . . xN )
condicionada por el hecho de que el estadstico T ha tomado el valor t (han salido t caras en los N
lanzamientos):
P (T = t | x1 . . . xN ) P (x1 . . . xN )
P (x1 . . . xN | T = t) =
P (T = t)
N N
P (T = t | x1 . . . xN ) i=1 xi (1 )N i=1 xi
= N
t
t (1 )N t

t 1)N t N

N t = 1
si xi = t
= ( t)
1)N t ( N
t) i=1

N
0 si xi = t .
i=1

Es decir, la distribucion de la muestra (X1 . . . XN ) condicionada por T = t no depende del


parametro . Intuitivamente, esto signica que lo que queda de la muestra, una vez extrada la
informacion contenida en T , no nos va a decir nada mas sobre . En este sentido se introduce el
siguiente concepto.
2. ESTIMACION PUNTUAL 71

Denicion 1.3. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de ma-
sa P (o funcion de densidad f ). Un estadstico, T , es suficiente para cuando la distribucion
de (X1 . . . XN ) condicionada por T = t no depende de .
A pesar de la claridad del concepto, es muy difcil utilizar esta denicion para decidir si un
estadstico es suciente. En primer lugar hay que conjeturar que estadstico T puede ser suciente,
y despues obtener la distribucion condicionada, que sera casi siempre difcil. Afortunadamente hay
una caracterizacion sencilla alternativa:
Propiedad: Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de masa P
o funcion de densidad f ). Un estadstico T es suciente para si y solo si:

P (x1 . . . xN ) = g T (x1 . . . xN ) h(x1 . . . xN )
o la correspondiente identidad para el caso continuo).
En el caso del lanzamiento de la moneda, se tendra la siguiente sencilla comprobacion:
N N
xi
P (x1 . . . xN ) = i=1 (1 )N i=1 xi
= g(T (x1 . . . xN ) ) h(x1 . . . xN )

con T (x1 . . . xN ) = N
i=1 xi

g(T (x1 . . . xN ) ) = T x1 ...xN ) (1 )N T x1 ...xN )


h(x1 . . . xN ) = 1 .

2. Estimacion puntual
Supongamos dada una caracterstica X y aceptemos que sigue cierto modelo dado por una funcion
de masa P (o de densidad f ), de la que desconocemos el valor del parametro dentro de un espacio
parametrico .
El objetivo de la estimacion puntual es tomar un valor plausible para el parametro . Para ello
se considera una muestra aleatoria (X1 . . . XN ) de la poblacion X, y a partir de una realizacion
de la misma, esto es, una coleccion de datos x1 . . . xN , se decidira el valor para la estimacion del
parametro.
Denicion 2.1. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de masa
P (o funcion de densidad f ), donde . Un estimador puntual de g() es una funcion T
que a cada posible muestra (x1 . . . xN ) le hace corresponder una estimacion T (x1 . . . xN ) de g().
Observaciones:
a) Habitualmente se buscara estimar (esto es, g() = ), pero puede interesarnos estimar alguna
funcion de (por ejemplo 2 ). Por esta razon hablaremos de estimadores puntuales de g().
b) Evidentemente, T (X1 . . . XN ) es una variable aleatoria (o un vector aleatorio si g() tiene
mas de una dimension). En realidad, un estimador puntual no es mas que un estadstico con
un objetivo concreto: acercarse lo mas posible al verdadero valor de g(). Segun nos convenga
usaremos la notacion T (X1 . . . XN ) o simplemente T .
c) La denicion dada de estimador puntual es muy general, y engloba tanto estimadores razo-
nables como otros completamente absurdos. Lo siguiente que haremos es mostrar propiedades
deseables para un estimador razonable, eliminando, as, estimadores indeseables.
72 CAPITULO 4. ESTIMACION PUNTUAL

Denicion 2.2. El error cuadratico medio de un estimador T para estimar g() se dene
como:

N

T (x1 . . . xN ) g()2 P (x1 ) P (xN ) (caso discreto)

E (T g())2 =
i=1



T (x1 . . . xN ) g()2 f (x1 ) f (xN ) dx1 . . . dxN (caso continuo)

Es claro que un estimador sera mas efectivo cuanto mas pequeno sea su error cuadratico medio.
El siguiente desarrollo nos aporta una formula sencilla para el calculo de este error:

E (T g())2 = E (T E [T ] + E [T ] g())2

= E (T E [T ])2 + (E [T ] g())2
= V (T ) + (Sesgo(T ))2

siendo Sesgo(T ) = E [T ] g().


De esta ultima igualdad vemos que podemos reducir el error cuadratico medio, bien reduciendo la
varianza del estimador, bien reduciendo su sesgo para estimar g(). Podemos eliminar completamente
el sesgo al trabajar con estimadores insesgados.

Denicion 2.3. Un estimador T es insesgado (o centrado) para estimar g(), si verica:

E [T ] = g() para todo .

Al considerar solo estimadores insesgados podemos estar eliminando otros estimadores valiosos
(a pesar de no ser insesgados). No obstante tenemos una ventaja adicional, pues para un estimador
insesgado su error cuadratico medio es simplemente V (T ). De este modo, dentro de los estimadores
insesgados buscaramos el de varianza mnima. Este cometido es muy interesante, pero excede el nivel
de este curso.

Es sencillo encontrar ejemplos de estimadores insesgados.

Ejemplo 33 Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con distribucion N ( ; ).
En este caso = ( ), y tenemos:
T1 (X1 . . . XN ) = X es un estimador insesgado de g1 () = , ya que E [X] = ;
2
T1 (X1 . . . XN ) = SX (cuasi-varianza) es insesgado para estimar g2 () = 2 , ya que E [X] = 2 .

Otra propiedad bastante razonable a exigir a un estimador T es que, cuanto mayor sea el tamano
muestral N , mas se acerque la estimacion T (x1 . . . xN ) al verdadero valor de g(). Esto nos lleva al
siguiente concepto:

Denicion 2.4. Un estimador T es consistente para estimar g() si, para todo :

lm FT (t) = 0 para t < g()
N
lm FT (t) = 1 para t > g()
N

donde FT es la funcion de distribucion de T (X1 . . . XN ).


3. METODOS DE CONSTRUCCION DE ESTIMADORES 73

La idea es que, a medida que aumenta el tamano muestral, mas se concentra la distribucion
de la variable aleatoria T (X1 . . . XN ) alrededor del verdadero valor de g() (sea cual sea), y, en
consecuencia, las estimaciones T (x1 . . . xN ) cada vez se acercan mas a dicho valor.
Calcular la funcion de distribucion de T suele ser difcil, por lo que es difcil ver, a partir de la
denicion, cuando un estimador va a ser consistente. Afortunadamente tenemos una propiedad, mas
facil de comprobar en muchas situaciones, que nos permite armar si un estimador es consistente.
Propiedad: Si T es un estimador que verica:
i. lm E [T ] = g(), para todo ,
N

ii. lm V (T ) = 0, para todo ,


N

entonces es consistente.
Ejemplo 34 Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X N ( ), = ( ).
El estimador T1 (X1 . . . XN ) = X es consistente para estimar g1 () = , ya que:
lm E [T1 ] = lm E [X] = lm = = g1 ()
N N N
2
lm V (T1 ) = lm V (X) = lm = 0.
N N N N

3. Metodos de construccion de estimadores


Vamos a mostrar dos sencillos metodos de construccion de estimadores puntuales razonables,
aplicables a cualquier situacion. Empezaremos con el metodo de los momentos, y posteriormente,
pasaremos al mas utilizado: el metodo de maxima verosimilitud.

3.1. Metodo de los momentos


Denicion 3.1. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de masa
P (o funcion de densidad f ), con parametro desconocido = (1 . . . k ) . El estimador de
por el metodo de los momentos es el formado por los valores 1 , . . . , k que se obtienen al resolver,
en las variables 1 . . . k , el sistema de ecuaciones:


1 N

E [X] = Xi

N i=1
.. .. ..
. . .

1 N


E [X k ] = Xk
N i=1 i
donde, E [X j ] se denomina momento de orden j.
La justicacion de este metodo es sencilla: parece razonable pensar que los momentos de la pobla-
cion se pareceran a los respectivos momentos de la muestra. Se plantean entonces tantas ecuaciones
como componentes tenga el parametro a estimar.
No obstante, este metodo presenta serios incovenientes. Por ejemplo, es posible obtener estima-
ciones fuera del espacio parametrico.
74 CAPITULO 4. ESTIMACION PUNTUAL

3.2. Metodo de maxima verosimilitud


Es el metodo mas utilizado para construir estimadores puntuales. Se basa, tambien, en una idea
muy sencilla, y tiene la ventaja de no presentar los inconvenientes que a veces surgen con el metodo
de los momentos. Motivamos el metodo con el siguiente ejemplo.

Ejemplo 35 Sabemos que en una urna hay, entre negras y blancas, un total de 4 bolas, pero desco-
nocemos la composicion exacta. Sea la proporcion de, por ejemplo, bolas blancas. Es claro cual es
el espacio parametrico en este caso, pues puede tomar los valores:

0; 1/4 ; 1/2 ; 3/4 ; 1.

Para obtener mas informacion se extraen de la urna 2 bolas, con reemplazamiento (para tener inde-
pendencia en las observaciones). Supongamos que la primera bola ha sido blanca y la segunda negra,
es decir la muestra obtenida ha sido (B N ). La probabilidad que tenamos de obtener esta muestra,
dependiendo de la composicion de la urna, esto es de la proporcion , era:


0 si = 0


3/16 si = 1/4
P (B N ) = 1/4 si = 1/2



3/16 si = 3/4

0 si = 1

La idea del metodo de maxima verosimilitud es tomar como estimacion de aquel valor que daba
mas probabilidad a la muestra obtenida, en este caso = 1/2.

Denicion 3.2. Metodo de maxima verosimilitud) Sea (X1 . . . XN ) una muestra aleatoria
de una poblacion X con funcion de masa P (o funcion de densidad f ), con parametro desconocido
= (1 . . . k ) . El estimador de maxima verosimilitud, , de es el formado por los valores

(1 . . . k ) que maximizan la que llamaremos funcion de verosimilitud de la muestra obtenida,
que se dene por:

P (x1 ) . . . P (xn ) (caso discreto)
L() = L( ; x1 . . . xN ) =
f (x1 ) . . . f (xn ) (caso continuo)

Observaciones:

a) La funcion de verosimilitud expresa la probabilidad (o la densidad) que los diferentes valores


de dan a la muestra obtenida. Lo que hacemos, por tanto, es maximizar esa probabilidad
(o densidad).

b) De la misma denicion, vemos que la estimacion de maxima verosimilitud siempre es un valor


del espacio parametrico.

c) Para no tener que manejar productos, en muchas ocasiones es mas comodo encontrar el estima-
dor de maxima verosimilitud considerando log(L()), en lugar de L(). Puesto que la funcion
3. METODOS DE CONSTRUCCION DE ESTIMADORES 75

log(x) es monotona creciente, log(L()) se hace maxima (y mnima) en los mismos puntos
que L(). La ventaja es que basta despejar 1 , . . . , k del sistema de ecuaciones:

log(L())

= 0

1
.. .. ..
. . .

log(L())

= 0
k

Por supuesto hay que tener precaucion con este procedimiento, pues el punto crtico obtenido no
tiene por que corresponder a un maximo. Ademas, puede ocurrir que la funcion de verosimilitud
se maximice en un extremo, en cuyo caso no tiene por que dar un punto crtico, es decir, no
obtendramos nada con este procedimiento.

d) Observese, por ultimo, que si es el estimador de maxima verosimilitud, entonces g()


sera el
de g(). Si, por ejemplo, hemos obtenido X como estimador de maxima verosimilitud para ,
entonces X 2 lo sera para 2 .

Ejercicio 2 Dada una muestra aleatoria de tamano N de una poblacion X, calcular los estimadores
y por el de maxima verosimilitud, ,
puntuales para por el metodo de los momentos, , en los
siguientes casos:

a) X Bernoulli de parametro p;

b) X Poisson ();

c) X Exponencial ();

d) X N ( ; ), ( conocido);

e) X N ( ; ), ( conocido);

f) X N ( ; ).

Solucion: Planteamos ambos metodos en cada caso, y utilizamos, para cuando haga falta, la igual-
dad E[X 2 ] = V [X] + E[X]2 , que se deduce inmediatamente de la denicion de varianza de una
variable aleatoria.

a) X Bernoulli de parametro p. Queremos estimar el parametro desconocido p (0 1), siendo


la funcion de masa:
Pp (x) = px (1 p)x x = 0 1 .

Metodo de los momentos. Puesto que el parametro es de una dimension, se considera solo el
primer momento. El momento de orden 1 de la poblacion, Ep [X], es su esperanza, p, y el
de la muestra es la media muestral x. Tomamos pues el estimador

p = x .
76 CAPITULO 4. ESTIMACION PUNTUAL

Metodo de maxima verosimilitud. La funcion de verosimilitud es:



L(p) = L(p ; x1 . . . xN ) = px1 (1 p)x1 pxN (1 p)xN = p xi
(1 p)N xi
.

Tomamos, para simplicar calculos, su logaritmo y lo maximizamos:



log(L(p)) = xi log(p) + N xi log(1 p)

d log(L(p)) xi N xi xi N p
= = .
dp p 1p p(1 p)

Al igualar a cero la derivada se obtiene un punto crtico para p = N1 xi = x. Ademas,
un simple analisis del signo de la derivada nos muestra que esta es positiva para p < x, y
negativa para p > x* . Por tanto, este punto crtico corresponde a un maximo, por lo que
tomamos como estimador de maxima verosimilitud:

p = x .

b) X Poisson (). Queremos estimar el parametro desconocido > 0, siendo la funcion de masa:

x e
P (x) = x = 0 1 2 . . . .
x
Metodo de los momentos. El momento de orden 1 de la poblacion, E [X], es su esperanza, ,
y el de la muestra es la media muestral x. Tomamos pues el estimador de momentos
= x .

Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:

xi
eN
L() =
xi

con logaritmo:

log(L()) = xi log() N log xi ) .
El ultimo termino asusta, pero no hay problema porque es una constante. Al derivar e
igualar a cero obtenemos:

d log(L()) xi 1
= N = 0 = xi = x .
d N
De nuevo, es facil ver que este punto crtico corresponde a un maximo, por lo que toma-
remos como estimador de maxima verosimilitud:
= x .


En efecto,
el denominador es siempre
positivo, al ser el espacio parametrico el intervalo 0 1). Por otra parte,

p < x = 1 xi equivale a N p < xi , quedando el numerador positivo. Por contra, p > x equivale a N p > xi ,
quedando el numerador negativo.
3. METODOS DE CONSTRUCCION DE ESTIMADORES 77

c) X Exponencial (). Queremos estimar el parametro desconocido > 0, siendo la funcion


de densidad:
f (x) = ex x > 0.

Metodo de los momentos. El momento de orden 1 de la poblacion, E [X], es su esperanza, 1/,


y el de la muestra es la media muestral x. Tomamos pues el estimador de momentos

= 1.

x
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:

L() = N e xi

con logaritmo:

log(L()) = N log() xi .
Al derivar e igualar a cero obtenemos:
d log(L()) N N 1
= xi = 0 = = .
d xi x
Observese que > 0 y que cada dato, xi , de una muestra correspondiente a esta poblacion
es positivo. Es facil, entonces, ver que este punto crtico corresponde a un maximo, por lo
que tomaremos como estimador de maxima verosimilitud:

= 1.

x
d) X N ( ; ), ( conocido). Queremos estimar el parametro desconocido , siendo la
funcion de densidad para esta poblacion:

1 (x )2
f (x) = exp para todo x .
2 2 2
Metodo de los momentos. El momento de orden 1 de la poblacion, E [X], es su esperanza, ,
y el de la muestra es la media muestral x. Tomamos pues el estimador de momentos


= x .

Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
N
1 (xi )2
L() = exp
2 2 2
con logaritmo:

(xi )2
log(L()) = N log( 2) 2
2
2
xi 2 xi + N 2
= N log( 2) .
2 2
78 CAPITULO 4. ESTIMACION PUNTUAL

Al derivar, respecto de , e igualar a cero obtenemos:



d log(L()) xi N
= 2
2 = 0 = x .
d
Este punto crtico corresponde a un maximo (por que?), por lo que tomaremos como
estimador de maxima verosimilitud:

= x .
e) X N ( ; ), ( conocido). Ahora el parametro desconocido es > 0, siendo la funcion de
densidad para esta poblacion:

1 (x )2
f (x) = exp para todo x .
2 2 2
Metodo de los momentos. El momento de orden 1 de la poblacion, E[X], es su esperanza, .
As, la primera ecuacion planteada en el metodo de los momentos no nos dice nada del
parametro que intentamos estimar, . Tomamos entonces el momento de orden 2:
E[X 2 ] = V [X] + E[X]2 = 2 + 2 .
1 2
Por otra parte, el momento de orden 2 de la muestra es xi . La ecuacion quedara:
N
1 2
2 + 2 = xi
N
Tomamos pues el estimador de momentos para g() = 2
1 2
2 =
x i 2 .
N
Notese que en este caso podemos obtener estimadores absurdos. Si, por ejemplo, sabemos
2 = 7, que es un valor absurdo.
que = 5 y la muestra es (3 3 6), obtendramos
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
N
1 (xi )2
L() = exp
2 2 2
con logaritmo:
(xi )2
log(L()) = N log( 2) .
2 2
Al derivar, respecto de , e igualar a cero obtenemos:

d log(L()) N (xi )2 1
= + = 0 2 = (xi )2 .
d 3 N
Este punto crtico corresponde a un maximo (por que?), por lo que tomaremos como
estimador de maxima verosimilitud para g() = 2 :
1
2 =
(xi )2 .
N
3. METODOS DE CONSTRUCCION DE ESTIMADORES 79

f) X N ( ; ).
En este ultimo caso, se desconocen ambos parametros de la poblacion, y as estimaremos:
= ( ), con y > 0. La funcion de densidad es:

1 (x )2
f (x) = exp para todo x .
2 2 2
Metodo de los momentos. Tenemos que considerar dos ecuaciones (pues hay 2 parametros):
= x
N
1 2
2 + 2 = x .
N i=1 i
Obtenemos como solucion para el sistema:
N
1 2 1
= x y 2 = xi x2 = varianza muestral = (xi x)2
N N i=1
de manera que, el estimador de momentos para g( ) = ( 2 ), vendra dado por:
N
2 1

= x =
(xi x)2 .
N i=1
Notese que ahora, el estimador para 2 no puede producir resultados absurdos.
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
N
1 (xi )2
L( ) = exp
2 2 2
con logaritmo:
(xi )2
log(L( )) = N log( 2) ;
2 2
que conviene escribir como:

x2i 2 xi + N 2
log(L( )) = N log() N log( 2) ;
2 2
El sistema planteado, igualando a cero las derivadas parciales respecto a cada una de las
variables, es:

log(L( )) xi N
= 2
2 =0


log(L( )) N (xi )2
= + =0
3

= x
con solucion:
2 = N1 (xi x)2 .
Tomamos esta solucion como estimacion de maxima verosimilitud al dar un maximo:
N
2 1

= x =
(xi x)2 .
N i=1
80 CAPITULO 4. ESTIMACION PUNTUAL

Problemas
1. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de densidad:

f (x) = ex+ si x > ( ) .

a) Hallar el estimador por el metodo de los momentos de .


b) Estudiar si el estimador encontrado en el apartado anterior es insesgado para estimar el
parametro .
2. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de densidad:

x x2
f (x) = exp si x > 0 ( > 0) .
2 22
Hallar el estimador de maxima verosimilitud de .
3. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de densidad:
1 +1
f (x) = si x > 1 ( > 1) .
x
a) Hallar el estimador de maxima verosimilitud de .
b) Hallar el estimador de por el metodo de los momentos.
4. Se toma una muestra aleatoria de tamano N de una poblacion cuya funcion de densidad es:

1 (log x )2
f (x) = exp si x > 0
x 2 2 2

donde puede ser cualquier numero real y es mayor que cero. Hallar los estimadores de
maxima verosimilitud de y 2 .
5. En una gran piscifactora hay una proporcion desconocida de peces de cierta especie A. Para
obtener informacion sobre dicha proporcion, vamos a ir sacando peces al azar.

a) Si la proporcion de peces de la especie A es p, cual es la probabilidad de que el primer


pez de la especie A sea el decimo que extraemos?
b) Tres personas realizan, independientemente unas de otras, el proceso de sacar peces al
azar hasta encontrarse con el primero de tipo A:
La primera persona obtiene el primer pez tipo A en la decima extraccion; la segunda, en
la decimoquinta extraccion; y en la decimoctava extraccion, la tercera.
Escribir la funcion de verosimilitud y obtener la estimacion de maxima verosimilitud de p.
6. Para estudiar la proporcion p de caballos afectados por la peste equina se les va a someter a
una prueba. Sabemos que la prueba sera positiva si el animal esta enfermo; si esta sano, hay
una probabilidad 0.04 de que la prueba resulte positiva.

a) Halla la relacion entre la probabilidad p de estar enfermo y la probabilidad q de dar


positivo en la prueba.
3. METODOS DE CONSTRUCCION DE ESTIMADORES 81

b) Calcula el estimador de maxima verosimilitud de p si 500 ejemplares son sometidos a la


prueba y resulta positiva en 95 casos.
c) Si realmente hay un 20 % de caballos afectados por la epidemia, cual es la probabilidad
de que la prueba resulte positiva en al menos 95 ejemplares de los 500?
7. La distancia X entre un arbol cualquiera y el arbol mas proximo a el en un bosque sigue una
distribucion de Rayleigh con funcion de densidad

f (x) = 2x exp(x2 ) si x 0 ( > 0) .

a) Obtener los estimadores de maxima verosimilitud de y de

1 12
g() = E [X] =
2
basados en muestras de tamano N .
b) Obtener el estimador de por el metodo de los momentos.
8. El coseno X del angulo con el que se emiten los electrones en un proceso radiactivo es una
variable aleatoria con densidad
1 + x
f (x) = si 1 x 1 (1 1) .
2
Consideramos una muestra aleatoria (X1 . . . XN ) de esta variable aleatoria.

a) Obtener el estimador de por el metodo de los momentos.


b) Calcular la varianza de este estimador y demostrar que es consistente para estimar .
9. Se considera una muestra aleatoria (X1 . . . XN ) de una poblacion con densidad
1
f (x) = ex/ si x > 0 ( > 0) .

a) Obtener el estimador de maxima verosimilitud de y 2 .
b) Consideramos ahora el estimador
X1 + 2X2
T = .
3
Es T insesgado para estimar ?
Hallar la varianza de T , sabiendo que la varianza poblacional es 2 .
10. La lectura de voltaje dada por un voltmetro conectado a un circuito electrico, es una variable
aleatoria con distribucion uniforme en el intervalo ( + 1), siendo el verdadero valor (des-
conocido) del voltaje. Sea (X1 . . . XN ) una muestra aleatoria de lecturas de dicho voltmetro.

a) Demostrar que la media muestral X es un estimador sesgado de , y calcular el sesgo.


b) Calcular el error cuadratico medio de X.
c) Obtener, a partir de X, un estimador insesgado de .
82 CAPITULO 4. ESTIMACION PUNTUAL

11. Disponemos de una variable aleatoria de una poblacion con funcion de densidad

f (x) = si x ( > 0) .
x2
Calcular el estimador de maxima verosimilitud de y de 1/.
12. Se obtiene una muestra aleatoria (X1 . . . XN ) de una poblacion con funcion de densidad

f (x) = x1 si x (0 1) ( > 0) .

Para estimar , calculese:

a) un estadstico suciente;
b) el estimador de maxima verosimilitud;
c) el estimador por el metodo de los momentos.
13. Supongamos que se realizan N observaciones independientes de una variable aleatoria X, con
funcion de densidad
1 1
f (x) = x 1 si 0 x 1 ( = 0) .

a) Obtener el estimador de por el metodo de los momentos.
b) Obtener el estimador de maxima verosimilitud de .
c) Obtener el estimador de maxima verosimilitud de P (X < 1/2).
14. El error (en centigramos) que se comete al pesar un objeto en una balanza puede considerarse
como una variable aleatoria con distribucion N ( = 0 ; = 15).

a) Calcular la probabilidad de que el error cometido (en valor absoluto) en una pesada sea
inferior a 20 centigramos.
b) Si se quiere que el error medio cometido (en valor absoluto) sea inferior a 5 centigramos
con probabilidad 0.9, cual es el numero mnimo de pesadas que hemos de realizar?
15. Vamos a clasicar las personas de un pas segun dos caractersticas: color de los ojos (oscuros
o claros) y sexo (hombre o mujer). Las dos caractersticas son independientes.

a) Obtenemos una muestra al azar de la poblacion con los siguientes resultados:


200 mujeres de ojos claros;
150 hombres con ojos claros;
350 mujeres con ojos oscuros;
300 hombres de ojos oscuros.
Obtener la estimacion de maxima verosimilitud de p = P {hombre} y q = P {ojos claros}.
b) Despues de muchas horas de intenso trabajo llegamos a saber con exactitud que p = 0.4 y
q = 0.6. Si tomamos 8 personas al azar de ese pas, cual es la probabilidad de encontrar
alguna mujer de ojos oscuros? Y si la muestra que tomamos es de 200 personas, cual es
la probabilidad de que haya mas de 60 mujeres de ojos oscuros?

También podría gustarte