Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estimacion Puntual PDF
Estimacion Puntual PDF
Estimacion puntual
b) X1 , . . . , XN son independientes.
Veamos como, con esta denicion, podemos tomar siempre una muestra aleatoria como una
muestra representativa de la poblacion estudiada.
b) El hecho de que cada distribucion marginal venga dada por la misma distribucion signica,
informalmente, que todos los elementos de la poblacion tienen la misma oportunidad de aparecer
en la muestra. Con otras palabras: la probabilidad de que un valor aparezca en la observacion
iesima depende solo de la probabilidad que dicho valor tiene en la poblacion, de manera que
cada observacion representa por igual a la poblacion.
67
68 CAPITULO 4. ESTIMACION PUNTUAL
c) Suponer que las observaciones sean independientes, es comodo para el desarrollo teorico del mo-
delo del muestreo. As, si (X1 . . . XN ) es una muestra aleatoria de una poblacion X, la funcion
de masa de la muestra vendra dada por:
de un modo exacto, signica que cada vez que observamos un elemento lo devolvemos a la
poblacion (reemplazamiento);
de una manera aproximada, signica que el tamano de la poblacion es muy grande en com-
paracion con el de la muestra, de modo que la composicion de la poblacion se altera muy
poco al faltarle algunos elementos (los ya observados).
Nota: Conviene distinguir entre los conceptos de muestra aleatoria y muestra. La primera es
un vector aleatorio, con su funcion de masa (o densidad, segun el tipo). La segunda es una coleccion
de numeros, x1 . . . xN , que entenderemos como una realizacion del vector aleatorio (X1 . . . XN ).
En adelante, en general, usaremos letras mayusculas para referirnos a variables, y minusculas para
valores de las mismas.
Por supuesto desconocemos P (o f ), pues de conocerla el problema no sera tal. Precisamente,
nuestro objetivo es ganar informacion sobre P (o f ) a partir de las observaciones X1 . . . XN . Para
ello, una buena idea es resumir la informacion aportada por los datos muestrales. Lo mejor sera que
estos resumenes no perdiesen nada de la informacion contenida en la muestra. Esta necesidad nos
lleva a la denicion de estadstico:
Propiedades: Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con esperanza y
varianza 2 , entonces:
a) E[X] = ;
2
b) V (X) = ;
N
2
c) E[SX ] = 2;
d) E[VX ] = NN1 2 .
1. MUESTRA ALEATORIA. PARAMETRO Y ESTIMADOR 69
1 N N
= E (Xi )2 + N (X )2 + 2( X) (Xi )
N 1 i=1 i=1
1 N
= E (Xi )2 N (X )2
N 1 i=1
1 1 2 2
N
= E (Xi )2 N E (X )2 = N N = 2 ;
N 1 i=1 N 1 N
N N 1 N 1
E[VX ] = E (Xi X)2 = E 2
SX = 2 .
i=1
N N
La Inferencia parametrica se divide en tres grandes partes, dependiendo de la naturaleza del pro-
blema a resolver, y del tipo de solucion que demos:
A. estimacion puntual;
B. estimacion por intervalos de conanza;
C. contraste de hipotesis parametricas;
y dedicaremos sendos captulos a cada una de ellas.
Terminamos esta introduccion a la Inferencia parametrica, ocupandonos de una cuestion que
quedo en el aire: no perder demasiada informacion con los estadsticos. Mas en concreto, introducido
en el lenguaje el concepto de parametro, , lo que nos gustara es utilizar estadsticos sencillos que
conserven toda la informacion sobre que lleva la muestra (X1 . . . XN ). Motivamos este ultimo
cometido con el siguiente ejemplo.
Ejemplo 32 La probabilidad de obtener cara al lanzar una moneda es un valor desconocido, , entre
0 y 1 (espacio parametrico = (0 1)). Si al suceso cara le asignamos el valor 1, y a su contrario,
cruz, el valor 0, y lanzamos la moneda N veces, obtenemos una muestra aleatoria (X1 . . . XN ) de
una poblacion, X, con funcion de masa
P (x) = x (1 )1x x = 0 1 ( distribuccion de Bernoulli ) .
La funcion de masa de la muestra es:
N N
P (x1 . . . xN ) = x1 (1 )1x1 xN (1 )1xN = i=1 xi
(1 )N i=1 xi
.
Parece claro, en este caso, que el estadstico
N
T (X1 . . . XN ) = Xi = numero de caras obtenidas
i=1
contiene tanta informacion sobre como la descripcion detallada del resultado de los N lanzamientos.
Observando que T B(N ; ), sera facil obtener la probabilidad de una muestra (x1 . . . xN )
condicionada por el hecho de que el estadstico T ha tomado el valor t (han salido t caras en los N
lanzamientos):
P (T = t | x1 . . . xN ) P (x1 . . . xN )
P (x1 . . . xN | T = t) =
P (T = t)
N N
P (T = t | x1 . . . xN ) i=1 xi (1 )N i=1 xi
= N
t
t (1 )N t
t 1)N t N
N t = 1
si xi = t
= ( t)
1)N t ( N
t) i=1
N
0 si xi = t .
i=1
Denicion 1.3. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de ma-
sa P (o funcion de densidad f ). Un estadstico, T , es suficiente para cuando la distribucion
de (X1 . . . XN ) condicionada por T = t no depende de .
A pesar de la claridad del concepto, es muy difcil utilizar esta denicion para decidir si un
estadstico es suciente. En primer lugar hay que conjeturar que estadstico T puede ser suciente,
y despues obtener la distribucion condicionada, que sera casi siempre difcil. Afortunadamente hay
una caracterizacion sencilla alternativa:
Propiedad: Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de masa P
o funcion de densidad f ). Un estadstico T es suciente para si y solo si:
P (x1 . . . xN ) = g T (x1 . . . xN ) h(x1 . . . xN )
o la correspondiente identidad para el caso continuo).
En el caso del lanzamiento de la moneda, se tendra la siguiente sencilla comprobacion:
N N
xi
P (x1 . . . xN ) = i=1 (1 )N i=1 xi
= g(T (x1 . . . xN ) ) h(x1 . . . xN )
con T (x1 . . . xN ) = N
i=1 xi
2. Estimacion puntual
Supongamos dada una caracterstica X y aceptemos que sigue cierto modelo dado por una funcion
de masa P (o de densidad f ), de la que desconocemos el valor del parametro dentro de un espacio
parametrico .
El objetivo de la estimacion puntual es tomar un valor plausible para el parametro . Para ello
se considera una muestra aleatoria (X1 . . . XN ) de la poblacion X, y a partir de una realizacion
de la misma, esto es, una coleccion de datos x1 . . . xN , se decidira el valor para la estimacion del
parametro.
Denicion 2.1. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de masa
P (o funcion de densidad f ), donde . Un estimador puntual de g() es una funcion T
que a cada posible muestra (x1 . . . xN ) le hace corresponder una estimacion T (x1 . . . xN ) de g().
Observaciones:
a) Habitualmente se buscara estimar (esto es, g() = ), pero puede interesarnos estimar alguna
funcion de (por ejemplo 2 ). Por esta razon hablaremos de estimadores puntuales de g().
b) Evidentemente, T (X1 . . . XN ) es una variable aleatoria (o un vector aleatorio si g() tiene
mas de una dimension). En realidad, un estimador puntual no es mas que un estadstico con
un objetivo concreto: acercarse lo mas posible al verdadero valor de g(). Segun nos convenga
usaremos la notacion T (X1 . . . XN ) o simplemente T .
c) La denicion dada de estimador puntual es muy general, y engloba tanto estimadores razo-
nables como otros completamente absurdos. Lo siguiente que haremos es mostrar propiedades
deseables para un estimador razonable, eliminando, as, estimadores indeseables.
72 CAPITULO 4. ESTIMACION PUNTUAL
Denicion 2.2. El error cuadratico medio de un estimador T para estimar g() se dene
como:
N
T (x1 . . . xN ) g()2 P (x1 ) P (xN ) (caso discreto)
E (T g())2 =
i=1
T (x1 . . . xN ) g()2 f (x1 ) f (xN ) dx1 . . . dxN (caso continuo)
Es claro que un estimador sera mas efectivo cuanto mas pequeno sea su error cuadratico medio.
El siguiente desarrollo nos aporta una formula sencilla para el calculo de este error:
E (T g())2 = E (T E [T ] + E [T ] g())2
= E (T E [T ])2 + (E [T ] g())2
= V (T ) + (Sesgo(T ))2
Al considerar solo estimadores insesgados podemos estar eliminando otros estimadores valiosos
(a pesar de no ser insesgados). No obstante tenemos una ventaja adicional, pues para un estimador
insesgado su error cuadratico medio es simplemente V (T ). De este modo, dentro de los estimadores
insesgados buscaramos el de varianza mnima. Este cometido es muy interesante, pero excede el nivel
de este curso.
Ejemplo 33 Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con distribucion N ( ; ).
En este caso = ( ), y tenemos:
T1 (X1 . . . XN ) = X es un estimador insesgado de g1 () = , ya que E [X] = ;
2
T1 (X1 . . . XN ) = SX (cuasi-varianza) es insesgado para estimar g2 () = 2 , ya que E [X] = 2 .
Otra propiedad bastante razonable a exigir a un estimador T es que, cuanto mayor sea el tamano
muestral N , mas se acerque la estimacion T (x1 . . . xN ) al verdadero valor de g(). Esto nos lleva al
siguiente concepto:
Denicion 2.4. Un estimador T es consistente para estimar g() si, para todo :
lm FT (t) = 0 para t < g()
N
lm FT (t) = 1 para t > g()
N
La idea es que, a medida que aumenta el tamano muestral, mas se concentra la distribucion
de la variable aleatoria T (X1 . . . XN ) alrededor del verdadero valor de g() (sea cual sea), y, en
consecuencia, las estimaciones T (x1 . . . xN ) cada vez se acercan mas a dicho valor.
Calcular la funcion de distribucion de T suele ser difcil, por lo que es difcil ver, a partir de la
denicion, cuando un estimador va a ser consistente. Afortunadamente tenemos una propiedad, mas
facil de comprobar en muchas situaciones, que nos permite armar si un estimador es consistente.
Propiedad: Si T es un estimador que verica:
i. lm E [T ] = g(), para todo ,
N
entonces es consistente.
Ejemplo 34 Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X N ( ), = ( ).
El estimador T1 (X1 . . . XN ) = X es consistente para estimar g1 () = , ya que:
lm E [T1 ] = lm E [X] = lm = = g1 ()
N N N
2
lm V (T1 ) = lm V (X) = lm = 0.
N N N N
Ejemplo 35 Sabemos que en una urna hay, entre negras y blancas, un total de 4 bolas, pero desco-
nocemos la composicion exacta. Sea la proporcion de, por ejemplo, bolas blancas. Es claro cual es
el espacio parametrico en este caso, pues puede tomar los valores:
Para obtener mas informacion se extraen de la urna 2 bolas, con reemplazamiento (para tener inde-
pendencia en las observaciones). Supongamos que la primera bola ha sido blanca y la segunda negra,
es decir la muestra obtenida ha sido (B N ). La probabilidad que tenamos de obtener esta muestra,
dependiendo de la composicion de la urna, esto es de la proporcion , era:
0 si = 0
3/16 si = 1/4
P (B N ) = 1/4 si = 1/2
3/16 si = 3/4
0 si = 1
La idea del metodo de maxima verosimilitud es tomar como estimacion de aquel valor que daba
mas probabilidad a la muestra obtenida, en este caso = 1/2.
Denicion 3.2. Metodo de maxima verosimilitud) Sea (X1 . . . XN ) una muestra aleatoria
de una poblacion X con funcion de masa P (o funcion de densidad f ), con parametro desconocido
= (1 . . . k ) . El estimador de maxima verosimilitud, , de es el formado por los valores
(1 . . . k ) que maximizan la que llamaremos funcion de verosimilitud de la muestra obtenida,
que se dene por:
P (x1 ) . . . P (xn ) (caso discreto)
L() = L( ; x1 . . . xN ) =
f (x1 ) . . . f (xn ) (caso continuo)
Observaciones:
c) Para no tener que manejar productos, en muchas ocasiones es mas comodo encontrar el estima-
dor de maxima verosimilitud considerando log(L()), en lugar de L(). Puesto que la funcion
3. METODOS DE CONSTRUCCION DE ESTIMADORES 75
log(x) es monotona creciente, log(L()) se hace maxima (y mnima) en los mismos puntos
que L(). La ventaja es que basta despejar 1 , . . . , k del sistema de ecuaciones:
log(L())
= 0
1
.. .. ..
. . .
log(L())
= 0
k
Por supuesto hay que tener precaucion con este procedimiento, pues el punto crtico obtenido no
tiene por que corresponder a un maximo. Ademas, puede ocurrir que la funcion de verosimilitud
se maximice en un extremo, en cuyo caso no tiene por que dar un punto crtico, es decir, no
obtendramos nada con este procedimiento.
Ejercicio 2 Dada una muestra aleatoria de tamano N de una poblacion X, calcular los estimadores
y por el de maxima verosimilitud, ,
puntuales para por el metodo de los momentos, , en los
siguientes casos:
a) X Bernoulli de parametro p;
b) X Poisson ();
c) X Exponencial ();
d) X N ( ; ), ( conocido);
e) X N ( ; ), ( conocido);
f) X N ( ; ).
Solucion: Planteamos ambos metodos en cada caso, y utilizamos, para cuando haga falta, la igual-
dad E[X 2 ] = V [X] + E[X]2 , que se deduce inmediatamente de la denicion de varianza de una
variable aleatoria.
Metodo de los momentos. Puesto que el parametro es de una dimension, se considera solo el
primer momento. El momento de orden 1 de la poblacion, Ep [X], es su esperanza, p, y el
de la muestra es la media muestral x. Tomamos pues el estimador
p = x .
76 CAPITULO 4. ESTIMACION PUNTUAL
p = x .
b) X Poisson (). Queremos estimar el parametro desconocido > 0, siendo la funcion de masa:
x e
P (x) = x = 0 1 2 . . . .
x
Metodo de los momentos. El momento de orden 1 de la poblacion, E [X], es su esperanza, ,
y el de la muestra es la media muestral x. Tomamos pues el estimador de momentos
= x .
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
xi
eN
L() =
xi
con logaritmo:
log(L()) = xi log() N log xi ) .
El ultimo termino asusta, pero no hay problema porque es una constante. Al derivar e
igualar a cero obtenemos:
d log(L()) xi 1
= N = 0 = xi = x .
d N
De nuevo, es facil ver que este punto crtico corresponde a un maximo, por lo que toma-
remos como estimador de maxima verosimilitud:
= x .
En efecto,
el denominador es siempre
positivo, al ser el espacio parametrico el intervalo 0 1). Por otra parte,
p < x = 1 xi equivale a N p < xi , quedando el numerador positivo. Por contra, p > x equivale a N p > xi ,
quedando el numerador negativo.
3. METODOS DE CONSTRUCCION DE ESTIMADORES 77
= 1.
x
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
L() = N e xi
con logaritmo:
log(L()) = N log() xi .
Al derivar e igualar a cero obtenemos:
d log(L()) N N 1
= xi = 0 = = .
d xi x
Observese que > 0 y que cada dato, xi , de una muestra correspondiente a esta poblacion
es positivo. Es facil, entonces, ver que este punto crtico corresponde a un maximo, por lo
que tomaremos como estimador de maxima verosimilitud:
= 1.
x
d) X N ( ; ), ( conocido). Queremos estimar el parametro desconocido , siendo la
funcion de densidad para esta poblacion:
1 (x )2
f (x) = exp para todo x .
2 2 2
Metodo de los momentos. El momento de orden 1 de la poblacion, E [X], es su esperanza, ,
y el de la muestra es la media muestral x. Tomamos pues el estimador de momentos
= x .
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
N
1 (xi )2
L() = exp
2 2 2
con logaritmo:
(xi )2
log(L()) = N log( 2) 2
2
2
xi 2 xi + N 2
= N log( 2) .
2 2
78 CAPITULO 4. ESTIMACION PUNTUAL
f) X N ( ; ).
En este ultimo caso, se desconocen ambos parametros de la poblacion, y as estimaremos:
= ( ), con y > 0. La funcion de densidad es:
1 (x )2
f (x) = exp para todo x .
2 2 2
Metodo de los momentos. Tenemos que considerar dos ecuaciones (pues hay 2 parametros):
= x
N
1 2
2 + 2 = x .
N i=1 i
Obtenemos como solucion para el sistema:
N
1 2 1
= x y 2 = xi x2 = varianza muestral = (xi x)2
N N i=1
de manera que, el estimador de momentos para g( ) = ( 2 ), vendra dado por:
N
2 1
= x =
(xi x)2 .
N i=1
Notese que ahora, el estimador para 2 no puede producir resultados absurdos.
Metodo de maxima verosimilitud. La funcion de verosimilitud para una muestra dada es:
N
1 (xi )2
L( ) = exp
2 2 2
con logaritmo:
(xi )2
log(L( )) = N log( 2) ;
2 2
que conviene escribir como:
x2i 2 xi + N 2
log(L( )) = N log() N log( 2) ;
2 2
El sistema planteado, igualando a cero las derivadas parciales respecto a cada una de las
variables, es:
log(L( )) xi N
= 2
2 =0
log(L( )) N (xi )2
= + =0
3
= x
con solucion:
2 = N1 (xi x)2 .
Tomamos esta solucion como estimacion de maxima verosimilitud al dar un maximo:
N
2 1
= x =
(xi x)2 .
N i=1
80 CAPITULO 4. ESTIMACION PUNTUAL
Problemas
1. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de densidad:
x x2
f (x) = exp si x > 0 ( > 0) .
2 22
Hallar el estimador de maxima verosimilitud de .
3. Sea (X1 . . . XN ) una muestra aleatoria de una poblacion X con funcion de densidad:
1 +1
f (x) = si x > 1 ( > 1) .
x
a) Hallar el estimador de maxima verosimilitud de .
b) Hallar el estimador de por el metodo de los momentos.
4. Se toma una muestra aleatoria de tamano N de una poblacion cuya funcion de densidad es:
1 (log x )2
f (x) = exp si x > 0
x 2 2 2
donde puede ser cualquier numero real y es mayor que cero. Hallar los estimadores de
maxima verosimilitud de y 2 .
5. En una gran piscifactora hay una proporcion desconocida de peces de cierta especie A. Para
obtener informacion sobre dicha proporcion, vamos a ir sacando peces al azar.
1 12
g() = E [X] =
2
basados en muestras de tamano N .
b) Obtener el estimador de por el metodo de los momentos.
8. El coseno X del angulo con el que se emiten los electrones en un proceso radiactivo es una
variable aleatoria con densidad
1 + x
f (x) = si 1 x 1 (1 1) .
2
Consideramos una muestra aleatoria (X1 . . . XN ) de esta variable aleatoria.
11. Disponemos de una variable aleatoria de una poblacion con funcion de densidad
f (x) = si x ( > 0) .
x2
Calcular el estimador de maxima verosimilitud de y de 1/.
12. Se obtiene una muestra aleatoria (X1 . . . XN ) de una poblacion con funcion de densidad
f (x) = x1 si x (0 1) ( > 0) .
a) un estadstico suciente;
b) el estimador de maxima verosimilitud;
c) el estimador por el metodo de los momentos.
13. Supongamos que se realizan N observaciones independientes de una variable aleatoria X, con
funcion de densidad
1 1
f (x) = x 1 si 0 x 1 ( = 0) .
a) Obtener el estimador de por el metodo de los momentos.
b) Obtener el estimador de maxima verosimilitud de .
c) Obtener el estimador de maxima verosimilitud de P (X < 1/2).
14. El error (en centigramos) que se comete al pesar un objeto en una balanza puede considerarse
como una variable aleatoria con distribucion N ( = 0 ; = 15).
a) Calcular la probabilidad de que el error cometido (en valor absoluto) en una pesada sea
inferior a 20 centigramos.
b) Si se quiere que el error medio cometido (en valor absoluto) sea inferior a 5 centigramos
con probabilidad 0.9, cual es el numero mnimo de pesadas que hemos de realizar?
15. Vamos a clasicar las personas de un pas segun dos caractersticas: color de los ojos (oscuros
o claros) y sexo (hombre o mujer). Las dos caractersticas son independientes.