Está en la página 1de 21

Estimacin puntual

Prof. Mara B. Pintarelli

2- Estimacin puntual
2. 1 Introduccin
Supongamos la siguiente situacin: en una fbrica se producen artculos, el inters est en la produccin de un da, especficamente, de todos los artculos producidos en un da nos interesa una caracterstica determinada, si el artculo es o no defectuoso. Sea p la proporcin de artculos defectuosos en
la poblacin, es decir en la produccin de un da.
Tomamos una muestra de 25 artculos, podemos definir la v.a. X: nmero de artculos defectuosos
en la muestra, y podemos asumir que X ~ B(25, p) .
En Probabilidades se conocan todos los datos sobre la v.a. X, es decir conocamos p. De esa forma
podamos responder preguntas como: cul es la probabilidad que entre los 25 artculos halla 5 defectuosos?. Si, por ejemplo, p 0.1 entonces calculbamos P( X 5) donde X ~ B(25, 0.1) .
En Estadstica desconocemos las caractersticas de X total o parcialmente, y a partir de la muestra
de 25 artculos tratamos de inferir informacin sobre la distribucin de X, o dicho de otra forma tratamos de inferir informacin sobre la poblacin.
Por ejemplo, en estadstica sabremos que X tiene distribucin binomial pero desconocemos p, y a
partir de la muestra de 25 artculos trataremos de hallar informacin sobre p.
En Estadstica nos haremos preguntas tales como: si en la muestra de 25 artculos se encontraron 5
defectuosos, ese hecho me permite inferir que el verdadero p es 0.1?.
El campo de la inferencia estadstica est formado por los mtodos utilizados para tomar decisiones
o para obtener conclusiones sobre el o los parmetros de una poblacin. Estos mtodos utilizan la
informacin contenida en una muestra de la poblacin para obtener conclusiones.
La inferencia estadstica puede dividirse en dos grandes reas: estimacin de parmetros y pruebas
de hiptesis.
2.2 Muestreo aleatorio
En muchos problemas estadsticos es necesario utilizar una muestra de observaciones tomadas de la
poblacin de inters con objeto de obtener conclusiones sobre ella. A continuacin se presenta la
definicin de algunos trminos
Una poblacin est formada por la totalidad de las observaciones en las cuales se tiene cierto
inters
En muchos problemas de inferencia estadstica es poco prctico o imposible, observar toda la poblacin, en ese caso se toma una parte o subconjunto de la poblacin
Una muestra es un subconjunto de observaciones seleccionada de una poblacin
Para que las inferencias sean vlidas, la muestra debe ser representativa de la poblacin. Se selecciona una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la seleccin
de una muestra es un experimento aleatorio, y cada observacin de la muestra es el valor observado
de una variable aleatoria. Las observaciones en la poblacin determinan la distribucin de probabilidad de la variable aleatoria.
Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observacin de
la poblacin. Sea f (x) la f.d.p. de la v.a. X. supongamos que cada observacin en la muestra se obtiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la mues21

Estimacin puntual

Prof. Mara B. Pintarelli

tra se obtienen al observar X de manera independiente bajo condiciones que no cambian, digamos n
veces.
Sea X i la variable aleatoria que representa la i-sima observacin. Entonces X 1 , X 2 ,..., X n constituyen una muestra aleatoria, donde los valores numricos obtenidos son x1 , x2 ,..., xn . Las variables
aleatorias en una muestra aleatoria son independientes, con la misma distribucin de probabilidad
f(x) debido a que cada observacin se obtiene bajo las mismas condiciones. Es decir las funciones de
densidad marginales de X 1 , X 2 ,..., X n son todas iguales a f(x) y por independencia, la distribucin de
probabilidad conjunta de la muestra aleatoria es el producto de las marginales f ( x1 ) f ( x2 )... f ( xn )
Las variables aleatorias X 1 , X 2 ,..., X n constituyen una muestra aleatoria de tamao n de una
v.a. X si X 1 , X 2 ,..., X n son independientes idnticamente distribuidas
El propsito de tomar una muestra aleatoria es obtener informacin sobre los parmetros desconocidos de la poblacin. Por ejemplo, se desea alcanzar una conclusin acerca de la proporcin de artculos defectuosos en la produccin diaria de una fbrica. Sea p la proporcin de artculos defectuosos
en la poblacin, para hacer una inferencia con respecto a p, se selecciona una muestra aleatoria (de
un tamao apropiado) y se utiliza la proporcin observada de artculos defectuosos en la muestra
para estimar p.
La proporcin de la muestra p se calcula dividiendo el nmero de artculos defectuosos en la muestra por el nmero total de artculos de la muestra. Entonces p es una funcin de los valores observados en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una poblacin,
el valor de p cambiar de una a otra. Es decir p es una variable aleatoria. Esta variable aleatoria se
conoce como estadstico.
Un estadstico es cualquier funcin de la muestra aleatoria

Estadsticos usuales
Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E (X ) y V ( X ) 2
Si desconocemos un estadstico que se utiliza para estimar ese parmetro es la media o promedio
1 n
muestral X X i
n i 1
Anlogamente si se desconoce 2 un estadstico usado para tener alguna informacin sobre ese pa1 n
rmetro es la varianza muestral que se define como S 2
X i X 2

n 1 i 1

1 n
X i X 2
Otro estadstico es la desviacin estndar muestral S

n 1 i 1
Como un estadstico es una variable aleatoria, ste tiene una distribucin de probabilidad, esperanza
y varianza.
Una aplicacin de los estadsticos es obtener estimaciones puntuales de los parmetros desconocidos de una distribucin. Por ejemplo como se dijo antes se suelen estimar la media y la varianza de
una poblacin.

22

Estimacin puntual

Prof. Mara B. Pintarelli

Cuando un estadstico se utiliza para estimar un parmetro desconocido se lo llama estimador puntual. Es habitual simbolizar en forma genrica a un parmetro con la letra y al estadstico que se
.
utiliza como estimador puntual de , simbolizarlo con
h X , X ,..., X
es una funcin de la muestra aleatoria:
Por lo tanto
1
2
n
es
Al medir la muestra aleatoria se obtienen x , x ,..., x , y entonces el valor que toma
1

hx1 , x2 ,..., xn y se denomina estimacin puntual de


El objetivo de la estimacin puntual es seleccionar un nmero, a partir de los valores de la muestra,
que sea el valor ms probable de .
Por ejemplo, supongamos que X 1 , X 2 , X 3 , X 4 es una muestra aleatoria de una v.a. X. Sabemos que X
tiene distribucin normal pero desconocemos .
Tomamos como estimador de al promedio muestral X , es decir X
Tomamos la muestra (medimos X 1 , X 2 , X 3 , X 4 ) y obtenemos x1 24, x2 30, x3 27, x4 32
24 30 27 32
Entonces la estimacin puntual de es x
28.25
4
Si la varianza 2 de X tambin es desconocida, un estimador puntual usual de 2 es la varianza
1 n
muestral, es decir S 2
X i X 2 , para la muestra dada la estimacin de 2 es 12.25.

n 1 i 1
Otro parmetro que a menudo es necesario estimar es la proporcin p de objetos de una poblacin
que cumplen una determinada caracterstica.
1 n
En este caso el estimador puntual de p sera p X i donde
n i 1
1 si la sima observaci n tiene la caracters tica de inters

i 1,2,..., n
Xi
0
caso contrario

1 n
Por lo tanto p X i es la proporcin de objetos en la muestra cumplen la caracterstica de inten i 1
rs
Puede ocurrir que se tenga ms de un estimador para un parmetro, por ejemplo para estimar la media muestral se pueden considerar el promedio muestral, o tambin la semisuma entre X 1 y X n , es
X Xn
decir 1
. En estos casos necesitamos de algn criterio para decidir cul es mejor estima2
dor de .

2.3 Criterios para evaluar estimadores puntuales


Lo que se desea de un estimador puntual es que tome valores prximos al verdadero parmetro.

es un estimador insesgado del parmetro si E



Se dice que el estimador puntual
cualquiera sea el valor verdadero de
tenga una distribucin cuya media sea .
Podemos exigir que el estimador

. Anotamos b
E

se conoce como sesgo de estimador
La diferencia E

23

Estimacin puntual

Prof. Mara B. Pintarelli

Notar que si un estimador es insesgado entonces su sesgo es cero


Ejemplos:
1- Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E (X ) y V ( X ) 2
Si desconocemos un estadstico que se utiliza usualmente para estimar este parmetro es la media
1 n
o promedio muestral X X i . Veamos si es un estimador insesgado de . Debemos ver si
n i 1
E X .
Usamos las propiedades de la esperanza, particularmente la propiedad de linealidad.

1 n
1 n
1 n
E X E X i E X i E X i .
n i 1 n i 1 n i 1
Pero, tratndose de las componentes de una muestra aleatoria es:

EX i EX

EX

i 1,2,...,n .

Luego:

1
n .
n

2- Sea X una variable aleatoria asociada con alguna caracterstica de los individuos de una poblacin
2
1 n
2
2
y sean E X y V X
. Sea S
X i X la varianza muestral (con
n 1 i 1
n

X X i / n la esperanza muestral) para una muestra aleatoria de tamao n, X1 , X 2 ,..., X n .


i 1
2
1 n
2
2
2
Entonces E S es decir S
X i X es un estimador insesgado de V X 2

n 1 i 1
pues:

2
2
1 n

.
ES E
X

E
X

i
i
n 1

1
i 1

i 1

Reescribiremos la suma de una forma ms conveniente. Sumamos y restamos y desarrollamos el


cuadrado:

i 1

i 1

X
2

i 1

n
n
2
2
2
X i 2X i X X X i 2 X
i 1
i 1

X i 2 X n X n X
n

i 1

X
2

i 1

i 1

n X

2n X n X .
2

Esto es:

24

Estimacin puntual

X
i 1

X
2

Prof. Mara B. Pintarelli

i 1

n X
2

Entonces:

E S2

1 n
E Xi X
n 1 i 1

n 11 E X
2

i 1

2
2
n X

2
1
2
EX i nE X
n 1 i 1

n
2
1 2
2
1
1 n

n n
,

V X i nE X E X
V X i nV X
n
n 1 i 1
n 1 i 1
n 1

V X i V X 2

donde en la ltima igualdad tuvimos en cuenta que

. Luego llegamos a lo que se deseaba demostrar: E S


V X
n

i 1,2,...,n y que

3- Supongamos que tomamos como estimador de 2 a 2

1 n
Xi X
n i 1

X
n 1
n

1
n 1 2
i 1
Xi X

n i 1
n
n 1
n
n 1 2
n 1 2 n 1
Por lo tanto E 2 E
S
E S2
2
n
n
n

2
2
Es decir no es un estimador insesgado de , es sesgado, y su sesgo es
1 2
n 1 2
2
b 2 E 2 2

n
n
Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parmetro

Entonces notar que podemos escribir 2

En ocasiones hay ms de un estimador insesgado de un parmetro


Por lo tanto necesitamos un mtodo para seleccionar un estimador entre varios estimadores insesgados.

Varianza y error cuadrtico medio de un estimador puntual


y
son dos estimadores insegados de un parmetro . Esto indica que la
Supongamos que
1
2
distribucin de cada estimador est centrada en el verdadero parmetro . Sin embargo las varianzas
de estas distribuciones pueden ser diferentes. La figura siguiente ilustra este hecho.

25

Estimacin puntual

Prof. Mara B. Pintarelli


0.4

Distribucin de
1

0.3

0.2

Distribucin de
2

0.1

-15

-10

-5

10

15

tiene menor varianza que


, entonces es ms probable que el estimador
produzca
Como
1
2
1
una estimacin ms cercana al verdadero valor de . Por lo tanto si tenemos dos estimadores insesgados se seleccionar aquel que tenga menor varianza.

Ejemplo: Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E (X ) y V ( X ) 2


Suponemos desconocido.
1 n
Estimamos al parmetro con la media o promedio muestral X X i . Sabemos que es un
n i 1
n
1
estimador insesgado de . Anotamos 1 X X i
n i 1
X Xn
Supongamos que tomamos otro estimador para , lo anotamos 2 1
2
Entonces como
1
1
X Xn 1
E 2 E 1
E X 1 E X 2 2 ,
2
2
2

2
X Xn
es tambin un estimador insesgado de
2 1
2
Cul de los dos estimadores es mejor?
Calculamos la varianza de cada uno utilizando las propiedades de la varianza.
1 n
Ya sabemos cul es la varianza de X X i (se la hall para T.C.L.):
n i 1
n
n
1
1
1 n
V X V X i 2 V X i 2 V X i ,
n i 1 n i 1 n i 1

donde en la ltima igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las
X i con i=1,2,,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma
de ellas es la suma de las varianzas. Si tenemos en cuenta que adems todas tienen la misma distribucin que X y por lo tanto la misma varianza:

V X i V X 2

V X

i 1,2,...,n , tenemos

1
2
2
n

.
n2
n

Anlogamente calculamos la varianza de 2

X1 X n
:
2

26

Estimacin puntual

Prof. Mara B. Pintarelli

1 2
2
X Xn 1
2

V 2 V 1

V
(
X
)

V
(
X
)

1
2
2
4
2

4
Vemos que si n 2 entonces V (1 ) V ( 2 ) . Por lo tanto si n 2 es mejor estimador 1

y
son dos estimadores de un parmetro y alguno de ellos no es
Supongamos ahora que
1
2
insesgado.
A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el error cuadrtico medio del estimador.

de un parmetro est definido como


El error cuadrtico medio de un estimador
E
2
ECM

El error cuadrtico medio puede escribirse de la siguiente forma:

V
b

ECM

E
2 . Sumamos y restamos el nmero E
:
Dem.) Por definicin ECM

E
E
E
2 , y desarrollamos el cuadrado:
ECM

E 2 E E

E
E
E
2 E
E

ECM

Aplicamos propiedades de la esperanza:

E
2 E
2 2 E
E
E
V
b

0
2
b

El error cuadrtico medio es un criterio importante para comparar estimadores.


y
son dos estimadores de un parmetro .
Si
1
2

con respecto a
se define como ECM 1
La eficiencia relativa de
2
1

ECM
2

tiene menor error cuadrtico medio que

Si la eficiencia relativa es menor que 1 entonces


1
2

Por lo tanto es ms eficiente que


1

Observaciones:
es un estimador insesgado de , entonces ECM
V

1- Si


27

Estimacin puntual

Prof. Mara B. Pintarelli

2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen
un error cuadrtico medio menor.
En el error cuadrtico medio se consideran tanto la varianza como el sesgo del estimador.
y
y
son dos estimadores de un parmetro , tales que E
; E
Si
2
1
2
1

V V , habra que calcular el error cuadrtico medio de cada uno, y tomar el que tenga me-

, aunque sea sesgado, al tener menor varianza


nor error cuadrtico medio. Pues puede ocurrir que
2

tome valores ms cercanos al verdadero parmetro que


1

0.4

Distribucin de
2

0.3

0.2

Distribucin de
1

0.1

-7.5

-5

-2.5

2.5

7.5

Ejemplo:
Supngase que

,
2

son dos estimadores de un parmetro , y que

, V ( ) 10 , V (
2 4 . Haga una comparacin
E
; E
) 6 y E
E
3
1
1
2
2
3

de estos estimadores. Cul prefiere y por qu?


Solucin: Calculamos el error cuadrtico medio de cada estimador
V
10 pues
es insesgado
ECM


V
6 pues
es insesgado
ECM
E
4 es dato
ECM

es el mejor estimador de los tres dados porque tiene menor error cuadrtico
En consecuencia
3
medio.

Consistencia de estimadores puntuales

un estimador del parmetro , basado en una muestra aleatoria X , X ,..., X de tamaSea


1
2
n
n
es un estimador consistente de si
o n. Se dice que
n

0
lim P
n
n

para todo 0

Observacin:
28

Estimacin puntual

Prof. Mara B. Pintarelli

Este tipo de convergencia, que involucra a una sucesin de variables aleatorias, se llama convergencia en probabilidad y es la misma que consideramos en relacin a la ley de los grandes nmeros
P

.
Suele escribirse tambin
n
Este tipo de convergencia debe distinguirse de la considerada en relacin al teorema central del lmite. En este ltimo caso tenamos una sucesin de distribuciones: FZ n z PZ n z y se considera

el lmite lim FZ n z lim PZ n z z .


n

Se habla, entonces, de convergencia en distribucin y suele indicarse Z n Z N 0,1 .


d

un estimador del parmetro basado en una muestra aleatoria X , X ,..., X .


Teorema. Sea
1
2
n
n

Si lim E n y lim V n 0 , entonces n es un estimador consistente de .


n

Dem.)
Utilizamos la desigualdad de Chebyshev 0 :

E n
P
n
2

1 V
b
2
ECM
n
n
n
2

y lim V
0 , vemos que
Entonces, al tomar el lmite lim y teniendo presente que lim E
n
n

0 0 , es decir
es un estimador convergente de .
lim P
n
n
n

Ejemplo:
Sea X una variable aleatoria que describe alguna caracterstica numrica de los individuos de una
poblacin y sean E X y 2 V X la esperanza poblacional y la varianza poblacional, res1 n
pectivamente. Sea X X i la esperanza muestral basada en una muestra aleatoria
n i 1
X1 , X 2 ,..., X n . Entonces X es un estimador consistente de la esperanza poblacional E X .
Sabemos que
a) E X E X

V X

n
n
n
La propiedad a) ya me dice que X es un estimador insesgado de E X .
Por otra parte si a) vale para todo n, tambin vale en particular en el lmite n :
lim E X E X .
b) V X

Adems, de b) deducimos inmediatamente que


lim V X 0 .
n

Por lo tanto vemos que X es un estimador consistente de E X .

29

Estimacin puntual

Prof. Mara B. Pintarelli

2.4 Mtodos de estimacin puntual


Los criterios anteriores establecen propiedades que es deseable que sean verificadas por los estimadores. Entre dos estimadores posibles para un dado parmetro poblacional es razonable elegir aqul
que cumple la mayor cantidad de criterios o alguno en particular que se considera importante para el
problema que se est analizando. Sin embargo estos criterios no nos ensean por s mismos a construir los estimadores. Existen una serie de mtodos para construir estimadores los cuales en general
se basan en principios bsicos de razonabilidad. Entre stos podemos mencionar:
- Mtodo de los momentos
- Mtodo de mxima verosimilitud

Mtodo de los momentos


Se puede probar usando la desigualdad de Chebyshev el siguiente resultado:
Ley dbil de los grandes nmeros:
Sean X1 , X 2 ,..., X n n variables aleatorias independientes todas las cuales tienen la misma esperanza E X y varianza 2 V X . Sea X

1 n
X i . Entonces
n i 1

lim P X 0
n

Decimos que X converge a en probabilidad y lo indicamos: X .

Definimos los momentos de orden k de una variable aleatoria como:

x p x

k E X k

x i R X

x f xdx

k E X k

k 0,1,2,...

Si X es discreta

k 0,1,2,...

Si X es continua,

y definimos los correspondientes momentos muestrales de orden k como:

Mk

1 n k
Xi
n i 1

k 0,1,2,... ,

Entonces la ley dbil de los grandes nmeros se puede generalizar:

lim P M k k 0
n

k 0,1,2,... .

De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los
momentos muestrales de orden k: k M k k 0,1,2,... .

30

Estimacin puntual

Prof. Mara B. Pintarelli

Supongamos, entonces, una variable aleatoria X y supongamos que la distribucin de X depende de r


parmetros 1 , 2 ,..., r , esto es la fdp poblacional es pxi ,1 , 2 ,..., r si X es discreta o
f x,1 , 2 ,..., r si es continua. Sean 1 , 2 ,..., r los primeros r momentos poblacionales:

k E X k
k E X

x px , ,

,..., r

k 1,2,...,r

Si X es discreta

x f x, , ,..., dx

k 1,2,...,r

Si X es continua,

xi RX

y sean
1 n k
X i k 1,2,...,r los r primeros momentos muestrales para una muestra de tamao n
n i 1
X1 , X 2 ,..., X n . Entonces el mtodo de los momentos consiste en plantear el sistema de ecuaciones:
Mk

M1
M2

Mr

Es decir

1 n 1

x
p
x
,

,...,

Xi
i
1
2
r
i
n i 1
xi R X

n
x 2 p x , , ,..., 1 X 2
i
i
1
2
r
i
n i 1
xiRX

1 n r

x
p
x
,

,...,

Xi
i
1
2
r
i
n i 1
xiRX

Si X es discreta,


1 n 1

xf
x
,

,...,

dx

Xi

1
2
r
n
i

1

2
1 n 2

x
f
x
,

,...,

dx

Xi

1
2
r
n i 1

r
1 n r

x
f
x
,

,...,

dx

Xi

1
2
r
n i 1

Si X es continua.

31

Estimacin puntual

Prof. Mara B. Pintarelli

Resolviendo estos sistema de ecuaciones para los parmetros desconocidos 1 , 2 ,..., r en funcin de
la muestra aleatoria X1 , X 2 ,..., X n obtenemos los estimadores:

H X , X ,..., X

1
1
1
2
n

2 H 2 X 1 , X 2 ,..., X n

r H r X 1 , X 2 ,..., X n

Observacin:
En la forma que presentamos aqu el mtodo necesitamos conocer la forma de la fdp poblacional, por
lo tanto estamos frente a un caso de estimacin puntual paramtrica.
Ejemplos:
1- Sea X una variable aleatoria. Supongamos que X tiene distribucin gama con parmetros y :
X , , es decir su fdp est dada por:

1 x 1 x
x0
e

f ( x )
dems valores
0

con 0 ; 0 y x 1e x dx .
0

Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n. Deseamos calcular los estimadores de y
dados por el mtodo de los momentos.
Solucin:
Como tenemos dos parmetros desconocidos a estimar, planteamos el sistema de ecuaciones:

1 M 1

2 M 2
Se puede probar que

1 .

2 2 . 2 . 2
Tenemos, entonces, el sistema de ecuaciones

1 n

Xi

n i 1

n
2 . 2 . 2 1 X i2

n i 1

. X


1 n 2
2
2
2

Xi
n i 1

32

Estimacin puntual

Prof. Mara B. Pintarelli

1 n
2
Xi X 2

n
1
n
2
Reemplazando en la segunda ecuacin: X 2 X X i
i 1
n i 1
X
Y despejando de la primera ecuacin y reemplazando la expresin hallada para

nX 2
n

X i X 2

i 1

X i X 2

i 1

nX

2- Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el mtodo de los momentos.
Solucin:
Planteamos la ecuacin: 1 M 1
0

2X
Sabemos que 1 E ( X )
. Entonces X
2
2
2
2 X es un estimador consistente de , pues
Observacin: notar que el estimador
2
2
E 2 X 2 E X 2
V 2 X 4V X 4 0 0
y
V
E
12n
3n n
2

3- Sea X1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ N ( , 2 ) .


Encuentra los estimadores de y por el mtodo de momentos.
Solucin:
Planteamos las ecuaciones

1 M 1

2 M 2

1 n

2
E X 2 Xi

n i 1

pero en general es vlido que V ( X ) E ( X 2 ) 2 E ( X 2 ) V ( X )


Entonces las ecuaciones quedan

X
X

n
n
1
1

2
2
2 2
2
Xi X 2
X

n i 1
n i 1

4- Sea X1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ N (0, 2 ) .


Hallar un estimador por el mtodo de los momentos de 2
Solucin: en este caso no es conveniente plantear 1 M 1 pues quedara
33

Estimacin puntual

Prof. Mara B. Pintarelli

la ecuacin 0 X que no conduce a nada.


Entonces podemos plantear 2 M 2 es decir
1 n
1 n
1 n
2
2
2
2 0 Xi
2 X i
E( X 2 ) X i
n i 1
n i 1
n i 1

es un estimador por el mtodo de los momentos de un parmetro , el estimador


Observacin: si
, si g (x) es una funcin inyectiva.
de los momentos de g es g
Por ejemplo, en el ejemplo anterior un estimador de por el mtodo de los momentos sera

1 n
2
X i . Notar que g ( x) x es inyectiva para los reales positivos.
n i 1

Mtodo de mxima verosimilitud


Uno de los mejores mtodos para obtener un estimador puntual de un parmetro es el mtodo de
mxima verosimilitud.
Supongamos que X es una v.a. discreta con funcin de distribucin de probabilidad p( x, ) , donde es un parmetro desconocido. Sean x1 , x2 ,..., xn los valores observados de una muestra aleatoria de tamao n.
Se define la funcin de verosimilitud como la funcin de distribucin conjunta de las observaciones:
Lx1 , x2 ,..., xn , P( X 1 x1 ) P( X 2 x2 )...P( X n xn ) p( x1 , ). p( x2 , )..... p( xn , )
Notar que la funcin de verosimilitud es una funcin de .
El estimador de mxima verosimilitud de es aquel valor de que maximiza la funcin de verosimilitud
La interpretacin del mtodo sera: el estimador de mxima verosimilitud es aquel valor del parmetro que maximiza la probabilidad de ocurrencia de los valores muestrales
La adaptacin para el caso en que X es una v.a. continua sera la siguiente
Supongamos que X es una v.a. continua con funcin de densidad de probabilidad f ( x, ) , donde
es un parmetro desconocido. Sean x1 , x2 ,..., xn los valores observados de una muestra aleatoria de tamao n.
Se define la funcin de verosimilitud como la funcin de distribucin conjunta de las observaciones:
Lx1 , x2 ,..., xn , f ( x1 , ). f ( x2 , )..... f ( xn , )
La funcin de verosimilitud es una funcin de .
El estimador de mxima verosimilitud de es aquel valor de que maximiza la funcin de verosimilitud
Notacin: abreviamos estimador de mxima verosimilitud con EMV

34

Estimacin puntual

Prof. Mara B. Pintarelli

Ejemplos:
1- Sea X1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ B(1, p)
Por ejemplo, se eligen al azar n objetos de una lnea de produccin, y cada uno se clasifica como
defectuoso (en cuyo caso xi 1 ) o no defectuoso (en cuyo caso xi 0 ).
Entonces p P( X i 1) , es decir es la verdadera proporcin de objetos defectuosos en la produccin
total.
Queremos hallar el EMV de p
Solucin:

1
Si X~ B(1, p) entonces P( X k ) p k (1 p)1k
k
Planteamos la funcin de verosimilitud

k 0,1

Lx1 , x2 ,.., xn ; p px1 ; p px2 ; p ... pxn ; p p x1 1 p

1 x1

x2

1 p 1 x

...p

xn

1 p 1 x

Esto puede escribirse:


n

xi

n xi
Lx1 , x2 ,..., xn ; p p i 1 1 p
i 1

Para maximizar la funcin de verosimilitud y facilitar los clculos tomamos el logaritmo natural de L
Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos
en sumas.
Entonces
n
n

ln Lx1 , x2 ,..., xn ; p xi ln p n xi ln 1 p
i 1
i 1

Y ahora podemos maximizar la funcin derivando e igualando a cero


n

ln Lx1 , x2 ,..., xn ; p

xi
i 1

n xi
i 1

1 p

de donde despejando p
n

x
i 1

la proporcin de defectuosos en la muestra

Por lo tanto se toma como estimador a p X

1 n
Xi
n i 1

2- El tiempo de fallar T de una componente tiene una distribucin exponencial con parmetro :
T Exp , es decir la fdp es

e t
0t

f t ;
0 dems valores

Recordemos que la esperanza y varianza son:


35

Estimacin puntual

E T 1

Prof. Mara B. Pintarelli

1
y V T 2 , respectivamente.

Se desea calcular el estimador de mxima verosimilitud del parmetro para una muestra de tamao n.
Solucin:
La funcin de probabilidad es:
Lt1 , t 2 ,..., t n ; f t1 ; f t 2 ; ... f t n ; e t1 e t2 ... e tn ,

que puede escribirse:


Lt1 , t 2 ,..., t n ; e
n

ti
i 1

Nuevamente tomamos logaritmo natural

ln Lt1 , t 2 ,..., t n ; n ln ti
n

i 1

ln Lt1 , t 2 ,..., t n ;
1 n
n Ti 0

i 1
de donde podemos despejar :

t ,

t
i 1

entonces el estimador de es

n
n

T
i 1

El mtodo de mxima verosimilitud presenta, algunas veces, dificultades para maximizar la funcin
d
de verosimilitud debido a que la ecuacin obtenida a partir de
L( ) 0 no resulta fcil de resold
ver. O tambin puede ocurrir que los mtodos de clculo para maximizar L( ) no son aplicables.
Por ejemplo:
Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el mtodo mxima verosimilitud.
Solucin:
La f.d.p. de X es
1
si 0 x

f ( x)
0 caso contrario

Planteamos la funcin de verosimilitud


1
1
xi
n si 0 xi i
n si max
i
Lx1 , x2 ,...xn ,

0 caso contrario
0 caso contrario

36

Estimacin puntual

Prof. Mara B. Pintarelli

d n
n
n1 que es siempre menor que cero. Por lo
d

tanto la funcin de verosimilitud es una funcin decreciente para todos los max xi

Si derivamos con respecto a obtenemos

Si hacemos un grfico de la funcin de verosimilitud

L( )

max xi

Vemos que donde la funcin tiene el mximo hay una discontinuidad no evitable.
max x
Por lo tanto
i
i

El mtodo de mxima verosimilitud puede emplearse en el caso donde hay ms de un parmetro


desconocido para estimar. En ese caso la funcin de verosimilitud es una funcin de varias variables.
Especficamente si tenemos para estimar k parmetros 1 , 2 ,... k , entonces la funcin de verosimilitud es una funcin de k variables Lx1 , x2 ,..., xn ,1 , 2 ,... k y los estimadores de mxima verosimili ,
,...
se obtienen al plantear ( si existen las derivadas parciales) y resolver el sistema de k
tud
1

ecuaciones con k incgnitas 1 , 2 ,... k


d
Lx1 , x2 ,..., xn ,1 , 2 ,... k 0
d i

i 1,2,..k

Ejemplo:
La variable aleatoria X tiene distribucin N , 2 con y 2 ambos parmetros desconocidos para
los cuales se desea encontrar los estimadores mxima verosimilitud. La fdp es

1 x

1
x ,
f x ; , 2
e 2
2
La funcin de verosimilitud para una muestra aleatoria de tamao n es

L x1 , x2 ,..., xn ; , 2

1 x1

n
2 2

1 x2

e 2
2


1
e 2
2

1 n xi

2 i 1

1 xn


1
...
e 2
2

Luego
37

Estimacin puntual

Prof. Mara B. Pintarelli

n
1 n x
ln L x1 , x2 ,..., xn ; , ln 2 2 i

2
2 i 1
y el sistema de ecuaciones de verosimilitud queda:

n
ln L x1 , x2 ,..., xn ; , 2
xi


i 1

2
2
n
ln L x1 , x2 ,..., xn ; , n 1 xi 0

2
2 2 2 i 1 4

Resolvemos con respecto a y 2 :

1 n

xi x

n i 1

n
n
2 1 xi 2 1 xi x 2

n i 1
n i 1
Entonces los estimadores mxima verosimilitud de y 2 son

1 n

Xi X

n i 1

n
2 1 X i X 2
n i 1

Propiedades de los estimadores mxima verosimilitud

es el EMV de un parmetro basado en


1- Los EMV pueden ser sesgados, pero en general si
) , es decir son asintticamente insesgados
una muestra de tamao n, entonces lim E (
n

2- Bajo condiciones bastantes generales se puede probar que los EMV son asintticamente consistentes
3- Bajo condiciones bastantes generales se puede probar que los EMV asintticamente tienen varianza mnima
4-Los EMV cumplen la propiedad de invarianza es decir:
es un EMV de un parmetro , el EMV de g es g
, si g (x) es una funcin inyectiva.
si

Ejemplos:
1- Si consideramos nuevamente la situacin considerada en el Ejemplo 2, donde tenamos una v.a. T
cuya distribucin es una exponencial: T Exp , entonces, si queremos el EMV de la varianza poblacional, podemos calcularlo recordando que V T 1 2 , es decir, V T g 1 2 . Vimos que

n
n

T
i 1

1
1
. Por lo tanto el EMV de la varianza es 2 2 .
T

38

Estimacin puntual

Prof. Mara B. Pintarelli

1 n
Xi
n i 1
Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compaa.
Sea X : el nmero entre los n que tienen defectos , y p = P(el casco tiene defecto).
Supongamos que solo se observa X ( el nmero de cascos con defectos).
3
Si n = 20 y x = 3, es la estimacin de p es p
20
5
El E.M.V. de la probabilidad (1-p) , de que ninguno de los siguientes cinco cascos que se examinen

2- Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. B(1, p) . Un EMV de p es p X

tenga defectos ser 1 p

y su estimacin en este caso 1


20

39

Estimacin puntual

Prof. Mara B. Pintarelli

Prctica
Estimacin puntual
Mtodo de mxima verosimilitud - Mtodo de momentos

1) Suponga que se tiene una muestra aleatoria de tamao 2n tomada de una poblacin X , que
E (X ) y V ( X ) 2 . Sean

1 2n
1 n
Xi
X2
Xi
y
2n i 1
n i 1
Dos estimadores de . Cul es el mejor estimador de ?. Explique su eleccin.
X1

2) Sea X 1 , X 2 ,........, X 7 una muestra aleatoria de una poblacin que tiene media y varianza 2 .
Considere los siguientes estimadores de :
3X 1 X 6 X 4
X 1 X 2 ...... X 7
y

1
2
7
2
a) Alguno de estos estimadores es insesgado?
y
.
b) Hallar el ECM de
1
2
c) Cul estimador es el mejor?. En qu sentido es mejor?
3) Sea X 1 , X 2 ,........, X n una muestra aleatoria de tamao n.
a) Demuestre que X 2 es un estimador sesgado de 2 .
b) Determine la magnitud del sesgo de este estimador.
c) Qu sucede con el sesgo a medida que aumenta el tamao n de la muestra?.
4) Considere una muestra aleatoria de una distribucin continua con densidad

(1 x)

si 3 x 3
f ( x)
6

0 caso contrario

a) Es

1
3

donde el parmetro es tal que 1 / 3 1 / 3

X un estimador insesgado de ?. Explique.

b) Hallar ECM () . Es

1
3

X un estimador consistente de ? Explique.

5) El nmero diario de desconexiones accidentales de un servidor sigue una distribucin de Poisson.


En cinco das se observan: 2 , 5 , 3 , 3 , 7 desconexiones accidentales.
a) Obtenga el estimador de mxima verosimilitud de . Obtenga la estimacin de a partir de la
muestra dada.
b) Encuentre el estimador de mxima verosimilitud de la probabilidad de que ocurrirn 3 o ms
desconexiones accidentales y encuentre la estimacin de dicha probabilidad a partir de los datos.
6)a) Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. B(1, p) . Hallar un estimador de mxima verosimilitud (E.M.V.) de p.
b) Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compaa.
40

Estimacin puntual

Prof. Mara B. Pintarelli

Sea X = el nmero entre los n que tienen defectos y p = P(el casco tiene defecto). Supongamos
que solo se observa X ( el nmero de cascos con defectos).
b1) Si n = 20 y x = 3, cul es la estimacin de p?
b2) Si n = 20 y x = 3, cul es el E.M.V. de la probabilidad (1-p)5, de que ninguno de los siguientes cinco cascos que se examinen tenga defectos?
7) Denotemos por X la proporcin de tiempo asignado que un estudiante seleccionado al azar emplea trabajando en cierta prueba de actitud, y supongamos que la f.d.p. de X es:
1x , 0 x 1
donde 1
f ( x)
c.c
0,
Una muestra aleatoria de diez estudiantes produce la siguiente informacin:
0.92, 0.79, 0.90, 0.65, 0.86, 0.47, 0.73, 0.97, 0.94, 0.77.
a) Utilice el mtodo de los momentos para obtener un estimador de y luego calcule la estimacin para esta informacin.
b) Obtenga el E.M.V. de y luego calcule la estimacin para la informacin dada.
8) Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. N ( , 2 ) .
a) Hallar los estimadores de y por el mtodo de momentos.
b) Hallar los estimadores de y por el mtodo de mxima verosimilitud.
c) Se determina la resistencia al corte de cada una de diez soldaduras elctricas por puntos de
prueba, dando los siguientes datos (lb/plg2):
392, 376, 401, 367, 389, 362, 409, 415, 358, 375.
Si se supone que la resistencia al corte esta normalmente distribuida , estime el verdadero
promedio de resistencia al corte y desviacin estndar de resistencia al corte usando el mtodo
de mxima verosimilitud y el mtodo de momentos.
9) En una prueba 294 de 300 aisladores cermicos soportaron cierto choque trmico.
a) Obtenga el estimador y la estimacin de mxima verosimilitud de la probabilidad de que un
aislante cermico sobrevivir a un choque trmico.
b) Suponga que un dispositivo contiene tres aislantes cermicos y todos deben sobrevivir al choque, con la finalidad de que el dispositivo funcione. Encuentre el estimador y la estimacin de
mxima verosimilitud de la probabilidad de que los tres sobrevivirn a un choque trmico.
10) Se determina la duracin en horas de cada una de diez lamparitas elctricas, dando los siguien
tes datos:
49.5, 1015, 1009.4, 173.4, 251.6, 315, 1301.4, 732.8, 660.6, 1456.5
a) Si se supone que la duracin en horas de cada lamparita tiene distribucin exponencial, estimar
el parmetro de la distribucin usando el mtodo de mxima verosimilitud.
b) Hallar los estimadores de mxima verosimilitud de la esperanza y la varianza de la duracin en
horas de la lamparita. Qu propiedad utiliza?. Cul sera la estimacin de la esperanza y la
varianza para los datos dados?
c) Supongamos que se decide examinar otra lamparita.
Sea X: duracin en horas de la lamparita.
Utilizar la informacin dada en a) para obtener el EMV de P( X 1400) , y hallar la estimacin
de P( X 1400) .
(Sugerencia: P( X 1400) 1 e 1400 ).
41

También podría gustarte