Está en la página 1de 11

UNIDAD 2.

ESTIMACIÓN PUNTUAL
Inferencia estadística
Tarea 2, parcial 1

Integrantes:

 Naomy Abigail Amaya Medina


 Carlos Enrique Cuxim Tuz
 Jorge Roberto Pech May
 Abigail Ruiz Enríquez

Instrucciones: Resuelve cada uno de los siguientes ejercicios.

1. Determinar el estimador, usando el método de los momentos, del parámetro poblacional θ en


la densidad dada. (10 puntos)

2 ( θ−x )
f ( x )= ,0≤ x≤θ
θ2

'
Solución. Primeramente, calculemos el valor de μ1=E ( X ), donde X es una variable aleatoria con la
función de probabilidad anterior, entonces por definición de la esperanza:

∞ θ θ
2 x ( θ−x ) 1 2 θ
E ( X ) =∫ xf ( x ) dx=∫
−∞ 0 θ
2
θ[ 3 0 3]
dx= 2 θ x 2− x 3 =

' '
Ahora igualando el primer momento poblacional μ1 con el primer momento muestral M 1 tenemos
que:

θ
=μ'1=M '1= X́ → θ=3 X́
3

De este modo 3 X́ es un estimador del parámetro θ , como queríamos hallar. (Ok! 10)

2. Sean Y 1 , ⋯ , Y n variables aleatorias independientes e idénticamente distribuidas de una


familia de distribución de potencias con parámetros α y θ=3. Entonces

1
α y α −1

{
f ( y|α )= 3α , 0 ≤ y ≤ 3
0,e.o.c.


Demuestra que E ( Y 1 )= y deduce el estimador de α por el método de los momentos. (10
α +1
puntos)

Solución. Por definición de esperanza, tenemos que E ( Y 1 ) va a estar dado por

∞ 0 3 ∞
α y α −1
E ( Y 1 )= ∫ yf ( y ) dy= ∫ 0 dy +∫ y
−∞ −∞ 0
( 3α ) dy +∫ 0 dy
0

3 3
α α yα+ 1 α 3α+ 1 3α
¿ α ∫ y α dy = α
3 0 3 α [ ] ( )
+1 0
= α
3 α +1
=
a+ 1
.

' '
Ahora, por el método de los momentos, sabemos que μ1=E ( Y 1 ) y M 1=Ý , de este modo


∧¿ Ý
α +1
3 α ∧¿ α Ý + Ý
3 α −α Ý ∧¿ Ý

α ∧¿
3−Ý


Así tenemos que el estimador de α por el método de momentos es . (Ok! 10)
3−Ý

3. El parámetro de una distribución de Poisson ( λ ) puede tomar uno de los cuatro valores
siguientes: λ={ 4.0 , 4.5, 5.2 , 6 }. Decídase cuál de ellos puede ser considerando una muestra
aleatoria simple de tamaño dos tal que x 1=3 y x 2=7 y basándose en el principio de máxima
verosimilitud. (10 puntos)

2
Solución. Por definición, y recordando que la función de densidad de una variable aleatoria con

e− λ λ x , entonces sabemos que la función de máxima verosimilitud


distribución Poisson ( λ ) es f ( x )=
x!
L ( λ ; x 1 , x 2) va a estar dado por

e− λ λ x e−λ λx e−2 λ λ x +x
( )( )
1 2 1 2

L ( λ ; x 1 , x 2) = = .
x1 ! x2 ! x1 ! x2 !

Ahora, por hipótesis tenemos que x 1=3 y x 2=7 de este modo tenemos que la función de máxima
verosimilitud queda como

−2 λ
e λ10
L ( λ ; 3,7 )= .
3! 7!

Ahora, comprobemos con los posibles valores de λ para ver cual proporciona la máxima
probabilidad

e−8 ⋅ 410
L ( 4 ; 3,7 )= ≈ 0.0116 ,
3!7!

e−9 ⋅4.510
L ( 4.5 ; 3,7 )= ≈ 0.0139 ,
3!7!

e−10.4 ⋅ 5.210
L (5.2 ; 3,7 ) = ≈ 0.145 ,
3! 7 !

e−12 ⋅6 10
L ( 6 ; 3,7 )= ≈ 0.0.123 .
3!7!

De aquí podemos ver, por el principio de máxima verosimilitud, que el valor de λ debe ser λ=5.2.
(Ok, observen que el EMV X́ es 5, muy próximo a λ=5.2) (10)

4. Supóngase que X 1 , ⋯ , X n constituyen una muestra aleatoria de una distribución normal cuya
media μ y desviación estándar σ son desconocidas. Sean ^μ y σ^ los correspondientes EMV para
estos parámetros. Para un tamaño de muestra n=17, encuéntrese un valor de k tal que
P ( μ^ > μ+k σ^ )=0.95. (12 puntos)

3
Solución. Hemos demostrado que para una m.a. de tamaño n de una distribución normal con media

n
^ = X́ , 1 ∑ ( X i− X́ )2 , así obtenemos que ^μ= X́ y
μ y varianza σ 2, el E.M.V. de θ=( μ , σ 2 ) es Θ
n i=1( )
n
1
√ 2
σ^ = ∑ ( X i− X́ ) .
n i=1

Se nos pide hallar un valor k tal que P ( μ


^ > μ+k σ^ )=0.95, si despejamos k nos queda

P ( ^μ−μ
σ^
>k )=0.95 (1 )

Conocemos el E.M.V. σ^ , multiplicando por


√16 tenemos que
√16
17 17
16 S2 √ 16
σ^ =
1

17 ∑
i=1
( X i − X́ )
2
=

16 1

17 16 ∑
i=1
( X i − X́ )
2
=

17
=
√ 17
S.

Sustituyendo en ( 1 )

X́−μ
P
( √ 16 S
√ 17
> k =0.95
)
X́ −μ
P
( S
√ 17
> 4 k =0.95
)
P ( T > 4 k ) =0.95

X́−μ
∼ t 16
Pues S . Utilizando la tabla t de student hallamos que 4 k =1.746, por tanto, k =0.4365.
√ 17
(Error al final, analicen y verán que lo correcto es −4 k =1.746 de donde k =−0.4365 ) (11)

5. Cierto componente eléctrico tiene una vida útil X (expresada en horas) con la siguiente
función de densidad:

4
−x
1

{( ) θ
f ( x ; θ )= θ2 x e , x >0
0 , e .o .c .

Es decir, X ∼ Gamma ( 2 , θ ). Supongamos que tres de tales componentes, que se prueban de


manera independiente, posees vidas útiles de 120, 130 y 128 horas.

a) Determinar el EMV de θ y hallar el estimado correspondiente a las observaciones


muestrales dadas. (8 puntos)

Solución. Por hipótesis, tenemos que X 1 , X 2 , X 3 ∼ Gamma ( 2, θ ) , como queremos hallar el E.M.V.,
hacemos lo siguiente

3 −x i
L ( θ ; x1 , x2 , x3 ) 1 θ
¿∏ 2 e I (0 ,∞ ) ( xi )
i=1 θ

3 3
1
¿
θ 6 (
exp
−1
∑x
θ i=1 i )∏ i=1
I (0 , ∞) ( xi )

Para facilitar el proceso vamos a hallar el máximo de

3 3
1
ln L ( θ )=−6 lnθ− ∑ x i + ∑ ln I (0 , ∞) ( xi )
θ i=1 i=1

Tenemos que

∂ ln L ( θ ) −6 1 3
= + ∑x
∂θ θ θ2 i=1 i

∂ ln L ( θ ) −6 1 3
Si = + ∑ x =0
∂θ θ θ2 i=1 i

3
1 6
⇒ 2∑ i
x=
θ i=1 θ

3
1
⇒ θ= ∑x
6 i=1 i

5
3
1 1 1 1
^
Hemos llegado a que θ= ∑
2 3 i=1 ( 2 )
x i = x́. Por tanto, el E.M.V. de θ es X́ .
2

1 1 120+130+ 128
Finalmente,
2
X́ = [
2 3 ]
=63, corresponde al estimado de las observaciones dadas.

θ
b) Hallar el estimador de máxima verosimilitud de μ= . (6 puntos)
1+θ

θ
Solución. Sea μ=τ ( θ )= . Vamos a verificar que τ es 1-1. Tomemos θ1 , θ2 tales que
1+θ

τ ( θ 1) =τ ( θ2 )

θ1 θ2
⇒ =
1+θ1 1+θ 2

⇒ θ1 +θ 1 θ2=θ 2+θ 2 θ1

⇒ θ1 =θ2 .

Luego, τ es inyectiva. Por la propiedad de invarianza funcional, τ ( Θ


^ ) es un E.M.V. para μ, es decir,

1

2 X́
τ (θ)= = .
1
1+ X́ 2+ X́
2


Por tanto, el E.M.V. de μ es . (Ok! 14)
2+ X́

6. No se sabe qué proporción p de la compra de cierta marca de cereal es realizada por


mujeres y qué proporción es realizada por hombres. En una muestra aleatoria de 70 compras
se encontró que 58 fueron realizadas por mujeres y 12 por hombres. Determínese el EMV de p
y el estimado correspondiente de acuerdo a la muestra observada. (10 puntos)

Solución. Definimos la variable X como

6
X = 1 , sila compra es realizada por una mujer
{
0 , sila compra es realizada por un hombre

de manera que X ∼ Bernoulli ( p ) y su función de distribución es

f ( x )=P ( X =x )= p x ( 1− p )1− x I {0,1} ( x )

Sea X 1 , ⋯ , X 70 una muestra aleatoria tomada de esta distribución. La función de máxima


verosimilitud está dada por

70
L ( p ; x 1 , ⋯ , x 70 )∧¿ ∏ f ( x i ; p)
i=1
70
xi 1− xi
¿=∏ p ( 1− p ) I {0,1} ( x i)
i=1
70 70

∑ xi 70− ∑ x i 70
¿=p i=1
( 1− p ) i=1
∏ I {0,1 } ( x i )
i=1

Aplicando logaritmo natural, tenemos

70 70 70
ln L ( p )=
( ) (
∑ xi
i=1
)
ln p+ 70−∑ x i ln ( 1− p ) + ∑ ln [ I { 0,1} ( xi ) ]
i=1 i=1

Finalmente, derivamos e igualamos a cero

70 70
∂ ln L ( p )
0=
∂p
∧¿ ∑ x i 1p + 70−∑ x i 1−1 p (−1 ) +0
( ) ( )( )
i =1 i=1
70 70
1 1
¿= (∑ ) (
i=1
x i − 70−∑ x i
p i=1 1− p )( )
entonces el estimador de p es:

70 70 70 70
1
∑ x i− ∑ x i
i=1
( ) i=1
p=70 p− ( )
∑ xi
i=1
p→ ∑ x = ^p
70 i =1 i

70
Como ∑ x i=58, tenemos que el estimado es
i=1

7
58
^p= ≈ 0.83
70

(Ok! 10)

7. Una urna contiene θ bolas negras y N−θ bolas blancas. Una muestra de n bolas se ha de
seleccionar sin restitución. Sea Y el número de bolas negras de la muestra. Demuestra que

( Nn ) Y es el estimador del método de momentos para θ . (12 puntos)

Solución. Sea Y la cantidad de bolas negras extraídas en una muestra de tamaño n , la cual fue
tomada de una urna con un total de N bolas negras y blancas. Tenemos que Y ∼hipergeo ( N ,θ ,n ),
entonces

θ N −θ
f ( y ) =P ( Y = y )=
( y )( n− y )
, 0 ≤ x ≤θ
N
(n)
Por otro lado, aplicando el método de los momentos y en vista de que sólo se nos pide calcular un
parámetro, igualaremos el primer momento poblacional al primer momento muestral:

M '1=μ'1

es decir

Ý =E ( Y )

k
1 nθ
∑ Y i=
k i=1 N

donde k es la cantidad de veces que se realizó este experimento, en este caso k =1. Por lo que

nθ ^ NY
Y= ⟹ θ=
N n

(Ok! 12)

8
8. Supóngase que T , el tiempo en horas para fallar de un instrumento electrónico, tiene la
siguiente función de distribución:

−β ( t−t 0 )
f ( t )= β e ,t >t 0> 0
{ 0,e.o.c.

Es decir, T tiene una distribución exponencial truncada a la izquierda en t 0. Supóngase que se


prueban n artículos y que se anotan los tiempos para fallar T 1 , ⋯ , T n.

a) Suponiendo que t 0 es conocido, obtener el EMV de β . (8 puntos)

Solución. Por definición la función de verosimilitud de las variables aleatorias T 1 , … , T n está dada
por:

n n
−β ( t i −t 0 )
L ( β ; t 1 , … , t n )=∏ f ( t i , β ) =¿ ∏ β e I [t 0
,∞ ) (t i ) ¿
i =1 i=1

Entonces notemos que

n n n
ln [L(β )]=∑ ln ( β ) −∑ β ( t i−t 0 ) + ∑ ln ⁡[I [ t , ∞) ( t i ) ] 0
i=1 i=1 i=1

Luego derivando con respecto a β e igualando a 0, tenemos que

∂ ln [ L( β)] n 1 n n 1
0= =∑ −∑ ( t i−t 0 )= −n t́ +n t 0 → β=
∂β i=1 β i=1 β t 0 −t́

1 1
Por lo tanto, el estimador de máxima verosimilitud de β es ϴ
^= . (Debe ser ^β= )
t 0−T́ T́ −t 0

b) Hallar el estimador de W =ln ( 1−ββ ) . (6 puntos)

9
Solución. Sabemos que la función g ( x )=ln ( 1−xx ) es biyectiva en el intervalo (0, 1), entonces

1
^ )=ln
mientras β ∈( 0,1), por teorema demostrado sabemos que g ( ϴ
( )
t 0 −T́ −1
, es un estimador de

máxima verosimilitud de W .

β
Ahora, si β ∉ ( 0,1 ) notemos entonces que ≤ 0 o no está definido, por lo tanto, en este caso
1−β

W =ln ( 1−ββ ) no existe. Así vemos que solo tiene sentido cuando β ∈( 0,1),

^ =−ln ( T́ −t 0−1 ))
(Ok, pero es W

c) Suponiendo que t 0 es desconocido, pero β sí es conocido. Obtener el EMV de t 0. (8


puntos)

Solución. Procediendo de forma análoga que en el inciso a) tenemos que:

n n n
ln [L(t 0 )]=∑ ln ( β )−∑ β ( t i−t 0 ) + ∑ ln ⁡[I [ t 0
,∞ ) ( ti ) ]
i=1 i=1 i=1

Derivando con respecto a t 0 e igualando a 0 ocurre que

∂ ln [ L( t 0 )] n
0= =∑ β=nβ
∂t 0 i=1

Dado que la ecuación anterior no es posible, entonces no es posible buscar el máximo mediante
este método. Así, debemos buscar otra forma de definir nuestra función de máxima verosimilitud.

n
1
Primero, notemos que L(t 0) , usando las ecuaciones anteriores y considerando a t́= ∑ t i , queda
n i=1
como

n
n
L ( t 0 ) =β exp (−nβ t́ ) exp ( nβ t 0 ) ∏ I [ t , ∞ ) ( t i )
0
i=1

n
( L ( t0 ) = ∏ β e− β (t −t ) I( 0 ,t ) ( t 0 ))
i 0

i
i=1

10
Notemos que dado que t 1 , … , t n y β son valores conocidos, entonces la función es de la forma
n
L ( t 0 ) = A e B t donde A=β n exp (−nβ t́ ) ∏ I [ t , ∞) ( t i ) y B=bβ , como A ≥ 0 y B>0 entonces notemos
0

0
i =1

' '
que si A ≠ 0 entonces t 0< t 0 implica que L ( t 0 ) < L ( t 0 ).

Esto podría parecer que la función nunca alcanza su máximo, dado que siempre podríamos elegir
una t 0 más grande dado que el dominio de L es [ 0 , ∞ ), pero eso solo es válido cuando A ≠ 0. Así
notemos que el valor máximo de L es el valor más grande tal que A ≠ 0, por lo tanto, estudiemos
cómo se comporta este valor.

n
n
Notemos que como lo definimos A=β exp (−nβ t́ ) ∏ I[ t , ∞) ( ti ), notemos que β n exp(−nβ t́)>0 sin
0
i =1

n
importar los valores de t 1 , … , t n, por lo tanto A ≠ 0 si y solo sí ∏ I [ t , ∞) (t i)=1, pero eso pasa si y
0
i=1

solo sí para toda t i se tiene que t i ≥ t 0, de este modo vemos que si t 0> min { t 1 , … , t n } entonces

∏ I [ t , ∞) (t i)=0 y automáticamente L ( t 0 ) =0, así vemos que los valores donde A ≠ 0 es cuando
0
i=1

t 0 ∈ [ 0 , min { t 1 , … , t n } ].

Como se dijo anteriormente el máximo t 0 es el valor máximo tal que A ≠ 0 y podemos ver que ese es
específicamente min { t 1 , … , t n } por lo tanto podemos afirmar que el EMV de r que el EMV de t 0 es

t^ 0=min { t 1 , … , t n } .

(Ok! 19)

CALIFICACIÓN: 96

11

También podría gustarte