Está en la página 1de 4

Magı́ster en Economı́a

Ayudantia 4
Profesor: Pablo Pincheira
Ayudante: Ean Paredes

April 11, 2024

1 Ejercicios
1. Se define la variable aleatoria X estrictamente positiva, la cual posee una función de distribución
de probabilidad (densidad) igual a:
x  x
f (x | θ) = 2 exp − ,
θ θ
R∞
es decir, se cumple que 0 f (x | θ)dx = 1, donde θ es un parámetro poblacional constante y estricta-
mente positivo.

(a) Demuestre que se cumple la siguiente igualdad:


Z ∞  x
x · exp − dx = θ2
0 θ
Luego derive la ecuación anterior una vez con respecto a θ y use este resultado para demostrar que
E(X) = 2θ. Finalmente, derive dos veces la ecuación anterior con respecto a θ y utilice dicho resultado
para demostrar que V (X) = 2θ2 .

Respuesta Sabemos que


Z ∞ Z ∞
x  x
f (x | θ)dx = exp − dx = 1
0 0 θ2 θ
Dado que el parámetro es constante y no está relacionado con el diferencial, entonces, se cumple:
Z ∞
x  x
2
· exp − dx = 1
0 θ θ
Z ∞
1  x
2
x · exp − dx = 1
θ 0 θ
Z ∞
x · f (x | θ)dx = θ2
0

De esta forma queda demostrada la ecuación (1), la cual al ser derivada por primera vez, se tiene:
Z ∞  x d
x · exp − dx = θ2 /
θ dθ
Z ∞0  x x
x · exp − dx = 2θ
0 θ θ2
Z ∞
x · f (x | θ)dx = 2θ
0
E(X) = 2θ

1
Para el caso de la varianza se tiene que:

x2
Z  x d
2
· exp − dx = 2θ /
0 θ θ dθ
Z ∞
2x2  x  x2  x x 
− 3 · exp − + 2 · exp − dx = 2
0 θ θ θ θ θ2
2 ∞
Z Z ∞
1
− x · f (x | θ)dx + 2 x2 · f (x | θ)dx = 2
θ 0 θ 0
2 1
− E(X) + 2 E X 2 = 2

θ θ
E X 2 = 6θ2


Además, se tiene que


V (X) = E X 2 − E(X)2 = 2θ2


n
(b) Suponga que posee una muestra aleatoria ({Xi }i=1 ) de tamaño n, donde la población de donde
se extrajo la muestra es la misma descrita en la Parte i. Si ℓ(θ) = ln (f (x1 , x2 , . . . , xn | θ)) y S(θ) =
dℓ(θ)/dθ, se le pide que demuestre que para esta muestra en particular se cumple la siguiente igualdad:
 
dS(θ)
= E S 2 (θ)

E −

Respuesta Primero obtenemos la función de verosimilitud, la cual corresponde a:


n n
!
xi  x  Qn x xi
i i=1 i
Y X
f (x1 , x2 , . . . , xn | θ) = exp − = exp −
i=1
θ2 θ θ2n i=1
θ

Es decir,
n n
X X xi
ℓ(θ) = ln (f (x1 , x2 , . . . , xn | θ)) = −2n ln(θ) + ln (xi ) −
i=1 i=1
θ
n
dℓ(θ) 2n 1 X 2n n n
S(θ) = =− + 2 xi = − + 2 x̄n = 2 (x̄n − 2θ)
dθ θ θ i=1 θ θ θ
dS(θ) d2 ℓ(θ) 2n 2n 2n
= = 2 − 3 x̄n = − 3 (x̄n − θ)
dθ dθ2 θ θ θ
2 2 
n 2 n 2

S 2 (θ) = 4 (x̄n − 2θ) = 4 (x̄n ) − 4θ · x̄n − 4θ2
θ θ
Teniendo presente que la media muestral de una muestra Independiente e Idénticamente Distribuida
(IID) cumple con E (x̄n ) = E(X) = 2θ y V (x̄n ) = V (X)/n = 2θ2 /n, calculamos los valores esperados
solicitados.
   
dS(θ) 2n 2n 2n 2n
E − =E (x̄ n − θ) = 3 (E (x̄n ) − θ) = 3 (2θ − θ) = 2
dθ θ3 θ θ θ

n2 
  
2
 2 2
E S (θ) = E (x̄ n ) − 4θ · x̄ n + 4θ
θ4
2  
n 2
 
= 4 E (x̄n ) − 4θE (x̄n ) + 4θ2
θ
n2
= 4 V (x̄n ) + E 2 (x̄n ) − 8θ2 + 4θ2
 
θ 
n2 2θ2
 
= 4 + 4θ2 − 8θ2 + 4θ2
θ n
2n
= 2
θ
Por lo tanto, se demuestra la ecuación (2).

2
(c) ¿Cual es el estimador de máxima verosimilitud para θ?

Respuesta:

Igualando a 0 S(θ) es facil ver que:



θ̂ =
2
2. Considere el modelo
Yi = β0 + β1 xi + ϵi ,
donde ϵi son variables aleatorias iid N (0, σ 2 ), independientes de xi .

(a) Muestre que, para valores dados de β0 , β1 y xi , Yi es una variable aleatoria normal con me-
dia β0 + β1 xi y varianza σ 2 . Además, muestre que los Yi son variables aleatorias independientes.

(b) Encuentre la función de verosimilitud

L(y1 , y2 , . . . , yn ; β0 , β1 ) = fY1 Y2 ...Yn (y1 , y2 , . . . , yn ; β0 , β1 ).

(c) Demuestre que las estimaciones de máxima verosimilitud de β0 y β1 son iguales a las obtenidas
mediante el método de mı́nimos cuadrados.

Solución:
(a) Dado valores de β0 , β1 y xi , c = β0 +β1 xi es una constante. Por lo tanto, Yi = c+ϵi es una variable
aleatoria normal con media c y varianza σ 2 . Además, dado que las ϵi son independientes, concluimos
que los Yi también son variables aleatorias independientes.

(b) Por la parte anterior, para valores dados de β0 , β1 y xi ,


 
1 1
fYi (y; β0 , β1 ) = √ exp − 2 (y − β0 − β1 xi )2 .
2πσ 2 2σ

Por lo tanto, la función de verosimilitud es

L(y1 , y2 , . . . , yn ; β0 , β1 ) = fY1 Y2 ...Yn (y1 , y2 , . . . , yn ; β0 , β1 ) =


n
( n
)
Y 1 1 X
fYi (yi ; β0 , β1 ) = 2 )n/2
exp − 2 (y − β0 − β1 xi )2 .
i=1
(2πσ 2σ i=1

(c) Para encontrar las estimaciones de máxima verosimilitud (MLE) de β0 y β1 , necesitamos en-
contrar β̂0 y β̂1 de modo que la función de verosimilitud
( n
)
1 1 X 2
L(y1 , y2 , . . . , yn ; β0 , β1 ) = exp − 2 (y − β0 − β1 xi )
(2πσ 2 )n/2 2σ i=1

se maximice. Esto es equivalente a minimizar


n
X
(y − β0 − β1 xi )2 .
i=1

La expresión anterior es la suma de los errores cuadráticos. Por lo tanto, la estimación de máxima
verosimilitud para este modelo es la misma que el método de mı́nimos cuadrados.

3. Supongamos que hemos observado la muestra aleatoria X1 , X2 , X3 , . . . , Xn , donde Xi ∼ N (θ1 , θ2 ),


entonces
1 (xi −θ1 )2
fXi (xi ; θ1 , θ2 ) = √ e− 2θ2 .
2πθ2

3
Encuentre los estimadores de máxima verosimilitud para θ1 y θ2 . Solución
La función de verosimilitud se da por
n
!
1 1 X
L(x1 , x2 , · · · , xn ; θ1 , θ2 ) = n exp − (xi − θ1 )2 .
n
(2π) 2 θ22 2θ2 i=1

Nuevamente, es más fácil trabajar con la función de log-verosimilitud


n
n n 1 X
ln L(x1 , x2 , · · · , xn ; θ1 , θ2 ) = − ln(2π) − ln θ2 − (xi − θ1 )2 .
2 2 2θ2 i=1

Tomamos las derivadas con respecto a θ1 y θ2 y las igualamos a cero:


n
∂ 1 X
ln L(x1 , x2 , · · · , xn ; θ1 , θ2 ) = (xi − θ1 ) = 0,
∂θ1 θ2 i=1
n
∂ n 1 X
ln L(x1 , x2 , · · · , xn ; θ1 , θ2 ) = − + 2 (xi − θ1 )2 = 0.
∂θ2 2θ2 2θ2 i=1

Resolviendo las ecuaciones anteriores, obtenemos los siguientes estimadores de máxima verosimilitud
para θ1 y θ2 :
n n
1X 1X
θ̂1 = xi , θ̂2 = (xi − θ̂1 )2 .
n i=1 n i=1

Podemos escribir los EMV de θ1 y θ2 como variables aleatorias Θ̂1 y Θ̂2 :


n n
1X 1X
Θ̂1 = Xi , Θ̂2 = (Xi − Θ̂1 )2 .
n i=1 n i=1

También podría gustarte