Está en la página 1de 3

Apéndice 9C Estimación de mínimos cuadrados generalizados

Estamos considerando el modelo de regresión simple con errores AR (1)

y t =β 1+ β 2 x1 +e t e t =ρ et −1+ v t

Nuestro objetivo es obtener el estimador de mínimos cuadrados generalizados para β 1 y β 2


transformando el modelo para que tenga un nuevo término de error homocedástico no correlacionado,
lo que nos permite aplicar mínimos cuadrados al modelo transformado. Para especificar el modelo
transformado comenzamos con (9.44), que es

y t =β 1+ β 2 x1 + ρ y t −1 −ρ β 1− ρ β 2 x t −1+ v t (9C .1)


y luego reorganizarlo para dar

y t −ρ y t−1=β 1 (1−ρ ) + β 2 ( x 1−ρ x t−1 ) + v t (9 C .2)

Después de definir las siguientes variables transformadas

y ¿t = y t −ρ y t−1 x ¿t 2= xt −ρ y t−1 x¿t 1=1−ρ

podemos reescribir (9C.2) como

y ¿t =x ¿t 1 β 1 + x ¿t 2 β 2 + v t (9 C .3)
¿ ¿ ¿
Hemos formado un nuevo modelo con variables transformadas y t , x t 1 , y x t 2 y, lo que es más
importante, con un término de error que no es el e t correlacionado, sino el v t no correlacionado que
supusimos distribuido (0 , σ 2v ). Esperaríamos que la aplicación de mínimos cuadrados a (9C.3) produjera
el mejor estimador lineal insesgado para β 1 y β 2.

Sin embargo, hay dos problemas adicionales que debemos resolver:

1. Debido a que se tuvieron que formar valores rezagados de y t y x t , la transformación solo creó
¿ ¿ ¿ ¿
(T-1) nuevas observaciones. Tenemos valores ( y t , x t 1 , x t 2 ¿ para t=2,3,…,T, pero no tenemos ( y 1,
x ¿11 , x ¿12 ¿ .

¿ ¿ ¿
2. Se desconoce el valor del parámetro autorregresivo ρ . Dado que y t , x t 1 , y x t 2 dependen de ρ ,
no podemos calcular estas observaciones transformadas sin estimar ρ .

Considerando primero el segundo problema, podemos usar la correlación muestral r1 definida en (9.21)
como un estimador de ρ . Alternativamente, (9C.1) se puede reescribir como

y t −β 1−β 2 x t =ρ ( y t−1−β 1−β 2 x t −1) + v t (9C .4)


que es lo mismo que e t =ρ et −1+ v t . Después de reemplazar β 1 y β 2 con las estimaciones de mínimos
cuadrados b1 y b1, se pueden aplicar mínimos cuadrados a (9C.4) para estimar ρ .

Las ecuaciones (9C.3) y (9C.4) se pueden estimar de forma iterativa. Es decir, usamos ^ρ de (9C.4) para
estimar β 1 y β 2 de (9C.3). Luego usamos estas nuevas estimaciones para β 1 y β 2 en (9C.4) para
reestimar ρ , que luego usamos nuevamente en (9C.3) para reestimar β 1 y β 2, y así sucesivamente. Este
procedimiento iterativo se conoce como estimador Cochrane-Orcutt. En cuanto a la convergencia, es
idéntico al estimador de mínimos cuadrados no lineal descrito en la Sección 9.3.2.

¿Qué pasa con el problema de tener (T-1) en lugar de T observaciones transformadas? Una forma de
resolver este problema es ignorarlo y proceder con la estimación sobre la base de las observaciones
(T-1). Esa es la estrategia adoptada por los estimadores que hemos considerado hasta ahora. Si T es
grande, es una estrategia razonable. Sin embargo, si deseamos mejorar la eficiencia al incluir una
transformación de la primera observación, necesitamos crear un error transformado que tenga la misma
varianza que los errores ( v 1 , v 2 , … , v T ).

La primera observación en el modelo de regresión es

y 1=β 1 + x 1 β 2+ e1

Con varianza de error e t =σ 2e =σ 2v /(1−ρ2). La transformación que arroja un error

varianza de σ 2v es la multiplicación por √ 1−ρ2 . El resultado es


2
√ 1−ρ y 1=√ 1−ρ2 β 1+ √ 1− ρ2 x 1 β 2 + √ 1−ρ2 e1

y ¿1=x ¿11 β 1+ x ¿12 β 2 +e ¿1 (9 C .5)

Donde

y ¿1=√ 1− ρ2 y 1 x ¿11 =√ 1−ρ2


(9C.6)
2 2
y =√ 1−ρ x e =√ 1−ρ e 1
¿ ¿
12 1 1

¿
Para confirmar que la varianza de e 1 es el mismo que el de los errores ( v 1 , v 2 , … , v T ). tenga en cuenta
que

¿ 2 σ 2v
2 2
var ( e ) =( 1− ρ ) var ( e1 ) =( 1− ρ )
1 =σ v
1−ρ 2
¿
También requerimos que e 1 no esté correlacionado con ( v 1 , v 2 , … , v T ). Este resultado se mantendrá
porque cada uno de los vT no depende de ningún valor pasado de e t . La primera observación
transformada en (9C.5) puede usarse con las observaciones transformadas restantes en (9C.3) para
obtener estimaciones de mínimos cuadrados generalizados que utilizan todas las observaciones T. Este
procedimiento a veces se conoce como estimador de Prais-Winsten

También podría gustarte