Está en la página 1de 12

1.

Es un proceso autorregresivo de primer orden AR (1), porque solo se está considerando el rezago
del primer término de perturbación

2. Y t =βX t + ε t =β1 + β 2 X 2 t +…+ β k X kt +ε t

ε t=ϕ ε t −1 + μt|ϕ|<1

ε [ μt ]=0 , Var ( μ t ) =σ 2 μ y lov ( μt , μt −1) =0 , ∀ :≠ 0

.) Tenemos:

ε 1=ϕ ε 0 + μ 1

ε 2=ϕ ε 1 + μ2 =ϕ ( ε 0 + μ1 ) + μ 2=ϕ2 ε 0 + ϕ μ 1+ μ2

ε 3=ϕ ε 2+ μ3 =ϕ ( ϕ2 ε 0 +ϕ μ1 + μ2 ) + μ3=ϕ3 ε 0 +ϕ 2 μ1 + μ2 + μ3
.
.
.
ε 3=ϕt ε 0 +ϕt −1 μ1 +ϕ t−2 μ 2+ …+ϕ μt −1 + μt

.) Entonces:

t −1
ε t=ϕt ε 0 + ∑ ϕi μ t−i ϕ< 1 Por lo tanto si t ⟶ ∝ la expresión es igual a 0.
i=1

t −1
i
.) Si t ⟶ ∞: ε t=∑ ϕ μ t−i
i=1

t −1
i
.) Entonces la esperanza es: E [ ε t ]=E( ∑ ϕ μ t−i )
i=1

E [ ε t ]=E ¿

.) Hallamos varianza: γ 0=Var ( ε t ) =E(ε t2)


t−1
¿ Var (ϕ t ε 0 + ∑ ϕ i μt −i)
i=1
t−1
2 2
¿ ( ϕ t ) Var ( ε 0 ) + ∑ ( ϕi ) Var ( μt −i)
i=1
t−1
t 2
¿ ( ϕ ) Var ( ε 0 ) +σ μ ∑ ϕ2 i
2

i=1

t −1
.) Tenemos qué: ∑ ϕ2 i=ϕ 0+ ϕ2 +ϕ 4+ ϕ6 +…+ ϕ2 t−4 + ϕ2 t−2
i=1

.)Luego: Z=1+ϕ0 + ϕ2+ ϕ4 + ϕ6 +…+ ϕ2 t−4 + ϕ2 t−2

Z=1+ϕ0 [ 1+ϕ2 +…+ ϕ2 t−6 +ϕ 2t −4 ]

Z=1+ϕ2 [ Z−ϕ2 t−2 ] Z

Z=1+ϕ2 Z−ϕ2 t

1−ϕ2 t
( 1−ϕ2 ) Z=1−ϕ2 t ⇒ Z=
1−ϕ2

1−ϕ2 t
2 2
.) Entonces: γ 0= ϕ Var ( ε 0 ) +σ μ
( ) 2 ( 1−ϕ )
σ2 μ
Si t ⟶ ∞: γ 0=
1−ϕ2

.) La auto varianza es:

∞ ∞
γ 1=E [ ε t ε t −1 ] =E
[( ∑ ϕi μ t−i
i=0
)(∑
i=0
ϕi μ(t −i)−i )]
¿ E yap
3. Et es homocedástico, dado que todos los términos de la perturbación tienen la misma varianza
V (E t)=Var ( E t−s ).
Et es autocorrelacionado, ya que los errores tienen memoria larga porque su covarianza con el
pasado se prolonga por muchos periodos

4. TIPEAR

5. MCG EN LOS PROCEDIMIENTO DE C-O Y P-W


El procedimiento de MCG en los procedimientos de C-O y P-W, parte de la siguiente
estructura de datos:

1 X 1,1 X 1 ,(k−1) X 1 ,k

[1
X= ⋮
1
1
X 2,1

X T−1,1
X t ,1
X 2 ,(k−1)

X T ,(k−1)
X 2 ,k

X T−1 ,(k−1) X T−1 , k
X T ,k
] Tx(k+1 )

Y1 β0 ε1

[] [] []
Y
Y= 2

YT Tx 1
β
; β= 1

βK ( K +1) x 1
ε
; ε= 2

εT
Donde: ε t= pε t −1 + v t

Se quiere estimar el modelo:

Y = X β+ ε

Los residuales del modelo se distribuyen ε N (0 , Σ) lo cual es precisamente el caso


de MCG ya que Σ=a2 Ωdonde Ω es positiva definida pero no necesariamente la
identidad, en este caso está dada por:

1 p p2 … pT −1

σ 2 Ω=σ 2
[ p
p2

p T−1
1
p

pT −2
p ⋯
1 …
⋮ ⋱
… p
pT−2

p
1
]
TxT

Además el estimador MCG para los parámetros del modelo es:

β=( X ' Ω – 1 X ) ( X ' Ω – 1 Y )

Y la matriz Ω–1 está dada por:

1 −p 0 … 0

[ ]
2
− p 1+ p −p … pk−2
2
Ω−1= 0 − p 1+ p … ⋮
⋮ 0 −p ⋱ ⋮
⋮ ⋮ ⋮ 1+ p 2 −p
0 0 … −p 1 TxT

En este caso particular sea la matriz P tal que P P= {Ω} ^ {-1} la cual puede escribirse
explícitamente como:

√ 1− p2 0 0 … 0

P¿

[ −p
0


0
1
−p 1
0 …

0 −p ⋱

0
⋮ 1
… −p
0
0

0
1
]
TxT

Cuando ρ es conocida la transformación del modelo puede ser determinada por:

PY =PXβ+ Pε
Que es conocida como la transformación de Prais-Winsten.

Por otro lado, al omitir la primera observación se tiene la transformación de Cochrane Orcutt,
cuya matriz es la siguiente:

−p 1 0 … 0

[ 0 −p 1


0

0


0 −p ⋱
1
… −p
0

0
1
]
( T−1) xT

En otras palabras, se asume que los residuales de un modelo de regresión lineal son
idénticamente pero no necesariamente independientemente distribuidos. Entonces el modelo
queda de la siguiente manera:

Y t =β 0+ β1 X 1 , t +…+ β k X k , t +ε t (1)

Donde los residuales son como en la ecuación (2)

ε t= ρεt −1+ v t −1< ρ<1(2)

Además v t es independiente e idénticamente distribuida (i.i.d.), los residuales ε t no lo son para


ρ ≠ 0. Este es el caso simple de autocorrelación, llamado primer orden de autocorrelación.

Si ρ es conocida, el método de diferencias generalizadas puede ser aplicado al modelo para


transformarlo en uno donde los errores sean independientes. Para describir el procedimiento
amigablemente, se utiliza el hecho de que el modelo en la ecuación (1) se mantiene para todos
los periodos de tiempo de la siguiente manera:

Y t −1 =β 0+ β1 X 1 ,t −1+ …+ β k X k ,t −1+ ε t−1 (3)

Ahora multiplicando (3) por ρ y restando de (1), se obtiene un modelo con una estructura de
errores como en (2):

Y t −ρY t−1=( β0 + β 1 X 1 ,t + …+ β k X k ,t + ε t )−ρ ( β 1 + β 1 X 1 , t−1 +…+ β k X k , t−1+ ε t −1)

¿¿
¿ β 0 ( 1−ρ ) + β 1 ( X 1, t −ρX 1, t−1 ) +…+ βk ( X k ,t −ρX k , t−1)+(ε t −ρε t −1 )
Lo que resulta en la siguiente transformación:

Y ¿t =β ¿0+ β1¿ X ¿1 , t +…+ β ¿k X ¿k , t + vt (4 )

Donde: Y ¿t =Y t −ρ Y t−1

β ¿0=β 0 (1− ρ)

β ¿j =β j ∀ j≠ 1

X ¿j ,t =X j ,t −ρX j , t−1
v t=ε t− ρεt −1

Por construcción la transformación de la ecuación (4) tiene modificados los residuales que son
i.i.d. resultando que los parámetros de los estimadores para MCO sean eficientes, entonces
aplicando MCO a la ecuación (4) produce una estimación para MCG.

^y ¿t = ^β ¿0+ ^β¿1 X ¿1 , t +…+ β^ ¿k X ¿k , t (5)

(Nota: el símbolo de gorrito “^” indica estimación por MCO mientras que tilde “~” denota estimación por MCG.)

La generalización del procedimiento de diferencias es muy útil si se conoce a priori el valor de


ρ . Usualmente no es el caso y la estimación de MCG está basada en una estimación de ρ , a
menudo obtenida por los procedimientos de Cochrane-Orcutt o Prais-Winsten (en dos etapas ó
iterativos). Bajo el supuesto de normalidad estos procedimientos proporcionan estimadores
que convergen en probabilidad a un máximo estimador probable, el cual es consistente y
asintóticamente eficiente.

Las ecuaciones anteriores son suficientes para mostrar los procedimientos desarrollados por C-
O y P-W en dos etapas e iterativos.

Así pues el procedimiento de Cochrane-Orcutt es el siguiente:

Paso 1. Mínimos cuadrados ordinarios se usa para estimar la ecuación (1).

Paso 2. Se calculan los residuales de la ecuación (1) que están dados por:

ε^ t=Y t −Y^ t

^ t = ^β 0+ ^β1 X 1 , t +…+ β^ k X k , t
Donde: Y

Se define un nuevo conjunto de residuales ε^ t−1 de tamaño T-1 aplicando un rezagando a los
residuales ε^ t los cuales son utilizados para obtener ^ρ , mediante la aplicación MCO.

Recuerde que: v t=ε t− ρεt −1 ⇒ ε t =ρε t−1 +v t


Además v t son i.i.d. y además se utiliza MCO para estimar ^ρ a partir de los residuales ρ y los
residuales rezagados ε t−1 .

Paso 3. La ecuación (4) es estimada usando ^ρ en lugar de ρ . La estimación se hace aplicando


MCO en la ecuación (4) lo cual produce una estimación de MCG.

Las estimaciones del proceso hasta el paso 3 es generalmente llamado el procedimiento


Cochrane-Orcutt en dos etapas.

Los estimadores calculados en el paso 3 son ahora estimaciones válidas de los parámetros para
la ecuación (1). La mayoría de los textos mencionan que las estimaciones para el intercepto del
paso 3 pueden ser ajustados dividiendo entre 1− ^ρ, éste mismo ajuste, puede ser realizado
para el error estándar del intercepto.

El procedimiento Cochrane-Orcutt de dos etapas provee solamente un estimador de ρ ,


mientras que el procedimiento iterativo estima ρ iterativamente, esto es, por aproximación
sucesiva, tomando un valor inicial de ρ (dado en el paso 2) terminando con una condición de
paro (que será dada en el paso 5), calculando ρ tantas veces como iteraciones se calculen en el
proceso. Así pues para aplicar el procedimiento iterativo Cochrane-Orcutt se debe continuar en
el paso 4 dado a continuación.

Paso 4. Las estimaciones de ^β obtenidas en el paso 3 son utilizadas para obtener un nuevo
conjunto de residuales. Hay que ser cautelosos ya que este es un momento donde la intuición
miente. Los residuales pueden ser calculados usando:

ε^ t=Y t −Y^ t (6)

^ t = ^β 0+ ^β1 X 1 , t +…+ β^ k X k , t
Donde: Y

^¿
^β 0= β 0
1−^ρ
^β j = ^β¿j
¿ ^ t a partir de la
Comúnmente se comete el error de calcular los residuales de la forma ^y t −¿ Y
ecuación (4). De hecho estos pasos no son explícitamente indicados en cualquier libro de texto.

Paso 5. Se repite el paso 2. La recomendación general es parar cuando las estimaciones para
sean salidas que difieran por una cantidad pequeña, por decir menor que 0.0001.

Fin del procedimiento de Cochrane-Orcutt.

Cuando se cumple la condición de paro del paso 5 se terminan las iteraciones y se obtiene un
modelo en donde los estimadores son eficientes y además son una estimación de MCG.

Cuando se opta por usar el procedimiento Cochrane-Orcutt de “dos etapas” o iterativo, se


pueden obtener diferencias en los resultados, esto se debe a la estimación de ρ ya que en el
procedimiento iterativo se parte de la misma estimación que en “dos etapas” y puede terminar
en un valor significativamente diferente, donde lo que impactará en la transformación, de ahí
las diferencias.
Por otro lado se tienen diferencias con respecto al procedimiento de Prais-Winsten debidas a
la perdida de la primera observación, lo que no siempre es tomado muy en cuenta, pero tiene
relevancia para casos donde se cuenta con pocos datos ya que para muestras pequeñas, está
bien documentado que conforme la primer observación está presente o se omite puede
obtenerse una diferencia substancial en los resultados de la regresión. Más aún se marcan esas
diferencias si la primera observación difiere bastante de la segunda o si se tiene la sospecha
que ésta es un punto extremo, mientras que la perdida de una observación en muestras
grandes tiende a ser intrascendente.

De lo anterior se puede intuir que el procedimiento de Cochrane-Orcutt debe funcionar bien


para regresiones donde se cuenta con una muestra no pequeña, aún, si es el caso en que se
cuenta con pocos datos, se tiene la ventaja de poder comparar los resultados ofrecidos por
este procedimiento con una mejora del mismo ofrecida por Prais-Winsten la cual preserva la
primera observación.

Nótese que la matriz de transformación de P-W es de tamaño T x T mientras la de C-O es de


tamaño T-1 x T. Desde las matrices se nota que la de P-W preserva todas las observaciones.

Entonces a continuación se detallará el procedimiento de Prais-Winsten el cual es:

Paso 1. Al igual que en C-O el método de mínimos cuadrados ordinarios se usa para estimar la
ecuación (1).

Paso 2. Se calculan los residuales de la ecuación (1) son: ε^ t=Y t −Y^ t

^ t = ^β 0+ ^β1 X 1 , t +…+ β^ k X k , t
Donde: Y

Se define un nuevo conjunto de residuales ε^ t−1 de tamaño T-1 aplicando un rezago a los
residuales ε^ t los cuales son utilizados para obtener ^ρ , mediante la aplicación MCO, tal como en
el paso 2 del procedimiento de C-O.

Paso 3. La ecuación (4) es estimada usando ^ρ en lugar de ρ . La estimación se hace aplicando


MCO en la ecuación (4) tomando como datos el resultado de la transformación de Prais-
Winsten, la cual es:

Y ¿t =Y 1 √1− ^ρ2 ; Y ¿t =Y t −ρY t−1 ∀ t >1

X ¿j ,1= X j , 1 √ 1−^ρ2 ; X ¿j ,t =X j ,t −ρX j , t−1 ∀ t> 1

Esto produce una estimación del modelo para MCG.

Las estimaciones del proceso hasta el paso 3 es generalmente llamado el procedimiento de


Prais-Winsten en dos etapas.

Para continuar con el procedimiento de Prais-Winsten iterativo, los pasos a seguir son los
mismos paso 4 y paso 5 del procedimiento de Cochrane-Orcutt (C-O).

Fin del procedimiento de Prais-Winsten.

Es importante mencionar que la estimación de la correlación ^ρ para los residuales que se


planteó en el paso 2 en ambos procedimientos C-O y P-W no es la única disponible en la
literatura por ejemplo; el estadístico de Durbin Watson (DW) es un estimador conveniente,
este estadístico puede ser aproximado por:

DW
DW =2 ( 1−ρ ) ⇒ ^ρ DW =1−
2
Así pues existen otras alternativas para obtener estimadores de la correlación de los residuales
tales como Theil-Nagar (1961) entre otros.

Lo mencionado hasta este momento tiene una gran relevancia e importancia a la hora de la
práctica, ya que al trabajar con modelos de regresión con residuales autocorrelacionados se
debe tomar en cuenta que se debe optar por mejor modelo posible para las predicciones sean
confiables y se debe elegir entre:

(a) Método de dos etapas y método iterativo.


(b) Procedimientos de estimación Cochrane-Orcutt o Prais-Winsten.
(c) Varios estimadores de usado en la estimación del modelo MCG.

6. Mínimos cuadrados generalizados factibles.


Bajo el supuesto de que las perturbaciones siguen un proceso auto regresivo de orden uno [AR
(1)], el modelo de regresión lineal generalizado, es:

Y t =β 1+ β2 X 2 t + …+ β k X kt + ε t t =1 , …T

ε t= ρ ε t−1 + μt μt NID(0 , σ 2μ)

Si el valor de ρ es conocido, el estimador de mínimos cuadrados generalizados de β se obtiene


minimizando la función criterio. En este caso, como Σ es una matriz simétrica y definida
positiva, existe una matriz Ρ tal que Σ−1=ΡΡ ´ , y el estimador de mínimos cuadrados
generalizados obtiene estimando el modelo transformado por mínimos cuadrados ordinarios.

En el caso de un modelo AR (1), la matriz P es la siguiente:

√1−p 2 −p 0 … 0 0

P=
[ −p


0

0
1 −p … 0 0
−p 1 … 0 0
… … … … …
0 … … −p 1
]
Y el modelo transformado se puede escribir como:

√ 1−ρ2 Y 1=β 1 √1− ρ2+ β 2 √1−ρ2 X 21+ …+ β k √1− ρ2 X k1 + ε1


Y t −ρ Y t−1=β 1 ( 1−ρ ) + β 2 ¿

t=2 , … ,T
Es interesante señalar que la primera observación sufre una transformación diferente a todas
las demás.

La suma de cuadrados a minimizar con respecto a β , es:

S ( β )=(1−ρ¿¿ 2) ( Y 1− β1− β2 X 2 t −…− β k X kt )2 +¿ ¿


T k
+ ∑ . {( Y t− ρY t −1 )−β 1 ( 1−ρ )−∑ β j ¿ ¿
t =2 j=2

El primer sumando proviene de la primera observación y el segundo, no es sino la suma de


cuadrados de residuos del modelo transformado para t=2,…, T.

En el caso de que ρ sea desconocido, no se puede obtener el estimador de β por MCG


directamente, sino que hay que estimar conjuntamente ρ y β .

Existen varios métodos que estiman conjuntamente ρ y β , basándose en el modelo


transformado; de estos se desarrollan dos: el método Durbin y el método de Cochranne-
Orcutt.

Ambos métodos de estimación se basan en que las perturbaciones siguen un proceso AR (1),
por lo que el modelo transformado apropiado es.

Y t −ρ Y t−1=β 1 ( 1−ρ ) + β 2 ¿

t=2 , … ,T

Pero no tienen en cuenta la transformación de la primera observación.

Método de Durbin

La estimación por el método de Durbin (1960), se realiza en dos etapas:

1) Se estima ρ por mínimos cuadrados ordinarios En el modelo:

Y t =ρ Y t−1 +γ 1+ β 2 X 2 t + γ 2 X 2 t −1 +…+ β k X kt + γ k X kt−1 +ε t

Dónde: t=2,…, T, γ 1
Dadas las propiedades de ε t el estimador de ρ por mínimos cuadrados ordinarios ^ρ es
consistente.

2) Se utiliza el estimador ^ρ , para obtener el modelo transformado:

Y t −^ρ Y t−1=β 1 ( 1−^ρ ) + β 2 ¿

Y se estima el vector de coeficientes β por mínimos cuadrados ordinarios en este modelo; es


decir, minimizando la suma de cuadrados con respecto a β :

T k
2
S2 ( β ) =∑ . {( Y t − ^ρ Y t−1 ) −β1 ( 1− ^ρ ) −∑ β j ( X jt − ρ^ X jt−1 ) }
t=2 j=2

Método de Cochrane-Orcutt

El método de Cochrane-Orcutt (1949) también se realiza en dos etapas:

1) Partiendo del supuesto que 0 = ρ , se estima por MCO el modelo:

Y t =β 1+ β2 X 2 t + …+ β k X kt + μt t=1 , … T

El estimador MCO de ρ es consistente.

En segundo lugar, se obtiene un estimador consistente de ρ , esto se logra estimando por MCO
la regresión:

ε t= ρ ε t−1 +v t t=2 , … , T

2) Se utiliza ρ para obtener el modelo transformado:

Y t −^ρ Y t−1=β 1 ( 1−^ρ ) + β 2 ¿

Y se estima β por MCO en este modelo minimizando la suma de cuadrados

T k
2
S ( β )=∑ . {( Y t − ^ρ Y t −1 ) −β 1 ( 1− ρ^ )−∑ β j ( X jt − ^ρ X jt−1 ) }
t=2 j=2
Este proceso en dos etapas, se suele realizar repitiendo las regresiones hasta que las
estimaciones de ρ y ρ , no varíen dentro de un margen de valores.

Es preciso tener en cuenta que los dos métodos considerados minimizan la suma de
cuadrados, que no tienen en cuenta la primera observación, por lo que solo son
aproximaciones al estimador de mínimos cuadrados generalizados factibles. Asintóticamente,
ambos son equivalentes al estimador MCGF, pero para muestras pequeñas puede haber
diferencias, a veces importantes.

También podría gustarte