Está en la página 1de 31

ECONOMETRÍA APLICADA A

LA TOMA DE DECISIONES
EMPRESARIALES
Lección 3: Heteroscedasticidad.
S jm1
Diapositiva 1

jm1 Se agradece la contribución de los profesores Arranz, Suárez y Zamora, cuyos materiales de clase se han utilizado en la elaboración de esta
presentación.
juan muro; 28/09/2007
Heteroscedasticidad.
1. ¿ Qué es un modelo heteroscedástico?
 Ej. Gasto de un consumidor como función de
renta (curva de Engel). Fichero:
Heteros_Greene.wf1.
2. ¿ Con qué tipo de datos económicos se
suelen presentar modelos
heteroscedásticos?
 Corte transversal; serie temporal; datos de
panel.

S
11/29/2012 Juan Muro
Heteroscedasticidad.
3. ¿ Qué problemas plantea a la estimación
por MCO?

3.1. ¿ En qué consiste el cálculo de la matriz


de varianzas y covarianzas de los
estimadores MCO corregida por el efecto
de la heteroscedasticidad, White(1980)?

11/29/2012 Juan Muro


Heteroscedasticidad.
4. ¿ Cómo se detecta la
heteroscedasticidad?

11/29/2012 Juan Muro


Heteroscedasticidad.
5. ¿ Cómo se estima un modelo heteroscedástico
mediante estimadores que tengan buenas
propiedades estadísticas?

¿ Qué se entiende por mínimos cuadrados


ponderados?
¿ Qué problemas plantea la utilización de un
"deflactor" como método para resolver la
heteroscedasticidad?
¿ Cómo podemos decidir entre la utilización de una
especificación lineal logarítmica y una lineal en
un modelo con heteroscedasticidad?

11/29/2012 Juan Muro


S
3.1. Consecuencias de la
heteroscedasticidad.

Yi=X’iβ+ui; i=1,2,……N. Corte transversal; {t}


serie temporal.

X’i, β, vectores fila 1xk y columna kx1,


respectivamente; Yi, ui, escalares.

Var(ui|X)= σi2.
S
11/29/2012 Juan Muro
3.1. Consecuencias de la
heteroscedasticidad.

Estimador MCO: b= (ΣXiX’i)-1 ΣXiYi.

E(b|X)= β. Var(b|X)= (ΣXiX’i)-1 ΣXi σi2 X’i


(ΣXiX’i)-1.

Como Var(ui|X)= σi2 es desconocida, la


matriz lo es.
S
11/29/2012 Juan Muro
3.1. Consecuencias de la
heteroscedasticidad.

Variable de interés de carácter cualitativo


(modelos logit y probit): inconsistencia.

Variable de interés de carácter cuantitativo


(MRLG): ineficiencia y cálculo erróneo de
matriz de varianzas y covarianzas.

En general, la matriz por MCO, s2(ΣXiX’i)-1,


subestima la matriz anterior.
A
11/29/2012 Juan Muro
Matriz de White (1980).
La matriz (ΣXiX’i)-1 ΣXi ei2 X’i (ΣXiX’i)-1 es un
estimador consistente de la matriz

Var(b|X)= (ΣXiX’i)-1 ΣXi σi2 X’i (ΣXiX’i)-1.

La sugerencia de White es estimar por MCO


(lineal e insesgado) y calcular
consistentemente los errores por medio
de su matriz (estimadores no eficientes).
11/29/2012 Juan Muro A
3.2. Contrastes de
heteroscedasticidad.
Carácter Exactos Asintóticos

Hipótesis nula

Generales Goldfeld-Quandt(1965) Breusch-Pagan(1979)


(robustos)
Harvey-Phillips(1974) White(1980)

CUSUMSQ
Específicos Glejser(1969)
(potentes) Harvey(1976)
Engle(1982).
11/29/2012 Juan Muro S
Goldfeld-Quandt(1965). Contraste
exacto.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza no es constante en toda la
muestra.

Operativa:

1. Ordenar las observaciones, en orden creciente de varianzas, según la variable presuntamente


culpable de ocasionar la desigualdad en las varianzas.
2. Desechar c observaciones centrales.
3. Ajustar por MCO el modelo con las (T-c)/2 primeras y (T-c)/2 últimas observaciones.
4. Forma del contraste: bajo la hipótesis nula el estadístico

SCR 2 ~  T - c - 2k T - c - 2k 
F ,  ,
SCR 1  2 2 
Donde T es el tamaño de la muestra y k el número de parámetros explícitos; SCR1 y SCR2: suma
de los cuadrados de los residuos MCO de las regresiones con las primeras y con las últimas
observaciones, respectivamente.

11/29/2012 Juan Muro S


Harvey-Phillips(1974). Contraste
exacto.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza no es constante en toda la
muestra.

Operativa:

1. Ordenar las observaciones, en orden creciente de varianzas, según la variable presuntamente


culpable de ocasionar la desigualdad en las varianzas.
2. Ajustar el modelo por MCO. Obtener los T-k residuos recursivos.
3. Forma del contraste: bajo la hipótesis nula el estadístico

SCR 2 ~  T − k T - k 
F ,  ,
SCR 1  2 2 
Donde T es el tamaño de la muestra y k el número de parámetros explícitos; SCR1 y SCR2: suma
de los cuadrados de los residuos de los primeros y últimos residuos recursivos, respectivamente.

11/29/2012 Juan Muro S


White(1980). Contraste
asintótico.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza es una función cualquiera de
las variables causantes de la heteroscedasticidad.

Operativa:

1.Ajustar por MCO el modelo y obtener los residuos MCO e.


2.Efectuar la regresión de los residuos al cuadrado sobre las variables
explicativas, sus productos cruzados y las variables explicativas elevadas al
cuadrado.
3. Forma del contraste: contrastar la significatividad de la o las regresiones
anteriores.

11/29/2012 Juan Muro S


Breusch-Pagan(1979). Contraste
asintótico.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza es una función cualquiera de
una combinación lineal de las variables que producen la
heteroscedasticidad. σi2= h(Ziα). Zi es 1xp de variables explicativas (con
cte).

Operativa:

1. Ajustar el modelo por MCO. Obtener los residuos MCO e.


2
2. Calcular 1 e
2
σˆ = ∑ ei ; gi =
2 i
2
.
T σˆ
3. Estimar la regresión gi= Ziα+ui.

4. Forma del contraste: bajo la hipótesis nula el estadístico se distribuye asintóticamente


SCE ~ 2
Χ (p - 1) ,
2
Donde SCE es la suma de cuadrados explicada de la regresión estimada en (3).
11/29/2012 Juan Muro
S
Glejser(1969). Contraste
asintótico.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza es una función cualquiera de la
variable que produce la heteroscedasticidad.

Operativa:

1. Ajustar el modelo por MCO. Obtener los residuos MCO e.


2. Estimar por MCO la o las regresiones
| et |= δ 0 + δ 1 z th + u t ,
2 h
et = δ 0 + δ 1 z t + u t ,
donde z es la variable causante de la heteroscedasticidad y h es un número que
Glejser sugiere que tome los valores de prueba: 1, -1, 1/2, -1/2.
3. Forma del contraste: bajo la hipótesis nula el parámetro de la variable Z no será
significativo en las regresiones anteriores.

11/29/2012 Juan Muro S


Harvey(1976). Contraste
asintótico.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza es una función exponencial de
una combinación lineal de las variables que producen la
heteroscedasticidad. σi2= exp(Ziα). Zi es 1xp de variables explicativas (con
cte).

Operativa:

1. Ajustar el modelo por MCO. Obtener los residuos MCO e.


2. Estimar por MCO la regresión lnei2= Ziα.
3. Forma del contraste: bajo la hipótesis nula la regresión anterior no es significativa.
En concreto el estadístico siguiente puede utilizarse

SCE ~ 2
g= Χ (p - 1) .
4 . 9348
11/29/2012 Juan Muro S
Contraste para modelos ARCH:
Engel(1982). Contraste
asintótico.
H0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.
H1 : HETEROSCEDASTICIDAD: la varianza condicional es autorregresiva.
Es decir, en el caso de un ARCH(1) var(ut|ut-1)= α0+ α1 ut-12.

Operativa:

1. Ajustar el modelo por MCO. Obtener los residuos MCO e.


2. Estimar por MCO la regresión entre los residuos al cuadrado del modelo anterior y
los residuos al cuadrado de dicho modelo retardados. En el caso de un ARCH(1) la
regresión sería et2= α0+ α1 et-12.
3. Forma del contraste: contrastar la significatividad de los parámetros del modelo
anterior. El contraste de multiplicadores de Lagrange, TR2, se distribuye como una
Chi-2 con un grado de libertad y es equivalente asintóticamente al F habitual.

11/29/2012 Juan Muro A


3.3. Solución a la heteroscedasticidad.

Yi=X’iβ+ui; i=1,2,……N. Corte transversal; {t}


serie temporal.

X’i, β, vectores fila 1xk y columna kx1,


respectivamente; Yi, ui, escalares.

Var(ui|X)= σi2.

S
11/29/2012 Juan Muro
3.3. Solución a la heteroscedasticidad.
MCO: estimación lineal, insesgada y no óptima; matriz de
White(1980).

MCG: exige el conocimiento de la matriz Ω. Estimación


lineal, insesgada y óptima; heteroscedasticidad teórica.

MCGF: Estimación en dos etapas o iterativa, consistente.

MV: exige una parametrización de la matriz Ω. Estimación


consistente, asintóticamente eficiente y con distribución
asintótica normal.

A
11/29/2012 Juan Muro
Estimación por MCO en presencia de
heteroscedasticidad.

Estimador MCO: b= (ΣXiX’i)-1 ΣXiYi.

Matriz de White: (ΣXiX’i)-1 ΣXi ei2 X’i (ΣXiX’i)-1.

El estimador no es óptimo pero permite


realizar inferencia por los procedimientos
habituales ya que la matriz de varianzas
está estimada consistentemente.
A
11/29/2012 Juan Muro
Estimación por MCG en presencia de
heteroscedasticidad.
Estimador MCG: bMCG= (ΣX*iX*’i)-1 ΣX*iY*i.
Donde X*i=X*i/σi; Y*i=Y*i/σi.

Matriz de varianzas. Var(bMCG)= (ΣX*iX*’i)-1.

La aparición o no de un término σ2 en la matriz de


varianzas es una cuestión de mera notación.

Ej. La heteroscedasticidad derivada del uso de


magnitudes medias en un modelo
econométrico. En este caso σi=(Ni)1/2.
A
11/29/2012 Juan Muro
Estimación por MCGF en presencia
de heteroscedasticidad.
βˆ = [ΣX * X*' ] ΣX * Y * .
−1
Estimador MCGF: MCGF i i i i

Xi Yi
Donde X *i = ; Y *i =
σˆ i σˆ i

var(βˆ ) = [ΣX *i X *'i ] .


−1
Matriz de varianzas. MCGF

Método en dos etapas (o iterativo): primera etapa MCO para


estimar σi ; segunda etapa aplicar MCG (MCO del
modelo transformado).
S
11/29/2012 Juan Muro
Estimación por MCGF en presencia
de heteroscedasticidad.
Estimador MCGF por el procedimiento iterativo:

1ª etapa: estimación por MCO. Estimación de σi por medio


de residuos MCO al cuadrado y supuestos establecidos
(sobre heteroscedasticidad).
2ª etapa: estimación por MCG. A continuación se estima σi
por medio de los residuos MCO al cuadrado y
supuestos establecidos (sobre heteroscedasticidad).
3ª etapa y sus siguientes. Reiterar el procedimiento de la
segunda etapa hasta alcanzar la convergencia, por
ejemplo, en SCR.
La eficiencia asintótica depende de su similitud con el
estimador MV.
A
11/29/2012 Juan Muro
Estimación por MV en presencia de
heteroscedasticidad.
Función de verosimilitud en logaritmos

T 1 1 1
L( β ,σ | Y, X) = - ln(2Π ) - Σ lnσ i - Σ 2 Xi X'i .
2
i
2

2 2i 2 i σi

Bajo supuestos sobre el comportamiento de la


heteroscedasticidad (paramétricos) la
maximización de esa función proporciona los
estimadores MV.
A
11/29/2012 Juan Muro
Mínimos cuadrados ponderados.

La denominación de método de mínimos


cuadrados ponderados que se usa para el
método de corrección de la heteroscedasticidad
se deriva de la forma que adopta en este caso
el método de mínimos cuadrados
generalizados.

MCG en este caso es aplicar MCO a un modelo en


el que las variables “se ponderan”, es decir, se
obtienen dividiendo cada variable por la raíz
cuadrada de la varianza estimada.
A
11/29/2012 Juan Muro
Utilización de un deflactor.
Se suele decir que para eliminar la heteroscedasticidad de un modelo
(especialmente con datos temporales) hay que deflactar.

El método anterior es correcto siempre que la heteroscedasticidad sea


una función lineal del cuadrado de la variable que se use para
deflactar. En otros casos el método es incorrecto.

Ej. En un modelo de Consumo frente a renta, si la heteroscedasticidad


es función de la renta al cuadrado, deflactar el modelo mediante la
renta elimina la heteroscedasticidad. Precaución: en modelos
deflactados la pendiente se convierte en el término independiente y
el término independiente en el parámetro del recíproco de la
variable usada para deflactar.

A
11/29/2012 Juan Muro
Contrastes para decidir entre la
forma lineal y logarítmico lineal de
un modelo.
Para eliminar la heteroscedasticidad de un modelo
se suelen adoptar formas lineales en los
logaritmos en el modelo. La decisión sobre qué
especificación utilizar debe fundarse en algún
contraste apropiado. Entre ellos están los de
Box-Cox(1962); Bera-McAleer(1982) y
McKinnon, White y Davidson(1983).

El de Bera-McAleer(1982) consiste en lo siguiente:

S
11/29/2012 Juan Muro
Contraste de Bera-McAleer(1982).
1. Estimar las regresiones
log y t = β 0 + β 1 x t + u 1t ,
y t = β 0 + β 1 x t + u 2t .
2. Obtener los valores ajustados de y, log y en las regresiones
contrarias. Es decir, obtener el logaritmo en la regresión sin
logaritmos y la variable y en la regresión con logaritmos.

3. Estimar las regresiones auxiliares siguientes

exp ( log yˆ t ) = β 0 + β 1 x t + v 1t
.
log ~y t = β 0 + β 1 x t + v 2t
S
11/29/2012 Juan Muro
Contraste de Bera-McAleer(1982).
4. El contraste se fundamenta en las regresiones
auxiliares
log y t = β 0 + β 1 x t + θ 0 vˆ1t + ε t
y t = β 0 + β 1 x t + θ 1 vˆ 2t + ε t

Si el parámetro de los residuos estimados en la


regresión en logaritmos no es significativo
elegimos la especificación logarítmica. Lo
mismo cabe decir para la especificación lineal y
el parámetro de los residuos estimados de su
ecuación.
A
11/29/2012 Juan Muro
Referencias
• Wooldridge (2006). Cap. 8, 11 y 12.

11/29/2012 Juan Muro

También podría gustarte