Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3 /21
Recordemos el supuesto 4
Homoscedasticidad y no autocorrelación
Este supuesto establece las siguientes dos condiciones sobre observaciones
del error:
Var[εi |X] = σ 2 , para todo i = 1, . . . , n, (1)
Cov[εi , εj |X] = 0, para todo i 6= j. (2)
4 /21
Fallo del supuesto 4: Autocorrelación
• Se presenta cuando las observaciones del término de error están
correlacionadas entre ellas.
• La autocorrelación se manifiesta en series de tiempo cuando es posible
detectar cierta “inercia” o tendencia clara en las observaciones.
• La condición (2) no se cumple: Cov[εi , εj |X] 6= 0, para todo i, j.
5 /21
El modelo de regresión generalizado
y = Xβ + ε,
E[ε|X] = 0,
0
E[εε |X] = σ 2 Ω = Σ,
6 /21
Estimación ineficiente por MCO
7 /21
Propiedades de muestra finita de β̂
Es insesgado. La varianza condicional del estimador de MCO:
Si suponemos que el error tiene una distribución normal (sup. 6), entonces:
8 /21
Propiedades de muestra finita de β̂
Es insesgado. La varianza condicional del estimador de MCO:
Si suponemos que el error tiene una distribución normal (sup. 6), entonces:
1 0
X X = Q, y
n
2. Que las matrices Q y plim n1 X0 ΩX sean finitas y definidas positivas .
plim β̂ = β
9 /21
Propiedades asintóticas de β̂
Distribución asintótica en el modelo de regresión generalizado
Si los regresores se comportan “suficientemente bien” y los elementos fuera
de la diagonal principal de Ω decrecen suficientemente rápido, entonces el
estimador de MCO en el modelo generalizado se distribuye asintóticamente
normal con media β y matriz de covarianzas:
σ 2 −1 1 0
Asy. Var(β) = Q plim X ΩX Q−1 ,
n n
10 /21
Estimación eficiente: Mínimos cuadrados generalizados
Dada la presencia de Ω, la estimación eficiente de β requiere:
• Conocer la matriz, o
• Estimarla.
Defina: √
Λ1/2 : matriz diagonal con iésimo elemento λi .
T = CΛ1/2 ⇒ Ω = TT0 : Descomposición de Cholesky.
Ω−1 = (T0 )−1 T−1 : Inversa de la matriz.
Ω−1 = P0 P, con P0 = CΛ−1/2 .
11 /21
Estimación eficiente: Mínimos cuadrados generalizados
Premultiplicando el modelo por P, obtenemos:
Py = PXβ + Pε,
y∗ = X∗ β + ε∗ ,
12 /21
Propiedades del estimador de MCG
El estimador de MCG es:
1. Insesgado: Si E[ε∗ |X∗ ] = 0 (en últimas, si E[ε|X] = 0), entonces:
E[β̂G |X∗ ] = β.
zn = Q∗ −1 √ X0 Ω−1 ε.
1
n
14 /21
Mínimos cuadrados generalizados factibles
Caso 2: La matriz Ω es desconocida
• Cuando Ω tiene parámetros desconocidos, MCG no es factible.
• Si todas las entradas de la matriz son independientes, habría que
estimar una matriz n × n de parámetros desconocidos adicionales.
• Esto no es factible con n obs. Hay que imponer estructura.
• Por ejemplo, en series de tiempo se modela la autocorrelación así:
ρ ρ2 ρ3 ... ρn−1
1
ρ 1 ρ ρ2 ... ρn−2
Ω(ρ) =
... .. .. .. ..
...
. . . .
ρn−1 ρn−2 ... 1
En particular:
17 /21
Pruebas para detectar
heteroscedasticidad
Pruebas para detectar heteroscedasticidad
– El test de White.
– El test de multiplicador de Lagrange de Breuch-Pagan/Godfrey.
19 /21
El test general de White
Una hipótesis que se buscaría testear es:
nR 2 ∼ χP−1
2
20 /21
El test de multiplicador de Lagrange de
Breuch-Pagan/Godfrey
Consiste en aplicar una prueba de multiplicador de Lagrange a la hipótesis
nula de que la varianza sigue cierta estructura conocida:
σi2 = σ 2 f (α0 + α0 zi )
21 /21
¿Preguntas? ¿Comentarios? ¿Sugerencias?
jorge.florez@urosario.edu.co
¡Gracias!