Está en la página 1de 15

Teoría Econométrica

Richard P. Pérez Palma Ponce


rperezpalma19@gmail.com
Estabilidad de Parámetros
Concepto
•  Sea el modelo: se asume que el vector de coeficientes son constantes en toda la muestra. Esto
no necesariamente se cumple a lo largo de la muestra por lo que se analiza la estabilidad de
parámetros.

• Existen dos tipo de pruebas para identificar la estabilidad de parámetros. pruebas estructurales
y pruebas recursivas.

Posible quiebre
estructural
Pruebas Estructurales: Test de Chow
•  Definir Hipotesis :

• Pasos para el Test de Chow:

• Particionar la data en dos sub-periodos. Estimar la regresión sobre el periodo total y


dos regresiones por separado (en total, 3 regresiones).
Se obtienen la SSR para cada regresión.

• Se construye el test F con la regresión restringida (total muestra) mientras que la


parte no restringida viene dado por la regresión de las dos submuestras. El estadígrafo
es el siguiente:

• Desarrollar el test: Si el valor del estadígrafo es mayor el valor crítico de la


distribución F, entonces se rechaza la hipótesis nula, es decir, los parámetros no son
estables en el tiempo.
Test de Chow - Ejemplo
•  Sea el siguiente modelo CAPM para una muestra de 1981.1 hasta 1992.M12, se sospecha de
quiebre estructural en 1987.10. Evaluar dado las siguientes regresiones auxiliares:

 Regresión 1: 1981.1 – 1987.10

 Regresión 2: 1987.11 – 1992.12

 Regresión Total : 1981.1 – 1992.12

• El valor crítico de la distribución


Pruebas Recursivas
 • Cuando el investigador cree que existe una serie que presenta un quiebre estructural
pero no está seguro de la fecha puede realizar una estimación recursiva (MCR o RLS).

• El procedimiento es apropiado para series de tiempo o datos de corte transversal que


han sido ordenados de alguna manera.

• Se comienza a estimar desde una sub-muestra. La sub-muestra mínima será .

• Procedimiento:
1. Realizar una estimación con una sub-muestra en los datos.
2. Agregar una observación y re-estimar la regresión.
3. Repetir el proceso hasta llegar al final de los datos.

• Resultados:
1. Al inicio del procedimiento recursivo los parámetros estimados serán inestables
hasta que el número de observaciones sea mayor.
2. La clave es averiguar si la volatilidad de los parámetros estimados se reducen o
si la volatilidad continua indicando la presencia de Quiebre Estructural.
Pruebas Recursivas: Coeficientes Recursivos

300 0.8 15

200 10
0.4
5
100
0.0
0
0
-0.4 -5
-100
-10
-0.8
-200 -15

-300 -1.2 -20


02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

Recursive C(1) Estimates Recursive C(2) Estimates Recursive C(3) Estimates


± 2 S.E. ± 2 S.E. ± 2 S.E .

.20 .4 3

.15
.2 2

.10
.0 1
.05
-.2 0
.00

-.4 -1
-.05

-.10 -.6 -2
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

Recursive C(4) Estimates Recursive C(5) Estimates Recursive C(6) Estimates


± 2 S.E. ± 2 S.E. ± 2 S.E .

60 2.0

40 1.5

20
1.0
0
0.5
-20
0.0
-40

-60 -0.5

-80 -1.0
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

Recursive C(7) Estimates Recursive C(8) Estimates


± 2 S.E. ± 2 S.E.
Test CUSUM y CUSUMSQ
• El RLS como tal no es un test estadístico que permita evaluar la estabilidad de
parámetros, pero en vez de eso provee información cualitativa la cual se muestra de
forma gráfica dando un análisis visual acerca de la estabilidad de parámetros
conocidos como CUSUM y CUSUMSQ. Estos estadísticos se construyen de los
residuos de la estimación recursiva (residual recursives).

• El estadístico CUSUM es basado en una versión normalizada de la suma acumulada


de los residuos. Bajo la hipótesis nula de estabilidad de parámetros, el estadístico
CUSUM es cero. Un conjunto de bandas de confianza con +/- 2 desviaciones estándar
usualmente se grafica cerca del cero y cualquier estadístico que se encuentre fuera
de las bandas se toma como posible punto que genere la inestabilidad de
parámetros.

• El estadístico CUSUMSQ está basado en la versión normalizada de la suma acumulada


de los residuos al cuadrado. También se grafican las bandas de confianza con +/- 2
desviaciones estándar
Pruebas Recursivas: Cusum y CusumSQ
40 1.2

30 1.0

20
0.8
10
0.6
0
0.4
-10
0.2
-20

-30 0.0

-40 -0.2

2
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

CUSUM 5% Significance CUSUM of Squares 5% Significance

.8 .8 No hay presencia
.4 .4

.0
.0 de inestabilidad
-.4

.000
.025
-.8
.000

.025
-.4

-.8
de Parámetros
.050
.050
.075
.075
.100 .100

.125 .125

.150 .150
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

One-Step Probability N-Step Probability 40 1.2


Recursive Residuals Recursive Residuals
30 1.0

20
0.8
10
0.6
0
0.4
-10
0.2
-20

-30 0.0

-40 -0.2
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

1 CUSUM 5% Significance CUSUM of Squares 5% Significance

Posible .8 .8

.4

Inestabilidad de .0
.4

.0

Parámetros .000
-.4

-.8
.000

.025
-.4

.025 -.8
.050
.050
.075
.075
.100 .100

.125 .125

.150 .150
02 03 04 05 06 07 08 09 10 11 12 13 14 02 03 04 05 06 07 08 09 10 11 12 13 14

One-Step Probability N-Step Probability


Recursive Residuals Recursive Residuals
Multicolinealidad
Problema de Multicolinealidad
• En el mínimo cuadrados ordinarios (MCO) se asume que las variables explicativas no
están correlacionadas con otra, es decir son ortogonales entre si. Si se cumple lo
anterior, agregar o quitar una variable de la ecuación de regresión no causará
cambios en los valores de los coeficientes.

• En la práctica, la correlación entre variables explicativas no son cero. Cuando exista


una grado de asociación pequeño entre las variables explicativas no causará pérdida
de precisión en la estimación. Sin embargo, el problema ocurre cuando las variables
explicativas están altamente correlacionadas (Multicolinealidad).

• Existen dos tipos de Multicolinealidad: Perfecta y Severa. La multicolinealidad


perfecta ocurre cuando hay una relación exacta entre dos o más variables. En este
caso, no es posible estimar todos los coeficientes en el modelo. Mientras que la
multicolinealidad severa es más probable que ocurra en la práctica e involucra un
alto grado de asociación entre variables explicativas.
Indicios de Multicolinealidad
 • Testear el problema de multicolinealidad, sorprendentemente, es difícil y se realizan
diferentes métodos para investigar acerca de la presencia de multicolinealidad.

• Un primer método involucra mirar la matriz de correlaciones entre las variables


explicativas.
corr
1 0.2 0.8 Se sospecha de
0.2 1 0.3 Multicolinealida
d
0.8 0.3 1

• Dentro de la regresión se pueden detectar los siguientes indicios:

 El es elevado pero los estadísticos de los coeficientes son bajos.


 La regresión se vuelve sensible ante cambios en la especificación. Es decir,
agregar o remover una variable explicativa alcanza un gran cambio en el valor de
los coeficientes o significancia de las otras variables.
 Multicolinealidad severa genera intervalos de confianza amplios para los
parámetros.
Detección de Multicolinealidad
Factor de Inflación de Varianza
 El factor de inflación de varianza (FIV) es la razón entre la varianza observada en la regresión
multivariada y la que hubiese sido en caso de fuera no correlacionada con el resto de regresoras:
  El es obtenido al
regresionar sobre el Se
Se considera
considera que
que existe
existe un
un
 problema
 problema grave de
resto de los regresores grave de
multicolinealidad
multicolinealidad cuando
cuando elel
del modelo: VIF
 (nombre_ecuacion) VIF es
es mayor
mayor aa 10.
10. Es
Es decir
decir
cuando el
cuando el

Número o Índice de Condición


 De la matriz se calculan los valores propios para analizar al colinealidad que producen todas las
variables explicativas del modelo en conjunto
  𝜆𝑚𝑎𝑥 Se
Se considera
considera que
que existe
existe un


un
Se calculan los Valores 𝐼𝐶= problema
problema grave
grave de
de
Propios 𝜆𝑚𝑖𝑛 multicolinealidad
multicolinealidad cuando el IC
cuando el IC
es mayor a 25.
es mayor a 25.
Detección de Multicolinealidad: Test de Farrar- Glauber

  Test :

Test F:

Test t:
Soluciones al problema de Multicolinealidad
 • Múltiples técnicas de estimación han sido propuestas ante la presencia de
multicolinealidad (Ridge regression o Principal Components Analysis). Dado la
complejidad y pérdida de propiedades, como menos entendimiento de los
estimadores no son muy usados. Además que, muchos económetras mencionan que
la multicolinealidad es un problema con los datos que con el método de estimación.

• Se sugieren los siguientes métodos para tratar con la posible existencia de la


multicolinealidad severa:

 Ignorarla, si el modelo es adecuado, es decir t significativos y los valores de los


coeficientes son plausibles respecto a la magnitud y signo correcto)
 Eliminar una de las variables colineales, si el problema desaparece. Sin
embargo, podría no ser una solución si fuese una prioridad por razones teóricas
incluir ambas variables en el modelo. También, si la variable eliminada fuese
relevante en el PGD para podría resultar un problema de variable omitida.
 Transformar las variables altamente correlacionadas en un ratio, e incluir sólo
el ratio y no las variables individuales en la regresión. Esto, también, podría no
ser adecuado si la teoría sugiere que los cambios en la variable dependiente
sólo ocurrirán sobre cambios sobre la serie original y no en un ratio de ellas.

También podría gustarte