Está en la página 1de 126

INVESTIGACIÓN DE INTERÉS

DOCENCIA

ECONOMETRÍA
Por: Germán Acuña, Ph. D.

Mayo 2017

1
ECONOMETRÍA

Capítulo I
INTRODUCCIÓN

Frisch (1936), en su artículo “Note on the term Econometrics” dice que Pawel
Ciompa utilizó el 1910 por primera vez el término “econometría” en la fundación
de la Sociedad de Econometría, indicando que en el desarrollo de la teoría
económica debe soportarse mediante la utilización del análisis estadístico y
matemático.

La trilogía matemática - estadística - economía integran los elementos de


cualquier definición sobre econometría. Veamos algunas.

1.1 Definiciones de econometría

1.- Samuelson, Koopmans y Stone (1954): '... el análisis cuantitativo de


fenómenos económicos actuales, basado en el desarrollo congruente de teoría
y observaciones, y relacionado por métodos apropiados de inferencia.'

2.- Valavanis (1959): 'El objetivo de la econometría es expresar las


teorías económicas bajo una forma matemática a fin de verificarlas por métodos
estadísticos y medir el impacto de una variable sobre otra, así como predecir
acontecimientos futuros y dar consejos de política económica ante resultados
deseables.'

2
3.- Klein (1962): 'El principal objetivo de la econometría es dar contenido
empírico al razonamiento a priori de la economía.'

4.- Malinvaud (1966): '... aplicación de las matemáticas y método


estadístico al estudio de fenómenos económicos.'

5.- Chow (1983): 'Arte y ciencia de usar métodos para la medida de


relaciones económicas.' Desde esta perspectiva, la econometría no plantea el
problema de la dicotomía lógica entre deducción-inducción, sino que por el
contrario aboga por el enfoque sintético de aunar los conocimientos derivados
del enfoque deductivo (teoría), con los derivados de la observación e inducción
(datos). Y desde esta perspectiva la modelización econométrica es el único
camino existente para el estudio riguroso de los problemas económicos.

La economía como señala Fontela (1990), es una ciencia práctica, que


genera un conocimiento destinado a la acción eficaz: la economía estudia, en el
espacio acotado de las ciencias sociales, las relaciones de producción e
intercambio de bienes y servicios entre agentes sociales, cuyo conocimiento
científico debe facilitar su regulación para corregir objetivos de mejora en
términos de valores sociales generalmente aceptados. Luego, el avance
científico sin la contrastación empírica, la teoría sin los hechos, poco puede
aportar en una disciplina donde el fin último lo constituye la acción.

De esta manera, la “econometría” (Economía + Estadística +


Matemáticas) se utiliza como herramienta poderosa del análisis económico que
expresa la cuantificación de los modelos, la representación gráfica y
matemática del comportamiento de las variables teóricas, para explicar
fenómenos económicos y sociales de la investigación aplicada.

3
Cuadro 1: Econometría =Teoría económica + Estadística +
Matemáticas

TEORIA
HECHOS
ECONOMICA

MODELO DATOS TEORIA


ECONOMICO ESTADISTICA

MODELO DATOS
METODOS
ECONOMÉTRICO DEPURADOS
ECONOMÉTRICOS

ESTIMACION MODELO ECONOMETRICO

ANÁLISIS EVALUACIÓN
PROYECCIÓN
POLÍTICA
ESTRUCTURAL
4
1.2 Modelo y método econométrico

Los métodos econométricos pueden contemplarse como una extensión


de los métodos estadísticos, que por las circunstancias especiales del trabajo y
datos económicos, han tenido que desarrollar y configurar un cuerpo
consolidado de conocimientos que corresponden a la denominada econometría
teórica. Tales circunstancias especiales se deben a la forma en que se
desarrolla y obtienen los datos económicos, cuya naturaleza es
fundamentalmente no experimental. El investigador económico tiene muy poco
que hacer ante el experimento social. Tal experimento se realiza sin ningún
control y obtenidos sus resultados - datos, no será posible repetirlo para
modificar alguna de las condiciones de partida. Esta es la esencia de los
métodos econométricos y que caracteriza su actividad, la inferencia desde
datos no experimentales con un alto grado de incertidumbre.

El esquema anterior transmite cierta imagen de proceso terminal, con un


principio y un fin, pero la realidad práctica econométrica es diferente, al menos
por los siguientes rasgos:

1.- La etapa de estimación y contraste puede realimentar tanto el


planteamiento teórico de base como los datos utilizados, en un proceso de
mejora permanente.

2.- El proceso de estimación del modelo debe ser permanente, a la luz de


nueva información muestral.

5
3.- El output o utilización del modelo tendrá desviaciones sobre los
objetivos del proyecto investigador, por lo que será necesario una revisión
continua del proceso.

Lo anterior concluye a decir que la utilización de los modelos


econométricos para la proyección, son en realidad un proceso de modelización
econométrica, como una actividad continua y en el que se produce un
permanente aprendizaje sobre los resultados.

Los modelos económicos y econométricos por su evolución en el tiempo


(t) o estocásticos consideran a (t) una variable fundamental, ejemplo: Q t = F
(K,L). Puntualmente los modelos econométricos consideran relaciones
determinísticas entre variables y los modelos económicos suponen relaciones
exactas.
Ejemplo: Y = C+I+G+(X-M) o It = I (no laborales) + Salarios, donde:

Y = Ingreso Nacional (PIB)


C = Consumo
I = Gastos de Inversión
G = Gastos del Gobierno
(X-M) = Exportaciones Netas

Cuando se estima un modelo, este adquiere la estructura de una


ecuación dando valores a los parámetros definidos. El siguiente modelo, por
ejemplo puede expresar el consumo nacional en un período de tiempo:
Ct = 100 + 0.071, donde 0.071 es la propensión marginal al consumo.

1.3 Datos del modelo

6
En econometría se manejan tres clases de datos:
1. Series de tiempo
2. Corte transversal
3. Datos en panel

En igual forma, se pueden considerar tres tipos de variables:


1. Cuantitativas
2. Cualitativas
3. Proximales

1.4 Importancia de los modelos econométricos en la investigación


económica

Supongamos que hemos estimado el siguiente modelo:

Yˆ  ˆ1  ˆ2 t  ˆ3 t ; donde:


Yˆ es la variable dependiente (denominada también como endógena,
explicada, respuesta, regresando o predicha).
Xt , Zt, son las variables independientes (denominadas también como
exógenas, explicativas, de control, regresores o predictoras).

Con un conjunto de n datos de un período muestral (t = 1,2,3,…, n),


obtenemos los coeficientes β1, β2 β3, … βn , y podemos realizar:
1. Análisis de la relación entre las variables.
2. Análisis del tamaño y signo de los parámetros para
comprensión del fenómeno.
3. Predicción de valores futuros de la variable dependiente Yt.

7
4. Simular los efectos sobre la variable Yt+k , los cambios
estratégicos de las variables independientes.
Ejemplo:
El efecto que se produce en las ventas dado el cambio de precios y
aumento del gasto en publicidad.
Modelo: Ventast+k = β1 + β2 Precio + β3 Publicidad.

1.5 Fases para desarrollar un trabajo econométrico

La metodología econométrica se realiza a partir de las siguientes fases:


Fase 1. Elegir la fuente de datos o el campo de aplicación
Fase 2. Determinar un modelo, de acuerdo al conocimiento sobre
el tema
Fase 3. Obtener los datos y depurarlos
Fase 4. Apoyarse en un aplicativo econométrico o estadístico por
computador
Fase 5. Hacer pruebas de hipótesis para determinar la bondad del
modelo desde el punto de vista estadístico, la validez del mismo desde el
punto de vista económico y análisis de los resultados.
Fase 6. Retroalimentación de datos para perfeccionar el modelo,
hacer análisis de validación e interpretación dinámica en el tiempo

8
Capítulo II
MODELO DE REGRESION LINEAL GENERAL

El modelo de regresión trata del estudio de las relaciones entre variables


dependiente o explicada o endógena y una o más variables independientes,
explicativas o exógenas con el objeto de estimar y/o predecir un valor promedio
poblacional. Por ejemplo, predecir la cantidad de dinero como proporción de su
ingreso que la gente desearía tener en efectivo a diversas tasas de inflación, es
un tema que se puede resolver con un análisis de regresión.

2.1 Notaciones del modelo

Cuando dada una variable independiente (X), a través de una función


obtenemos una variable dependiente (Y) de respuesta, entonces. regresión es
cuando: X = f (X) , siendo f una función lineal.

La variable explicada o dependiente se denota por la Yi.


Las variables explicativas o independientes se denotan Xi1, Xi2, …, XiK

La forma del modelo de regresión lineal es:

9
Donde:
“i” : indica n observaciones muéstrales y puede ser: i = 1,2,…, n.
Ui : son los residuos o estimación del error (ε) desconocidos que es difícil
de encontrar y corresponden a las diferencias entre el valor original de las
observaciones de la variable Y y el valor estimado: y – ŷi .

Con base en lo anterior algo fundamental del modelo son las siguientes
expresiones:

yˆi  0  1xi
yi   0  1 xi   i

En la práctica tenemos una serie de observaciones y lo que se pretende


hallar es el modelo lineal que se ajuste a las observaciones, estas
observaciones son planeadas y se le puede tomar como un diseño de
experimentos.

2.2 Gráfica del Modelo

La gráfica es importante para el análisis de linealidad. Un modelo viable


de regresión lineal es un diagrama de dispersión de los puntos xi , yi en un
plano, que nos da una nube de puntos con tendencia a una recta; cuando se
observa esta tendencia en el plano, el modelo es viable, en caso contrario no es
funcional.

10
Gráfica 1. Gráfico de dispersión

Modelo Lineal Modelo no lineal

Si el modelo es funcional se hace la regresión con la ecuación de la recta


del tipo:
Y = βo + β1 X,
dónde el parámetro β1 es la pendiente de la recta.

2.3 Modelo de regresión lineal simple

En un Modelo de Regresión Lineal Simple, la variable explicada o


endógena (Y) , por ejemplo producción, solamente contiene una variable
explicativa o exógena, por ejemplo demanda f (D).

2.4 Modelo de regresión lineal múltiple.

11
Cuando el modelo contiene dos o más variables exógenas se llama
Modelo de Regresión Lineal Múltiple, ejemplo el consumo de los hogares (C )
puede contener variables explicativas como el ingreso de las familias (I) y el
precio de los productos (P), etc.

2.5 El término de error (ε) o residuo (U)

La relación entre las variables puede ser exacta o matemática, por


ejemplo: las funciones de demanda, producción y modelos macroeconómicos;
o, relaciones estadísticas que proporcionan valores relativos probables de Y
dados ciertos valores de X.

Así, un modelo econométrico es susceptible de error ( ) por su

naturaleza aleatoria en las respuestas de opinión, por la omisión de variables o


también cuando la información o los datos están alterados o sesgados, o no
disponemos de información confiable, etc.

2.6 Linealidad
Cuando en un modelo se habla de linealidad, se refiere a sus variables o
a sus parámetros. En el modelo de regresión lineal, nos referiremos a la
linealidad de los parámetros, que son los que se van a estimar para obtener la
Función de Regresión Poblacional (FRP), a partir de la Función de Regresión
Muestral (FRM).

Una FRM estocástica puede escribirse de la siguiente manera:

Yˆ  ˆ1  ˆ2 i  ˆi ,

12
Donde el apóstrofe “^” significa que son estimadores de los parámetros
poblacionales a partir de la muestra. Ahora, si la función de regresión muestral es
estocástica la “i”, representa el tiempo, como también puede ser espacial y la Ei
representa una perturbación o innovación.

2.7 Función de la Regresión Muestral

Con la FRM queremos que los parámetros estimados ( ˆ ) , estén lo


más cerca posible de los parámetros (  ) de la FRP. Para hacerlo, se reducen
al mínimo los residuos, entonces aplicamos el Método de los Mínimos
Cuadrados Ordinarios (MCO).

Para estimar los coeficientes “β”, lo hacemos construyendo estimadores


bajo el método de mínimos cuadrados, que es el más utilizado, ó también existe
el método de máxima verosimilitud.

2.8 Método de Mínimos Cuadrados Ordinarios (MCO)

El método de Mínimos Cuadrados Ordinarios (MCO) consiste en


minimizar la suma de residuos, esto es que:
n n

 Ui   ( y
i 1 i 1
i  yˆ i )

Para que la sumatoria sea diferente de cero y anule el efecto del error, se
adopta el criterio del Mínimo Cuadrado Ordinario (MCO), que consiste en la
Suma del Cuadrado del Error (SCE), por tanto, la FRM puede anotarse de la
siguiente forma para hacerla lo más pequeña posible:

13
n n n

U
i 1
i
2
  ( yi  yˆ i )   ( yi  ˆ1  ˆ2 xi ) 2
i 1
2

i 1

A partir de los MCO se escoge el parámetro ̂i , de tal modo que para

una muestra de datos la i = 1 sea lo más pequeña posible.


El procedimiento de minimización de la primera ecuación, utilizamos el
cálculo con derivadas parciales de la función respecto a cada coeficiente e
igualamos a cero.

Entonces tenemos que:


n n

U
i 1
i
2
  ( yi  ˆ1  ˆ2 xi ) 2
i 1

Derivando respecto a
ˆ1 y ˆ2 , tenemos:

Uˆi2
 ( yi  ˆ1  ˆ2 xi ) 2
 1
ˆ

 2( y  ˆ   x )(1)

= i 1 2 i

=
 2( yi  ˆ1   2 xi )(1)  0 , Uˆ 0
i

14
Igualamos la derivada a cero (0) y multiplicamos todo por (-1), así
cambiamos el signo (- ) y eliminamos el número 2.

Entonces: (1)

(2)

Estas son las ecuaciones normales (1) y (2) que quedan.


Ahora, si se divide (1) por n, entonces:

Reemplazando ˆ1 en (2) y como entonces:

Obtenemos lo siguiente:

15
, variables en desviaciones
respecto a la media. Es el estimador puntual.

La línea de regresión obtenida a partir de los anteriores estimadores


tiene las siguientes propiedades:

1. Pasa a través de las medias muestrales de X y Y

pues

2. El valor promedio de estimado es igual al valor promedio

del y observado

3. El valor de la media de los residuos es cero

4. Los residuos no están correlacionados con el valor


estimado de yi

como entonces:

16
5. Los residuos no están correlacionados con xi

Nota. Si la función de regresión se da con base en muestreo repetido,


válido por lo general en microeconomía (encuesta a hogares, empresas,
establecimientos públicos, personas); mediante encuestas por muestreo,
entonces es de esperar que la variable dependiente sea aleatoria, es decir,
estacionaria, y las variables explicativas sean fijas y el subíndice i corresponde
a la variación de la muestra aleatoria.
Otra cosa es si la regresión es con series de tiempo: aquí la i la
reemplazamos por la t y entonces la relación funcionaL pasa a ser dinámica y el
requisito es que las series sean estacionarias en el tiempo. Qué pasa si no son
estacionarias como sucede como la mayoría de las actividades económicas?.
Es necesario transformarlas; que en estadística quiere decir volverlas
estacionarias en varianza y en media. Cómo? Hay diferentes métodos formales
como ya los va a ver más adelante.

Aclaración: Por lo general los textos de econometría, ejemplo,


Econometría de Domadar Gujarati, no hace la anterior notación, éste plantea la
regresión con ejemplos de series de tiempo y consideramos que el investigador
se confunde cuando llega a la econometría, puesto que aquí en esta disciplina
el muestreo no es repetido como en la regresión lineal general ; sino en el
tiempo.
Básicamente en econometría no aplica el muestreo, hay unos datos que
el investigador toma uno por cada periodo; es decir, un hecho ya cumplido. Aquí
no se está ejecutando una investigación experimental. Consideramos que en

17
econometría cuando se busca la validez de un modelo no es tanto desde el
punto de vista estadístico, sino como es el comportamiento y su validez a
nivel económico.
Es por ello que científicos economistas consideran que un modelo
econométrico puede ser bueno desde el punto de vista económico, puesto que
funciona, mas no desde el punto de vista estadístico, como el caso de no
cumplir con ciertos supuestos de idoneidad por ejemplo la multicolinealidad.
Sin embargo, no quiere decir esto que un modelo no deba cumplir con ciertos
requisitos de idoneidad para poderlo validar, por ejemplo el famoso teorema de
GAUSS-MARKOV. Pruebas de idoneidad del modelo, que desarrollamos en un
aparte especial.

2.9 Supuestos de los estimadores

Una vez obtenidos los coeficientes “β” o estimadores “ ˆ ” del modelo


de regresión, estos deben cumplir los siguientes supuestos:

1. Supuesto de normalidad

Yi ~ N ( βo + β1 xi ; б2 ) ; donde б2 = V (Yi ),  i

De acuerdo al primer supuesto, ̂i es normal por ser una

combinación lineal de variables aleatorias normales con media:

 1 = E ( ̂i ) = β1

Luego, ̂i es un estimador insesgado de β1

18
xi  x
 б ; donde εi =
 ( xi  x ) 2
2
Varianza: V ( β1 ) = i i

2. Supuesto de Homocedasticidad

σ =σ σ = σ
2
2 2 2
1
2 =… n
2

Ejemplo: Veamos un ejemplo, sobre el concepto de regresión lineal:


(Tomado de: “Probabilidad y Estadística aplicada a la Ingeniería”.
Douglas C. Montgomery y George C. Runger. Pag. 527, 1996)

Una compañía productora de energía eléctrica está interesada en


desarrollar un modelo estadístico que relacione la demanda pico (Y, en kw) con
el consumo de energía total al mes (x, en kwh) de una muestra aleatoria de 50
usuarios.
La información de la muestra es la siguiente:

Y x
.79 679
.44 292
.56 1012
.79 493
2.70 582
3.64 1156
4.73 997
9.50 2189
5.34 1097

19
6.85 2078
5.84 1818
5.21 1700
3.25 747
4.43 2030
3.16 1643
.50 414
.17 354
1.88 1276
.77 745
3.70 795
.56 540
1.56 874
2.28 1543
.64 1029
4.00 710
.31 1434
4.20 837
4.88 1748
3.48 1381
7.58 1428
2.63 1255
4.99 1777
.59 370
8.19 2316
4.79 1130
.51 463
1.74 770
4.10 724

20
3.94 808
.96 790
3.29 783
.44 406
3.24 1242
2.14 658
5.71 1746
4.12 895
1.90 1114
.51 413
8.33 1787
14.94 3560

Prueba de aleatoriedad de la variable Y= Demanda pico(Kwh)

Run test :Picos


N(Picos <= 3.245000004768372) = 25
N(Picos > 3.245000004768372) = 25
obs = 50
N(runs) = 20
z = -1.71
Prob>|z| = .09

Como el valor de P-Valor (Prob>|z| = .09) es mayor al 5%, concluimos


que la variable, demanda pico, es aleatoria, es decir que la muestra de
demanda a través de las 50 observaciones son independientes, que se
traduce en lo que se llama en series de tiempo ESTACIONARIEDAD: igual
media y varianza.

21
Ahora vamos a mirar si ambas variables (x,Y) están correlacionadas, es
decir si existe entre ellas un grado de asociación lineal.

Gráfica 2: Demanda pico/hora

22
Como se puede observar gráficamente o método no formal, hay fuerte
asociación lineal; claro, desde el punto de vista matemático.

Por este diagrama de dispersión pueden pasar infinitas funciones


lineales simples, pero lo que se busca es encontrar una recta que se ajuste al
máximo a estos puntos observados. Decir esto entonces es hallar un modelo
lineal estadístico en donde los valores ajustados comparados con los valores
observados sean mínimos: es decir encontrar un modelo matemático con un
ingrediente más que son las perturbaciones o innovaciones : Ei
El modelo sería:

Yi = A + B*xi + Ei i= 1,2, …, 50

Antes de hablar sobre este modelo, digamos que el grado de asociación


lineal se mide en estadística mediante un parámetro llamado el coeficiente de
correlación, que en nuestro caso toma el siguiente valor:

Cuadro 2. Método Formal de Asociación Lineal


Correlaciones

Y x
Y Correlación de 1 ,8
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
x Correlación de ,8 1
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0

23
Correlaciones

Y x
Y Correlación de 1 ,8
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
x Correlación de ,8 1
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
**. La correlación es significativa al nivel 0,01
(bilateral).

Como se puede ver en la tabla, dicho coeficiente toma un valor estimado


de r=0.836 con un p-valor de 0.00, lo que indica que el verdadero valor del
parámetro (coeficiente de correlación poblacional) es diferente de cero; y por lo
tanto me está manifestando que existe una fuerte asociación lineal entre estas
variables.

NOTA 1: Lo que estamos manifestando con este ejemplo ilustrativo, es


lo que se llama en estadística un experimento aleatorio, y fue tomar de una
población estadística de usuarios de consumidores de energía, una muestra
aleatoria de 50 usuarios y medir su consumo mensual y los puntos críticos de
demandada.
Fuera de todo esto vamos a decir que dicho muestreo es repetido, en el
sentido de que un punto crítico de energía puede coincidir con varias demandas
de energía de usuarios. Y además se dice que el experimento es de corte

24
transversal puesto que se ejecutó en un solo periodo de tiempo y en un mismo
lugar o espacio.

En dicho modelo, tenemos algunos parámetros a estimar y son:


-El punto de corte de la función, A, que sería un punto crítico
mínimo de consumo de energía, bajo una demanda obviamente casi
nula.
-Un parámetro B, que sería un punto medio crítico de energía por
cada Kwh demandada.
-Y, perturbaciones estimadas, que son las diferencias entre los
valores observados al ejecutar el experimento aleatorio y los valores
estimados que nos brida el modelo estadístico.

NOTA 2. El modelo es estadístico por varias razones, digamos algunas:


1. La variable consumo de energía consumida mensual/usuario es
una variable aleatoria , y por consiguiente esta debe llevar inherente una
distribución de probabilidad, que se espera sea de naturaleza Normal.
2. La variable independiente puede ser fija o aleatoria.
3. En términos generales ambas deben ser aleatorias, que en
términos dinámicos( es decir remplazar la i por la t, tiempo) deben
estacionarias.
4. Las perturbaciones deben ser aleatorias, es decir de la misma
naturaleza que la variable dependiente. Más adelante se hablará de la
importancia que tienen estas innovaciones o perturbaciones en la validez
del modelo

Antes de estimar el modelo, por el método ya discutido antes, es


necesario depurar la información y es en el sentido de mirar información
extraña o atípica hay en la muestra.

25
Como se puede observar en el diagrama de dispersión, la observación #
50, es decir el dato número 50, a pesar de que posee una relación lineal con el
resto de la información, éste está muy distante de los demás y por lo tanto
puede estropear la estimación de los parámetros del modelo y alejarnos de la
realidad que nos brinda el experimento aleatorio.

La causa de información atípica en la muestra se debe a muchos


factores, que entraríamos a discutir más adelante; de todas maneras en estos
casos es necesario descartar este punto, pues se considera como una
información rara y no típica con el resto de las demás.

En una información de corte transversal es válido esta decisión cual es la


de eliminar esta información. En una información dinámica, en donde la
información aleatoria de variables esta dependiendo de un argumento como es
el tiempo no se puede hacer esto; y por lo tanto se hacen otros tipo de
tratamientos estadísticos.

Cuadro 3. Lista de índices de casos con anomalías

Caso Índice de anomalías


50 4,063
d
im ensi on 0

Seguidamente, después de eliminar esta información, procedemos a


estimar el modelo mediante el método de los mínimos cuadrados:

26
Primero que todo se quiere estimar los parámetros, A y B. Para esto es
necesario validar la información reflejado en la variación que ofrece la variable
dependiente, Y, a la parte predictiva o de regresión, y a la parte aleatoria cual
es las perturbaciones que en nuestro caso toman el nombre de residuales. En
otras palabras es saber hasta qué punto el modelo brinda unos estimadores
que tenga la propiedad de eficiencia, es decir en varianza mínima. Y para ello
se logra mediante la técnica de análisis de varianza, que en términos generales
es comparar mediante un estadístico, Fo, la relación en variabilidad que existe
entre la parte predictiva o de regresión y los residuales.

Esto quiere decir que en análisis estadístico para diagnosticar un modelo


que está reflejando un experimento aleatorio, es necesario valorarlo primero
que todo en varianza y después en media.

Analizar un modelo estadístico lineal en varianza es hacerlo con base en


los dos agentes que intervienen en él, cuales son : 1. La parte predictiva y 2. La
parte aleatoria o residual. Claro está que este análisis se hace con base en los
parámetros que intervienen en el modelo, cuales son A y B.

Validar A y B en varianza es probar lo siguiente:

H0 : A y B son iguales a cero (0).


H1 : Al menos A o B son diferentes de cero.

Es decir que existe significancia estadística o también que estas


variables realmente están asociadas linealmente y se pueda extraer alguna
interpretación económica ajustada a la realidad.

Cuadro 4: ANOVAb

27
Modelo Suma de Media
cuadrados gl cuadrática F Sig.
1 Regresión 160,679 1 160,679 64,786 ,000a

Residual 116,567 47 2,480


Total 277,246 48
a. Variables predictoras: (Constante), x
b. Variable dependiente: Y

Como el valor de P-valor < 0.05, nos indica que realimente existe una
relación funcional entre la demanda mensual de energía/usuario y los
consumos picos. Dicho de otra manera, esto quiere decir que al menos los
parámetros A ó B son significativos o diferentes de cero, obviamente en
varianza o en variabilidad.

Lo que se pretende con un modelo de regresión lineal es hacer


predicciones de una variable explicada o dependiente, condicionada a una
variable explicativa en este caso “Y”. Lo más adecuado en estadística para
estos casos, es lograr una expectativa o valor medio predictivo; es por esto
entonces, que es necesario validar los parámetros que involucran el modelo en
media.
En síntesis es necesario que el modelo sea preciso, en varianza; y
exacto en media, y que mejor que esto esté reflejado en sus parámetros que
conforman el modelo.

Para validar el modelo en media vamos a juzgar los parámetros,


mediante el estadístico T-Students., pues no sabemos como son sus varianzas
a nivel poblacional.

28
Cuadro 5: Coeficientesa
Modelo Coeficientes Intervalo de
no Coeficientes confianza de 95,0%
estandarizados tipificados para B
Error S
Límite Límite
B
típico Beta tig. inferior superior

1 (Constante) - , - , - ,
,476 507 ,939 352 1,496 544
x , , ,761 8 , , ,
003 000 ,049 000 003 004
a. Variable dependiente: Y

La tabla Coeficientes, nos indica que el modelo no posee constante,


puesto que el P-valor> 0.05; pues es lógico que a una demanda de energía de
cero (0 Kwh), el consumo pico será también de cero. A no ser que se presenten
situaciones extrañas o ajenas en el fenómeno aleatorio que se está analizando.

El parámetro B es significativo, es decir diferente de cero desde el punto


de vista estadístico. Lo que quiere decir es que por cada Kwh que demanda un
usuario seleccionado al azar, se espera que en promedio éste tenga una
cantidad pico de energía consumida de 0.003 Kwh/mes. Luego el modelo
estimado en forma preliminar estimado es el siguiente:

Y-estimado = 0.003*xi

Estoy manifestando que es un modelo estimado tentativo, puesto que es


necesario validarlo; y para llevar a cabo esto es menester que desde el punto
de vista estadistico los estimadores que conforman este modelo deben ser
MELI (mejor estimador linealmente insesgado).

29
Por tanto se requiere rastrear los residuales del modelo, que entre otras
cosas éstos deben cumplir con ciertas propiedades innatas a los residuales que
estan plasmadas en el teorema de Gauss-Markov: Insesgabilidad,
homocedasticidad y no-correlacion entre los residuales.

Gráfica 3: Gráfico de dispersión variable Y

Capítulo 3
HETEROCEDASTICIDAD Y AUTOCORRELACIÓN SERIAL

Dos supuestos del modelo clásico de regresión lineal es que la variable de

cada termino de perturbación i de las variables explicativas, es un valor

constante o igual a la varianza; este es el supuesto de la homocedasticidad ,


igual dispersión; cuando no se cumple, se dice que hay heterocedasticidad. La
correlación se define, como el grado en que las variables explicativas se
relacionan con la variable respuesta, en forma individual.

3.1 Heterocedasticidad

30
Un supuesto clásico de la regresión lineal es que las perturbaciones
aleatorias o términos del error ui de la función de regresión poblacional ajustado
por MCO (Mínimos Cuadrados Ordinarios) son homocedásticas (homo= igual),
es decir , todas tienen la varianza constante en distintas observaciones.
Cuando éste supuesto no se cumple, hay heterocedásticidad (hetero =
diferentes), fenómeno que puede causar la incorrecta estimación de los
parámetros del modelo.

Ejemplo de fenómenos más recurrentes de heterocedasticidad se dan en


variables macroeconómicas como la distribución del gasto, la renta, el ahorro,
los beneficios empresariales, el consumo, etc.

3.2 Causas de la Heterocedásticidad

Las varianzas de las perturbaciones (µi) pueden ser diferentes, por


ejemplo en la regresión del ahorro sobre el ingreso:

yi (ahorro )  1   2 xi (ingreso )  i ,

es posible encontrar que σi2 aumente con el ingreso, es decir, con un mayor
ahorro los ingresos poseen mayor variación o volatilidad, reflejándose en la
varianza de las perturbaciones (µi). Es por esto que algunas de las s razones
más frecuentes de la heterocedásticidad son las siguientes:

1. Información económica: La forma de ordenar las observaciones


siguiendo un orden alfabético o al modo como se han obtenido los datos, etc.
pueden causar observaciones excepcionales atípicas sin ninguna explicación
real que presenten valores grandes y pequeños en una determinada variable
explicativa. Por ejemplo, los gastos en las familias o de las empresas en

31
accidentes de trabajo según su tamaño, etc. inducen a que la varianza no sea
constante.
2. Omisión de variables de peso en el modelo. Una variable importante
en un modelo que no se tiene en cuenta para explicar a Y, genera
perturbaciones en la varianza.

3. Causas estructurales: surge con mayor frecuencia en datos de corte


transversal y en muestreo repetido, ya que a nivel espaciar pueden originar sus
variaciones un patrón definido.

3.3 Estimación del modelo de regresión en presencia de


Heterocedasticidad

Cuando se presenta heterocedasticidad,

K1 + µ1, K2 + µ2 + …, + Kn + µn permitiendo que Var (µi ) = σi2, las

perturbaciones están afectadas por sesgo que pueden variar, entonces:

Var (K1 + µ1, K2 + µ2 + …, + Kn + µn ) = Var (Ki + µi )


n

Con Ki = xi /  1
xi2 , entonces:

n n
ˆ
Var (  2 ) = 1
(x /2
Σxi2 )2 * σi 2
= 
1
xi2 / (Σxi2 )2 * σi2

Ahora, si σi2 = σ2 , entonces

ˆ
Var (  2 ) = σ2 / xi2 , homocedasticidad.

32
Un estimador puede ser consistente a pesar de su heterocedasticidad, es
decir, conforme el tamaño de la muestra se incremente de manera indefinida, el

ˆ 2 converge a su valor verdadero.

3.4 Estimadores MELI con heterocedasticidad – Mínimos Cuadrados


Generalizados (MCG)

La heterocedasticidad no destruye las propiedades de insesgamiento y


consistencia de los estimadores Mínimos cuadrados Ordinarios (MCO), sin
embargo, estos ya no son eficientes, ni siquiera asintomáticamente, es decir en
muestras grandes.

Para obtener el Mejor Estimador Lineal Insesgado (MELI), el método


de Mínimos Cuadrados Generalizados (MCG) es el más conocido capaz de
producir estimadores MELI. Se transforman las variables originales del modelo,
de tal forma que satisfagan los supuestos del modelo clásico de regresión y
luego se aplica el MCG.
El MCG tiene en cuenta la información explícitamente para dar distintas
ponderaciones a las observaciones que tengan mayor o menor variabilidad de
la variable dependiente Y. A mayor variabilidad, menor ponderación y viceversa.

En presencia de heterocedasticidad E(ε) = 0, y , E(xε) = 0, es decir las


variables explicativas del modelo siguen siendo independientes de los errores
de perturbación, pero al no ser constantes sus varianza en muestreo repetidos,
las pruebas “t” y ANOVA se invalidan estadísticamente, teniendo como
consecuencia estimadores ineficientes y poca validez de las pruebas.

Estimadores MELI, se hace necesario que cumpla los supuestos del


Teorema de Gauss-Markov, de tener varianza mínima y ser eficientes:

33
1. Insesgabilidad : E (εi) = 0
2. Homocedasticidad: Var (εi) = σ2
3. No auto correlación serial: E (εi , εj) = 0
4. Independencia: E (Xi , εi ) = ¿???

Sea :

yi  1   2 xi   i , donde i = 1.2…., n

se cumple homocedasticidad cuando la varianza es constante a través


de Y:

V ( y/xi ) = Var ( µi ) = σ2 , ∀i = 1,2,…,n

Gráfica 4: Distribución homocedástica

34
Ahora, cuando el modelo de regresión presenta heterocedasticidad en
las perturbaciones aleatorias (µi), sucede que:

V ( y/xi ) = Var (µi ) = σi2 , ∀i = 1,2,…,n

Gráfica 5: Distribución heterocedástica

Para satisfacer la condición de homocedasticidad es necesario:

yi  1   2 xi  i
, donde i = 1.2…., n ,

Dividimos (1) por σi (MCG), entonces tenemos que:

yi  1   2 xi   i
,
σi σi
Xoi = 1 , para cada i = 1,2,…, n

Yi* = β1* xoi + β2* x1i + µi* , de tal manera que


i
Var ( µi) = Var ( ) = Var (µi) / σi2 = σi2 / σi2,

35
Esto significa que: Var (µi*) = 1, constante (K)

Una vez corregido el sesgo de las perturbaciones (µi), a través de (µi*),


estimamos los parámetros β1* y β2* por el método tradicional de MCO.
Veamos:
n
Minimizando: Σµi
2*
= Σµi2 / σi2 = 
1
2
wi µi2 , con wi = 1 / σi ,

Entonces de (2) : µi* = Yi* - β1* xoi - β2* x1i ,


Elevando al cuadrado µi2* = (Yi* - β1* xoi - β2* x1i )2 ,
Ahora extendiendo a “n” individuos:
n n

Φ (µi) = 1
µi2* =  (Yi* - β1* xoi - β2* x1i )2
1

 (Yi )  (Wi )
0 0
1* , y  2*
Tenemos:
 ( i* )
 2  wi ( yi   1*   2*  xi )( 1)
1 *

 ( i* )
 2  wi ( yi   1*   2* xi )(  xi )
 2 *

 wi yi   1*  wi   2*  wi xi
(3)

36
 wi xi yi   1*  wi xi   2*  wi xi
2

(4)

Resolviendo (3) y (4) simultáneamente:

 x  w x y    w x w y 
ˆ2* 
i i i i i i i i

 w  w x    w x 
i i i
2
i i
2 (3)

ˆ1*  Y *  ˆ2* x * (4)

Var (ˆ2* ) 
 w  i

 w  w x   w x 
i i i
2
i i
2 (5) ,

con Wi = 1 / σi2, entonces,

 *2
i =  Y i
*
 1* X oi
*
  2*  2

Tenemos que,

2
 i2 y x x 
  2     i  1* 0i   2*  i  , como wi = 1 / σi2 ,
i  i i i 
entonces:

 wi yi  1*   2* xi  (6)


n n 2

 wi i 
1 1

37
Es decir que los mínimos cuadrados generalizados (MCG), es una suma
ponderada de residuales al cuadrado. Lo que realmente muestra los MCG, es el
peso asignado a cada observación inversamente proporcional a σ i. De este
modo podemos llamar ecuación número (6) como Mínimos Cuadrados
Ponderados (MCG).
Si, wi = 1 / σi2 = w, es decir, w = 1 / σ2 , entonces
estamos hablando de homocedasticidad, y:

y   1 x 0 i   2 xi 
n n 2

Σ µi2 = w 
1
i i
2

1
i

 
n 2

=  wi yi  1*   2* xi
1

La varianza de ˆ2 , bajo heterocedasticidad es:

 xi2 i2 /  xi2 
n
ˆ
2
2  , si esto se presenta,
1

entonces:

Var ( ˆ2 )  Var ( ˆ2* )


Lo anterior quiere decir que   es muy grande, y las
Var ̂ 2
pruebas “t” y “F” dan resultados imprecisos.
Conclusión: En caso de heterocedasticidad aplicar el modelo de
regresión MCG, pero en la práctica esto no es fácil de aplicar.

3.5 Métodos para detectar heterocedasticidad

Para detectar la heterocedasticidad en las perturbaciones de los


residuos, se pueden aplicar procedimientos formales e informales mediante

38
gráficas, para observar cómo se comportan los residuales con base en los

valores estimados de la variable ( Yˆi ) y la variable predictiva ( Xi); también la

experiencia del investigador con base en el problema que está manejando, es


decir, su naturaleza.

3.5.1 Método gráfico: ̂i Vs. ˆ i2

Es un método informal que consiste en hacer una regresión bajo el


supuesto de que no existe heterocedasticidad y luego examinar los residuos
con la variable explicada Y para ver si hay alguna tendencia de
comportamiento.

Se puede presentar un gráfico amorfo sin patrón sistemático con posible


homocedasticidad en los datos:

Gráfica 6: Gráfico amorfos

39
(a) σ2 constante es lineal hay Homocedasticidad

(b) σ12 ≠ σ22 ≠ … ≠ σi2 hay Heterocedasticidad

40
(c) Gráfico curvilíneo es cuadrático hay Heterocedasticidad

(d) Gráfico con patrón definido relación cuadrática con


heterocedasticidad.

41
(e) También se pueden graficar ˆ i Vs. Xi, es decir los residuales
2

al cuadrado con las variables explicativas.

En un modelo de regresión lineal simple, los gráficos ˆ i2 Vs. ̂i e

ˆ i2 Vs. Xi, son similares, pero esto sucede cuando el modelo involucra 2 o

más variables explicativas.

3.5.2. Prueba de Park

Es un método formal de Park suponiendo a en función de la variable

explicativa , esto es:

donde es estocástico.

42
Como no se conoce, entonces se remmplaza por las perturbaciones

o los errores como aproximación y efectuar la siguiente regresión:

, si hallamos:
β ≠ 0 , entonces hay heterocedasticidad

β = 0 , entonces hay homocedasticidad

Procedimiento.

1. Se estima el modelo

Y  1   2 i   i
Ignorando el problema de heterocedasticidad

2. Calculamos los residuales elevándolos al cuadrado y luego


obtenemos el Ln : Esta sería la variable explicada.

3. Se saca el Ln de Xi, esta sería la variable explicativa.


Se corre el programa de regresión, de tal manera que

Z i     *i   i Z i  Lnˆi2
,

X i*  Ln X i
4. Se juzga con el estadístico “t” la hipótesis:
Ho : β = 0
H1 : β ≠ 0

Ahora si,

43
Ho : β = 0, entonces hay homocedasticidad
Ho : β ≠ 0, entonces hay heterocedasticidad

3.5.3. Prueba de Glejser:

Comparable con la Prueba de Park, sugiere que después de obtener los

residuales ˆi2 de la regresión, selecciona el que se cree está asociado con

 i2 , esto es:

3.1

3.2 Uˆ i  1   2 xi  i

1
3.3 Uˆ i  1   2  i
xi
1
3.4 Uˆ i  1   2  i
xi

3.5 Uˆ i  1   2 xi  i

3.6 Uˆ i  1   2 xi2  i

(3.5) y (3.6) no son lineales en parámetros, aquí E ( ̂i ) ≠ 0 , son

serialmente correlacionados; los cuatro primeros, (3.1), (3.2), (3.3) y (3.4) son
satisfactorios para detectar heterocedasticidad pero con muestras grandes.

44
3.5.4 Prueba de Correlación de Spearman

Para este contraste se supone que la varianza de los residuales de

error depende directamente de los valores de la variable , por tanto el


tamaño de los residuos debe estar relacionado con el tamaño de dicha variable.

El coeficiente de correlación de rango de Spearman es el siguiente:

Donde es la diferencia en los rangos asignados ( d i =rango ̂i -


rango xi ) a las dos características diferentes del i-ésima individuo u

observación y n es igual al número de individuos u observaciones clasificadas


por rangos.

Procedimiento:

Los pasos para detectar heterocedasticidad en un modelo lineal simple por


este contraste son:

1. Ajustar la regresión Yi Vs. xi y obtener los residuales ̂i .


2. Se hacen ̂i y se ordenan

3. Se juzga la hipótesis:

45
Ho: S  0 (homocedasticidad - independientes )

H1 : S  0 (heterocedasticidad) , versus . con el

estadístico de prueba “t”:

Si to > tn-2; 1- d/2, entonces hay heterocedasticidad S  0


Si el modelo consta de dos o más variables explicativas, se prueban

separadamente. Es decir, ̂i Vs. xi , i = 1,2,…,n , se utiliza como

estdáitico de prueba a “to” en cada caso.

VER EJEMPLO PAG. 366 GUJARATI

3.5.5. Prueba de Golfeld – Quandt

Esta prueba parte del supuesto de que la magnitud de depende de

una variable , y que dicha dependencia es positiva.

Considérese el modelo Y  1   2 i   i
;

Si
 i2   2 xi2 ; la varianza ( Ui) = está realcionada

positivamente con Xi, si Xi es grande, entonces


 i2 se incrementa, lo que
probablemente presentaría heterocedasticidad.

Procedimiento:

46
1. Ordenar xi, x1<x2<…, xn-1<xn , es decir, de menor a mayor
2. Omitir las observaciones muestrales centrales.

3. Formar dos grupos de datos del tamaño cada uno.

(Para hallar p hacemos: ó )

Si n = 30, tomar p = 4
Si n = 60 ó 90, tomar p = 10 ó 16

4. Por separado ajustamos las regresiones para los dos grupos y


obtenemos las respectivas sumas residuales al cuadrado, es decir, SCR 1
y SCR2 . La SCR1 representa de la regresión que tenga la varianza más
pequeña y la SCR2 representa la SCR de la regresión del grupo con
varianza más grande.

5. Obtenemos los grados de libertad (gl) para el primer grupo, así:

gl 
n  c   k ó gl 
n  c   2k , donde:
2 2

k, número de parámetros a ser estimados incluyendo el


intercepto.
k = 2, función de regresión lineal simple, β1, β2

6. Calculamos la razón SCR1 < SCR2, para buscar significancia y


rechazar a Ho.

  SCR2 / gl1
SCR1 / gl2

  Fv1, v2; v1  v2  (n  c  2k ) / 2

47
Si λ > F, entonces se rechaza homocedasticidad, por tanto la
heterocedasticidad es probable.

Cuando:

Yi  1   2 1i  3 x2i   4 x3i  i ,

Se puede hacer la prueba con cualquier Xji; j = 1,2,3 y 4 ; también


se puede aplicar la Prueba de Park, para cada una de ellas.

EJEMPLO PAG 369 GUJARATI

3.5.6 Prueba Breusch – Pagan – Godfrey.

El modelo

Yi  1   2 1i  ...   k xkk i  i


, suponga

que la varianza
 i
2
de
i , está

 i2  f (1   2 x1i  ...   k xk i ) , es decir:

 i2  f (1   2 x1i  ...   k xk i  vi ) , esto es que,


 i2 es una función de linealidad de las X; si se cumple que:

α2 = α3 = …= αk = 0, entonces

Var (
i ) = 2, es homocedástica.

48
Procedimiento:

1. Determine el modelo a estimar

Yˆi  ˆ0  ˆ12i  ...  ˆk kk i  i

2. Calcúlense los residuales


ˆ i : ˆ1 , ˆ 2 ,..., ˆ n 

b) Obténgase ˆ 2   ˆi2 / n , máxima verosimilitud.

c) Constrúyanse los
i , es decir i  ˆ i2 / ˆ 2 . i = 1,2,…,n.

 i2  i  1   2 x2 i  ...   k xk i  vi
d).Estime la SEC (suma explicada de cuadrados) y calcule:

 ˆ 
n 2

Θ = ½ (SEC); donde, SEC = ˆ


i , suma de cuadrados
1

debida a la regresión. Si (µi) ~ normales y si hay homocedasticidad, y “n” es


grande:

  (2m 1) . Asintótica, donde m = Número de parámetros a estimar

e). Si    (2m1) , entonces hay heterocedasticidad.

3.5.7. Prueba General de White.

Se utiliza por ejemplo cuando se procesa un modelo del tipo:

Yi  0  1 2i  3k3i  i

49
Procedimiento:

Con base en un modelo de regresión estimado

Yˆi  ˆ1  ˆ2 2i  ˆ3k3i

1. Se calculan los
ˆ i : ˆ1 , ˆ 2 ,..., ˆ n  así : ˆ i  Yi  Yˆi

2. Se hace análisis de varianza


ANOVA
F. de V. SC GL CM F P
Modelo SEC k – 1 SCE/k-1
Residuo SRC n-k SRC/n-k
Total n-1

SEC / k  1
F0 
SRC / n  k

3. Se efectúa la siguiente regresión:

ˆ i2  1   2 x2 i   3 x3i   4 x4 i   5 x32i   6 x2i x3i

Nota: Se pueden buscar regresiones con potencias más altos


Un atajo de la Prueba White:

ˆ i2  0  1Yˆi   2Yi 2  i
Yˆi : Valores estimados del modelo corregido.

4. Se obtiene R2 (Coeficiente de correlación)

nR2~  m (asintótica), donde m = Número de regresores. Sin contar con αo


2

50
ˆ2
Si: n Ro >  m (tabulado), entonces hay heterocedasticidad.
2

ˆ2
Si: n Ro <  m (tabulado), entonces hay homocedasticidad, es decir,
2

α2=α3 = …=α6 = 0

HETEROCEDASTICIDAD ( Continuación ) WHITE


…distribución y por lo tanto con varianza distinta.

Varianzas y Errores Estandar Consistentes con Heterocedasticidad de


White (Muestras Grandes)

Supuesto 1. E ( i2 )   2 * X i2

 i2

X2

Yi  0 1 X i i
  
Xi X i Xi Xi
0
Yi*    1  i ; f ( 2 Z i ) ; entonces:
Xi

51
 i2  E ( i2 )  2 i2
Var( i ) = E(  = E  2  =
2
i )
xi2
=
xi2
= 2;
 xi 
Luego procedemos a hacer el análisis de regresión:
Yi 1
Yi*  Vs.
Xi Xi
Una vez se obtenga el estimado de :

1
Yˆi *  ˆ 0   1* , se multiplica por Xi y volvemos al estado original.
Xi

Supuesto 2: E (  i2 )   i2   2 * X i

 i2

X2

Yi  0 1 X i  i
  
Xi xi xi xi

52
0
Yi*    1 x i  i
xi

  i2  E ( i2 )  2 xi
E(  = E 
2
i ) =
xi
=
xi
= 2
 xi 

E(i2 )   2 E(Yi )
2
Supuesto 3.

̂ 2

E (Yi )   o  1 xi
Yi  X 
 0  1 i  i , o mejor:
E (Yi ) E (Yi ) E (Y ) i E (Yi )
Yi  X 
 0  1 i  i
(Yˆi ) (Yˆi ) (Yˆ ) i (Yˆi )
 i  ( i2 )  2Yˆi 2
E( 2
=  ˆ
i )  , entonces = E ˆ 2 = ˆ 2 =
Yi
2
 Yi  Yi

53
Si : Lim E( Yˆi ) = E( Yi )

n 

Supuesto 4. LnYi  1   2 LnX i   i


Nota: La transformación logarítmica “comprime” las escalas en las cuales
están medidas las variables y por tanto reduce una diferencia entre dos valores.
Así, una diferencia de 10 veces, se reduce a 2 veces.
Ejemplo: 80 = 10 veces el número 8
Ln 80 = 4.3280 es casi 2 veces el número 8, es casi 2 veces tan grande
como Log 8 = 2.0794

Ventajas:
Este supuesto es muy popular en la economía empírica. Tenemos que:

1  Coeficiente de regresión. Mide la elasticidad de Y con respecto a X


Es decir, que un cambio porcentual en X refleja un cambio porcentual en
Y.

En cambio, en el modelo original 1 mide la tasa de cambio del


consumo medio (Y) por un cambio unitario en el ingreso (X). Así que:

Ci (Consumo)   0  1 ( Ingreso )   i
Limitaciones:
En una regresión múltiple no se puede saber que variable explicativa a

transformas, sin embargo, se puede graficar cada xj Vs. i2 ; j= 1,2,…,k para
saber de manera informal si ésta presenta algún patrón definido.
Cuando “Y” o las variables explicativas X1i, X2i, …, Xki tienen valores
negativos o ceros, no se pueden transformar mediante la función Ln.

54
Cuando se presenta correlación espuria (Karl Pearson), es cuando Y Vs.
X no están correlacionados, pero al transformarlas resulta que si lo son. Es
decir:
Yi 1
, y , si están correlacionados.
Xi Xi
Cuando las muestras son pequeñas, las diversas transformaciones son
de mucho cuidado.
Correlación espuria: Si es inducida por el método de manejo de datos y
sin embargo no está presente en la información original.
Nota (1): Una varianza de error desigual vale la pena corregirla sólo
cuando el problema resulta severo. (Jhon Fox)
Nota (2): No es posible desarrollar conclusiones respecto al daño
producido por la heterocedasticidad.

En forma general (Kamenta,1971):

E ( I2 )   I2   2 .wi ; donde:

 = mide el grado de heterocedasticidad , si   0 el modelo será


homocedástico. Los valores de  se buscan en un rango entre 0≤  ≤2

W i = Es cualquier variable que causa el problema de heterocedasticidad.


Cuando hay más de una variable Xki que causa heterocedasticidad,
entonces, se recomienda utilizar el valor estimado de la variable dependiente

ˆ
( Yi ).

55
n
Var ( ˆ )   2 /
1 xi
2
i MCO

Var ( ˆ1 ) 
w i

( wi )( wi xi2 )  ( wi xi ) 2

Wi  1 /  i2
Yi  0 1 X i  i
  
i i i i
Yi *   0 x 0*i   1 xi*  i
i2  (Yi   0 x0*i  1 xi* ) 2

 i2   (Yi  0 x0*i  1 xi* ) 2


Yi 1 X
  (   0  1 i ) 2
i i i
n
1
  (Yi   0  1 xi ) 2
1 i
   wi (Yi   0  1 xi ) 2 ;
 
Ahora resolver para β0 y β1: 0 ^ 0
0 1

Nota (3). Cuando la variable ( ˆ1 ) bajo MCO, que la variable ( ˆ1 )
bajo MCG, implica que hay problema de heterocedasticidad.
Pagina 644 Gujarati

56
3.5.8 Medidas Remediales

Los residuos pueden ser exactos, pero no precisos. Es decir, pueden ser
insesgados, pero no eficientes. La heterocedasticidad es diferente a la
propiedad de insesgamiento, pero los estimadores no son eficientes ni siquiera
asintóticamente, en muestras grandes.

Si hay heterocedasticidad, entonces:

E( ̂ ) =  , pero, Var( ̂ )> Var( ̂ o ), es decir Var( ̂ ) es


grande.

No tienen varianza mínima:

Cuando  i2 es conocida  Métodos Mínimos Cuadrados Ponderados

(MCG).
Yi 1 1 i
= 1   2 x2i 
i i i i
var( i )  i2
De tal manera que Var ( i /i ) =  2 1
 i2 i
Si tenemos el siguiente modelo:

Yi  1   2 i  i
,
y hay presencia de heterocedasticidad, entonces:
Ln Yi = β1 + β2 LnXi + µi.

Ventaja: La función de Ln reduce el nivel de dispersión y comprime la


escala, y se interpreta en téminos de elasticidad (%).

57
El coeficiente de regresión β2 mide la elasticidad de Y con respecto a “x”,
es decir, __________ cambio porcentual Y ante un cambio porcentual en “x”.
Ejemplo: Si llamamos a Y = Consumo, x = Ingreso; entonces el
parámetro β2 mide la elasticidad del ingreso.
Mientras que en el modelo original, β 2 mide solamente la tasa de cambio
promedio del consumo por un cambio unitario en el ingreso, el consumo
promedio será β2.

(Prueba de Heterocedasticidad de White. 475-476 Greene)

3.5.9 Comentarios sobre Heterocedasticidad

1. En modelos econométricos será imposible observar


directamente la heterocedasticidad ya que, en la mayoría de los análisis
solo dispondremos de un solo valor de Y para cada valor de X y por tanto

un único valor de ˆ , por tanto resulca casi imposible observar si las


varinzas de de las ε para cada valor de X es la misma.

Es por esto que los métodos para detectar heterocedasticidad se


apoyan en los residuales por MCO.

2. Antes de aplicar los métodos, debemos preguntarnos por la


existencia de heteroicedasticidad desde un punto de vista teórico,
considerando la naturaleza del problema analizado.

Las exógenas incluidas, en definitiva la propensión teórica del


modelo hacia la heterocedasticidad.

58
ˆ

0 t

3.7 Autocorrelación Serial

Hay autocorrelación serial, cuando sometemos los residuales, i2 , de


un análisis de regresión en el tiempo (t), y observamos gráficamente un patrón
definido. Método informal.

Hay autocorrelación serial cuando: E(  i *  j )  0 , i  j.


Cuando se presenta una huelga en una empresa, en un período
determinado, esta puede afectar la producción en el período siguiente.

Si E(  i ) = 0, Var (  i ) = σ2 , cov (  i *  j ) = 0,  i  j = 1,2,…,n


Entonces decimos que los residuales no están autocorrelacionados en el
sentido débil, es decir, que los residuales se generan independientemente.
Autocorrelación serial = Correlación serial

3.7.1 Algunos patrones de autocorrelación:

Supongamos que se ha estimado un modelo por MCO y representamos


gráficamente los residuos resultantes, en la siguiente gráfica del SPSS:

59
El patrón de estos residuos nos muestra que el signo de un residuo es un
buen indicador del signo del residuo en el período siguiente y esto es
autocorrelación.

Así, el termino correlación se puede definir como la correlación entre


miembros de series de observaciones observadas en el tiempo o en el espacio.
En el contexto de regresión, el modelo clásico de regresión lineal supone que
no existe tal autocorrelacion en las perturbaciones.

60
3.7.2 Causas de autocorrelación

Si el supuestos del modelo de regresión lineal de la aleatoriedad

de los errores (εi ) o no correlacionados, no se cumple, se tiene el problema de


correlación serial o autocorrelación.

61
Una característica relevante de las series de tiempo económicas es la
inercia o lentitud. La inercia de algunas series de tiempo económicas, como el
PNB, índices de precios, producción, empleo, desempleo, presentan ciclos
económicos.
Generalmente estas actividades económicas tocan un fondo y con base
en un correctivo comienzan a recuperarse, creciendo paulatinamente, y
necesariamente el crecimiento de esta actividad económica en un período “t”,
está dependiendo del período inmediatamente anterior, por lo consiguiente se
cree que se produce la autocorrelación serial.

Es ahí entonces donde se considera que las observaciones sucesivas


sean interdependientes. La autocorrelación definida como la correlación entre
los datos de una serie ordenada en el tiempo o en el espacio, presenta
diferentes motivos de correlación serial o autocorrelación,, algunos de ellas son:

http://www.virtual.unal.edu.co/cursos/sedes/manizales/4030006/lecciones
/capitulocuatro/4_5_5.html

3.7.3 Sesgo de especificación:


Cuando se construye un modelo de regresión y se grafican los errores o
residuos, si se observa un patrón muy definido en el comportamiento de estos
puede sugerir que en el modelo falta o faltan algunas variables o que el modelo
elegido no es el edecuado. Este es el caso del sesgo de especificación debido a
una variable excluída,

1. Variables excluidas
El caso de variables excluídas generalmente se plantea para comenzar
un modelo parsimonioso, es decir un modelo lineal que cumpla con las
expectativas a priori de la actividad económica, por ejemplo:

62
Yi  0  1 x1i   2 x2i   i ; i = 1.2, …, n
Pero sucede que al estimar el modelo de regresión

Yˆi  ˆ0  ˆ1x1i  ˆ2 x2i

Se observa que las perturbaciones estimadas o residuales


ˆi =
i ,
siguen un patrón sistemático de acuerdo a las gráficas discutidas anteriormente.
Se sospecha entonces que estas perturbaciones involucran otras variables
explicativas que no se tuvieron en cuenta en el modelo.

Es decir:
 i  3 x3i  i , por lo tanto el modelo sugerido sería
introduciendo las variables excluidas:

Yi  0  1 x1i   2 x2i  3 x3i  i , donde

 i  N (0,  2 ) , E(  i 1 s ) = 0, i  s = 1,2,…, n.

2. Forma funcional incorrecta

Supongamos que una actividad económica sigue el siguiente modelo:

Yi   0  1 x1i   2 x22i   i
, pero se está ajustando el
modelo

Yi   0  1 x1i  i

CMg CMg = Costo Marginal

Producción

63
Se puede observar que la nube de puntos o diagrama de dispersión no

es lineal, por tanto la perturbación i , está sobreestimando parte de la

variable explicativa. Es decir:

i   2 x12i   i
Por lo tanto, como se decide sobre una forma funcional incorrecta,
entonces se reflejará autocorrelación.

3. Fenómeno de la Telaraña

En la sobreoferta de productos agrícolas, por lo general los precios en un


período “t”, están dependiendo de los precios del período anterior, es decir:

 t (oferta)  1   2  t 1   t
Si los precios permanecen en la baja, lo más probable es menos
producción en los períodos futuros. Si los agricultores tienen una sobre
producción en el período “t”, se entiende que ellos van a producir menos en el

período siguiente y por tanto las perturbaciones


 t no son aleatorias , sino
tendenciosas y por tanto se presentará autocorrelación serial, lo que produce un
patrón de telaraña.
Rezagos: ( ver página) : Del siguiente modelo económico
macroeconómico
http://es.scribd.com/doc/42976036/AUTOCORRELACION

Ct = βo + β1 It + β2 Ct-1 + εt

64
Indica, el consumo de las personas (Ct), que por lo general fuera de los
ingresos (It), también dependen del consumo del período inmediatamente
anterior. Esto se conoce como autoregresión.

4. Manipulación de datos:

En una base de datos, por ejemplo, mensual, se puede expresar


trimestralmente, procedimiento que produce un suavizamiento de los datos,
enmascarando posiblemente las “fluctuaciones fuertes de la actividad
económica” y por consiguiente presentará posibles patrones sistemáticos en las
perturbaciones.
Las autocorrealaciones o correlaciones seriales, son frecuentes en todos
los modelos de la actividad económica, son positivas porque las series son
crecientes; sin embargo, también son negativas en el caso de la depreciación o
devaluación por el efecto tiempo, como se presentan en las siguientes gráficas:

65
3.7.4 Presencia de autocorrelación:

Supóngase el siguiente modelo:

Yt   0  1 xt  t ; t  1,2,..., n

Se puede observar cierto patrón lineal de µ t, como en la siguiente gráfica:

t  t 1   t ; 1    1,   1 , donde :
 = coeficiente de correlación serial del orden 1 AR (1 ) o de rezagos.

3.7.5 Explicación de la correlación serial:

Cuando una perturbación ejercida por una observación (i) “no está
influida” por la perturbación de una observación (j); i = 1,2,…, n, se presenta
gráficamente el siguiente patrón:

66
Y Y = βo +β1xi+εi

Heterocedasticidad*

*
* *

* * *
* * εJ *
* *
* εI
* Autocorrelación

E (εi * εj ) = 0 , si εi y εj son independientes,

Entonces E (εi * εj ) = E (εi ) x E ( εj ) = 0


Cov (εi , εj ) = E (εi * εj ) = 0; i  j = 1,2,…,n
= E (εi ) x E ( εj ) = 0

Y = Producción
X1 = Insumos de trabajo
X2 = Capital

Hay algo fortuito en una empresa en un período t (por ejemplo, una


huelga), en donde se presenta una disminución de producción en ese período.
Entonces es de esperarse que la producción después de la huelga, no esté
afectada para el siguiente período t+1. No existiría ninguna razón que la
producción en el período t+1 este afectada por períodos anteriores. Si sucede
lo contrario, entonces E (εi * εj ) ≠ 0

67
Si miramos el análisis en un corte transversal, por decir, consumo Vs.
Ingresos familiares, no es de esperar que el aumento de los ingresos de una
familia ( i ) no altere el consumo de otras familias. (Correlación espacial).
Esto es volver al modelo de regresión de dos variables

Yt  1   2 X t  t ,
Las perturbaciones o el error se puede generar de la siguiente manera:

t  t 1   t

Donde  (rho) es el coeficiente de autocovarianza y


 t es la
perturbación estocástica que satisface los supuestos MCO a saber:

E ( εt) = 0

Var (εt ) = бε2

Covar (εt , εt+s) = 0, s ≠ 0

También
 t , puede tener esta tendencia:

t  1t 1  2 t  2   t
Entonces, de este modo tenemos que si:
t  t 1   t

var t   2 var( t )  var(  t )

var t   2 var( t )   2
, entonces:

2
var( t ) 
1 2
cov( t , t s )  E ( t * t s )  E ( t * t s )
t , t s  t ( t s1   t s )

68
t , t s  ( t 1   t )( t s1   t s )
t , t s   2 t 1t 1s  t 1 t s   t t 1s   t  t s )

Si s = 0, entonces:

t2   2 t 1t 1  t 1   t   t t 1   t2


E ( t2 )   2 E ( t21 )  E ( t 1 t )  E ( t t 1 )  E ( t2 )
 2   2 var(  )   (0)   (0)   t2
 t2
(1   )        
2 2 2 2

(1   2 )

Ahora, si s = 1, tenemos que:

t t 1   2 t 1 t 2  t 1 t 1   t  t 2   t  t 1


E ( t t 1 )   2 E ( t 1t 2 )  E ( t 2   t 1 )  E (  t t 2 )  E ( t  t 1 )
 t  t  s   2  t 1  t 1 s  t 1   t  s   t  t 1 s   t  t  s

Si s = 1, entonces:

t t 1   2 t 1 t 2  t 1 t 1   t  t 2   t  t 1


 t  t 1   2 (  t 1  t 2 )  t 2   (  t 2   t 1 ) t 1   t  t 2   t  t 1
E (  t  t 1 )   2  E (  t2 2 )  E ( t 1   t  2 )   2 E (  t  2  t 1 )  E ( t21 )  E  t  t  2   E  t  t 1 
E( t  t 1 )   3 2   2

 2
E(t t 1 )   (      ) ;
2 2 2
pero  2
 ,
1 2
entonces:

69
 2
E (  t  t 1 )   (   
2 2
)
1  2

 2
E (  t  t 1 )    (1 
2
), por tanto:
1  2

 2
Cov( t , t 1 )  
1  2
. .
. .
. .

 2
Cov( t , t s )   s

1  2

 t , también puede tener la siguiente forma


t  t  t 1 , donde

, es el término de perturbación aleatoria, con media cero y varianza

constante. La notación   < 1, conocida como media móvil de primer orden


MA(1), es decir el promedio de dos variables aleatorias adyacentes. También se

puede dar que t esté generando___ por la combinación de los dos

procesos:

t  t 1  t 1  t ARMA (1,1)

Combinación de los esquemas autoregresivos de primer orden y media


móvil de orden uno.
El esquema AR(1) es el más usado en la teoría económica como en la
empírica.

70
cov( t , t 1 ) E t t 1 
 
V ( t )V ( t 1 ) Var ( t )

Si Var ( t )  Var ( t 1 )  Principio de Homocedasticada

y 
Es la pendiente de la función de t

Bajo MCO:

x y t t
ˆ  i

x
2 2
t

AR (i):

 n 1 n2

2 2 2  x x t t 1 x x t t 2
var( ˆ2 )    1
 2 1
 ...   n1
x 2
t  t 
x 2

x
n
2
x
n
2

 1
t
1
t

ˆ 2
var(  2 )  n
 xt2
; en ausencia de autocorrelación serial.

Bajo autocorrelación serial , la var( ˆ2 ) de las anteriores dos

fórmulas son linealmente insesgadas, pero NO poseen varianza mínima, es


decir, no son eficientes.

71
3.7.6 Estimador MELI en presencia de Autocorrelación:

Un estimador MELI en presencia de autocorrelación en modelos de dos


variables y suponiendo el proceso AR(1), es demostrable que el estimador

MELI de ̂ 2 , está dado por la siguiente expresión:

 (x t  xt 1 )( yt  yt 1 )
ˆ2 MCG  2
n
C
 (x 2
t  xt 1 ) 2

Donde, C es un factor de corrección que puede ser ignorado; entonces,


la varianza está dada por la siguiente expresión:

2
var( ˆ2 MCG )  n
D
 (x2
t  xt 1 ) 2

Donde, D es también un factor de corrección que puede ser ignorado.


Ahora, veamos que:
n

 (x i  x )( y i  y )
( ˆ1MCO )  i
n

 (x i
i  x )2

Se puede ver que var( ˆ2 ) , bajo MCO, es:

2
ˆ
var(  )  n
, está ignorando el coeficiente de autocorrelación serial , .
 ( xt2 )
i

72
Ahora, si  = 0, entonces var( ˆ2MCO ) = var( ˆ2MCG )

Conclusión:

El estimador MELI ( ˆMCG ) con su respectiva varianza

var( ˆ2MCG ) , es linealmente insesgado, consistente y eficiente, o de

varianza mínima.

Nota: Para establecer intervalos de confianza y probar hipótesis, se debe


utilizar el método MCG y no el MCO, aún cuando los estimadores derivados de
éste último sean insesgados y consistentes.

3.7.5 Consecuencias de estimar parámetros bajo MCO ignorando


autocorrelación

Se pueden presentar varios casos:

ˆ 2ˆ   i
ˆ 2

  2
La varianza residual
n2 , subestiman la verdadera

De ,lo anterior, es probable que se sobreestime R2

Aún si  2 no está subestimada, la var( ˆ2 ) , puede subestimar

var( ˆ2 ) AR(1) , y aún cuando esta última es ineficiente con respecto a

var( ˆ2MCG ) .
Las pruebas t y F , no son válidas.

73
Nota: Los intervalos de confianza bajo MCG son más estrechos que
aquellos bajo MCO, es decir:

var( ˆ2MCG ) < var( ˆ2MCO ) , y además,

var( ˆ2MCO ) < var( ˆ2 ) AR(1)

3.7.6 Cómo Detectar Autocorrelación Serial

1. Método Gráfico

Es un método subjetivo de naturaleza cualitativa.La grafica de los errores


o residuos contra alguna de las variables, proporciona información muy útil no
solamente sobre la existencia de autocorrelación serial, también sobre la
heterocedasticidad y el sesgo de especificación problemas que están presentes
en el caso de observarse un patrón definido en el comportamiento de los
errores.

Las perturbaciones εt son muy diferentes a los residuales ˆt  ˆt , pero
estos últimos ayudan a determinar mediante un gráfico el comportamiento de

εt.0

Es decir, E ( ˆ t )   t .

Se construye un gráfico de ̂ t t
Vs. , ó , ˆ t2 Vs. t , ó , ̂ t Vs. ˆ t 1
Vemos que:

ˆ
 ˆ s tan d ...Vs...t  ˆ ...Vs...t
ˆ

74
̂ t ˆ t 1 x y
̂1 ̂ o : NAPARECE ̂1 ̂2

̂2 ̂1 ̂2 ̂3


. . . .
. . . .
. . . .

̂ n ˆ n 1 ˆ n 1 ̂ n

y ̂ t

ˆ t 1

75
2. Prueba de las Rachas. (Prueba de Geary)

Esta prueba se realiza considerando que los signos de los residuos la


forman una normal y un test de hipótesis de no autocorrelación (hipótesis nula
de
Ho: La secuencia de rachas es aleatoria
H1 : La secuencia de rachas NO es alaetoria
Una racha es el número de residuales consecutivos con un mismo signo.

̂1 , ̂ 2 , ̂ 3 , ̂ 4 ,..., ̂ i , ˆ i 1 ,…, ˆ n1 , ̂ n


(- - ) (+ +) (- -) (-) ( + ) ; llamamos:
n1 = Número de residuales con signo positivo (+)
n2 = Número de residuales con signo negativo (-)
n = n 1 + n2
k = Número de rachas.
Así, tenemos que:
(++++) (- -) (+++) (-) (+) (- -) , entonces k = 6 rachas
Como: n1 =8; n2 = 5 ; entonces n = 13.
Si n1, n2 > 10 , entonces k ~ N [E (k) ; V(k)]
2n1n2
E (k) = 1 , y
n1n2

2n1n2 ( 2n1n2  n1  n2 )
Var (k) = 1
( n1n2 ) 2 ( n1n2  1)
Ahora:
k  E (k )
 N (0,1) TABLAS (10, 23)
Var ( k )
O también se construye un intervalo de confianza (1-α)%:

76
Condición: Si k ε LI , LS, entonces : LI < k < LS, se acepta Ho, de lo
contrario, se rechaza Ho.
K = E (k)

3. Prueba de Durbin – Watson ( d )

Es la prueba más utilizada para detectar autocorrelación en modelos


econométricos, y para ello se define así:

n
(
ˆt  ˆ t 1 ) 2
d  
t 2 
ˆt
, o también:

 ( ˆ t 
ˆ t 1 ) 2
d  2
n , bajo los siguientes supuestos:
 ˆ t2
1

El modelo de regresión debe tener intercepto

Yt  1   2 X 1t   t
Xt es una variable fija en muestreo repetido.

 t  t 1  t AR (1)

El modelo de regresión NO incluye valores rezagados de la variable


dependiente, por ejemplo:

Yi   0  1 x1t   2 x2t  1Yt 1 t


No hay datos faltantes.

77
n

 ˆ t *
ˆ t 1
ˆ  Z (1  
d ˆ ); 
ˆ  2
n ,
 ˆ t2
1

Por tanto: -1 ≤ ̂ ≤ 1

-1 ≤ d̂ ≤ 4

Tabla:

Regla de decisión:
Rechazar Ho Zona Zona Rechace Ho
Correlación Indecisión No se rechaze Indecisión Autocorrelación
( + ) Ho (-)

0 dL du 2 4-du 4-dL 4

Dl y du se calculan con base en las variables explicativas y tamaño de la


muestra a un α% Durbin – Watson (D-W) modificado.
Ho:   0 ; Hi:  <0, si d < dU , entonces rechazar Ho, es decir existe
correlación positiva.
Ho:   0 ; Hi:  >0, si 4-d < dU , entonces rechazar Ho, es decir
existe correlación negativa.

78
Ho:   0 ; Hi:   0, si d < dU ó (4-dU)< dU, entonces rechazar Ho a
nivel del 2α%, entonces existe auto correlación positiva o negativa
Nota. El estadístico de la prueba Durbin – Watson no es vñalida en
modelos de auto regresivos. Durbin ha desarrollado el estimador  para
comprobar correlación serial en modelos auto regresivos.

Para muestras pequeñas: ( Theil Nagar)


d
n 2 (1  )  k2
ˆ  2 , donde: n = Número de observaciones
n2  k 2
K = Número de coeficientes incluyendo el intercepto.

4. Pruebas Adicionales:

Prueba Asintótica o de grandes muestras:

Ho:   0
Hi:   0
Estadístico de prueba:
Zo = n ̂ ~ N (0, 1) ± Zα/2 : puntos críticos

5. Pruebas Remediales:

Con  = conocido, si  t ~ AR (1). Es decir  t = t 1   t


Yt   0  1 X 1t  t
, conociendo ̂ ,
Para un modelo

Yt 1  0  1x1t 1  t 1 .

79
Yt Yt 1   0 (1   )  1 ( x1t  x1t 1 )   t  t 1
Yt *   0*  1 X 1*t   t  t  t  t 1
; donde

Con el cumplimiento de los MCO. Esta regresión se conoce como


Ecuación en Diferencia Generalizada (EDG)

Como se pierde una observación, entonces hacemos:

Método de Prais - Winter

Yo = Y1 1  ˆ 2 y Xo = x1 1  ˆ 2

Y1 X1 = x1 1   2 ; n-1 observaciones

Y2  y1 X2 = x1 x1
: : :

Yn  yn-1 Xn xn1
Entonces la información muestral se convierte ( n + 1 ) observaciones.

Cuando  No es conocida, utilizamos el :


Método de la Primera Diferencia.

Yt  Yt 1   2 ( X t  X t 1 )   t
, donde

 t  t  t 1
con  = 1.

Yt  X t   t .

80
Desaparece el intercepto de tal manera que cuando se ¡vaya a buscar la
función de regresión, este debe pasar por el origen.

Cuando  = 1, entonces Yt  (Yt 1 )  Yt  Yt 1 ; por lo tanto,

Yt  Yt 1  2 0  1 ( X t  X t 1 )   t
1  
(Yt  Yt 1 )   0  1 ( X t  X t 1 )  t
2 2 2

6. Modelo de regresión de Promedios Móviles ( de dos períodos)

Nota: Suponer que  = +1, es admitir que las perturbaciones  t , están


correlacionadas perfectamente, al hacer:
n n

 i
2
 (ˆ  ˆt t 1 )2
R2  1  1
d 2

 (Yi  Y ) 2 ;
 (ˆ ) t
2

̂ t
y ˆ t  ˆ t 1   t ; ˆ 1

x
x
x
x
x
x

ˆ t 1 x

81
7. Método de la Primera Diferencia

Yt  X t  t , utilice (I) si d<R2 (Maddala)

Para porbar lo anterior, utilizamos la:


Prueba de Beremblutt Webb
Planteamos la siguiente test de hipótesis
Ho:  = 1
H1 :   1 , donde 1<  <1
Estadístico de Prueba

 
2
eˆ t
,
 ˆ t
2

dónde ̂ t son residuales MCO, y êt son residuales MCO en

primera diferencia.
Aplicando D-W, pero, con Ho:  = 1
Nota: El modelo original debe tener un término constante.

8. Prueba de Cochrane - Orcutt

Para estimar  , teniendo como base a Durbin-Watson:


d = 2 (1-  ),

(d-2) / 2 = -  , entonces ̂ = (2-d) / 2 = 1- ( d̂ /2 ).


Consideremos el modelo:

Yt   0  1 x1t  t
,

 t ~AR (1), entonces  t 1  t


Suponga que

82
Procedimiento:
Estimar el modelo de regresión por MCO.
Nota: Si no se conoce  : MCGF (Mínimos Cuadrados Generalizados
Factibles):

Yt   t   t 1
Utilizando los residuales, efectuamos la siguiente regresión:

ˆ t  ˆˆ t 1  t
Con base en ̂ efectúe la ecuación del diferencia generalizada:

Yt ˆYt 1  1 (1  ˆ )   2 ( xt  ˆxt 1 )   t  ˆ t 1

Yt *  1*   2 xt*  t

Estimamos los: ˆt  Yt*  1*   2* xt* .


Hacemos nuevamente el análisis de residuos. Si se nota algún patrón de
tendencia, entonces, nuevamente hacemos:

ˆt  ˆˆt 1  wt , y hacemos wt

Yt* ˆˆYt*1  1* (1  ˆˆ )   2 ( xt*  ˆˆxt*1 )  ˆt  ˆˆt 1


Yt **  1**   2 xt*  wt .
Y así sucesivamente hasta que los  difieren en una cantidad muy
pequeña de una iteracción a otra.

9. Método de Durbin en dos etapas (*)

Tenemos que:

83
Yt   0 (1   )  1 xt  1 xt 1  Yt 1  t ; con

 0*   0 (1  ˆ );  2   1 ;  3  

Luego hacemos una regresión para Yt y se toma como ˆ  ˆ3


Conociendo ̂ se transforman las variables como en el caso anterior, es
decir:

Yt ˆYt 1   0 (1  ˆ )  1 ( xt  ˆxt 1 )  t
El caso de la transformación de variables, esto es que:

Yt *  Yt  ˆYt 1 , xt*  xt  ˆxt 1


Se conoce como MCGE (Mínimos Cuadrados Generalizados
Estandarizados o factibles). (Método de Regresión No Lineal).
Nota: El método recomendable y el más afortunado es de Cochrane –
Orcutt, aunque las muestreas sean pequeñas. Ahora si n>60, es
recomendable cualquier método.

10. Prueba General de Autocorrelación (Breusch – Godfrey)

Es una prueba M.L. Se plantea el siguiente test de hipótesis:


Ho = α1 = α2 = …=αp = 0
H1 = α1 ≠ α2 ≠ …≠αp ≠ 0
Procedimiento:

Estime : Yt  0  1 x t  t con MCO.

Calcule los
t
ˆ t   0  1 xt  1t 1  ...   p t  p 1   t

84
Si hay más regresores, inclúyanse.

Calcule R̂ 2

Si n≥30 , entonces
o2  (n  p) Rˆ 2 ~  o2

Si
 o2 >  p2 , entonces se rechaza Ho., existe autocorrelación

Donde, p = Longitud del rezago ( priori).

11. P.H. : SZROETER – HETTEST (Prueba de estabilidad)

12. PRUEBAS CUSUM Y CUSUM CUADRADO

Ejercicio:
El siguiente modelo:

I t   0  1Vt   t
(1)

Donde:
I t  Inventario ; Vt  Ventas

Si d<R2 (Maddala); realizar los siguientes pasos aplicando:


Método por diferencia en Primer Orden
Represente gráficamente y verifique la relación funcional.
Cointegración ¿?? ¿???????????????????
Aplicativo STATA para probar raíz unitaria.
Desarrollar el modelo (1) con MCO
Realizar análisis de residuales.
Probar heterocedasticidad

I t  Inventario Vt  Ventas
Ln Vs. Ln
Verificar Homocedasticidad

85
Probar autocorrelación;: gráfico y Box-Ljung

LnI t Vs. LnVt


Probar estacionalidad de los residuales
Plantear el modelo:

LnI t  ˆ0  ˆ1LnYt

Método de Prais – Winsten

Método MGCF – factibles

Yt   0 (1   )  1 ( xt  xt 1 )   2Yt 1  t
Método Cochran – Orcutt (iteractivo)

La autocorrelación es una característica de la información de series de


tiempo, y la heterocedasticidad no solo es un problema de información de corte
transversal, sino también de las series de tiempo.

Capítulo 4
Series de Tiempo - Pronósticos

4.1 Concepto

“Una serie de tiempo es una sucesión de observaciones de un fenómeno


que es variable con el tiempo”. La posibilidad de que la marcha de una variable
en el pasado pueda seguir en el futuro., ofrece una base razonable para la
previsión y las inferencias, que es el principal objetivo del análisis de series de
tiempo. (Lincoln Chao).

86
Para algunas series, importan los picos y no la periodicidad.
Pico

Periodo

Otras series son utilizadas para observar tendencias.

Tendencia

Las series de tiempo están asociadas a los acontecimientos económicos.


A partir de 1906 se aplica en física, pero, su mayor uso se da en la tendencia de
los ciclos económicos.
En 1927 se planteó la autocorrelación y Walter (1931) trabajó la
autocorrelación parcial, en 1938 Wold maneja los conceptos de modelos y
autoestacionalidad y aparece el primer libro de series de tiempo o “Estudio de
Análisis Estacionarios de Tiempo”.
En 1949 Wiener estudia el tema de “suavizamientos” con el libro de
“interpolación y Extrapolación”. Hold trabajó los métodos de suavizamientos
exponenciales, y luego Brown en 1961.
En 1960 Winterns aplica series de tiempo en los inventarios.

4.2 Análisis de series de tiempo

En general una serie de tiempo se define como el conjunto de de


variables aleatorias que dependen de un parámetro o argumento del proceso

87
estocástico, en este caso la variables es el tiempo (t), tales que para cualquier
elección finita de valores to, t1,t2,.., tn existe la distribución de probabilidad
conjunta correspondiente a las variables aleatorias Yt 1, Yt2, …, Ytn.
El análisis de series de tiempo es un método de proyección y
pronósticos importante en la planeación de futuras necesidades por ejemplo
de inversión, ventas, materiales y suministros, etc.

4.3 Componentes de una serie de tiempo

Son cuatro las los componentes de una serie de tiempo a un valor


original observado (Y):
Tendencia a largo plazo (T)
Variación o efecto estacional (S)
Variación o efecto cíclico (C)
Variación o efecto irregular (I)

4.4 Modelos de series de tiempo

Son tres los modelos de series de tiempo:


El modelo Aditivo
El modelo multiplicativo
El modelo mixto

El modelo aditivo es la sumatoria de las cuatro componentes sobre el


valor original observado (Y) de las series de tiempo, esto es que:
Y = T +S+C+I
El modelo multiplicativo supone el producto de las cuatro componentes
del valor original observado (Y):
Y = T*S*C*I

88
4.5 Descomposición de una serie de tiempo

Los cuatro componentes de los datos originales de la variable Y de una


serie de tiempo se pueden separar, proceso que es utilizado como una técnica
de aproximación o suavizamiento para eliminar el efecto de la variación
aleatoria.

- Eliminación de la tendencia
En el modelo multiplicativo, la descomposición se logra al eliminar o
suavizar la tendencia de la serie observada para quitar el efecto de la variación
aleatoria y obtener así los componentes buscados.

- Econometría de las Series de Tiempo: Pronósticos


Métodos de predicción económica:
Alisamiento exponencial
Regresión uniecuacionales
Regresión ecuaciones simultáneas
4. Modelos autoregresivos integrados de Media Móvil ARIMA
Vectores autoregresivos

Crítica de Lucas: Afirma que los parámetros estimados de un modelo


econométrico dependen de la política prevaleciente en el momento en que el
modelo se estima y que cambiaran si hay un cambio de política.

Metodología ARIMA: Yt , puede ser explicada por valores pasados o


rezagados de sí misma, y por sus términos estocásticos de error.

ARIMA o Modelos A teóricos: Porque no pueden ser derivados de teoría


económica alguna.

89
Nota: * Si una serie de tiempo es estacionaria, se puede modelar en
diversas formas.
* Las series de tiempo son una realización de los procesos estocásticos.

ARIMA (p,d,q): Serie de tiempo autoregresiva integrada de media móvil,


donde “p” quiere decir el número de términos autoregresivos de Y t ; “d”, el
número de veces que la serie debe ser diferenciada para hacerse estacionaria,

y “q” el número de términos de la media móvil μt

4.6 Notas sobre modelos ARCH y GARCH

Algunas series económicas en primeras diferencias suelen presentar


amplias variaciones o volatilidad, lo cual sugiere que la varianza de las series
financieras se modifican con el tiempo.

ARCH-GARCH: Autocorrelación de las varianzas en el tiempo,


formándose cúmulos debido a fenómenos exógenos del sistema de cambio de
políticas gubernamentales, pánico financiero, tipos de cambio de la moneda,
precio del petróleo, etc.

Ejemplo:

Sea el modelo: X t2   0  1 X t21  t


Este modelo nos dice que la volatilidad del período actual está
relacionada con su valor del período anterior más una perturbación “ruido
blanco”.

90
Si 0 > 0, indica que la volatilidad era alta en el período anterior y

seguirá siendo alta en el período actual, lo cual señala una acumulación de


volatilidad.

Si  0 = 0, entonces no se está presentando acumulación de volatilidad.


Considere el siguiente modelo:

Yt  a0  a1Yt 1  t , donde t ~ iid (0; σ )


2
, entonces:

t2  (Yt  a0  a1Yt 1 ) 2 , de esta manera E( t2 ) = σ2

Si E( t2 ) = σ2 , t  Z, σt2 no es constante.

Una estrategia simple, es modelar la varianza condicional como una


AR(q) usando los residuales estimados al cuadrado.

ˆt2   0  1t21   2t22  ...   qt2q   t , donde t


es un proceso ruido blanco , (0;σ2).

Si  0  1   2  ...  ...   q  0 , entonces σt2 =  0 ,

constante, en otro caso t2 es un proceso autorregresivo de orden “q”.


ˆt2   0  1ˆt21   2ˆt22  ...   qˆt2q , se puede utilizar

para hacer pronósticos económicos.


Ahora,

t21   0  1t2   2t21  ...   qt21q .


Si los i  0 .

91
En series de tiempo económico - financieras, como los precios de
acciones, tasas de inflación, tasas de cambio, etc. pueden variar de un período
a otro, dado que los errores de proyección pueden ser insignificantes en un
período de tiempo, pero grandes en otros períodos, debido a la volatilidad en
los mercados ocasionados por rumores, inestabilidad política, pánico financiero,
etc.
Por lo tanto, la varianza de los errores de predicción no son constantes
de un período a otro, es decir, hay una especie de autocorrelación de las
varianzas en los errores de predicción.
Puede suponerse que el comportamiento de los errores de predicción
dependen del comportamiento de las perturbaciones de regresión (  t ) . Es

decir, puede presentarse autocorrelación en la varianza de t .

La idea central de Arch (Engle) es que la Varianza  t (Var  t   t2 )

depende del tamaño del error elevado al cuadrado en el período t-1 (  t 1 ).


2

Sea:

Yt  0  1 x1t   2 x2t  ...   p x pt  t


t ~ N [0; Var ( t   0  1t 1
)]
Correlación serial en varianza
ARCH (1)

Var (  t )   t2   0  1 t21


ARCH (2)

Var ( t )   t2   0  1 t21   2  t22


.
.
.

92
ARCH (p)

(ˆ t2 )   t2   0  1t21  ...   p t2 p ; donde

( ˆ t2 )
son los residuales comunes por MCO, se puede probar que:
Ho = α1 = α2 = …=αp = 0
H1 = Al menos un αi ≠ 0 ; i = 1,2,…, p.
Estadístico de prueba:

 o2  nR̂ 2 , se sabe que nR 2 ~  p2 , ahora, si

 o2 >  2 , no se puede acepta Ho. Entonces existe correlación


p

serial en varianza, pero en series de tiempo.

Nota: En un análisis de series de tiempo, especialmente aquellos


relacionadas con información financiera, se debe hacer la prueba de ARCH (p)
antes de aceptar el estadístico “d” (Durbin – Watson) como verdadero valor de
correlación.

4.6.1 Generalización del Modelo ARCH, GARCH

Var (  t )   t2
Las ; dependen no solamente de las perturbaciones
al cuadrado en un período t-p, sino también de sus varianzas pasadas.
Básicamente el modelo GARCH plantea:

Var (t )   t2   0    t21 (p. 738 – Greene)

Greene nos dice:

93
“En los modelos de inflación, los grandes y pequeños errores de
predicción parecen ocurrir por grupos, sugiriendo una forrma de
heterocedasticidad en la que la varianza del error de predicción depende del
tamaño de la perturbación anterior”

Var(t t 1 )   0  1t21

Var(t t 1 )   0  1 var( t 1 t 2 )

Var(t t 1 )   0  1 ( 0  1t22 )

Var(t t 1 )   0   01  12 t22

Var (t t 1 )   0   01  12  0  1 t23 


Var(t t 1 )   0   01   012  13 t23

Var(t t 1 )   0 1 1  12  ...  1ii  ...  1n t2n 


Var(t t 1 )  1 / 1 ; i=1

4.6.2 Coeficiente de Determinación

Se le denomina R2 y R2 ajustado.

R 1
2  ˆ i
2

 (Yi  Y ) 2

SCR
R 2  1
SCY
Si el número de variables Xi aumenta, entonces,  ˆ
i
2
disminuye (al

menos no aumenta), por lo tanto R2 aumentara. Esto quiere decir que si R2

94
aumenta en la medida que crezcan o se adicionen variables Xi, no implica un
mejor modelo.
2
Un R2 alternativo, es R2 ajustado ( R ), de finido de la siguiente manera:

R 1
2  ˆ i
2
/nk
 (Yi  Y ) 2
/ n 1

ˆ 2
R  1 2
2

y

R  1
2  ˆ i
2

 (Yi  Y ) 2
(n  k / n  1)

R 2
 1
 ˆ i
2

*(
n 1
)
 (Yi  Y ) 2
nk

n 1
R 2  1  (1  R 2 ) * ( )
nk
Si k>1, entonces, se tiene que: R 2< R2 , que significa lo siguiente: Si

en la medida que el número de variables explicativas aumenta en el modelo, el

coeficiente de determinaciónajustado aumenta menos que R2 . Además R2


puede ser negativo.

En el análisis empírico no es inusual obtener un R2 muy elevado, sino lo

más probable es encontrar que algunos de los coeficientes de regresión, no


sean estadísticamente significativos o muestren signos contrarios a los
esperados a priori.
Por consiguiente el investigador debe preocuparse más por la relevancia
lógica o teórica que tienen las variables explicativas para la variable
dependiente “Y”, y por significancia estadística.

95
Si se tiene en cuenta lo anterior, y el R 2 es alto, todo sale bien, pero, si

R2 es bajo, esto no significa que el modelo sea necesariamente malo.

CRIPTIA.COM. Recop. Tesis doctoral


www.cmi.com.co

Nota: Una variable es endógena, si está correlacionada con ; una


variable es exógena si no está correlacionada con .

4.7 Método Generalizado de Momentos (MGM)


(Arellano y Bond , 1991)

Objetivo: Regresión dinámica con datos de panel. Es una aproximación


más eficiente desde el punto de vista estadístico a la de Anderson-Hsiao.
La idea consiste en afrontar una estimación de regresión dinámica
combinando diversas “variables instrumentales” en torno a un único vector
número de coeficientes, que busque unas correlaciones muestrales mínimas
entre el término del error y cada una de las variables instrumentales.
Una variable instrumental es aquella variable exógena que no influye o
afecta en nada el modelo en el tiempo, como por ejemplo sexo, estado civil, etc.
Se denota así.

y
N T

 y i (t  2) it  yi ( t 1) 
̂  i 1 i  3

y 
N T

 y
i 1 t  3
i (t  2) i ( t 1)  yi ( t  2 )

Una Información atípica, genera básicamente otra.

96
4.7.1 Modelo de Koyck

Es un método de estimación de los modelos de rezagos distribuídos.


Log 2
La mediana de los rezagos =  ; por este concepto y el
Log
supuesto que los β tienen el mismo signo, Koyck los reduce haciendo:

 k  0k  1 , así:

2  0 k  1

Log 2  0 k  Log1

Log 2  Log 0  Log  Log1 ; ahora si β0 = 1,

entonces:

Log 2  kLog  0 ; entonces:

kLog   Log 2 ; entonces:

Log 2
k
Log

“Un modelo debe seleccionarse con base en consideraciones teóricas


sólidas, no simplemente porque pueda coincidir a una estimación estadística
sencilla” (Gujarati (1996) p. 653)”

Modelo de Koyck
Koyck, postula el siguiente modelo:

Yt  0  1xt  2 xt 1  ...  k xt  k  t , donde.

97
 k   0  , así:
1   0  ,  2   0 2 ; … ,  k   0 k , entonces:

Yt   0   0 xt   0 2 xt 1  ...   0 k xt  k   t
Yt 1   0   0 2 xt 1   0 3 xt 2  ...   t 1
Yt  Yt 1   0 (1   )   0 xt
Yt   0 (1   )   0 xt  Yt 1  t  t 1
Yt   0 (1   )   0 xt  Yt 1  t  t 1
Yt   0 (1   )   0 xt  Yt 1  t
t  t  t 1 : AR (1)

Ejemplo: Índice de compensación real y productividad para E.U. 1959-


1998
Y X
58.5 47.2
59.9 48.0
61.7 49.8
63.9 52.1
65.3 54.1
67.8 54.6
69.3 58.6
71.8 61.0
73.7 62.3
76.5 64.5
77.6 64.8

98
79.0 66.2
80.5 68.8
82.9 71.0
84.7 73.1
83.7 72.2
84.5 74.8
87.0 77.2
88.1 78.4
89.7 79.5
90.0 79.7
89.7 79.8
89.8 81.4
91.1 81.2
91.2 84.0
91.5 86.4
92.8 88.1
95.9 90.7
96.3 91.3
97.3 92.4
95.8 93.3
96.4 94.5
97.4 95.9
100.0 100.0
99.9 100.1
99.7 101.4
99.1 102.2
99.6 105.2
101.1 107.5
105.1 110.5

99
Modelo:

Yt   0  1 xt   2 xt 1  t : donde:

Y = Salarios = índice de compensación por hora


X = Productividad = índice de producción por hora
Supuestos:

Si ρ = 0, entonces h ~ N (0, 1) no hay autocorrelación serial de

orden 1.

n
h  ˆ
1  n var( ˆ2 )

-Coexistencia de la Autocorrelación y la Heterocedasticidad


La auto correlación solo se puede detectar después de que se ha
controlado la heterocedasticidad.

Pruebas que resuelven de manera simultáneamente ambos problemas


Jeffrey M. Wooldridge (pp.402-403) y A.K. Bera, y C.M. Jarque: “Efficient
test for normalita, homocedasticity and serial independencethe of regresión
residuals Monte carlo Evidence”

-Qué hacer cuando está presente ARCH


Autocorrelación de las varianzas de los residuales. Acumulación de
varianzas de los residuales pasados.

Russell Davidson y James G. Mackinnon: “Estimation and inference in


econometrics, Oxford University Press, N.Y. 1993”.
Veáse Greene. Sección 16.4

100
“En los modelos de inflación, los grandes y pequeños errores de
predicción parecen ocurrir por grupos, sugiriendo una forma de
heterocedasticidad en la que la varianza del error de predicción depende del
tamaño de la perturbación precedente”.

4.7.2 Modelos ARCH

La varianza del error quizá este correlacionada a lo largo del tiempo,


debido a la acumulación de la volatilidad.
Para Enders: “En modelos econométricos convencionales, la varianza de
las perturbaciones se asume como constante, Sin embargo, algunas series
económicas han demostrado que exhiben períodos de larga volatilidad inusual,
seguida de períodos de relativa tranquilidad. En tales circunstancias el supuesto
de una varianza constante (homocedasticidad) es inapropiado”.

t  t  0  1 t21

Con  2  1 , (t )  0 , t y  t 1 independientes ;

       1  1


( t )   t ( ( 0  1 t21 ) 2
1

1
( t )  (t )( 0  1  )  0 * (__)  0
2
t 1
2

t *t 1   0  t t * t t 1   0; i  0


  
 t2   t2 ( 0   1 t21 ) 
   (
2
t t
2
)( 0   1 t21 )

101
 
 t2  1 * ( 0 )   1(t21 )

      ( ) ; entonces:


2
t 0 1
2
t

    ( )  
2
t 1
2
t 0

0
 
 t2 
(1  1 )
Generalizando:

t2
(   0   1 t21 , lo que quiere decir:
t 1, t  2 ,...

La varianza de t depende del valor realizado de t21 . Ahora, si el

valor realizado de t21 , es grande, la varianza condicional en “t” será también


grande.

La expresión (tt2 tt 1.tt 2 ,...)   0  1 t21 , sigue un proceso

autorregresivo de orden 1, llamado ARCH(1). Cómo la varianza condicional,

Var (tt tt 1.tt 2 ,...) , es >0, entonces, α0, α1>0.

Conclusión: Asegurar la estabilidad del proceso autorregresivo, es

necesario restringir α1, al que 0< α1<1.

Características de un proceso autorregresivo:

  
1
 t    ( 0    )
t
 2
t 1
2

Si t *t 1   0 , entonces: t * t 1   0; i  0

102
0
 
 t2  (t21 ) 
(1  1 )
(tt2 tt 1.tt 2 ,...)   0  1 t21

(t t 1 )  (t )  0

(t t s )  0, s  0
Importante: La varianza condicional misma es un proceso autorregresivo
que resulta de la heterocedasticidad de los errores.

La heterocedasticidad en t resultará en Yt  un proceso ARCH

existente.
Así que, un modelo ARCH (Heterocedasticidad Condicional
Autorregresivo) es capaz de capturar períodos de tranquilidad y volatilidad en

las series Yt .


Nota aclaratoria:
Yt  a0  a1Yt 1  t

Var(Yt Yt 1 ) = Var (t )  Var (Yt  a0  a1Yt 1 )

Var(Yt Yt 1 ) = E (t2 )   2

ué pasa si E (t )   : Una estrategia para comprobar


2 2
Pero q

heterocedasticidad es expresar:

ˆt2  0  1ˆt21  2ˆt2 2  ...   pˆt2 p  t AR (p)

Actualmente esta especificación lineal no es conveniente. La razón es

que el modelo para Yt  y la varianza condicional son mejor estimadas usando
la técnica de máxima verosimilitud.

103
En lugar de lo anterior, es más tratable especificar a t como una

perturbación multiplicativa.
1
 t  t ( 0    ) 2
1 t 1
2
(Engle, 1982)

 2  1 ,  0 0 ; 0 <α1<1 ; E(  ) = 0.

E(Yt) = a0 + a1 Yt-1 ; a0 = β0 y a1 = β1
Var (Yt / Yt-1, Yt-2, …) = E (Yt - a0 - a1 Yt-1)2

= E (ε2t)

  0  1 E ( t21 )
0
 2 
t
(1  1 )

1, E( t21 )  0 ; si α1 = 0 , entonces Var(εt) = α0 constante

Ahora, si Yt es estacionaria, tenemos que:


E(Yt) = a0 + E(Yt-1) a1

0
E (Yt ) 
E(Yt) = E(Yt-1) , entonces,
(1   1 )

Ahora también, Yt   0  1 t 1   t AR(1)

Por invertibilidad AR(1)  MA(α) , por lo que:



Yt     a1i t  i
i 0

0
E (Yt )   
(1  1 )

104

o o
Var (Yt )   a12i * = (1  a12  a1  ...)
a   1 a  1
 1
Var (Yt )  ( o )( )
1  1 1  a12
Lo importante es que el proceso de error ARCH puede ser usado para
modelar períodos de volatilidad dentro de un marco univariado.

t , se puede generalizar:

1
  t ( 0   
t
2 2
1 t 1   2
2 t 2  ...    2
p t p)2

a
  t  0   i  t2i
t
2
(*)
i

(*): Todo sobresalto desde  t 1 a  t q , tiene un efecto directo sobre

 t , así que la varianza condicional actúa como un proceso autoregresivo de


orden “q”.

Distinguir entre : Var (Yt) ≠ Var (Yt / Yt-1, Yt-2, …):


1.-El punto esencial a recalcar es que una estructura de error ARCH y los
parámetros autocorrelacionados en el proceso [Y t] interactúan los unos con los
otros.
2. La volatilidad de [Yt] se incrementa debido a α1 y al coeficiente de a1.

La explicación es intuitiva, un sobresalto inusual grande en t estará asociado


con una varianza persistentemente grande en [εt].

Nota. La inflación por si misma quizá no sea dañina, pero, su variabilidad


es mala porque dificulta la planeación financiera.

105
Sea el modelo:

Yt+1 = εt+1 * xt , donde,

Yt+1 es la variable de interés, y

εt+1 = es una perturbación ruido-blanco con varianza (σ2) constante,


xt = Es una variable independiente que puede ser observada en el

período “t”

Sea: xt = xt-1 = xt-2 = … = Constante (K), entonces el proceso sigue

teniendo una σ2 constante, es decir:

Var (Yt+1 / Xt) = K2 * σ2 , sin embargo cuando las realizaciones para [xt ]
no son iguales, entonces: Var (Yt+1 Xt) = X2t * σ2

Aquí, la anterior varianza condicional depende del valor que tome X en


un período “t”. Así que podemos observar el comportamiento de Xt en el tiempo.

Si xt2, es grande o pequeña, entonces la varianza (Yt+1 Xt) también tendrá el

mismo comportamiento (Heterocedasticidad).

Además, si los valores sucesivos de [xt] muestrean una correlación

serial pòpsitiva, es decir, un valor grande de Xt tiende a seguir otro valor grande

de xt+1, entonces la Var (Yt / Xt), exhibirá correlación serial positiva también.

De esta manera, la introducción de la secuencia [xt] puede explicar

períodos de volatilidad en la secuencia [Yt].

106
4.7.3 Modelo Garch : (Heteroscedasticidad Condicional Autorregresiva
Generalizada)

Un modelo estadístico utilizado para prever la volatilidad donde la variable


subyacente puede exhibir una reversión de la media. GARCH es el acrónimo inglés de
“Heteroscedasticidad Condicional Autorregresiva Generalizada”.
El modelo ARCH fue un trabajo desarrollado por Engle´s en 1982 ,
extendido por Bollerslev (1986) desarrollando una técnica que permite a la
varianza condicionada se convierta en un proceso ARMA y se fundamenta en la
explicación de la volatilidad condicional como una función lineal de “q” errores
pasados de predicción elevados al cuadrado (los épsilon de la fórmula).

Sea el proceso del error o perturbación tal que:

 t  t ht , 2  1 , y

q p
ht   0    i t i    i hi 1
i 1 i 1

t es un proceso de ruido blanco que es independiente de lñas

realizaciones pasadas de εt-i , las medias condicional e incondicionales son

iguales a cero (0). Tomando el valor esperado (E) de εt , es fácil ver que:

E ( t )  E (t * ht )  0
El punto importante es que la varianza condicional de εt está dada por:

E ( t21 )  E (t2 * ht )  E (t2 ) E (ht )


 1* ht  (ht )

107
Un ARCH (p, q) ≡ GARCH (p, q) , es decir ambos son componentes
autoregresivos y de promedios móviles en varianza heterocedástica. Si p = 0
^ q = 1 , entonces :

ht   0  1 t 1 0

De esta manera se puede decir que: ARCH (1) ≡ GARCH (0, 1)


Si βi = 0 , entonces: GARCH (p, q) ≡ ARCH (q).

Los beneficios del GARCH es tal que en un ARCH de un alto orden


puede tener una representación más parsimoniosa (elemental y sencilla) y que
es más fácil de identificar y estimar. Esto es particularmente cierto si todos los
coeficientes αi y βi > 0. Más aún asegurar que la varianza condicional sea finita,
todas con características unitarias que estén por encima del círculo ordinario.
La característica clave de los modelo GARCH, es que la varianza
condicional de las perturbaciones de la {Yt} constituye un proceso ARMA. Así se
puede esperar que los residuales de un modelo ARMA estimado, mostraría éste
patrón característico.
Para explicar lo anterior, suponga que usted estima un {Y t} como un
proceso ARMA. Si su modelo de {Yt} es adecuado, entonces el ACF
(Coeficiente de Correlación Simple) y los PACF (Coeficientes de Correlación
Parciales) de los residuales, podrían indicar un proceso de ruido blanco.
Sin embargo, los ACF de los residuales al cuadrado pueden ayudar a
identificar el orden del proceso GARCH.
Así que:

108
q p
E ( )  ht   0    i t i   i hi i
2
t
i 1 i 1

Entonces: ht ~ ARMA (q, p) en t2

Técnica para construir el correlograma de los residuales al cuadrado

Paso 1. Estime la serie {Yt} usando la mejor estimación ARMA o el

modelo de regresión y obtener los cuadrados de los residuales,  t2 . Además,

calcular la varianza muestral de los residuales, ̂ 2 , definido como:

 t
2

ˆ 2  i 1
, donde T = # de residuales.
T

Paso 2. Calcular y graficar las autocorrelaciones muestrales de los


cuadrado de los residuales:
T

 (
ˆ 2
t ˆ 2 )(t2 i ˆ 2 )
 (i ) t  i 1
T

 (
t 1
2
t ˆ 2 ) 2

Paso 3. En muestras grandes:

1 12
ˆ   (i )  N  0; ( )  , ahora:
T

Si  (i ) ≥0+ 3
1
; ó si:  (i ) ≤0- 3
1
, entonces:
T T

109
Errores GARCH, si: 3
1
≤  (i ) ≤ 3
1
 No error
T T
GARCH
Mediante el estadístico de Ljung-Box se puede probar por grupos la
significancia de los coeficientes.

 (i )
n  ;
n
Q  T (T  2) Q~
2
; tenemos en cuenta que
i 1 T i
si:

Ho:  (i ) = 0  Los  t2 están incorrelacionados: No GARCH

Ho:  (i ) ≠ 0  Los  t2 están correlacionados: Si GARCH

En la práctica considere como T/4 , el número de retardos.

4.7.4 Método Multiplicador de Lagrange

Otro método formal es la prueba del Multiplicador de Lagrange. Se


realiza mediante dos pasos así:
Paso 1. Estímese por MCO la regresión o un AR (n):

Yt  a0  a1Yt 1  a2Yt 2  ...  anYt n  t

Paso 2. Calcule los  t2 y regresarlos a un retardo “q” :

ˆt2   0  1ˆt21   2ˆt22  ....   q t2q


Tenemos en cuenta que si:
Ho: α1 = α2 =…= αq = 0

H1: αi ≠ 0, i = 1,2,…,q. Donde TR2 ~  q2 , ahora si:

110
TR20 >  q2,1  Error GARCH.

4.8 Multicolinealidad

¿Qué pasa cuando en un experimento previamente diseñado, a veces no


proporciona mucha información respecto a los parámetros de interés?
El término de multicolinealidad significa la existencia de una relación
lineal exacta, casi que perfecta entre dos o más variables explicativas en el
modelo (Ragnar Frisch , 1934).

Una relación lineal exacta es:

1 X 1  2 X 2  ...  k X k  0 , donde X 1  1, i son

constantes, no todas ceros.

1 X 1  2 X 2  ...  k X k  i  0 ; donde i = error

estocástico

1   
X 2i   X 1  3 X 3  ...  k X k  i
2 2 2 2 :

Correlación Lineal Perfecta

4.8.1 Presencia de multicolinealidad

Si observamos una correlación alta indica presencia de multicolinealidad.

Var( j )   2 .C jj , j  0,1,2,....k , donde

C jj : elemento diagonal de s 1  ( X ' X ) 1 y

111
Cov(ˆi , ˆ j )   2 .Cij , i  j  0,1,2,....k

4.8.2 Matriz de varianzas y covarianzas

Cuando en un modelo econométrico se mide la relación entre dos o


más de dos variables, es más frecuente expresarlo en forma matricial. La
matriz es de naturaleza simétrica, y conocida como matriz de
varianzas/covarianzas:

X X X
1 2 3

X S S S
2
1 x1 x1.x2 x1.x3

X S S S
2
2 x2.x1 x2 x2.x3

X S S S
2
3 x3.x1 x3.x2 x3

Es decir:

Cov( ˆ )   2 * S 1
Multicolinealidad:
Si una de las variables independientes está relacionada linealmente con
alguna de las demás, se presentan varios casos:

1.  ij es alto

2. Si : X ' X 1 No existe multicolinealidad

(Ortogonalidad)

112
Si : X'X 0 Si existe multicolinealidad.

3. Factor de inflación de la varianza (VIF):


VIF = Cii
Si VIF > 10 , entonces hay multicolinealidad.
4. Cuando en una prueba ANOVA, la Prueba “F” refleja

significativa, pero, la Prueba “t” individual para los  i no lo indica así, es


decir, ambas pruebas van en contradicción, entonces tenemos presencia
de multicolinealidad.
5. Signos algebraicos o coeficientes contrarios a la lógica o al
sentido común de las variables.

6. Variaciones grandes de los ˆi , o de sus signos, cuando


se incluye o suprime una variable explicativa.

4.8.3 Eliminar la multicolinealidad en modelos de regresión lineal

Varios métodos se aplican para eliminar el problema de multicolinealidad.


Por ejemplo el de Regresión Contraída o Regresión Ridge que consiste en
buscar estimadores que pueden ser sesgados pero con menor error cuadrático

medio, es decir, minimizar el ECM ( ˆ ).

1. Regresión Ridge (Arista)

ˆ * ( )  ( X ' X  I ) 1 X ' Y ; donde : 0.05 ≤ θ< 0.1,


empírico (Bayes).
Lo que se busca es:

113
E ( ˆ * ( ))   ; sesgado.

Var ( ˆ * ( ))  Var (  )

Ejemplo 10.3. http://dm.udc.es/asignaturas/estadistica2/sec10_6.html

“Considérense los datos del ejemplo 9.1. Estudiar el modelo de regresión


lineal de la variable respuesta Y frente a las variables explicativas x1,x2 y x4”.
El modelo de regresión que se obtiene es el siguiente:

Y = 1’735-0’064x1+1’312x2+1’681x4 , con R2 = 0’814

Como existe una relación lineal entre la regresora x4 y las otras variables
regresoras

X4 = 3’91+1’25x1-0’27x2, con R2 = 0’607

existe multicolinealidad y se tendrán dudas razonables acerca de la


bondad de la estimación por mínimos cuadrados ordinarios.
A continuación se calcula el estimador cresta R. Para el cálculo de R

es necesario determinar el valor del parámetro . Se calcula el estimador R

para distintos valores de , en concreto, se ha tomado desde 0 hasta 0'50 con


incrementos de 0'01. En la Figura 10.12 se representa la gráfica de R,j

frente a .

114
Figura 10.12. Estimadores ridge.

Figura 10.13. FIV de los estimadores ridge.


También se han calculado los factores de incremento de la varianza de
los estimadores en función de , FIV j , las gráficas se representan en la
Figura 10.13.
De las Figuras 10.12 y 10.13. se deduce que es razonable tomar = 0'20,
valor con el que se obtiene estabilidad en los estimadores R,j y con el que
se puede considerar que los FIV j son suficientemente bajos. Utilizando este
parámetro el modelo de regresión obtenido es

Y = 0’579+0’494x1+0’368x2 +1’163 x4

2. Prueba de Newey-West para correr las desviaciones estándar


MCO (Green . pag. 462-463)

- Corrige la Heterocedasticidad y auto correlación serial


simultáneamente.
- Corrige las desviaciones estándar de los MCO, llamados
errores estándar CHA.
Ejemplo: Salarios Vs. Productividad
(Archivo ICR Vs. Productividad) ****OJO

115
Apendice

Multicolinealidad

Importante: Una forma de ver si en una función de regresión lineal hay o


no hay multicolinealidad es la siguiente:
1.Se construye una matriz de correlaciones

2. Si  Xi, Xj ,  R 2 , entonces no existe multicolinealidad.

Heterocedasticidad
Importante: Otra prueba de heterocedasticidad es la siguiente:
Prueba de Koenker-Basset (KB), de la siguiente manera:
1.Tomar los residuos de un modelo de regresión por MCO:

Yi   0  1 X 1i   2 X 2i  ...  i
Test de Hipótesis:

Ho: 1  0
H1: 1  0
Prueba “t” y una “F”

116
Ejercicio Heterocedasticidad
Modelos:

Yi   0  1 X i   i

Yi   0  1 X i   2 X i2   2 X i2  

11.20 Experiencia $Mediana


0.5 69000
2.5 70500
4.5 74050
6.5 82600
8.5 91439
10.5 83127
12.5 84700
14.5 82601
16.5 93286
18.5 90400
20.5 98200
23.0 100000
26.0 99662
30.0 116012
34.0 85200

117
11.16 Gasto alimentario en la India (en miles)
Y:Gasto Comida X: Gasto Total
217 382
196 388
303 391
270 415
325 456
260 460
300 472
325 478
336 494
345 516
325 525
362 554
315 575
355 579
325 585
370 586
390 590
420 608
410 610
383 616
315 618
267 623
420 627
300 630

118
410 635
220 640
403 648
350 650
390 655
385 662
470 663
322 667
540 680
433 690
295 695
340 695
500 695
450 720
415 721
540 730
360 731
450 733
395 745
430 751
332 752
397 752
446 769
480 773
352 773
410 775
380 785
610 788
530 790

119
360 795
305 801

a) Examinar residuos, gráfica de  i2Vs. X


b) Pruebas de ParK, Glejser y White

c) Prueba de White: ˆ i2   0  1 X i   2 X i2  i

3. Y: Gasto en Consumo X: Ingreso


Prueba Goldfeld – Quandt
Información ordenada de acuerdo a la variable X
Y X Y X
55 80 55 80
65 100 70 85
70 85 75 90
80 110 65 100
79 120 74 105
84 115 80 110
98 130 84 115
95 140 79 120
90 125 90 125
75 90 98 130
74 105 95 140
110 160 108 145
113 150 113 150
125 165 110 160 C=4
108 145 125 165 Observaciones
115 180 115 180 del medio
140 125 130 185

120
120 200 135 190
145 240 120 200
130 185 140 205
152 220 144 210
144 210 152 220
175 245 140 225
180 260 137 230
135 190 145 240
140 205 175 245
178 265 189 250
191 270 180 260
137 230 178 265
189 250 191 270

SRC 2 / gl 1536.8 / 11
 , Entonces:    4.07
SRC1 / gl 377.17 / 11
Fv1 ,v2 , como : v1  v2  (n  c  2k ) / 2 ,
k = ≠ de parámetros; n = 30; C=4; y k=2
Entonces: V1 = (30- 4- 4) /2 = 11 gl (grados de libertad).

Como solucionar la heterocedasticidad


(pag. 408, 410 y 411, Gujarati)

(1) IDi = 192.9931 + 0.0319 Ventas (i)


Bajo este modelo se presenta heterocedasticidad en ventas:
ID 0 i
  1 Ventas 
Ventas Ventas ventas

121
ˆ
ID 1
(2)  246.6769  0.0367 Ventas
Ventas Ventas

Modelo ajustado sin heterocedasticidad

Modelo Corregido en (2):

ˆ  246.6769  (0.0367 * 0.8692) *Ventas


IDi i
1.276
ˆ  193.01  (0.03189) *Ventas
IDi i

246.6769
 192.9971 , entonces: Ventasi  1.278 =
Ventas
Así reemplazando en:

0.0367 Ventas  0.0319 , despejando tenemos que:


Ventas  0.8692

Modelo
 Rupias.sav

Y   0 .e 1xi .e  i , por tanto:

LnY   0*  1 xi   i o Modelo Semilogaritmico.

 Precio.sav

Como detectar Autocorrelación


Prueba de Breusch – Godfrey (BG) ó Multiplicador de Lagrange (ML)

Pasos:

122
1. Efectúese

Yi   0  1 X i  1 x1i  ...   k xki   i

Suponga que: i ~ AR(p) , entonces:

 i  1 i1   2 i2  ...   p i p  i


Test de Hipótesis:

H 0  1  2  ...   p  0

Entonces: estímese (1).


2. Suponiendo autocorrelación. Con el método gráfico,
hacemos la regresión:
3.

 t  1   2 xt  1 t 1  ...   p t  p  t
4. Calcule R2

5. Si n >> grande , calcule (n-p)R2 ~  p2

6. Si (n-p)R2 >  p2, , entonces al menos hay un

i significativo, lo que implica autocorrelación serial.

Importante: Si t sigue un proceso MA(q), también se puede tratar de la

siguiente manera:

 t  t  1t 1  2 t 2  ...   p t  p


Donde t es el error puro.

123
Método de Newey – West para corregir las desviaciones estándar de

ˆo , ˆ1
(Válido para muestras grandes: n>>30)

Observaciones:
1. n>> 30

2. ˆ o ,  
1 CHA > ˆ o ,  
1 MCO

3. to ,t1 CHA < to ,t1 MCO

4. Lo que implica que el Método de MCO subestima los


errores estándar verdaderos.
MCGF = Mínimos Cuadrados Factibles Generalizados
MCGE = Mínimos Cuadrados Generalizados Estimados
Utilizamos:
MCGF: Transformación Prais-Winten ó MCGFC: (completo)

Pruebas de Simultaneidad para resolver Heterocedasticidad y


Autocorrelación.

-Jeffrey M. Wooldridge (pp. 402-403)


-A.K Vera y C.M. Jarque. “Efficient test for Normalita,
Homocesdasticity and serial Independence of regression Residuals” .
Monte Carlo Evidence Economis Letters. Vol. 7 (pp.313-318) 1981.

Como vencer la Multicolinealidad

Var ( ̂ ) < ( ̂ )
*

124
ˆ  ( X ' X ) 1 X ' Y ; ˆRidge
*
 ( X ' X  KI ) 1 X ' Y

E( ̂ ) ≠ (  ) (sesgo), pero, Var ( ̂ ) < Var (  )


* *

A (X ' X ) se le suma una cantidad “K” muy pequeña con el fin de


eliminar la singularidad: 0 < K < 0.05

125
Bibliografía
1. Gujarati N., Damodar (1997). Econometría. McGraw-Hill. Bogotá.
Colombia.
2. Introducción a las series del tiempo. Métodos Paramétricos.
Apuntes de clase Universidad EAFIT.
3. Enders, Walter. Applied Econometric Time Series.
4. Greene, William H. Análisis econométrico, 2006.
5. Brockwell, Peter J y Davis Richard A. Introduction to time series and
forecasting. Ed Springer 1996.
6. Maddaler.

126

También podría gustarte