Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Historia de La Econometria - Etapas
Historia de La Econometria - Etapas
http://www.monografias.com/trabajos7/redes/redes.shtml
http://www.monografias.com/trabajos7/redes/redes2.shtml
1.- INTRODUCCION
El objeto de este artículo son los "recientes desarrollos en Econometría", pero el seguimiento que
se realiza es histórico y como quiera que se han discutidos tales desarrollos recientes serán vistos
como evolucionarios más que como revolucionarios. Esta aproximación histórica se ilustra en las
tablas 1 a 4, las que indican algunos fundamentos desarrollados en la Econometría Teórica y en la
Econometría Aplicada los mismos que serán tratados en este artículo.
La Econometría tiene una historia relativamente larga como rama de la economía, ya que se puede
fijar su nacimiento oficial en 1932, cuando la Sociedad de Econometría fue fundada y la revista
Econometrica empezó a publicarse. Dado que este año se celebra el 68 aniversario de la
fundación de la Sociedad de Econometría, este es un buen momento para contribuir al progreso
que se ha hecho en esta materia y su impacto en el resto de la economía.
Volviendo ahora a la historia de la Econometría, sugeriría que el periodo a ser estudiado sea
dividido en cuatro etapas, aunque no todos ellos han sido excelentes.
Aún cuando la fundación de la Sociedad de Econometría sea tomada para fijar el nacimiento oficial
de esta disciplina, la Econometría no tuvo su "Teoría General" hasta 1944, cuando "Econometrica"
publico un suplemento especial escrito por Trigve Haavelmo. Este ofrecía una estructura teórica
básica para la estimación de ecuaciones simultáneas dentro de la cual la Econometría Teórica era
desarrollada.
Las ideas fundamentales de Haavelmo recogidas por la Fundación Cowles, la cual fue apoyada por
la Universidad de Chicago. Ellas fueron notablemente exitosas, y al adoptar la aproximación de
Máxima Verosimilitud a los problemas que se presentaron en ese tipo, solucionaron virtualmente
todos los problemas teóricos en los que se interesaron a mediados de 1950. Todo lo concerniente
al modelo el cual podía incorporar cualquier combinación de restricciones económicas y
estadísticas fue el Modelo de Máxima Verosimilitud de Información Completa (MVIC).
Sin embargo, la mayor restricción en la aplicación del modelo MVIC fue la falta de poder de la
computación, lo cual esta gráficamente representado en las fotografías existentes del laboratorio
de computación de la Comisión Cowles en 1952, cuando las computadoras no eran máquinas, sino
personas que pasaban todo el día colocando números en las máquinas calculadoras de escritorio.
Este fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más
fácilmente computable del Modelo de Máxima Verosimilitud de Información Limitada (MVIL) y, en
1953, a Henry Theil a presentar el Modelo de Mínimos Cuadrados en dos etapas (MC2E).
A pesar del hecho de que los MC2E ofrecen una técnica que podría ser implementada pese a los
problemas computacionales, los Mínimos Cuadrados Ordinarios (MCO) continúan siendo el método
de estimación más ampliamente utilizado. Durante este período, hubo poco interés en analizar los
supuestos que subyacen al modelo MCO, excepto para la autocorrelación de primer orden (AR1) y
su transformación, y en 1950/51 Durbin y Watson publicaron su prueba de errores de AR1. La
prueba de Durbin y Watson rápidamente llego a ser común y la transformación de Cochrane-Orcutt
la cual tuvo uso generalizado en el trabajo de Econometría Aplicada, desafortunadamente,
ayudaron a persuadir a muchos economistas que la autocorrelación debía y podía ser tratada como
un problema puramente estadístico y no como una señal de mala especificación del modelo.
I) La bondad del ajuste; un valor alto para el R2 fue usualmente lo primero y principalmente el
principal objetivo.
II) Los signos y magnitudes de los parámetros estimados en relación a las expectativas de la teoría
económica, y
Esta metodología será examinada con mayor detalle más adelante, pero la pregunta a
considerarse aquí es por qué la disciplina se tardo tanto para tener un gran impacto sobre el resto
de los economistas en esta época. ¿ por qué es esto? Sugeriría tres razones:
1. Escasez de profesores y libros: Como una nueva disciplina a estudiar, hubieron retrasos en
la introducción de cursos debido a la falta de profesores entrenados para enseñar la
materia y la ausencia de libros y material apropiado para los estudiantes;
2. Escasez de datos apropiados: Las nuevas ideas de la Econometría Teórica fueron también
lentas para ser adoptadas debido a la escasez de datos adecuados. Al principio del
periodo las cuentas sobre el Ingreso nacional no existían, e inclusive cuando comenzaron
a aparecer durante y después de la 2° guerra mundial, la información fue casi de series de
tiempo muy cortas; y
3. Problemas computacionales: En años recientes han llegado a tal punto el alto grado de
desarrollo del poder de la computación, desde la computadora de sistema principal hasta
las modernas Notebook, que es difícil recordar las labores de cálculos intensivos y hasta el
cálculo de la ecuación de regresión simple.
Econometría Teórica : 1944 publicación del trabajo de Haavelmo sobre simultaneidad que llevó a
concentrarse a la Fundación Cowles (más tarde Comisión ) en el modelo.
Restricciones computacionales: Sólo se disponían de calculadoras no eléctricas. La inversa de
una matriz se hacia con la técnica Doolittle.
A pesar de que hubieron importantes avances teóricos durante este periodo, con el desarrollo de
un modelo general para la estimación de Variables Instrumentales (VI) (Sargan 1958) y los
Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962), la característica principal de este
período fue la consolidación y la aplicación.
Las predicciones de varios modelos fueron bastante precisas y los constructores de modelos
obtuvieron considerable prestigio por sus trabajos. Sin embargo, con la ventaja de observar el
pasado, uno debe sugerir que fueron algo afortunados al trabajar en un período de continua
expansión del mundo de la economía, lo que hizo más fácil predecir los cambios de las grandes
variables económicas.
Hubieron algunos desarrollos en las pruebas de diagnóstico, con el trabajo sobre las pruebas de
heterocedasticidad y estabilidad (Chow 1960), pero estos tendieron a ser usados muy pocas veces.
La escasez de datos fue menos un problema en un número de países con cuentas del ingreso
nacional elaboradas para producir series de tiempo con información quincenal para muchas de las
variables macroeconómicas fundamentales, las que incrementaron el potencial de los grados de
libertad disponible para los constructores de modelos, pero también ocasionaron nuevos problemas
de especificación dinámica que no fueron reconocidos generalmente a tiempo.
Las restricciones en computación fueron también más reducidas, tanto que llego a ser más fácil
para los economistas tener acceso a las computadoras de sistema principal, las que fueron
incrementando su poder y capacidad. Muchos de los grandes paquetes econométricos (tales como
el TSP) aparecieron durante este periodo, de modo que las ideas de "hágalo usted mismo" fueron
largamente superados.
Econometría Teórica
Restricciones computacionales
Trabajo sobre la teoría de análisis de datos combinados de series de tiempo y corte transversal,
e.g desarrollo de la teoría de análisis de tablas de datos.
Problemas para los constructores de modelos:
I.- Interrupciones en algunas de las relaciones básicas, e.g. la función de demanda de dinero de los
EE.UU.
II.- Incapacidad de la mayoría de modelos para predecir después de la primera crisis petrolera de la
OPEP.
III.- Ataques a los modelos Keynesianos por parte de los macroeconomistas neoclásicos de las
expectativas racionales.
La década desde mediados de 1970 no fue época para las aplicaciones econométricas, tanto que
fueron sometidas a dos crisis. Primero, el inicio de la recesión seguida por la primera crisis
petrolera de la OPEP que llevo a la mayoría de modelos econométricos establecidos a predecir en
muy mala forma, tanto así que muchas de las relaciones básicas de la economía usadas por los
constructores de modelos (tales como la curva de Phillips, funciones de demanda de dinero, etc.)
resultaron insuficientes de mantenerse vigentes.
Mientras algunos de los constructores de modelos trataron de abordar los problemas empíricos
realizando ajustes ad hoc" (específicamente para eso) a sus modelos, otros econometristas
respondieron de diversas formas.
Primero, hubieron intentos de entender las críticas de la escuela neoclásica de las expectativas
racionales y el problema de cómo incorporar las expectativas racionales dentro de los modelos
macroeconómicos. Mientras esto tendía a producir modelos macroeconómicos más complicados y
ocasionaba algunas dificultades de estimación, ello tuvo el efecto positivo de improvisar la
especificación dinámica de muchos modelos.
Mientras el período no fue un buen momento para los constructores de modelos, ello marco una
nueva era en la computación, ya que a inicios de 1980 se vio la aparición de la computadora
personal IBM. En un momento relativamente corto los econometristas estuvieron trabajando en
estas PC’S que eran más rápidas y poderosas que las computadoras de sistema principal de las
primera épocas. Como consecuencia, los modelos teóricos que habían sido desarrollados por la
Comisión Cowles en los años cincuenta fueron finalmente capaces de implementarse en las
máquinas que fueron apareciendo sobre los escritorios de un gran número de economistas
Econometría Teórica
Restricciones computacionales
1980 Trabajo de Christopher Sims sobre modelística del Vector Autorregresivo (VAR).
A inicios de los 80’s el desarrollo de la PC de la IBM importa tanto como el nivel de cambio
tecnológico de las computadoras el que llega a ser tan veloz que rápidamente no hay virtualmente
restricciones sobre el análisis econométrico.
Mucho interés por la metodología en este periodo. Ninguno de los paradigmas llega a dominar,
pero el acuerdo general es sobre la necesidad de más pruebas de diagnóstico así como
desarrollos en la teoría de las pruebas.
Paquetes econométricos especializados (e.g. PC GIVE, MICROFIT, EVIEWS) y nuevos desarrollos
en Econometría Teórica que inmediatamente se incorporaron en estos paquetes.
Aumenta el interés en la modelística dinámica y en las propiedades de largo plazo de los modelos
econométricos. Esta inquietud lleva al trabajo de fundamental de Clive Granger(1990) sobre
Cointegración, Raíces Unitarias y el Modelo de Corrección de Errores. Así mismo se desarrollan
muchos tópicos especializados para esos temas.
El mayor uso del modelo de ecuación simple (como en los primeros días), pero no con mucho
interés en las pruebas de diagnóstico y donde son apropiados el uso de la estimación de Variable
Instrumental más que los MCO.
Yendo a tiempos más recientes, dos avances han sido particularmente importantes. Primero ha
sido un periodo en que la metodología llego a preocupar más a los profesionales de Econometría.
Los fracasos de los constructores de modelos y la imposibilidad de muchos de los primeros
procedimientos para discriminar entre modelos competentes debido al menor poder (eso es, el
gran error tipo II de aceptar una hipótesis falsa) hizo necesario cuestionar los fundamentos.
Uno de estos fue la validez de traspasar los supuestos clásicos del análisis de regresión si que se
cuestionen y pongan a prueba su validez. Esto ha llevado a un grandioso interés en las
propiedades estadísticas de las ecuaciones y el desarrollo de una amplia variedad de pruebas.
Estos avances están discutidos en la próxima sección.
El efecto de estos paquetes que son instalados en las PC’S sobre los escritorios de aplicados
economistas quienes no son necesariamente econometristas ha tendido a ser provechoso, tanto
así que mientras algunos de ellos han aplicado las pruebas y obtenido los resultados
mecánicamente sin comprenderlos, otros han sido suficientemente motivados para investigar la
teoría que subyace a estas nuevas pruebas y procedimientos de estimación.
Fuera de este cuestionamiento sobre el problema del método, tres escuelas metodológicas
identificadas han surgido:
1. La metodología de los Mínimos Cuadrados.- Empezó a inicios de los 60’s, Denis Sargan
desarrollo una metodología para modelos en los que el constructor de tales cambiaba de una
especificación dinámica general de un modelo, en el cual una serie de pruebas de diagnóstico
fueron empleadas para garantizar que las propiedades estadísticas sean satisfactorias, a una
especificación simple que producía variables redundantes, pero aún permanecía cumpliendo los
supuestos de Gauss-Markov del modelo de regresión (es decir, no autocorrelación, no
heterocedsaticidad, errores normalmente distribuidos, estabilidad de parámetros, forma funcional
satisfactoria, etc.).
1. MCO Si Si
2. VAR No Si
3. Bayesiana. Si No
Ninguna de estas escuelas ha conseguido una posición dominante, pero en términos generales, la
metodología Bayesiana ha tenido relativamente un menor impacto en términos empíricos, la
aproximación VAR encuentra aceptación principalmente en los EE.UU., mientras la aproximación
MCO ha tenido considerable influencia sobre los trabajos realizados en el Reino Unido y a captado
seguidores en los EE.UU. y en algunos otros puestos de avanzada de los MCO.
Modelística de lo general a lo simple. Miembros de la escuela de los MCO han sido muy criticados
por sus primeros trabajos de Econometría aplicada debido a su naturaleza simple a general. Los
primeros modelos tendían a comenzar con una muy simple especificación del modelo a ser
investigado. Muchas regresiones fueron corridas y los investigadores insistieron excesivamente
sobre el criterio de la bondad de ajuste para elegir entre las ecuaciones alternativas y determinar si
un modelo era satisfactorio. Los supuestos del teorema de Gauss-Markov, los que no son
necesarios para justificar el uso de los MCO en el análisis de regresión, fueron tomados como
válidos sin ser puestos a prueba. Esto esta ilustrado en la figura 2.
Figura 2.
Simple a general (1).
MO
1. R2 alto OK.
2. Signos de los estimadores correctos OK.
3. Tamaño de los estimadores correcto OK.
4. Pruebas t, (F) significativas OK.
Si estas pruebas son incorrectas o poco significativas:
¿ Qué hacer ahora?: ¿ Cambiar la forma de la función?, ¿ Agregar variables?; ¿ Eliminar
observaciones?.
Una vez que la prueba Durbin-Watson para errores autoregresivos de primer orden y la
transformación de Cochrane-Orcutt fueron incorporadas en los paquetes de regresión, ellas fueron
usadas, pero en una forma mecánica. Sólo si la transformación Cochrane-Orcutt fallaba para
eliminar la autocorrelación el investigador debería cambiar hacia una especificación más general
del modelo, por ejemplo incluyendo variables adicionales, deshacerse de observaciones extremas,
etc. Esto esta ilustrado en la figura 3.
Figura 3.
Simple a general (2)
M1
1. R2
2. Signos de los estimadores.
3. Tamaño de los estimadores.
4. Pruebas t (F).
5. Prueba de Durbin-Watson para AR(1):
Significativo: M1 = MO + AR(1)
No significativo OK.
Metodología del Vector Autorregresivo (VAR).- Esta aproximación esta asociada con el trabajo de
Christopher Sims, hace menor uso de la teoría económica que los constructores de modelos
macroeconómicos y se ha concentrado en investigar la relación entre los fundamentos económicos
de las series de tiempo usando modelos autorregresivos y muchas de las técnicas desarrolladas
por el trabajo de Box y Jenkins. Por ejemplo, un modelo simple VAR de la relación entre el ingreso
(Y) y el dinero (M) sería:
Yt = 11 + 12Mt-1 + 13Yt-1 + 1t
Mt = 21 + 22Mt-1 + 23Yt-1 + 2t
La aproximación por MCO empieza por especificar un Modelo General Dinámico que incorpora la
teoría económica en la elección de las variables del modelo, pero al principio el objetivo es
asegurar que el modelo tenga propiedades estadísticas satisfactorias. Un número grande de
pruebas de diagnóstico son utilizadas para garantizar que los supuestos básicos, necesarios para
justificar el empleo de los MCO, son válidos cuando el modelo es usado para los datos a ser
analizados.
Si las propiedades estadísticas del modelo son revisadas y resueltas satisfactorias, el siguiente
paso es examinar los parámetros estimados para ver si es posible simplificarlos, por ejemplo,
suprimiendo variables que no son estadísticamente significativas, imponiendo restricciones que
parezcan consistentes con los datos, o que están implícitas en la teoría económica, etc. Sin
embargo, después que estas restricciones han sido impuestas, el modelo es probado otra vez para
asegurar que las propiedades estadísticas siguen siendo satisfactorias.
Este proceso de imponer restricciones sobre el modelo general debe continuar a través de varios
pasos más hasta alcanzar un punto en el cual la última restricción impuesta lo lleve a una violación
de las propiedades estadísticas del modelo.
Cuando este punto es alcanzado los investigadores vuelven a la versión previa del modelo, ya que
además la simplificación hacia esta etapa no es consistente con los datos. Esto esta ilustrado en la
figura 4.
Figura 4.
Modelística de lo General a lo Simple.
M1 Modelo general (dinámico) SPGM ¿ OK? OK.
M2 Restricciones impuestas sobre M1 SPGM ¿ OK? OK
M3 Restricciones sobre M2 SPGM ¿ OK? OK
M4 Restricciones sobre M3 SPGM ¿ OK? NO!!!
SPGM = Supuestos sobre la prueba de Gauss-Markov.
Propiedades dinámicas y de largo plazo de los modelos económicos.- La aproximación por MCO
esta muy interesada en que los modelos económicos no deberían ignorar las propiedades de largo
plazo de sus relaciones. Cuando al analizar los datos quincenal o mensualmente, los modelos
estadísticos que son formulados en términos de valores corrientes de las variables, tal como:
Yt = 0 + 1Xt + t (1)
Bien deben estar mal especificados, ya que suponen ajuste casi instantáneo. Inclusive más
dudosas son las ecuaciones que están expresadas en términos de primeras diferencias de las
variables, tales como:
Yt = 0 + 1 Xt + t (2)
Ya que es difícil interpretar la ecuación (2) en el largo plazo. Considerando un equilibrio estático de
largo plazo en el cual Yt y Xt tienden a los valores de equilibrio Y* y X*, con t tomando su valor
esperado E( t)=0 y no habiendo más cambios, se tiene que Yt = Xt =0. En este caso la
solución de largo plazo para (2) es:
0 = 0 + 0 + 0 (2’)
Ello implica que 0 =0. Alternativamente si suponemos que sólo Xt tiende a X* y que Yt sigue
creciendo, la solución de largo plazo para la ecuación (2) es:
Yt = 0 +0 + 0 , (2")
es decir, en el equilibrio Xt = X* e Yt por ello crece a una cantidad constante ( 0) por período. Lo
extraño de la ecuación (2) es alguna indicación de los niveles de equilibrio de las variables.
La aproximación por MCO para modelar las propiedades de largo plazo de una relación debería
estar especificada en una ecuación dinámica, por ejemplo:
Donde 0 3<1. Los términos rezagados en (3) nos permiten trazar ambos ajustes económicos de
corto plazo y de largo plazo. De esta manera, si partimos de una situación de equilibrio y X cambia
por un incremento X en el período t y luego permanece constante, el efecto del impacto por un
cambio en el primer período esta dado por 0. En el segundo período hay dos efectos, primero el
efecto de cambio en X en el período previo, dado por 2,y segundo, el efecto producido por el
cambio en Y en el período anterior, dado por 3. En los períodos que siguen, continua siendo
afectada por los cambios en Y de cada período, pero ya que 0 3<1, este proceso multiplicador
convergerá a una suma infinita y la ecuación (3) será resuelta para darle una solución de largo
plazo. Si Y y X toman valores de equilibrio de Y* y X*, tenemos que Xt = Xt-1 = X* e Yt = Yt-1 = Y*, la
solución de equilibrio de la ecuación (3) será:
Y* = 0 + 1X* + 2X* + 3Y* ó
Y* = 0* + *X , donde
0* = 0/(1 - 3) y * = ( 1 - 2)/(1- 3). (4)
Corrección de errores en los modelos.- Otra característica del trabajo siguiendo la aproximación
por MCO ha sido la reparametrización de las ecuaciones dinámicas de modo que se ponga de
manifiesto la importancia de las diferentes clases de ajustes realizados. Los modelos reescritos en
esta forma han llegado a ser conocidos como Modelos de Corrección de errores , o MCE. La
versión del MCE de la ecuación (3) se escribe como:
Escrita en esta forma la ecuación muestra que el cambio en Y de cada período ( Yt) esta
relacionada con el cambio en X ( Xt), pero también para cambios en los niveles rezagados de las
variables. en particular el término (Yt-1 - Xt-1) recoge el efecto del desequilibrio en los niveles de las
variables en el período anterior. La importancia de éstos términos rezagados en los niveles de las
variables mostradas es porque los modelos formulados en términos de primeras diferencias sólo no
pueden ofrecer la información sobre las relaciones de largo plazo entre las variables.
Cointegración.- El concepto de Cointegración fue propuesto por Clive Granger y aún más
desarrollado por Granger y Robert Engle.El interés en el concepto ha aumentado entre los
economistas, pues ha habido más preocupación en las propiedades de largo plazo de los modelos
económicos. Muchas variables macroeconómicas, tales como el consumo agregado y el ingreso
agregado, contienen una tendencia muy marcada y la pregunta que surge es: dado que la brecha
entre el consumo agregado y el ingreso agregado esta creciendo fuera de tiempo, ¿ cómo
prevenirlos de la derivación casi siempre más alejada en el largo plazo?¿ en qué sentido podemos
hablar de un equilibrio en el largo plazo entre estas dos variables?.
Cointegración.- Deje que Xt sea un vector de variables, todas las cuales son I(d). En general,
combinaciones lineales de las variables que son I(d), tales como ‘Xt, también son I(d). Sin
embargo, ello será posible para hallar un vector que la combinación lineal ‘Xt es una integral de
menor orden que d. Formalmente, las variables en el vector X t se dicen que son cointegrales de
orden d,b denotadas como Xt CI(d,b) si:
Debe ser considerada como una relación de largo plazo o de equilibrio, tal vez propuesta por
alguna teoría económica, y Zt por ello mide el punto en el cual el sistema esta fuera de equilibrio,
puede por tal motivo ser llamado el "error del equilibrio". El término ‘equilibrio’ es usado de varias
maneras por los economistas. Aquí el término no es utilizado para significar algo sobre el
comportamiento de los agentes económicos pero además describe la tendencia de un sistema
económico al moverse con dirección a una región en particular del campo de resultados. Si X t y Yt
son I(1) pero cambias juntas en el largo plazo es necesario que Z t sea I(0), ya que de otra forma las
dos series se alejarían sin límites.(Granger 1986 pp. 215-216).
Yt = + Xt + t (8)
Representan una regresión de largo plazo y Yt y Xt son ambas I(1). Claramente, para que existan
una relación de largo plazo entre estas variables estas deben estar Cointegradas y dado (8), t
será el vector de Cointegración. Para que Xt y Yt estén Cointegradas,
t = Yt - - Xt I(0) (9)
t = t-1 + t (10)
y =1. Una prueba para la estimación podría, entonces, estar basada sobre la hipótesis nula H0:
=1, con la hipótesis alternativa H1: <1 .
Encontrar una base teórica para tal prueba ha ofrecido dificultades, ya que bajo la hipótesis nula t
no es fija y es posible que las pruebas estadísticas no sigan las usuales distribuciones de t, F o 2.
Prueba de Dickey - Fuller (DF).- Dickey y Fuller encontraron que el problema podría ser
simplificado sacando a t de ambos lados de (10) para obtener: t = ( -1) t-1 + t
t = t-1 + t (11)
cuando la hipótesis nula es ahora H0: =0 y la hipótesis alternativa es H1: <0. Mientras esta
transformación ayudo con los problemas de la distribución, la prueba estadística no sigue con la
distribución tradicional y los valores críticos para la evaluación de la prueba estadística han tenido
que ser determinados a través de los extensos experimentos de Monte Carlo.
Prueba ampliada de Dickey-Fuller (ADF).- El proceso autorregresivo de (10) es muy simple y para
tener en cuenta dinámicas más complejas, Dickey y Fuller propusieron pruebas para la
estacionariedad basadas en la ecuación ampliada:
Prueba de Raíz Unitaria de Phillips-Perron (PP).- Una prueba alternativa de raíz unitaria fue
desarrollada por Phillips y Perron . Al igual que la prueba ADF, la prueba PP es una prueba de
hipótesis sobre p=1 en la ecuación: Yt = + pYt-1 + t ; pero a diferencia de la prueba ADF, no
existen términos de diferencias retardados. Más bien, la ecuación es estimada por MCO y luego el
estadístico "t" del coeficiente p es corregido. La hipótesis nula H 0 del test de Phillips-Perron es la
trayectoria de raíz unitaria con tendencia y la alternativa la estacionariedad con tendencia, si el
valor t-Student asociado al coeficiente de Yt-1 es mayor en valor absoluto al valor crítico de
MacKinnon, se rechaza la hipótesis de existencia de raíz unitaria.
Test de Zivot y Andrews.- Zivot y Andrews (1992) elaboraron un test en el que se diferencia una
trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural, debido a que los
tradicionales test ADF y PP estaban sesgados hacia el no rechazo de la hipótesis nula de raíz
unitaria, puesto que a menudo se rechazaba incorrectamente la hipótesis alternativa de
estacionariedad. La hipótesis nula es la presencia de raíz unitaria con tendencia y la alternativa, la
de estacionariedad con tendencia y cambio estructural (en el nivel y/o pendiente). Zivot y Andrews
presentan unos gráficos en la que se plotean por un lado, la trayecoria de la distribución t o t’s de
Zivot, y por el otro los valores de la distribución t crítico. Si el valor t-Zivot es menor que los valores
críticos (VCRIT), existe suficiente evidencia estadística para rechazar la hipótesis nula de raíz
unitaria, por lo que la(s) serie(s) evaluadas muestra una trayectoria de raíz unitaria.
Contrariamente, si la distribución de valores t Zivot son mayores que el t crítico, no existe evidencia
para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).
Los desarrollos metodológicos descritos antes serán ilustrados por medio de un ejemplo práctico.
Un aplicado economista llamado GUS 1 quien aprendió Econometría en los años 40 esta
evaluando datos desde 1941 hasta 1992 (datos anuales) sobre dos variables y y X, y pidió
investigar la relación entre ellas. El corrió la regresión:
Yt= + Xt + t (13)
con la esperanza de que 0< , pero sin suponer cual era su magnitud. sus resultados (con los
errores estándar entre paréntesis) son:
Debido a que el valor R2 es bastante alto, el signo del coeficiente de X t es positivo, como se
esperaba, y la razón t de 17.32 es altamente significativo, él estuvo muy contento con los
resultados de su estimación.
El mostró los resultados a su hermano menor, GUS 2, quien estudio Econometría a inicios del año
60, y quien le dijo que se había contentado muy fácilmente con los resultados, ya que el valor del
estadístico Durbin-Watson para su ecuación es 0.190, lo que implica un severo problema de
autocorrelación positiva de primer orden.
El señor GUS 2 propuso para abordar este problema la aplicación de una transformación
Cochrane-Orcutt (C-O) para la ecuación y corrió una nueva regresión:
El explico que mientras la transformación C-O ha mejorado la situación, ya que el valor del
estadístico D-W ha mejorado (0.718), éste aún no es significativo estadísticamente y el modelo
debería ser cambiado.
El hizo el diagrama de puntos de los datos Y y X (SCAT) contra el tiempo(ver figura 1) y decide que
la forma funcional del modelo necesita ser cambiada.
Esta ecuación se ajusta bien y todos los coeficientes estimados son significativos, pero aún hay
problema de autocorrelación positiva. Una vez más intenta la transformación C-O y obtiene:
Lo cual no parece muy satisfactorio, ya que a pesar de que el ajuste es muy bueno, dos de los
parámetros estimados son escasamente significativos estadísticamente y no ha sido capaz de
eliminar la autocorrelación positiva.
Dadas estas dificultades, los hermanos GUS deciden pedir la ayuda a su joven sobrino GUSI,
quien acaba de retornar de estudiar Econometría en Estados Unidos. El les dice que no esta de
acuerdo con sus aproximaciones y su fracaso al hacer mayor uso de las pruebas de diagnóstico. El
comienza con un modelo general dinámico y lo estima para el período 1943-1982, eliminando las
dos primeras observaciones para permitir la creación de rezagos y reteniendo las diez últimas
observaciones para las pruebas de consistencia. Los resultados para esta regresión son:
(MCO)
Yt = 34.208 + 1.314Xt. -1.002Xt-1 + 0.112Xt-2 + 1.101Yt-1 -0.232Yt-2 (19)
(8.675) (0.173) (0.267) (0.188) (0.170) (0.139)
R2=0.999 D-W=2.100
Diagnósticos:
AR 1: F(1,33) = 2.438 FF: F(1,33) = 0.0001
JB: CHI2(1) = 0.348 HET: F(1,38) = 0.532
PF: F(10,34) = 0.829 CHOW: F(6,38) = 0.361
El señor GUSI explica que su elección de un modelo general parece satisfactoria, ya que ninguna
de las pruebas de diagnóstico son significativas. Se da cuenta que dos de los coeficientes
estimados no son significativos y decide ver si deben ser eliminados sin causar problemas
estadísticos, elimina Yt-2 y estima:
(MCO)
Yt = 48.071 + 1.237Xt.- 0.630Xt-1 - 0.019Xt-2 + 0.815Yt-1 (20)
(2.677) (0.171) (0.152) (0.175) (0.015)
R2=0.999 D-W=2.100
Diagnósticos:
AR 1: F(1,34) = 2.145 FF: F(1,34) = 1.331
JB: CHI2(1) = 0.769 HET: F(1,38) = 0.048
PF: F(10,35) = 0.752 CHOW: F(6,40) = 0.354
Dado el diagnóstico de pruebas, se muestra que la eliminación de esta variable no ha afectado las
propiedades estadísticas de la ecuación, a la inversa, él examina el efecto de eliminar la variable
insignificante, Xt-2. Los resultados son:
(MCO)
Yt = 48.161 + 1.225Xt.- 0.635Xt-1 + 0.816Yt-1 (21)
(2.515) (0.132) (0.143) (0.014)
R2=0.999 D-W=2.100
Diagnósticos:
AR 1: F(1,35) = 2.151 FF: F(1,34) = 1.056
JB: CHI2(1) = 0.755 HET: F(1,38) = 0.045
PF: F(10,35) = 0.774 CHOW: F(6,40) = 0.465
Dado que las propiedades estadísticas de esta ecuación son satisfactorias y todas las variables
restantes son significativas, el Sr. GUSI decide que esta es la especificación que él escogería. Sin
embargo, antes de estimar esta ecuación utilizando toda la data, decide mostrarle a sus tíos lo que
les paso a las pruebas de diagnóstico cuando estima la ecuación original elegida por GUS 1. Sus
resultados son:
(MCO)
Yt = 184.9 + 5.244Xt. (22)
(8.519) (0.324)
R2=0.874 D-W=0.352
Diagnósticos:
AR 1: F(1,37) = 30.407 FF: F(1,37) = 60.807
JB: CHI2(1) = 17.145 HET: F(1,38) = 4.268
PF: F(10,38) = 0.806 CHOW: F(2,46) = 4.781
El efecto ha sido dramático, ya que con excepción de la prueba de error de predicción, todas las
otras pruebas de hipótesis son significativas e indican que la especificación de la ecuación debe
ser rechazada. La mala especificación de la dinámica no sólo causa la autocorrelación que
preocupo a GUS 2, también ocasiona problemas en la forma funcional, la distribución normal, la
heterocedasticidad y en la consistencia de los parámetros.
Finalmente, utilizando los datos desde 1942 hasta 1992, el Sr. GUSI volvió a estimar su
especificación elegida y obtuvo:
Diagnósticos:
AR 1: F(1,46) = 2.622 FF: F(1,46) = 1.318
JB: CHI2(1) = 0.475 HET: F(1,49) = 0.061
Obviamente los resultados no serán siempre tan decisivos como éstos, pero este ejemplo ilustra
los peligros de modelar de lo específico a lo general y las ventajas de la aproximación inversa.
5. Conclusiones.
Uno debe resumir la actual situación de la Econometría la que va siendo más pragmática de lo que
fue en la etapa del descubrimiento. En ese período los pioneros creyeron que sería posible
construir una imagen econométrica de una economía para buscar el bienestar y siempre
mejorando la teoría económica, la que produciría estimaciones estables y consistentes de los
verdaderos parámetros que permitirían que la política económica este basada sobre el análisis
cuantitativo.
Los años desde aquellos primeros días, han mostrado que este optimismo inicial estuvo fuera de
lugar y que modelizar los eventos económicos es más difícil de lo que ellos creyeron que sería. La
concentración inicial en la parte económica de un modelo y en el tratamiento de los errores como
un fenómeno estadístico han dado paso a los métodos que consideran a los errores como el objeto
central para la comprensión del ajuste económico y la exploración de la especificación del modelo.
Comparando la calidad del trabajo empírico durante los primeros años del período en discusión en
este artículo, considerables progresos se han dado en años recientes. Hay pocos, aunque algunos
serios problemas que hasta las cuestiones computacionales están ahora comprometidas, aun
cuando uno espere que la ingenuidad de los econometristas para generar nuevos problemas
extienda la capacidad y el poder de las computadoras en el futuro. En comparación con las etapas
iniciales, éste no es un mal momento para ser un econometrista.
Libros de Consulta
"Los límites de la Econometría"- Darnell,A.C y Evans,J.L.(Londres: Edward Elgar,1990).
"La exploración de los datos como una industria"- Revista de Economía y Estadística, 65 (Marzo
1985),124-127.-Denton,F.T.
"Relaciones económicas de largo plazo: estudios de Cointegración"- Engle,R.F y Granger,C.W.J.
(Oxford: Imprenta de la Universidad de Oxford).
"Una historia de la Econometría"- Epstein,R.(Amstendarm: Norte de Holanda, 1987).
"Desarrollo en el estudio de variables económicas Cointegradas"- Granger,C.W.(Boletín de
economía y estadística de Oxford, 48-Agosto 1986).(Reimpreso en Engle-Granger ediciones 1991).
"Series de modelística económica"-Granger,C.W.J (edición).(Oxford: Imprenta de la Universidad de
Oxford 1990).
"Exploración de datos"- Lovell,M.C.(Revista de economía y estadística, 65 Marzo 1985 pp.124-
127).
"Valores críticos de las pruebas de Cointegración"-Engle y Granger Ediciones 1991./Mackinnon,J.
"La historia de las nociones de econometría"-Morgan,M.S.(Cambridge:Prensa de la Universidad de
Cambridge,1990).
"Tres métodos de Econometría: una apreciación crítica"(Revista de estudios económicos # 1/1987
pp.3-24).
"Manual del usuario del MICROFIT 3.0"-Pesaran,M.H y Pesaran,B.(Oxford: Imprenta de la
Universidad de Oxford,1991).
"Manual del usuario del EVIEWS 3.0"-R.Hall , David.L.Lilien, et al.(Quantitative Micro Software,
California 1997).
Reconocimientos.
Este artículo fue escrito mientras estuve visitando la Universidad Nacional Mayor de San Marcos
entre julio y setiembre del 2000 y estoy muy agradecido al Departamento de Economía de la
UNMSM por su apoyo acedémico para mi visita, a la Universidad por su generosa hospitalidad y a
los miembros de la Facultad de Economía, especialmente a Mg. Víctor Pérez Súarez por las
estimulantes discusiones. Los puntos de vista expresados en este artículo son los del autor y no
necesariamente reflejan los de la Facultad de Economía.