Está en la página 1de 16

EVOLUCION DE LA ECONOMETRIA

http://www.monografias.com/trabajos7/redes/redes.shtml
http://www.monografias.com/trabajos7/redes/redes2.shtml

1.- INTRODUCCION

El objeto de este artículo son los "recientes desarrollos en Econometría", pero el seguimiento que
se realiza es histórico y como quiera que se han discutidos tales desarrollos recientes serán vistos
como evolucionarios más que como revolucionarios. Esta aproximación histórica se ilustra en las
tablas 1 a 4, las que indican algunos fundamentos desarrollados en la Econometría Teórica y en la
Econometría Aplicada los mismos que serán tratados en este artículo.

La Econometría tiene una historia relativamente larga como rama de la economía, ya que se puede
fijar su nacimiento oficial en 1932, cuando la Sociedad de Econometría fue fundada y la revista
Econometrica empezó a publicarse. Dado que este año se celebra el 68 aniversario de la
fundación de la Sociedad de Econometría, este es un buen momento para contribuir al progreso
que se ha hecho en esta materia y su impacto en el resto de la economía.

2. Una revisión histórica de los desarrollos en Econometría.

Volviendo ahora a la historia de la Econometría, sugeriría que el periodo a ser estudiado sea
dividido en cuatro etapas, aunque no todos ellos han sido excelentes.

I) LA ETAPA DEL DESCUBRIMIENTO (desde 1930 hasta mediados de 1950).

Aún cuando la fundación de la Sociedad de Econometría sea tomada para fijar el nacimiento oficial
de esta disciplina, la Econometría no tuvo su "Teoría General" hasta 1944, cuando "Econometrica"
publico un suplemento especial escrito por Trigve Haavelmo. Este ofrecía una estructura teórica
básica para la estimación de ecuaciones simultáneas dentro de la cual la Econometría Teórica era
desarrollada.

Las ideas fundamentales de Haavelmo recogidas por la Fundación Cowles, la cual fue apoyada por
la Universidad de Chicago. Ellas fueron notablemente exitosas, y al adoptar la aproximación de
Máxima Verosimilitud a los problemas que se presentaron en ese tipo, solucionaron virtualmente
todos los problemas teóricos en los que se interesaron a mediados de 1950. Todo lo concerniente
al modelo el cual podía incorporar cualquier combinación de restricciones económicas y
estadísticas fue el Modelo de Máxima Verosimilitud de Información Completa (MVIC).

Sin embargo, la mayor restricción en la aplicación del modelo MVIC fue la falta de poder de la
computación, lo cual esta gráficamente representado en las fotografías existentes del laboratorio
de computación de la Comisión Cowles en 1952, cuando las computadoras no eran máquinas, sino
personas que pasaban todo el día colocando números en las máquinas calculadoras de escritorio.
Este fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más
fácilmente computable del Modelo de Máxima Verosimilitud de Información Limitada (MVIL) y, en
1953, a Henry Theil a presentar el Modelo de Mínimos Cuadrados en dos etapas (MC2E).

A pesar del hecho de que los MC2E ofrecen una técnica que podría ser implementada pese a los
problemas computacionales, los Mínimos Cuadrados Ordinarios (MCO) continúan siendo el método
de estimación más ampliamente utilizado. Durante este período, hubo poco interés en analizar los
supuestos que subyacen al modelo MCO, excepto para la autocorrelación de primer orden (AR1) y
su transformación, y en 1950/51 Durbin y Watson publicaron su prueba de errores de AR1. La
prueba de Durbin y Watson rápidamente llego a ser común y la transformación de Cochrane-Orcutt
la cual tuvo uso generalizado en el trabajo de Econometría Aplicada, desafortunadamente,
ayudaron a persuadir a muchos economistas que la autocorrelación debía y podía ser tratada como
un problema puramente estadístico y no como una señal de mala especificación del modelo.

Metodológicamente, los economistas ocupados en el trabajo empírico durante este período


tendieron a ignorar la mayoría de los desarrollos teóricos y continuaron estimando modelos
uniecuacionales y evaluándolos sobre la base de un simple e inadecuado criterio:

I) La bondad del ajuste; un valor alto para el R2 fue usualmente lo primero y principalmente el
principal objetivo.

II) Los signos y magnitudes de los parámetros estimados en relación a las expectativas de la teoría
económica, y

(III) Las pruebas t y F de hipótesis económicas simples.

Esta metodología será examinada con mayor detalle más adelante, pero la pregunta a
considerarse aquí es por qué la disciplina se tardo tanto para tener un gran impacto sobre el resto
de los economistas en esta época. ¿ por qué es esto? Sugeriría tres razones:

1. Escasez de profesores y libros: Como una nueva disciplina a estudiar, hubieron retrasos en
la introducción de cursos debido a la falta de profesores entrenados para enseñar la
materia y la ausencia de libros y material apropiado para los estudiantes;
2. Escasez de datos apropiados: Las nuevas ideas de la Econometría Teórica fueron también
lentas para ser adoptadas debido a la escasez de datos adecuados. Al principio del
periodo las cuentas sobre el Ingreso nacional no existían, e inclusive cuando comenzaron
a aparecer durante y después de la 2° guerra mundial, la información fue casi de series de
tiempo muy cortas; y
3. Problemas computacionales: En años recientes han llegado a tal punto el alto grado de
desarrollo del poder de la computación, desde la computadora de sistema principal hasta
las modernas Notebook, que es difícil recordar las labores de cálculos intensivos y hasta el
cálculo de la ecuación de regresión simple.

Estas restricciones, particularmente la tercera, ha influenciado en el desarrollo de la Econometría


Aplicada y en la velocidad a la que ha sido adoptada en aspecto importantes como se muestra en a
continuación:

LA ETAPA DEL DESCUBRIMIENTO.

Econometría Teórica : 1932 Fundación de la Sociedad de Econometría y la Fundación Cowles en


la Universidad de Chicago.
Restricciones computacionales: Serias restricciones en el cómputo.

Econometría Teórica : 1944 publicación del trabajo de Haavelmo sobre simultaneidad que llevó a
concentrarse a la Fundación Cowles (más tarde Comisión ) en el modelo.
Restricciones computacionales: Sólo se disponían de calculadoras no eléctricas. La inversa de
una matriz se hacia con la técnica Doolittle.

Econometría Teórica : Utilizando la aproximación de máxima verosimilitud, la mayoría de los


problemas se resolvieron a inicios de 1950.
Restricciones computacionales: Computadoras de sistema principal son desarrolladas, pero sólo
disponibles para el gobierno de los EE.UU., más no para la investigación económica.
La solución teórica completa dada por MVIC, no fue posible de usar a causa de las restricciones
computacionales, así que la Comisión Cowles también desarrollo el MVIL.
Econometría Teórica : 1949 trabajo de Cochrane-Orcutt sobre la transformación AR1.
Restricciones computacionales: Disponibilidad de máquinas calculadoras de escritorio
(eléctricas).

Econometría Teórica : 1950 Desarrollo de la prueba de Durbin-Watson para errores AR1.


A pesar de los desarrollos en Econometría (teoría), los trabajos aplicados continúan utilizando los
MCO con énfasis sobre R2, signos y magnitudes de los estimadores y pruebas t y F.

II) ETAPA DE LA CERTIDUMBRE.

La Etapa de la Certidumbre (desde mediados de 1950 hasta mediados de 1970).

Econometría Teórica : 1958 Trabajo de Sargan sobre la estimación de variables instrumentales


(VI).
Restricciones computacionales: A inicios de 1960, las computadoras de sistema principal en
muchas universidades e instituciones de investigación eran aún restringidas en poder y tamaño.

Econometría Teórica : 1960 Trabajo de G.Chow sobre pruebas de estabilidad de parámetros.


Muchos modelos econométricos pequeños se construyeron.

Econometría Teórica : 1962 Trabajo de Zelner y Theil sobre MC3E.


Restricciones computacionales: Aparecen paquetes tales como el SPSS y el TSP.

Econometría Teórica : 1964 Trabajo de Sargan sobre las pruebas de externalidad.


Restricciones computacionales: Computadoras mas grandes y más poderosas de sistema
principal estuvieron a disposición.

Econometría Teórica : 1965 Trabajo de Shirley Almon sobre estructuras de rezagos.


Este periodo es la etapa de los grandes modelos de ecuaciones simultáneas.

Econometría Teórica : 1969 Trabajo de Clive Granger sobre causalidad.


Datos quincenales están disponibles en algunos países, así que la escasez de datos no la es como
cuando existen datos anuales.

Econometría Teórica : 1972 Trabajo de Christopher Sims, Arnold Zellner en la Universidad de


Chicago , y de Jean Dreze y Edward Leamer en CORE.

A pesar de que hubieron importantes avances teóricos durante este periodo, con el desarrollo de
un modelo general para la estimación de Variables Instrumentales (VI) (Sargan 1958) y los
Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962), la característica principal de este
período fue la consolidación y la aplicación.

Esta fue la etapa de la construcción de modelos, así como de la disponibilidad de computadoras de


sistema principal y de programas econométricos especializados lo que hizo posible construir
modelos macroeconométricos de gran escala. En los EE.UU., Lawrence Klein había desarrollado el
gran modelo de la escuela Wharton en la Universidad de Philafelphia y otros grandes modelos
fueron patrocinados por el Instituto Brookings y la Junta de la Reserva Federal en colaboración con
el M.I.T. La Escuela de Negocios de Londres fue una de las primeras pioneras en el Reino Unido y,
antes de terminar este período el Banco de Inglaterra, el cual normalmente no esta interesado en
estas innovaciones técnicas, había construido un modelo econométrico.

Las predicciones de varios modelos fueron bastante precisas y los constructores de modelos
obtuvieron considerable prestigio por sus trabajos. Sin embargo, con la ventaja de observar el
pasado, uno debe sugerir que fueron algo afortunados al trabajar en un período de continua
expansión del mundo de la economía, lo que hizo más fácil predecir los cambios de las grandes
variables económicas.

Hubieron algunos desarrollos en las pruebas de diagnóstico, con el trabajo sobre las pruebas de
heterocedasticidad y estabilidad (Chow 1960), pero estos tendieron a ser usados muy pocas veces.

Ya existían programas universitarios formando profesionales en Econometría, muchos de los


cuales fueron contratados por los grandes centros de modelística macroeconométrica. Sin
embargo, la mayoría de estos profesionales permanece sin conocer los desarrollos de la
Econometría Teórica y el nivel general del trabajo aplicado en Economía sigue siendo bajo, como
se describió líneas atrás.

La escasez de datos fue menos un problema en un número de países con cuentas del ingreso
nacional elaboradas para producir series de tiempo con información quincenal para muchas de las
variables macroeconómicas fundamentales, las que incrementaron el potencial de los grados de
libertad disponible para los constructores de modelos, pero también ocasionaron nuevos problemas
de especificación dinámica que no fueron reconocidos generalmente a tiempo.

Las restricciones en computación fueron también más reducidas, tanto que llego a ser más fácil
para los economistas tener acceso a las computadoras de sistema principal, las que fueron
incrementando su poder y capacidad. Muchos de los grandes paquetes econométricos (tales como
el TSP) aparecieron durante este periodo, de modo que las ideas de "hágalo usted mismo" fueron
largamente superados.

III) LA ETAPA DE LA INCERTIDUMBRE.

La etapa de la incertidumbre (desde mediados de 1970 hasta mediados de 1980).

Econometría Teórica

Restricciones computacionales

Desarrollo del método de MC "General a lo específico", especialmente en el trabajo de Denis


Sargan y David Hendry.
Desarrollo de computadoras de sistema principal más rápidas y más poderosas.

Trabajo de Pesaran y otros sobre la teoría de las Pruebas de hipótesis no relacionadas.


Desarrollo de programas más especializados en Econometría, por ejemplo: RATS, SHAZAM, PC
GIVE, etc.

Trabajo sobre la teoría de análisis de datos combinados de series de tiempo y corte transversal,
e.g desarrollo de la teoría de análisis de tablas de datos.
Problemas para los constructores de modelos:

Problemas para los constructores de modelos:

I.- Interrupciones en algunas de las relaciones básicas, e.g. la función de demanda de dinero de los
EE.UU.

II.- Incapacidad de la mayoría de modelos para predecir después de la primera crisis petrolera de la
OPEP.

III.- Ataques a los modelos Keynesianos por parte de los macroeconomistas neoclásicos de las
expectativas racionales.
La década desde mediados de 1970 no fue época para las aplicaciones econométricas, tanto que
fueron sometidas a dos crisis. Primero, el inicio de la recesión seguida por la primera crisis
petrolera de la OPEP que llevo a la mayoría de modelos econométricos establecidos a predecir en
muy mala forma, tanto así que muchas de las relaciones básicas de la economía usadas por los
constructores de modelos (tales como la curva de Phillips, funciones de demanda de dinero, etc.)
resultaron insuficientes de mantenerse vigentes.

Segundo, la teoría macroeconómica derivada de Keynes que proporciono la bese para la


construcción de modelos econométricos estuvo bajo el ataque de una NUEVA ESCUELA de
macroeconomistas neoclásicos - ¡ las expectativas racionales habían llegado!. Este a taque
combinado de fracasos de predicción de los modelos macroeconómicos existentes llevó a la
pérdida de confianza(de ambos lados)por parte de los constructores de modelos como de los
usuarios de los modelos.

Mientras algunos de los constructores de modelos trataron de abordar los problemas empíricos
realizando ajustes ad hoc" (específicamente para eso) a sus modelos, otros econometristas
respondieron de diversas formas.

Primero, hubieron intentos de entender las críticas de la escuela neoclásica de las expectativas
racionales y el problema de cómo incorporar las expectativas racionales dentro de los modelos
macroeconómicos. Mientras esto tendía a producir modelos macroeconómicos más complicados y
ocasionaba algunas dificultades de estimación, ello tuvo el efecto positivo de improvisar la
especificación dinámica de muchos modelos.

Segundo, los problemas metodológicos fueron requeridos sobre el proceso de construcción


yselección de modelos y un número de diferentes escuelas surgieron, lo que ha tenido alguna
influencia en años recientes. Los orígenes de las ideas concernientes han sido vistas antes, pero
no han penetrado tanto hacia los pequeños grupos de seguidores hasta que la crisis los obligo a
prestar atención a una amplia audiencia.

Mientras el período no fue un buen momento para los constructores de modelos, ello marco una
nueva era en la computación, ya que a inicios de 1980 se vio la aparición de la computadora
personal IBM. En un momento relativamente corto los econometristas estuvieron trabajando en
estas PC’S que eran más rápidas y poderosas que las computadoras de sistema principal de las
primera épocas. Como consecuencia, los modelos teóricos que habían sido desarrollados por la
Comisión Cowles en los años cincuenta fueron finalmente capaces de implementarse en las
máquinas que fueron apareciendo sobre los escritorios de un gran número de economistas

IV) LA ETAPA DE LA RECONSTRUCCIÓN.

Etapa de la Reconstrucción (desde mediados de 1980 hasta el presente).

Econometría Teórica

Restricciones computacionales

1980 Trabajo de Christopher Sims sobre modelística del Vector Autorregresivo (VAR).
A inicios de los 80’s el desarrollo de la PC de la IBM importa tanto como el nivel de cambio
tecnológico de las computadoras el que llega a ser tan veloz que rápidamente no hay virtualmente
restricciones sobre el análisis econométrico.

Mucho interés por la metodología en este periodo. Ninguno de los paradigmas llega a dominar,
pero el acuerdo general es sobre la necesidad de más pruebas de diagnóstico así como
desarrollos en la teoría de las pruebas.
Paquetes econométricos especializados (e.g. PC GIVE, MICROFIT, EVIEWS) y nuevos desarrollos
en Econometría Teórica que inmediatamente se incorporaron en estos paquetes.
Aumenta el interés en la modelística dinámica y en las propiedades de largo plazo de los modelos
econométricos. Esta inquietud lleva al trabajo de fundamental de Clive Granger(1990) sobre
Cointegración, Raíces Unitarias y el Modelo de Corrección de Errores. Así mismo se desarrollan
muchos tópicos especializados para esos temas.
El mayor uso del modelo de ecuación simple (como en los primeros días), pero no con mucho
interés en las pruebas de diagnóstico y donde son apropiados el uso de la estimación de Variable
Instrumental más que los MCO.

Yendo a tiempos más recientes, dos avances han sido particularmente importantes. Primero ha
sido un periodo en que la metodología llego a preocupar más a los profesionales de Econometría.
Los fracasos de los constructores de modelos y la imposibilidad de muchos de los primeros
procedimientos para discriminar entre modelos competentes debido al menor poder (eso es, el
gran error tipo II de aceptar una hipótesis falsa) hizo necesario cuestionar los fundamentos.
Uno de estos fue la validez de traspasar los supuestos clásicos del análisis de regresión si que se
cuestionen y pongan a prueba su validez. Esto ha llevado a un grandioso interés en las
propiedades estadísticas de las ecuaciones y el desarrollo de una amplia variedad de pruebas.
Estos avances están discutidos en la próxima sección.

Seguido el progreso en el desarrollo de programas de computación especializados para la


Econometría ha incrementado enormemente el conocimiento general de los profesionales de
Econometría hacia los recientes avances de la Econometría teórica, ahora la situación ha sido
revertida. Muchos de los actuales paquetes diseñados para el análisis econométrico son
frecuentemente actualizados para incorporar nuevos avances teóricos en forma de pruebas
adicionales o procedimientos analíticos.

El efecto de estos paquetes que son instalados en las PC’S sobre los escritorios de aplicados
economistas quienes no son necesariamente econometristas ha tendido a ser provechoso, tanto
así que mientras algunos de ellos han aplicado las pruebas y obtenido los resultados
mecánicamente sin comprenderlos, otros han sido suficientemente motivados para investigar la
teoría que subyace a estas nuevas pruebas y procedimientos de estimación.

RECIENTES AVANCES TEÓRICOS Y METODOLOGICOS

El resultado del inmenso interés en la metodología no ha sido la aparición de un nuevo paradigma


que ha sido aceptado por la mayoría, o al menos la mayoría de los profesionales de Econometría.
Más aún han habido diferentes respuestas de parte de los econometristas a los diferentes aspectos
de la Econometría teórica o Econometría aplicada.

Fuera de este cuestionamiento sobre el problema del método, tres escuelas metodológicas
identificadas han surgido:

1. La metodología de los Mínimos Cuadrados.- Empezó a inicios de los 60’s, Denis Sargan
desarrollo una metodología para modelos en los que el constructor de tales cambiaba de una
especificación dinámica general de un modelo, en el cual una serie de pruebas de diagnóstico
fueron empleadas para garantizar que las propiedades estadísticas sean satisfactorias, a una
especificación simple que producía variables redundantes, pero aún permanecía cumpliendo los
supuestos de Gauss-Markov del modelo de regresión (es decir, no autocorrelación, no
heterocedsaticidad, errores normalmente distribuidos, estabilidad de parámetros, forma funcional
satisfactoria, etc.).

Tabla 5. Escuelas metodológicas actuales en Econometría.


Metodología Utiliza la teoría económica Utiliza el análisis estadístico
clásico.

1. MCO Si Si

2. VAR No Si

3. Bayesiana. Si No

Ninguna de estas escuelas ha conseguido una posición dominante, pero en términos generales, la
metodología Bayesiana ha tenido relativamente un menor impacto en términos empíricos, la
aproximación VAR encuentra aceptación principalmente en los EE.UU., mientras la aproximación
MCO ha tenido considerable influencia sobre los trabajos realizados en el Reino Unido y a captado
seguidores en los EE.UU. y en algunos otros puestos de avanzada de los MCO.

Lo que actualiza a la actual discusión metodológica es una creciente flexibilidad en la construcción


de modelos y un interés en las cuestiones estadísticas relativas a la modelística. Esto será
ilustrado considerando algunas de las características de la llamada metodología MCO, dentro de
cuyos aspectos de particular importancia están:

(I) Modelística de lo general a lo simple.


(II) Interés en las propiedades dinámicas y de largo plazo de los modelos económicos; y
(III) La investigación de la Cointegración.

Modelística de lo general a lo simple. Miembros de la escuela de los MCO han sido muy criticados
por sus primeros trabajos de Econometría aplicada debido a su naturaleza simple a general. Los
primeros modelos tendían a comenzar con una muy simple especificación del modelo a ser
investigado. Muchas regresiones fueron corridas y los investigadores insistieron excesivamente
sobre el criterio de la bondad de ajuste para elegir entre las ecuaciones alternativas y determinar si
un modelo era satisfactorio. Los supuestos del teorema de Gauss-Markov, los que no son
necesarios para justificar el uso de los MCO en el análisis de regresión, fueron tomados como
válidos sin ser puestos a prueba. Esto esta ilustrado en la figura 2.

Figura 2.
Simple a general (1).
MO
1. R2 alto  OK.
2. Signos de los estimadores correctos  OK.
3. Tamaño de los estimadores correcto OK.
4. Pruebas t, (F) significativas  OK.
Si estas pruebas son incorrectas o poco significativas:
¿ Qué hacer ahora?: ¿ Cambiar la forma de la función?, ¿ Agregar variables?; ¿ Eliminar
observaciones?.
Una vez que la prueba Durbin-Watson para errores autoregresivos de primer orden y la
transformación de Cochrane-Orcutt fueron incorporadas en los paquetes de regresión, ellas fueron
usadas, pero en una forma mecánica. Sólo si la transformación Cochrane-Orcutt fallaba para
eliminar la autocorrelación el investigador debería cambiar hacia una especificación más general
del modelo, por ejemplo incluyendo variables adicionales, deshacerse de observaciones extremas,
etc. Esto esta ilustrado en la figura 3.

Figura 3.
Simple a general (2)
M1
1. R2
2. Signos de los estimadores.
3. Tamaño de los estimadores.
4. Pruebas t (F).
5. Prueba de Durbin-Watson para AR(1):
Significativo: M1 = MO + AR(1)
No significativo  OK.
Metodología del Vector Autorregresivo (VAR).- Esta aproximación esta asociada con el trabajo de
Christopher Sims, hace menor uso de la teoría económica que los constructores de modelos
macroeconómicos y se ha concentrado en investigar la relación entre los fundamentos económicos
de las series de tiempo usando modelos autorregresivos y muchas de las técnicas desarrolladas
por el trabajo de Box y Jenkins. Por ejemplo, un modelo simple VAR de la relación entre el ingreso
(Y) y el dinero (M) sería:

Yt =  11 +  12Mt-1 +  13Yt-1 +  1t
Mt =  21 +  22Mt-1 +  23Yt-1 +  2t

La metodología Bayesiana.- Esta metodología ha sido particularmente asociada con el trabajo de


Edward Learner, cuyo artículo "Saquemos el CON de la Econometría" tuvo un considerable
impacto. La aproximación utiliza los modelos económicos como su punto de partida, pero Lerner
argumenta contra el uso de las clásicas pruebas de hipótesis estadísticas de Fischer sobre los
campos en los que los economistas son generalmente ignorantes de la correcta especificación, en
la cual la sensibilidad de los resultados para el convencimiento del jefe de los investigadores es
analizada a través del estudio del Límite extremo, de este modo toma en cuenta lo subjetivo y los
elementos de juicio que entran en la construcción del modelo. Las mayores características de estas
metodologías alternativas son resumidas en la tabla 5.

Aplicar la transformación de Cochrane-Orcutt (C-O).


Prueba de D-W para AR(1):
No significativo  OK.
Significativo  ¿ Qué hacer ahora?: ¿ Cambiar la forma de la función?, ¿ Agregar variables?;
¿ Eliminar observaciones?.
Ambos, los Bayesianos y la escuela de los MCO son críticos de este proceso de exploración de
datos, pero las soluciones propuestas son diferentes. Los que la aproximación por MCO propone
es un método de lo general a lo simple, lo que se ilustra en la figura 4.

La aproximación por MCO empieza por especificar un Modelo General Dinámico que incorpora la
teoría económica en la elección de las variables del modelo, pero al principio el objetivo es
asegurar que el modelo tenga propiedades estadísticas satisfactorias. Un número grande de
pruebas de diagnóstico son utilizadas para garantizar que los supuestos básicos, necesarios para
justificar el empleo de los MCO, son válidos cuando el modelo es usado para los datos a ser
analizados.

Si las propiedades estadísticas del modelo son revisadas y resueltas satisfactorias, el siguiente
paso es examinar los parámetros estimados para ver si es posible simplificarlos, por ejemplo,
suprimiendo variables que no son estadísticamente significativas, imponiendo restricciones que
parezcan consistentes con los datos, o que están implícitas en la teoría económica, etc. Sin
embargo, después que estas restricciones han sido impuestas, el modelo es probado otra vez para
asegurar que las propiedades estadísticas siguen siendo satisfactorias.

Este proceso de imponer restricciones sobre el modelo general debe continuar a través de varios
pasos más hasta alcanzar un punto en el cual la última restricción impuesta lo lleve a una violación
de las propiedades estadísticas del modelo.
Cuando este punto es alcanzado los investigadores vuelven a la versión previa del modelo, ya que
además la simplificación hacia esta etapa no es consistente con los datos. Esto esta ilustrado en la
figura 4.

Figura 4.
Modelística de lo General a lo Simple.
M1 Modelo general (dinámico) SPGM ¿ OK?  OK.
M2 Restricciones impuestas sobre M1 SPGM ¿ OK?  OK
M3 Restricciones sobre M2 SPGM ¿ OK?  OK
M4 Restricciones sobre M3 SPGM ¿ OK?  NO!!!
SPGM = Supuestos sobre la prueba de Gauss-Markov.
Propiedades dinámicas y de largo plazo de los modelos económicos.- La aproximación por MCO
esta muy interesada en que los modelos económicos no deberían ignorar las propiedades de largo
plazo de sus relaciones. Cuando al analizar los datos quincenal o mensualmente, los modelos
estadísticos que son formulados en términos de valores corrientes de las variables, tal como:

Yt =  0 +  1Xt +  t (1)

Bien deben estar mal especificados, ya que suponen ajuste casi instantáneo. Inclusive más
dudosas son las ecuaciones que están expresadas en términos de primeras diferencias de las
variables, tales como:

 Yt =  0 +  1 Xt +  t (2)

Ya que es difícil interpretar la ecuación (2) en el largo plazo. Considerando un equilibrio estático de
largo plazo en el cual Yt y Xt tienden a los valores de equilibrio Y* y X*, con  t tomando su valor
esperado E( t)=0 y no habiendo más cambios, se tiene que  Yt =  Xt =0. En este caso la
solución de largo plazo para (2) es:

0 =  0 + 0 + 0 (2’)

Ello implica que  0 =0. Alternativamente si suponemos que sólo Xt tiende a X* y que Yt sigue
creciendo, la solución de largo plazo para la ecuación (2) es:

 Yt =  0 +0 + 0 , (2")

es decir, en el equilibrio Xt = X* e Yt por ello crece a una cantidad constante ( 0) por período. Lo
extraño de la ecuación (2) es alguna indicación de los niveles de equilibrio de las variables.

La aproximación por MCO para modelar las propiedades de largo plazo de una relación debería
estar especificada en una ecuación dinámica, por ejemplo:

Yt =  0 +  1Xt +  2Xt-1 + 3Yt-1 +  t (3)

Donde 0  3<1. Los términos rezagados en (3) nos permiten trazar ambos ajustes económicos de
corto plazo y de largo plazo. De esta manera, si partimos de una situación de equilibrio y X cambia
por un incremento  X en el período t y luego permanece constante, el efecto del impacto por un
cambio en el primer período esta dado por  0. En el segundo período hay dos efectos, primero el
efecto de cambio en X en el período previo, dado por  2,y segundo, el efecto producido por el
cambio en Y en el período anterior, dado por  3. En los períodos que siguen, continua siendo
afectada por los cambios en Y de cada período, pero ya que 0  3<1, este proceso multiplicador
convergerá a una suma infinita y la ecuación (3) será resuelta para darle una solución de largo
plazo. Si Y y X toman valores de equilibrio de Y* y X*, tenemos que Xt = Xt-1 = X* e Yt = Yt-1 = Y*, la
solución de equilibrio de la ecuación (3) será:
Y* =  0 +  1X* +  2X* +  3Y* ó
Y* =  0* +  *X , donde
 0* =  0/(1 -  3) y  * = ( 1 -  2)/(1- 3). (4)

Corrección de errores en los modelos.- Otra característica del trabajo siguiendo la aproximación
por MCO ha sido la reparametrización de las ecuaciones dinámicas de modo que se ponga de
manifiesto la importancia de las diferentes clases de ajustes realizados. Los modelos reescritos en
esta forma han llegado a ser conocidos como Modelos de Corrección de errores , o MCE. La
versión del MCE de la ecuación (3) se escribe como:

 Yt =  + 0 Xt +( -1)(Yt-1 - Xt-1)+( 0 + 1+  -1)Xt-1 + t (5)

Escrita en esta forma la ecuación muestra que el cambio en Y de cada período ( Yt) esta
relacionada con el cambio en X ( Xt), pero también para cambios en los niveles rezagados de las
variables. en particular el término (Yt-1 - Xt-1) recoge el efecto del desequilibrio en los niveles de las
variables en el período anterior. La importancia de éstos términos rezagados en los niveles de las
variables mostradas es porque los modelos formulados en términos de primeras diferencias sólo no
pueden ofrecer la información sobre las relaciones de largo plazo entre las variables.

Cointegración.- El concepto de Cointegración fue propuesto por Clive Granger y aún más
desarrollado por Granger y Robert Engle.El interés en el concepto ha aumentado entre los
economistas, pues ha habido más preocupación en las propiedades de largo plazo de los modelos
económicos. Muchas variables macroeconómicas, tales como el consumo agregado y el ingreso
agregado, contienen una tendencia muy marcada y la pregunta que surge es: dado que la brecha
entre el consumo agregado y el ingreso agregado esta creciendo fuera de tiempo, ¿ cómo
prevenirlos de la derivación casi siempre más alejada en el largo plazo?¿ en qué sentido podemos
hablar de un equilibrio en el largo plazo entre estas dos variables?.

Para explicar el concepto de Cointegración, se debe definir primero la Integración. Considerando


una variable de series de tiempo, Xt. Si Xt tiene que ser diferenciada d periodos para provocar su
estacionariedad ,Xt se dice que es una integral de orden d. La notación que ha llegado hacer
común es para denotar una serie estabilizada que sea integral de orden 0 , ó I(0).Entonces, si X t
I(d),  dXt I(0).Un resultado útil adicional es que I(d) I(0)=I(d).

Cointegración.- Deje que Xt sea un vector de variables, todas las cuales son I(d). En general,
combinaciones lineales de las variables que son I(d), tales como  ‘Xt, también son I(d). Sin
embargo, ello será posible para hallar un vector  que la combinación lineal  ‘Xt es una integral de
menor orden que d. Formalmente, las variables en el vector X t se dicen que son cointegrales de
orden d,b denotadas como Xt CI(d,b) si:

(i) Todas las variables de Xt son I(d).


(ii) Existe un vector   0, tal que Zt =  ‘Xt I(d-b), b>0.
El vector  es llamado el vector de Cointegración.
La significancia económica de la Cointegración.- La razón por la que la Cointegración es importante
puede ser ilustrada por la siguiente cita de Granger (1986). Suponga que Yt y Xt son ambas Y(1)
pero están cointegradas, así que:

Zt= Yt -  Xt  I(0). (6)


entonces la relación Yt =  Xt (7)

Debe ser considerada como una relación de largo plazo o de equilibrio, tal vez propuesta por
alguna teoría económica, y Zt por ello mide el punto en el cual el sistema esta fuera de equilibrio,
puede por tal motivo ser llamado el "error del equilibrio". El término ‘equilibrio’ es usado de varias
maneras por los economistas. Aquí el término no es utilizado para significar algo sobre el
comportamiento de los agentes económicos pero además describe la tendencia de un sistema
económico al moverse con dirección a una región en particular del campo de resultados. Si X t y Yt
son I(1) pero cambias juntas en el largo plazo es necesario que Z t sea I(0), ya que de otra forma las
dos series se alejarían sin límites.(Granger 1986 pp. 215-216).

La Cointegración y el equilibrio de largo plazo tienen importantes implicaciones para el análisis de


regresión. Supongan que la ecuación

Yt =  + Xt + t (8)

Representan una regresión de largo plazo y Yt y Xt son ambas I(1). Claramente, para que existan
una relación de largo plazo entre estas variables estas deben estar Cointegradas y dado (8), t
será el vector de Cointegración. Para que Xt y Yt estén Cointegradas,

 t = Yt -  -  Xt  I(0) (9)

En otras palabras el proceso de error de  t debe ser fijo.

Dada la importancia de la estimación, ha habido un gran número de trabajos teóricos en el


desarrollo de pruebas para la estimación o también llamadas de Raíz unitaria. El caso más simple
sería si el proceso de error fuera un paseo aleatorio,

 t =  t-1 +  t (10)

y  =1. Una prueba para la estimación podría, entonces, estar basada sobre la hipótesis nula H0:
=1, con la hipótesis alternativa H1: <1 .

Encontrar una base teórica para tal prueba ha ofrecido dificultades, ya que bajo la hipótesis nula  t
no es fija y es posible que las pruebas estadísticas no sigan las usuales distribuciones de t, F o  2.

Prueba de Dickey - Fuller (DF).- Dickey y Fuller encontraron que el problema podría ser
simplificado sacando a  t de ambos lados de (10) para obtener:   t = ( -1) t-1 +  t

  t =   t-1 + t (11)

cuando la hipótesis nula es ahora H0:  =0 y la hipótesis alternativa es H1:  <0. Mientras esta
transformación ayudo con los problemas de la distribución, la prueba estadística no sigue con la
distribución tradicional y los valores críticos para la evaluación de la prueba estadística han tenido
que ser determinados a través de los extensos experimentos de Monte Carlo.

Prueba ampliada de Dickey-Fuller (ADF).- El proceso autorregresivo de (10) es muy simple y para
tener en cuenta dinámicas más complejas, Dickey y Fuller propusieron pruebas para la
estacionariedad basadas en la ecuación ampliada:

  t =  0 +  1t +   t-1 +   j  t-j +  t (12)

donde j=1,...m,  0 toma en cuenta la dirección y t es la tendencia lineal en el tiempo.

La mayoría de la literatura teórica y estudios empíricos han estado interesados en el caso en el


cual las variables a investigarse son I(1) y sólo dos variables son consideradas en un período, pero
han habido algunos interesantes desarrollos recientes en la Cointegración Multivariable y en las
pruebas desarrolladas para las Raíces Unitarias y para la Cointegración (ver Engle y Granger
1991).

Prueba de Raíz Unitaria de Phillips-Perron (PP).- Una prueba alternativa de raíz unitaria fue
desarrollada por Phillips y Perron . Al igual que la prueba ADF, la prueba PP es una prueba de
hipótesis sobre p=1 en la ecuación:  Yt =  + pYt-1 +  t ; pero a diferencia de la prueba ADF, no
existen términos de diferencias retardados. Más bien, la ecuación es estimada por MCO y luego el
estadístico "t" del coeficiente p es corregido. La hipótesis nula H 0 del test de Phillips-Perron es la
trayectoria de raíz unitaria con tendencia y la alternativa la estacionariedad con tendencia, si el
valor t-Student asociado al coeficiente de Yt-1 es mayor en valor absoluto al valor crítico de
MacKinnon, se rechaza la hipótesis de existencia de raíz unitaria.

Test de Zivot y Andrews.- Zivot y Andrews (1992) elaboraron un test en el que se diferencia una
trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural, debido a que los
tradicionales test ADF y PP estaban sesgados hacia el no rechazo de la hipótesis nula de raíz
unitaria, puesto que a menudo se rechazaba incorrectamente la hipótesis alternativa de
estacionariedad. La hipótesis nula es la presencia de raíz unitaria con tendencia y la alternativa, la
de estacionariedad con tendencia y cambio estructural (en el nivel y/o pendiente). Zivot y Andrews
presentan unos gráficos en la que se plotean por un lado, la trayecoria de la distribución t o t’s de
Zivot, y por el otro los valores de la distribución t crítico. Si el valor t-Zivot es menor que los valores
críticos (VCRIT), existe suficiente evidencia estadística para rechazar la hipótesis nula de raíz
unitaria, por lo que la(s) serie(s) evaluadas muestra una trayectoria de raíz unitaria.
Contrariamente, si la distribución de valores t Zivot son mayores que el t crítico, no existe evidencia
para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).

4. Algunos ejemplos empíricos.

Los desarrollos metodológicos descritos antes serán ilustrados por medio de un ejemplo práctico.
Un aplicado economista llamado GUS 1 quien aprendió Econometría en los años 40 esta
evaluando datos desde 1941 hasta 1992 (datos anuales) sobre dos variables y y X, y pidió
investigar la relación entre ellas. El corrió la regresión:

Yt=  +  Xt + t (13)

con la esperanza de que 0< , pero sin suponer cual era su magnitud. sus resultados (con los
errores estándar entre paréntesis) son:

(MCO) Yt = 174.8 + 5.180Xt, R2=0.857 (14)


(9.406) (0.299)

Debido a que el valor R2 es bastante alto, el signo del coeficiente de X t es positivo, como se
esperaba, y la razón t de 17.32 es altamente significativo, él estuvo muy contento con los
resultados de su estimación.

El mostró los resultados a su hermano menor, GUS 2, quien estudio Econometría a inicios del año
60, y quien le dijo que se había contentado muy fácilmente con los resultados, ya que el valor del
estadístico Durbin-Watson para su ecuación es 0.190, lo que implica un severo problema de
autocorrelación positiva de primer orden.
El señor GUS 2 propuso para abordar este problema la aplicación de una transformación
Cochrane-Orcutt (C-O) para la ecuación y corrió una nueva regresión:

(AR1) Yt = 194.2 + 1.841Xt R2 = 0.986 (15)


(132.9) (0.505) D-W=0.718

El explico que mientras la transformación C-O ha mejorado la situación, ya que el valor del
estadístico D-W ha mejorado (0.718), éste aún no es significativo estadísticamente y el modelo
debería ser cambiado.
El hizo el diagrama de puntos de los datos Y y X (SCAT) contra el tiempo(ver figura 1) y decide que
la forma funcional del modelo necesita ser cambiada.

El decidió primero probar el efecto de tomar el logaritmo natural de Y y correr la regresión:

(MCO) Ln Yt = 4.905 + 0.009Xt R2=0.936 (16)


(0.725) (0.005) D-W=1.125

Esta regresión muestra alguna mejora, particularmente en la bondad de ajuste y en la siguiente


transformación el estadístico D-W es considerablemente alto, pero aún indica autocorrelación
positiva significativa.
Decide intentar una forma funcional no lineal adicional y estima:

(MCO) Yt = 112.0 + 11.70Xt +0.117Xt2 (17)


(9.799) (0.798) (0.014) R2 = 0.940
D-W=0.661

Esta ecuación se ajusta bien y todos los coeficientes estimados son significativos, pero aún hay
problema de autocorrelación positiva. Una vez más intenta la transformación C-O y obtiene:

(AR1) Yt = 196.0 + 2.942Xt -0.021Xt2 (18)


(138.6) (1.090) (0.192) R2 = 0.986
D-W=0.858

Lo cual no parece muy satisfactorio, ya que a pesar de que el ajuste es muy bueno, dos de los
parámetros estimados son escasamente significativos estadísticamente y no ha sido capaz de
eliminar la autocorrelación positiva.
Dadas estas dificultades, los hermanos GUS deciden pedir la ayuda a su joven sobrino GUSI,
quien acaba de retornar de estudiar Econometría en Estados Unidos. El les dice que no esta de
acuerdo con sus aproximaciones y su fracaso al hacer mayor uso de las pruebas de diagnóstico. El
comienza con un modelo general dinámico y lo estima para el período 1943-1982, eliminando las
dos primeras observaciones para permitir la creación de rezagos y reteniendo las diez últimas
observaciones para las pruebas de consistencia. Los resultados para esta regresión son:
(MCO)
Yt = 34.208 + 1.314Xt. -1.002Xt-1 + 0.112Xt-2 + 1.101Yt-1 -0.232Yt-2 (19)
(8.675) (0.173) (0.267) (0.188) (0.170) (0.139)
R2=0.999 D-W=2.100

Diagnósticos:
AR 1: F(1,33) = 2.438 FF: F(1,33) = 0.0001
JB: CHI2(1) = 0.348 HET: F(1,38) = 0.532
PF: F(10,34) = 0.829 CHOW: F(6,38) = 0.361

El señor GUSI explica que su elección de un modelo general parece satisfactoria, ya que ninguna
de las pruebas de diagnóstico son significativas. Se da cuenta que dos de los coeficientes
estimados no son significativos y decide ver si deben ser eliminados sin causar problemas
estadísticos, elimina Yt-2 y estima:

(MCO)
Yt = 48.071 + 1.237Xt.- 0.630Xt-1 - 0.019Xt-2 + 0.815Yt-1 (20)
(2.677) (0.171) (0.152) (0.175) (0.015)
R2=0.999 D-W=2.100

Diagnósticos:
AR 1: F(1,34) = 2.145 FF: F(1,34) = 1.331
JB: CHI2(1) = 0.769 HET: F(1,38) = 0.048
PF: F(10,35) = 0.752 CHOW: F(6,40) = 0.354

Dado el diagnóstico de pruebas, se muestra que la eliminación de esta variable no ha afectado las
propiedades estadísticas de la ecuación, a la inversa, él examina el efecto de eliminar la variable
insignificante, Xt-2. Los resultados son:

(MCO)
Yt = 48.161 + 1.225Xt.- 0.635Xt-1 + 0.816Yt-1 (21)
(2.515) (0.132) (0.143) (0.014)
R2=0.999 D-W=2.100

Diagnósticos:
AR 1: F(1,35) = 2.151 FF: F(1,34) = 1.056
JB: CHI2(1) = 0.755 HET: F(1,38) = 0.045
PF: F(10,35) = 0.774 CHOW: F(6,40) = 0.465

Dado que las propiedades estadísticas de esta ecuación son satisfactorias y todas las variables
restantes son significativas, el Sr. GUSI decide que esta es la especificación que él escogería. Sin
embargo, antes de estimar esta ecuación utilizando toda la data, decide mostrarle a sus tíos lo que
les paso a las pruebas de diagnóstico cuando estima la ecuación original elegida por GUS 1. Sus
resultados son:

(MCO)
Yt = 184.9 + 5.244Xt. (22)
(8.519) (0.324)
R2=0.874 D-W=0.352

Diagnósticos:
AR 1: F(1,37) = 30.407 FF: F(1,37) = 60.807
JB: CHI2(1) = 17.145 HET: F(1,38) = 4.268
PF: F(10,38) = 0.806 CHOW: F(2,46) = 4.781
El efecto ha sido dramático, ya que con excepción de la prueba de error de predicción, todas las
otras pruebas de hipótesis son significativas e indican que la especificación de la ecuación debe
ser rechazada. La mala especificación de la dinámica no sólo causa la autocorrelación que
preocupo a GUS 2, también ocasiona problemas en la forma funcional, la distribución normal, la
heterocedasticidad y en la consistencia de los parámetros.

Finalmente, utilizando los datos desde 1942 hasta 1992, el Sr. GUSI volvió a estimar su
especificación elegida y obtuvo:

Yt = 49.590 + 1.245Xt.- 0.582Xt-1 + 0.806Yt-1 (23)


(1.818) (0.119) (0.124) (0.010)
R2=0.999 D-W=1.536

Diagnósticos:
AR 1: F(1,46) = 2.622 FF: F(1,46) = 1.318
JB: CHI2(1) = 0.475 HET: F(1,49) = 0.061

Obviamente los resultados no serán siempre tan decisivos como éstos, pero este ejemplo ilustra
los peligros de modelar de lo específico a lo general y las ventajas de la aproximación inversa.

5. Conclusiones.

Uno debe resumir la actual situación de la Econometría la que va siendo más pragmática de lo que
fue en la etapa del descubrimiento. En ese período los pioneros creyeron que sería posible
construir una imagen econométrica de una economía para buscar el bienestar y siempre
mejorando la teoría económica, la que produciría estimaciones estables y consistentes de los
verdaderos parámetros que permitirían que la política económica este basada sobre el análisis
cuantitativo.
Los años desde aquellos primeros días, han mostrado que este optimismo inicial estuvo fuera de
lugar y que modelizar los eventos económicos es más difícil de lo que ellos creyeron que sería. La
concentración inicial en la parte económica de un modelo y en el tratamiento de los errores como
un fenómeno estadístico han dado paso a los métodos que consideran a los errores como el objeto
central para la comprensión del ajuste económico y la exploración de la especificación del modelo.
Comparando la calidad del trabajo empírico durante los primeros años del período en discusión en
este artículo, considerables progresos se han dado en años recientes. Hay pocos, aunque algunos
serios problemas que hasta las cuestiones computacionales están ahora comprometidas, aun
cuando uno espere que la ingenuidad de los econometristas para generar nuevos problemas
extienda la capacidad y el poder de las computadoras en el futuro. En comparación con las etapas
iniciales, éste no es un mal momento para ser un econometrista.

Libros de Consulta
"Los límites de la Econometría"- Darnell,A.C y Evans,J.L.(Londres: Edward Elgar,1990).
"La exploración de los datos como una industria"- Revista de Economía y Estadística, 65 (Marzo
1985),124-127.-Denton,F.T.
"Relaciones económicas de largo plazo: estudios de Cointegración"- Engle,R.F y Granger,C.W.J.
(Oxford: Imprenta de la Universidad de Oxford).
"Una historia de la Econometría"- Epstein,R.(Amstendarm: Norte de Holanda, 1987).
"Desarrollo en el estudio de variables económicas Cointegradas"- Granger,C.W.(Boletín de
economía y estadística de Oxford, 48-Agosto 1986).(Reimpreso en Engle-Granger ediciones 1991).
"Series de modelística económica"-Granger,C.W.J (edición).(Oxford: Imprenta de la Universidad de
Oxford 1990).
"Exploración de datos"- Lovell,M.C.(Revista de economía y estadística, 65 Marzo 1985 pp.124-
127).
"Valores críticos de las pruebas de Cointegración"-Engle y Granger Ediciones 1991./Mackinnon,J.
"La historia de las nociones de econometría"-Morgan,M.S.(Cambridge:Prensa de la Universidad de
Cambridge,1990).
"Tres métodos de Econometría: una apreciación crítica"(Revista de estudios económicos # 1/1987
pp.3-24).
"Manual del usuario del MICROFIT 3.0"-Pesaran,M.H y Pesaran,B.(Oxford: Imprenta de la
Universidad de Oxford,1991).
"Manual del usuario del EVIEWS 3.0"-R.Hall , David.L.Lilien, et al.(Quantitative Micro Software,
California 1997).

Reconocimientos.
Este artículo fue escrito mientras estuve visitando la Universidad Nacional Mayor de San Marcos
entre julio y setiembre del 2000 y estoy muy agradecido al Departamento de Economía de la
UNMSM por su apoyo acedémico para mi visita, a la Universidad por su generosa hospitalidad y a
los miembros de la Facultad de Economía, especialmente a Mg. Víctor Pérez Súarez por las
estimulantes discusiones. Los puntos de vista expresados en este artículo son los del autor y no
necesariamente reflejan los de la Facultad de Economía.

También podría gustarte