Está en la página 1de 29

Modelos Economtricos Multiecuacionales

de Estimacin de Demandas

Autor:
Jorge Mauricio Oviedo 1

Resumen: En este artculo se efecta una revisin de


los principales Mtodos Economtricos para estimar
ecuaciones simultneas de demanda considerando
diversos supuestos sobre los trminos de errores. Se
analizan las propiedades de los estimadores y se los
comparan con los de Mnimos Cuadrados. Se extraen
sugerencias en cuanto a la utilidad y aplicabilidad de
cada uno de ellos.

Palabras clave: Sistemas de Ecuaciones Simultneas, Mnimos Cuadrados Ordinarios, Mnimos


Cuadrados en dos etapas, Mnimos Cuadrados en tres etapas, SUR.

joviedo@eco.unc.edu.ar

1.- Introduccin
Los modelos economtricos intructorios aprendidos en los cursos de grado, se caracterizaban
por constituir modelos en donde los verdaderos procesos generadores de datos provenan de modelos
de una simple ecuacin lineal en los parmetros, es decir, los modelos en que nicamente haba una
variable dependiente Y y una o varias variables explicatorias X i . A saber:

Yt = 0 + 1 X 1t + L + n X nt + u t

Matricialmente: Y = X + u

En los mismos se vio, a travs del Teorema Gauss-Markov, que los estimadores obtenidos por el
Mtodo de los Mnimos Cuadrados Ordinarios (MCO), resultaban ser lineales, insesgados y de
varianza mnima (dentro del conjunto de todos los estimadores insesgados posibles) siempre que se
cumplieran los supuestos de E (u) = 0 , E (u u) = 2 I , exacta especificacin lineal en los parmetros
y que las variables independientes o explicativas no son estocsticas (son fijas en muestras repetidas)
o, en caso de serlo, se distribuyen independientemente del trmino de perturbacin.
Los Modelos de Ecuaciones Simultaneas surgen para captar la posibilidad ms realista que los
valores observados (Y,X) provengan de un proceso generador de datos en donde stos son creados en
forma simultanea y mutuamente interdependientes va una interconexin entre ellos. Esto ocurre
cuando no solamente la Y es determinada por las X, sino que adems algunas de las X son a su vez
determinadas por Y. En otras palabras, cuando hay una relacin causal en las dos direcciones o una
relacin simultnea entre Y y algunas de las X, lo cual hace que la distincin entre variable
dependiente y variable explicatoria sea de poco valor. Es mejor tener un conjunto de variables que
pueden ser determinadas simultneamente por otras y esto es lo que efectivamente se hace en los
modelos de ecuaciones simultaneas.
Los sistemas de ecuaciones simultneas se distinguen por estar conformadas por varias
ecuaciones en las cuales hay un nmero de variables endgenas o variables determinadas
conjuntamente y un nmero de variables predeterminadas, o determinantes (estas a su vez pueden ser
variables exgenas, retardadas o no, y variables endgenas retardadas). En estos modelos se estiman
los parmetros de las ecuaciones teniendo en cuenta la informacin suministrada por todas las
ecuaciones del sistema. Un supuesto implcito en estos tipos de modelos es que los valores observados
corresponden siempre a situaciones de equilibrio, es decir no se concibe la posibilidad de obtener
datos en algn momento de transicin hacia el equilibrio.
En un modelo general lineal que contenga M ecuaciones estructurales en M variables endgenas
o conjuntamente dependientes y K variables predeterminadas, la relacin i-sima en el momento
(observacin) t puede escribirse en forma escalar como:

i1Y1t + L + iG YGt + i1 X 1t + L + iK X kt = u it

; ( i = 1L M ) ; ( t = 1LT )

o en forma matricial:

Yt + Xt B = ut

t = 1,..., n

donde :

11

B = 21
M

k1

12 L 1M
22 L 2 M
M

k 2

11 12

22
21
; =
M
O
M
M

L kM
M 1 M 2

L 1M
L 2 M
;
O
M

L MM

Yt = [ y1t L yMt ] ;

Xt = [ x1t L xKt ] ;

ut = [u1t L uMt ]

Se imponen adems las siguientes supuestos al modelo estadstico:


1)

E[ei ] = 0, i = 1,..., M
E[ei ei '] = ij IT , i = 1,..., M ,

j = 1,..., M

E[e, e '] = IT
2) La matriz es no singular
3) plim(XE/T) = 0
Segn lo aprendido hasta ahora uno intentara aplicar MCO en forma independiente a cada una
de las M ecuaciones con respecto a las M+K-1 variables explicativas (M-1 Ys y K Xs) para hallar los
estimadores B y , pero si uno efecta esta accin se encontrar con que dichas estimaciones no
solamente sern sesgadas sino tambin inconsistentes es decir que a medida que el tamao de la
muestra crece indefinidamente los estimadores no convergen al verdadero valor del parmetro,
permaneciendo el sesgo. Esto se debe a que las M-1 variables endgenas restantes que aparecen en una
ecuacin cualquiera estarn correlacionas con el trmino de perturbacin de la ecuacin considerada,
puesto que por ser cada una de las M variables argumentos aleatorios, una perturbacin en una, alguna
o todas las restantes (M-1) afectaran el valor del termino de error de dicha ecuacin quien luego
influir en las dems ecuaciones. Es decir el termino de perturbacin de cada ecuacin depende de los
valores que asuman las G-1 variables endgenas restantes y viceversa. De esta manera se viola uno de
los supuestos del teorema de Gauss-Markov, haciendo indeseable la aplicacin directa de los MCO a
cada una de las ecuaciones. Para ello, demostraremos dichas afirmaciones a continuacin
Consecuencias de la aplicacin directa de MCO
Para demostrar que el estimador por mnimos cuadrados es inconsistente y sesgado consideremos la
siguiente ecuacin:

Yi + XBi + ei = 0
Algunos elementos de y B generalmente pueden tomar el valor de cero mientras que es costumbre
seleccionar una variable endgena del lado izquierdo de la ecuacin. Esto es llamado normalizacin y
es logrado fijando un coeficiente, digamos ij, con el valor -1. As, con algunas manipulaciones si es
necesario, se tiene:

y i = Yi i + Yi * i * + X i i + X i * i * +ei
y i = Yi i + X i i + ei

X i ] i + ei
i
y i = Z i i + ei
y i = [Yi

Donde:

1 1
i = i = i ,
i * 0
Y = [ y i Yi Yi *] ,



Bi = i = i , i = i
i * 0
i
X = [ Xi

X i *] ,

Z i = [Yi

Xi ]

y M = mi + mi*, K=ki + ki*. La matriz Yi* contiene aquellos mi* variables endgenas que no
aparecen en la i-sima ecuacin; esto es, sus coeficientes asociados i*son cero. La matriz X* contiene
aquellas ki* variables predeterminadas que no aparecen en la i-sima ecuacin, o sea, sus coeficientes
asociados i* son cero.
El estimador mnimo cuadrtico de i es:

= ( Z 'i Z i ) 1 Z 'i y i
Su valor esperado es

E[] = E[( Z 'i Z i ) 1 Z 'i y i ]


= i + E[( Z 'i Z i ) 1 Z 'i ei ] i
El ltimo trmino de la expresin anterior no desaparece ya que Zi contiene variables endgenas que
son conjuntamente determinadas con yi y por ende no son independientes de ei. Con lo cual el
estimador es sesgado.
Adicionalmente, a medida que el tamao de la muestra crece el estimador no converge en probabilidad
al verdadero valor del parmetro ya que

plim i = i + plim[ Z 'i Z i / T ]1 plim[Z 'i ei / T ] i


El ltimo trmino, no converge en probabilidad al vector nulo ya que Z = [Yi Xi] contiene a Yi, el
cual no es independiente del trmino de error u, independientemente del tamao de la muestra.
De esta manera los estimadores mnimo-cuadrticos son sesgados e inconsistentes.
Forma Reducida
Cuando se expresa a las vriables endgenas en trminos de las predeterminadas, dicha reespresin se
denomina Forma Reducida. Especficamente, si post multiplicamos el sistema por -1 y reacomodando
trminos se tiene:

Y + XB = U
donde:

Y = X + V

(t = 1,K , T )

11 L 1M
= B 1 = M O
M = [ 1 L M ] (1)
K 1 L KM
v11 L v1M
V = U 1 = M O M = [ v1 L v M ]
vK 1 L vKM

Los supuestos estocsticos sobre V se siguen directamente de los de u. Si ut es la i-sima fila de U y


vt la i-sima fila de V, entonces:

vt ' = ut 1
Ya que todos los vectores ut tienen media igual a cero y matriz de covarianzas , se sigue que

E[ v t ] = E[ut 1 ]' = 1 E[ut ] = 0

var(vt ) = E[vt vt ']


= ( 1 ) ' E (ut ut ')( 1 )
= ( 1 ) ' ( 1 )
=
Adicionalmente, como E(ut, us) = 0, entonces E(vt, vs) = 0 para todo t distinto de s.

La forma reducida individual ser:


y i = Xi + v i
Si X es no estocstica, se verificar:
E ( X 'V ) = E[ X ' ET ] = 0
Si X es aleatoria entonces el plim(XV/T) = plim[(-XU/T) -1] = 0
Entonces los Estimadores Mnimo Cuadrticos para la i-sima ecuacin seran
i = ( X ' X ) 1 X ' y i
y para todo el sistema
= ( X ' X ) 1 X ' Y

Los mismos sern insesgados y consistentes.


De esta manera, ya que es posible estimar los parmetros de la forma reducidad demanera
insesgada y consistente y dada la relacin entre la forma estructural y la reducida
= B 1
= ( 1 ) 1
La cuestin que emerge es si los parmetros estructurales pueden ser nicamente derivados de las
estimaciones de la forma reducida y alguna otra informacin sobre la forma estructural. Esto nos
conduce al problema de la identificacin.

Este tipo de situaciones pueden obtenerse en un modelo clsico de ofertas y demandas de un


bien en donde una alteracin en las funciones de Demanda u Oferta ocasionaran alteraciones en el
precio y cantidad observada con lo cual el precio no ser independiente de las cantidades ofrecidas y
demandadas.
En virtud de la no-deseabilidad de la aplicacin de MCO a este modelo, lo que se intenta hacer
es reexpresar el sistema original (dado en su forma estructural, es decir tal y como surge de la realidad
siendo un fiel interprete de la misma) de modo tal de que cada variable endgena muestre su
dependencia slo con respecto a las variables predeterminadas y los trminos de perturbacin. De esta
manera, al ser por definicin las variables predeterminadas independientes de los trminos de
perturbacin y manteniendo el supuesto de ruido blanco para ut, sera eficiente estimar este nuevo
sistema de ecuaciones por MCO (en forma independiente a cada una de las ecuaciones) ya que los
estimadores as obtenidos sern nuevamente los mejores al entrar en vigencia una vez ms el Teorema
de Gauss-Marcov.
Matricialmente:

Yt + Xt B = u t

(t = 1,K , T )

Yt = Xt + v t
donde:

= B 1

(1)

v t = u t 1

Una vez obtenido los estimadores de el paso siguiente es intentar recuperar los parmetros de
la forma estructural a travs de los estimadores de los parmetros de la forma reducida va la
relacin = B 1 . Como se puede dilucidar, la matriz es de orden M K y, por lo tanto,
contiene GK elementos. Las matrices B y contienen como mximo M2 + MK elementos. Por ende,
existe una infinidad de estructuras de B y que corresponden a cualquier matriz dada.
Esta imposibilidad de recuperar los parmetros en un caso general conlleva al tratamiento del
problema de la identificacin es decir el anlisis de los casos y las condiciones bajo las cuales este
proceso de recupero se torna factible.
As se pueden presentar tres situaciones:
Que se pueden obtener estimaciones nicas de los parmetros estructurales en cuyo caso diremos
que la ecuacin esta exactamente identificada
Que se obtengan mas de una estimacin de los parmetros estructurales (pero un numero finito de
los mismos) en cuyo caso se dice que la ecuacin esta sobreidentificada
Que se obtengan infinitos valores para las estimaciones de los parmetros estructurales y por ende
haciendo imposible su recuperacin, dicindose en este caso que la ecuacin est subidentificada. Esto
surge por la falta de informacin necesaria para construir una funcin a travs de la forma reducida
Supongamos que mercado con ofertas y demandas lineales donde cantidad y precio son
endgenos sin tener ninguna variable predeterminada. En este caso, las dos rectas sern
subidentificadas porque lo que se obtendrn sern slo puntos de corte, sin saber si es una misma
funcin de oferta con distintas demandas o viceversa, o si son funciones distintas en cada punto. La
situacin sera otra si por ejemplo se toma como variable exgena relevante el ingreso de los
consumidores explicando su demanda. De esta manera, puede asegurarse que cada punto pertenece a
una misma oferta en corte con diferentes demandas segn sea el ingreso dado.
A continuacin se analizar condetenimiento el problema de la Identificacion y se daran
definiciones mas precisas de lo enunciado anteriormente..
El problema de la Identificacin
Mas precisamente, sea Y u vector observables de variables aleatorias , una estructura S es una
especifiacain completa de la funcin de densidad de y, digamos f(y). El conjunto de todas las
estructuras posibles, S, es llamado un Modelo. El problema de la identificacin consiste en hacer
inferencias sobre S dada S y las observaciones. Para hacer las cosas mas precisas supongamos que y
es generado por una funcin de densidad paramtrica:

f (y / S ) = f (y / )
Donde es un vector real k-dimensional. La funcin f se supone conocida pero no. Entonces
la estructura es descripta mediante un punto en R k mientras que el Modelo como un subconjunto de
R k.
En general se dice que dos estructuras S = y S = * son observacionalmente equivalentes si

f (y / ) = f (y / *),

En base a esas consideraciones se proceder a analizar las condiciones bajo las cuales dos
estructuras de sistemas de ecuaciones son observacionalmente equivalentes.

Yt + Xt B + ut = 0

t = 1,..., T

Donde Yt, Xt y ut, son la t-sima filas de Y, X y E respectivamente. Supongamos que ut tiene
densidad P(ut/), luego la densidad conjunta asociada a u1, u2, ... ut ser:
T

P(u
t =1

/ )

Haciendo cambio de variables por sustitucin de ut y multiplicando por el Jacobiano de la


transformacin, la densidad conjunta de y1, ... yT condicionada en los parmetros ser:

P (y1 ,..., yT / , B, , X ) =

P(u
t =1

/ )

P ( y x B / )
t

t =1

Si pre-multiplicamos el sistema original por una matriz no singular arbitraria F, cada ecuacin
ser reemplazada por una combinacin lineal de cada una de las M ecuaciones originales. Esto es:

Yt (F) + Xt (BF) + ut F = Yt * + Xt B * t = 0

t = 1,..., T

Donde es utF,

P (t / F ' F ) = F

P(ut / )

la densidad conjunta de y1, ... yT condicionada bajo la nueva estructura ser:

P( / F ' F ) =
t =1

P(u
t =1

P(u
t =1

/ )

/ )

Con lo cual las funciones de densidad de ambas estructuras son idnticas en consecuencia
observacionalmente equivalentes. Obsrvese que eligiendo F = B-1, una estructura observacionalmente
equivalente es la forma reducida del sistema de ecuaciones. A raz de esto, todas las estructuras
creadas por una postmultiplicacin de la estructura original por una matriz original tendrn la misma
forma reducida.
De esta manera las condiciones para equivalencia observacional se pueden establecer asi:

1) 1 B = *1 B*, 1 = *1 * *
2) existe F no singular,
*

B * = F B


Si no hay restricciones a priori en los parmetros del sistema cualquier matriz no singular F podra ser
admisible en el sentido que la estructura transformada satisface las restricciones del modelo. Si sobre
la base de la teora econmica podemos establecer restricciones a priori cualquier modelo
transformado debe satisfacer las mismas restricciones si la transformacin se an admisible.
Se dice que la i-sima ecuacin del sistema est identificada si y solo si todas las transformaciones
admisibles F tienen la siguiente estructura:

F = LL cij LL

0
Es decir la i-sima columna de F debe ser un mltiplo escalar del vector unitario cuyos elementos son
todos ceros excepto la i-sima columna que contiene un uno. Obsrvese que cuando postmultiplicamos
B y G por F sus i-simas columnas solo son cambiadas por un mltiplo escalar.
Extendiendo dicha definicin al sistema completo, se tiene que el sistema es identificado si y solo si
todas las ecuaciones estn identificadas, o equivalentemente la matriz admisible de transformacin es
diagonal.
A los efectos de determinar las condiciones para identificar una ecuacin, definamos:


A=
B
De modo tal que ai, la i-sima columna de A contenga los parmetros de la i-sima ecuacin. Sea Ri y
ri J x (M + K) y (J x 1) matrices de constantes, respectivamente, tal que toda la informacin a priori
acerca de la ecuacin i-sima del modelo, incluyendo la restriccin de normalizacin, pueda ser escrita
como:

Ri ai = ri
As se puede hacer la siguiente observacin: Sabemos que la i-sima columna de AF es Afi, donde fi
es la i-sima columna de F. Ya que F es admisible, los coeficientes estructurales resltantes satisfacen
la restriccin Ri(Afi) = ri. Sin embargo, para que la i-sima ecuacin est identificada, fi debe ser igual
a ji, el i-simo vector unitario. Efectivamente ji es una solucin de RiAfi = ri porque RiAji = Riai = ri.
Entonces para que (RiA)fi = ri tenga solucin nica igual a fi = ji, se requiere que Rango (RiA=M).

Teorema: Condicin de Rango:


La i-sima ecuacin est identificada si y solo si Rango (RiA) = M
Corolario: Condicin de Orden
Una condicin necesaria para la identificacin de la i-sima ecuacin es que J, el nmero de
restricciones lineales incluida la normalizacin, debe ser mayor o igual que el nmero de variables
endgenas del sistema M. Si Ri excluye la condicin de normalizacin, entonces el rango de RiA debe
ser M - 1 y el orden de Ri debe ser J > M 1.
Si la normalizacin incluye las restricciones, entonces el teorema y el corolario conducen a las
siguientes definiciones:
1.- Los parmetros de la i-sima ecuacin estn sin identificar o subidentificados si Rango (RiA) < M.
2.- Los parmetros de la i-sima ecuacin estn perfectamente identificados si Rango (RiA) = M y
Rango (Ri) = M
3.- Los parmetros de la i-sima ecuacin estn sobreidentificados si Rango (RiA) = M y
Rango (Ri) > M
Una versin alternativa y ms prctica de la condicin de rango es la siguiente:
Una ecuacin est identificada slo si se puede construir por lo menos un determinante diferente de
cero de orden (M-1)x(M-1), a partir de los coeficientes de las variables endgenas y predeterminadas
excluidas de esa ecuacin, pero incluidas en las dems2.

Mtodos de Estimacin
Habiendo ya sealado las condiciones que hacen factible la recuperablidad de los parmetros se pasar
a continuacin a dar un breve comentario acerca de los mtodos existentes que permiten solucionar el
problema de la inconsistencia que presentan la aplicacin directa de los MCO. Estos mtodos surgen a
partir de la bsqueda de soluciones alternativas cuando se viola el supuesto de no aleatoriedad en las
variables explicativas y, a su vez, de la no existencia de correlacin igual a cero entre ellas y las
perturbaciones.
Mtodos uniecuacionales o de informacin limitada: En estos mtodos, se estima cada
ecuacin separadamente, utilizando slo la informacin sobre los coeficientes contenida en dicha
ecuacin. Entre estos mtodos estn:
Mnimos Cuadrados Ordinarios (MCO): Como ya se seal antes, los estimadores que
surgen de aplicar el mtodo no son consistentes. Sin embargo, este mtodo es ms robusto frente a los
errores de especificacin que otros mtodos, y adems las predicciones de modelos estimados por l
pueden ser mejores que las correspondientes a modelos estimados por mtodos de ecuaciones
simultneas, por lo que puede resultar conveniente presentar estimaciones MCO de las ecuaciones
estructurales junto a las de otros mtodos como referencia o norma de comparacin.
Mnimos Cuadrados Indirectos (MCI): consiste en estimar por MCO los coeficientes de la
forma reducida y luego recuperar los estimadores de los parmetros de la forma estructural va un
sistema de ecuaciones. Slo es aplicable cuando las ecuaciones del modelo estn exactamente
identificadas, ya que slo en ste caso se puede obtener valores nicos para los coeficientes de la
forma reducida. Los estimadores de los parmetros as obtenidos heredan todas las propiedades
asintticas de los estimadores de la forma reducida, asegurndonos as de que sean consistentes (y
pueden ser asintticamente eficientes si las perturbaciones se distribuyen normalmente) pero no gozan
de stas propiedades para muestras chicas.

Ver Gujarati, Cap. 17 Seccin 3 Pg: 362

Mnimos Cuadrados en Dos Etapas (MC2E): Es til para modelos cuyas ecuaciones estn
sobreidentificadas, ya que presenta una forma de ponderar las soluciones mltiples. La idea bsica que
subyace en el mtodo es la de reemplazar las variables endgenas, que estn correlacionadas con las
perturbaciones, por funciones lineales de variables exgenas; as, ya que estas variables no presentan
correlacin con dichas perturbaciones, las estimaciones de los parmetros que conseguiremos sern
consistentes. Se elige cada funcin lineal de manera que est lo ms altamente correlacionada posible
con la variable endgena que reemplaza.
El mtodo requiere dos aplicaciones sucesivas de MCO.
Primeramente se regresan las variables endgenas contra todas las variables predeterminadas del
sistema. La estimacin obtenida para la variable endgena se utiliza como dato en las ecuaciones y se
aplica nuevamente MCO sobre la ecuacin que incluye la estimacin. Los estimadores as obtenidos
son consistentes.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Se puede demostrar que ste mtodo es una aplicacin particular del mtodo de las variables
instrumentales que busca reemplazar los regresores por variables altamente correlacionados con ellos
y escasamente con los trminos de perturbacin.
Mxima Verosimilitud con Informacin Limitada (MVIL)
Este mtodo consiste en elegir como estimadores de los parmetros estructurales aquellos
valores que hacen mxima la funcin de verosimilitud de la ecuacin respectiva sujeto a elegir valores
que cumplan con la condicin de rango. Es decir este mtodo ante los caso de sobreidentificacion elige
dentro del grupo de valores posibles aquellos que maximicen la funcin de verosimilitud de la
ecuacin siendo un requisito previo el conocimiento de la distribucin de densidad del trmino de
perturbacin de la ecuacin.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Mtodos de sistemas o de informacin completa: En estos mtodos, a diferencia de los
anteriores, se estiman en conjunto todas las ecuaciones del sistema, usando las restricciones sobre los
parmetros de todas ellas. Son asintticamente ms eficientes que los mtodos con informacin
limitada en la medida que la especificacin del modelo sea la correcta.
Mnimos Cuadrados en Tres Etapas: consiste en estimar cada una de las ecuaciones del
modelo por el mtodo de los MC2E, calcular los residuos par estimar la matriz de varianzas y
covarianzas (aqu se suponen ruido blanco en cada termino de perturbacin de cada ecuacin y se
permite la existencia de correlacin contempornea y heterocedasticidad entre las ecuaciones) para
finalmente aplicar mnimos cuadrados generalizados factibles al modelo completo. Este mtodo es
ms eficiente asintticamente que el de MC2E en la medida que la especificacin del modelo sea la
correcta y tendr igual eficiencia en el caso de que no exista correlacin contempornea ni
heterocedasticidad entre los errores de cada una de las ecuaciones, o en el caso que todas las
ecuaciones estn exactamente identificadas.
Mxima verosimilitud con Informacin completa: Aqu lo que se pretende es hallar el
conjunto de estimadores de la forma estructural que hacen mxima la probabilidad de ocurrencia de
los valores muestrales de las variables endgenas y predeterminadas, es decir se intenta maximizar una
funcin de verosimilitud para todo el modelo simultneamente. Este mtodo es caro
computacionalmente en el sentido que arroja sistemas de ecuaciones no lineales y sumado al hecho de
que los estimadores que se obtienen bajo una distribucin normal multivariante son exactamente
iguales a los de los de MC3E hacen que este mtodo sea menos preferido que ste ltimo.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.

Implementacin en Eviews:
Creando el Objeto System
Para estimar los parmetros de un Sistema de Ecuaciones en Eviews, se debe primero crear un nuevo
objeto y especificar el sistema de ecuaciones. Para ello se debe hacer Clic en Objet/New Objet/System.
Cuando se cree el sistema la ventana aparecer en blanco y ah se deber especificar el sistema
describiendo con texto las ecuaciones y potencialmente algunas lneas describiendo los instrumentos y
los valores iniciales de los parmetros en caso de modelos no lineales.

Declaracin de las ecuaciones


Para ingresar las ecuaciones por frmulas se debe emplear las expresiones estndares de Eviews. Las
ecuaciones deben ser ecuaciones de comportamiento con coeficientes desconocidos y trminos de
error implcitos. Las ecuaciones pueden ser no lineales en sus variables, coeficientes o ambas,
pudindose agregar restricciones cruzadas en los coeficientes de las ecuaciones usando los mismos
coeficientes en diferentes ecuaciones. Por ejemplo:
y = c(1)*x1 + c(2)*x2 + c(3)*x3
z = c(3) + c(2)*z + (1-c(2))*x
Si se desea agregar la restriccin C(1)+C(2)+C(3)=1, la misma se puede imponer especificando la
ecuacin como:
y = c(1)*x1 + c(2)*x2 + (1-c(1)-c(2))*x3
Si la ecuacin no posee el signo igual por ejemplo
(c(1)*x + c(2)*y + 4)^2
Eviews interpretar la expresin completa igual al trmino de error.
No deben incluirse en la especificacin ecuaciones que representen identidades. De ser necesario se
deber resolver el modelo para eliminar de l las identidades y especificar en Eviews el modelo
resuelto libre de ellas.
Variables Instrumentales

Si se planea estimar el sistema usando Mnimos Cuadrados en 2 Etapas, 3 Etapas o GMM, se deben
especificar las variables a ser usadas en la estimacin. Se pueden especificar los mismos instrumentos
para todas las ecuaciones o instrumentos distintos para cada ecuacin.
De esta manera existen dos manera de especificar los instrumentos. Si uno desea usar los mismos
instrumentos para todas las ecuaciones se debe incluir una lnea de comando cuya sintaxis comience
con @INST o INST seguida por una lista de variables exgenas a ser usadas como instrumentos. Por
ejemplo:
@inst gdp(-1 to -4) x gov
Indica a Eviews usar las seis variables como instrumentos para todas las ecuaciones que se listarn a
continuacin.
Para especificar instrumentos distintos para cada ecuacin se debe agregar al fin de cada ecuacin: @,
seguido por la lista de instrumentos. Por ejemplo:
cs = c(1)+c(2)*gdp+c(3)*cs(-1) @ cs(-1) inv(-1) gov
inv = c(4)+c(5)*gdp+c(6)*gov @ gdp(-1) gov
La primer ecuacin usa CS(-1), INV(-1), GOV, y una constante como instrumentos mientras que la
segunda usa GDP(-1), GOV, y una constante.
Identificacin
Los criterios de identificacin exigen que debe haber al menos tantos instrumentos, incluyendo
constantes, en cada ecuacin como variables existen del lado derecho de cada una de ellas.
Si dichos requerimientos no se cumplen, Eviews mostrar un cuadro de error.
Estimacin
Una vez creado y especificado el sistema, uno puede presionar el boton de estimacin para seleccionar
el mtodo de estimacin por medio de un cuadro de dialogo

Si uno selecciona alguno de los mtodos de estimacin por GMM, Eviews solicitara se selecciones
algunos opciones especficas para este mtodo. Si uno selecciona la opcin rotulada como Identity

weighting matrix, Eviews estimar el modelo usando idnticos ponderadores y usar los coeficientes
estimados y la especificacin GMM que se indique para computar una matriz de covarianzas que es
robusta a heterocedasticidad en las secciones cruzadas (White) o a heterocedasticidad y correlacin
contempornea. Si dicha opcin no se selecciona Eviews usar los ponderadores GMM en la
estimacin y cmputo de lo matriz de covarianzas.
Cuando uno selecciona la opcin GMM-Time series (HAC), el cuadro de dilogo adicionalmente
mostrar opciones para especificar la matriz de ponderacin y opciones para el Kernel para determinar
la forma funcional del nucleo usado para ponderar las autocovarianzas al computar la matriz de
ponderacin.

Salidas de las Estimaciones


Las salidas de la estimacin del sistema contiene los parmetros estimados, sus errores estandares y
los estadsticos t para cada uno de los coeficientes en el sistema. Adicionalmente Eviews reportar el
determinante de la matriz de residuos y en el caso del mtodo de Mxima Verosimilitud con
Informacin Completa, el valor maximizado de la verosimiitud

Tambien se incluyen un resumen de los estadsticos de cada ecuacin como los errores
estndares de la regresin, suma de cuadrados de residuos, etc.

APNDICE
1.- Mnimo Cuadrados Generalizados
Hasta ahora se han tratado casos de estimacin de modelos lineales en donde los supuestos en los que
se generaban los datos respondian a todas las condiciones que hacian aplicables el Teorema de GaussMarkov arrojando por ende estimadores insesgados y eficientes. Dichos supuestos eran:
1- Las Xs son fijas en muestras repetidas (no estocsticas).
2- El rango de la matriz X es de rango completo (no existe dependencia lineal entre las
observaciones)
3- Correcta especificacin del modelo en el sentido de que el verdadero proceso generador de datos
provenia de una relacion exactamente lineal entre las variables y adems que no se cometen
errores por incluir o excluir variables de mas.
4- E(u) =
5- V (u) = 2 I es decir, errores no autocorrelacionados y con varianza constante e igual para todos
(homoscedsticos).
Cuando este ultimo supuesto no se cumple la aplicacin directa de los MCO conducen a
estimadores que dejan de ser eficientes. Adems cuando se comete el error de no percatarse o de hacer
caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en el
error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis. Acontinuacion sedesarrolaran estas ideas de un
lenguaje mas formal.
Consideremos un modelo como del ejercicio en donde ahora

V (u) = 2
aplicando directamente MCO al modelo se tendr

mco = ( X ' X ) 1 X 'Y , reemplazo por el VM :

mco = ( X ' X ) 1 X ' ( X + u ) =

mco = + ( X ' X ) 1 X ' u

E ( mco ) = + ( X ' X ) 1 X ' E (u )

E ( mco ) =
que como claramente se observa los estimadores conservan aun su insesgabilidad
Con respecto a su varianza se tiene

V ( mco ) = E[( )( )' ]

V ( mco ) = E[( X ' X ) 1 X ' uu ' X ( X ' X ) 1 ]

V ( mco ) = ( X ' X ) 1 X ' E (uu ' ) X ( X ' X ) 1

V ( mco ) = 2 ( X ' X ) 1 X ' X ( X ' X ) 1


esta expresin para la varianza de los estimadores. A continuacin se vera que existen otros
estimadores de los parmetros que poseen una varianza menor.
Para que el teorema de Gauss-Markov continue en vigencia lo que habria que hacer intentar hallar una
transformacin de los datos originales de modo tal que los errores asociados a dichos datos
transformados no exiban autocorrelacion ni heteroscedasticidad. La existencia de dicha transformacin
ser el hecho que marque la entrada en vigencia del Teorema de Gauss-Markov en el sentido de que la
aplicacin de MCO a los datos transformados generar estimadores insesgados y eficientes de los

parmetros. Ya que es una matriz definida positiva, por ser esta una matriz de varianzas y
covarianzas, siempre existira otra matriz tal que permita expresarla como sigue

= HH ' 1 = (H' ) -1 H -1 ya que la existencia de H garantiza la existencia de H 1


Si ahora se premultiplica el modelo por H 1se tendra :
H 1Y = H 1 X + H 1u
Y * = X * + u*
E( u * ) = H 1 E(u) E( u * ) =
V ( u * ) = E( u * u * ' )
V ( u * ) = E [ H 1uu' (H' ) -1 ] = H 1 E( uu' )(H' ) -1
V ( u * ) = 2 H 1(H' ) -1 = 2 H 1 HH ' (H' ) -1
V ( u* ) = 2 I
con lo cual se logro hallar la transformacin de los datos adecuada para eliminar la heteroscedasticidad
y la autocorrelacion, habilitando la aplicacin de MCO a los datos transformados para obtener
estimadores de los parmetros insesgados y eficientes tal como lo predice el Teorema de GaussMarkov. Estos nuevos estimadores son denominados estimadores por minimos cuadrados
generalizados (MCG).
La expresin para los estimadores (MCG), la prueba de que siguen siendo insesgados y la expresin
que adoptan Su matriz de Varianzas y covarianzas se muestra como sigue:

mcg = ( X * ' X * )1 X * ' Y *

mcg = ( X ' H '1 H 1 X ) 1 X ' H '1 H 1Y

mcg = ( X ' 1 X ) 1 X ' 1 ( X + u )

E ( mcg ) = + ( X ' 1 X ) 1 X ' 1E (u )

E ( mcg ) = sigue siendo insesgado

V ( mcg ) = E[( )( )' ]

V ( mcg ) = E ( X ' 1 X ) 1 X ' 1uu ' 1 X ( X ' 1 X ) 1 ]

V ( mcg ) = ( X ' 1 X ) 1 X ' 1 E (uu ' ) 1 X ( X ' 1 X ) 1

V ( mcg ) = 2 ( X ' 1 X ) 1 X ' 1 1 X ( X ' 1 X ) 1

V ( mcg ) = 2 ( X ' 1 X ) 1
Esta expresin a la que se arribo es la varianza correspondiente a los estimadores de varianza mnima
(por el teorema de Gauss-Marcov) por ende ser inferior que la de aplicar MCO a los datos sin
transformar. Este hecho se puede demostrar va el calculo de la diferencia entre ambas arrojando esto
una matriz semidefinida positiva.
Para hallar la matriz H que transforme los datos se pueden seguir varias maneras. Una de eelas seria
aplicando una descomposicin de Cholesky a , otra seria planteando un sistemas de ecuaciones.
Notese adems que es esencial conocer con exactitud para en funcin de esto obtener H ya que seria
omposible estimar todos sus elementos al mismo tiempo si estos fuesen todos distintos en virtud de
que seria mas los parmetros a estimar que los datos con que se cuentan para hacerlo.
Una consideracin importante sobre el tema es que cuando se comete el error de no percatarse o de
hacer caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en

el error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis que se hagan sobre los estimadores.

V ( mco Falsa ) = 2 ( X ' X ) 1 < V ( mcg ) < V ( mco )


como se dijo en el parrafo anteprecedente ante la imposibilidad de obtener estimaciones sobre todos
los parmetros de la matriz surge la necesidad de hacer algunas suposiciones adicionales sobre el
tipo de autocorrelacion como la que se realiza en el ejercicio.
a) Tambin en estos casos puede suceder que el estimador de la varianza muestral sea sesgado con
respecto al valor del parmetro. Generalmente lo subestima, convirtindose esto en una grave
peligro a la hora de realizar las inferencias. A continuacin se efecta una demostracin del mismo

e=Y X
e = Y X ( X ' X ) 1 X ' Y
e = [ I X ( X ' X ) 1 X ' ]( X + u ),
donde [ I X ( X ' X ) 1 X ' ] = M , simtrica e idempotente
e = MX + Mu = Mu ya que puede demostrarse que MX = [ I X ( X ' X ) 1 X ' ] X =
e' e = u' M ' Mu = u' Mu
E( e' e ) = E [ tr( u' Mu )] = E [ tr( uu' M )]
E( e' e ) = tr [ E( uu' )M ] = 2 tr( M )
E(

e' e
tr( M )
) = E( 2 ) = 2
nk
nk

La traza de (M ) es distinta de (n-k) siempre que I , por lo tanto el estimador de la varianza


residual (ee/(n-k)) es sesgado.
Para concluir vale destacar que prevenirse de la autocorrelacin y/o heteroscedasticidad (varianzas de
los errores distintas entre s) es una tarea de suma importancia (no trivial), porque permitir imponer
barreras a todos los peligros de la estimacin clsica por MCO. Para esto, hay tener en cuenta que son
diversas las causas que llevan a la prdida de la propiedad de ruido blanco a los errores. Entre estas
estn: el error en la especificacin de la forma funciona, omisin o inclusin variables relevantes, etc.
Para conocer si es lgico o no el supuesto de ruido blanco de los errores se puede contar con la
observacin de los digramas de dispersin, con los correlogramas y con algunos test de hiptesis como
el de Durbin Watson.
Para el caso de esquemas autorregresivos de primer orden, existe un estadstico que permite
determinar si ste est presente entre las perturbaciones o no; dicho estadstico es el de Durbin-Watson
y se define as:
n

d=

(e t e t 1 ) 2
t =2

e2t
t =1

Podemos definirlo alternativamente mediante algunos pasos algebraicos como:

d=

+ e 2 t 1 2 et et 1


d = 21

e e
e

t t 1
2

y siendo

e t e t 1
e2t

entonces

d = 2(1 )
Hay que tener en cuenta que el estadstico se basa en algunos supuestos sobre el modelo, a
saber, que el mismo incluye un trmino independiente, que las variables X son fijas en muestras
repetidas, que las perturbaciones u se generan mediante un proceso autorregresivo de primer orden y
se distribuyen en forma normal multivariante y por ltimo que el modelo no incluye valores rezagados
de la variable dependiente como una de las variables explicativas.
Para poder rechazar o no la hiptesis nula de que no hay autocorrelacin entre las
perturbaciones, se han tabulado valores crticos mximos y mnimos para poder tomar una decisin.
Estos lmites dependen del nmero de observaciones y del nmero de variables explicativas del
modelo. No desarrollar aqu el criterio de decisin para estas pruebas de hiptesis pero s se pueden
reparar brevemente en los lmites de variacin del estadstico. Dependiendo de los valores que asuma
, (y siendo que -1< <1):
0<d<4

2.- El mtodo SUR


Ante determinadas situaciones el investigador puede verse en la necesidad de modelar y
estimar conjuntamente varias ecuaciones que en apariencia no representen simultaneidad
entre las mismas. Sin embargo, los errores aleatorios pueden presentar algn grado de
correlacin contempornea en la medida que involucren a factores comunes no medibles y/o
no observables y ser esta correlacin no percibida la que haga que resulte ms eficiente
estimar todas las ecuaciones simultneamente y no una por una por Mnimos Cuadrados
Ordinarios.
En la teora econmica existen innumerables ejemplos de estimaciones conjuntas. Se puede
tratar de ajustar la demanda de determinado bien a lo largo del tiempo y en diferentes
regiones. Se podran, a su vez, encontrar las demandas de diferentes bienes que estn
relacionados (ya bien como sustitutos o complementarios), caso ste del ejercicio a realizar.
La inversin en el tiempo de distintas firmas es otro caso tpico.
La correlacin del trmino de perturbacin de distintas ecuaciones en un momento del tiempo
es conocida como correlacin contempornea (distinta a la autocorrelacin, que es la
correlacin en el tiempo en una misma ecuacin).
La tcnica apropiada de estimacin conjunta es conocida como Seemingly Unrelated
Regressions -Ecuations- (SUR), o regresiones aparentemente no relacionadas.

El mtodo SUR es utilizado por lo general en la estimacin de un conjunto de ecuaciones


utilizando series de tiempo, pero es igualmente til para datos de corte transversal. El mtodo
Sur puede ser considerado como un mtodo para combinar datos de series de tiempo y corte
transversal.
De una manera ms formal la situacin de modelizacin que propicia la aplicacin de este
nuevo mtodo es:

yi = X i i + ei

con i = 1, 2, K, M, donde M = cantidad de ecuaciones

donde claramente se observa las diferencias con los problemas tradicionales de estimacin,
ya que ahora se debe relacionar series de tiempo con cortes transversales, existiendo no slo
la posibilidad de autocorrelacin entre los errores para cada observacin de una ecuacin i,
sino que adems pueden ocurrir interrelaciones entre las perturbaciones de dos ecuaciones
(vector ei contra el vector e j ).

MTODO SUR

con i = 1, 2, K, M, . Donde cada yi es (T x 1), la matriz X i es de ( T


Dado yi = X i i + ei
x Ki ), los i son de (Ki x 1) y las perturbaciones de (T x 1). Dados los tamaos, el modelo se
puede reducir a:

y1 X 1


y2 =
M


yM

1 e1
e
X2
2 + 2 Y
(TMx1) = X (TMxK ) ( Kx1) + e(TMx1)
M M
O

X M M e M

Donde K surge de la suma de los Ki de cada ecuacin.


Cada ecuacin, como se dijo anteriormente, posee ruido blanco en los disturbios, pudindose
estimar por MCO separadamente. El problema surge cuando al hacer esto, no consideramos
las relaciones entre las ecuaciones (correlacin contempornea). Para encontrar entonces la
matriz de covarianzas de todo el sistema, a partir de la matriz ( ) que contiene las varianzas
de los disturbios de cada ecuacin ( ii ), se deben recordar la propiedad de
homoscedasticidad, y las covarianzas entre las ecuaciones ( ij con i j ), que reflejan las
correlaciones contemporneas, con lo cual se tiene

11 12

22
= 21
M
M

M2
M1

1M
L 2 M
L

L MM

Haciendo el producto de kronecker ( ) entre la matriz anterior y una identidad de orden (T),
se obtiene lo siguiente:

L
12
1M
0
0
0 L 0
0 L 0
11
0
L
L
L

0
0
0
0
0
1M
12
11

LL
M
M O M
M
M
O
M
M
M
O
M

L 1M
0
0
0
0 L 12
0 L 11
0

L
2M
0
0
0 L 0
0 L 0 22
12
L
L
L

0
0
0
0
0
0

2M
22
12
LL

IT = M
M
O
M
M
M
O
M
M
M
O
M

0
L 2M
0
0
0
0 L 22
0 L 12

LLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLL
1M
0
0
L
L
L
0
0
MM
0
0 2M

0
0
0
0
1M L
2M L
MM L
0
0
L
M
M
O
M
M
M
O
M
M
M
O
M

0
0
0
L 1M 0
L 2M
L MM
0
0

A esta matriz la llamaremos y representar la matriz de V y COV relevante. Si


nosotros conocemos a , podemos estimar los coeficientes por MCG, deduciendo del lgebra
matricial que:

= [ X ' ( 1 I ) X ] 1 X ' ( 1 I ) y = [ X ' 1 X ] 1 X ' 1 y

El nuevo estimador posee una menor varianza ya que tiene en cuenta la correlacin
contempornea entre los distintos vectores de las perturbaciones de las diferentes ecuaciones
Sin embargo existen dos casos particulares en que se obtienen resultados idnticos al
aplicar MCO sobre cada ecuacin y al aplicar SUR y no se producen ganancias al tratar a las
ecuaciones como sistema.
a) Cuando las correlaciones contemporneas son iguales a 0. Ello es obvio, ya que es la
existencia de dicha correlacin lo que provoca que las ecuaciones estn relacionadas.

11 = 22 = 33 = 0

b) Cuando las variables explicatorias de cada ecuacin son las mismas.

X1 = X 2 = X3 = X

Las variables explicativas de todas las ecuaciones son las mismas, por lo que no se
produce una ganancia al tratarlas en forma conjunta, ya que no se agrega ninguna variable
explicativa a cada variable dependiente.
Por lo tanto, la estimacin a travs de MCO nos proporciona la misma solucin que el
mtodo SUR. Ello se puede demostrar partiendo del estimador SUR, utilizando algunas
propiedades del producto de Kronecker y observando que, al ser todas las matrices Xi iguales,
entonces X = (I X) . Por lo tanto:

SUR = (X '( 1 I)X)-1 X( 1 I) y


= ((I X ')( 1 I)(I X)) 1 (I X ')( 1 I) y
= ( 1 (X ' X)) 1 ( 1 I) y
= ( (X ' X) 1 )( 1 I) y
= (I (X ' X) 1 X ') y
= ((I X) '(I X)) 1 (I X) ' y

= (XX)-1 X y = MCO

Cuando no se conoce a la matriz de V y COV ( ), se opta por construirla a travs de los


errores muestrales de la siguiente forma:

MCOi = (Xi Xi )-1 Xi yi ei = yi Xi MCOi

ij =

1
1 T
ei e j = eit e jt
T
T t =1

Aunque sea sesgada en muestras pequeas. Para evitar el sesgo, se suele dividir el
sumatorio por (T K/M). La dificultad aparece cuando el modelo incluye ecuaciones con
diferentes nmeros de parmetros, ya que en dicho caso no se cuenta con iguales grados de
libertad para las distintas ecuaciones, en especial al calcular las covarianzas entre dos

ecuaciones de distintos grados de libertad. Una alternativa interesante es utilizar como divisor
T- k , donde k es la media del nmero de coeficientes de las ecuaciones.
Dicho divisor posee la ventaja de que si todas las ecuaciones poseen el mismo nmero
de coeficientes, provee de estimadores insesgados. Si definimos a la matriz de los estimadores
de las varianzas y covarianzas del modelo como $ , el estimador MCG del modelo cuando la
matriz de varianzas y covarianzas es desconocida, es:

SUR = (X '( I)X)-1 X'( I) y

Este estimador es conocido como el estimador Sur de Zellner y es el que se utiliza por
lo general en la prctica.
Restricciones
1- Condicin de Engel:
w114 + w2 24 + w3 34 = 1

La condicin de Engel establece que la suma de las elasticidades ingreso de cada bien,
ponderadas por la participacin en el gasto total (p x q / y), debe ser igual a uno. Si se
desarrollamos esta suma:
p1q1 q1 y p 2 q 2 q 2 y

*
* +
*
*
y q1 y
y q 2
y

q
q
p1 * 1 + p 2 * 2
y

p3 q3 q3 y
+
*
* =1
y q3
y


q
+ p3 * 3 = 1
y

Debemos observar si la suma del gasto que en cada bien se produce, luego de un
incremento en el ingreso, es igual a uno. Es decir, que el incremento del gasto en los n
bienes que se consumen deben agotar la totalidad del incremento en el ingreso.

q
q
p1 * 1 dy + p 2 * 2
y
y

q
dy + p3 * 3 dy = dy
y

2- Homogeneidad:
i1 + i 2 + i3 + i 4 = 0 para i = 1,2,3

Recordando que los coeficientes representan las elasticidades precio ( i1 , i 2 , i3 ) e


ingreso ( i 4 ); debemos comprobar la propiedad de homogeneidad de grado cero de
las funciones de demanda de este tipo para cada ecuacin. La importancia de esta
caracterstica radica en su definicin: Al multiplicar todos los precios por un valor

arbitrario, distinto de cero, la cantidad demandada no variar si tambin multiplicamos


nuestro ingreso por el mismo valor. Econmicamente la condicin de homogeneidad
indica que el consumidor no padece ilusin monetaria en el sentido de que a la hora de
consumir solo se fija en precios reales y no nominales. Lo dicho anteriormente se puede
traducir formalmente como sigue:

qit = A * p1t i1 * p 2ti 2 * p3ti3 * yt i 4


qit' = A * ( p1t ) i1 * ( p 2t ) i 2 * ( p3t ) i3 * ( yt ) i 4

q ' = A * ( i1 + i 2 + i3 + i 4 ) * p i1 * p i 2 * p i3 * y i 4
1t

it

2t

3t

Se demuestra que al cumplirse la propiedad, el exponente de se anula dejando como


consecuencia una identidad entre qit y qit' ; es decir, las cantidades demandadas de ese
bien i en el momento t no variaron.
3- Simetra:
La condicin de simetra establece que la elasticidad cruzada de un bien i con respecto a
otro j, expresada como proporcin de la participacin en el ingreso del bien j, ms la
elasticidad-renta del bien i, debe ser igual a la elasticidad cruzada del bien j con
respecto al bien i, expresada como proporcin de la participacin en el ingreso del bien i, ms
la elasticidad-renta del bien j., o dicho formalmente:
ij
wj

+ i4 =

ij
wi

+ j 4 para i, j = 1,2,3(i j )

Donde: wi = pi qi / y siendo i = (1,2,3) representa la participacin en el presupuesto del bien iT

simo. Se debe utilizar: w i = T 1 ( pit q it / yt )


t =1

SUR Iterativo

La metodologa que se expuso para obtener los estimadores SUR cuando la matriz de
varianzas y covarianzas era desconocida consista en calcular en una primera etapa los
estimadores MCO de cada una de las demandas, y utilizarlos para obtener los vectores de

errores:

= ( X' X ) -1 X' y e = y X
MCOi

MCOi

Con dichos vectores obtenemos el estimador de las varianzas y covarianzas:

ij =

ei ' e j
T-k

ei e j

t =1
T-k

Formando una matriz estimada de las varianzas y covarianzas () a partir de los estimadores

anteriores, estamos en condiciones


de obtener
el estimador
SUR, dado por:
1

1
SUR = ( X' ( I)X) -1 X' ( I) y

Suele utilizarse tambin otro estimador SUR a travs de un proceso iterativo con los
estimadores de las varianzas y covarianzas y los estimadores de los coeficientes del
supermodelo. Una vez obtenido los estimadores SUR de los coeficiente, se los utiliza para
estimar nuevamente la matriz de varianzas y covarianzas. A partir de la nueva estimacin de
las varianzas y covarianzas, aplicamos nuevamente la definicin anterior y obtenemos en una
segunda etapa un nuevo estimador SUR.
Este estimador SUR de segunda etapa puede ser utilizado para estimar nuevamente la matriz
de varianzas y covarianzas. A partir de dicha nueva matriz, podemos obtener un estimador
SUR en una tercera etapa; y as de forma consecutiva hasta que se produzca una convergencia
a un valor estable. Dicha convergencia llevara a que dos iteraciones sucesivas sean similares.
No se repite el output proporcionado por los programas ya que resulta exactamente el mismo
reproducido en la seccin anterior. No hay ganancia al utilizar el proceso iterativo ya que los
estimadores MCO que permiten obtener el estimador de la matriz de varianzas y covarianzas
son los mismos que luego se obtienen al estimar el supermodelo. Por lo tanto, los estimadores
de los parmetros de las demandas que se utilizaran para obtener en una segunda etapa el
nuevo estimador de la matriz de varianzas y covarianzas son los mismos que se utilizaron en
el primer paso. Es decir, loas nuevas estimaciones por SUR en la segunda etapa sern los
mismos que los de la primera etapa.

SUR RESTRINGIDO

Para estimar el modelo planteado teniendo en cuenta restricciones obre las funciones
de demanda, se debe estudiar con detenimiento cmo se construyen los estimadores del SUR
Restringido.

La ecuacin (1) desarrollaba el estimador por MCG cuando la matriz de Varianzas y


Covarianzas ( ), se defina: = I T . Cuando se tiene inserto las restricciones en trminos
del sistema de ecuaciones R = r , se obtiene un tercer vector de coeficientes alternativos al de

MCO y MCG libre. Cabe aclarar que este vector se forma con el supuesto de que la H0)
R = r es cierta.

La optimizacin ahora surge de minimizar la suma de los cuadrados de los errores


sujeto a las siete limitaciones:

Min (Y X )' 1 I (Y X )

sujeto a: R = r

Resolviendo la CPO se obtiene:

* = mcg + CR ' RCR '

)1 (r R mcg ), donde C = (X ' 1 X )1

El problema que se nos plantea es el de no poder contar con la verdadera matriz de


varianzas y covarianzas y por ello debemos utilizar MCGE (estimados) construido con la
matriz

[ ]K K

= ij

de donde cada elemento ij =

T
1
eit e jt .
(T K / M ) t =1

De esta manera, se puede hallar tambin a = I M con lo que el vector de


coeficientes estimados para H0 cierta queda como sigue:

* = mcg + C R ' RC R '

)1 r R mcg .

TEST DE CORRELACION CONTEMPORANEA

En la primera parte del trabajo, al describir las caractersticas del modelo SUR, enfatizamos la
existencia de correlacin no nula entre los errores de cada uno de los grupos o ecuaciones del
sistema. La misma se define como contempornea justamente porque relaciona perturbaciones
en un mismo perodo de tiempo (t). Saber si existe correlacin contempornea o no es
importante ya que si no existe, aplicar MCO a cada ecuacin por separado es tan eficiente
como SUR. Testear si existe correlacin contempornea es til para determinar si es o no es
necesario aplicar SUR.
Para el ejercicio de demandas,

ln qit = i 0 + i1 ln p1t + i 2 ln p2t + i 3 ln p3t + i 4 ln yt + eit


i = 1, 2, 3

se quiere establecer si influye en el consumo del bien i el comportamiento del bien j. De


esta manera, del sistema:

Se puede deducir que las correlaciones se deben buscar contrastando los eit con los e jt para
un mismo t. Sabiendo que: ij =

T
1
eit e jt ; lo que se quiere probar es
(T K / M ) t =1

simplemente si los ij son nulos o no.


H0) ij = 0 i j
HA) Al menos una covarianza igual a cero.

Construimos el estadstico del Multiplicador de Lagrange. El mismo se arma en base a los


coeficientes de correlacin muestral (r):

M i 1

= T rij2
i = 2 j =1

con M = nmero de ecuaciones. El estadstico, en el lmite, se distribuye asintticamente Chi


cuadrado con M(M-1)/2 grados de libertad (la cantidad de covarianzas distintas existentes en
la matriz ).

TEST DE LA VALIDEZ DE LAS RESTRICCIONES

Para verificar la Hiptesis nula R = r , debemos encontrar un estadstico capaz de


seguir una distribucin asinttica aproximada que sea conocida. Para esto, partiendo de la
nocin de que: ~ N ( ; C ) ; por lo tanto, por propiedad de las matrices: R ~ N (r ; RCR ' ) bajo
la hiptesis nula cierta. Sabiendo las caractersticas del exponente de una Normal
Multivariada, podemos descifrar que:

g = R r

)' (RCR ' )1 (R r ) ~ 2 (J ) .

Donde J es el nmero de restricciones. El ltimo paso antes de utilizarlo para el


contraste de hiptesis tiene que ver con la imposibilidad de contar con la verdadera varianza

y, por ello, se construir un g que surge de cambiar C por C y por . De esta manera,

g 2 ( J )
d

H0) R = r
HA) R r
= 5%

Existe otro test construido sobre la base de un estadstico con distribucin que tiende a
una F. Se parte de la nocin de las sumas de cuadrados libres y restringidos:

F =

'

g / J

y X 1 I y X / (MT K )

F (J ; MT K )
d

Puede demostrarse que el denominador converge en probabilidad a uno, por lo que puede ser
omitido:

g
F = ~ F( J ,MT K )
J

O de forma equivalente:

F =

(e 'r er e ' e) / J
e ' e /(T K / M )

Y el valor observado de este estadstico debe ser comparado con el valor crtico terico de una
distribucin F con J,(MT-K) grados de libertad para un nivel de confianza . Si el valor
observado es mayor que el crtico, se rechaza la hiptesis nula planteada; en caso contrario, no
se puede rechazar la hiptesis nula. Cual es el significado en cada caso? Si la reduccin en la
suma de cuadrados de los residuos debido a la estimacin libre (sin restricciones) no es
suficientemente grande, no habr pruebas para rechazar la hiptesis nula de que las
restricciones son vlidas. Por el contrario, si esta reduccin es suficientemente grande, la
hiptesis nula de que las restricciones son vlidas se rechazar ya que al no considerarlas la
suma de cuadrados de los residuos disminuye considerablemente.
Ambos estadsticos son asintticamente equivalentes y en muestras finitas el estadstico F
llevar al rechazo de la hiptesis nula en un numero menor de casos que el estadstico X 2, por
lo que responde a una aproximacin ms conservadora.
Por ltimo, cabe considerar el efecto de utilizar el divisor T-(K/M) en el estimador de . Los
estadsticos F y X 2 sern menores que si utilizramos el divisor T, y por lo tanto la hiptesis
nula ser rechazada en un nmero menor de veces.

BIBLIOGRAFA:

CHIANG, Alpha: Economa Matemtica. Ed. McGraw-Hill. 1998

GREENE, Econometrics Analisi. Prentice Hall. 1995

GUJARATI, Damodar : Econometra Bsica. Ed. McGraw-Hill. 1991

JOHNSTON, J. : Mtodos Economtricos. Ed. Vivens Vives. 1987. Tercera Edicin.

JUDGE, GRIFFITHS, HILL, LUTKEPOHL: The Theory and Practice Of Econometrics.

Second Edition. Wiley Series. 1985

MADDALA, G. S. : Econometra. Ed. McGraw-Hill. 1985.

WOOLDRIDGE, J. Econometrics Analisis Of Cross Sections and Pnale Data. 2002. The MIT

Press

También podría gustarte