Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometria Ecuaciones PDF
Econometria Ecuaciones PDF
de Estimacin de Demandas
Autor:
Jorge Mauricio Oviedo 1
joviedo@eco.unc.edu.ar
1.- Introduccin
Los modelos economtricos intructorios aprendidos en los cursos de grado, se caracterizaban
por constituir modelos en donde los verdaderos procesos generadores de datos provenan de modelos
de una simple ecuacin lineal en los parmetros, es decir, los modelos en que nicamente haba una
variable dependiente Y y una o varias variables explicatorias X i . A saber:
Yt = 0 + 1 X 1t + L + n X nt + u t
Matricialmente: Y = X + u
En los mismos se vio, a travs del Teorema Gauss-Markov, que los estimadores obtenidos por el
Mtodo de los Mnimos Cuadrados Ordinarios (MCO), resultaban ser lineales, insesgados y de
varianza mnima (dentro del conjunto de todos los estimadores insesgados posibles) siempre que se
cumplieran los supuestos de E (u) = 0 , E (u u) = 2 I , exacta especificacin lineal en los parmetros
y que las variables independientes o explicativas no son estocsticas (son fijas en muestras repetidas)
o, en caso de serlo, se distribuyen independientemente del trmino de perturbacin.
Los Modelos de Ecuaciones Simultaneas surgen para captar la posibilidad ms realista que los
valores observados (Y,X) provengan de un proceso generador de datos en donde stos son creados en
forma simultanea y mutuamente interdependientes va una interconexin entre ellos. Esto ocurre
cuando no solamente la Y es determinada por las X, sino que adems algunas de las X son a su vez
determinadas por Y. En otras palabras, cuando hay una relacin causal en las dos direcciones o una
relacin simultnea entre Y y algunas de las X, lo cual hace que la distincin entre variable
dependiente y variable explicatoria sea de poco valor. Es mejor tener un conjunto de variables que
pueden ser determinadas simultneamente por otras y esto es lo que efectivamente se hace en los
modelos de ecuaciones simultaneas.
Los sistemas de ecuaciones simultneas se distinguen por estar conformadas por varias
ecuaciones en las cuales hay un nmero de variables endgenas o variables determinadas
conjuntamente y un nmero de variables predeterminadas, o determinantes (estas a su vez pueden ser
variables exgenas, retardadas o no, y variables endgenas retardadas). En estos modelos se estiman
los parmetros de las ecuaciones teniendo en cuenta la informacin suministrada por todas las
ecuaciones del sistema. Un supuesto implcito en estos tipos de modelos es que los valores observados
corresponden siempre a situaciones de equilibrio, es decir no se concibe la posibilidad de obtener
datos en algn momento de transicin hacia el equilibrio.
En un modelo general lineal que contenga M ecuaciones estructurales en M variables endgenas
o conjuntamente dependientes y K variables predeterminadas, la relacin i-sima en el momento
(observacin) t puede escribirse en forma escalar como:
i1Y1t + L + iG YGt + i1 X 1t + L + iK X kt = u it
; ( i = 1L M ) ; ( t = 1LT )
o en forma matricial:
Yt + Xt B = ut
t = 1,..., n
donde :
11
B = 21
M
k1
12 L 1M
22 L 2 M
M
k 2
11 12
22
21
; =
M
O
M
M
L kM
M 1 M 2
L 1M
L 2 M
;
O
M
L MM
Yt = [ y1t L yMt ] ;
Xt = [ x1t L xKt ] ;
ut = [u1t L uMt ]
E[ei ] = 0, i = 1,..., M
E[ei ei '] = ij IT , i = 1,..., M ,
j = 1,..., M
E[e, e '] = IT
2) La matriz es no singular
3) plim(XE/T) = 0
Segn lo aprendido hasta ahora uno intentara aplicar MCO en forma independiente a cada una
de las M ecuaciones con respecto a las M+K-1 variables explicativas (M-1 Ys y K Xs) para hallar los
estimadores B y , pero si uno efecta esta accin se encontrar con que dichas estimaciones no
solamente sern sesgadas sino tambin inconsistentes es decir que a medida que el tamao de la
muestra crece indefinidamente los estimadores no convergen al verdadero valor del parmetro,
permaneciendo el sesgo. Esto se debe a que las M-1 variables endgenas restantes que aparecen en una
ecuacin cualquiera estarn correlacionas con el trmino de perturbacin de la ecuacin considerada,
puesto que por ser cada una de las M variables argumentos aleatorios, una perturbacin en una, alguna
o todas las restantes (M-1) afectaran el valor del termino de error de dicha ecuacin quien luego
influir en las dems ecuaciones. Es decir el termino de perturbacin de cada ecuacin depende de los
valores que asuman las G-1 variables endgenas restantes y viceversa. De esta manera se viola uno de
los supuestos del teorema de Gauss-Markov, haciendo indeseable la aplicacin directa de los MCO a
cada una de las ecuaciones. Para ello, demostraremos dichas afirmaciones a continuacin
Consecuencias de la aplicacin directa de MCO
Para demostrar que el estimador por mnimos cuadrados es inconsistente y sesgado consideremos la
siguiente ecuacin:
Yi + XBi + ei = 0
Algunos elementos de y B generalmente pueden tomar el valor de cero mientras que es costumbre
seleccionar una variable endgena del lado izquierdo de la ecuacin. Esto es llamado normalizacin y
es logrado fijando un coeficiente, digamos ij, con el valor -1. As, con algunas manipulaciones si es
necesario, se tiene:
y i = Yi i + Yi * i * + X i i + X i * i * +ei
y i = Yi i + X i i + ei
X i ] i + ei
i
y i = Z i i + ei
y i = [Yi
Donde:
1 1
i = i = i ,
i * 0
Y = [ y i Yi Yi *] ,
Bi = i = i , i = i
i * 0
i
X = [ Xi
X i *] ,
Z i = [Yi
Xi ]
y M = mi + mi*, K=ki + ki*. La matriz Yi* contiene aquellos mi* variables endgenas que no
aparecen en la i-sima ecuacin; esto es, sus coeficientes asociados i*son cero. La matriz X* contiene
aquellas ki* variables predeterminadas que no aparecen en la i-sima ecuacin, o sea, sus coeficientes
asociados i* son cero.
El estimador mnimo cuadrtico de i es:
= ( Z 'i Z i ) 1 Z 'i y i
Su valor esperado es
Y + XB = U
donde:
Y = X + V
(t = 1,K , T )
11 L 1M
= B 1 = M O
M = [ 1 L M ] (1)
K 1 L KM
v11 L v1M
V = U 1 = M O M = [ v1 L v M ]
vK 1 L vKM
vt ' = ut 1
Ya que todos los vectores ut tienen media igual a cero y matriz de covarianzas , se sigue que
Yt + Xt B = u t
(t = 1,K , T )
Yt = Xt + v t
donde:
= B 1
(1)
v t = u t 1
Una vez obtenido los estimadores de el paso siguiente es intentar recuperar los parmetros de
la forma estructural a travs de los estimadores de los parmetros de la forma reducida va la
relacin = B 1 . Como se puede dilucidar, la matriz es de orden M K y, por lo tanto,
contiene GK elementos. Las matrices B y contienen como mximo M2 + MK elementos. Por ende,
existe una infinidad de estructuras de B y que corresponden a cualquier matriz dada.
Esta imposibilidad de recuperar los parmetros en un caso general conlleva al tratamiento del
problema de la identificacin es decir el anlisis de los casos y las condiciones bajo las cuales este
proceso de recupero se torna factible.
As se pueden presentar tres situaciones:
Que se pueden obtener estimaciones nicas de los parmetros estructurales en cuyo caso diremos
que la ecuacin esta exactamente identificada
Que se obtengan mas de una estimacin de los parmetros estructurales (pero un numero finito de
los mismos) en cuyo caso se dice que la ecuacin esta sobreidentificada
Que se obtengan infinitos valores para las estimaciones de los parmetros estructurales y por ende
haciendo imposible su recuperacin, dicindose en este caso que la ecuacin est subidentificada. Esto
surge por la falta de informacin necesaria para construir una funcin a travs de la forma reducida
Supongamos que mercado con ofertas y demandas lineales donde cantidad y precio son
endgenos sin tener ninguna variable predeterminada. En este caso, las dos rectas sern
subidentificadas porque lo que se obtendrn sern slo puntos de corte, sin saber si es una misma
funcin de oferta con distintas demandas o viceversa, o si son funciones distintas en cada punto. La
situacin sera otra si por ejemplo se toma como variable exgena relevante el ingreso de los
consumidores explicando su demanda. De esta manera, puede asegurarse que cada punto pertenece a
una misma oferta en corte con diferentes demandas segn sea el ingreso dado.
A continuacin se analizar condetenimiento el problema de la Identificacion y se daran
definiciones mas precisas de lo enunciado anteriormente..
El problema de la Identificacin
Mas precisamente, sea Y u vector observables de variables aleatorias , una estructura S es una
especifiacain completa de la funcin de densidad de y, digamos f(y). El conjunto de todas las
estructuras posibles, S, es llamado un Modelo. El problema de la identificacin consiste en hacer
inferencias sobre S dada S y las observaciones. Para hacer las cosas mas precisas supongamos que y
es generado por una funcin de densidad paramtrica:
f (y / S ) = f (y / )
Donde es un vector real k-dimensional. La funcin f se supone conocida pero no. Entonces
la estructura es descripta mediante un punto en R k mientras que el Modelo como un subconjunto de
R k.
En general se dice que dos estructuras S = y S = * son observacionalmente equivalentes si
f (y / ) = f (y / *),
En base a esas consideraciones se proceder a analizar las condiciones bajo las cuales dos
estructuras de sistemas de ecuaciones son observacionalmente equivalentes.
Yt + Xt B + ut = 0
t = 1,..., T
Donde Yt, Xt y ut, son la t-sima filas de Y, X y E respectivamente. Supongamos que ut tiene
densidad P(ut/), luego la densidad conjunta asociada a u1, u2, ... ut ser:
T
P(u
t =1
/ )
P (y1 ,..., yT / , B, , X ) =
P(u
t =1
/ )
P ( y x B / )
t
t =1
Si pre-multiplicamos el sistema original por una matriz no singular arbitraria F, cada ecuacin
ser reemplazada por una combinacin lineal de cada una de las M ecuaciones originales. Esto es:
Yt (F) + Xt (BF) + ut F = Yt * + Xt B * t = 0
t = 1,..., T
Donde es utF,
P (t / F ' F ) = F
P(ut / )
P( / F ' F ) =
t =1
P(u
t =1
P(u
t =1
/ )
/ )
Con lo cual las funciones de densidad de ambas estructuras son idnticas en consecuencia
observacionalmente equivalentes. Obsrvese que eligiendo F = B-1, una estructura observacionalmente
equivalente es la forma reducida del sistema de ecuaciones. A raz de esto, todas las estructuras
creadas por una postmultiplicacin de la estructura original por una matriz original tendrn la misma
forma reducida.
De esta manera las condiciones para equivalencia observacional se pueden establecer asi:
1) 1 B = *1 B*, 1 = *1 * *
2) existe F no singular,
*
B * = F B
Si no hay restricciones a priori en los parmetros del sistema cualquier matriz no singular F podra ser
admisible en el sentido que la estructura transformada satisface las restricciones del modelo. Si sobre
la base de la teora econmica podemos establecer restricciones a priori cualquier modelo
transformado debe satisfacer las mismas restricciones si la transformacin se an admisible.
Se dice que la i-sima ecuacin del sistema est identificada si y solo si todas las transformaciones
admisibles F tienen la siguiente estructura:
F = LL cij LL
0
Es decir la i-sima columna de F debe ser un mltiplo escalar del vector unitario cuyos elementos son
todos ceros excepto la i-sima columna que contiene un uno. Obsrvese que cuando postmultiplicamos
B y G por F sus i-simas columnas solo son cambiadas por un mltiplo escalar.
Extendiendo dicha definicin al sistema completo, se tiene que el sistema es identificado si y solo si
todas las ecuaciones estn identificadas, o equivalentemente la matriz admisible de transformacin es
diagonal.
A los efectos de determinar las condiciones para identificar una ecuacin, definamos:
A=
B
De modo tal que ai, la i-sima columna de A contenga los parmetros de la i-sima ecuacin. Sea Ri y
ri J x (M + K) y (J x 1) matrices de constantes, respectivamente, tal que toda la informacin a priori
acerca de la ecuacin i-sima del modelo, incluyendo la restriccin de normalizacin, pueda ser escrita
como:
Ri ai = ri
As se puede hacer la siguiente observacin: Sabemos que la i-sima columna de AF es Afi, donde fi
es la i-sima columna de F. Ya que F es admisible, los coeficientes estructurales resltantes satisfacen
la restriccin Ri(Afi) = ri. Sin embargo, para que la i-sima ecuacin est identificada, fi debe ser igual
a ji, el i-simo vector unitario. Efectivamente ji es una solucin de RiAfi = ri porque RiAji = Riai = ri.
Entonces para que (RiA)fi = ri tenga solucin nica igual a fi = ji, se requiere que Rango (RiA=M).
Mtodos de Estimacin
Habiendo ya sealado las condiciones que hacen factible la recuperablidad de los parmetros se pasar
a continuacin a dar un breve comentario acerca de los mtodos existentes que permiten solucionar el
problema de la inconsistencia que presentan la aplicacin directa de los MCO. Estos mtodos surgen a
partir de la bsqueda de soluciones alternativas cuando se viola el supuesto de no aleatoriedad en las
variables explicativas y, a su vez, de la no existencia de correlacin igual a cero entre ellas y las
perturbaciones.
Mtodos uniecuacionales o de informacin limitada: En estos mtodos, se estima cada
ecuacin separadamente, utilizando slo la informacin sobre los coeficientes contenida en dicha
ecuacin. Entre estos mtodos estn:
Mnimos Cuadrados Ordinarios (MCO): Como ya se seal antes, los estimadores que
surgen de aplicar el mtodo no son consistentes. Sin embargo, este mtodo es ms robusto frente a los
errores de especificacin que otros mtodos, y adems las predicciones de modelos estimados por l
pueden ser mejores que las correspondientes a modelos estimados por mtodos de ecuaciones
simultneas, por lo que puede resultar conveniente presentar estimaciones MCO de las ecuaciones
estructurales junto a las de otros mtodos como referencia o norma de comparacin.
Mnimos Cuadrados Indirectos (MCI): consiste en estimar por MCO los coeficientes de la
forma reducida y luego recuperar los estimadores de los parmetros de la forma estructural va un
sistema de ecuaciones. Slo es aplicable cuando las ecuaciones del modelo estn exactamente
identificadas, ya que slo en ste caso se puede obtener valores nicos para los coeficientes de la
forma reducida. Los estimadores de los parmetros as obtenidos heredan todas las propiedades
asintticas de los estimadores de la forma reducida, asegurndonos as de que sean consistentes (y
pueden ser asintticamente eficientes si las perturbaciones se distribuyen normalmente) pero no gozan
de stas propiedades para muestras chicas.
Mnimos Cuadrados en Dos Etapas (MC2E): Es til para modelos cuyas ecuaciones estn
sobreidentificadas, ya que presenta una forma de ponderar las soluciones mltiples. La idea bsica que
subyace en el mtodo es la de reemplazar las variables endgenas, que estn correlacionadas con las
perturbaciones, por funciones lineales de variables exgenas; as, ya que estas variables no presentan
correlacin con dichas perturbaciones, las estimaciones de los parmetros que conseguiremos sern
consistentes. Se elige cada funcin lineal de manera que est lo ms altamente correlacionada posible
con la variable endgena que reemplaza.
El mtodo requiere dos aplicaciones sucesivas de MCO.
Primeramente se regresan las variables endgenas contra todas las variables predeterminadas del
sistema. La estimacin obtenida para la variable endgena se utiliza como dato en las ecuaciones y se
aplica nuevamente MCO sobre la ecuacin que incluye la estimacin. Los estimadores as obtenidos
son consistentes.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Se puede demostrar que ste mtodo es una aplicacin particular del mtodo de las variables
instrumentales que busca reemplazar los regresores por variables altamente correlacionados con ellos
y escasamente con los trminos de perturbacin.
Mxima Verosimilitud con Informacin Limitada (MVIL)
Este mtodo consiste en elegir como estimadores de los parmetros estructurales aquellos
valores que hacen mxima la funcin de verosimilitud de la ecuacin respectiva sujeto a elegir valores
que cumplan con la condicin de rango. Es decir este mtodo ante los caso de sobreidentificacion elige
dentro del grupo de valores posibles aquellos que maximicen la funcin de verosimilitud de la
ecuacin siendo un requisito previo el conocimiento de la distribucin de densidad del trmino de
perturbacin de la ecuacin.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Mtodos de sistemas o de informacin completa: En estos mtodos, a diferencia de los
anteriores, se estiman en conjunto todas las ecuaciones del sistema, usando las restricciones sobre los
parmetros de todas ellas. Son asintticamente ms eficientes que los mtodos con informacin
limitada en la medida que la especificacin del modelo sea la correcta.
Mnimos Cuadrados en Tres Etapas: consiste en estimar cada una de las ecuaciones del
modelo por el mtodo de los MC2E, calcular los residuos par estimar la matriz de varianzas y
covarianzas (aqu se suponen ruido blanco en cada termino de perturbacin de cada ecuacin y se
permite la existencia de correlacin contempornea y heterocedasticidad entre las ecuaciones) para
finalmente aplicar mnimos cuadrados generalizados factibles al modelo completo. Este mtodo es
ms eficiente asintticamente que el de MC2E en la medida que la especificacin del modelo sea la
correcta y tendr igual eficiencia en el caso de que no exista correlacin contempornea ni
heterocedasticidad entre los errores de cada una de las ecuaciones, o en el caso que todas las
ecuaciones estn exactamente identificadas.
Mxima verosimilitud con Informacin completa: Aqu lo que se pretende es hallar el
conjunto de estimadores de la forma estructural que hacen mxima la probabilidad de ocurrencia de
los valores muestrales de las variables endgenas y predeterminadas, es decir se intenta maximizar una
funcin de verosimilitud para todo el modelo simultneamente. Este mtodo es caro
computacionalmente en el sentido que arroja sistemas de ecuaciones no lineales y sumado al hecho de
que los estimadores que se obtienen bajo una distribucin normal multivariante son exactamente
iguales a los de los de MC3E hacen que este mtodo sea menos preferido que ste ltimo.
Adems se puede aplicar tanto para ecuaciones sobreidentificadas como exactamente
identificadas. En este ltimo caso los estimadores sern idnticos a los obtenidos por Mnimos
Cuadrados Indirectos.
Implementacin en Eviews:
Creando el Objeto System
Para estimar los parmetros de un Sistema de Ecuaciones en Eviews, se debe primero crear un nuevo
objeto y especificar el sistema de ecuaciones. Para ello se debe hacer Clic en Objet/New Objet/System.
Cuando se cree el sistema la ventana aparecer en blanco y ah se deber especificar el sistema
describiendo con texto las ecuaciones y potencialmente algunas lneas describiendo los instrumentos y
los valores iniciales de los parmetros en caso de modelos no lineales.
Si se planea estimar el sistema usando Mnimos Cuadrados en 2 Etapas, 3 Etapas o GMM, se deben
especificar las variables a ser usadas en la estimacin. Se pueden especificar los mismos instrumentos
para todas las ecuaciones o instrumentos distintos para cada ecuacin.
De esta manera existen dos manera de especificar los instrumentos. Si uno desea usar los mismos
instrumentos para todas las ecuaciones se debe incluir una lnea de comando cuya sintaxis comience
con @INST o INST seguida por una lista de variables exgenas a ser usadas como instrumentos. Por
ejemplo:
@inst gdp(-1 to -4) x gov
Indica a Eviews usar las seis variables como instrumentos para todas las ecuaciones que se listarn a
continuacin.
Para especificar instrumentos distintos para cada ecuacin se debe agregar al fin de cada ecuacin: @,
seguido por la lista de instrumentos. Por ejemplo:
cs = c(1)+c(2)*gdp+c(3)*cs(-1) @ cs(-1) inv(-1) gov
inv = c(4)+c(5)*gdp+c(6)*gov @ gdp(-1) gov
La primer ecuacin usa CS(-1), INV(-1), GOV, y una constante como instrumentos mientras que la
segunda usa GDP(-1), GOV, y una constante.
Identificacin
Los criterios de identificacin exigen que debe haber al menos tantos instrumentos, incluyendo
constantes, en cada ecuacin como variables existen del lado derecho de cada una de ellas.
Si dichos requerimientos no se cumplen, Eviews mostrar un cuadro de error.
Estimacin
Una vez creado y especificado el sistema, uno puede presionar el boton de estimacin para seleccionar
el mtodo de estimacin por medio de un cuadro de dialogo
Si uno selecciona alguno de los mtodos de estimacin por GMM, Eviews solicitara se selecciones
algunos opciones especficas para este mtodo. Si uno selecciona la opcin rotulada como Identity
weighting matrix, Eviews estimar el modelo usando idnticos ponderadores y usar los coeficientes
estimados y la especificacin GMM que se indique para computar una matriz de covarianzas que es
robusta a heterocedasticidad en las secciones cruzadas (White) o a heterocedasticidad y correlacin
contempornea. Si dicha opcin no se selecciona Eviews usar los ponderadores GMM en la
estimacin y cmputo de lo matriz de covarianzas.
Cuando uno selecciona la opcin GMM-Time series (HAC), el cuadro de dilogo adicionalmente
mostrar opciones para especificar la matriz de ponderacin y opciones para el Kernel para determinar
la forma funcional del nucleo usado para ponderar las autocovarianzas al computar la matriz de
ponderacin.
Tambien se incluyen un resumen de los estadsticos de cada ecuacin como los errores
estndares de la regresin, suma de cuadrados de residuos, etc.
APNDICE
1.- Mnimo Cuadrados Generalizados
Hasta ahora se han tratado casos de estimacin de modelos lineales en donde los supuestos en los que
se generaban los datos respondian a todas las condiciones que hacian aplicables el Teorema de GaussMarkov arrojando por ende estimadores insesgados y eficientes. Dichos supuestos eran:
1- Las Xs son fijas en muestras repetidas (no estocsticas).
2- El rango de la matriz X es de rango completo (no existe dependencia lineal entre las
observaciones)
3- Correcta especificacin del modelo en el sentido de que el verdadero proceso generador de datos
provenia de una relacion exactamente lineal entre las variables y adems que no se cometen
errores por incluir o excluir variables de mas.
4- E(u) =
5- V (u) = 2 I es decir, errores no autocorrelacionados y con varianza constante e igual para todos
(homoscedsticos).
Cuando este ultimo supuesto no se cumple la aplicacin directa de los MCO conducen a
estimadores que dejan de ser eficientes. Adems cuando se comete el error de no percatarse o de hacer
caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en el
error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis. Acontinuacion sedesarrolaran estas ideas de un
lenguaje mas formal.
Consideremos un modelo como del ejercicio en donde ahora
V (u) = 2
aplicando directamente MCO al modelo se tendr
E ( mco ) =
que como claramente se observa los estimadores conservan aun su insesgabilidad
Con respecto a su varianza se tiene
parmetros. Ya que es una matriz definida positiva, por ser esta una matriz de varianzas y
covarianzas, siempre existira otra matriz tal que permita expresarla como sigue
V ( mcg ) = 2 ( X ' 1 X ) 1
Esta expresin a la que se arribo es la varianza correspondiente a los estimadores de varianza mnima
(por el teorema de Gauss-Marcov) por ende ser inferior que la de aplicar MCO a los datos sin
transformar. Este hecho se puede demostrar va el calculo de la diferencia entre ambas arrojando esto
una matriz semidefinida positiva.
Para hallar la matriz H que transforme los datos se pueden seguir varias maneras. Una de eelas seria
aplicando una descomposicin de Cholesky a , otra seria planteando un sistemas de ecuaciones.
Notese adems que es esencial conocer con exactitud para en funcin de esto obtener H ya que seria
omposible estimar todos sus elementos al mismo tiempo si estos fuesen todos distintos en virtud de
que seria mas los parmetros a estimar que los datos con que se cuentan para hacerlo.
Una consideracin importante sobre el tema es que cuando se comete el error de no percatarse o de
hacer caso omiso a de la existencia de autocorrelacion y/u homoscedasticidad se incurrira adems en
el error de subestimar la varianza del estimador conllevando esto ultimo a predicciones errneas en
cuanto a intervalos de confianza y test de hiptesis que se hagan sobre los estimadores.
e=Y X
e = Y X ( X ' X ) 1 X ' Y
e = [ I X ( X ' X ) 1 X ' ]( X + u ),
donde [ I X ( X ' X ) 1 X ' ] = M , simtrica e idempotente
e = MX + Mu = Mu ya que puede demostrarse que MX = [ I X ( X ' X ) 1 X ' ] X =
e' e = u' M ' Mu = u' Mu
E( e' e ) = E [ tr( u' Mu )] = E [ tr( uu' M )]
E( e' e ) = tr [ E( uu' )M ] = 2 tr( M )
E(
e' e
tr( M )
) = E( 2 ) = 2
nk
nk
d=
(e t e t 1 ) 2
t =2
e2t
t =1
d=
+ e 2 t 1 2 et et 1
d = 21
e e
e
t t 1
2
y siendo
e t e t 1
e2t
entonces
d = 2(1 )
Hay que tener en cuenta que el estadstico se basa en algunos supuestos sobre el modelo, a
saber, que el mismo incluye un trmino independiente, que las variables X son fijas en muestras
repetidas, que las perturbaciones u se generan mediante un proceso autorregresivo de primer orden y
se distribuyen en forma normal multivariante y por ltimo que el modelo no incluye valores rezagados
de la variable dependiente como una de las variables explicativas.
Para poder rechazar o no la hiptesis nula de que no hay autocorrelacin entre las
perturbaciones, se han tabulado valores crticos mximos y mnimos para poder tomar una decisin.
Estos lmites dependen del nmero de observaciones y del nmero de variables explicativas del
modelo. No desarrollar aqu el criterio de decisin para estas pruebas de hiptesis pero s se pueden
reparar brevemente en los lmites de variacin del estadstico. Dependiendo de los valores que asuma
, (y siendo que -1< <1):
0<d<4
yi = X i i + ei
donde claramente se observa las diferencias con los problemas tradicionales de estimacin,
ya que ahora se debe relacionar series de tiempo con cortes transversales, existiendo no slo
la posibilidad de autocorrelacin entre los errores para cada observacin de una ecuacin i,
sino que adems pueden ocurrir interrelaciones entre las perturbaciones de dos ecuaciones
(vector ei contra el vector e j ).
MTODO SUR
y1 X 1
y2 =
M
yM
1 e1
e
X2
2 + 2 Y
(TMx1) = X (TMxK ) ( Kx1) + e(TMx1)
M M
O
X M M e M
11 12
22
= 21
M
M
M2
M1
1M
L 2 M
L
L MM
Haciendo el producto de kronecker ( ) entre la matriz anterior y una identidad de orden (T),
se obtiene lo siguiente:
L
12
1M
0
0
0 L 0
0 L 0
11
0
L
L
L
0
0
0
0
0
1M
12
11
LL
M
M O M
M
M
O
M
M
M
O
M
L 1M
0
0
0
0 L 12
0 L 11
0
L
2M
0
0
0 L 0
0 L 0 22
12
L
L
L
0
0
0
0
0
0
2M
22
12
LL
IT = M
M
O
M
M
M
O
M
M
M
O
M
0
L 2M
0
0
0
0 L 22
0 L 12
LLLLLLLLLLLLLLLLLLLLLLLLLLLLLLLL
1M
0
0
L
L
L
0
0
MM
0
0 2M
0
0
0
0
1M L
2M L
MM L
0
0
L
M
M
O
M
M
M
O
M
M
M
O
M
0
0
0
L 1M 0
L 2M
L MM
0
0
El nuevo estimador posee una menor varianza ya que tiene en cuenta la correlacin
contempornea entre los distintos vectores de las perturbaciones de las diferentes ecuaciones
Sin embargo existen dos casos particulares en que se obtienen resultados idnticos al
aplicar MCO sobre cada ecuacin y al aplicar SUR y no se producen ganancias al tratar a las
ecuaciones como sistema.
a) Cuando las correlaciones contemporneas son iguales a 0. Ello es obvio, ya que es la
existencia de dicha correlacin lo que provoca que las ecuaciones estn relacionadas.
11 = 22 = 33 = 0
X1 = X 2 = X3 = X
Las variables explicativas de todas las ecuaciones son las mismas, por lo que no se
produce una ganancia al tratarlas en forma conjunta, ya que no se agrega ninguna variable
explicativa a cada variable dependiente.
Por lo tanto, la estimacin a travs de MCO nos proporciona la misma solucin que el
mtodo SUR. Ello se puede demostrar partiendo del estimador SUR, utilizando algunas
propiedades del producto de Kronecker y observando que, al ser todas las matrices Xi iguales,
entonces X = (I X) . Por lo tanto:
= (XX)-1 X y = MCO
ij =
1
1 T
ei e j = eit e jt
T
T t =1
Aunque sea sesgada en muestras pequeas. Para evitar el sesgo, se suele dividir el
sumatorio por (T K/M). La dificultad aparece cuando el modelo incluye ecuaciones con
diferentes nmeros de parmetros, ya que en dicho caso no se cuenta con iguales grados de
libertad para las distintas ecuaciones, en especial al calcular las covarianzas entre dos
ecuaciones de distintos grados de libertad. Una alternativa interesante es utilizar como divisor
T- k , donde k es la media del nmero de coeficientes de las ecuaciones.
Dicho divisor posee la ventaja de que si todas las ecuaciones poseen el mismo nmero
de coeficientes, provee de estimadores insesgados. Si definimos a la matriz de los estimadores
de las varianzas y covarianzas del modelo como $ , el estimador MCG del modelo cuando la
matriz de varianzas y covarianzas es desconocida, es:
Este estimador es conocido como el estimador Sur de Zellner y es el que se utiliza por
lo general en la prctica.
Restricciones
1- Condicin de Engel:
w114 + w2 24 + w3 34 = 1
La condicin de Engel establece que la suma de las elasticidades ingreso de cada bien,
ponderadas por la participacin en el gasto total (p x q / y), debe ser igual a uno. Si se
desarrollamos esta suma:
p1q1 q1 y p 2 q 2 q 2 y
*
* +
*
*
y q1 y
y q 2
y
q
q
p1 * 1 + p 2 * 2
y
p3 q3 q3 y
+
*
* =1
y q3
y
q
+ p3 * 3 = 1
y
Debemos observar si la suma del gasto que en cada bien se produce, luego de un
incremento en el ingreso, es igual a uno. Es decir, que el incremento del gasto en los n
bienes que se consumen deben agotar la totalidad del incremento en el ingreso.
q
q
p1 * 1 dy + p 2 * 2
y
y
q
dy + p3 * 3 dy = dy
y
2- Homogeneidad:
i1 + i 2 + i3 + i 4 = 0 para i = 1,2,3
q ' = A * ( i1 + i 2 + i3 + i 4 ) * p i1 * p i 2 * p i3 * y i 4
1t
it
2t
3t
+ i4 =
ij
wi
+ j 4 para i, j = 1,2,3(i j )
SUR Iterativo
La metodologa que se expuso para obtener los estimadores SUR cuando la matriz de
varianzas y covarianzas era desconocida consista en calcular en una primera etapa los
estimadores MCO de cada una de las demandas, y utilizarlos para obtener los vectores de
errores:
= ( X' X ) -1 X' y e = y X
MCOi
MCOi
ij =
ei ' e j
T-k
ei e j
t =1
T-k
Formando una matriz estimada de las varianzas y covarianzas () a partir de los estimadores
1
SUR = ( X' ( I)X) -1 X' ( I) y
Suele utilizarse tambin otro estimador SUR a travs de un proceso iterativo con los
estimadores de las varianzas y covarianzas y los estimadores de los coeficientes del
supermodelo. Una vez obtenido los estimadores SUR de los coeficiente, se los utiliza para
estimar nuevamente la matriz de varianzas y covarianzas. A partir de la nueva estimacin de
las varianzas y covarianzas, aplicamos nuevamente la definicin anterior y obtenemos en una
segunda etapa un nuevo estimador SUR.
Este estimador SUR de segunda etapa puede ser utilizado para estimar nuevamente la matriz
de varianzas y covarianzas. A partir de dicha nueva matriz, podemos obtener un estimador
SUR en una tercera etapa; y as de forma consecutiva hasta que se produzca una convergencia
a un valor estable. Dicha convergencia llevara a que dos iteraciones sucesivas sean similares.
No se repite el output proporcionado por los programas ya que resulta exactamente el mismo
reproducido en la seccin anterior. No hay ganancia al utilizar el proceso iterativo ya que los
estimadores MCO que permiten obtener el estimador de la matriz de varianzas y covarianzas
son los mismos que luego se obtienen al estimar el supermodelo. Por lo tanto, los estimadores
de los parmetros de las demandas que se utilizaran para obtener en una segunda etapa el
nuevo estimador de la matriz de varianzas y covarianzas son los mismos que se utilizaron en
el primer paso. Es decir, loas nuevas estimaciones por SUR en la segunda etapa sern los
mismos que los de la primera etapa.
SUR RESTRINGIDO
Para estimar el modelo planteado teniendo en cuenta restricciones obre las funciones
de demanda, se debe estudiar con detenimiento cmo se construyen los estimadores del SUR
Restringido.
MCO y MCG libre. Cabe aclarar que este vector se forma con el supuesto de que la H0)
R = r es cierta.
Min (Y X )' 1 I (Y X )
sujeto a: R = r
[ ]K K
= ij
T
1
eit e jt .
(T K / M ) t =1
)1 r R mcg .
En la primera parte del trabajo, al describir las caractersticas del modelo SUR, enfatizamos la
existencia de correlacin no nula entre los errores de cada uno de los grupos o ecuaciones del
sistema. La misma se define como contempornea justamente porque relaciona perturbaciones
en un mismo perodo de tiempo (t). Saber si existe correlacin contempornea o no es
importante ya que si no existe, aplicar MCO a cada ecuacin por separado es tan eficiente
como SUR. Testear si existe correlacin contempornea es til para determinar si es o no es
necesario aplicar SUR.
Para el ejercicio de demandas,
Se puede deducir que las correlaciones se deben buscar contrastando los eit con los e jt para
un mismo t. Sabiendo que: ij =
T
1
eit e jt ; lo que se quiere probar es
(T K / M ) t =1
M i 1
= T rij2
i = 2 j =1
g = R r
y, por ello, se construir un g que surge de cambiar C por C y por . De esta manera,
g 2 ( J )
d
H0) R = r
HA) R r
= 5%
Existe otro test construido sobre la base de un estadstico con distribucin que tiende a
una F. Se parte de la nocin de las sumas de cuadrados libres y restringidos:
F =
'
g / J
y X 1 I y X / (MT K )
F (J ; MT K )
d
Puede demostrarse que el denominador converge en probabilidad a uno, por lo que puede ser
omitido:
g
F = ~ F( J ,MT K )
J
O de forma equivalente:
F =
(e 'r er e ' e) / J
e ' e /(T K / M )
Y el valor observado de este estadstico debe ser comparado con el valor crtico terico de una
distribucin F con J,(MT-K) grados de libertad para un nivel de confianza . Si el valor
observado es mayor que el crtico, se rechaza la hiptesis nula planteada; en caso contrario, no
se puede rechazar la hiptesis nula. Cual es el significado en cada caso? Si la reduccin en la
suma de cuadrados de los residuos debido a la estimacin libre (sin restricciones) no es
suficientemente grande, no habr pruebas para rechazar la hiptesis nula de que las
restricciones son vlidas. Por el contrario, si esta reduccin es suficientemente grande, la
hiptesis nula de que las restricciones son vlidas se rechazar ya que al no considerarlas la
suma de cuadrados de los residuos disminuye considerablemente.
Ambos estadsticos son asintticamente equivalentes y en muestras finitas el estadstico F
llevar al rechazo de la hiptesis nula en un numero menor de casos que el estadstico X 2, por
lo que responde a una aproximacin ms conservadora.
Por ltimo, cabe considerar el efecto de utilizar el divisor T-(K/M) en el estimador de . Los
estadsticos F y X 2 sern menores que si utilizramos el divisor T, y por lo tanto la hiptesis
nula ser rechazada en un nmero menor de veces.
BIBLIOGRAFA:
WOOLDRIDGE, J. Econometrics Analisis Of Cross Sections and Pnale Data. 2002. The MIT
Press