Está en la página 1de 7

Descripcin de la Econometra

La econometra se ocupa de obtener, a partir del anlisis estadstico y matemtico de


los valores reales de variables econmicas, los valores que tendran los parmetros de
los modelos en los que esas variables econmicas aparecieran, as como de
comprobar el grado de validez de esos modelos, y ver en qu medida estos modelos
pueden usarse para explicar la economa de un agente econmico, o la de un
agregado de agentes econmicos, como podra ser un sector del mercado, o una zona
de un pas, o todo un pas, o cualquier otra zona econmica; su evolucin en el
tiempo (por ejemplo, decir si ha habido o no cambio estructural), poder predecir
futuros valores de la variables, y sugerir medidas de poltica econmica conforme
a objetivos Usualmente se usan tcnicas estadsticas diversas para estudiar la
economa, pero uno de los mtodos ms usados es el que se mostrar aqu.
Concepto de modelo economtrico
La econometra, igual que la economa, tiene como objetivo explicar una variable en
funcin de otras. Esto implica que el punto de partida para el anlisis economtrico es
el modelo econmico y este se transformar en modelo economtrico cuando se han
aadido las especificaciones necesarias para su aplicacin emprica. Es decir, cuando
se han definido las variables (endgenas, exgenas) que explican y determinan el
modelo, los parmetros estructurales que acompaan a las variables, las ecuaciones y
su formulacin en forma matemtica, la perturbacin aleatoria que explica la parte no
sistemtica del modelo, y los datos estadsticos.
A partir del modelo economtrico especificado, en una segunda etapa se procede a la
estimacin, fase estadstica que asigna valores numricos a los parmetros de las
ecuaciones del modelo. Para ello se utilizan mtodos estadsticos como pueden ser:
Mnimos cuadrados ordinarios
Empirismo proviene del trmino griego empeira (textualmente, experiencia). Con
empirismo sealamos al conocimiento que se basa en la experiencia para validarse
como tal, o sea que la experiencia es la base de todos los conocimientos.
Tipos de Datos
Datos de corte transversal: Se miden en un momento del tiempo y pueden ser
cuantitativos y cualitativos.
Datos de Serie de Tiempo: Son datos de informacin asociados a un periodo de
tiempo consecutivo.
Datos de Panel: Es una mezcla de ambos, de corte transversal y de serie de tiempo.
Modelo de regresin Lineal Simple: Es un modelo que indica correlacin o auto
dependencia entre variables. Simple: Tiene una variable explicativa; Lineal: Lineal
en sus parmetros.
Variable independiente: En investigacin, se denomina variable independiente a
aqulla que es manipulada por el investigador en un experimento con el objeto de
estudiar cmo incide sobre la expresin de la variable dependiente. A la variable
independiente tambin se la conoce como variable explicativa, mientras que a la
variable dependiente se la conoce como variable explicada. Esto significa que las
variaciones en la variable independiente repercutirn en variaciones en la variable
dependiente.

En matemtica, las variables independientes son: la x; la y; y, la z, en la expresin


genrica:
m = f(x,y,z)
La m es la variable dependiente.
De las dos variables a estudiar, que vamos a denotar con X e Y, vamos a llamar a la X
VARIABLE INDEPENDIENTE o EXPLICATIVA, y a la otra, Y, le llamaremos
VARIABLE DEPENDIENTE o EXPLICADA.

En la mayora de los casos la relacin entre las variables es mutua, y es difcil


saber qu variable influye sobre la otra.
Modelo de mnimos cuadrados ordinarios
El anlisis de regresin trata de la dependencia de las variables explicativas, con el
objeto de estimar y/o predecir la media o valor promedio poblacional de la variable
dependiente en trminos de los valores conocidos o fijos de las variables explicativas.
Se trata de encontrar una mtodo para hallar una recta que se ajuste de una manera
adecuada a la nube de puntos definida por todos los pares de valores muestrales
(Xi,Yi).
Este mtodo de estimacin se fundamenta en una serie de supuestos, los que hacen
posible que los estimadores poblacionales que se obtienen a partir de una muestra,
adquieran propiedades que permitan sealar que los estimadores obtenidos sean los
mejores.
Pues bien, el mtodo de los mnimos cuadrados ordinarios consiste en hacer mnima
la suma de los cuadrados residuales, es decir lo que tenemos que hacer es hallar los
estimadores que hagan que esta suma sea lo ms pequea posible.
Los supuestos del mtodo MCO son los que se presentan a continuacin:
Supuesto 1
El modelo de regresin es lineal en los parmetros:
Yi = 1 + 2*Xi +i
La linealidad de los parmetros se refiere a que los  s son elevados solamente a la
primera potencia.
Supuesto 2
Los valores que toma el regresor X son considerados fijos en muestreo repetido. Esto
quiere decir que la variable X se considera no estocstica. Este supuesto implica que
el anlisis de regresin es un anlisis condicionado a los valores dados del (los)
regresores.
Supuesto 3

Dado el valor de X, el valor esperado del trmino aleatorio de perturbacin  i es cero.


E ( i/Xi ) = 0
Cada poblacin de Y corresponde a un X dado, est distribuida alrededor de los
valores de su media con algunos valores de Y por encima y otros por debajo de sta.
Las distancias por encima y por debajo de los valores medios son los errores, y la
ecuacin antes sealada requiere que en promedio estos valores sean cero.
Supuesto 4
Homoscedasticidad. Dado el valor de X, la varianza de  i es la misma para todas las
observaciones.
Var (i/Xi ) = E (i - E(i)/ Xi)2
= E (i2/Xi )
=2
Esta ecuacin seala que la varianza de las perturbaciones para cada Xi es algn
nmero positivo igual a  2.
Homoscedastidad significa igual dispersin, en otras palabras significa que las
poblaciones Y correspondientes a diversos valores de X tienen la misma varianza. Por
el contrario, se dice que existe heteroscedasticidad cuando la varianza poblacional, ya
no es la misma en cada muestra. El supuesto de homoscedasticidad est indicando
que todos los valores de Y correspondientes a diversos valores de X son igualmente
importantes.
Supuesto 5
Dados dos valores cualquiera de X, Xi y Xj ( i " j ), la correlacin entre  i y  j
cualquiera ( i " j ) es cero.
Cov ( i, j / Xi, Xj ) = E (i - E(i)/ Xi) (j - E (j/Xj ))
= E (i/Xi ) (j/Xj )
=0
Este supuesto indica que las perturbaciones no estn correlacionadas. Esto significa
que los errores no siguen patrones sistemticos. La implicancia del no cumplimiento
de este supuesto (existencia de autocorrelacin) implicara que Yt no depende tan slo
de Xt sino tambin de  t-1, puesto que  t-1 determina en cierta forma a  t.
Supuesto 6
La covarianza entre  i y Xi es cero, formalmente:
Cov (i/Xi ) = E (i - E(i)) (Xi - E(Xi))
= E (i (Xi - E(Xi)))

= E (i Xi - E(Xi) E(i))
= E (i Xi)
=0
Este supuesto indica que la variable X y las perturbaciones no estn correlacionadas.
Si X y  estuvieran relacionadas, no podran realizarse inferencias sobre el
comportamiento de la variable endgena ante cambios en las variables explicativas.
Supuesto 7
El nmero de observaciones debe ser mayor que el nmero de parmetros a estimar.
Supuesto 8
Debe existir variabilidad en los valores de X. No todos los valores de una muestra
dada deben ser iguales.Tcnicamente la varianza de X debe ser un nmero finito
positivo. Si todos los valores de X son idnticos entonces se hace imposible la
estimacin de los parmetros.
Supuesto 9
El modelo de regresin debe ser correctamente especificado, esto indica que no existe
ningn en el modelo a estimar. La especificacin incorrecta o la omisin de variables
importantes, harn muy cuestionable la validez de la interpretacin de la regresin
estimada.
Supuesto 10
No hay relaciones perfectamente lineales entre las variables explicativas. No existe
multicolinealidad perfecta. Aunque todas las variables econmicas muestran algn
grado de relacin entre s, ello no produce excesivas dificultades, excepto cuando se
llega a una situacin de dependencia total, que es lo que se excluy al afirmar que las
variables explicativas son linealmente dependientes.

Prueba de Bondad de Ajuste (R2), consiste en determinar si los datos de cierta


muestra corresponden a cierta distribucin poblacional. En este caso es necesario que
los valores de la variable en la muestra y sobre la cual queremos realizar la inferencia
est dividida en clases de ocurrencia, o equivalentemente, sea cual sea la variable de
estudio, deberemos categorizar los datos asignado sus valores a diferentes clases o
grupos.
Mide el nivel de explicacin de la variable independiente o que porcentaje de la
variacin de la variable dependiente es explicada por la variable independiente.
CONCEPTOS FUNDAMENTALES ________________________
Muestra: Parte de una poblacin que se toma cuando es imposible acceder a toda
ella. La eleccin de la muestra se hace con la intencin de, a partir de la informacin
que ella proporciona, extender sus resultados a toda la poblacin a la que representa.

Muestra aleatoria: (Muestra elegida al azar) Aquella muestra tomada de la poblacin


en la que todo individuo tiene la misma probabilidad de resultar elegido para ella, y
esto con independencia entre individuos.
Funcin de Distribucin: Funcin que hace corresponder a cada uno de los valores
de una variable aleatoria la probabilidad de que tal variable aleatoria tome un valor
igual o inferior al dado.
Funcin de Probabilidad: Funcin que hace corresponder a cada uno de los valores
de la variable aleatoria discreta su probabilidad.
Contraste de hiptesis: Conjunto de reglas tendentes a decidir cul de dos
hiptesis la nula la alternativa- debe aceptarse en base al resultado obtenido en
una muestra. Es de dos colas cuando la alternativa es la negacin de la nula. De una
cola en caso contrario.
Variable aleatoria: Toda funcin que toma diversos valores numricos, dependiente
de los resultados de un fenmeno aleatorio, con distintas probabilidades.
Variable aleatoria discreta. Las variables aleatorias discretas son aquellas que
presentan un nmero finito de valores, constituyen una sucesin numerable.
Variable aleatoria continua. Las variables aleatorias continuas pueden tomar un
nmero infinito de valores en un intervalo determinado.
Variable categrica. Una variable categrica es una variable que clasifica cada
individuo de una poblacin en una de las varias clases mutuamente excluyentes en
que sta se divide.
Variable numrica. Corresponde a los datos expresados en una escala continua
numrica.

Heterocedasticidad es la existencia de una varianza no constante en las


perturbaciones aleatorias de un modelo economtrico. Hiptesis de no igualdad de
varianzas poblacionales en distintos grupos.
Homocedasticidad (homogeneidad de las varianzas)
El test de la homocedasticidad (homogeneidad de las varianzas) se realiza con el test
de Levene. Contrasta la hiptesis nula de la homogeneidad de varianzas. Se rechaza
dicha hiptesis nula si la significacin del estadstico F es menor que 0,05.

TEST de White
En este contraste la idea subyacente es determinar si las variables explicativas del
modelo, sus cuadrados y todos sus cruces posibles no repetidos sirven para
determinar la evolucin del error al cuadrado. Es decir; si la evolucin de las variables
explicativas y de sus varianzas y covarianzas son significativas para determinar el
valor de la varianza muestral de los errores, entendida sta como una estimacin de
las varianzas de las perturbaciones aleatorias. Las variables son constantes.

TEST WALD: Mas completo, prueba mas la relacin entre los parmetros.
TEST LM: Mide que no existe autocorrelacin en las perturbaciones.
El p- value significa que la probabilidad de aceptar H0 es nula, se rechaza H0
H0 : No existe autocorrelacin ;

H1: Existe autocorrelacin

Probabilidad: 0,000 = Nula (Acepta H0?) Rechaza H0


0,05 = >
Acepto H0
TEST CHOW: Aprueba una sospecha de quiebre estructural, cuando los parmetros
no sean fijos en la muestra ; esto es quiebre estructural.

Inferencia estadstica 1.-Es caracterizada por los momentos, la media y la varianza.


2.- si la variable se distribuye normal cualquier combinacin lineal de ella se distribuye
normal.
3.- A partir de la distribucin normal se pueden derivar otras distribuciones de
probabilidades.
Tc > Tt Rechazo H0; significativo
Tc < Tt Rechazo H0; no significativo
Prediccin. Se usa para explicar o predecir el futuro, existe la media y la puntual.

Varianza: Medida de la variacin de una serie de observaciones respecto de la media.


Equivale a la dispersin respecto de la media en una serie de datos continuos. Su
clculo corresponde a: (xi- m )2/n si corresponde a la poblacin total o (xi- X)2/(n1) si corresponde a una muestra de esa poblacin, siendo m o X la media, n el tamao
de la poblacin o de la muestra y xi cada uno de los valores.
CORRELACIN: Expresa la concordancia entre dos variables segn el sentido de la
relacin de stas en trminos de aumento disminucin.
Teorema de GAUSS-MARKOV
Verificar que los parmetros cumplen ciertas condiciones que los hace los mejores
estimadores que puedan haber:
-

los parmetros son lineales.


Los parmetros son insesgados, es decir que en promedio le apunto a la
poblacin.
Propiedad de eficiencia, que quiere decir que los parmetros tienen la minima
varianza.

Quiebre Estructural: Cuando los parmetros no son fijos, en econometra se dice


que existe Quiebre Estructural
Errores estndar de los estimadores: Es la desviacin estndar, es sinnimo y la
desviacin estndar es la raz de la varianza.
Coeficiente de Correlacin: Mide la covarianza en trminos porcentuales o sea lo
mismo que la varianza.

Covarianza: Solo mide asociacin, el signo solo indica relacin directa o inversa.

W0 : Coeficiente de las Variables


Z: Variables candidatas que explican homocedasticidad
Vt: Perturbaciones distintas de Ui
K: N de variables explicativas
J: N de restricciones lineales
Siempre que exista una sola restriccin se puede ocupar T-Student
Cuando es mas de una restriccin se puede ocupar F-Fisher
R: Todos los coeficientes que acompaan los parmetros

También podría gustarte