Está en la página 1de 5

RESUMEN DE ECONOMETRA

ANLISIS DE REGRESIN CON DOS VRIABLES: ALGUNAS IDEAS


BSICAS.-

El trmino regresin lineal siempre significar una regresin lineal en los


parmetros, puede ser en la variable explicativa o no, no es necesario que la
variable X sea lineal, slo los parmetros importan.

MODELO DE REGRESIN CON DOS VARIABLLES: PROBLEMAS


DE ESTIMACIN.-

= 1 + 2 + Funcin de regresin poblacional.

= 1 + 2 Funcin de regresin muestral.

= 1 + 2 + Funcin de regresin muestral estocstica.

= 1 2 Error muestral o residuos.

2 = ( 1 2 )^2 Funcin a minimizar.

Minimizacin:
2
1 = 2 ( 1 2 ) = 0 Condicin de primer orden.

2
2 = 2 ( 1 2 ) = 0 Condicin de primer orden.

Despejando 2 :

1
2 = 1 y 2 = 2

Igualando:

1 1 2
= 1 =

2 2 ( )2

1 = 2

De la misma forma para 2 :



2 =
2 ( )2


2 =
2
Supuestos del modelo clsico de regresin lineal:

1.- Modelo de regresin lineal:

El modelo tiene que ser lineal en los parmetros, aunque puede o no puede ser
lineal en la variable X.

2.- Valores fijos de X, o valores de X independientes del trmino de error:

Las X tienen que ser fijas en muestras repetidas (cuando la regresora es fija) y o
tiene que haber sido muestreado con la Y (cuando la regresora es estocstica).

Adems, las variables X tienen que ser independientes del trmino de error. Es
decir que la covarianza entre la X y el error u tiene que ser 0.
( , ) = 0

3.- El valor medio de la perturbacin o error poblacional tienen que ser 0:


( | ) = 0

Esto genera que no existe sesgo de especificacin que es que el modelo est
correctamente especificado. Lo que sostiene el supuesto es que los factores no
incluidos explcitamente en el modelo, y por consiguiente, incorporados en el error
(u) no afectan sistemticamente el valor de la media de Y; es decir, los valores
positivos del error se cancelan con los valores negativos del error de manera que el
efecto medio o promedio sobre Y es 0.

4.- Homoscedasticidad o varianza constante de u:

La varianza del trmino de error es constante es la misma son importar el trmino


X.
2
( ) = ( ( | ))

( ) = ( 0)2

( ) = (2 )

( ) = 2
La variacin alrededor de la lnea
de regresin (la lnea de la relacin
promedio entre X y Y) es la misma
para todos los valores de X; no
aumenta ni disminuye conforme
vara X.

Es decir, la funcin de distribucin


es siempre la misma para cada
valor de X. Esto se da con mayor
probabilidad en datos de corte
transversal.
5.- No hay autocorrelacin entre las perturbaciones o errores
poblacionales:

Dado los valores de les corresponder unos errores , estos errores no


estarn correlacionados, lo que quiere decir que su covarianza es cero.

( , ) = 0

Esto da la no autocorrelacin o no correlacin serial. Este problema se da con


mayor probabilidad en datos de series de tiempo.

6.- El nmero de observaciones (n) tiene que ser mayor que el nmero de
parmetros a estimar ( ):

Por consiguiente, el nmero de observaciones tiene que ser mayor al nmero de


variables X.

7.- La naturaleza de la variable X:

No pueden tener valores atpicos los valores de X, lo que quiere decir valores muy
grandes o muy pequeos del promedio, ya que esto modificar mucho la recta de
estimacin.

TODOS LOS SUPUESTOS SE REFIEREN A LA FUNCIN DE REGRESIN


POBLACIONAL

Precisin o errores estndar de los estimadores.-

Donde:
( ): .
: .

Como no se puede conocer 2 se tiene que estimar, y


su estimacin es:

Donde:

n-2: Son los grados de libertad.

2 = 2 : .

: .

Mientras la varianza de los estimadores sea ms pequeo, los estimadores sern


ms precisos.
Teorema de Gauss Markov.-
MELI: Mejor estimador lineal insesgado.

Lineal: Porque es una funcin lineal de una variable aleatoria.

= ( )1 ( ) = ( )1 ( + ) = ( )1 + ( )1

= + ( )1

Entonces, sern lineales si el valor de ( )1 es lineal

Insesgado: Por que la media del parmetro estimado debe de ser igual al
parmetro poblacional.

( ) = ( + ( )1 ) = () + ( )1 () = () + ( )1 0

( ) =

Estimador eficiente: Un estimador que tiene varianza mnima es eficiente, pero


para esto tena que ser primeramente lineal y eficiente.

( ) = (2 ) = [( ( )) ( ( )) ]

( ) = [( )( ) ]

( ) = [(( )1 )(( )1 ) ] = [( )1 ( )1 ]

( ) = ( )1 ( ) ( )1

Como ( ) = 2 y ( )1 =

( ) = 2 ( )1

Entonces, el TEOREMA DE GAUSS MARKOV es:

Dados los supuestos del modelo clsico de regresin lineal, los estimadores
de mnimos cuadrados dentro de la clase de estimadores lineales
insesgados, tienen varianza mnima, es decir, son MELI.

Este teorema demuestra que no existe otro estimador lineal insesgado cuya
varianza sea menor que la de los estimadores MCO.
Esta es la grfica del estimador muestral
2 por el mtodo de MCO.

Aqu 2 es lineal e insesgado.

Esta es la grfica del estimador muestral


2 por otro mtodo alternativo a MCO.

Aqu 2 es tambin lineal e insesgado.

Por ms que los dos estimadores


2 2 sean lineales e insesgados se
escoger el estimador con menor varianza
porque es ms probable que estar ms
cercano al 2 poblacional. Por tanto, se
escoger el estimador MELI.

También podría gustarte