Está en la página 1de 48

Regresión simple: introducción

Propiedades estadı́sticas de MCO


STATA

Regresión simple

Gabriel V. Montes-Rojas

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Regresión simple

Regresión simple significa de una sola variable de control (x es un escalar):

yi = β 0 + β 1 xi + ui , i = 1, 2, ..., n

Elementos básicos:
1 Muestra/datos {yi , xi }ni=1 .
2 Modelo lineal y = β 0 + β 1 x
y variable dependiente, lo que queremos explicar.
x variable independiente/de control/explicativa, cómo la vamos a explicar.
β 0 intercepto, valor de y cuando x = 0
β 1 = ∆y
∆x pendiente, cuánto se incrementa y al incrementarse x por 1
unidad.
3 u error o residuo, aquello que no podemos observar pero que afecta y .

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

(¿dónde están los errores?)


Gabriel Montes-Rojas Regresión simple
Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Regresión simple

Democracia y crecimiento.
Datos de n paı́ses.
y variable dependiente, PBI per capita.
x variable independiente, ı́ndice de democracia.
β 0 intercepto, valor de y cuando x = 0.
∆y
β1 = ∆x pendiente, cuánto se incrementa y al incrementarse x por 1 unidad.
u error o residuo, aquello que no podemos observar pero que afecta y .

PBIpercapi = β 0 + β 1 Democraciai + ui , i = 1, 2, ..., n

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Regresión simple

Educación y salarios.
Datos de n individuos.
y variable dependiente, salario.
x variable independiente, años de educación.
β 0 intercepto, valor de y cuando x = 0.
∆y
β1 = ∆x pendiente, cuánto se incrementa y al incrementarse x por 1 unidad.
u error o residuo, aquello que no podemos observar pero que afecta y .

Salarioi = β 0 + β 1 Educi + ui , i = 1, 2, ..., n

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Regresión simple
Una forma de ver los modelos de regresión es la siguiente. Notemos que

cov (y , x )
β1 = ,
var (x )

bajo el supuesto de que cov (x, u ) = 0, o sea que la variable explicativa no tiene
relación con los errores.
La prueba es sencilla:

cov (y , x ) cov ( β 0 + β 1 x + u, x ) β 1 cov (x, x ) + cov (x, u )


= =
var (x ) var (x ) var (x )
(dado que cov (., .) se puede distribuir linealmente y
cov (cte, variable aleatoria) = 0)

cov (x, u )
= β1 + = β1
var (x )
(porque cov (x, x ) = var (x ) y cov (u, x ) = 0) esto significa que β 1 mide cuanto
y se relaciona (covarı́a) con x, estandarizado por la varianza de x.

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Mı́nimos cuadrados ordinarios

¿Cómo estimamos β 0 and β 1 ?


Tomemos los residuos (recordar que son no observables...), ui ≡ yi − β 0 − β 1 xi ,
i = 1, 2, ..., n.
Ahora....
Cuadrados..: ∑ni ui2 = ∑ni (yi − β 0 − β 1 xi )2
+Mı́nimos...: β 0 y β 1 que minimiza ∑ni (yi − β 0 − β 1 xi )2
+Ordinarios... puede ser más complicado...
= Mı́nimos cuadrados ordinarios (MCO)
OLS en inglés: Ordinary Least Squares

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Método de los momentos: Mı́nimos cuadrados ordinarios

Momentos en la población Momentos en la muestra


E [u ] = E [y − β 0 − β 1 x ] = 0 n−1 ∑ni=1 (yi − β̂ 0 − β̂ 1 xi ) = 0
E [xu ] = E [x (y − β 0 − β 1 x )] = 0 n−1 ∑ni=1 xi (yi − β̂ 0 − β̂ 1 xi ) = 0

Sistema de 2 ecuaciones y 2 incógnitas... se puede resolver.


β es un parámetro, β̂ un estimador. β es un valor fijo (no lo sabemos...), β̂ una
variable aleatoria (depende de cada muestra...).
Conceptos a repasar: esperanza o valor esperado E [·]. Esperanza incondicional
vs. esperanza condicional.
Notación: ∑ni=1 xi = x1 + x2 + x3 + ... + xn (sumatoria); n−1 ∑ni=1 xi (promedio).

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Consideremos las dos condiciones de primer orden:


n
n −1 ∑ (yi − β̂0 − β̂1 xi ) = 0 (1)
i =1
n
n −1 ∑ xi (yi − β̂0 − β̂1 xi ) = 0 (2)
i =1

De la primera ecuación

ȳ = β̂ 0 + β̂ 1 x̄ (demostrar )

Notación: x̄ = n−1 ∑ni=1 xi = n−1 (x1 + x2 + x3 + ... + xn ) (promedio)


Entonces,

β̂ 0 = ȳ − β̂ 1 x̄.

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

De la segunda ecuación
n
∑ xi [yi − (ȳ − β̂1 x̄ ) − β̂1 xi ] = 0
i =1
n n
⇒ ∑ xi (yi − ȳ ) = β̂1 ∑ xi (xi − x̄ )
i =1 i =1

Finalmente,

∑ni=1 xi (yi − ȳ ) ∑n (x − x̄ )(yi − ȳ )


β̂ 1 = n = i =1 n i
∑i =1 xi (xi − x̄ ) ∑i =1 (xi − x̄ )2
El siguiente resultado lo vamos a usar muchas veces:

n n n
∑ ai (bi − b̄ ) = ∑ bi (ai − ā) = ∑ (ai − ā)(bi − b̄ )
i =1 i =1 i =1

(¡demostrar!)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Resumiendo:

∑ni=1 (xi − x̄ )(yi − ȳ )


β̂ 1 =
∑ni=1 (xi − x̄ )2

∑ni=1 (xi − x̄ )(yi − ȳ )


β̂ 0 = ȳ − x̄
∑ni=1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Modelo sin intercepto

Supongamos un modelo que satisface yi = βxi + ui , para i = 1, 2, ..., n con


E (ui |xi ) = 0.
Graficar una muestra {yi , xi }ni=1 con estas condiciones. ?’Qué restricciones tiene
este modelo con respecto al modelo general? Este modelo también se llama de
ordenada al origen.
Plantear el estimador de MCO sin intercepto como una minimización y mostrar
que
∑n 1 xi yi
β̂ = i =
∑ni=1 xi2
¿Qué deberı́a encontrar si el modelo generador de datos es este pero se estima
el modelo con intercepto?

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Teorema de Gauss-Markov

Supuesto 1: Lineal en los parámetros y se relaciona con x a


traves de una función lineal.
Supuesto 2: Muestra aleatoria {(yi , xi )}ni=1 es una muestra
aleatoria del modelo del Supuesto 1.
Supuesto 3: Variación muestral en x: ∑ni=1 (xi − x̄ )2 6= 0
Supuesto 4: Media condicional cero E (u |x ) = 0.

MCO es insesgado Si los Supuestos 1-4 se cumplen, entonces


E ( β̂ 0 |x ) = β 0 and E ( β̂ 1 |x ) = β 1

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Teorema de Gauss-Markov

Supuesto 5: Homoscedasticidad Var (u |x ) = σ2

Teorema de Gauss-Markov: Si los Supuestos 1-5 se cumplen, el


estimador MCO β̂ 0 , β̂ 1 es el mejor estimador insesgado de β 0 , β 1 .
Nota: MEJOR= menor varianza (repasar concepto de varianza
V [·]). Se llama EFICIENTE a un estimador que cumple esta
propiedad.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Insesgadez

Los estimadores MCO β̂ 0 y β̂ 1 son insesgados.


Esto es, E [ β̂ 0 |x ] = β 0 y E [ β̂ 1 |x ] = β 1 .
La prueba se puede hacer en pocos pasos.... a continuación.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Insesgadez
Para simplificar la notación escribimos E (.) en vez de E (.|x ), o sea que las esperanzas
incondicionales son en realidad esperanzas condicionales.
 n  n
∑i =1 (xi − x̄ )(yi − ȳ ) ∑i =1 (xi − x̄ )(yi )
 
E [ β̂ 1 ] = E = E
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2
por la propiedad ∑ni=1 (xi − x̄ )(yi − ȳ ) = ∑ni=1 (xi − x̄ )yi .
 n
∑i =1 (xi − x̄ )( β 0 + β 1 xi + ui )

... = E
∑ni=1 (xi − x̄ )2
by Supuesto 1: Lineal en los parámetros y se relaciona con x a través de una función
lineal. O sea, y = β 0 + β 1 x + u.

∑ni=1 (xi − x̄ )( β 0 + β 1 xi + E [ui ])


... =
∑ni=1 (xi − x̄ )2
por propiedades de la esperanza. (Notemos que E [ui ] es en realidad E [ui |x ].)
E [∑ni=1 (.)] = ∑ni=1 E [(.)]
E [ β 0 + β 1 xi + ui ] = β 0 + β 1 xi + E [ui ]

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Insesgadez

Por el Supuesto 4: Media Condicional Cero E (u |x ) = 0.

∑ni=1 (xi − x̄ )( β 0 + β 1 xi + 0)
... =
∑ni=1 (xi − x̄ )2
Luego de algo de álgebra...

∑ni=1 (xi − x̄ ) β 0 ∑n (x − x̄ ) β 1 xi ∑n (x − x̄ )2
... = n + i =n1 i = 0 + β 1 ni =1 i = β1
∑i =1 (xi − x̄ ) 2 ∑i =1 (xi − x̄ ) 2 ∑i =1 (xi − x̄ )2

Entonces probamos que E [ β̂ 1 ] = β 1

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Sesgo

Probar que E [ β̂ 0 |x ] = β 0 es más fácil.


De la primera condición de momento de MCO

β̂ 0 = ȳ − β̂ 1 x̄
Usando esperanzas en los dos lados,

E [ β̂ 0 ] = E [ȳ ] − E [ β̂ 1 x̄ ]
Sabemos que E [ȳ ] = E [ β 0 + β − 1x̄ + ū ] = β 0 + β 1 x̄ + E [ū ] = β 0 + β 1 x̄ y que
E [ β̂ 1 x̄ ] = E [ β̂ 1 ]x̄ = β 1 x̄. Ası́ obtenemos,

E [ β̂ 0 ] = β 0 .

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Predicción

ŷi = β̂ 0 + β̂ 1 xi es el valor de predicción de y dado xi , esto es, un estimador de


E (y |xi )
ûi = yi − ŷi es el residuo de la regresión o error de predicción para la
observación i, o sea un estimador de yi − β 0 − β 1 xi .
Usar gráficos para distinguir claramente yi , ŷi , ui , ûi .
Demostrar que ∑ni=1 ûi = 0 y ∑ni=1 xi ûi = 0. ¿Qué implica?

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

¡¡Todo estimador se merece su varianza!!

σ2
Var ( β̂ 1 |x ) =
∑ni=1 (xi − x̄ )2
Prueba...

σ2 n−1 ∑ni=1 xi2


Var ( β̂ 0 |x ) =
∑ni=1 (xi − x̄ )2
Prueba...

Pregunta: Var ( β 1 |x )=??


Gabriel Montes-Rojas Regresión simple
Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2
Var ( β̂ 1 |x ) =
∑ni=1 (xi − x̄ )2
Prueba: (para simplificar la notación var (.) corresponde a var (.|x ))
 n  n
∑i =1 (xi − x̄ )yi ∑i =1 (xi − x̄ )( β 0 + β 1 xi + ui )
 
Var ( β̂ 1 ) = Var n = Var n
∑i =1 (xi − x̄ ) 2 ∑i =1 (xi − x̄ ) 2

 n  n  n
∑i =1 (xi − x̄ ) β 0 ∑i =1 (xi − x̄ ) β 1 xi ∑i =1 (xi − x̄ )ui
  
= Var n + Var n + Var n
∑i =1 (xi − x̄ )2 ∑i =1 (xi − x̄ )2 ∑i =1 (xi − x̄ )2
Var [∑ni=1 (xi − x̄ )ui ] ∑ni=1 (xi − x̄ )2 Var [ui ]
= =
(∑ni=1 (xi − x̄ )2 )2 (∑ni=1 (xi − x̄ )2 )2

∑ni=1 (xi − x̄ )2 σ2 σ2
= = n
(∑ni=1 (xi − x̄ )2 )2 ∑i =1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

Usamos
Supuesto 1: Modelo lineal en los parámetros y se relaciona
con x por una función lineal.
O sea, y = β 0 + β 1 x + u.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2
Var ( β̂ 1 ) =
∑ni=1 (xi − x̄ )2
Prueba:
∑ni=1 (xi − x̄ )yi ∑ni=1 (xi − x̄ )( β 0 + β 1 xi + ui )
   
Var ( β̂ 1 ) = Var = Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

∑ni=1 (xi − x̄ ) β 0
 n  n
∑i =1 (xi − x̄ ) β 1 xi ∑i =1 (xi − x̄ )ui
   
= Var + Var + Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

Var [∑ni=1 (xi − x̄ )ui ] ∑ni=1 (xi − x̄ )2 Var [ui ]


= =
(∑ni=1 (xi − x̄ )2 )2 (∑ni=1 (xi − x̄ )2 )2
∑n 1 (xi − x̄ )2 σ2 σ2
= i= =
(∑ni=1 (xi − x̄ )2 )2 ∑ni=1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

Usamos
Propiedad de la varianza: Var [aX + bY ] =
a2 × Var [X ] + b 2 × Var [Y ] + 2ab × Cov [X , Y ], donde
Cov [X , Y ] = E [XY ] − E [X ]E [Y ]
Propiedad de la covarianza: Cov [a, Y ] = 0, donde a es una
constante y Y una variable aleatoria (también Cov [a, b ] = 0,
donde tanto a como b son constantes...)

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2
Var ( β̂ 1 ) =
∑ni=1 (xi − x̄ )2
Prueba:
∑ni=1 (xi − x̄ )yi ∑ni=1 (xi − x̄ )( β 0 + β 1 xi + ui )
   
Var ( β̂ 1 ) = Var = Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

∑ni=1 (xi − x̄ ) β 0
 n  n
∑i =1 (xi − x̄ ) β 1 xi ∑i =1 (xi − x̄ )ui
   
= Var + Var + Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

Var [∑ni=1 (xi − x̄ )ui ] ∑ni=1 (xi − x̄ )2 Var [ui ]


= 0+0+ =
(∑ni=1 (xi − x̄ )2 )2 (∑ni=1 (xi − x̄ )2 )2
∑ni=1 (xi − x̄ )2 σ2 σ2
= =
(∑ni=1 (xi − x̄ )2 )2 ∑ni=1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

Usamos
Propiedad de la varianza: Var [a] = 0 donde a es una
constante.
Las X’s son consideradas como constantes.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2
Var ( β̂ 1 ) =
∑ni=1 (xi − x̄ )2
Prueba:
∑ni=1 (xi − x̄ )yi ∑ni=1 (xi − x̄ )( β 0 + β 1 xi + ui )
   
Var ( β̂ 1 ) = Var = Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

∑ni=1 (xi − x̄ ) β 0
 n  n
∑i =1 (xi − x̄ ) β 1 xi ∑i =1 (xi − x̄ )ui
   
= Var + Var + Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

Var [∑ni=1 (xi − x̄ )ui ] ∑ni=1 (xi − x̄ )2 Var [ui ]


= =
(∑ni=1 (xi − x̄ )2 )2 (∑ni=1 (xi − x̄ )2 )2
∑n 1 (xi − x̄ )2 σ2 σ2
= i= =
(∑ni=1 (xi − x̄ )2 )2 ∑ni=1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

Usamos
Supuesto 2: Muestreo aleatorio {(yi , xi )}ni=1 es una muestra
aleatoria del modelo dado en el Supuesto 1.
Hacemos Var [∑ni=1 ui ] = ∑ni=1 Var [ui ] + ∑ni=1 ∑nj=1,j 6=i Cov [ui , uj ].
Pero, por la propiedad de muestreo aleatorio Cov [ui , uj ] = 0, i 6= j
Entonces, Var [∑ni=1 ui ] = ∑ni=1 Var [ui ].

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2
Var ( β̂ 1 ) =
∑ni=1 (xi − x̄ )2
Prueba:
∑ni=1 (xi − x̄ )yi ∑ni=1 (xi − x̄ )( β 0 + β 1 xi + ui )
   
Var ( β̂ 1 ) = Var = Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

∑ni=1 (xi − x̄ ) β 0
 n  n
∑i =1 (xi − x̄ ) β 1 xi ∑i =1 (xi − x̄ )ui
   
= Var + Var + Var
∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2 ∑ni=1 (xi − x̄ )2

Var [∑ni=1 (xi − x̄ )ui ] ∑ni=1 (xi − x̄ )2 Var [ui ]


= =
(∑ni=1 (xi − x̄ )2 )2 (∑ni=1 (xi − x̄ )2 )2
∑n 1 (xi − x̄ )2 σ2 σ2
= i= =
(∑ni=1 (xi − x̄ )2 )2 ∑ni=1 (xi − x̄ )2

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

Usamos
Supuesto 5: Homoscedasticidad Var (u |x ) = σ2
donde Var [ui ] = Var [ui |x ] = σ2 for all i = 1, 2, ..., n

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Varianza de los estimadores MCO

σ2 n−1 ∑ni=1 xi2


Var ( β̂ 0 ) =
∑ni=1 (xi − x̄ )2
Prueba:
     
Var ( β̂ 0 ) = Var ȳ − x̄ β̂ 1 = Var [ȳ ] + Var x̄ β̂ 1 − 2Cov ȳ , x̄ β̂ 1
" #
n n
σ2 x̄
2
Cov ∑ yi , ∑ (xi − x̄ )yi
 
= + x̄ Var β̂ 1 − 2
n n ∑ni=1 (xi − x̄ )2 i =1 i =1
n
σ2 σ2 x̄
= + x̄ 2 n −2 n σ2 ∑ (xi − x̄ )
n ∑i =1 (xi − x̄ ) 2 n ∑i =1 (xi − x̄ ) 2
i =1
σ2 ∑ni=1 (xi − x̄ )2 σ2
= + x̄ 2 n
n ∑ni=1 (xi − x̄ )2 ∑i =1 xi − x̄ )2
(

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Inferencia

¡ β̂ 0 y β̂ 1 son variables aleatorias!


Supuesto 6: Normalidad u es independiente de x y
u ∼ N (0, σ2 ).

Distribución normal: Bajo los supuestos 1-6,

β̂ 0 ∼ N ( β 0 , Var [ β̂ 0 ])

β̂ 1 ∼ N ( β 1 , Var [ β̂ 1 ])
Entonces,
( β̂ 0 − β 0 )/se ( β̂ 0 ) ∼ N (0, 1)
( β̂ 1 − β 1 )/se ( β̂ 1 ) ∼ N (0, 1)

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Los estimadores de MCO son variables aleatorias. Dependiendo de la muestra lo que


estimamos podrı́a estar cerca o lejos de los parámetros de la población. Lo importante
es cuán cerca o lejos?
Consideremos la hipótesis nula

H0 : β 1 = β 10 ,
y contrastemos con la hipótesis alternativa

HA : β 1 6= β 10
Un ejemplo MUY usado es H0 : β 1 = 0. ¿Hay relación entre y con x?
En la práctica tenemos que hacer inferencia acerca de si H0 es verdad o no usando β̂ 1 .

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Si H0 es verdad, entonces β̂ 1 deberı́a estar cerca de β 10 . Pero ¿por cuánto? ¿Cuán


cerca es cerca?

Bajo H0 : β 1 = β 10 y asumiendo que u tiene distribución normal estándar, tenemos el


siguiente resultado importante

\
( β̂ 1 − β 10 )/se ( β̂ 1 ) ∼ tn−2

donde se (.) son los errores estándar (standard errors) y tn−2 es la distribución “t de
estudiante” (t-Student) con n − 2 grados de libertad.

Nota: Para obtener Var ( β̂) necesitamos estimar σ2 , la varianza del error. Usamos σ̂2 .

∑ni=1 û 2
σ̂2 =
n−2
El número 2 de los grados de libertad dice cuántos parámetros estamos estimando.
Por otro lado se
d (.) es el estimador del error estándar.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Paso 1: ¿Qué hipótesis?


En general queremos ver la significatividad estadı́stica (statistical significance)
de un coeficiente de regresión. O sea, H0 : β 1 = 0 en el modelo
y = β 0 + β 1 x + u.
También pueder haber hipótesis nulas compuestas H0 : β 2 = 0, β 3 = 0 en el
modelo (ver más adelante)

y = β 0 + β 1 x1 + β 2 x2 + β 3 x3 + u

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Paso 2: Nivel de significancia, α. En general:


α = .1 OR α = .05 OR α = .01
Cuanto mas pequeño es α mas confianza se tiene en los resultados.

En Estadı́stica se llama Error de Tipo I, el error de rechazar H0 cuando es verdadera.


Dado que estamos trabajando con variables aleatorias siempre podemos cometer
errores.

Bajo H0 , S = β̂ 1 − β 10 deberı́a estar cercano a 0. Entonces, la evidencia de que


esto no es cierto deberı́a estar asociado a un alto valor de S. Llamemos a Sα al
valor tal que P [|S | > |Sα |] = α.
Nota:
- Modelo en una dirección: HA : β 1 > β 10 (o HA : β 1 < β 10 ). Entonces tenemos
P [S > Sα ] = α (o P [S < Sα ] = α).
- Modelo en dos direcciones: HA : β 1 6= β 10 . Entonces tenemos dos valores
1
crı́ticos tal que P [S > Sα/2 2
> 0] = α/2 y P [S < Sα/2 < 0] = α/2. Si la
1 2
distribución de S es simétrica, Sα/2 = −Sα/2 .

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Paso 3: Mirar el p − valor .


El p-valor (para hipótesis en dos direcciones) es P [| β̂ 1 | > | β̂obs
1 |] bajo la
hipótesis nula, donde β̂obs
1 es el valor observado, es decir, en la muestra.
Intuitivamente nos dice que probabilidad hay de encontrar un valor que nos más
evidencia que el realmente observado. Si esta probabilidad es pequeña, entonces
tenemos un valor muy distinto al que se asume en H0 .
REGLA:
Si p − valor < α entonces rechazar la hipótesis nula.
Si p − valor ≥ α entonces aceptar la hipótesis nula.

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Ejemplo: Si la hipótesis nula es H0 : β 1 = 0 en el modelo


y = β 0 + β 1 x + u, entonces
Si p − valor < α, rechazar ⇒ β 1 6= 0, x tiene un efecto lineal
sobre y .
Si p − valor ≥ α, aceptar ⇒ β 1 = 0, x no tiene efecto lineal
sobre y .

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Si la hipótesis es H0 : β 2 = 0, β 3 = 0 para modelos de


regresión múliple y = β 0 + β 1 x1 + β 2 x2 + β 3 x3 + u,
entonces
Si p − valor < α, rechazar ⇒ β 2 6= 0 o β 3 6= 0, x2 y x3
tienen conjuntamente un efecto lineal sobre y .
Si p − valor ≥ α, aceptar ⇒ β 2 = 0 y β 3 = 0, x2 y x3 no
tienen un efecto lineal sobre y .

Gabriel Montes-Rojas Regresión simple


Teorema de Gauss-Markov
Regresión simple: introducción
Insesgadez
Propiedades estadı́sticas de MCO
Inferencia
STATA
Contrastes de hipótesis

Contrastes de hipótesis (tests)

Paso 3 (alternativo): Mirar el estimador dividido el error estándar.


Muchos trabjos empı́ricos reportan los coeficientes estimados y los errores
β̂ 1
estándar de esos estimadores. La idea es que \
tiene aproximadamente una
se ( β̂ 1 )
distribución normal, y para un α = 0.05 el valor crı́tico es 2 (en una variable
aleatoria Z N (0, 1), P [Z > 1.96] = 0.025.
REGLA:
β̂ 1
Si se ( β̂ 1 )
> 2 entonces rechazar la hipótesis nula.
β̂ 1
Si se ( β̂ 1 )
≤ 2 entonces aceptar la hipótesis nula.

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Ejemplo: Retornos a la educación

wage = β 0 + β 1 educ + u
1976 Current Population Survey (CPS) de los Estados Unidos
use http://fmwww.bc.edu/ec-p/data/wooldridge/wage1, clear
(para abrir la base de datos)
reg wage educ (para correr la regresión)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Ejemplo: Retornos a la educación

wage = −.905+ .541∗∗∗ educ


(.685) (.053)
< 0.187 > < 0.000 >
[−1.321] [10.2]

(errores estándar); < p − valor >; [t − valor ]; * significancia 10%; ** significancia 5%; *** significancia 1%;

¿Qué significa β̂ 1 = .541? cada año de educación incrementa el salario horario


en promedio 54 centavos de dólar.
¿Es estadı́sticamente significativo? Ver el p-valor.
Esto tiene implı́cita la hipótesis H0 : β 1 = 0. se ( β̂ 1 ) = .053,
β̂ 1 .541
se ( β̂ 1 )
= .053 = 10.2. Rechazar con el p-valor de 0.000.

¿Qué significa β̂ 0 = −.905? ¿Es significativo?

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

¿Cómo aparecen los resultados en STATA?

http://fmwww.bc.edu/gstat/examples/wooldridge/wooldridge2.html

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Otros comandos en STATA

Para obtener estadı́sticos de la base de datos tipear:


summ
(reporta para todas las variables: nro. de observaciones, promedio, desviaciones
estándar, mı́nimo, máximo)
summ wage educ
(sólo para las variables especificadas)
Más información para una variable (mediana, cuantiles, asimetrı́a, curtosis)
summ VARIABLE, detail
(en VARIABLE va la variable de interés)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Otros comandos en STATA

Valor predicho, ŷ , de una regresión,


predict NEWNAME
(en NEWNAME va el nombre que se le quiere dar a la nueva
variable, por ejemplo ypred)
(nota: antes hay que correr la regresión)
Residuos de la regresión, û = y − ŷ
predict NEWNAME, resid
(en NEWNAME va el nombre que se le quiere dar a la nueva
variable, por ejemplo upred)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Gráficos en STATA

Nube de puntos
scatter YVAR XVAR
(YVAR es la variable del eje vertical, XVAR es la variable del
eje horizontal)
Lı́nea (conecta los puntos)
sort XVAR
line YVAR XVAR
(YVAR es la variable del eje vertical, XVAR es la variable del
eje horizontal)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Ejemplo:
predict wage hat (para predecir los salarios, w
[ age = β̂ 0 + β̂ 1 educ)
scatter wage educ || line wage hat educ, xline(12.57) yline(5.90)
(hace un gráfico con la nube de puntos y la lı́nea de regresión)

Gabriel Montes-Rojas Regresión simple


Regresión simple: introducción
Propiedades estadı́sticas de MCO
STATA

Gabriel Montes-Rojas Regresión simple

También podría gustarte