Está en la página 1de 57

Outline

1 Esperanza condicional
2 Modelo de regresión simple
3 Interpretación
4 Estimación
5 Supuestos de MCO
6 Distribución muestral de MCO
7 Homoscedasticidad
8 Contraste de hipótesis
9 Intervalo de confianza
Referencias: Cap. 4 y 5 de Stock and Watson, y cap. 2 de Angrist and
Pischke.
Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 1 / 54
Esperanza condicional

Esperanza condicional
La esperanza condicional E(y|x = u) es la esperanza de una
variable y en “grupos” definidos por otra variable x.
Ejemplos:
Tamaño de clase y notas
E(testscr|str = k) donde testscr es la nota en un examen
estandarizado y str es el ratio estudiantes-profesor.
Retornos de la educación
E(lwage|educ = k) donde lwage es log de salarios y educ son los
a–os de educación completados.
Discriminación racial en el mercado laboral
E(call_back|black = 1) y E(call_back|black = 0) donde call_back es
igual a 1 si el aspirante ha sido llamado para una entrevista y black
es igual a 1 para nombre asociados a personas de raza negra.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 2 / 54


Esperanza condicional

Esperanza condicional
La esperanza condicional E(y|x = u) es la esperanza de una
variable y en “grupos” definidos por otra variable x.
En forma matem‡tica,
X
E(y|x = u) = t Pr(y = t|x = u),
t

donde Pr(y = t|x = u) es la función de probabilidad de y


condicional en que x asuma el valor u.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 3 / 54


Esperanza condicional

Esperanza condicional
Por cada valor que puede asumir x, podemos calcular una media
poblacional distinta para y. La colección de dichas medias como
función de x se denomina la función de esperanza condicional
E(y|x).
Ejemplo
Discriminación racial en el mercado laboral: podemos escribir la
función de esperanza condicional como
E(call_back|black)
= E(call_back|black = 0)
+ [E(call_back|black = 1) − E(call_back|black = 0)] × black

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 4 / 54


Esperanza condicional
notwithstanding— people with more schooling generally earn more, on average. The average earnings gain

associated with a year of schooling is typically about 10 percent.


Ejemplo: Retornos de la educación

Esperanza condicional del log salarios semanales dado el nivel educativo. La


Figure 3.1.1: Raw data and the CEF of average log weekly wages given schooling. The sample includes
muestra incluye hombres blancos entre 40 y 49 a–os de la muestra del 5 %
white men aged 40-49 in the 1980 IPUMS 5 percent …le.
del Censo 1980 (IPUMS).

An important complement to the CEF is the law of iterated expectations. This law says that an
Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 5 / 54
Esperanza condicional

Esperanza condicional del log salarios semanales dado el nivel educativo. La


muestra incluye hombres encuestados en NLSY en 2012.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 6 / 54


Modelo de regresión simple

Covarianza
El modelo de regresión se relaciona con el concepto de
covarianza.
La covarianza entre y y x se define como

Cov(x, y) = E[(x − E(x))(y − E(y))].

La covarianza mide si dos variables aleatorias est‡n linealmente


relacionadas. Si Cov(x, y) > 0, la relación es positiva. Si
Cov(x, y) < 0, la relación es negativa.
Propiedades
1 Cov(x, x) = Var(x)
2 Cov(x, y) = E(xy) − E(x) E(y)
3 Si E(x) = 0 entonces Cov(x, y) = E(xy).

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 7 / 54


Modelo de regresión simple

Modelo de regresión simple

yi = β0 + β1 xi + ui donde E(ui ) = 0 y E(xi ui ) = 0.

Notación:
yi es la variable dependiente,
xi es la variable explicativa, regresor o variable independiente,
β0 es el intercepto,
β1 es la pendiente,
ui es el error de la regresión (inobservado).

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 8 / 54


Modelo de regresión simple

Modelo de regresión simple

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 9 / 54


Modelo de regresión simple

Modelo de regresión simple

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 10 / 54


Modelo de regresión simple

Modelo de regresión simple

yi = β0 + β1 xi + ui donde E(ui ) = 0 y E(xi ui ) = 0.

Mejor predictor lineal: Es la función lineal β0 + β1 xi que minimiza


el error cuadr‡tico medio de predicción entre las funciones
lineales en xi , es decir

mı́n E[(yi − b0 − b1 xi )2 ]
b0 ,b1

La solución del problema anterior es

β0 = E(yi ) − β1 E(xi ),
Cov(xi , yi )
β1 = .
Var(xi )

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 11 / 54


Modelo de regresión simple

Relación entre el modelo de regresión y la esperanza


condicional
Si la esperanza condicional es lineal entonces el modelo de
regresión coincide con la esperanza condicional.
Ejemplo
Discriminación racial en el mercado laboral: tenemos que
β0 = E(call_back|black = 0) y
β1 = E(call_back|black = 1) − E(call_back|black = 0)
El modelo de regresión es la mejor aproximación lineal a la
esperanza condicional.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 12 / 54


Modelo de regresión simple

Relación entre el modelo de regresión y la esperanza


condicional 3.1. REGRESSION FUNDAMENTALS
Figure 3.1.2 - A conditional expectation function and weighted regression line
31

7.2

6.8
Log weekly earnings, $2003

6.6

6.4

6.2

5.8

0 2 4 6 8 10 12 14 16 18 20+
Years of completed education

Sample is limited to white men, age 40-49. Data is from Census IPUMS 1980, 5% sample.

Regresión y esperanza condicional del log salarios semanales en el nivel


Figure 3.1.2: Regression threads the CEF of average weekly wages given schooling
educativo. La muestra incluye hombres blancos entre 40 y 49 a–os de la
muestra del 5 %should
estimates delbeCenso 1980 a(IPUMS).
interpreted. Whatever regression coe¢ cient may mean, it has a sampling distribution

that is easy to describe and use for statistical inference.3

We are interested in the distribution of the sample analog of


Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 13 / 54
Modelo de regresión simple

Regresión y esperanza condicional del log salarios semanales dado el nivel


educativo. La muestra incluye hombres encuestados en NLSY en 2012.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 14 / 54


Interpretación

Interpretación

E(yi |xi ) = β0 + β1 xi .

Intercepto: β0 = E(yi |xi = 0).


No siempre tiene una interpretación relevante.
∆ E(yi |xi )
Pendiente: β1 = ∆xi .
Cuando xi se incrementa en una unidad, yi se incrementa en
promedio en β1 unidades.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 15 / 54


Interpretación

Ejemplo: Tamaño de clase y notas


El modelo de regresión es

testscri = β0 + β1 stri + ui .

Interpretación
β0 = E(testscr|str = 0): No tiene interpretación relevante.
β1 = ∆ E(testscr|str)
∆str
Si el ratio estudiantes-profesor se incrementa en una unidad, la
nota se incrementa en promedio en β1 puntos.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 16 / 54


Interpretación

Modelo de regresión simple

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 17 / 54


Interpretación

Ejemplo: Retornos a la educación


El modelo de regresión es

wagei = β0 + β1 educi + ui .

Interpretación
β0 = E(wage|educ = 0): No tiene interpretación relevante.
β1 = ∆ E(wage|educ)
∆educ
Si el nivel educativo se incrementa en un año, el salario se
incrementa en promedio en β1 dólares al año.
Noten que como tengo un modelo lineal, si quiero saber cuánto
aumenta el salario cuando la educación cambia en 5 años, el
efecto será 5 ∗ β1 dólares al año.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 18 / 54


Interpretación

Modelo de regresión simple


Gráfico de dispersión de salarios y nivel educativo

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 19 / 54


Interpretación

Ejemplo: Discriminación racial en mercado laboral


El modelo de regresión es

call_backi = β0 + β1 blacki + ui .

Interpretación
β0 = E(call_back|black = 0) = Pr(call_back = 1|black = 0):
Probabilidad que una persona de raza blanca reciba una llamada
para una entrevista laboral.
Estamos utilizando que call_back es una variable Bernoulli igual 1
si la persona recibe una llamada del empleador, tenemos que

E(call_back|black = 0)
= 1 × Pr(call_back = 1|black = 0) + 0 × Pr(call_back = 0|black = 0)
= Pr(call_back = 1|black = 1).

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 20 / 54


Interpretación

Ejemplo: Discriminación racial en mercado laboral


El modelo de regresión es

call_backi = β0 + β1 blacki + ui .

Interpretación
β0 = E(call_back|black = 0): Probabilidad que una persona de raza
blanca reciba una llamada para una entrevista laboral.
β1 = E(call_back|black = 1) − E(call_back|black = 0) =
Pr(call_back = 1|black = 1) − Pr(call_back = 1|black = 0).
La diferencia en la probabilidad de recibir una llamada para una
entrevista laboral para una persona de raza negra y una persona
de raza blanca es de β1 ó β1 × 100 puntos porcentuales.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 21 / 54


Estimación

Estimación

yi = β0 + β1 xi + ui donde E(ui ) = 0 y E(xi ui ) = 0.

El estimador de m’nimos cuadrados ordinarios es

β̂0 = ȳ − β̂1 x̄,


1 PN
i=1 (xi − x̄)(yi − ȳ) Cov(x
d i , yi )
N
β̂1 = 1 PN
= .
2
i=1 (xi − x̄) Var(x
d i)
N

Es un estimador natural dado que

β0 = E(yi ) − β1 E(xi ),
Cov(xi , yi )
β1 = .
Var(xi )

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 22 / 54


Estimación

Ejemplo: Tamaño de clase y notas


> # Descriptive statistics
> summary(testscr)
Min. 1st Qu. Median Mean 3rd Qu. Max.
605.6 640.0 654.5 654.2 666.7 706.8
> sd(testscr)
[1] 19.05335
>
> summary(str)
Min. 1st Qu. Median Mean 3rd Qu. Max.
14.00 18.58 19.72 19.64 20.87 25.80
> sd(str)
[1] 1.891812

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 23 / 54


Estimación

Tamaño de clase y notas


Función de densidad de notas del examen estandarizado

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 24 / 54


Estimación

Tamaño de clase y notas


Gráfico de dispersión de tamaño de clase y notas

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 25 / 54


Estimación

Tamaño de clase y notas


. * Estimate returns to education
.
> olsreg3 <- lm(testscr ~ str)
> summary(olsreg3)

Call:
lm(formula = testscr ~ str)

Residuals:
Min 1Q Median 3Q Max
-47.727 -14.251 0.483 12.822 48.540

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 698.9330 9.4675 73.825 < 2e-16 ***
str -2.2798 0.4798 -4.751 2.78e-06 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 18.58 on 418 degrees of freedom


Multiple R-squared: 0.05124,Adjusted R-squared: 0.04897
F-statistic: 22.58 on 1 and 418 DF, p-value: 2.783e-06

Interpretación

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 26 / 54


Estimación

Ejemplo: Retornos de la educación


. * Descriptive statistics
> summary(wage)
Min. 1st Qu. Median Mean 3rd Qu. Max. NA’s
0 12000 41000 59127 74000 343830 79
> sd(wage)
[1] NA
>
> summary(educ)
Min. 1st Qu. Median Mean 3rd Qu. Max.
3.00 12.00 12.00 13.42 15.00 20.00
> sd(educ)
[1] 2.530335

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 27 / 54


Estimación

Retornos de la educación
Histograma de nivel educativo

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 28 / 54


Estimación

Retornos de la educación
Gráfico de dispersión de log de salarios y nivel educativo

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 29 / 54


Estimación

Retornos de la educación
> olsreg <- lm(wage ~ educ)
> summary(olsreg)

Call:
lm(formula = wage ~ educ)

Residuals:
Min 1Q Median 3Q Max
-149314 -39585 -10449 16588 304245

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -125008.9 6991.7 -17.88 <2e-16 ***
educ 13716.1 511.8 26.80 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 66070 on 2602 degrees of freedom


Multiple R-squared: 0.2163,Adjusted R-squared: 0.216
F-statistic: 718.2 on 1 and 2602 DF, p-value: < 2.2e-16

Interpretación
Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 30 / 54
Estimación

Discriminación en el mercado laboral


> olsreg2 <- lm(call_back ~ black)
> summary(olsreg2)

Call:
lm(formula = call_back ~ black)

Residuals:
Min 1Q Median 3Q Max
-0.09651 -0.09651 -0.06448 -0.06448 0.93552

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.096509 0.005505 17.532 < 2e-16 ***
black -0.032033 0.007785 -4.115 3.94e-05 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.2716 on 4868 degrees of freedom


Multiple R-squared: 0.003466,Adjusted R-squared: 0.003261
F-statistic: 16.93 on 1 and 4868 DF, p-value: 3.941e-05

Interpretación
Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 31 / 54
Estimación

Medidas de ajuste: R2
Las medidas de ajuste buscan medir en que medida la regresión
lineal describe correctamente lo datos.
El R2 mide la proporción de la varianza muestral de yi explicada
por xi . El R2 se encuentra entre 0 y 1.
Definamos la predicción de yi como ŷi = β̂0 + β̂1 xi .
Definamos la predicción de ui como ûi = yi − ŷi
El R2 se define como
1 PN
(ŷi − ŷ¯i )2 1 PN 2
i=1 ûi
R = 1 Pi=1
2 N
N =1− 1
N
PN
(y − )2 − ȳi )2
N i=1 i ȳ i N i=1 (yi

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 32 / 54


Estimación

Tamaño de clase y notas

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 33 / 54


Supuestos de MCO

Supuestos de MCO

yi = β0 + β1 xi + ui

1 (yi , xi ) para i = 1, 2, ..., N son independiente e identicamente


distribuidas (i.i.d.).
2 La esperanza condicional de ui dado xi es cero: E(ui |xi ) = 0.
3 Los datos atípicos son poco probables.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 34 / 54


Distribución muestral de MCO

Distribución muestral de MCO


Esperanza de β̂1 : E(β̂1 ) = β1
β̂1 es un estimador insesgado de β1
El supuesto más importante es independencia en media
E(ui |xi ) = 0.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 35 / 54


Distribución muestral de MCO

Distribución muestral de MCO


Esperanza de β̂1 : E(β̂1 ) = β1
β̂1 es un estimador insesgado de β1
El supuesto más importante es independencia en media
E(ui |xi ) = 0.
1 Var((xi −µx )ui )
Varianza de β̂1 : Var(β̂1 ) = N (σx2 )2
.
La varianza de β̂1 disminuye cuando aumenta N
La varianza de β̂1 disminuye cuando aumenta σx2 .
Bajo los supuestos impuestos, β̂1 no es el estimador de menor
varianza, no es eficiente.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 35 / 54


Distribución muestral de MCO

Distribución muestral de MCO


Esperanza de β̂1 : E(β̂1 ) = β1
β̂1 es un estimador insesgado de β1
El supuesto más importante es independencia en media
E(ui |xi ) = 0.
1 Var((xi −µx )ui )
Varianza de β̂1 : Var(β̂1 ) = N (σx2 )2
.
La varianza de β̂1 disminuye cuando aumenta N
La varianza de β̂1 disminuye cuando aumenta σx2 .
Bajo los supuestos impuestos, β̂1 no es el estimador de menor
varianza, no es eficiente.
β̂1 es un estimador consistente de β1 .

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 35 / 54


Distribución muestral de MCO

Distribución muestral de MCO


Esperanza de β̂1 : E(β̂1 ) = β1
β̂1 es un estimador insesgado de β1
El supuesto más importante es independencia en media
E(ui |xi ) = 0.
1 Var((xi −µx )ui )
Varianza de β̂1 : Var(β̂1 ) = N (σx2 )2
.
La varianza de β̂1 disminuye cuando aumenta N
La varianza de β̂1 disminuye cuando aumenta σx2 .
Bajo los supuestos impuestos, β̂1 no es el estimador de menor
varianza, no es eficiente.
β̂1 es un estimador consistente de β1 .
Distribución asintótica: t = β̂1 −β1 se distribuye aproximadamente
se(β̂1 )
como una normal estandarizada cuando N es grande.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 35 / 54


Homoscedasticidad

Homoscedasticidad
Homoscedasticidad: La varianza de los inobservados no cambia
con las xi , Var(ui |xi ) = Var(ui ).
Una interpretación equivalente: La varianza de la variable
dependiente no cambia con las xi , Var(yi |xi ) = Var(yi ).
En la práctica es difícil que se cumpla
Bajo homoscedasticidad la varianza del estimador es
2
Var(β̂1 ) = N1 σσu2 .
x

La varianza de β̂1 disminuye cuando aumenta N


La varianza de β̂1 disminuye cuando aumenta σx2 .
La varianza de β̂1 aumenta cuando aumenta σu2 . La varianza de β̂1
disminuye cuando aumenta el R2 .
β̂1 es el estimador de menor varianza entre los estimadores
insesgados de β1 : β̂1 es eficiente.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 36 / 54


Homoscedasticidad

Homoscedasticidad

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 37 / 54


Homoscedasticidad

Heteroscedasticidad

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 38 / 54


Homoscedasticidad

Ejemplo: Retornos de la educación


Gráfico de dispersión de salarios y nivel educativo

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 39 / 54


Homoscedasticidad

Ejemplo: Retornos de la educación bajo


heteroscedasticidad

> olsreg <- lm(wage ~ educ)


> summary(olsreg)

Call:
lm(formula = wage ~ educ)

Residuals:
Min 1Q Median 3Q Max
-149314 -39585 -10449 16588 304245

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -125008.9 6991.7 -17.88 <2e-16 ***
educ 13716.1 511.8 26.80 <2e-16 ***

> coeftest(olsreg, vcov = vcovHC(olsreg, type = "HC0"))

t test of coefficients:

Estimate Std. Error t value Pr(>|t|)


(Intercept) -125008.93 8931.29 -13.997 < 2.2e-16 ***
educ 13716.14 719.89 19.053 < 2.2e-16 ***
---

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 40 / 54


Homoscedasticidad

Homoscedasticidad versus Heteroscedasticidad


Errores estándar homoscedásticos: Solamente son válidos bajo
homoscedasticidad.
Errores estándar robustos a la heteroscedastidad: Son siempre
válidos ya sea que los errores sean heteroscedásticos o no.
La principal ventaja de los errores estándar homoscedásticos es
que la fórmula es más simple. La desventaja es que la fórmula
solamente es correcta bajo homoscedasticidad.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 41 / 54


Homoscedasticidad

Homoscedasticidad versus Heteroscedasticidad


En la práctica
Dado que la fórmulas para calcular los s.e. difieren, se obtienen
errores estándar distintos usando las distintas fórmulas.
Los errores estándar homoscedásticos son los reportados por
default en R, Stata y programas similares. En R, para obtener los
s.e. robustos a la heteroscedasticidad se tiene instalar dos
libraries, lmtest y sandwich y luego usar el comando coeftest(m,
vcov = vcovHC(m, type="HC1")) donde m es el nombre del
modelo.
Si se utilizan la fórmula de los s.e. homoscedásticos cuando el
modelo es heteroscedástico, los errores estándar (y en
consecuencia los contrastes e intervalos de confianzas) están
mal. En general, los s.e. calculados son demasiado pequeños.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 42 / 54


Homoscedasticidad

Homoscedasticidad versus Heteroscedasticidad


En resumen
Si los errores son homoscedásticos o heteroscedśticos y se
utilizan s.e. robustos a la heteroscedasticidad, los s.e. están bien
calculados.
Si los errores son heteroscedśticos y se utilizan s.e. válidos bajo
homoscedasticidad, los s.e. están mal calculados.
Ambas fórmulas dan resultados similares (cuando N es grande)
bajo homoscedasticidad.
Utilice SIEMPRE errores robustos a la heteroscedasticidad
Excepción a la regla: Los s.e. robustos a la heteroscedasticidad
son más difíciles de estimar, una buena práctica es calcular los
s.e. homoscedásticos y reportar el mayor entre ambos como un
ejercicio de robustez.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 43 / 54


Contraste de hipótesis

Contraste de hipótesis
Hipótesis nula: β1 = β1,0
β1,0 es un valor para β1 , el caso de mayor interés es cuando
β1,0 = 0.
Hipótesis alternativa: β1 ̸= β1,0
Estadístico t: En general,

estimador - parámetro bajo H0


t= ∼ Normal(0, 1) bajo H0 .
error estándar del estimador
Para este caso

β̂1 − β1,0
t= ∼ Normal(0, 1) bajo H0 ,
se(β̂1 )
q
donde se(β̂1 ) = Var(
d β̂1 ).

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 44 / 54


Contraste de hipótesis

Contraste de hipótesis
Hipótesis nula: β1 = β1,0
β1,0 es un valor para β1 , el caso de mayor interés es cuando
β1,0 = 0.
Hipótesis alternativa: β1 ̸= β1,0
Estadístico t:

β̂1 − β1,0
t= ∼ Normal(0, 1) bajo H0 .
se(β̂1 )

Regla de decisión: Rechazar H0 si |t| > 1,96; no rechazar H0 en


caso contrario.
Un regla equivalente. p-valor: Probabilidad de una normal en las
colas de |t|. Rechazar H0 si p − valor < 0,05; no rechazar H0 en
caso contrario.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 45 / 54


Contraste de hipótesis

p-valor para la media muestral

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 46 / 54


Contraste de hipótesis

Ejemplo: Retornos de la educación


> coeftest(olsreg, vcov = vcovHC(olsreg, type = "HC0"))

t test of coefficients:

Estimate Std. Error t value Pr(>|t|)


(Intercept) -125008.93 8931.29 -13.997 < 2.2e-16 ***
educ 13716.14 719.89 19.053 < 2.2e-16 ***

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 47 / 54


Intervalo de confianza

Intervalo de confianza
Utilizando el resultado de la distribución de t para muestras
grandes
β̂1 − β1
t= ∼ Normal(0, 1),
se(β̂1 )
obtenemos un intervalo de confianza para β1
Pr(−1,96 ≤ t ≤ 1,96) = 0,95
β̂1 − β1
⇐⇒ Pr(−1,96 ≤ ≤ 1,96) = 0,95
se(β̂1 )
⇐⇒ Pr(−1,96 × se(β̂1 ) ≤ β̂1 − β1 ≤ 1,96 × se(β̂1 )) = 0,95
⇐⇒ Pr(−β̂1 − 1,96 × se(β̂1 ) ≤ −β1 ≤ −β̂1 + 1,96 × se(β̂1 )) = 0,95
⇐⇒ Pr(β̂1 + 1,96 × se(β̂1 ) ≥ β1 ≥ β̂1 − 1,96 × se(β̂1 )) = 0,95
⇐⇒ Pr(β̂1 − 1,96 × se(β̂1 ) ≤ β1 ≤ β̂1 + 1,96 × se(β̂1 )) = 0,95
Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 48 / 54
Intervalo de confianza

Intervalo de confianza
Intepretación: el intervalo

[β̂1 − 1,96 × se(β̂1 ), β̂1 + 1,96 × se(β̂1 )]

incluye a β1 el 95 % de la veces en muestras repetidas.


Las siguientes afirmaciones son equivalentes:
El intervalo de confianza de β1 al 95 % no incluye el cero.
La hipótesis β1 = 0 se rechaza al 5 %.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 49 / 54


Intervalo de confianza

1. Modelo de horas de sueño y horas de trabajo

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 50 / 54


Intervalo de confianza

1. Modelo de horas de sueño y horas de trabajo


Supongamos que queremos evaluar la siguiente hipótesis
Ho : β1 = 0 vs H1 : β1 ̸= 0
Tenemos que plantear el estadístico
β̂1 − 0
t=
ds(β̂1 )

Tenemos la info que nos dio R: β̂1 = −0,15075 y ds(β̂1 ) = 0,01674.


Lo calculamos entonces
−0,15075
tobs = = −9,005
0,01674
El valor crítico para un N tan grande, es aproximadamente 1.96
para un nivel de significancia del 5 %. Ergo, rechazamos la
hipótesis nula de que el coeficiente es cero.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 51 / 54


Intervalo de confianza

1. Modelo de horas de sueño y horas de trabajo


Ahora vamos a hacer la misma estimación pero sólo con 14
observaciones. Noten que aún podemos rechazar la hipótesis
nula pero los errores estándares son mucho más grandes.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 52 / 54


Intervalo de confianza

2. Modelo inversión en investigación y desarrollo y pib


Tenemos datos per cápita para un conjunto de 88 países.
pibpci = β0 + β1 inversion − innovacióni + ui

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 53 / 54


Intervalo de confianza

2. Modelo inversión en investigación y desarrollo y pib

Si estimamos el modelo sacando datos extermos; se reducen los errores es-


tándares y aumentan los test t cuando tengo un mejor «ajuste»; quiere decir
que la varianza del residuo es más pequeña, y entonces los errores estánda-
res son mas chicos.

Perticara (MPP-UDP) Introducción y Repaso de Estadística 26 de agosto de 2022 54 / 54

También podría gustarte