Documentos de Académico
Documentos de Profesional
Documentos de Cultura
18 de octubre de 2017
Outline
1. Aspectos generales del modelo de regresion
2. Estimacion por Minimos Cuadrados Ordinarios
3. Propiedades Numericas del Estimador MCO
4. Suma de Cuadrados y Medidas de Ajuste
5. Distribución asintótica del estimador MCO
6. Distribución muestral exacta con error normalmente distribuido
7. Variables Dummies
9. Pruebas de Hipótesis
10. Mı́nimos Cuadrados Ponderados
11. Teorema de Gauss Markov
1. Aspectos generales del modelo de regresion
Un distrito escolar reduce el tamaño de sus clases de educación
primaria: cuál es su efecto sobre las calificaciones de sus
estudiantes en los exámenes estandarizados?
I Esta pregunta versa sobre el efecto desconocido del cambio de
una variable X sobre otra variable Y
I Una repuesta cuantitativa: qué variación esperarı́a que
sucedies sobre las puntuaciones d elos examenes?
∆Calificaciones
β=
∆tamano
I Si conocemos el valor de β podemos dar respuesta a la
pregunta.
I Esta ecuacion es la definicion de la pendiente de una recta:
Calificaciones = β0 + β1 Tamano
1. Aspectos generales del modelo de regresion
Yi = β0 + β1 Xi + ui
βˆ0 = Ȳ − βˆ1 X̄
Pn
i=1 (Yi − Ȳ )(Xi − X̄ )
βˆ1 = Pn 2
i=1 (Xi − X̄ )
2.1 Derivación de los estimadores MCO
E (Yi |Xi ) = β0 + β1 Xi
I Término de error
ui = Yi − E (Yi |Xi )
I Término de residuo
ûi = Yi − Ŷi
3. Propiedades Numéricas de los estimadores MCO
1. La lı́nea de regresión muestral pasa por el par ordenado (X̄ , Ȳ )
Ȳ = βˆ0 + βˆ1 X̄
2. Si
Pnel modelo de regresión tiene término constante, entonces
i=1 ûi = 0
n
X n
X
ûi = (Yi − βˆ0 − βˆ1 Xi )
i=1 i=1
n
X n
X
= Yi − nβˆ0 − βˆ1 Xi
i=1 i=1
Xn n
X
= Yi − n(Ȳ − βˆ1 X̄ ) − βˆ1 Xi = 0
i=1 i=1
3. Propiedades Numéricas del estimador MCO
Pn
3. i=1 Xi ûi =0
n
X n
X
Xi ûi = Xi (Yi − βˆ0 − βˆ1 Xi )
i=1 i=1
n
X n
X
= Xi (Yi − Ȳ ) − βˆ1 (Xi − X̄ )Xi
i=1 i=1
n
X n
X
= xi yi − βˆ1 xi2
i=1 i=1
= 0
3. Propiedades Numéricas del estimador MCO
¯
4. Ȳ = Ŷ .
Partiendo de que Yi = Ŷi + ûi
n n
1X 1X
Ȳ = Ŷi + ûi
n n
i=1 i=1
n
1X
= Ŷi = Ŷ¯
n
i=1
Pn
5. i=1 Ŷi ûi =0
n
X n
X n
X n
X
Ŷi ûi = (βˆ0 + βˆ1 Xi )ûi = βˆ0 ûi + βˆ1 Xi ûi = 0
i=1 i=1 i=1 i=1
4. Suma de cuadrados
I La Suma Total al Cuadrado (STC) mide el tamaño de las
fluctuaciones experimentadas por la variable Y alrededor de
su valor medio Ȳ ,
X n
(Yi − Ȳ )2
i=1
I La Suma Explicada al Cuadrado (SEC) mide el tamaño de las
fluctuaciones experimentadas por la variable Ŷ alrededor de
su valor medio Ȳ ,
X n
(Ŷi − Ȳ )2
i=1
I La Suma Residual al Cuadrado (SRC) mide el error del
modelo en su intento de explicar la evolución de la variable Y ,
X n
ûi2
i=1
4.1 Descomposición de la suma de cuadrados
El valor de la variable dependiente para la observación i es
I X̄ es un estimador consistente de µX , si n → ∞
1 Pn 1 Pn
i=1 (Xi − X̄ )ui → n i=1 (Xi − µX )ui = v̄
I
n
I Por el primer supuesto v̄ = 0
I Por el segundo supuesto vi es iid, entonces
σv̄2 = n1 var ((Xi − µX )ui ) = n1 σv2
I Por el tercer supuesto la varianza es finita.
Por lo tanto,
√ v̄
n ∼ N(0, 1)
σv
5.2 Distribución ainstótica de β̂1
De acuerdo al Terorema del Lı́mite Central tenemos que,
√ v̄
n ∼ N(0, 1)
σv
Asi podemos derivar que
σv
v̄ ∼ N 0,
n
1
v̄ n σv
∼ N 0, 2 2
σX2 (σX )
1
v̄ σv
β1 + ∼ N β1 , n 2 2
σX2 (σX )
Es decir, 1 2
n σv
β̂1 ∼ N β1 ,
(σX2 )2
5.3 Estimación de var (β̂1 )
Cuando n es grande, la var (β̂1 ) es
σ2
= Pn u 2
i=1 xi
6.3 Distribucion de β̂1
I Se deduce que
σu2
β̂1 ∼ N β1 , P 2
xi
I Es decir, que el estimador β̂1 tiene una distribucion normal
condicioando a los valores de X1 , ..., Xn .
6.4 ¿Homocedasticidad o Heterocedasticidad? The bottom
line:
Cuando Xi = 1, Yi = β0 + β1 + ui
1. La media de Yi es β0 + β1
2. Es decir, E (Yi |Xi = 1) = β0 + β1
Entonces:
sȲsmall − Ȳlarge
Diferencias en medias:
r
= 657.4 - 650.0 = 7,4
2 2
ss s 19,42 17,92
Error Standard SE = + l = + = 1,8
ns nl 238 182
7.2 Resumen: regresion cuando Xi es binaria (0/1)
Yi = β0 + β1 X1 + u1
I β0 = el promedio de Y cuando X = 0
I β0 + β1 = promedio de Y cuando X = 1
I β1 = diferencia en el promedio de los grupos, X =1 menos X
=0
I SE(βˆ1 ) tiene la interpretacion usual.
I t-statistico, intervalos de confianza se construyen como es
usual.
8. Pruebas de Hipótesis
H0 : β1 = β1,0 vs H1 : β1 6= β1,0
I En general
estimador - valor de la hipotesis
t=
error estandar del estimador
I Para probar β1 ,
βˆ1 − β1,0
t=
SE (βˆ1 )
donde SE(βˆ1 ) = la raı́z cuadrada de la varianza para la
distribución muestral de βˆ1
8.1 Resumen: Para probar H0 : β1 = β1,0 v. H1 : β1 6= β1,0
I Construir el t-stadı́stico
SE (βˆ0 ) = 10,4
SE (βˆ1 ) = 0,52
I El t-statistic para la hipotesis H0 : β10 = 0, se calcula
Intervalo de confianza al 95 %
I Estimación:
1. Estimador por MCO βˆ0 y βˆ1
2. βˆ0 y βˆ1 tienen una distribución muestral aproximadamente
normal para muestras grandes.
I Pruebas:
1. H0 : β1 = β1,0 v. β1 6= β1,0 (β1,0 is the value of β1 under H0 )
2. t= (βˆ1 − β1,0 )/SE (βˆ1 )
3. p-value = área bajo la curva normal standard a partir de t act
(grande n)
I Intervalo de confianza:
1. Ijntervalo de confianza al 95 % para β1 : βˆ1 ±1,96xSE (βˆ1 )
2. Este es el conjunto de β1 que no es rechazao al 5 %.
3. El intervalo de confianza de 95 % contiene el verdadero valor
de β1 en el 95 % de todas las muestras.
8.6 Implicaciones prácticas
Yi = β0 + β1 Xi + ui
Y β0 Xi ui
p i = p + β1 p +p
h(Xi ) h(Xi ) h(Xi ) h(Xi )
Ỹi = β0 X̃0i + β1 X̃1i + ũi
9.1 MCP con heterocedasticidad conocida
I En stata se estimaria el siguiente modelo: regress Ỹi X̃0i X̃1i .
I La variable X̃0i toma el lugar del intercepto
I La varianza condicional del nuevo termino de error seria
ui var (ui |Xi )
var (ũi |Xi ) = var p |Xi = p
h(Xi ) h(Xi )
λh(Xi )
= =λ
h(Xi )
I Por lo que la varianza de los nuevos errores h(Xi ) es
homocedastica.
I Si los 4 primeros supuesto se cumplen, y siguiende el teorema
de Gauss Markov, la estimaciones MCO sobre el modelo
transformado serán MELI.
9.2 MCP con heterocedasticidad de forma funcional
conocida: MCP factibles