Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Miércoles 14 de noviembre
1
Predicción y
error estándar de la predicción
2
Predicción y
error estándar de la predicción
• Sabemos calcular el valor predicho de y.
• Simplemente reemplazamos por los valores:
3
Predicción y
error estándar de la predicción
• El valor predicho nos da una estimación de la
esperanza y, es decir, el valor promedio de y
en el grupo de la población que tiene las
mismas características.
4
Predicción y
error estándar de la predicción
• Si construimos un IC en base a esa
incertidumbre, estamos construyendo un IC
para el valor promedio de y.
6
Error estándar de la estimación
• E(y|x1=c1,…xk=ck) = q0 = b0+b1c1+ …+ bkck
7
Error estándar de una estimación
ˆ
1
2
se eˆ se yˆ
0 0 2 2
8
Intervalo de la predicción
0 0
𝑦 ± 𝑡.025 𝑠𝑒(𝑒 )
ˆ
1
2
se eˆ se yˆ
0 0 2 2
9
Ejemplo
(Wooldridge, 6.5)
10
Ejemplo
(Wooldridge, 6.5)
¿Cuál es el valor predicho para sat=1,200;
hsperc=30, hsize=5?
11
Intervalo de predicción
• Error estándar de la estimación:
Estimamos una regresión con nuevas
variables independientes:
12
Intervalo de predicción
• Error estándar de la estimación:
Estimamos una regresión con nuevas
variables independientes:
13
Intervalo de predicción
• Error estándar de la estimación: 0.02
• Variabilidad del error:
𝑉 𝑒 0 = 𝑉 𝑦 0 + 𝜎 2 = 0.022 + 0.562
𝑉 𝑒 0 = .314
𝑠𝑒 𝑒 0 = 0.314 = 0.56036
14
Intervalo de predicción
𝐼𝐶95% =
(2.70 − 1.96 ∗ 0.56036; 2.70 + 1.96 ∗ 0.56036)
𝐼𝐶95% =(1.60; 4.00)
15
Forma Funcional
• Asumimos que el modelo está bien
especificado: 𝐸 𝜇 𝑥 = 0
M2: 𝑦 = 𝛽0 + 𝛽1 ln x1 + 𝛽2 ln 𝑥2 + 𝜇
Otros tests: Davidson-MacKinnon
• Si M1 estuviera bien especificado, entonces los valores ajustados de
M2 no debieran aportar información – es decir, no debieran ser
estadísticamente significativos.
– Por lo tanto se estima:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛿𝑚2 𝑦𝑚2 + 𝑒𝑟𝑟𝑜𝑟
• Reordenando:
𝑦 = (𝛽0 +𝛽3 𝛿0 ) + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝛿1 𝑜3 + 𝛽3 𝜈3 + 𝜇
𝑦 = 𝛼0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛼3 𝑜3 + 𝜀
• Por ejemplo:
– Todos, excepto que:
𝑥3 = 𝛿0 + 𝛿1 𝑥1 + 𝛿2 𝑥2 + 𝛿3 𝑜3 + 𝜈3
Entonces:
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 (𝛿0 + 𝛿1 𝑥1 + 𝛿2 𝑥2 + 𝛿3 𝑜3 + 𝜈3 ) + 𝜇
y = b0 + b1x1 + (u – b1e1)
Errores de medición en la variable explicativa
• Estimamos
y = b0 + b1x1 + (u – b1e1)
• Asumimos:
– 𝐸(𝑒1 ) = 0
– 𝜇 no está correlacionado con 𝑥1 , por lo que
𝐸(𝑦|𝑛𝑥1, 𝑥1 ) =𝐸(𝑦|𝑛𝑥1 )
𝑦 = 𝛽0 + 𝛽1 𝑥1 + (𝜇 − 𝛽1 𝑒1 )
Demostración:
𝐶𝑜𝑣 𝑥1 , 𝑒1 = 𝐸 𝑥1 𝑒1 − 𝐸 𝑥1 𝐸(𝑒1 ) = 𝐸 𝑥1 𝑒1
= 𝐸 (𝑛𝑥1 + 𝑒1 )𝑒1 = 𝐸 𝑛𝑥1 𝑒1 + 𝐸 𝑒1 𝑒1
= 0 + 𝜎𝑒21 = 𝜎𝑒21
𝑦 = 𝛽0 + 𝛽1 𝑒𝑥1 − 𝑒1 + 𝜇
𝑦 = 𝛽0 + 𝛽1 𝑒𝑥1 + 𝜇 − 𝛽1 𝑒1
– De nuestros supuestos:𝐶𝑜𝑣 𝜇 − 𝛽1 𝑒1 , x1 = −𝛽1 𝜎𝑒21
– Estimadores sesgados
Errores de medición en la variable dependiente
• La variable explicativa incluida en la regresión está
correlacionada con el error de la regresión, por lo
que:
𝐶𝑜𝑣(𝑥1 ,𝜇−𝛽1 𝑒1 )
𝑝𝑙𝑖𝑚(𝛽1 ) = 𝛽1 +
𝑉(𝑥1 )
2
Donde 𝑉 𝑥1 = 𝑉 𝑛𝑥1 + 𝑒1 = 𝜎𝑛𝑥1
+ 𝜎𝑒21 + 2𝐶𝑜𝑣 𝑛𝑥1 , 𝑒1 = 𝜎𝑛𝑥
2
1
+ 𝜎𝑒21
𝛽1 𝜎𝑒21 𝜎𝑒21
𝑝𝑙𝑖𝑚(𝛽1 ) = 𝛽1 − 2 +𝜎 2 = 𝛽1 1 − 2 +𝜎 2
𝜎𝑛𝑥1 𝑒1 𝜎𝑛𝑥 1 𝑒1
2
𝜎𝑥𝑛 1
= 𝛽1 2 +𝜎 2
𝜎𝑛𝑥1 𝑒1