Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Pavon Daysi Resumen Clase 2
Pavon Daysi Resumen Clase 2
Pavon Daysi Resumen Clase 2
Ibarra, 2021
Los supuestos ampliados de mínimos cuadrados y el estimador MCO
𝒀𝒊 = 𝜷𝒊 + 𝜷𝒊 𝑿𝒊 + 𝒖𝒊
Los supuestos ampliados se
hacen más fuertes, generando Donde i = 1…n
mejores resultados en MCO.
1 2 3 4 5
La varianza Implicaciones:
condicional del error
1.- ui ⁓ N(0, σu2),
es igual a la varianza
IMPORTANTE condicional de la dónde ui tiene
variable dependiente.
*Los estimadores MCO son insesgados, inconsistentes, distribución normal.
tienen distribución asintóticamente normal, posee
Y es i.i.d
contrastes de hipótesis e intervalos de confianza
justificados.
2.- ui y Xi son
*MCO es el mejor estimador lineal insesgado (MELI) independientemente
*MCO tiene una distribución condicional muestral distribuidas.
exacta normal y el estadístico t es válido solo en
homocedasticidad.
Si el tamaño muestral es grande, los resultados asintóticos son muy buena aproximación.
𝑌̅−𝐸(𝑌̅) ̅ −𝑈
𝑋
es igual a 𝑧=
√𝑉𝑎𝑟(𝑌̅) 𝜎
-1σ ui 1σ 2σ 3σ
Tienen distribución aleatoria normal de 0,1 -3σ -2σ
N(0,1) tiene distribución normal
𝐸(𝑋̅ ) = 𝑢 esto se cumple con una muestra
formada por variables aleatorias
independientemente distribuidas.
√𝑛(𝑌̅−𝑢𝑦 )
En el TCL nos dice que ->d N(0,1) reemplazando la esperanza y la varianza.
(𝜎𝑌 )
La ley de grandes números y el teorema central del límite son herramientas importantes en la teoría
asintótica.
Si 𝑎𝑛 →𝑝 𝑎
En el Teorema de Slutsky se combina la donde 𝑎 es una constante y 𝑆𝑛 → 𝑑 S
convergencia en probabilidad y
distribución 𝑎𝑛 + 𝑆𝑛 → 𝑑 𝑎 + 𝑆, 𝑎𝑛𝑆𝑛 → 𝑑 𝑎𝑆 y, si 𝑎 ≠ 0,
𝑆𝑛/𝑎𝑛 → 𝑑 𝑆/ 𝑎
𝑌− 𝑢0 √𝑛(𝑌− 𝑢0 ) 𝜎𝑦
𝑡 = 𝑆𝑦 =
⁄ 𝜎𝑦 𝑆𝑦
√𝑛
Resultado Conclusión
S 𝑌 2 → 𝑝 σ𝑌 2
̂1
Recordemos estimador de la varianza de β
RESULTADO
DEMOSTRACIÓN
se basa en :
El resultado más delicado es del segundo y tenemos que:
Donde
FORMA CONOCIDA
Modelo
Hualde, J. (2021). SESIÓN I: Teoría de la regresión lineal con regresor único. CAF.