Pavon Daysi Resumen Clase 2

También podría gustarte

Está en la página 1de 8

UNIVERSIDAD TÉCNICA DEL NORTE

FACULTAD DE CIENCIAS ADMINISTRATIVAS Y


ECONÓMICAS
CARRERA DE ECONOMÍA
ECONOMETRÍA II

RESUMEN SESIÓN 1 ´´Teoría de la regresión lineal con


regresor único´´ y CLASE #2

Nombre: Daysi Pavón


Curso: Sexto semestre
Fecha: 10-02-2021

Docente: Eco. Francisco Rosales

Ibarra, 2021
Los supuestos ampliados de mínimos cuadrados y el estimador MCO

Recta de regresión poblacional:

𝒀𝒊 = 𝜷𝒊 + 𝜷𝒊 𝑿𝒊 + 𝒖𝒊
Los supuestos ampliados se
hacen más fuertes, generando Donde i = 1…n
mejores resultados en MCO.

1 2 3 4 5

𝐸(𝑢𝑖 /𝑋𝑖 ) = 0 Los datos atípicos ui es homocedástico


(Xi, YI), i = 1..n Normalidad
´´grandes´´ son con Var (ui/Xi) = σ2u
son independientes e condicional de ui con
improbables.
idénticamente i = 1..n Donde σ2u es media igual a 0 y
distribuidas. constante. varianza constante.

La varianza Implicaciones:
condicional del error
1.- ui ⁓ N(0, σu2),
es igual a la varianza
IMPORTANTE condicional de la dónde ui tiene
variable dependiente.
*Los estimadores MCO son insesgados, inconsistentes, distribución normal.
tienen distribución asintóticamente normal, posee
Y es i.i.d
contrastes de hipótesis e intervalos de confianza
justificados.
2.- ui y Xi son
*MCO es el mejor estimador lineal insesgado (MELI) independientemente
*MCO tiene una distribución condicional muestral distribuidas.
exacta normal y el estadístico t es válido solo en
homocedasticidad.

La convergencia en probabilidad y la ley de los grandes números

Si el tamaño muestral es grande, los resultados asintóticos son muy buena aproximación.

S1 , S2 , S3 son una secuencia de variables aleatorias.


En la ley de grandes números la media converge en
Sn -->p S cuando n -> ∞
probabilidad a la esperanza de cualquier variable
Prob ( │Sn - S│> ẟ ) -> 0 cuando n -> ∞ independiente, estas variables son idénticamente
distribuidas
Y1 , Y2 , Y3123234
es una muestra
La media muestral converge a la probabilidad de la
1
𝑌̅ = ∑𝑛𝐼=1 𝑌𝑖 media poblacional.
𝑛
La convergencia en distribución y el Teorema central del limite

S1 , S2 ------ Sn es una sucesión de variables aleatorias


F1(x) F2(x) ----- Fn(x) función de distribución
Sn -->d S cuando n --> ∞ , F(x) es continua
Por tanto, esta secuencia converge en distribución a la variable aleatoria si Fn(x) → F(x) cuando n -> ∞ para
cualquier X y F se denomina distribución asintótica de Sn.

En el teorema central del límite temenos


que E(𝑌̅I ) = uy y la Var (Yi) = σy2 son Var = 1
constantes. Además Var (Yi) = σy2 / n y dS = 1
afecta a la media muestral.

𝑌̅−𝐸(𝑌̅) ̅ −𝑈
𝑋
es igual a 𝑧=
√𝑉𝑎𝑟(𝑌̅) 𝜎
-1σ ui 1σ 2σ 3σ
Tienen distribución aleatoria normal de 0,1 -3σ -2σ
N(0,1) tiene distribución normal
𝐸(𝑋̅ ) = 𝑢 esto se cumple con una muestra
formada por variables aleatorias
independientemente distribuidas.

√𝑛(𝑌̅−𝑢𝑦 )
En el TCL nos dice que ->d N(0,1) reemplazando la esperanza y la varianza.
(𝜎𝑌 )

La ley de grandes números y el teorema central del límite son herramientas importantes en la teoría
asintótica.

Si 𝑎𝑛 →𝑝 𝑎
En el Teorema de Slutsky se combina la donde 𝑎 es una constante y 𝑆𝑛 → 𝑑 S
convergencia en probabilidad y
distribución 𝑎𝑛 + 𝑆𝑛 → 𝑑 𝑎 + 𝑆, 𝑎𝑛𝑆𝑛 → 𝑑 𝑎𝑆 y, si 𝑎 ≠ 0,
𝑆𝑛/𝑎𝑛 → 𝑑 𝑆/ 𝑎

Si 𝑆𝑛 → 𝑝 𝑎, entonces 𝑔(𝑆𝑛) → 𝑝 𝑔(𝑎)


En el Teorema de función continua
g(x) es la función continua. Si 𝑆𝑛 → 𝑑 𝑆, entonces 𝑔(𝑆𝑛) → 𝑑 𝑔(𝑆)
Estadístico t con 𝑯𝟎: 𝐄 𝒀𝒊 = 𝝁0

𝑌− 𝑢0 √𝑛(𝑌− 𝑢0 ) 𝜎𝑦
𝑡 = 𝑆𝑦 =
⁄ 𝜎𝑦 𝑆𝑦
√𝑛

Resultado Conclusión

Bajo 𝐻0: √𝑛(𝑌 − μ0) → 𝑑 𝑁 (0,1) 𝑡 → 𝑑 𝑁 (0,1)

S 𝑌 2 → 𝑝 σ𝑌 2

Consistencia de los errores estándar heterocedástico-robustos

̂1
Recordemos estimador de la varianza de β

RESULTADO

DEMOSTRACIÓN

se basa en :
El resultado más delicado es del segundo y tenemos que:

Normalidad asintótica del estadístico t heterocedástico-robusto

Estadístico de contraste para 𝐻0: 𝛽1 = 𝛽1,0

Distribución exacta del estadístico t válido solo bajo homocedasticidad

Donde

𝑊 se distribuye de forma independiente del estimador MCO estandarizado


MCP con heterocedasticidad conocida y de forma funcional conocida

FORMA CONOCIDA

Modelo

Yi= β0 + β1Xi+ ui , i = 1,…, n En este caso MCP es


Modelo transformado MCO

FORMA FUNCIONAL CONOCIDA

En general ℎ es una función desconocida, pero si la forma funcional es conocida puede


ser estimada.
Si los estimadores de 𝜃0, 𝜃1 son consistentes, el MCP factible tiene la misma
distribución asintótica que el MCP infactible (con 𝜃0, 𝜃1 conocidos), por lo que es el
mejor estimador lineal insesgado asintóticamente.

¿Errores estándar heterocedástico-robustos o MCP?

La ventaja es que la inferencia


asintóticamente válida, aunque
no se conozca la forma de la
varianza condicional. Fáciles de
calcular.
La desventaja es que MCO
MCP mayor varianza que el MCP
Estas son las dos formas
de actuar en presencia de
La ventaja en MCP: más heterocedasticidad Errores estándar heterocedástico-
eficiente que el MCO (al
robustos
menos asintóticamente).
La desventaja es que se
requiere conocer la forma
funcional de la varianza
condicional.
BIBLIOGRAFÍA

Hualde, J. (2021). SESIÓN I: Teoría de la regresión lineal con regresor único. CAF.

También podría gustarte