0% encontró este documento útil (0 votos)
27 vistas5 páginas

Parcial 1 Econometria Ii

Este documento presenta los resultados de un parcial de Econometría II realizado por estudiantes de la Facultad de Ciencias Económicas de la Universidad Santiago de Cali. El examen fue presentado a su docente Santiago Bonilla en septiembre de 2023.

Cargado por

romariosandfa
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
27 vistas5 páginas

Parcial 1 Econometria Ii

Este documento presenta los resultados de un parcial de Econometría II realizado por estudiantes de la Facultad de Ciencias Económicas de la Universidad Santiago de Cali. El examen fue presentado a su docente Santiago Bonilla en septiembre de 2023.

Cargado por

romariosandfa
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

UNIVERSIDAD SANTIAGO DE CALI.

FACULTAD DE CIENCIAS ECONOMICAS.

GRUPO E2B23.

ECONOMETRÍA II

PARCIAL I.

AUTORES:
ROMARIO SANDOVAL FAJARDO
NALLARY VILLEGAS

PRESENTADO A:
SANTIAGO BONILLA.
DOCENTE.

CALI COLOMBIA

SEPTIEMBRE DEL 2023.


Respuesta:
b) La matriz A presenta homocedasticidad, mientras que la matriz B presenta
heterocedasticidad y autocorrelación.

Respuesta:
Tenemos nuestro modelo original:
y= Xβ+ e

Supuestos del modelo clásico de regresión lineal:


 Que el valor esperado de ℮ es igual a 0
o E [ ℮i ] =0
 La varianza del término error debe ser igual σ 2 (constante)
Var [ e i ]=σ
2

2
Var [ e i ]=E[ ( e i−E [ e i ] ) ]
¿ E [ e i2 ]=σ 2
 No debe haber ninguna relación entre las variables explicativas y el error
E [ ℮i∨X ] =0
^β=( X ´ X )−1 X ´ Y  y= Xβ+ e
o E ¿ E=[ ( X ´ X )−1 X ´ ( Xβ +e ) ] E=[ ( X ´ X )−1 X ´ Xβ + ( X ´ X )−1 X ´ e ]
−1
E=β+ ( X ´ X ) X ´ e
o E ¿¿ E [β ]+ E [ ( X ´ X )¿ ¿−1 X ´ e ]¿¿ β + ( X ´ X )−1 E [ X ´ e ]¿ β + ( X ´ X )−1 X ¿ β

o Esta propiedad de que el valor esperado de beta:


o E ¿Se conoce como que el estimador de MCO es insesgado.
 Se necesita el supuesto de exogeneidad para que el estimador sea
insesgado

Var ¿
[ 2
]
Var [ e i ]=E ( ei− E [ ei ] ) =E (e i)

Var ¿¿ E [ ( β−β
^ ^
) ( β−β ) ]¿ E [ ( β + ( X ´ X )−1 X ´ e− β )( β+ ( X ´ X )−1 X ´ e−β ) ´ ]
¿ E [ ( ( X ´ X ) X ´ e )( ( X ´ X ) X ´ e ) ´ ]¿ E [ ( X ´ X ) X ´ e . e ´ X ( X ´ X ) ]
−1 −1 −1 −1

−1 −1 −1 2 −1
¿ ( X ´ X ) XE [e . e ´ ] X ( X ´ X ) ¿¿ ( X ´ X ) X ´ σ InX ( X ´ X )
2 −1 −1
¿ σ ( X ´ X ) X ´ X ( X ´ X ) Var ¿

Respuesta:

1. El modelo de regresión lineal generalizado se expresa como 𝑌 = 𝑋𝛽 + 𝑒

2. El estimador de MCO para 𝛽 se calcula como: 𝛽̂ = (𝑋'𝑋)^(-1)𝑋'𝑌, donde '


denota la transposición.

3. Para encontrar la matriz de varianza-covarianza de 𝛽̂, usa la fórmula:

𝑉𝑎𝑟[𝛽̂] = 𝜎^2(𝑋'𝑋)^(-1), donde 𝜎^2 es la varianza del error 𝑒.

4. Dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺, podemos escribir 𝜎^2 = 𝑐.

5. Entonces, la matriz de varianza-covarianza de 𝛽̂ es: 𝑉𝑎𝑟[𝛽̂] = 𝑐(𝑋'𝑋)^(-1).


Respuesta:

1. Modelo original: 𝑦 = 𝑋𝛽 + 𝑒, donde 𝐸[𝑒] = 0 y 𝑉𝑎𝑟[𝑒] = 𝑐𝛺.

2. Aplicamos la matriz de transformación 𝑃 al modelo original y nos da el


modelo transformado: 𝑦∗ = 𝑋∗𝛽 + 𝑒∗, donde 𝑋∗ = 𝑃𝑋 y 𝑒∗ = 𝑃𝑒.

3. Dado que 𝑃′𝑃 = 𝛺⁻¹, podemos multiplicar ambos lados de la ecuación por 𝛺
desde la izquierda para obtener 𝛺𝑃′𝑃 = 𝐼, donde 𝐼 es la matriz identidad de
dimensiones 𝑇 × 𝑇.

4. Multiplicamos ambos lados de la ecuación original

𝑦 = 𝑋𝛽 + 𝑒 por 𝑃 desde la izquierda: 𝑃𝑦 = 𝑃𝑋𝛽 + 𝑃𝑒.

Tomamos el valor esperado de ambos lados de la ecuación: 𝐸[𝑃𝑦] = 𝐸[𝑃𝑋𝛽] + 𝐸[𝑃𝑒].


𝐸[𝑒] = 0, el último término se reduce a 𝐸[𝑃𝑒] = 0.

Entonces, tenemos 𝑃𝐸[𝑦] = 𝑃𝑋𝐸[𝛽].

Dado que 𝐸[𝑦] = 𝑋𝛽 (del modelo original), podemos sustituir esto en la ecuación:
𝑃(X𝛽) = 𝑃𝑋𝐸[𝛽].

Finalmente, obtenemos la relación 𝑃(X𝛽) = 𝑃𝑋𝐸[𝛽].

Para la varianza de 𝑒∗, dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺, podemos usar la propiedad de que la
varianza se transforma de la siguiente manera: 𝑉𝑎𝑟[𝑃𝑒] = 𝑃𝑉𝑎𝑟[𝑒]𝑃′.

Dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺 y 𝑃′𝑃 = 𝛺⁻¹, obtenemos: 𝑉𝑎𝑟[𝑃𝑒] = 𝑐𝛺⁻¹𝑃′.

la varianza de 𝑒∗ es 𝑉𝑎𝑟[𝑒∗] = 𝑐𝛺⁻¹𝑃′.

También podría gustarte