UNIVERSIDAD SANTIAGO DE CALI.
FACULTAD DE CIENCIAS ECONOMICAS.
GRUPO E2B23.
ECONOMETRÍA II
PARCIAL I.
AUTORES:
ROMARIO SANDOVAL FAJARDO
NALLARY VILLEGAS
PRESENTADO A:
SANTIAGO BONILLA.
DOCENTE.
CALI COLOMBIA
SEPTIEMBRE DEL 2023.
Respuesta:
b) La matriz A presenta homocedasticidad, mientras que la matriz B presenta
heterocedasticidad y autocorrelación.
Respuesta:
Tenemos nuestro modelo original:
y= Xβ+ e
Supuestos del modelo clásico de regresión lineal:
Que el valor esperado de ℮ es igual a 0
o E [ ℮i ] =0
La varianza del término error debe ser igual σ 2 (constante)
Var [ e i ]=σ
2
2
Var [ e i ]=E[ ( e i−E [ e i ] ) ]
¿ E [ e i2 ]=σ 2
No debe haber ninguna relación entre las variables explicativas y el error
E [ ℮i∨X ] =0
^β=( X ´ X )−1 X ´ Y y= Xβ+ e
o E ¿ E=[ ( X ´ X )−1 X ´ ( Xβ +e ) ] E=[ ( X ´ X )−1 X ´ Xβ + ( X ´ X )−1 X ´ e ]
−1
E=β+ ( X ´ X ) X ´ e
o E ¿¿ E [β ]+ E [ ( X ´ X )¿ ¿−1 X ´ e ]¿¿ β + ( X ´ X )−1 E [ X ´ e ]¿ β + ( X ´ X )−1 X ¿ β
o Esta propiedad de que el valor esperado de beta:
o E ¿Se conoce como que el estimador de MCO es insesgado.
Se necesita el supuesto de exogeneidad para que el estimador sea
insesgado
Var ¿
[ 2
]
Var [ e i ]=E ( ei− E [ ei ] ) =E (e i)
Var ¿¿ E [ ( β−β
^ ^
) ( β−β ) ]¿ E [ ( β + ( X ´ X )−1 X ´ e− β )( β+ ( X ´ X )−1 X ´ e−β ) ´ ]
¿ E [ ( ( X ´ X ) X ´ e )( ( X ´ X ) X ´ e ) ´ ]¿ E [ ( X ´ X ) X ´ e . e ´ X ( X ´ X ) ]
−1 −1 −1 −1
−1 −1 −1 2 −1
¿ ( X ´ X ) XE [e . e ´ ] X ( X ´ X ) ¿¿ ( X ´ X ) X ´ σ InX ( X ´ X )
2 −1 −1
¿ σ ( X ´ X ) X ´ X ( X ´ X ) Var ¿
Respuesta:
1. El modelo de regresión lineal generalizado se expresa como 𝑌 = 𝑋𝛽 + 𝑒
2. El estimador de MCO para 𝛽 se calcula como: 𝛽̂ = (𝑋'𝑋)^(-1)𝑋'𝑌, donde '
denota la transposición.
3. Para encontrar la matriz de varianza-covarianza de 𝛽̂, usa la fórmula:
𝑉𝑎𝑟[𝛽̂] = 𝜎^2(𝑋'𝑋)^(-1), donde 𝜎^2 es la varianza del error 𝑒.
4. Dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺, podemos escribir 𝜎^2 = 𝑐.
5. Entonces, la matriz de varianza-covarianza de 𝛽̂ es: 𝑉𝑎𝑟[𝛽̂] = 𝑐(𝑋'𝑋)^(-1).
Respuesta:
1. Modelo original: 𝑦 = 𝑋𝛽 + 𝑒, donde 𝐸[𝑒] = 0 y 𝑉𝑎𝑟[𝑒] = 𝑐𝛺.
2. Aplicamos la matriz de transformación 𝑃 al modelo original y nos da el
modelo transformado: 𝑦∗ = 𝑋∗𝛽 + 𝑒∗, donde 𝑋∗ = 𝑃𝑋 y 𝑒∗ = 𝑃𝑒.
3. Dado que 𝑃′𝑃 = 𝛺⁻¹, podemos multiplicar ambos lados de la ecuación por 𝛺
desde la izquierda para obtener 𝛺𝑃′𝑃 = 𝐼, donde 𝐼 es la matriz identidad de
dimensiones 𝑇 × 𝑇.
4. Multiplicamos ambos lados de la ecuación original
𝑦 = 𝑋𝛽 + 𝑒 por 𝑃 desde la izquierda: 𝑃𝑦 = 𝑃𝑋𝛽 + 𝑃𝑒.
Tomamos el valor esperado de ambos lados de la ecuación: 𝐸[𝑃𝑦] = 𝐸[𝑃𝑋𝛽] + 𝐸[𝑃𝑒].
𝐸[𝑒] = 0, el último término se reduce a 𝐸[𝑃𝑒] = 0.
Entonces, tenemos 𝑃𝐸[𝑦] = 𝑃𝑋𝐸[𝛽].
Dado que 𝐸[𝑦] = 𝑋𝛽 (del modelo original), podemos sustituir esto en la ecuación:
𝑃(X𝛽) = 𝑃𝑋𝐸[𝛽].
Finalmente, obtenemos la relación 𝑃(X𝛽) = 𝑃𝑋𝐸[𝛽].
Para la varianza de 𝑒∗, dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺, podemos usar la propiedad de que la
varianza se transforma de la siguiente manera: 𝑉𝑎𝑟[𝑃𝑒] = 𝑃𝑉𝑎𝑟[𝑒]𝑃′.
Dado que 𝑉𝑎𝑟[𝑒] = 𝑐𝛺 y 𝑃′𝑃 = 𝛺⁻¹, obtenemos: 𝑉𝑎𝑟[𝑃𝑒] = 𝑐𝛺⁻¹𝑃′.
la varianza de 𝑒∗ es 𝑉𝑎𝑟[𝑒∗] = 𝑐𝛺⁻¹𝑃′.