Está en la página 1de 11

Grado en Economía 2022-2023 1

Tema 4: Propiedades e hipótesis básicas


del modelo de regresión lineal.

eCONOMETRÍAI 4.1 Hipótesis estadísticas en el MRL.


4.2 Propiedades probabilísticas de los estimadores MCO.
4.3 Distribución del regresando y los estimadores MCO.
Profesor:
Marko Petrovic 4.4 Estimación máximo-verosímil del modelo lineal simple y propiedades de los

Correo electrónico: marko.petrovic@uv.es estimadores MV.


Despacho: 3C01

Tutorías: miércoles 10.30-12.00


miércoles 16.00-17.30

online 2

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.


4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.

Los supuestos de Gauss-Markov


• En el análisis de regresión, el objetivo es no sólo obtener 𝛽መ1 y 𝛽መ2 ,
sino también inferir los verdaderos 𝛽1 y 𝛽2 1. Linealidad en los parámetros
• Por ejemplo, si quisiéramos saber: 2. Valores fijos de X o valores de X independientes INSESGADEZ
• cuán cerca están 𝛽መ1 y 𝛽መ2 de sus contrapartes en la población del término de error y muestreo aleatorio
ˆ )=
E( j j
• o cuán cerca está 𝑌෠𝑖 de la verdadera E(Y | 𝑋𝑖 ) 3. Media condicionada cero

• Para esto no sólo se debe especificar la forma funcional del modelo, 4. No hay colinealidad perfecta
sino también hacer ciertos supuestos sobre la forma como se genera
𝑌𝑖 . Pero como 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑢𝑖 , no hay manera de hacer alguna
inferencia estadística sobre 𝑌𝑖 , ni tampoco, sobre 𝛽1 y 𝛽2 , sin EFICIENCIA
especificar la forma como se crean o generan 𝑋𝑖 , 𝑢𝑖 . ˆ)
MIN→ var(
5. Homoscedasticidad j

• Así, los supuestos sobre la(s) variable(s) 𝑋𝑖 y el término de error


son relevantes para lograr una interpretación válida de los valores
estimados de la regresión.
3 4
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.
4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.

[1] Linealidad en los parámetros [2] Valores fijos de X o valores de X independientes del
término de error y muestreo aleatorio
La relación entre el regresando, regresor y perturbación aleatoria es lineal
en los parámetros Los valores que toma la regresora X pueden considerarse fijos en muestras repetidas, o
Lineal No lineal haber sido muestreados de manera aleatoria o estocástica junto con la variable
dependiente Y.
ln 𝑌 = 𝛽1 + 𝛽2 ln(𝑋) + 𝑢 𝑌 = 𝛽1 + ln(𝛽2 )𝑋 + 𝑢
2
Y= 𝛽1 + 𝛽2 𝑋 + 𝑢

Recuerde que la regresada Y y la regresora X pueden no ser lineales.

Otras hipótesis asumidas sobre los parámetros:


• Los parámetros β son fijos
Tabla 1. Fuente: Gujarati, D. y Porter D.C. (2010) Econometría (5ª Figura 1. Fuente: Gujarati, D. y Porter D.C. (2010)
Edición). McGraw-Hill Econometría (5ª Edición). McGraw-Hill.

Por ejemplo, un agricultor puede dividir su tierra en varias parcelas y aplicarles


diferentes cantidades de fertilizante para ver el efecto en el rendimiento del
5 cultivo. 6

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.


4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.
[3] Media condicionada cero
[2] Valores fijos de X o valores de X independientes del
Dado el valor de 𝑋𝑖 , la media o el valor esperado del término de perturbación
término de error y muestreo aleatorio aleatoria 𝑢𝑖 es cero. En una muestra aleatoria, este supuesto implica que
En el segundo caso, si X habían sido muestreados de manera aleatoria junto con la E[𝑢𝑖 | 𝑋1𝑖, 𝑋2𝑖, , … , 𝑋k𝑖, ] = 0, para toda i = 1, 2, …, n.
variable dependiente Y, se supone que la(s) variable(s) X y el término de error son
independientes, esto es, cov(𝑋2𝑖 , 𝑢𝑖 ) = cov(𝑋3𝑖 , 𝑢𝑖 ) = . . . = cov(𝑋𝑘𝑖 , 𝑢𝑖 ) = 0. Si X no es estocástica E[𝑢𝑖 ] = 0, para toda i = 1, 2, …, n.
Muestreo aleatorio • Siempre y cuando incluyamos una constante en la especificación (𝛽1 ),
podemos normalizar E(u) a 0. Supongamos que 𝐸 𝑢 = 𝛼1 ,
Obtenemos de la población una muestra aleatoria de n observaciones:
(x1i , x2 i , , xki , yi ) : i = 1,2, , n. 𝑌
𝑌
= 𝛽1 + 𝛽2 𝑋 + 𝑢
= 𝛽1 + 𝛽2 𝑋 + 𝑢 − 𝛼1 + 𝛼1
Para una observación extraída aleatoriamente de la población tenemos: 𝑌 = (𝛽1 + 𝛼1 ) + 𝛽2 𝑋 + (𝑢 − 𝛼1 )
𝑌 = 𝜆1 + 𝛽2 𝑋 +e
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2𝑖 + 𝛽2 𝑥3𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖
con 𝐸 𝑒 = 𝐸 𝑢 − 𝛼1 =
Otras hipótesis asumidas:
𝐸 𝑢 − 𝐸 𝛼1 = 𝛼1 − 𝛼1 = 0
• El número de observaciones, N, debe ser igual o mayor que el número de regresores
(si fuera menor, el rango sería N<K y no podríamos estimar los parámetros por falta
de observaciones).
• Debe haber variación en los valores de las variables X.
7 Figura 2. Fuente: Gujarati, D. y Porter D.C. (2010) 8
• Las variables están medidas sin errores Econometría (5ª Edición). McGraw-Hill.
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.
4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.
[3] Media condicionada cero [4] No hay colinealidad perfecta
La situación de que las 𝑋𝑖 sean fijas en muestras repetidas no es muy realista en los En la muestra (y, por tanto, en la población), ninguna de las variables explicativas es
contextos no experimentales. constante, y no existen relaciones lineales exactas entre las variables explicativas.
𝑖𝑛𝑐
𝑐𝑜𝑛𝑠 = 𝛽0 + 𝛽1 𝑖𝑛𝑐 + 𝛽2 +𝑢
No obstante, una vez que se supone que E(u|X) = 0, y que se tiene un muestreo 100
aleatorio, no cambia nada en los cálculos estadísticos al tratar a las 𝑋𝑖 como no log 𝑐𝑜𝑛𝑠 = 𝛽0 + 𝛽1 log 𝑖𝑛𝑐 + 𝛽2 log 𝑖𝑛𝑐 2 + 𝑢 → log 𝑖𝑛𝑐 = 2 log 𝑖𝑛𝑐
aleatorias (como fijas en muestras repetidas).

Cunado se cumple el supuesto de media condicionada cero el modelo de regresión 𝑝𝑟𝑖𝑐𝑒 = 𝛽0 + 𝛽1 𝑏𝑒𝑑𝑟𝑜𝑜𝑚𝑠 + 𝛽2 𝑎𝑟𝑒𝑎 + 𝛽4 𝑙𝑎𝑛𝑑 + 𝛽5 𝑡𝑜𝑡𝑎𝑙 + 𝑢
está especificado correctamente. AREA + LAND = TOTAL

Ejemplos del error de especificación serían:


• omitir variables explicativas importantes, 𝑐𝑜𝑛𝑠 = 𝛽0 + 𝛽1 𝑖𝑛𝑐 + 𝛽2 𝑖𝑛𝑐 2 + 𝑢
• incluso las variables innecesarias, o
• elegir una forma funcional equivocada de la relación entre las variables Y y X.
Cunado los regresores son linealmente independientes entre sí, la matriz de
Observe que si la media condicional de una variable aleatoria, dada otra variable regresores tiene rango k: r(X) = k.
aleatoria, es cero, la covarianza entre las dos variables es cero y, por tanto, las dos Si no se cumple y r(X)<k, entonces X'X sería singular y no podríamos calcular
variables no están correlacionadas. Sin embargo, lo contrario no es válido. su inversa (Multicolinealidad PERFECTA). No podríamos obtener los
9 10
estimadores de los parámetros

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.


4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.
[5] Homoscedasticidad [5] Homoscedasticidad
• Las perturbaciones aleatorias son homoscedásticas: Var[ui| 𝑋1i, 𝑋2i, , … , 𝑋ki, ] = 𝜎2
Homoscedasticidad vs. Heteroscedasticidad
• La varianza de la perturbación aleatoria es constante e independiente de las
variables predeterminadas o del número de observaciones.
• La variabilidad en torno a la línea de regresión es la misma en toda la muestra de x
(no aumenta o disminuye cuando x varía)
• Si no se cumple, la perturbación aleatoria será heteroscedástica: Var[ui| 𝑋i ] = 𝜎i2
Densidad f(wage|educ)
Densidad f(y|x)

𝐸 𝑤𝑎𝑔𝑒 𝑒𝑑𝑢𝑐 = 𝛽y
1 + 𝛽2 𝑒𝑑𝑢𝑐

y wage

8
12
x1 16
x2
x3 𝐸 𝑦 𝑥 = 𝛽1 + 𝛽2 𝑥 educ
Heteroscedasticidad
Homoscedasticidad x
11 12
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.
4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.1. Hipótesis Estadísticas (Básicas) en el MRL.
Otras hipótesis asumidas sobre la perturbación aleatoria: Sobre la perturbación aleatoria

Las perturbaciones aleatorias correspondientes a distintas observaciones son Notación Matricial Interpretación
independientes entre sí (no autocorrelación): cov(ui, uj) = E(ui uj )=0 𝑖 ≠ 𝑗 𝐸(𝒖)=0 La perturbación tiene media 0
• Las perturbaciones correspondientes a diferentes individuos o momentos del tiempo no
están correlacionadas entre sí. Var-cov 𝑢 = 𝐸 𝒖𝒖′ = 𝜎 2 𝑰 La varianza de las perturbaciones es
El vector de perturbaciones aleatorias u tiene una distribución normal multivariante. donde I es una matriz de identidad CONSTANTE y NO
AUTOCORRELACIONADA.
• Dado que el conjunto amplio de variables omitidas que suponemos que están detrás nxn
de la perturbación aleatoria son independientes entre sí, por el Teorema Central del
Límite se puede suponer que el vector de perturbaciones aleatorias tiene una
distribución normal multivariante.
• Si u se distribuye normalmente, también lo harán los coeficientes estimados de
regresión. Cov[u,x]=E[X’u]=0 Las explicativas no están relacionadas
con el término de perturbación.
𝑢𝑖 ~𝑁 0, 𝜎 2

El vector u tiene una distribución Nos permite hacer INFERENCIA.


normal multivariada, 𝒖~𝑁(0, 𝜎 2 𝑰)

13 14

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.


4.1. Hipótesis Estadísticas (Básicas) en el MRL. 4.2. Propiedades Probabilísticas de los estimadores MCO.
Resumen
El cumplimiento de estas hipótesis básicas nos permite establecer las
Hipótesis para la Hipótesis para la perturbación Hipótesis sobre los propiedades de los estimadores mínimos cuadrados ordinarios, que serán
forma funcional aleatoria regresores
lineales, insesgados y óptimos (o eficientes), es decir, los mejores estimadores
El model es lineal: E[𝑢𝑖 ]=0 X no estocástica (fija) o lineales insesgados. (ELIO).
Y=X+u E[𝑢𝑖 | 𝑋𝑖 ] = 0 independientes del
término de error
Var(ui)=𝜎 2 para todo i La matriz X (de orden
1. Linealidad:
(Homocedasticidad) Nxk) tiene rango k. ˆ = ( X ' X ) −1 X 'Y
Cov(ui, us)=0 per todo i,s (No Que implica: El estimador es lineal en Y.
autocorrelació) a) N>k;
Hipótesis sobre  b) las columnas de X
son linealmente
independientes.
c) hay variación de X
Los  son fijos En resumen, u~ N(0, 𝜎 2 I) Los regresores no tienen
errores de medida.

15 16
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.
4.2. Propiedades Probabilísticas de los estimadores MCO. 4.2. Propiedades Probabilísticas de los estimadores MCO.

2. Insesgado (Teorema 1, empleando los supuestos 1 a 4)


3. Varianza mínima (Teorema 2, bajo los supuestos 1 a 5):
E[ b̂ ] = b Recuerda: 𝒚 = 𝑿𝜷 + 𝒖
Porque las X son fijas o
Porque las X son fijas o Media condicionada cero
Media condicionada cero

= s u2 ( X' X) ( X`X) ( X' X) = s u2 ( X' X)


-1 -1 -1

Constante

Se puede demostrar que los estimadores MCO tienen la varianza menor de


todos los estimadores lineales e insesgados, por eso se dice que tienen varianza
mínima. Esta propiedad se conoce como el Teorema 2 de Gauss-Markov. Así,
los estimadores de mínimos cuadrados ordinarios serán lineales, insesgados y
óptimos, es decir, los mejores estimadores lineales insesgados. (ELIO).
17 18

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.


4.2. Propiedades Probabilísticas de los estimadores MCO. 4.3. Distribución de la variable dependiente y de los estimadores
MCO.

Varianza de los estimadores Distribución de la variable Dependiente. Esta variable, como depende de una
variable aleatoria, también es aleatoria con una distribución que se caracteriza a
continuación:
MRLS MRLM Suponemos u~ N(0, 𝜎 2 I). Como y es una función lineal de u → y ~ N

Media:
E(y)=E[Xb+u]=Xb+E(u)=Xb

𝑅𝑗2 es la R cuadrada de regresión de 𝑋𝑗 sobre E(u)=0


todas las otras variables independientes (e
incluyendo un intercepto). Matriz de varianzas-covarianzas:
Var-cov(y) = E[(y-E(y))(y-E(y))’] = E[(y- Xb) (y- Xb)’] = E[uu’]=𝜎 2 I.
Dada la hips. a) 5.

𝒚~𝑁 𝑿𝜷, 𝜎 2 𝑰
19 20
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.
4.3. Distribución de la variable dependiente y de los estimadores MCO.
4.3. Distribución de la variable dependiente y de los estimadores MCO.

Distribución de los estimadores MCO: Distribución de los estimadores MCO:


Dado que no conocemos el valor de la varianza de la perturbación,  u tenemos
2
El análisis de las propiedades probabilísticas de los estimadores ha
requerido que obtengamos su media y varianza: que estimarlo para obtener la varianza del estimador MCO.


E ˆ =  
var − cov ˆ =  u2 ( X ' X ) −1 Teniendo en cuenta que: ෝ =𝒚−𝒚
𝒖 ෡ − 𝑿𝜷)
ෝ = 𝒖 − (𝑿𝜷

Además, el estimador también depende de la perturbación: ෡ − 𝑿𝜷) tiene un valor esperado que es igual a
Como la diferencia entre ellos (𝑿𝜷
cero, uno podría utilizar como estimador de la varianza de las perturbaciones la
෡ = (𝑿′ 𝑿)−1 𝑿′ 𝒚 = (𝑿′𝑿)−1 𝑿′(𝑿𝜷 + 𝒖)
𝜷 expresión:
෡ = 𝜷 + (𝑿′𝑿)−1 𝑿′𝒖
𝜷 u ~ N(0, 𝜎 2 I) û' û
sˆ u2 =
N
Es decir, los estimadores MCO son una función lineal de u y, por tanto, Pero sería un estimador sesgado porque no tiene en cuenta las dos siguientes
se distribuyen como una Normal: condiciones:
ˆ ~ N (  ,  u2 ( X ' X ) −1 )  uˆ X
i i =0
21 22

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.

4.3. Distribución de la variable dependiente y de los estimadores MCO. 4.3. Distribución de la variable dependiente y de los estimadores MCO.
Distribución de los estimadores MCO: Estimación de la varianza
Distribución de los estimadores MCO: ෡ = 𝑿′ 𝑿
Recuerda 𝜷 −𝟏
𝑿𝒚′ de las perturbaciones
Consideremos la suma de cuadrados de los residuos:
Pero: ෝ =𝒚−𝒚
𝒖 ෝ = 𝒖 − 𝑿𝜷 ෡ − 𝑿𝜷
෡ − 𝑿𝜷 = 𝒖 + 𝑿𝜷 − 𝑿 𝑿′ 𝑿 −𝟏 𝑿′ 𝒚
u'u = u' M ' Mu = u' Mu Escalar
ෝ = 𝒖 − 𝑿𝜷
𝒖
Calculamos primero la esperanza matemática de la expresión anterior:
= 𝒖 + 𝑿𝜷 − 𝑿 𝑿′ 𝑿 −𝟏 𝑿′ 𝑿𝜷 + 𝒖
𝐸𝒖ෝ′𝒖
ෝ |𝑋 = 𝐸 𝒖′ 𝑴𝒖|𝑿 = 𝐸 𝒕𝒓(𝒖′ 𝑴𝒖)|𝑿 = 𝐸 𝒕𝒓 𝑴𝒖𝒖′ |𝑿 = 𝒕𝒓(𝑴𝐸 𝒖𝒖′ |𝑿 )
= 𝑰 − 𝑿 𝑿′ 𝑿 −𝟏 𝑿′ 𝒖 = 𝑴𝒖 con 𝑀 = 𝐼 − 𝑋 𝑋 ′ 𝑋 −1 𝑋′
= 𝑡𝑟(𝑴𝜎𝒖𝟐 𝑰) = 𝜎𝒖𝟐 𝑡𝑟(𝑴) = 𝜎𝒖𝟐 (𝑁 − 𝑘)
tr(ABCD) = tr(BCDA) =
′ −1 ′ tr(CDAB) = tr(DABC)
Sabiendo que 𝑡𝑟(𝑴) = 𝑡𝑟(𝑰𝑁𝑥𝑁 − 𝑿 𝑿 𝑿 𝑿)
Y que el residuo tiene un valor esperado cero: E[uˆ ] = E[ Mu ] = ME [u ] = 0 = 𝑡𝑟(𝑰𝑁𝑥𝑁 ) − 𝑡𝑟(𝑿 𝑿′ 𝑿 −1 𝑿′) = 𝑡𝑟(𝑰𝑁𝑥𝑁 ) − 𝑡𝑟(𝑰𝑘𝑥𝑘 )
Constante
=𝑁−𝑘

ො = 𝐸[𝑀𝑢(𝑀𝑢)′] = 𝑀𝐸 𝑢𝑢′ 𝑀′ = 𝑀𝜎𝑢2 𝐼𝑀′ = 𝜎𝑢2 𝑀 û' û


sˆ u2 =
Y varianza constante: var[ 𝑢]
Obtenemos
Porque M es una matriz idempotente y simétrica:
N-k
M2=M y M’ = M
Que será un estimador insesgado de la varianza de las perturbaciones.
23 24
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.

4.3. Distribución de la variable dependiente y de los estimadores 4.4. Estimación Máximo-verosímil del modelo lineal simple y
MCO. propiedades de los estimadores.
Distribución de los estimadores MCO:
Sabemos que la perturbación del modelo se distribuye normal:
Aunque no conozcamos el valor de la varianza de la perturbación, ahora ui~ N(0, 𝜎 2 )
ya podemos estimarla y por lo tanto podemos estimar la varianza de los
estimadores: Y disponemos de una muestra con un tamaño N, de modo que tenemos N
var- cov(b̂ ) = s u2 (X' X)-1 variables aleatorias: u1, u2, ..., uN.

Bajo esta hipótesis podríamos obtener un nuevo tipo de estimadores, los de


û' û Matriz de varianzas-
sˆ b2 = vâr(b̂ ) = sˆ u2 (X' X)-1 = (X' X)-1 Máxima Verosimilitud. En este caso, deberían resolver un problema de
N-k covarianzas de los
maximización de la función de probabilidad conjunta o verosimilitud.
estimadores

Que será un estimador insesgado de la varianza del estimador, ya que La idea es encontrar aquellos valores de los parámetros que hacen máxima la
probabilidad de que la muestra disponible proceda de una población
û' û E[û' û] caracterizada por los llamados parámetros.
E[ŝ b2 ] = E[ (X' X)-1 ] = (X' X)-1 = s u2 (X' X)-1 = s b2
N-k N-k
E[û' û] = s u2 (N - k)
25 26

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.

4.4. Estimación Máximo-verosímil del modelo lineal simple y 4.4. Estimación Máximo-verosímil del modelo lineal simple y
propiedades de los estimadores. (Con dos variables) propiedades de los estimadores. (Con dos variables)
𝑦𝑖 = 𝛽1 + 𝛽2 𝑥𝑖 + 𝑢𝑖 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥𝑖 + 𝑢𝑖
ui~ N(0, 𝜎 2 )
Para obtener la función de probabilidad conjunta P(u) se realiza el productorio
La función de probabilidad conjunta puede expresarse como el producto de las
de las distribuciones individuales de cada perturbación aleatoria:
probabilidades individuales de cada perturbación aleatoria ui, dado que las
𝑁 1
perturbaciones aleatorias son independientes unas de otras (hipótesis de no 1 − ⋅ σ ui 2
ෑ P(ui ) = P (u) = ⋅ e 2 σ2 u
autocorrelación): 𝑖=1
(2 𝜋𝜎𝑢2 )N/2
P (u1, u 2 , u3,..., u N ) = P (u1 )× P (u 2 )× P (u 3 )×... × P (u N )
- La perturbación aleatoria en el modelo de regresión simple puede escribirse en
u´s independientes
función de las variables yi y xi:
Dado que la perturbación sigue una distribución Normal, su función de u i = y i - (β1 + β 2  x i )
probabilidad, P(ui), estará definida por la expresión:
Así, llegamos a la función de verosimilitud, que es la probabilidad que
1
1 − ⋅ u2 queremos maximizar:
P (ui ) = ⋅e 2 σ2 u
2 𝜋 𝜎𝑢2 1
1 − ⋅ σ(yi −β1 −β2 ⋅xi )2
𝐿 = P (u|X,𝜎𝑢 ) = ⋅ e 2 σ2 u
(2 𝜋 𝜎𝑢2 )N/2

27 28
Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.

4.4. Estimación Máximo-verosímil del modelo lineal simple y 4.4. Estimación Máximo-verosímil del modelo lineal simple y
propiedades de los estimadores. propiedades de los estimadores.
A continuación linealizamos la función de verosimilitud, cogiendo logaritmos: d ln L
× å x i (yi - b1 - b2 × x i ) = 0 ® å x i y i = b̂1 å xi + b̂2 × å x 2i = 0
2
=+
N N 1 d b2 2 s 2u
ln L = −  ln 2  −  ln σ 2u −   (y i − β 1 − β 2  x i ) 2
2 2 2σ u
2

Para resolver el problema de optimización, obtenemos las condiciones de Que coincide con la Segunda ecuación normal de la recta
primer orden, derivando la función respecto de los parámetros, 1 ,  2 y, σ 2 e de regresión. Por lo tanto: ~
igualando a 0. β 2MV = β̂ 2MCO

 ln L 2 Y finalmente, podemos obtener la estimación de la varianza de la


= + 2   (y i − β1 − β 2  x i ) = 0 →  y i =  β̂1 + β̂ 2   x i = 0 perturbación aleatoria del modelo:
 1 2σ u
𝛿 ln 𝐿 Ν 1
=− + ⋅ ෍ (yi − β1 − β2 ⋅ xi )2 σ2 u −2 =0
Que coincide con la Primera ecuación normal de la recta de 𝛿 σ2 u 2 σ2 u 2
regresión!!!!. Por lo tanto: ~
β1 MV = βˆ 1 MCO σ෤ 2 u MV =
u´ ⋅ 𝑢
≠ σො 2 u MCO =
u´ ⋅ 𝑢 Que es diferente a la de los
N N−k estimadores de MCO.

29 varianza cuasivarianza 30

Tema 4: Propiedades e Hipótesis básicas. Tema 4: Propiedades e Hipótesis básicas.

4.4. Estimación Máximo-verosímil del modelo lineal simple y 4.4. Estimación Máximo-verosímil del modelo lineal simple y
propiedades de los estimadores. propiedades de los estimadores.
e´e N −2 2
Y será sesgada E[~
σ 2 u MV ] = E[ ]= σ
N N Si consideramos N1 < N2 < N3 < … < NN.
A veces, no será posible obtener un estimador sin sesgo. En ese caso, el requisito
mínimo que se debe pedir a un estimador es la consistencia, que nos permitirá Distribuciones normales con igual promedio y diferentes desviaciones típicas.
realizar inferencia. NN
La CONSISTENCIA es una propiedad asintótica de los estimadores, se cumple
cuando el tamaño de la muestra tiende a infinito. Un estimador, β es consistente si:

N3
lim prob β̂ K −β K  e = 1 ( )
lim prob β̂ K = β K
N → N2
N →

Es decir, se requiere que la precisión del estimador mejore al aumentar el tamaño


muestral. Es decir, que esperaremos obtener mejores estimaciones cuando mayor sea
N1
el número de individuos. Desde un punto de vista más riguroso diremos que un
estimador es consistente si converge en probabilidad al verdadero valor del parámetro β
que queremos estimar. 31 32
Tema 4: Propiedades e Hipótesis básicas.
Conceptos fundamentales
4.4. Estimación Máximo-verosímil del modelo lineal simple y
Teorema de Gauss-Markov: caracteriza el comportamiento del estimador
propiedades de los estimadores. por MCO, como estimador lineal, insesgado y eficiente, es decir, el mejor
estimador lineal sin sesgo.
Así, observamos que el estimador de MV de los parámetros β1 y β2 coincide con el de
MCO, y por tanto tendrá las mismas propiedades: será lineal, insesgado, óptimo y Estimación sin sesgo de 𝝈𝟐𝒖 : construia a partir de los residuos de mínimos
consistente. cuadrados ordinarios, que tiene el sentido intuitivo de la varianza muestral
y, además, sin sesgo.
Además, su distribución asintótica es normal.

Por el contrario, el estimador de MV de σ2, no coincide con el de MCO y es sesgado, Variables fijas en la regresión: tienen esta característica (por hipótesis) las
aunque, cuando la muestra se hace grande, el sesgo tiende a cero, es decir, será variables explicativas. Intuitivamente, indica que si repetimos el
asintóticamente insesgado. experimento muestral un número n de veces, las variables continuarían
siendo las mismas. Además. Esta hipótesis les concede una carácter
N −2 2 2σ 2 Pero tiende a σ2 determinista o no estocástico.
E[~
σ 2 u MV ] = σ = σ2 −  σ2
N N asintóticamente
Normalidad de los errores: hipótesis que se realiza sobre la distribución
de las perturbaciones con la finalidad de poder realizar constrastes de
hipótesis i conocer las distribuciones de las variables aleatorias de la
33 regresión. 34

Referencias

• Básicas
• Wooldridge, J (2016). Introducción a la econometría. 5
ed. Cengage Learning.
• Greene, W. (1999). Análisis Econométrico (3 edición).
Prentice-Hall. Madrid
• Gujarati, D. y Porter D.C. (2010) Econometría (5ª
Edición). McGraw-Hill.

35
1
Grado en Economía 2022-2023 2

eCONOMETRÍAI Prácticas 6 y 7
Profesor: - Tema 4-
Marko Petrovic
Correo electrónico: marko.petrovic@uv.es
Despacho: 3C01

Tutorías: miércoles 10.30-12.00


miércoles 16.00-17.30
online
https://calendly.com/marko-m-petrovic/tutoria-econometria

Ejercicio 1 3
Ejercicio 1 4

Con la siguiente información muestral: Y X2 X3


10 1 0 l. ¿Cuáles son las propiedades de los estimadores?
25 3 -1
32 4 0 m. Escriba la matriz de varianzas-covarianzas de estos estimadores.
43 5 1 n. Estima la matriz de varianzas-covarianzas de estos estimadores.
58 7 -1
62 8 0 o. Bajo normalidad de errores, anote la distribución de los elementos del
67 10 -1 modelo.
71 10 2
p. Enseña que el estimador de la varianza de los estimadores es insesgado.
se desea estimar el modelo 𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2𝑡 + 𝛽3 𝑋3𝑡 + 𝑢𝑡

a) Construya la matriz de regresores X.


b) Obtenga X’X.
c) Obtenga (X’X)-1.
d) Construya el vector y.
e) Obtenga el vector de estimadores 𝜷෡
f) Escriba el modelo estimado.
g) Interprete los estimadores.
h) Obtenga el vector de valores ajustados 𝒚ෝ.
i) Obtenga el vector de residuos 𝒖ෝ.
j) Verifique las propiedades descriptivas.
k) Obtenga el coeficiente de determinación e interprete su valor.
Ejercicio 2 5
Ejercicio 3 6

Considera el modelo 𝑦𝑖 = 𝛽1 + 𝛽2 𝑥2,𝑖 + 𝛽3 𝑥3,𝑖 + 𝑢𝑖 estimado utilizando 15 El conjunto de datos hprice2_tema2_ej9.gdt contiene información sobre precios de
las viviendas y sus características. La variable price es la mediana de precios de las
observaciones. Se obtienen los siguientes resultados viviendas en un barrio en dólares, variable crime son delitos cometidos per cápita y
variable rooms es la media de las habitaciones de las vivienda.
 2.0 35 . 
. −10 −30 . 
( X ' X ) −1 =  35
.10
. 65  
. ,( X ' y) = 2.2  , u' u = 10.96 Considera el modelo: 𝑝𝑟𝑖𝑐𝑒𝑖 = 𝛽1 + 𝛽2 𝑐𝑟𝑖𝑚𝑒𝑖 + 𝛽3 𝑟𝑜𝑜𝑚𝑠𝑖 + 𝑢𝑖
−10 . 4.3 
. 65  0.6 
a) Muestre gráficamente la distribución de cada variable. ¿Hay observaciónes que
a) Estime la varianza de las perturbaciones
podamos considerar atípicos?
b) Estime la matriz de varianza-covarianza de los estimadores e indique la
b) Estime el modelo e interprete los coeficientes estimados.
estimación de la varianza de 𝛽መ2 y de la desviación típica de 𝛽መ3 . c) Analiza los residuos y verifique si se mantiene el supuesto de la distribución
(normalidad, media, varianza).
i. Guarda los residuos
ii. Guarda los valores estimados

iii. Haga un gráfico de dispersión entre 𝑝𝑟𝑖𝑐𝑒 y 𝑝𝑟𝑖𝑐𝑒

iv. Haga un gráfico de dispersión entre 𝑢ො y 𝑝𝑟𝑖𝑐𝑒
v. Calcule los residuos estandarizados 𝑢𝑆𝐷෢
෢ y 𝑝𝑟𝑖𝑐𝑒
vi. Haga un gráfico de dispersión entre 𝑢𝑆𝐷 ෣
vii. Interpreta los resultados
¿Se puede mejorar la estimación?

Ejercicio 3 continuación… 7

d) Propone una nueva forma funcional del modelo que puede mejorar la estimación.

e) Analiza los residuos y verifique si se mantiene el supuesto de la distribución


(normalidad, media, varianza).

f) Determine cuál de los dos modelos estimados es el que mejor ajusta a los datos

También podría gustarte