Está en la página 1de 95

ECONOMETRÍA I

http://www.ucm.es/info/ecocuan/ectr1
UNIVERSIDAD COMPLUTENSE Facultad de Ciencias
MADRID Económicas y Empresariales

GUIÓN - APUNTES ADICIONALES

José Alberto Mauricio

Departamento de Economía Cuantitativa


http://www.ucm.es/info/ecocuan
COPYRIGHT  2000-2010 José Alberto Mauricio
http://www.ucm.es/info/ecocuan/jam

Este documento puede utilizarse exclusivamente como instrumento para la docencia oficial de la asignatura

ECONOMETRÍA I

que se imparte en la Facultad de Ciencias Económicas de la Universidad Complutense de Madrid. No se permite


almacenar, reproducir o distribuir por medio alguno, ni tampoco utilizar este documento en cualquier sentido, fuera de
los términos mencionados anteriormente. La obtención de este documento (Ectr1-JAM-Guion.pdf) en la dirección de
Internet

http://www.ucm.es/info/ecocuan/jam/ectr1

implica la aceptación de que su uso estará limitado a los términos anteriores.

Última revisión: 21 de septiembre de 2010.

GUIÓN PÁGINA II
CONTENIDO Y BIBLIOGRAFÍA

CONTENIDO

PRÓLOGO 1
¨ Regresión Lineal: De Simple a Múltiple......................................................... 2
¨ Notación............................................................................................................ 6

T1 ESPECIFICACIÓN Y ESTIMACIÓN DEL MODELO LINEAL GENERAL 9


1.1 Hipótesis Clásicas ......................................................................................... 11
1.2 Mínimos Cuadrados Ordinarios ................................................................... 23
1.3 Propiedades estadísticas.............................................................................. 28
1.4 Propiedades algebraicas............................................................................... 30
1.5 Error Estándar de la Regresión .................................................................... 31
1.6 Datos en desviaciones con respecto a la media ........................................ 32
1.7 Regresión particionada y correlación parcial ............................................. 32

GUIÓN PÁGINA III


CONTENIDO Y BIBLIOGRAFÍA

1.8 Normalidad ..................................................................................................... 33


1.9 Máxima Verosimilitud .................................................................................... 36

T2 CONTRASTES DE HIPÓTESIS Y PREVISIÓN 38


2.1 Contrastes de varias hipótesis..................................................................... 39
2.2 Contrastes de una única hipótesis .............................................................. 41
2.3 Intervalos de confianza ................................................................................. 49
2.4 Restricciones lineales ................................................................................... 51
2.5 Algunos contrastes como elementos de diagnosis................................... 52
2.6 Previsión ......................................................................................................... 53

T3 EXTENSIONES 55
3.1 Transformaciones lineales............................................................................ 55
3.2 Multicolinealidad ............................................................................................ 56
3.3 Errores de especificación ............................................................................. 59
3.4 Variables explicativas binarias..................................................................... 62

GUIÓN PÁGINA IV
CONTENIDO Y BIBLIOGRAFÍA

APUNTES ADICIONALES PARA EL TEMA 1 71


A.1 MCO en modelos sencillos ........................................................................... 71
A.2 Coeficientes de determinación..................................................................... 73
Matrices inversas particionadas....................................................................... 75
A.3 Datos en desviaciones con respecto a la media ........................................ 76
A.4 Regresión particionada y correlación parcial ............................................. 81

GUIÓN PÁGINA V
CONTENIDO Y BIBLIOGRAFÍA

BIBLIOGRAFÍA

– TEMA 1 –
J.M. WOOLDRIDGE (2006): CAPÍTULOS 2 Y 3. SECCIONES 6.2 Y 6.3. APÉNDICES E1 Y E2.
M. VERBEEK (2004): SECCIONES 2.1, 2.2, 2.3, 2.4 Y 3.1.
F. HAYASHI (2000): SECCIONES 1.1, 1.2, 1.3 Y 1.5.

– TEMA 2 –
J.M. WOOLDRIDGE (2006): CAPÍTULO 4. SECCIÓN 6.4. APÉNDICE E3.
M. VERBEEK (2004): SECCIONES 2.5, 2.9 Y 3.3.
F. HAYASHI (2000): SECCIÓN 1.4.

– TEMA 3 –
VER INDICACIONES AL FINAL DE CADA APARTADO DEL GUIÓN.

GUIÓN PÁGINA VI
ECONOMETRÍA I PRÓLOGO

PRÓLOGO

The key question in most empirical studies is: Have enough other factors been held fixed to make
a case for causality? Rarely is an econometric study evaluated without raising this issue. In most
serious applications, the number of factors that can affect the variable of interest – such as […]
wages – is immense, and the isolation of any particular variable may seem like a hopeless effort.
However, we will eventually see that, when carefully applied, econometric methods can simulate
a ceteris paribus experiment. […] As we will see throughout this text, accounting for other
observed factors, such as experience, when estimating the ceteris paribus effect of another
variable, such as education, is relatively straightforward. We will also find that accounting for
inherently unobservable factors, such as ability, is much more problematic. It is fair to say that
many of the advances in econometric methods have tried to deal with unobserved factors in
econometric models.
J.M. WOOLDRIDGE
Introductory Econometrics – A Modern Approach 2006

GUIÓN PÁGINA 1
ECONOMETRÍA I PRÓLOGO

REGRESIÓN LINEAL: DE SIMPLE A MÚLTIPLE

Como se vio en la Definición 2.2 de la Introducción a la asignatura, una dificultad asociada


con la evaluación del efecto causal de una variable X sobre otra variable Y utilizando
solamente datos sobre X e Y, tiene que ver con que Y puede depender de otros factores
observables relacionados con X que no se consideran explícitamente en el análisis. Si estos
factores pudieran incluirse de forma explícita en la investigación de una posible relación
causal entre X e Y (en un "modelo"), entonces al menos dicha dificultad no estaría presente.

Para verlo, considérese (en la línea de la Definición 2.2 de la Introducción) la respuesta


total de Y ante una variación de cuantía ∆X en X,

∆YX ≅ FX × ∆X + FW × ∆WX + FV × ∆VX ,


junto con la respuesta total de Y ante una variación de cuantía ∆W en W,
∆YW ≅ FW × ∆W + FX × ∆XW + FV × ∆VW .
En la Definición 2.2 se vieron las implicaciones de considerar individualmente tan sólo la
primera de estas expresiones. Sin embargo, ambas pueden escribirse conjuntamente como

GUIÓN PÁGINA 2
ECONOMETRÍA I PRÓLOGO

 ∆YX   ∆X ∆WX   FX   ∆VX 


 ≅    + FV  , [A]
   ∆W   FW   
 ∆YW   ∆XW     ∆VW 
[ ∆YXW ] [ ∆XW ] [ F XW ] [ ∆VXW ]

o bien, de manera más compacta y explícita, como

[ ∆YXW ] ≅ [ ∆XW ] [ FXW ] + FV [ ∆VXW ] =

 Efectos Totales  [B]


 
= [ ∆XW ]  [ FXW ] + FV [ ∆XW ]−1 [ ∆VXW ] .
 
 Efectos Directos Efectos Indirectos 

Esta expresión (que puede considerarse una extensión de la ecuación [4] en la Definición 2.2
de la Introducción) pone de manifiesto que [ ∆XW ]−1 [ ∆YXW ] ≅ [ FXW ] siempre que

¹ O bien FV = 0 , de manera que V no influya directamente sobre Y,

¹ O bien [ ∆VXW ] = 0 , de manera que V no varíe sistemáticamente ni con X ni con W.

GUIÓN PÁGINA 3
ECONOMETRÍA I PRÓLOGO

Por lo tanto, si las influencias no observables recogidas en V son independientes tanto de X


como de W, entonces el efecto causal de X sobre Y (al igual que el de W sobre Y, que
también podría tener cierto interés) se puede evaluar de manera fiable a partir de [A]-[B]
utilizando datos sobre Y, X y W, a pesar de que X y W estén relacionadas entre sí.

Por el contrario, como se vio en la Definición 2.2 de la Introducción, el efecto causal de X


sobre Y no podría evaluarse fiablemente a partir tan sólo de la primera ecuación en [A]
(incluso suponiendo que ∆VX = 0 ), a menos que o bien FW = 0 , o bien ∆WX = 0 .

¹ La ventaja de incluir a W en un análisis de causalidad de X sobre Y, reside justamente


en que la inclusión de W elimina la necesidad de asumir ciertas hipótesis (como FW = 0 , o
∆WX = 0 ) que pueden resultar difíciles o imposibles de justificar en la práctica.

¹ Esta conclusión sugiere que en un análisis de causalidad sobre Y es recomendable


considerar explícitamente tantas influencias observables como sea posible y razonable, a
pesar de que en última instancia quizás interese evaluar el efecto directo o causal de tan
sólo una de dichas influencias.

GUIÓN PÁGINA 4
ECONOMETRÍA I PRÓLOGO

En este sentido, el modelo RLS del Ejemplo 2.8 de la Introducción puede ampliarse para
recoger explícitamente otras influencias directas sobre Y adicionales a la influencia lineal de
X. Esta ampliación da lugar a un modelo de regresión lineal múltiple (RLM), en el que
todas las influencias que recibe Y se resumen mediante una expresión matemática del tipo

Y = β1 + β2 X 2 + β3 X 3 ... + βK X K + U , [C]

donde X2 , X 3 , ..., X K son K − 1 variables explicativas observables, posiblemente


relacionadas entre sí. Por su parte, U representa todas las influencias (observables y no
observables) sobre Y que no están recogidas en β1 + β2 X 2 + β3 X 3 + ... + βK X K .
Observación técnica (prescindible): A partir de [C], las respuestas totales de Y ante variaciones de cuantía ∆X j en
X j ( j = 2, 3, ..., K ) pueden escribirse conjuntamente (en la línea de la ecuación [A]) como

 ∆YX 2   ∆X 2 ∆X 3.2 ∆X K .2   β   ∆U X 2 
     2   
 ∆YX   ∆X ∆X 3 ∆X K .3   β   ∆U X 
 3   2.3  3   3 
  =    +  , [D]
       
       
 ∆YX   ∆X ∆X K   β   ∆U X 
 K   2.K ∆X 3.K   K   K 
[ ∆YX ] [ ∆XX ] β2 [ ∆U X ]

GUIÓN PÁGINA 5
ECONOMETRÍA I PRÓLOGO

o bien, de manera más compacta y explícita (en la línea de la ecuación [B]), como
[ ∆YX ] = [ ∆XX ] × β2 + [ ∆U X ] =

 Efectos Totales  [E]


 
= [ ∆XX ]  β2 + [ ∆XX ]−1 [ ∆U X ] .
 
 Efectos Directos Efectos Indirectos 

Esta expresión (que puede considerarse una extensión de [6] en el Ejemplo 2.8 de la Introducción) indica que
[ ∆XX ]−1 [ ∆YX ] = β2 siempre que [ ∆U X ] = 0 , es decir, siempre que U en [C] no varíe sistemáticamente con
ninguna variable explicativa. Por lo tanto, si las influencias recogidas en U son independientes de todas las variables
explicativas, entonces tanto β2 como β3 , ..., βK pueden evaluarse de manera fiable a partir de [E] utilizando datos
sobre Y, X2 , X 3 , ..., X K . Por el contrario, como se vio en el Ejemplo 2.8, β2 no podría evaluarse fiablemente a partir
tan sólo de la primera ecuación en [D] (incluso suponiendo que ∆U X 2 = 0 ), a menos que β j × ∆X j .2 = 0 para todo
j = 3, ..., K . La ventaja de incluir a X 3 , ..., X K junto con X2 en [C] en relación con un análisis de causalidad de X2
sobre Y, reside justamente en que la inclusión de X 3 , ..., X K elimina la necesidad de asumir ciertas hipótesis (como
que bien β j = 0 , o bien ∆X j .2 = 0 , para todo j = 3, ..., K ) que pueden resultar difíciles de justificar en la práctica.

NOTACIÓN

Las variables aleatorias (v.a.s) se representan con letras mayúsculas (Y1 , X12 , ...) ; sus
valores observados se representan con las letras minúsculas correspondientes (y 1, x 12, ...).

GUIÓN PÁGINA 6
ECONOMETRÍA I PRÓLOGO

En general, las matrices se representan con letras mayúsculas en negrilla (X, A, Σ, ...)
incluso si sus componentes no son v.a.s. Los vectores se representan con letras minúsculas
en negrilla ( y , x 2 , β , ...). Un vector se representa con una letra mayúscula sólo cuando sus
componentes son v.a.s ( Y, Y ˆ, U
ˆ , ..., cuyos valores observados se representan como
ˆ, ...). Todos los vectores se consideran vectores columna. Se utiliza el símbolo ′ (como
ˆ, u
y, y
en A′, β ′, c′, ...), en lugar de un superíndice T, como símbolo de trasposición. Las cantidades
escalares (matrices de dimensión 1 × 1 ) se representan en cursiva ( β3 , σ2 , t , F , ... ).
Los momentos muestrales (estadísticos) se representan como X (media), S X 2 (varianza),

S XY (covarianza) y RXY (coeficiente de correlación lineal simple); sus valores observados


(calculados) se representan con los mismos símbolos en minúscula.
Las v.a.s (como estimadores y estadísticos de contraste) que dependen a su vez de una
colección W de v.a.s, se representan con un subíndice W ( βˆ W , σˆ2 , FW , ... ); sus valores
W
calculados a partir de una observación (datos) w sobre W dada se representan sin dicho
ˆ , σˆ2 , F , ...).
subíndice ( β
El símbolo E[ ⋅] representa la esperanza de una v.a. (escalar, vectorial o matricial). El

GUIÓN PÁGINA 7
ECONOMETRÍA I PRÓLOGO

símbolo Var[ ⋅] representa la varianza de una v.a. cuando dicha v.a. es escalar, en cuyo caso
a veces se emplea el símbolo Σ[ ⋅] , o bien una matriz de varianzas-covarianzas cuando dicha
v.a. es vectorial, en cuyo caso a veces se emplea el símbolo Σ[ ⋅] (en negrilla). El símbolo
Cov[ ⋅, ⋅] ( Côv[ ⋅, ⋅]) representa la covarianza (estimada) entre dos v.a.s de cualquier tipo. Los
símbolos Σ ˆ W [ ⋅] y Σ ˆ W [ ⋅] representan estimadores (que dependen de W) de la varianza
correspondiente, cuyos valores observados (estimaciones) se representan como Σ ˆ [ ⋅] y Σ
ˆ [ ⋅]
(sin el subíndice W), o simplemente como Vâr[ ⋅] . El símbolo ∑ (más grande que el símbolo
Σ anterior) se emplea con mucha frecuencia para representar un sumatorio como ∑ iN=1 .

GUIÓN PÁGINA 8
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

– TEMA 1 –
ESPECIFICACIÓN Y ESTIMACIÓN DEL MODELO LINEAL GENERAL

Se pretende cuantificar una supuesta relación estocástica unidireccional entre cierta variable
Y (variable dependiente) y K ≥ 1 variables X1 , X 2 , ..., X K (variables explicativas), sobre
las que se dispone de una colección de datos o muestra

 y1 x 11 x 12 x1K 
 
 y 2 x 21 x 22 x2K 
w≡  ≡ [ y , x1 , x 2 , ..., x K ].
 
 
 yN x N 1 x N 2 x NK 
 
Observación preliminar I: Con el fin de simplificar el álgebra matricial que se utiliza en la definición y el análisis del
modelo lineal general (MLG), para especificar un modelo con término constante (como un modelo RLS, o un modelo
RLM como [C]) la matriz w anterior se define de manera que x i1 ≡ 1 ( i = 1, 2, ..., N ) ( ⇒ x1 ≡ [1, 1, ..., 1]′ ). En este
caso solamente hay K − 1 variables explicativas "reales" ( X 2 , ..., X K , como en el modelo RLM [C]), ya que X1 es de
hecho una constante "artificial".

GUIÓN PÁGINA 9
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

Las N filas de datos [ yi x i 1 x i 2 ... x iK ] (i = 1, 2, ..., N ) en w pueden referirse a N entidades


observables en un momento dado (datos de sección cruzada; ver Ejemplo 2.5 en la
Introducción a la asignatura), o bien a N momentos consecutivos de la historia de una
única entidad observable (datos de series temporales; ver Ejemplo 2.7 en la Introducción).

¹ La estimación numérica de los parámetros β1 , β2 , ..., βK en un modelo como [C] es un


problema de fácil solución práctica (Sección 1.2).

¹ No obstante, la cuestión central acerca de los parámetros β1 , β2 , ..., βK no reside tanto


en cómo calcular numéricamente estimaciones de todos ellos, sino sobre todo en cuál es el
grado de fiabilidad o precisión de dichas estimaciones.

¹ Una posibilidad para calibrar ese grado de precisión (especialmente en entornos no


experimentales), consiste en plantear ciertas hipótesis acerca de los elementos del modelo en
el que figuran β1 , β2 , ..., βK , y derivar las conclusiones a las que conducen dichas hipótesis.

¹ La validez de esas conclusiones dependerá de si las hipótesis utilizadas son razonables,


especialmente en comparación con las características muestrales de los datos empleados.

GUIÓN PÁGINA 10
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.1 HIPÓTESIS CLÁSICAS

H1 Linealidad con respecto a los parámetros

Los datos disponibles son una realización particular de una colección de variables aleatorias

 Y1 X11 X12 X1 K 
 
 Y2 X 21 X 22 X2K 
 
W≡  ≡ [ Y , X1 , X2 , ..., XK ]
 
 
Y X X X NK 
 N N1 N2 
tal que

Yi = β1 X i 1 + β2 X i 2 + ... + βK X iK + U i = ∑ K
j =1 β j X ij + U i (i = 1, 2, ..., N ) , [1]

donde β1 , β2 , ..., βK son K parámetros cuyos valores (desconocidos) son los mismos en
todos los puntos muestrales, y U i (1 ≤ i ≤ N ) es una perturbación aleatoria no observable
asociada con el i -ésimo punto muestral.
Observación preliminar II: Para modelos con término constante, Xi 1 ≡ 1 ( i = 1, 2, ..., N ) ( ⇒ X1 ≡ [1, 1, ..., 1]′ ).

GUIÓN PÁGINA 11
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

La ecuación [1] puede escribirse como


Y = Xβ + U , [2]
donde
 Y1   X 11 X 12 X1K   X′   β1   U1 
     1     
 Y2  X X 2 K   X′   β2   U2 
   21 X 22  2     
Y ≡ , X ≡ = , β ≡  , U ≡ ,
N ×1   N ×K       N ×1  
      K ×1    
 YN  X X X NK   ′   βK  U N 
   N 1 N 2   XN     
o bien como
Yi = Xi′ β + U i (i = 1, 2, ..., N ), [3]

donde Xi′ ≡ [ X i 1 , X i 2 , ..., X iK ] es la i -ésima fila de la matriz X.


Observación 1: Una X con un subíndice puede representar, según el contexto, una columna o una fila de la matriz X.
Por ejemplo, X j ≡ [ X1 j , X 2 j , ..., X Nj ]′ (1 ≤ j ≤ K ) es la j -ésima columna (N × 1) de X; los subíndices j y k se
emplean para representar columnas (variables) de X. Por otro lado, Xi ≡ [ Xi 1 , Xi 2 , ..., XiK ]′ (1 ≤ i ≤ N ) es un
vector columna (K × 1) cuyo traspuesto es la i -ésima fila (1 × K ) de X (ver la ecuación [3] anterior); los subíndices i
y t se emplean para representar filas (entidades observables o momentos) de X.

GUIÓN PÁGINA 12
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

Observación 2: El MLG tiene término constante cuando X i 1 ≡ 1 para todo i = 1, 2, ..., N . En este caso, [1] queda

Yi = β1 + β2Xi 2 + ... + βK XiK + U i = β1 + ∑ K


j = 2 β j X ij + U i (i = 1, 2, ..., N ), [1′]

donde β1 es el término constante y β2 , ..., βK son las pendientes del modelo. Las ecuaciones [2] - [3] siguen siendo
válidas en este caso, redefiniendo la matriz X para que su primera columna sea ahora X 1 ≡ [1, 1, ..., 1]′ (de manera
que la i -ésima fila de X sea ahora Xi′ ≡ [1, Xi 2 , ..., XiK ]):

 1 X12 X1K 
 
 1 X 22 X 2K 
 
X≡ .
 
 
 1 XN 2 X NK 
 

Observación 3 - Muy importante: El MLG es lineal porque los parámetros que figuran en su lado derecho lo hacen de
forma lineal (a lo sumo, están multiplicados por un término que no depende de ningún parámetro del modelo), como
en [1] y [1′]. No obstante, en el MLG pueden aparecer cualesquiera transformaciones lineales y no lineales de las
variables originales de interés, como en los ejemplos siguientes (donde Q y P representan variables originales):

Modelo lineal Qi = β1 + β2 Pi + U i . [M1]


Modelo log-log o logarítmico ln Qi = β1 + β2 ln Pi + U i . [M2]
Modelo log-lineal o semilogarítmico ln Qi = β1 + β2 Pi + U i . [M3]
Modelo lineal-log Qi = β1 + β2 ln Pi + U i . [M4]

GUIÓN PÁGINA 13
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1
Modelo recíproco Qi = β1 + β2 Pi
+ Ui . [M5]
Modelo cuadrático Qi = β1 + β2 Pi + β3 Pi2 + U i . [M6]
Modelo con interacción Qi = β1 + β2 Pi 1 + β3 Pi 2 + β4 ( Pi 1 × Pi 2 ) + U i . [M7]

[M1]-[M7] son casos particulares del MLG con término constante [1′] (como puede comprobarse definiendo
adecuadamente Yi , Xij y K en cada caso). [M1] implica que una variación absoluta unitaria en Pi tiene el mismo
efecto sobre Qi con independencia de los valores de partida de Qi y de Pi . Esto no es así en [M2]-[M7]; ver Tabla 1 y
Figura 1 (ver también el Apéndice A en Ectr1-JAM-Intro.pdf). Los modelos [M1]-[M7] pueden combinarse entre sí para
formular modelos RLM que resultan muy flexibles en la práctica; ver Ejercicio nº 1.

TABLA 1
Efectos "Ceteris Paribus" y Elasticidades en Diferentes Modelos de Regresión Lineal

Modelo Efecto "Ceteris Paribus" Elasticidad


∂Qi Pi
[M1] ∂Pi
= β2 ⇒ ∆Qi = β2 ∆Pi β2 Qi

∂Qi Qi
[M2] ∂Pi
= β2 Pi
⇒ % ∆Qi ≈ β2 % ∆Pi β2
∂Qi
[M3] ∂Pi
= β2Qi ⇒ % ∆Qi ≈ (100 β2 )∆Pi β2 Pi

GUIÓN PÁGINA 14
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

[M4]
∂Qi
∂Pi
= β2 1
Pi
⇒ ∆Qi ≈ ( 100
β2
) %∆Pi β2 1
Qi

≈ ( 100 P ) % ∆Pi
∂Qi 1 −β 2 1
[M5] ∂Pi
= − β2 ⇒ ∆Qi − β2
Pi2 i Qi Pi

∂Qi P
[M6] ∂Pi
= β2 + 2 β3 Pi ( β2 + 2 β3 Pi ) Qi
i

∂Qi P
[M7] ∂Pi 1
= β2 + β4 Pi 2 ( β2 + β4 Pi 2 ) Qi 1
i

Observación 4: Modelos como Qi = β1 Pi 1 + β12 Pi 2 + U i y Qi = µ0Piβ11 Piβ22 + U i son no lineales con respecto a sus
parámetros (ninguno de ellos es un caso particular del MLG). Un modelo como Qi = µ0Piβ11 Piβ22 eU i es equivalente
(tomando el logaritmo neperiano en ambos lados) a ln Qi = β0 + β1 ln Pi 1 + β2 ln Pi 2 + U i , con β0 ≡ ln µ0 , que sí
es lineal con respecto a los parámetros β0 , β1 y β2 . En general, un modelo de regresión es no lineal cuando ni es
lineal en su formulación original, ni se puede convertir en un modelo lineal mediante alguna transformación.

Observación 5 - Muy importante: En última instancia, la finalidad de escoger una forma funcional concreta o de
transformar las variables de interés en un modelo de regresión, es obtener un modelo cuyas perturbaciones tengan unas
propiedades estadísticas (ver H3, H4 y H5) que garanticen la validez de los métodos de inferencia (estimación,
contrastes de hipótesis y previsión) que vayan a ser utilizados. También deben tenerse en cuenta las implicaciones de
cada forma funcional sobre el significado de los efectos ceteris paribus de cada variable explicativa de interés.

GUIÓN PÁGINA 15
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 1 A
Formas Funcionales Alternativas en Modelos de Regresión Lineal
[M1]: Qi = β1 + β2 Pi [M2]: ln Qi = β1 + β2 ln Pi ⇒ Qi = exp ( β1 + β2 ln Pi )

β2 > 0 β2 = 1

−1 < β2 < 0
Qi Qi 0 < β2 < 1

β2 = −1
β2 < 0

β2 > 1

Pi Pi

GUIÓN PÁGINA 16
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 1 B
Formas Funcionales Alternativas en Modelos de Regresión Lineal
[M3]: ln Qi = β1 + β2 Pi ⇒ Qi = exp ( β1 + β2 Pi ) [M4]: Qi = β1 + β2 ln Pi

β2 > 0
β2 < 0

Qi Qi

β2 > 0

β2 < 0

Pi Pi

GUIÓN PÁGINA 17
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 1 C
Formas Funcionales Alternativas en Modelos de Regresión Lineal

[M5]: Qi = β1 + β2 1
Pi
[M6]: Qi = β1 + β2 Pi + β3 Pi2

β3 < 0
β2 > 0

Qi Qi

β2 < 0 β3 > 0

Pi Pi

GUIÓN PÁGINA 18
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

Observación sobre terminología: El MLG [1] se denomina a veces una regresión lineal de Y sobre X1, X 2 , ..., X K . El
MLG [1′] se denomina a veces una regresión lineal de Y sobre X 2 , ..., X K con término constante. Esta terminología se
emplea especialmente cuando se considera la estimación de un modelo dado.

H2 Ausencia de multicolinealidad exacta

rango(X) = K . Además, se supone que K < N (N – K > 0 ⇒ grados de libertad positivos).

H3 Exogeneidad estricta

¹ E[U i | X ] = E[U i ] para todo i = 1, ..., N, o bien E[ U | X ] = E[ U ]. Adicionalmente:

H3.1 E[U i ] es la misma para todo i = 1, ..., N (influencia esperada homogénea).


H3.2 E[U i ] = 0 para todo i = 1, ..., N, o bien E[ U ] = 0 (MLG con término constante).

¹ E[U i | X ] = 0 para todo i = 1, ..., N, o bien E[ U | X ] = 0 .

Observación 6: La hipótesis H3 constituye un enunciado formal de la idea de independencia entre influencias omitidas
e influencias incluidas en un análisis aplicado, mencionada repetidamente en la Introducción a la asignatura y en el
Prólogo al Guión. Cuando E[ U X ] = 0 , se dice que los regresores del MLG son estrictamente exógenos, en el sentido
que el valor esperado de las influencias incluidas en cada perturbación del modelo es independiente de lo que valga

GUIÓN PÁGINA 19
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

cualquier variable explicativa (regresor) en cualquier punto muestral (entidad observable o momento). En particular,
E[ U X ] = 0 implica que E[Xt′ U i ] = 0 ( ⇒ Cov[Xt′ , U i ] = Corr[ Xt′ , U i ] = 0 ) para todo t, i = 1, …, N (ortogonalidad
entre regresores y perturbaciones). Según los datos empleados, la exogeneidad estricta puede requerir lo siguiente:
¹ En muchas ocasiones, puede suponerse razonablemente que una colección de datos de sección cruzada procede de
una muestra aleatoria del tipo [Yi , Xi′ ] ( i = 1, ..., N ), con cada una de sus observaciones independiente de las
demás. En este contexto, la hipótesis de que E[U i Xi ] = 0 para todo i = 1, ..., N es suficiente para garantizar H3.
¹ En general, una colección de datos de series temporales suele proceder de una secuencia de variables aleatorias del
tipo [Yt , Xt′ ] ( t = 1, ..., N ) en la que cada observación está correlacionada con las anteriores. En este contexto, H3
no permite la presencia de variables explicativas que estén correlacionadas con valores pasados de U t , lo que
excluye la presencia de retardos de la variable dependiente (Yt −1 , Yt −2 , ...) en el lado derecho del modelo.

H4 Homoscedasticidad y ausencia de autocorrelación

Var[ U | X ] ≡ E[(U − E[ U | X ])(U − E[ U | X ])′ | X ] = E[ UU ′ | X ] = σ 2 I ¹ Var[ U ] = σ 2 I


(incondicionalmente). En conjunto, de H3 y H4 se deduce que
 U1  0  Var[U 1 ] Cov[U 1, U 2 ] Cov[U 1, U N ]  σ2 0 0 
       
U2  0  Cov[U , U ]   
     2 1 Var[U 2 ] Cov[U 2, U N ]   0 σ2 0 
E[U] ≡ E   =   , Var[U] ≡   =  .

       
       
U N  0  Cov[U N , U 1 ] Cov[U N , U 2 ] Var[U N ] 
       0 0 σ2 
 

GUIÓN PÁGINA 20
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

Observación 7: Var[U] es una matriz escalar (diagonal con los elementos de su diagonal principal iguales entre sí).

H5 Normalidad

U | X ∼ N(0, σ 2 I).
Observación 8: Las hipótesis H1 - H5 caracterizan al MLG como un modelo estadístico completo que propone como
origen de unos datos observados una colección W ≡ [ Y, X ] de variables aleatorias tal que

Y | X ∼ N(Xβ, σ 2 I).

La Figura 2 contiene una representación gráfica de la expresión anterior en el caso del modelo RLS.

Observación sobre notación: Para abreviar, en adelante no vuelve a emplearse la notación ⋅ | X ("condicionado por
X"). No obstante, cualquier esperanza, varianza, covarianza, correlación o, en general, cualquier distribución de
probabilidad, debe entenderse siempre condicionada por X. Cuando una esperanza, varianza, covarianza, correlación o
distribución de probabilidad no depende de X, entonces también puede entenderse como una esperanza, varianza,
covarianza, correlación o distribución de probabilidad incondicional (marginal).

GUIÓN PÁGINA 21
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 2
Representación Gráfica del Modelo de Regresión Lineal Simple bajo H1 - H5
Y : VARIABLE DEPENDIENTE

E[ Yi | X i ] = β1 + β 2 X i
y1
u1 > 0
β1 + β 2 x1 E[ Y1 | X1 = x1 ]

β1 + β 2 x2 E[ Y2 | X 2 = x2 ]

β1
y2
u2 < 0
0 x2 x1
X : VARIABLE EXPLICATIVA

GUIÓN PÁGINA 22
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.2 MÍNIMOS CUADRADOS ORDINARIOS

Se pretende estimar los parámetros β1 , β2 , ..., βK de un modelo del tipo


Yi = β1 X i 1 + β2 X i 2 + ... + βK X iK + U i (i = 1, 2, ..., N ),
sobre cuyas variables observables se dispone de una colección de datos
 y1 x 11 x 12 x 1K   y1 x1′ 
   
y x x 2 K   
 2 21 x 22  y2 x2′ 
w≡ =  = [ y , X ].
   
   
 yN x N 1 x N 2 x NK    ′ 
   y N x N 
 
Los residuos asociados con una estimación b ≡ [b1 , b2 , ..., bK ]′ de β ≡ [ β1 , β2 , ..., βK ]′ son
 e1 ( b )   y1 − (b1x 11 + b2 x 12 + ... + bK x 1K )   y1 − x1′ b 
     
     y − x′ b 
 e2 ( b )   y2 − (b1x 21 + b2 x 22 + ... + bK x 2 K )   2 2 
e( b ) ≡   ≡   =   = y − Xb .
     
     
     ′ b 
 eN ( b )   y N − (b1x N 1 + b2 x N 2 + ... + bK x NK )   yN − xN 

GUIÓN PÁGINA 23
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

¹ Problema:
N N
Minimizar S ( b ) ≡ ∑ ei ( b ) = ∑ (yi − xi′ b )2 = e ( b )′ e( b ) = ( y − Xb )′ ( y − Xb ).
2
i =1 i =1

¹ Solución:

• ˆ = X ′y (ecuaciones normales) ¹ β
Condición de primer orden: X ′Xβ ˆ = (X ′X)−1 X ′y .

• Condición de segundo orden: X ′X definida positiva (no singular) por H2.


• Estimación MCO dado w ≡ [ y , X ]: β ˆ = (X ′X)−1 X ′y ¹ Estimador MCO para
ˆ W = ( X ′X )−1 X ′Y .
cualquier realización posible de W ≡ [ Y , X ]: β

• ˆ ≡ Xβ
Interpretación: y ˆ (valores ajustados), u ˆ ≡ y−y ˆ (residuos). Nótese
ˆ ≡ y − Xβ
ˆ ≡ Xβ
que ŷ y û son realizaciones particulares de Y ˆ W y de Uˆ ≡ Y−Y ˆ ≡ Y − XβˆW ,
respectivamente, asociadas con una realización particular w de W dada.

• Distinción: Y = Xβ + U (modelo especificado), y = Xβ ˆ+uˆ (modelo estimado),


ˆW + U
donde y es una realización particular de Y = Xβ + U = Xβ ˆ.

GUIÓN PÁGINA 24
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 3
El Modelo de Regresión Lineal Simple Estimado

E[ Yi | X i ] = β1 + β 2 X i yˆi = βˆ1 + βˆ2 x i


Y : VARIABLE DEPENDIENTE

y1
uˆ1 > 0
βˆ1 + βˆ2 x1 ˆ Y1 | X1 = x1 ]
yˆ1 = E[

βˆ1 + βˆ2 x2 ˆ Y2 | X 2 = x2 ]
yˆ2 ≡ E[
uˆ2 < 0
y2 La pendiente de
esta recta es βˆ2
βˆ1
0 x2 x1
X : VARIABLE EXPLICATIVA

GUIÓN PÁGINA 25
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

¹ Práctica: Contenido explícito de las ecuaciones normales para el cálculo de β̂ :

 x 11 x 21 x N 1   x 11 x 12 x 1K   βˆ1  x x xN 1   y1 
      11 21   
 x 12 x 22 x N 2   x 21 x 22 x 2K   βˆ  x x xN 2   y2 
    2   12 22   
    =   
        
 x 1K x 2K x NK   x N 1 x N 2 x NK    x x   yN 
    βˆK   1K 2K x NK   
 
X′ X ˆ
β X′ y . [4]
K ×N N ×K K ×1 K ×N N ×1

Esta expresión puede escribirse de manera más compacta como


 ∑ x2 ∑ x i 1x i 2 ∑ x i 1x iK   βˆ1 
  ∑ x i 1yi 
 i1   
 ∑x x
 i2 i1 ∑ x i22 ∑ x i 2x iK   βˆ2
 
  ∑ x i 2yi 
    =  

     
     ∑ x iK yi 
 ∑ x iK x i 1 ∑ x iK x i 2 ∑ x iK   βˆK
2   
   
X ′X ˆ
β X ′y . [5]
K ×K K ×1 K ×1

GUIÓN PÁGINA 26
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

En modelos con término constante ( x i1 ≡ 1 para todo i = 1, ..., N ), [4] y [5] quedan:

 1 1 1   1 x 12 x 1K   βˆ1   1 1
  1   y1 
     x x   
 x 12 x 22 xN 2   1 x 22 x 2K   βˆ2  =  12 22 xN 2   y2 
        , [6]
        
     x x   
 x 1K x 2K x NK   1 xN 2 x NK   βˆ x NK   yN 
 
    K 1K 2K   

 N ∑ xi2 ∑ x iK   βˆ1   ∑ yi 
     
   ˆ   ∑x y 
 ∑ x i 2 ∑ x i22 ∑ x i 2x iK   β2 
 =  
i2 i
   . [7]
     
     
     ∑ x iK yi 
 ∑ x iK ∑ x iK x i 2 2
∑ x iK   βˆ   
   K 

¹ Ej.1: Estimación por MCO de β en Yi = β + U i . (Ver A.1.)

¹ Ej.2: Estimación por MCO de β1 y β2 en Yi = β1 + β2Xi + U i (RLS). (Ver A.1.)

¹ Ej.3: Cálculo numérico de β̂ , ŷ y û en un modelo RLS – EV.1 .

GUIÓN PÁGINA 27
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.3 PROPIEDADES ESTADÍSTICAS

¹ E[ β ˆ W ] ≡ Var[ β
ˆ W ] = β , Σ[ β ˆ W ] = σ 2 ( X ′X )−1 , y Teorema de Gauss-Markov.

¹ ˆ W es un ELIO (BLUE) de β (sin H5 esto no implica que β


β ˆ W sea eficiente).

FIGURA 4 A
Valor Esperado - Insesgadez

f β̂ f βW
W

k1 β k2 δ

GUIÓN PÁGINA 28
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

FIGURA 4 B
Varianza - Eficiencia Relativa

f β̂
W

f βW

k1 β k2

¹ Ej.1: Var[βˆW ] en Yi = β + U i . (Ver M1 en A.1.)


¹ Ej.2: Var[βˆ1W ] , Var[βˆ2W ] y Cov[βˆ1W , βˆ2W ] en Yi = β1 + β2Xi + U i . (Ver M2 en A.1.)
¹ Ej.3: Continuación Ej.3 del final de 1.2.

GUIÓN PÁGINA 29
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.4 PROPIEDADES ALGEBRAICAS

¹ ˆ = X′y ⇒ [1] X′u


X′Xβ ˆ ′u
ˆ = 0 ⇒ [2] y ˆ = 0 ⇒ [3] y ′y = y
ˆ ′y ˆ ′u
ˆ+u ˆ.

¹ ˆ ′u
[3] ⇒ [4] u ˆ = y ′y − y
ˆ ′y ˆ ′X′Xβ
ˆ = y ′y − β ˆ = y ′y − β
ˆ ′X′y .

¹ En modelos con término constante, [1] ⇒ [5] ∑iN=1 uˆi = 0 ⇒ [6] ∑iN=1 yi = ∑iN=1 yˆi .

¹ [7] STC ≡ y ′y − Ny 2 = ∑iN=1(yi − y )2 ≥ 0 .

¹ [8] SEC ≡ y ˆ − Ny 2 . Puede ser negativa; pero en modelos con término constante:
ˆ ′y

ˆ − Nyˆ 2 = ∑iN=1(yˆi − yˆ)2 ≥ 0 .


ˆ ′y
• [6] ⇒ y = yˆ ⇒ [9] SEC = y

¹ [10] SRC ≡ u ˆ = ∑iN=1 uˆi2 ≥ 0 . ([3] ⇒ [11] STC = SEC + SRC.)


ˆ ′u

¹ [12] R 2 ≡ SEC / STC = 1 − SRC / STC (por [11]; [4] ⇒ fórmulas alternativas.)

¹ Propiedades del R 2 :

• [13] R 2 ≥ 0 sólo en modelos con término constante (por la primera parte de [12]).

GUIÓN PÁGINA 30
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

• [14] R 2 ≤ 1 siempre (por la segunda parte de [12]).

¹ Ej.1: Expresiones analíticas para R 2 en modelos con término constante. (Ver A.2.)

• R 2 = ryy
2
ˆ en yi = βˆ1 + βˆ2x i 2 + ... + βˆK x iK + uˆi .

• R 2 = 0 en yi = βˆ + uˆi .

• R 2 = rxy ˆ1 + βˆ2x i + uˆi .


2 en y = β
i
SRC /( N −K )
¹ [15]: R 2 ≡ 1 − STC /( N −1)
= 1 − NN−−K1 (1 − R 2 ) .

¹ Ej.2: Continuación Ej.3 del final de 1.3 – EV.2 .

1.5 ERROR ESTÁNDAR DE LA REGRESIÓN

¹ Uˆ = MY = MU , con M ≡ I − X(X′X)−1 X′ ⇒ [1] M = M′ (simétrica), [2] MM = M


(idempotente), [3] traza(M) = N – K = rango(M) ⇒ M es singular.

¹ ˆ ] = 0 , Var[U
E[U ˆ ] = σ 2M =
/ σ 2I (residuos autocorrelacionados y heteroscedásticos).

GUIÓN PÁGINA 31
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

2
¹ Los estimadores σˆW ˆ ′U
=U ˆ /(N − K ) y Σ ˆ W ] = σˆ2 ( X ′X )−1 son insesgados.
ˆ W [β
W

¹ Práctica: Completar Ej.2 del final de 1.4 – EV.3 – Presentación de resultados.

¹ Práctica: Estimación e interpretación de varios modelos RLM – EV.4 .

¹ Práctica: Hacer Ejercicio nº 1.

1.6 DATOS EN DESVIACIONES CON RESPECTO A LA MEDIA

¹ Estudiar A.3.

¹ Práctica: Hacer Ejercicio nº 2.

1.7 REGRESIÓN PARTICIONADA Y CORRELACIÓN PARCIAL

¹ Estudiar A.4.

¹ Práctica: Hacer Ejercicio nº 3.

GUIÓN PÁGINA 32
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.8 NORMALIDAD

¹ Resultados auxiliares I:

• [A1] V ∼ N(µ, Σ) ⇒ Z = QV + q ∼ N(Qµ + q, QΣQ′), con V (v.a.s) N×1, Q


(constantes) M×N, q (constantes) N×1.

• [A2] V ∼ N( 0, σ 2 I ) ⇒ Z = 12 V ′RV ∼ χ 2 ( R ) , con V (v.a.s) N×1, R (constantes)


σ
N×N simétrica e idempotente con rango(R) = traza(R) = R (1 ≤ R ≤ N ) .

• [A3] V ∼ N(0, σ 2I) ⇒ Z1 = QV y Z 2 = V ′RV son independientes ⇔ QR = 0, con


V (v.a.s) N×1, Q (constantes) M×N, R (constantes) N×N simétrica e idempotente.

¹ Normalidad (H5): Y = Xβ + U y U ∼ N(0, σ 2I) ⇒ Y ∼ N(Xβ, σ 2I) por [A1].

¹ ˆ W = β + ( X ′X )−1 X ′U ∼ N[β , σ 2 ( X ′X )−1 ] por [A1].


β

¹ N −K 2
σˆW = 1 ˆ ′U
U ˆ = 1 U ′MU ∼ χ 2 ( N − K ) por [A2] ⇒ σˆW
2 ∼ σ2 χ 2 ( N − K ).
σ2 σ2 σ2 N −K

GUIÓN PÁGINA 33
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

¹ ˆ W − β = (X′X)−1 X′U y (N − K )σˆ2 = U


β ˆ ′U
ˆ = U′MU son independientes por [A3] ⇒
W
ˆ W y σ̂ 2 son independientes, así como β
β ˆ W y N −K σˆ2 .
W 2 W σ
ˆ W ≡ [β
¹ Como consecuencia de todo lo anterior: θ ≡ [β ′, σ 2 ]′ y θ ˆW ] = θ
ˆ ′W , σˆ2 ]′ ⇒ E[θ
W
ˆ W es un estimador insesgado de θ ), y la matriz Var[θ
(θ ˆ W ] es:

 Var[ β ˆ W ] Cov[ β
ˆ W , σˆ2 ]   σ 2 ( X ′X )−1 0 
ˆ  W   K ×1 
Var[ θ W ] =   = .
2
 Cov[ σˆW , βˆ W ] Var[ σˆ ] 
2  0′ 2σ4 
 W   1×K N −K 

¹ La función de densidad (pdf) de Y ∼ N(Xβ, σ 2I) es


− N2 − 12 ( y−Xβ ) ′ ( y−Xβ ) / σ 2
f ( y; θ ) = f ( y; β, σ2 ) = 2
(2 πσ ) e .

¹ Cota de Cramér-Rao (CCR): Bajo ciertas condiciones de regularidad sobre f (y; θ) (que
se cumplen en el MLG), la matriz de varianzas de cualquier estimador insesgado θ W
de θ es tal que Var[ θ W ] − I(θ)−1 es una matriz semidefinida positiva para todo θ ,
donde

GUIÓN PÁGINA 34
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

 ∂ 2 ln f ( Y ; θ ) 
I( θ ) ≡ − E   ≡ − E[ ∇2 ln f ( Y ; θ )]
 ∂θ∂θ ′  θ
 
se denomina matriz de información sobre θ . En el MLG,
 ∂ 2 ln f ( Y ; θ ) ∂ 2 ln f ( Y ; θ ) 
 12 ( X ′X ) 0 
 ∂β∂β ′ 

I( θ ) = − E  2
∂β∂σ 2  =  σ K ×1 
,
∂ 2 ln f ( Y ; θ ) 
  N 
 ∂ ln f ( Y ; θ ) 0 ′
 ∂σ 2 ∂β ′ ∂σ 2 ∂σ 2  
 1×K 2 σ 
4

luego
 σ 2 ( X ′X )−1 0 
 K ×1 
I( θ )−1 =  .
 0′ 2σ4 
 1×K N 

¹ ˆ W = (X′X)−1 X′Y es el (único) MVUE (no sólo BLUE) de β en el MLG.


β

¹ 2 ]=
Var[ σˆW 2σ4 > 2σ4 2
; no obstante, σ̂ W es el (único) MVUE de σ 2 en el MLG.
N −K N

GUIÓN PÁGINA 35
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

1.9 MÁXIMA VEROSIMILITUD

¹ Función de verosimilitud: L(θ; y) ≡ f (y; θ) (pdf de Y como función de θ con y dado).


2 ′
¹ θ W ≡ [β ′W , σ W ] es un EMV de θ ≡ [β ′, σ 2 ]′ ⇔ Dada una observación y cualquiera
sobre Y, L(θ; y) ≥ L(θ; y) para cualquier valor numérico posible de θ .

¹ Maximizar L(θ; y) ⇔ Minimizar L∗(θ; y) ≡ − ln L(θ; y). En el MLG,


N N
L∗ ( θ ; y ) = 2
ln(2 π ) + 2
ln σ 2 + 12 ( y − Xβ ) ′ ( y − Xβ ) / σ 2 .

¹ Propiedades generales de los EMV:


• Un EMV no siempre es insesgado.
• Si (i) existe un estimador insesgado θ W de θ tal que Var[ θ W ] = I(θ)−1 (por lo que,
según CCR, θ W es un MVUE de θ ), y (ii) el EMV θ W de θ satisface la condición
[∇θL∗(θ; y)]θ = θ = 0 , entonces θ W = θ W , por lo que θ W es un MVUE de θ .
• Bajo ciertas condiciones sobre f (y; θ) y L(θ; y) (que se cumplen en el MLG), θ W es
consistente y asintóticamente Normal (CAN) y asintóticamente eficiente (AE).

GUIÓN PÁGINA 36
ECONOMETRÍA I TEMA 1 - ESPECIFICACIÓN Y ESTIMACIÓN DEL MLG

¹ Condiciones de primer orden: en el MLG, de [∇θL∗(θ; y)]θ = θ = 0 se deduce que:


ˆ W es único;
• β W = (X′X)−1 X′Y = β

• σW ˆW ) = 1 U
2 = 1 ( Y − X β ) ′ ( Y − Xβ ˆ ′U
ˆ =
/ σ
ˆ 2
N W N W es único.

¹ Condiciones de segundo orden: en el MLG, [∇2θL∗(θ; y)]θ = θ es definida positiva.

¹ ˆ W = (X′X)−1 X′Y Normal y MVUE (por 1.8), CAN y AE (por ser un EMV).
βW = β
N −K N −K 2 2( N −K )
¹ 2 =
σW N
2 ⇒ E[ σ 2 ] =
σˆW W N
σ 2 < σ 2 y Var[ σ W ]= σ4:
N2
2 2
• σW no es insesgado, pero E[σ W ] → σ 2 y Var[σ W
2
] → 0 cuando N → ∞ .
2 2 ( N −K )2 2 2 .
• Var[ σ W ]/ Var[ σˆW ]= < 1 ⇒ Var[σ W ] < Var[σˆW ]
N2
2 ] /[(2 / N )σ 4 ] =
• Var[ σ W N −K < 1 ⇒ Var[ σ 2 ] < 2 σ 4 (CCR).
N W N
2
K +2( N −K ) 4
2 2
• Comparar ECM[ σ W ]= 2 σ con ECM[ σˆW ]= 2
N −K
σ4 .
N

GUIÓN PÁGINA 37
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

– TEMA 2 –
CONTRASTES DE HIPÓTESIS Y PREVISIÓN

¹ Objetivo: Obtener información sobre ciertos aspectos cuantitativos de la relación entre


la variable dependiente y las variables explicativas en el MLG.

¹ Método: Contrastar la posible existencia de relaciones entre Aβ y c, con A ( M × K )


tal que rango(A) = M (1 ≤ M ≤ K ) y c ( M × 1) dados.

¹ Componentes de un contraste:

• H 0 (hipótesis nula): conjetura que se mantiene como válida (no se rechaza)


mientras no se encuentre suficiente evidencia en su contra.
• H 1 (hipótesis alternativa): conjetura en favor de la cual se rechaza (si procede) H 0 .
• FW (estadístico de contraste): estadístico cuya distribución se conoce bajo H 0 .
• C R (región crítica): subconjunto de R tal que F ∈ C R ⇒ rechazar H 0 .

GUIÓN PÁGINA 38
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

2.1 CONTRASTES DE VARIAS HIPÓTESIS

¹ Resultados auxiliares II:

• [A4] V ∼ N(µ, Σ) ⇒ Z = (V − µ)′ Σ−1(V − µ) ∼ χ 2(N ) , con V (v.a.s) N×1.


• [A5] V ∼ N(0, σ 2I) ⇒ Z1 = V ′PV y Z 2 = V ′QV son independientes ⇔ PQ = 0,
con V (v.a.s) N×1, P y Q (constantes) N×N, simétricas e idempotentes.
g2 V
• [A6] V1 ∼ χ 2(g1 ) y V2 ∼ χ 2(g 2 ) independientes ⇒ Z = g1 × V1 ∼ F ( g1 , g 2 ).
2
• [A7] Z ∼ t(g ) ⇔ Z 2 ∼ F (1, g ).

¹ Obtención del estadístico de contraste FW ∼ F (M , N − K ) bajo H 0 : Aβ = c .


ˆ W − β = (X′X)−1 X′U ∼ N[0, σ 2(X′X)−1 ] por [A1].
• β
ˆ W − β) ∼ N[0, σ 2A(X′X)−1 A′] por [A1] ⇒ Var[Aβ
• A(β ˆ W ] = σ 2A(X′X)−1 A′ .

ˆ W − β)]′[σ 2A(X′X)−1 A′]−1[A(β


• Q1 = [A(β ˆ W − β)] ∼ χ 2(M ) por [A4].

• Q2 = N −2K σˆW
2 = 1 U ˆ ′U
ˆ = 1 U ′MU ∼ χ 2 ( N − K ) por [A2].
σ σ 2 σ2

GUIÓN PÁGINA 39
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

ˆ W − β) = A(X′X)−1 X′U .]
• Q1 y Q2 son independientes por [A5]. [En Q1 , A(β
∗ = N −K Q
• FW M
× Q1 ∼ F ( M , N − K ) por [A6], es decir,
2

ˆ W − β )]′[A( X ′X )−1 A ′ ]−1 [ A( β


[ A( β ˆ W − β )]

FW = ∼ F ( M , N − K ),
2
M σˆW

o bien
∗ =
FW 1 ˆ W − β )]′ Σ
[ A( β ˆ W ]−1 [ A( β
ˆ W [ Aβ ˆ W − β )] ∼ F ( M , N − K ),
M

ˆ W ] = σˆ2 A(X′X)−1 A′ . [Nótese que F ∗ depende de β .]


ˆ W [Aβ
con Σ W W

• Cuando H 0 : Aβ = c es cierta, FW queda
ˆ W − c )′[A( X ′X )−1 A ′ ]−1 ( Aβ
( Aβ ˆ W − c)
FW = 2
M σˆW
= 1 ˆW
( Aβ ˆ W [ Aβ
− c )′ Σ ˆ W ]−1 ( Aβ
ˆ W − c ) ∼ F ( M , N − K ).
M

GUIÓN PÁGINA 40
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

¹ Determinación de la región crítica C R . (Ver Figura 5.)


• Escoger α (nivel de significación) y buscar F1−α (valor crítico) en la tabla de la
F (M , N − K ) tal que Pr[F (M , N − K ) ≤ F1−α ] = 1 − α .

• F ∈ C R = [F1−α , +∞) ⇒ rechazar H 0 (F ≡ valor calculado del estadístico FW ).

• p-value: α∗ = Pr[F (M , N − K ) ≥ F ] = 1 − Pr[F (M , N − K ) ≤ F ].

¹ Práctica: Contrastes numéricos en Yi = β1 + β2X i 2 + β3Xi 3 + U i – EV.5 .

2.2 CONTRASTES DE UNA ÚNICA HIPÓTESIS

¹ M = 1 ⇒ A = a ′ = [a1, a 2, ..., aK ] (1 × K ) y c = c (1 × 1) en el estadístico FW del


apartado 2.1 anterior, que queda:
ˆW − c
a ′β
tW = ∼ t ( N − K ) por [A7],
ˆ ˆ
ΣW [ a ′β W ]

con Σ ˆ W ] = σˆW
ˆ W [ a ′β a ′( X ′X )−1 a .

GUIÓN PÁGINA 41
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

¹ ˆ W = βˆj W (1 ≤ j ≤ K ) . Estadístico:
Cuando a ′ = [0, ..., 1, ..., 0] ⇒ a ′β = β j y a ′β

βˆj W − c
tW = ∼ t ( N − K ),
ˆ W [ βˆj W ]
Σ

con ˆ W [ βˆj W ] =
Σ 2 [( X ′X )−1 ]
σˆW jj (1 ≤ j ≤ K ) . Si, además, c = 0,

βˆj W
tW = ∼ t ( N − K ).
ˆ W [ βˆj W ]
Σ

¹ Región crítica para H 0 : a ′β = c , H 1 : a ′β =


/ c (contraste de dos colas o bilateral; ver
Figura 6):

• Escoger α (nivel de significación) y buscar t1− α (valor crítico) en la tabla de la


2
α
t(N − K ) tal que Pr[ t ( N − K ) ≤ t1− α ] = 1 − 2 .
2
• t ∈ C R = (−∞, −t1− α ] ∪ [ t1− α , +∞ ) ⇒ rechazar H 0 (t ≡ valor calculado de t W );
2 2
esta regla es equivalente a que t > t1− α ⇒ a ′βˆ es "suficientemente" distinto de c.
2

GUIÓN PÁGINA 42
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

• El contraste de H 0 : β j = 0 frente a H 1 : β j =
/ 0 es un contraste de significación
individual de β j .
• p-value: α∗ = 2 × Pr[t(N − K ) ≥ t ] = 2 × (1 − Pr[t(N − K ) ≤ t ]) .

¹ Región crítica para H 0 : a ′β = c ó H 0 : a ′β ≤ c , H 1 : a ′β > c (contraste de una sola


cola o unilateral, por la derecha; ver Figura 7):
• Escoger α (nivel de significación) y buscar t1−α (valor crítico) en la tabla de la
t(N − K ) tal que Pr[t(N − K ) ≤ t1−α ] = 1 − α .
• t ∈ C R = [t1−α , +∞) ⇒ rechazar H 0 ; esta regla es equivalente a que t > t1−α ⇒
ˆ es "suficientemente" mayor que c.
a ′β
• p-value: α∗ = Pr[t(N − K ) ≥ t ] = 1 − Pr[t(N − K ) ≤ t ] .

¹ Región crítica para H 0 : a ′β = c ó H 0 : a ′β ≥ c , H 1 : a ′β < c (contraste de una sola


cola o unilateral, por la izquierda; ver Figura 8):
• Escoger α (nivel de significación) y buscar t α (valor crítico) en la tabla de la
t(N − K ) tal que Pr[t(N − K ) ≤ t α ] = α .

GUIÓN PÁGINA 43
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

ˆ
• t ∈ C R = (−∞, t α ] ⇒ rechazar H 0 ; esta regla es equivalente a que t < t α ⇒ a ′β
es "suficientemente" menor que c.

• p-value: α∗ = Pr[t(N − K ) ≤ t ].

¹ Práctica: Contrastes numéricos en Yi = β1 + β2X i 2 + β3Xi 3 + U i – EV.6 .

GUIÓN PÁGINA 44
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

FIGURA 5
Valor Crítico y "p-value" para Contrastes basados en el Estadístico F

f F ( M, N− K ) f F ( M, N− K )

α α∗

0 F1−α 0 F
P-value = α∗
No rechazar H0 Rechazar H0 Prob. de obtener un valor mayor que F

GUIÓN PÁGINA 45
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

FIGURA 6
Valores Críticos y "p-value" para Contrastes de Dos Colas (Bilaterales) basados en Estadísticos t

ft ( N − K ) ft ( N − K )

α α α∗ α∗
2 2 2 2

tα 0 t1− α −|t| 0 |t|


2 2
P-value = α∗
Rechazar H0 No rechazar H0 Rechazar H0 Prob. de obtener un valor más extremo que | t |

GUIÓN PÁGINA 46
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

FIGURA 7
Valor Crítico y "p-value" para Contrastes de Una Cola (Unilaterales) por la Derecha basados en Estadísticos t

ft ( N − K ) ft ( N − K )

α α∗

0 t1−α 0 t
P-value = α∗
No rechazar H0 Rechazar H0 Prob. de obtener un valor mayor que t

GUIÓN PÁGINA 47
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

FIGURA 8
Valor Crítico y "p-value" para Contrastes de Una Cola (Unilaterales) por la Izquierda basados en Estadísticos t

ft ( N − K ) ft ( N − K )

α α∗

tα 0 t 0
P-value = α∗
Rechazar H0 No rechazar H0 Prob. de obtener un valor menor que t

GUIÓN PÁGINA 48
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

2.3 INTERVALOS DE CONFIANZA



¹ M = 1 ⇒ A = a ′ = [a1, a 2, ..., aK ] (1 × K ) en la v.a. FW de 2.1, que queda
ˆW − β)
a ′( β

tW = ∼ t ( N − K ) por [A7].
ˆ ˆ
ΣW [ a ′β W ]
∗ ≤ t α ] = 1 − α , con t α = −t α < 0 y Pr[ t ( N − K ) ≤ t α ] = α
¹ ⇒ Pr[ t α ≤ t W 1− 1− 2
:
2 2 2 2 2

• Pr[a ′β ∈ IC1−α (a ′β; W)] = 1 − α , con IC1−α ( a ′β ; W ) ≡  a ′β ˆW ± tα Σ ˆW ] .


ˆ W [ a ′β

 2

• Cuando a ′ = [0, ..., 1, ..., 0] ⇒ IC1−α ( β j ; W ) ≡  βˆj W ± t α Σ


ˆ W [ βˆj W ]  .

 2

¹ Interpretación de Σˆ W [βˆj W] y de Σ ˆ[βˆj W] ≡ Vâr[βˆj W] como medidas de la precisión del


estimador βˆj W o de la fiabilidad de la estimación βˆj (1 ≤ j ≤ K ).

¹ Contrastes de hipótesis al 100α% e intervalos de confianza del 100(1 − α)% :

/ c ⇔ c ∉  a ′β
• Rechazar H 0 : a ′β = c en favor de H 1 : a ′β = ˆ ± t α Vâr[ a ′βˆW ] .

 2

• Rechazar H 0 : β j = c en favor de H 1 : β j =/ c ⇔ c ∉  βˆj ± t α Vâr[ βˆj V ]  .


 2 
GUIÓN PÁGINA 49
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

FIGURA 9
Valores Críticos para la Obtención de Intervalos de
Confianza

ft ( N − K ) 1− α

α α
2 2

tα 0 t1− α
2 2

¹ Práctica: Intervalos de confianza en Yi = β1 + β2X i 2 + β3Xi 3 + U i – EV.7 .

¹ Práctica: Contrastes e intervalos de confianza en varios modelos RLM – EV.8 .

GUIÓN PÁGINA 50
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

2.4 RESTRICCIONES LINEALES

¹ ˆ∗ = β
Minimizar S (b) ≡ e′e sobre Ab = c ⇒ β ˆ + (X′X)−1 A′[A(X′X)−1 A′]−1(c − Aβ
ˆ ):

ˆ∗ = β
• Estimador MCR: β ˆ W + (X′X)−1 A′[A(X′X)−1 A′]−1(c − Aβ
ˆ W ) ⇒ Aβ
ˆ∗ = c.
W W
ˆ ∗ ] = β (insesgado), pero Aβ ≠ c ⇒ E[β
• Aβ = c ⇒ E[β ˆ ∗ ] ≠ β (sesgado).
W W
ˆ ∗ ] = σ 2(X′X)−1 − σ 2(X′X)−1 A′[A(X′X)−1 A′]−1 A(X′X)−1 siempre.
• Var[β W

¹ Contraste de H 0 : Aβ = c frente a H 1 : Aβ =
/ c mediante sumas residuales:
ˆ∗ − β
(β ˆ W )′ X ′X( β
ˆ∗ − β
ˆW )
W W
FW = 2
∼ F ( M , N − K ),
M σˆW

de donde puede deducirse que


ˆ ∗′ U
ˆ∗ − Uˆ ′U
ˆ ∗
U N − K SRCW − SRCW
FW = 2
= × ∼ F ( M , N − K ).
M σˆW M SRC W

¹ Práctica: Contrastes mediante sustitución de restricciones (ejemplos) – EV.9 .

GUIÓN PÁGINA 51
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

¹ Práctica: Contraste de significación global en modelos con término constante:

RW2
N −K
FW = × ∼ F ( K − 1, N − K ) – EV.10 .
K − 1 1 − R2
W

Hacer la Pregunta 1 del Ejercicio nº 4.

¹ Práctica: Contraste de cambio estructural (test de Chow) – EV.11 .

2.5 ALGUNOS CONTRASTES COMO ELEMENTOS DE DIAGNOSIS

¹ Contraste de Normalidad (Jarque-Bera) – Ver Apartado 6.4.3 (p. 185) en el manual de


M. Verbeek – EV.12 .

¹ Contraste de especificación RESET – Ver Apartado 9.1 (pp. 320-326) en el manual de


J.M. Wooldridge (2006).

¹ Contrastes de heteroscedasticidad y de autocorrelación – Econometría II.

GUIÓN PÁGINA 52
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

2.6 PREVISIÓN

¹ Resultados auxiliares III:


V1
• [A8] V1 ∼ N(0, 1) y V2 ∼ χ 2(g ) independientes ⇒ Z = ∼ t (g ).
V2 / g
¹ Prever ≡ Estimar la distribución de Y0 = X 0′ β + U 0 condicionada por X 0 = x 0 dado:

• Y0 ∼ N(x ′0 β, σ 2 ) , donde tanto E[Y0 ] = x ′0 β como Var[Y0 ] = σ 2 pueden estimarse.


ˆ W se emplea para estimar E[Y0 ] y σ̂ 2 para estimar Var[Y0 ].
• Yˆ0 ≡ x 0′ β W
ˆ se denomina una previsión puntual de Y0 (estimación
• La estimación ŷ 0 ≡ x ′0 β
puntual de E[Y0 ] ).

¹ ˆW:
Error de previsión asociado con el estimador Yˆ0 ≡ x ′0 β
ˆ W ).
• V0 ≡ Y0 − Yˆ0 = U 0 + x ′0 (β − β
ˆ W ] = σ 2 [1 + x 0′ ( X ′X )−1 x 0 ].
• E[V0 ] = 0 , Var[V0 ] = σ 2 + Var[ x 0′ β

GUIÓN PÁGINA 53
ECONOMETRÍA I TEMA 2 - CONTRASTES DE HIPÓTESIS Y PREVISIÓN

¹ Bajo la hipótesis de Normalidad, incluyendo que U 0 ∼ N(0, σ 2 ) , por [A8]:

Y0 − Yˆ0 Y0 − x 0′ β ˆW
= ∼ t ( N − K ),
ˆ −1
ΣW [V0 ] σˆW 1 + x 0′ ( X ′X ) x 0

¹ Intervalo de confianza para Y0 : IC1−α (Y0 ) ≡  x 0′ β


ˆ ± tα ˆ [V0 ]  .
Σ 
 2

¹ Estimación de probabilidades referidas a Y0 :


 p − yˆ0 

P̂r[Y0 ≥ p ] = Pr  t(N − K ) ≥ ,

ˆ[V0 ] 
 Σ 
 p − ˆ
y 
P̂r[Y0 ≤ p ] = Pr  t(N − K ) ≤ 0 .
 ˆ[V0 ] 
Σ 

¹ Práctica: Previsión en Yi = β1 + β2Xi 2 + β3Xi 3 + U i – EV.13 .

¹ Práctica: Hacer las preguntas 2, 3 y 4 del Ejercicio nº 4.

GUIÓN PÁGINA 54
ECONOMETRÍA I TEMA 3 - EXTENSIONES

– TEMA 3 –
EXTENSIONES

3.1 TRANSFORMACIONES LINEALES

¹ Ejemplo 1: [MO] yi = βˆ1 + βˆ2x i + uˆi , [MT] yi = βˆ1∗ + βˆ2∗x i∗ + uˆi∗ , donde x i∗ = x i + a
(i = 1, ..., N ) , a ≠ 0 (constante) ⇒ cambio de origen en la variable explicativa:
∑ ( x i∗ −x ∗ )( yi −y ) ∑ ( x i −x )( yi −y )
• βˆ2∗ = = = βˆ2 , porque xi∗ − x ∗ = (x i + a ) − (x + a ) .
∑ ( x i∗ −x ∗ )2 ∑ ( x i −x )2
• βˆ1∗ = y − βˆ2∗x ∗ = y − βˆ2x ∗ = y − βˆ2(x + a ) = βˆ1 − βˆ2a , porque y − βˆ2x = βˆ1 .

• uˆi∗ = yi − βˆ1∗ − βˆ2∗x i∗ = yi − (βˆ1 − βˆ2a ) − βˆ2(x i + a ) = yi − βˆ1 − βˆ2x i = uˆi .


2∗ ∑ uˆi∗2
• R = 1− = R2 .
∑ ( yi −y )2

¹ Ejemplo 2: [MO] yi = βˆ1 + βˆ2x i + uˆi , [MT] yi∗ = βˆ1∗ + βˆ2∗x i∗ + uˆi∗ , donde yi∗ = λyi ,
x i∗ = µx i + a (i = 1, ..., N ) , λ ≠ 1 , µ ≠ 1 , a ≠ 0 (constantes) ⇒ cambio de escala en

GUIÓN PÁGINA 55
ECONOMETRÍA I TEMA 3 - EXTENSIONES

la variable dependiente y cambio de escala y de origen en la variable explicativa:


∑ ( x i∗ −x ∗ )( yi∗ −y ∗ ) λµ ∑ ( x i −x )( yi −y )
• βˆ2∗ = = = λ
µ βˆ2 .
∑ ( x i∗ −x ∗ )2 µ2 ∑ ( x i −x )2
• βˆ1∗ = y ∗ − βˆ2∗ x ∗ = λy − λµ βˆ2 ( µx + a ) = λβˆ1 − λµ βˆ2a .

• uˆi∗ = yi∗ − βˆ1∗ − βˆ2∗ x i∗ = λyi − (λβˆ1 − λµ βˆ2a ) − λµ βˆ2 ( µx i + a ) = λuˆi .


∑ uˆi∗2 λ 2 ∑ uˆi2
• R 2∗ = 1− = 1− = R2 .
∑ ( yi∗ −y ∗ )2 λ 2 ∑ ( yi −y )2

¹ Extensiones: varianzas de los estimadores y estadísticos de contraste; ver J.M.


Wooldridge (2006) Apartado 6.1 (pp. 202-207).

3.2 MULTICOLINEALIDAD

¹ Multicolinealidad exacta (estricta).

• Definición: rango(X) < K con K < N (incumplimiento de H2) ⇔ Al menos una


columna de X es una combinación lineal exacta de otra(s) (ejemplos).

GUIÓN PÁGINA 56
ECONOMETRÍA I TEMA 3 - EXTENSIONES

• Consecuencias: X ′X es singular ⇔ No existe ( X ′X )−1 ⇒ Las ecuaciones normales


ˆ W ] = σ 2(X′X)−1 no está definida.
tienen infinitas soluciones y Var[β

¹ Multicolinealidad aproximada.

• Definición: rango(X) = K con K < N (no se incumple H2), pero al menos una
columna de X es una combinación lineal aproximada de otra(s), como en
x2 ≅ a1 x1 + a 3 x 3 + ... + aK x K ,
donde al menos uno de los a1 , a 3 , ..., aK es distinto de cero. (Ejemplos: factores de
producción empleados en una proporción dada, tendencias temporales comunes, ...)

• Consecuencia 1: las varianzas de los estimadores MCO pueden ser grandes, como en

Var[βˆ2 W ] = σ2 ,
(1−R22 ) ∑iN=1 ( x i 2 −x 2 )2

(ver [14] en A.4), donde R22 es el coeficiente de determinación de la regresión de X 2


sobre las restantes variables explicativas. [Nótese que Var[βˆ2 W ] puede ser grande
tanto si R22 es grande como si ∑iN=1 ( x i 2 − x 2 )2 es pequeño.]

GUIÓN PÁGINA 57
ECONOMETRÍA I TEMA 3 - EXTENSIONES

• Consecuencia 1 ⇒ (1) Los estimadores MCO son poco precisos (las estimaciones
MCO son poco fiables) porque los intervalos de confianza son amplios, y (2) los
valores de los estadísticos t para los contrastes de significación individuales son
pequeños, incluso cuando los valores del R 2 y del estadístico F para el contraste de
significación global son grandes.

• Consecuencia 2: las estimaciones MCO son muy sensibles a pequeñas modificaciones


muestrales y a la eliminación de variables aparentemente no significativas.

• A pesar de todo, las previsiones implicadas por un modelo estimado con variables
ligadas por una relación de dependencia lineal aproximada, pueden ser fiables si
dicha relación se mantiene en los puntos de previsión.

• Detección: R j2 para cada variable explicativa, número de condición de X ′X , ...

• Remedios: eliminar variables (ver 3.3), obtener más y mejores datos, utilizar
información extramuestral (imponer restricciones sobre β ; ver 2.4), ...

¹ Ver J.M. Wooldridge (2006) pp. 103-107, M. Verbeek (2004) pp. 42-44.

GUIÓN PÁGINA 58
ECONOMETRÍA I TEMA 3 - EXTENSIONES

3.3 ERRORES DE ESPECIFICACIÓN

¹ Omisión de variables relevantes (1): relación con MCR (ver 2.4).


• [BE.1] Yi = β1 + β2 Xi 2 + β3 X i 3 + U i .

• [ME.1] Yi = β1 + β2 Xi 2 + Vi , donde Vi ≡ β3 Xi 3 + U i .

• [ME.1] es [BE.1] restringido por β3 = 0 (falsa) ⇒ El estimador MCO de β2 en


[BE.1], β̂2 W , es insesgado y eficiente; el estimador MCO de β2 en [ME.1], β2 W , es
sesgado pero tiene menor varianza que β̂2 W .

¹ Inclusión de variables irrelevantes (1): relación con MCR (ver 2.4).


• [BE.2] Yi = β1 + β2 Xi 2 + U i .

• [ME.2] Yi = β1 + β2 Xi 2 + β3 X i 3 + U i , donde β3 = 0 .

• [BE.2] es [ME.2] restringido por β3 = 0 (cierta) ⇒ El estimador MCO de β2 en


[BE.2], β̂2 W , es insesgado y eficiente; el estimador MCO de β2 en [ME.2], β2 W ,
también es insesgado pero tiene mayor varianza que β̂2 W .

GUIÓN PÁGINA 59
ECONOMETRÍA I TEMA 3 - EXTENSIONES

¹ Omisión de variables relevantes (2): sesgo del estimador MCO de β2 en [ME.1].


∑ Xi 2Yi ∑ Xi 2Yi
β2 W = = .
∑ Xi22 ∑ Xi22

[Para obtener la expresión a la derecha de la segunda igualdad, se ha tenido en cuenta


que ∑ X i 2Yi = ∑ X i 2 (Yi − Y ) = ∑ X i 2Yi − Y ∑ X i 2 , con ∑ X i 2 = 0.] Sustituyendo
Yi por β1 + β2 Xi 2 + β3 X i 3 + U i (según [MB.1]) en la expresión anterior:

∑ X i 2Yi = β1 ∑ X i 2 + β2 ∑ Xi22 + β3 ∑ X i 2 X i 3 + ∑ X i 2U i ,

por lo que
∑ Xi 2 Xi 3
E[ β2 W ] = β2 + β3 ,
∑ Xi22

que no coincide con β2 , excepto si β3 = 0 ó ∑ X i 2 X i 3 = 0 ; el sesgo E[ β2 W ] − β2 es


tanto mayor cuanto mayor sea ∑ X i 2 X i 3 .

GUIÓN PÁGINA 60
ECONOMETRÍA I TEMA 3 - EXTENSIONES

¹ Omisión de variables relevantes (3): varianzas de los estimadores MCO de β2 en [BE.1]


y en [ME.1]. (Ver [14] en A.4 y última línea de A.1.)

Var[βˆ2 W ] = σ2 , Var[ β2 W ] = σ2 .
(1−R22 ) ∑ Xi22 ∑ Xi22

• Var[β2 W ] < Var[βˆ2 W ] , excepto si R22 = 0

• Var[β2 W ] es tanto menor que Var[βˆ2 W ] cuanto mayor sea R22 .

¹ Omisión de variables relevantes (4): omisión del término constante en un modelo RLS.

El estimador MCO de β2 en Yi = β2 Xi + Vi cuando Yi = β1 + β2 Xi + U i es


∑ XiYi ∑ Xi ( β1 + β2 Xi +U i ) ∑ Xi
β2 W = = ⇒ E[ β2 W ] = β2 + β1 ,
∑ Xi2 ∑ Xi2 ∑ Xi2

que no coincide con β2 , excepto si ∑ Xi = 0 ⇔ X = 0 .

¹ Inclusión de variables irrelevantes (2): varianzas de los estimadores MCO de β2 en


[BE.2] y en [ME.2].

GUIÓN PÁGINA 61
ECONOMETRÍA I TEMA 3 - EXTENSIONES

Var[βˆ2 W ] = σ2 , Var[ β2 W ] = σ2 .
∑ Xi22 (1−R22 ) ∑ Xi22

• Var[βˆ2 W ] < Var[β2 W ] , excepto si R22 = 0

• Var[β2 W ] es tanto mayor que Var[βˆ2 W ] cuanto mayor sea R22 .

¹ Ver J.M. Wooldridge (2006) pp. 96-101 y 107-108, M. Verbeek (2004) pp. 55-59.

3.4 VARIABLES EXPLICATIVAS BINARIAS

¹ Una variable explicativa binaria se utiliza para clasificar todas las observaciones de una
muestra entre dos o más categorías exhaustivas y excluyentes de una característica
determinada, como en los ejemplos siguientes:
• Dividir una serie temporal en dos períodos para contrastar la estabilidad de los
parámetros de un modelo entre dichos períodos (cambio estructural).
• Clasificar una sección cruzada en dos grupos (por ejemplo hombres y mujeres) para
contrastar la homogeneidad de los parámetros de un modelo entre dichos grupos.

GUIÓN PÁGINA 62
ECONOMETRÍA I TEMA 3 - EXTENSIONES

¹ Caso 1: términos constantes diferentes – pendientes iguales. (Ver Figura 10.)

• [MR.1] Yi = β1 + β2 Xi + U i .

• [MNR.1] Yi = β1 A DAi + β1 B DBi + β2 Xi + Vi , donde:



 1, si i ∈ categoría A 
 1, si i ∈ categoría B
DAi 
≡ 
, DBi ≡  .
 
 0, en caso contrario
 0, en caso contrario
 

• ⇒ E[Yi | DAi = 1, X i ] = β1 A + β2 X i , E[Yi | DBi = 1, X i ] = β1 B + β2 X i .

• DAi + DBi = 1 (i = 1, ..., N ) ⇒ DBi = 1 − DAi (i = 1, ..., N ) (también valdría


DAi = 1 − DBi ), por lo que [MNR.1] puede escribirse como:
Yi = β1 B + ( β1 A − β1 B )DAi + β2 Xi + Vi
[MNR.1]
= β1 B + αAB DAi + β2 Xi + Vi ,

con αAB ≡ β1 A − β1 B = E[Yi | DAi = 1, X i = X ∗ ] − E[Yi | DBi = 1, X i = X ∗ ].

GUIÓN PÁGINA 63
ECONOMETRÍA I TEMA 3 - EXTENSIONES

• El contraste de H 0 : β1 A = β1 B ( ⇔ αAB = 0) , H 1 : β1 A =
/ β1B ( ⇔ αAB =
/ 0) es
un simple contraste de significación individual de αAB en el modelo anterior (que
también puede llevarse a cabo comparando la SRC de [MNR.1] con la de [MR.1];
ver 2.4).

• También vale una alternativa unilateral, como H 1 : β1 A > β1 B ( ⇔ αAB > 0) o


bien como H 1 : β1 A < β1 B ( ⇔ αAB < 0) .

• La categoría cuya variable binaria no se incluye en el modelo es la categoría base o


de referencia.

• En ningún caso se podrían incluir en el modelo no restringido las dos variables


binarias y un término constante adicional (dummy variable trap).

GUIÓN PÁGINA 64
ECONOMETRÍA I TEMA 3 - EXTENSIONES

FIGURA 10
Términos Constantes Diferentes – Pendientes Iguales

A: E[ Yi | X i ] = β1A + β 2 X i
Y : VARIABLE DEPENDIENTE

α AB
β1A
Pendiente = β 2

β1B
B: E[ Yi | X i ] = β1B + β 2 X i
0
X : VARIABLE EXPLICATIVA

GUIÓN PÁGINA 65
ECONOMETRÍA I TEMA 3 - EXTENSIONES

FIGURA 11
Términos Constantes Iguales – Pendientes Diferentes
Y : VARIABLE DEPENDIENTE

A: E[ Yi | X i ] = β1 + β 2 A X i
Pendiente = β 2 A

Pendiente = β 2 B
β1
B: E[ Yi | X i ] = β1 + β 2 B X i
0
X : VARIABLE EXPLICATIVA

GUIÓN PÁGINA 66
ECONOMETRÍA I TEMA 3 - EXTENSIONES

FIGURA 12
Términos Constantes y Pendientes Diferentes
Y : VARIABLE DEPENDIENTE

A: E[ Yi | X i ] = β1A + β 2 A X i
Pendiente = β 2 B

Pendiente = β 2 A
β1A

β1B B: E[ Yi | X i ] = β1B + β 2 B X i
0
X : VARIABLE EXPLICATIVA

GUIÓN PÁGINA 67
ECONOMETRÍA I TEMA 3 - EXTENSIONES

¹ Caso 2: pendientes diferentes – términos constantes iguales. (Ver Figura 11.)

• [MR.1] Yi = β1 + β2 Xi + U i .

• [MNR.2] Yi = β1 + β2 A ( DAi X i ) + β2 B ( DBi X i ) + Vi .

• ⇒ E[Yi | DAi = 1, X i ] = β1 + β2 A X i , E[Yi | DBi = 1, X i ] = β1 + β2 B X i .

• DAi + DBi = 1 (i = 1, ..., N ) ⇒ DBi = 1 − DAi (i = 1, ..., N ) (también valdría


DAi = 1 − DBi ), por lo que [MNR.2] puede escribirse como:
Yi = β1 + β2 B Xi + ( β2 A − β2 B )( DAi Xi ) + Vi
[MNR.2]
= β1 + β2 B Xi + δAB ( DAi Xi ) + Vi ,

con δAB ≡ β2 A − β2 B ≈  ∆Xi  −  ∆Xi  .


∆Y ∆Y
 i A  i B

• El contraste de H 0 : β2 A = β2 B ( ⇔ δAB = 0), H 1 : β2 A =


/ β2 B ( ⇔ δAB =
/ 0) es
un simple contraste de significación individual de δAB en el modelo anterior (que
también puede llevarse a cabo comparando la SRC de [MNR.2] con la de [MR.1];
ver 2.4); también valen alternativas unilaterales.

GUIÓN PÁGINA 68
ECONOMETRÍA I TEMA 3 - EXTENSIONES

• De nuevo, la categoría cuya variable binaria no se incluye en el modelo es la


categoría base o de referencia.

• En ningún caso se podrían incluir en el modelo no restringido las tres variables


( DAi X i ) , ( DBi X i ) y X i .

¹ Caso 3: términos constantes y pendientes diferentes. (Ver Figura 12.)

• [MR.1] Yi = β1 + β2 Xi + U i .
• [MNR.3] Yi = β1 A DAi + β1 B DBi + β2 A ( DAi X i ) + β2 B ( DBi X i ) + Vi .
• ⇒ E[Yi | DAi = 1, X i ] = β1 A + β2 A X i , E[Yi | DBi = 1, X i ] = β1 B + β2 B X i .
• DAi + DBi = 1 (i = 1, ..., N ) ⇒ DBi = 1 − DAi (i = 1, ..., N ) (también valdría
DAi = 1 − DBi ), por lo que [MNR.3] puede escribirse como:
Yi = β1 B + ( β1 A − β1 B )DAi + β2 B Xi + ( β2 A − β2 B )( DAi Xi ) + Vi
[MNR.3]
= β1 B + αAB DAi + β2 B Xi + δAB ( DAi Xi ) + Vi ,

con αAB ≡ β1 A − β1 B y δAB ≡ β2 A − β2 B . Este es el modelo no restringido más

GUIÓN PÁGINA 69
ECONOMETRÍA I TEMA 3 - EXTENSIONES

general (el menos restringido de todos), que puede utilizarse junto con alguno de los
modelos anteriores para contrastar diferentes hipótesis sobre la estabilidad o la
homogeneidad de los parámetros entre las dos categorías consideradas.

• H 0 : ( αAB , δAB )′ = (0, 0)′ , H 0 : ( αAB , δAB )′ =


/ (0, 0)′ : contraste de significación
conjunta de αAB y δAB en [MNR.3], que puede llevarse a cabo comparando la SRC
de [MNR.3] con la de [MR.1] (idéntico al test de Chow del final de 2.4).

¹ Generalizaciones: Más de una característica – Más de dos categorías por característica.

¹ Práctica: Exámenes de cursos pasados (hacer Ejercicio nº 5) – EV.14 .

¹ Ver J.M. Wooldridge (2006) Apartados 7.1-7.4 (pp. 244-267).

GUIÓN PÁGINA 70
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

APUNTES ADICIONALES PARA EL TEMA 1

A.1 ESTIMACIÓN POR MCO EN MODELOS LINEALES SENCILLOS

M1 Yi = β + U i ⇒ K = 1, X = [1, 1, ..., 1]′ ⇒ X′X = N , ( X ′X )−1 = N1 , X′Y = ∑ Yi ⇒


ˆ − 1 ∑ Yi ˆ 2 −1 σ 2
′ ′
βW = ( X X ) X Y = N = Y (media muestral de Y), Var[ βW ] = σ ( X X ) = N ′
(varianza de la media muestral de Y).

M2 Yi = β1 + β2Xi + U i (modelo RLS) ⇒ K = 2. En este caso:


 N ∑ xi   ∑ x 2 − ∑ xi   ∑ yi 
X ′X =   , ( X ′X )−1 =   , X ′y = 
1 i .
2  N ∑ x i −( ∑ x i )2
2 − ∑ x   ∑ x i yi 
 ∑ x i ∑ x i   i N   

El determinante de X′X [el denominador en (X′X)−1 ] puede escribirse como:

N ∑ x i2 − (∑ xi )2 = N ∑ x i2 − (N x )2 = N (∑ x i2 − N x 2 ) = N ∑(x i − x )2 = N 2s x2 ,

GUIÓN PÁGINA 71
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

donde s x2 ≡ N1 ∑( x i − x )2 es la varianza muestral (calculada) de x1, ..., x N . Por otro lado,


ˆ = [βˆ1, βˆ2 ]′ = (X′X)−1 X′y , el numerador de β̂2 (pendiente) queda
como β

N ∑ x iyi − ∑ xi ∑ yi = N ∑ x iyi − N 2 xy = N ∑(x i − x )(yi − y ) = N 2s xy ,

donde s xy ≡ N1 ∑(x i − x )(yi − y ) es la covarianza muestral (calculada) entre x1, ..., x N e


sy s xy
y1, ..., yN . Por lo tanto, βˆ2 = s xy / s x2 = s x rxy , donde rxy ≡ s x s y es el coeficiente de
correlación lineal simple muestral (calculado) entre x 1, ..., x N e y1, ..., yN . Por su parte, el
numerador de β̂1 (término constante) queda

∑ x i2 ∑ yi − ∑ xi ∑ xi yi = Ny ∑ x i2 − N x ∑ x iyi ,

donde ∑ x i2 = Ns x2 + N x 2 y ∑ x iyy = Ns xy + N xy ; sustituyendo esto en la expresión


anterior y recordando que el determinante de X′X es N 2s x2 , β̂1 queda
N 2 y ( s x2 +x 2 )−N 2 x ( s xy +x y )
βˆ1 =
N 2 s x2
ys x2 +y x 2 −xs xy −x 2 y s xy
= =y − x = y − βˆ2 x .
s x2 s x2

GUIÓN PÁGINA 72
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

En consecuencia, los estimadores correspondientes a las estimaciones obtenidas de β1 y β2


S SY
son los siguientes: βˆ1W = Y − βˆ2WX , βˆ2 W = XY 2 = R . Por último, a partir de
S X XY
SX
(X′X)−1 se obtienen las varianzas de β̂1W y de β̂2W , y la covarianza entre β̂1W y β̂2W :
∑ x i2 Ns x2 +N x 2 σ2 x 2σ2
Var[ βˆ1 W ] = σ2 = σ2 = N
+ ,
N 2s x2 N 2s x2 Ns x2
σ2 ∑ xi x σ2
Var[ βˆ2 W ] = , Cov[ βˆ1 W , βˆ2 W ] = − σ2 = − .
Ns x2 N 2s x2 Ns x2

A.2 COEFICIENTES DE DETERMINACIÓN EN MODELOS CON TÉRMINO CONSTANTE

[1] SEC ≡ ∑iN=1(yˆi − y )2 = ∑iN=1 yˆi2 + Ny 2 − 2N yyˆ = ∑iN=1 yˆi2 − Ny 2 = Ns yˆ2 (solamente
en modelos con término constante; ver [6] en 1.4).

[2] STC ≡ ∑iN=1(yi − y )2 = ∑iN=1 yi2 − Ny 2 = Ns y2 (siempre).

[3] ∑iN=1 yˆi2 = y


ˆ ′y ˆ ′(y − u
ˆ=y ˆ ′y = ∑iN=1 yˆiyi (siempre; ver [2] en 1.4]).
ˆ) = y

GUIÓN PÁGINA 73
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

[4] [1]-[3] ⇒ SEC = ∑iN=1 yˆiyi − N y 2 = ∑iN=1(yˆi − y )(yi − y ) = Ns yy 2


ˆ ⇒ sy
ˆ = s yy
ˆ .
2
s yy
[5] R = 2 SEC = SEC2 =
ˆ 2
= ryy (coeficiente de correlación lineal simple al
STC SEC × STC s yˆ2 ×s y2 ˆ

cuadrado entre ŷ (valores ajustados) e y (valores observados).

M1 yi = βˆ + uˆi ⇒ yˆi = βˆ = y para todo i = 1, ..., N (ver M1 en A.1) ⇒


1 N 2
ˆ = N ∑i =1 (yˆi − y )(yi − y ) = 0 ⇒ R = 0 (no se explica en absoluto la variación
s yy
observada en y alrededor de y , sino tan sólo los valores contenidos en y).

M2 Yi = β1 + β2Xi + U i ⇒ yˆi = βˆ1 + βˆ2x i = y + βˆ2(x i − x ) (ver M2 en A.1). Entonces:


2
s xy
ˆ =
s yy 1
N
∑iN=1 [ y + βˆ2 ( x i − x )][ yi − y ] = 1
N
βˆ2 ∑iN=1 ( x i − x )(yi − y ) = βˆ2 s xy = ,
s x2
2
s xy
s yˆ2 = 1
N
∑iN=1 [ y + βˆ2 ( x i − x ) − y ] = 2 1
N
βˆ22 ∑iN=1 ( x i −x) = 2
βˆ22 s x2 = .
s x2
2
s yy 2
2 ˆ s xy 2
Por lo tanto, en el modelo RLS ocurre que R = = = rxy (coeficiente de
s yˆ2 ⋅s y2 s x2 ⋅s y2
correlación lineal simple al cuadrado entre x e y).

GUIÓN PÁGINA 74
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

El resultado que se enuncia a continuación sobre la inversión de matrices particionadas es


fundamental para el desarrollo de los dos apartados siguientes. Si
 A11 A12 
A =  ,

 A21 A22 
entonces
 B11 −B11A12A− 1 
A−1 
=
22 ,
−1 
 −A−1
22 A 21 B11 A−1
22 + A−1
22 A 21 B11A 12 A 22 

donde B11 ≡ (A11 − A12A− 1 −1


22 A 21 ) , o bien
−1
 A11 −1 −1 −1 
+ A11 A12B22A21A11 −A11 A12B22
A−1 
= ,
−1 
 −B22A 21A11 B22 

−1
donde B22 ≡ (A22 − A21A11 A12 )−1 .

GUIÓN PÁGINA 75
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

A.3 ESTIMACIÓN POR MCO CON DATOS EN DESVIACIONES CON RESPECTO A LA MEDIA

En el MLG con término constante, la matriz X puede particionarse como X = [ i, X ], donde


i es un vector columna de N unos y X ≡ [ x 2 , ..., x K ] es la matriz N × (K − 1) de
observaciones sobre X i 2, ..., X iK ; de acuerdo con esta partición,
 i ′i i ′X   N N x′   i ′y   Ny 
     
X′X =   =  , X′y =   =  ,
 X′i X′X   N x X′X   X′y   X′y 
     

donde x ≡ [x 2, ..., x K ]′ es el vector (K − 1) × 1 que contiene las medias muestrales o


aritméticas de x 2 , ..., x K . Usando la segunda de las dos expresiones anteriores para invertir
matrices particionadas, puede comprobarse que
 1 + x ′ (X ′X − N xx ′ )−1 x −x ′ (X ′X − N xx ′ )−1 
N
(X ′X)−1 = ,
 −(X ′X − N xx ′ )−1 x (X ′X − N xx ′ )− 1 
 

o bien

GUIÓN PÁGINA 76
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

 1 + x ′ ( X ′DX )−1 x − x ′ ( X ′DX )−1 



( X ′X )−1 = N ,
 −( X ′DX )−1 x ( X ′DX ) − 1 
 
donde D ≡ I − i(i ′i)−1 i ′ es una matriz simétrica e idempotente; por lo tanto, definiendo
X ≡ DX = [ Dx 2 , ..., Dx K ] [N × (K − 1)], (X′X)−1 también puede escribirse como
 1 + x ′ ( X ′X )−1 x − x ′ ( X ′X )−1 

( X ′X )−1 = N . [1]
 −( X ′X )−1 x ( X ′X ) − 1 
 
En consecuencia, la estimación MCO de β = [ β1 , β 2′ ]′ , donde β1 es el término constante y
β 2 ≡ [ β2 , ..., βK ]′ es el vector (K − 1) × 1 de pendientes, puede escribirse como
 βˆ1   y − x ′ (X′X)−1(X′y − N xy ) 
ˆ =   −1  
β
ˆ2  = (X′X) X′y =  −1
,
β   (X′X) (X′y − N xy ) 
   
de donde resulta que

GUIÓN PÁGINA 77
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

βˆ1 = y − x ′β
ˆ2, [2]

ˆ 2 = (X′X)−1 X′y ,
β [3]

donde y ≡ Dy (N × 1) . Teniendo en cuenta que X ≡ DX = [ Dx 2 , ..., Dx K ],


 x1 j − x j 
 
x j ≡ Dx j = x j − i 1 
i ′x j =   ( j = 2, ..., K ), y
N 
xj  
 x Nj − x j 

 y1 − y 
 
1 ′ 
y ≡ Dy = y − i N i y =  ,

y  
y
 N − y 

la estimación por MCO del MLG con término constante puede llevarse a cabo utilizando
datos en desviaciones con respecto a sus medias correspondientes, estimando primero el
vector de pendientes según [3] y luego el término constante según [2].

GUIÓN PÁGINA 78
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

Si x ij ≡ x ij − x j e yi ≡ yi − y , el contenido explícito de la matriz X′X y del vector X′y


que figuran en [3] es el siguiente:

 x 12 x 22 x N 2   x 12 x 13 x 1K   ∑ x i22 ∑ x i 2x i 3 ∑ x i 2x iK 

    
x x x N 3   x 22 x 23 x 2K   ∑ x i 3x i 2 ∑ x i23 ∑ x i 3x iK 
 13 23
X ′X =    =  ,

    
    
 x 1K x 2K x NK   x N 2 x N 3 x NK   ∑ x iK x i 2 ∑ x iK x i 3 2
    ∑ x iK 

(K −1)×N N ×(K −1) (K −1)×(K −1)

 x 12 x 22 xN 2   y1   ∑ x i 2yi 
     
x x N 3  y   ∑x y 
 13 x 23  2   i3 i 
X ′y =     =  ,
     
     
 x 1K x 2K x NK   yN   ∑ x iK yi 
     
(K −1)×N N ×1 (K −1)×1

de manera que el elemento (k, j )-ésimo de X′X es el numerador de la covarianza muestral

GUIÓN PÁGINA 79
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

entre xk y x j (k, j = 2, 3, ..., K ) , y elemento k -ésimo de X′y es el numerador de la


covarianza muestral entre xk e y (k = 2, 3, ..., K ) ; además, β̂ 2 en [3] también puede escribirse
como β ˆ 2 = ( 1 X ′X )−1 ( 1 X ′y ) , donde 1 X ′X es la matriz de covarianzas muestrales
N N N
1
entre las variables explicativas , y N X ′y es el vector de covarianzas muestrales entre las
variables explicativas y la variable dependiente.
ˆ W ] = σ 2(X′X)−1 , resulta que
Utilizando [1] y el hecho de que Var[β
 Var[ βˆ1 W ] Cov[ βˆ1 W , β
ˆ2W ]   1 + x ′ ( X ′X )−1 x − x ′ ( X ′X )−1 
  
ˆW ] = 
Var[ β  = σ2  N .
ˆ 2 W , βˆ1 W ]
 Cov[ β Var[ β ˆ2W ]   −( X ′X )−1 x ( X ′X ) − 1 
   
Los datos en desviaciones con respecto a la media también pueden utilizarse para calcular
las sumas de cuadrados asociadas con la estimación por MCO:

STC ≡ ∑iN=1(yi − y )2 = ∑iN=1 yi2 = y ′y , [4]

ˆ ′u
SRC ≡ u ˆ ′X′y = y′y − β
ˆ = y ′y − β ˆ ′2X′y = y′[I − X(X′X)−1 X′]y ⇒ SEC = β
ˆ ′2X′y , [5]

GUIÓN PÁGINA 80
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

ya que y ′y − β ˆ ′X′y = y ′y − βˆ1Ny − β ˆ 2 )Ny − β


ˆ ′2X′y = y ′y − (y − x ′β ˆ ′2X′y = y ′y − Ny 2
−β ˆ ′2(X′y − N xy ) = y ′y − βˆ ′2X′y . Por último, dado que los residuos MCO suman cero (ver
[5] en 1.4), Duˆ =u ˆ , por lo que dichos residuos pueden calcularse (ver 1.5) como:
ˆ
ˆ = DMy = [D − DX(X′X)−1 X′]y = Dy − DXβ
u
[6]
ˆ2 = y −
= y − Xβ X(X′X)−1 X′y = My,

donde M ≡ I − X(X′X)−1 X′ es una matriz simétrica e idempotente.

A.4 REGRESIÓN PARTICIONADA Y CORRELACIÓN PARCIAL

En el MLG Y = Xβ + U con término constante, consideramos una partición de


X = [ i, X ] = [ i, Xa , Xb ] , donde Xa es de orden N × Ka y Xb es de orden N × Kb , con
Ka + Kb = K − 1 ; en particular, pude ocurrir que Ka = 1 (en referencia a una variable
explicativa dada) y Kb = K − 2 (en referencia a las restantes variables explicativas).
Haciendo la partición correspondiente de β = [ β1 , βa′ , βb′ ]′ , el MLG Y = Xβ + U puede

GUIÓN PÁGINA 81
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

escribirse como Y = iβ1 + Xa βa + Xb βb , donde βa es el vector (K a × 1) que contiene los


parámetros asociados con las Ka variables explicativas recogidas en Xa , y βb es el vector
(K b × 1) que contiene los parámetros asociados con las Kb variables explicativas recogidas
en Xb . La estimación por MCO de las pendientes βa y βb puede llevarse a cabo de acuerdo
con [3] en el apartado anterior (A.3); dada una observación y sobre Y, teniendo en cuenta
que
 Xa′ Xa Xa′ Xb   Xa′ y 
X′X =    ,
 , X′y =  
X ′
 b aX X ′ X
b b  X ′ y
 b 

y (usando la primera de las dos expresiones anteriores para invertir matrices particionadas)
que
 (Xa′ Mb Xa )−1 −(Xa′ Mb Xa )−1 Xa′ Xb (Xb′ Xb )−1 
(X′X)−1 
= ,

 −(Xb′ Xb )−1 Xb′ Xa (Xa′ Mb Xa )−1 (Xb′ Xb )−1 + (Xb′ Xb )−1 Xb′ Xa (Xa′ Mb Xa )−1 Xa′ Xb (Xb′ Xb )−1 

donde Mb ≡ I − Xb (Xb′ Xb )−1 Xb′ es simétrica e idempotente, las estimaciones MCO de βa y


βb son (después de algunas líneas de álgebra) las siguientes:

GUIÓN PÁGINA 82
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

ˆ a = (Xa′ Mb Xa )−1 Xa′ Mb y ,


β [7]

ˆ b = (Xb′ Xb )−1 Xb′ (y − Xa β


β ˆ a ). [8]

Como Mb es simétrica e idempotente, la estimación MCO β ˆ a de βa en [7] también puede


escribirse como β ˆ a = [(Mb Xa )′ (Mb Xa )]−1(Mb Xa )′ (Mb y) , que coincide con la estimación
MCO habitual del vector completo de parámetros en la regresión del vector Mb y (N × 1)
sobre la matriz Mb Xa (N × K a ) ; en dicha regresión (ver [6] al final de A.3), Mb y es, a su
vez, el vector de residuos MCO de la regresión con término constante de y sobre Xb ,
mientras que cada columna de Mb Xa contiene, a su vez, los residuos MCO de la regresión
con término constante de cada columna de Xa sobre Xb . Por lo tanto, Mb y y Mb Xa
pueden interpretarse como lo que queda de y y de Xa , respectivamente, después de eliminar
tanto de y como de Xa la influencia lineal de Xb . En consecuencia, si se desea estimar el
MLG con término constante de y sobre Xa , eliminando previamente tanto de y como de
Xa la posible influencia lineal de Xb , tan sólo es necesario estimar la regresión de y sobre
X = [ i, Xa , Xb ] y fijarse en la estimación β ˆ a del vector de parámetros asociado con las
variables explicativas contenidas en Xa .

GUIÓN PÁGINA 83
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

Por último, si las covarianzas (o las correlaciones lineales simples) muestrales entre las
variables explicativas contenidas en Xa y las contenidas en Xb son todas iguales a cero, de
manera que Xa′ Xb = 0 (⇒ Xa′ Mb = Xa′ y Xb′ Xa = 0 ), entonces [7] y [8] quedan
ˆ a = (Xa′ Xa )−1 Xa′ y ,
β

ˆ b = (Xb′ Xb )−1 Xb′ y ,


β

que coinciden con las estimaciones MCO de las pendientes en las regresiones con término
constante de y sobre Xa y de y sobre Xb , respectivamente.

Aplicaciones

AP1 Cuando Ka = 1 (en referencia a una variable explicativa cualquiera dada, por ejemplo
la número j con 2 ≤ j ≤ K ), la estimación MCO de β j puede escribirse según [7] como
x ′j M− j y
βˆj = ( x j′ M− j x j )−1 x j′ M− j y = , [9]
x ′j M− j x j

GUIÓN PÁGINA 84
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

′ j X− j )−1 X−
donde M− j ≡ I − X− j (X− ′ j con X−j ≡ [x 2, ..., x j −1,x j +1, x K ] ; por otro lado, de
acuerdo con la expresión para (X′X)−1 obtenida al principio de A.4, la varianza del
estimador MCO de β j es

Var[βˆj W ] = σ2 . [10]
x ′j M− j x j

En [9] y [10], el denominador x ′j M− j x j es igual (ver [5] en A.3) a la SRC de la regresión


con término constante de x j sobre X−j ≡ [x 2, ..., x j −1,x j +1, x K ] (las restantes variables
explicativas del modelo), que puede escribirse (ver 1.4) como

′ j X− j )−1 ( X−
x ′j M− j x j = x j′ x j − ( x ′j X− j )( X− ′ j x j ) = (1 − R j2 )x ′j x j , [11]

donde R j2 es el coeficiente de determinación de la regresión con término constante de x j


sobre las restantes variables explicativas.

Por otro lado, el numerador x ′j M− j y de βˆj en [9] puede escribirse como

′ j X− j )−1 ( X−
x ′j M− j y = x j′ y − ( x j′ X− j )( X− ′ j y ), [12]

GUIÓN PÁGINA 85
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

que depende de:

• la correlación lineal simple (covarianza) muestral entre x j e y (a través de x j′ y ),

• las correlaciones lineales simples (covarianzas) muestrales entre x j y cada una de las
restantes variables explicativas (a través de x ′j X− j ),

• las correlaciones lineales simples (covarianzas) muestrales entre cada par de las
′ j X− j ), y
restantes variables explicativas (a través de X−

• las correlaciones lineales simples (covarianzas) muestrales entre y y cada una de las
′ j y j ).
restantes variables explicativas (a través de X−

En resumen, [9] y [10] quedan


x ′j y−( x ′j X− j )( X− ′ j X− j )−1 ( X−
′ j y)
βˆj = , [13]
x ′j x j −( x ′j X− j )( X−
′ j X− j )−1 ( X−
′ j xj )

Var[βˆj W ] = σ2 = σ2 . [14]
(1−R j2 ) x ′j x j (1−R j2 ) ∑iN=1 ( x ij −x j )2

GUIÓN PÁGINA 86
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

En particular, [13] implica que en cualquier MLG con término constante y K ≥ 3 : (1) la
estimación βˆj puede ser distinta de cero aunque x j′ y = 0 , es decir, aunque la correlación
lineal simple (covarianza) muestral entre x j e y sea igual a cero, y (2) si las correlaciones
lineales simples (covarianzas) muestrales entre x j y cada una de las restantes variables
explicativas son iguales a cero (de manera que x ′j X− j = 0 ), entonces βˆj = x ′j y / x ′j x j , que
coincide con la estimación de la pendiente de la regresión lineal simple de y sobre x j .

AP2 El coeficiente de correlación lineal parcial (CCP) muestral entre y y x j se define como
el coeficiente de correlación lineal simple (CCS) muestral entre: (1) los residuos MCO de la
regresión con término constante de y sobre X−j y(2) los residuos MCO de la regresión con
término constante de x j sobre X−j . Por lo tanto, el CCP entre y y x j mide su grado de
asociación lineal una vez se ha extraído tanto de y como de x j la posible influencia lineal
del resto de variables explicativas del modelo. Los residuos mencionados en (1) y (2) se
pueden calcular, respectivamente, como (ver [6] al final de A.4) M−j y y M−j x j (cuya
media muestral en ambos casos es 0), de manera que el CCP entre y y x j es

GUIÓN PÁGINA 87
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

( M− j x j )′ ( M− j y ) x ′j M− j y
ryx j ( X− j ) ≡ = . [15]
( M− j x j )′ ( M− j x j ) ( M− j y )′ ( M− j y ) x ′j M− j x j y ′M− j y

mientras que el CCS entre y y x j es


x ′j y
ryx j ≡ , [16]
x ′j x j y ′y

por lo que, en general ryx j (X−j ) ≠ ryx j . Por último, βˆj en [9] puede escribirse como:
( M − j x j ) ′ ( M− j y )
βˆj = . [17]
( M− j x j )′ ( M− j x j )

que coincide con la estimación de la pendiente de la regresión lineal simple de los residuos
M−j y sobre los residuos M−j x j .

De [15] y [17] se deduce que en cualquier MLG con término constante y K ≥ 3 : (3) si el
CCP entre y y x j es igual a cero, entonces la estimación βˆj también es igual a cero, y (4)
βˆj coincide con la estimación de la pendiente de la regresión lineal simple de los residuos
M−j y sobre los residuos M−j x j , por lo que βˆj mide el grado de asociación lineal entre y y

GUIÓN PÁGINA 88
ECONOMETRÍA I APUNTES ADICIONALES PARA EL TEMA 1

x j una vez se ha extraído tanto de y como de x j la posible influencia lineal del resto de
variables explicativas del modelo.

Problemas

1 Utilizando la fórmula [13] anterior, comprobar en Yi = β1 + β2 X i 2 + β3 X i 3 + U i que:


( x 2′ y )( x 3′ x 3 )−( x 2′ x 3 )( x 3′ y ) ryx2 −rx2 x 3 ryx 3 s y
βˆ2 = = s x2 ,
( x 2′ x 2 )( x 3′ x 3 )−( x 2′ x 3 )2 1−rx22 x 3

( x 3′ y )( x 2′ x 2 )−( x 2′ x 3 )( x 2′ y ) ryx 3 −rx 3 x2 ryx2 s y


βˆ3 = = s x3 .
( x 2′ x 2 )( x 3′ x 3 )−( x 2′ x 3 )2 1−r 2
x 3 x2

2 Utilizando las fórmulas [15], [12] y [11] anteriores, comprobar en el mismo modelo que:
( x 2′ y )−( x 2′ x 3 )( x 3′ x 3 )−1 ( x 3′ y ) ryx2 −rx2 x 3 ryx 3
ryx 2 ( x 3 ) = = ,
(1−rx22 x 3 )( x 2′ x 2 ) (1−ryx
2 )( y ′y )
3 (1−rx22 x 3 ) (1−ryx
2 )
3

( x 3′ y )−( x 3′ x 2 )( x 2′ x 2 )−1 ( x 2′ y ) ryx 3 −rx 3 x2 ryx2


ryx 3 ( x 2 ) = = .
(1−rx23 x2 )( x 3′ x 3 ) (1−ryx
2 )( y ′y )
2 (1−rx23 x2 ) (1−ryx 2 )
2

GUIÓN PÁGINA 89

También podría gustarte