Está en la página 1de 162

Econometría I

Autores:1
Jose Miguel Benavente
Andrés Otero
Javiera Vásquez

Agosto 2007

1 Cualquier error es responsabilidad exclusiva de los autores.


Índice general

1. Introducción 5

2. Modelo de Regresión Lineal 8


2.1. Análisis de Regresión . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.1.1. ¾Qué es una regresión? . . . . . . . . . . . . . . . . . . . . 8

2.1.2. Relaciones estadísticas versus relaciones determinísticas . . 9

2.1.3. Regresión versus Causalidad . . . . . . . . . . . . . . . . . 10

2.1.4. Regresión versus Correlación . . . . . . . . . . . . . . . . . 10

2.2. Análisis de regresión con dos variables . . . . . . . . . . . . . . . 14

2.2.1. Función de regresión poblacional (FRP) . . . . . . . . . . 16

2.2.2. Especicación estocástica de la función de regresión pobla-


cional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.2.3. Función de regresión muestral . . . . . . . . . . . . . . . . 18

2.2.4. Propiedades de un Estimador . . . . . . . . . . . . . . . . 21

2.3. Modelo de regresión con dos variables . . . . . . . . . . . . . . . . 24

2.3.1. Método de Mínimos Cuadrados Ordinarios . . . . . . . . . 24

2.3.2. Supuestos detrás del método MCO . . . . . . . . . . . . . 31

2.3.3. Errores estándar de los Estimadores Mínimos Cuadrados


Ordinarios . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1
2.3.4. Estimador Mínimo Cuadrado Ordinario de σ 2 . . . . . . . 36

2.4. Modelo de Regresión con k variables . . . . . . . . . . . . . . . . 38

2.4.1. Representación Matricial del Modelo de Regresión Lineal . 38

2.4.2. Estimador Mínimo Cuadrados Ordinarios . . . . . . . . . . 39

2.5. Propiedades del estimador MCO . . . . . . . . . . . . . . . . . . . 41

2.5.1. Propiedad de mejor estimador lineal insesgado . . . . . . . 42

2.5.2. Teorema de Gauss-Markov . . . . . . . . . . . . . . . . . . 42

2.6. Geometría del Estimador MCO . . . . . . . . . . . . . . . . . . . 44

2.7. Bondad de Ajuste y Análisis de Varianza . . . . . . . . . . . . . . 45

2.7.1. Modelo de Regresión Lineal en Desvíos . . . . . . . . . . . 45

2.7.2. Análisis de Varianza . . . . . . . . . . . . . . . . . . . . . 47

2.7.3. Bondad de Ajuste: R2 y R̃2 . . . . . . . . . . . . . . . . . 48

2.8. Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

2.8.1. Test t (Una hipótesis lineal) . . . . . . . . . . . . . . . . . 53

2.8.2. Test F (Conjunto de hipótesis lineales) . . . . . . . . . . . 61

2.8.3. Intervalos de Conanza . . . . . . . . . . . . . . . . . . . . 61

2.8.4. Test de Normalidad (Test de Jarque-Bera) . . . . . . . . . 63

2.9. Predicción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

2.9.1. Medición de la precisión de la predicción . . . . . . . . . . 67

2.10. Estimación Máximo Verosímil (EMV) . . . . . . . . . . . . . . . . 74

2.10.1. Propiedades de los estimadores MV . . . . . . . . . . . . . 75

2.10.2. Estimación MV . . . . . . . . . . . . . . . . . . . . . . . . 76

2.11. Inferencia en el contexto MV . . . . . . . . . . . . . . . . . . . . . 80

2.11.1. Test de Razón de Verosimilitud (LR) . . . . . . . . . . . . 80

2
2.11.2. Test de Wald (W) . . . . . . . . . . . . . . . . . . . . . . . 81

2.11.3. Test del Multiplicador de Lagrange (LM) . . . . . . . . . . 81

2.12. Algunas acotaciones respecto a la estimación y la inferencia MV . 85

3. Forma Funcional y Especicación 87


3.1. Regresores Estocásticos en el Modelo de Regresión Lineal . . . . . 87

3.2. Incorporación de No Linealidades . . . . . . . . . . . . . . . . . . 89

3.2.1. Test de No Linealidades Omitidas (Test de Reset) . . . . . 90

3.3. Variables Dummies o cualitativas . . . . . . . . . . . . . . . . . . 92

3.3.1. Posibles usos de las variables Dummies . . . . . . . . . . . 97

3.4. Variable Dependiente Rezagada . . . . . . . . . . . . . . . . . . . 101

3.4.1. Ejemplo y advertencias sobre el uso de variable dependiente


rezagada como regresor . . . . . . . . . . . . . . . . . . . . 103

3.5. Selección de Modelos . . . . . . . . . . . . . . . . . . . . . . . . . 105

3.5.1. Ejemplo: Retornos a la educación, diferencias entre hom-


bres y mujeres . . . . . . . . . . . . . . . . . . . . . . . . . 106

3.6. Regresión Particionada . . . . . . . . . . . . . . . . . . . . . . . . 109

3.7. Omisión de Variables Relevantes . . . . . . . . . . . . . . . . . . . 110

3.7.1. Impacto sobre el Insesgamiento . . . . . . . . . . . . . . . 110

3.7.2. Impacto sobre la Varianza . . . . . . . . . . . . . . . . . . 111

3.7.3. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

3.8. Inclusión de Variable Irrelevantes . . . . . . . . . . . . . . . . . . 114

3.8.1. Impacto sobre Insesgamiento . . . . . . . . . . . . . . . . . 114

3.8.2. Impacto sobre Varianza . . . . . . . . . . . . . . . . . . . 114

3.8.3. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

3
3.9. Perturbaciones no Esféricas . . . . . . . . . . . . . . . . . . . . . 117

3.9.1. Consecuencias de estimación por MCO . . . . . . . . . . . 118

3.9.2. Estimación Eciente: Mínimos Cuadrados Generalizados . 118

3.9.3. Test de Hipótesis . . . . . . . . . . . . . . . . . . . . . . . 119

3.9.4. Estimación cuando Ω es desconocida:


Mínimos Cuadrados Factibles . . . . . . . . . . . . . . . . 120

3.9.5. Heterocedasticidad . . . . . . . . . . . . . . . . . . . . . . 121

3.9.6. Autocorrelación . . . . . . . . . . . . . . . . . . . . . . . . 130

4. Problemas con los datos 149


4.1. Multicolinealidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

4.1.1. Multicolinealidad Exacta y Multicolinealidad Aproximada 151

4.1.2. Detección de Multicolinealidad . . . . . . . . . . . . . . . 151

4.1.3. Otros métodos de detección de multicolinealidad . . . . . . 153

4.1.4. Remedios contra la Multicolinealidad . . . . . . . . . . . . 155

4.2. Error de Medición . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

4.2.1. Estimación por Variables Instrumentales . . . . . . . . . . 159

4.2.2. Test de Hausman . . . . . . . . . . . . . . . . . . . . . . . 160

4
Capítulo 1

Introducción

Econometría es la ciencia que aplica métodos matemáticos y estadísticos al análi-


sis de datos económicos, con el objetivo de dotar de una base empírica a una
teoría económica, para así refutarla o vericarla.

Aunque la econometría parece ser tan antigua como la misma ciencia económica,
sólo en 1930 se crea la Sociedad Econométrica, la cual sistematizó su estudio y
práctica. En 1933 se lanza el primer número de Econometrica en el que Ragnan
Frish (uno de los fundadores de la Sociedad Econométrica, a quién de hecho, se
le acredita el haber acuñado el término .Econometría") destaca: "La experiencia
ha mostrado que cada uno de estos tres puntos de vista, el de la estadística, la
teoría económica y las matemáticas, es necesario, pero por si mismo no suciente
para una comprensión real de las relaciones cuantitativas de la vida económica
modera. Es la unión de los tres aspectos lo que constituye una herramienta de
análisis potente. Es la unión lo que constituye la econometría".

Sin embargo, las metodologías aplicadas en econometría (los tres puntos de vista
de Frish), no han sido utilizados exclusivamente por la ciencia económica. Otras
ciencias naturales también han aprovechado sus ventajas. Sin embargo, en el
campo del comportamiento económico adquieren especial particularidad y rele-
vancia, en tanto el ambiente y el comportamiento económicos, son esencialmente
no-experimentales, colocándonos en situaciones donde todas las variables rele-
vantes parecen moverse constantemente y donde existen factores impredecibles
que pueden alterar los resultados. Es por esto que la econometría es esencial-
mente una ciencia no determinística, donde se reconoce la existencia de factores
esencialmente impredecibles que determinan nuestras conclusiones.

5
Econometría I
Capitulo 1: Introducción FEN, Universidad de Chile

La metodología econométrica se puede detallar (a grandes rasgos) según lo enun-


cia la Figura 1. En primer lugar contamos con una teoría económica que busca
validez. Para ella, es necesario encontrar su equivalente modelo econométrico
(relaciones matemáticas que describan el comportamiento de los agentes involu-
crados). Para estimar entonces dicho modelo, se necesita de la ecuación resultante
del modelo, los datos que ella implica y los supuestos bajo los cuales se construye.
Sólo una vez que contamos con dichos ingredientes se procede a estimar cuan-
titativamente las predicciones o implicancias expuestas por la teoría económica
inicial. Luego, se debe realizar inferencia o pruebas de hipótesis, las cuales nos in-
dicarán si nuestros resultados son estadísticamente signicativos. Si la respuesta
es si, entonces sólo queda realizar las predicciones pertinentes y las recomenda-
ciones de política asociadas. Si la respuestas es no, entonces, debemos revisar los
posibles errores que existan a nivel de teoría o metodología.

TEORIA ECONOMICA

MODELO ECONOMETRICO

ECUACION DATOS SUPUESTOS

ESTIMACION

INFERENCIA Y PRUEBA DE HIPOTESIS

SI NO

PREDICCIONES Y
RECOMENDACIONES DE POLITICA

TEORIA VERIFICADA

6
Econometría I
Capitulo 1: Introducción FEN, Universidad de Chile

Esta breve descripción no es más que una somera vista a lo que realmente implica
hacer econometría. El camino no está exento de dicultades (en términos de la
calidad de los datos, de la dicultad de medir las variables que la teoría indica,
de los supuestos que realizamos, etc), sin embargo, esto, más que una dicultad,
implica un desafío.

7
Capítulo 2

Modelo de Regresión Lineal

2.1. Análisis de Regresión

2.1.1. ¾Qué es una regresión?

La regresión es un elemento fundamental en la Econometría, corresponde a un


estudio de dependencia entre una variable dependiente y una o más variables
explicativas. El análisis de regresión tiene como objeto estimar y/o predecir el
promedio poblacional de la variable dependiente para valores jos de la(s) vari-
able(s) explicativa(s).
Por ejemplo, observemos la Figura 1, en el eje de las abscisas tenemos nuestra
variable explicativa (X): notas controles, y en el eje de las ordenadas tenemos
nuestra variable dependiente (Y): nota examen.

Notas de los controles


Figura 1: Distribución de las Notas del Examen vs. Promedio Notas de
Controles

8
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Podemos observar dos cosas: primero, para cada nota posible en los controles
(3.0, 4.0,..) tenemos un rango o distribución de notas en el examen y segundo,
el promedio de notas en el examen es mayor mientras mayores son notas de los
controles. Esto último se puede apreciar al trazar una recta que una los valores
promedios de notas en examen para cada nota en los controles (linea negra del la
Figura 1), la que corresponde a la recta de regresión. Esta nos permite, para
cada nivel de edad, predecir la estatura promedio correspondiente.

2.1.2. Relaciones estadísticas versus relaciones determinís-


ticas

La calidad de un producto, por ejemplo el vino, dependerá de como fue su cosecha


y por lo tanto, de variables como la temperatura al que estuvo expuesta la uva, la
cantidad de lluvia, sol y los fertilizantes. La relación entre estas variables explica-
tivas y la calidad del vino tiene una naturaleza estadística, ya que si bien estas
variables ayudan al productor de vino a saber más o menos como será la cosecha,
no podrá predecir en forma exacta la calidad del producto debido a los errores
involucrados en estas variables y porque pueden haber otros factores difíciles de
medir que estén afectando la calidad del vino.
La variable dependiente, en este caso la calidad del vino, tiene una variabilidad
aleatoria, ya que no puede ser explicada en su totalidad por las variables explica-
tivas.

En la econometría nos interesa la dependencia estadística entre variables, donde


tratamos con variables aleatorias, es decir, variables que tienen una distribución
de probabilidad. La dependencia determinística, por el contrario, trata relaciones
como la ley de gravedad de Newton1 , las que son exactas (no tienen naturaleza
aleatoria).
1 La ley de gravedad de Newton plantea que toda partícula en el universo atrae a cualquier
otra partícula con una fuerza directamente proporcional al producto de sus masas e inversamente
proporcional al cuadrado de la distancia entre ellas: F=k( mr1 m2
2
), donde F=fuerza, m1 y m2
son la masa de las dos partículas, r es la distancia y k una constante de proporcionalidad. Esta
es una relación determinística, ya que para valores de masas, distancia y constante sabemos
exactamente a la fuerza que se atraen estas partículas. Si alguna de las variables estuviera
medida con error, la ley de Newton pasa a ser una relación estadística, y F se convierte en una
variable aleatoria.

9
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.1.3. Regresión versus Causalidad

Es importante tener claro que la regresión es una relación estadística, que no


implica causalidad apriori. En el ejemplo del vino, no hay una razón estadística
para suponer que la lluvia no depende de la calidad del vino. Pero nuestro sentido
común nos hace considerar como variable dependiente la calidad del vino y no la
lluvia. Es importante recordar de aquí en adelante que una relación estadística
no puede por sí misma implicar en forma lógica una causalidad.

2.1.4. Regresión versus Correlación

El Análisis de Correlación está estrechamente relacionado con el de regresión


aunque conceptualmente son dos cosas muy diferentes. El análisis de correlación
tiene como objetivo medir el grado de asociación lineal entre dos variables, medida
a través del coeciente de correlación. Por ejemplo, se puede estar interesado
en medir el grado de correlación entre años de educación y salario. En cambio, el
análisis de regresión trata de estimar o predecir el valor promedio de salario para
un nivel dado de educación.

Las diferencias fundamentales son que, en el análisis de regresión, tenemos una


variable dependiente y una o más explicativas, la que son tratadas en forma
asimétrica: la variable dependiente es aleatoria, tiene una distribución de proba-
bilidad, en cambio las variables explicativas toman valores jos. En el análisis de
correlación las variables son tratadas de forma simétrica: la correlación entre edu-
cación y salario es igual a la correlación entre salario y educación. Además ambas
variables son aleatorias. Así, si x e y son dos variables aleatorias, el coeciente de
correlación se dene de la siguiente manera:
E {[x − E(x)] [y − E(y)]} σxy
ρyx = p =p 2 2
var(x)var(y) σx σy

Lo que se calcula para una muestra de la siguiente forma:


Pn £ ¤£ ¤
i=1 xi − X yi − Y
ρ̂yx = qP £ ¤2 qPn £ ¤2
n
i=1 x i − X i=1 y i − Y
1
Pn 1
Pn
con X = n i=1 xi e Y = n i=1 yi .

De ahora en adelante denotaremos con un ˆ a los estimadores de un estadísti-


co obtenidos a partir de información muestral.

10
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ejemplo 1: Portales de Internet, correlación entre número de visitas y valor de


la empresa:

Ejemplo 2: Correlación entre Empleo y Producto (serie de tiempo):

11
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ejemplo 3: Correlación entre Producto per-capita y ranking fútbol:

Ejemplo 4: Correlación entre temperatura media del día y estudiantes ausentes


a clases:

12
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Algunas precauciones con el coeciente de correlación:

Cuidado cuando el grado de correlación muestral depende de solo unas


pocas observaciones.

El coeciente de correlación mide una relación lineal. Por lo tanto, una


variable puede depender de otra aún cuando la correlación sea cero si la
relación es no lineal.

Correlación no implica causalidad económica, es sólo una relación estadís-


tica.

Correlación puede indicar relación espuria.

No olvidar que la correlación muestral es una variable aleatoria y que por


lo tanto, el coeciente por si sólo no garantiza la existencia de una relación
estadística entre las series.

13
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.2. Análisis de regresión con dos variables


Para esta sección asumiremos que existe una variable dependiente (Y) que es
explicada por sólo una variable (X).

Consideremos el siguiente ejemplo. En la Tabla 1 se presentan datos de salarios


y nivel de educación para una población de 60 individuos 2

Tabla 1: Salarios y Años de Educación


Años de Educación (X)
Salario (Y) 8 9 10 11 12 13 14 15 16 17
16000 18260 15000 15000 20000 20000 21912 35000 40000 60000
32868 36520 40000 40000 50000 54780 60000 73040 90000 120000
50000 54780 58000 60000 73040 80000 89000 100000 105000 165784
80000 82170 90000 90000 100000 100500 120000 140000 180000 250000
100000 109560 120000 120000 140000 160000 200000 230000 280000 365200
150000 170000 182600 188973 219120 257880 300000 400000 434686 600000
219120 273900 280000 328680 365200 400000 500000 600000 730400 1095600
300000 365200 380000 434120 500000 550000 650000 883085 1000000 1643400
547800 730400 913000 821700 1064558 1460800 1500000 1826000 2487041 4000000
E(Y|X) 166199 204532 230956 233164 281324 342662 382324 476347 594125 922220

La población tiene 10 niveles distintos de educación, que van desde 8 a 17. Para
cada uno de estos niveles tenemos 9 individuos con distintos salarios. A pesar de la
variabilidad en los salarios para cada nivel educacional considerado, en promedio
el salario se incrementa a medida que los años de educación aumentan. Esto
último se puede vericar al calcular el promedio para cada nivel de educación, lo
que se presenta en la última linea de la Tabla 1, estos corresponden a los valores
esperados condicionales, ya que dependen de los valores dados de la variable X.
En la Figura 2, los valores medios condicionales están marcados con una cruz. La
unión de estos valores representa la Recta de regresión poblacional, donde
el término poblacional se reere a que estamos trabajando con el total de la
población.
4000000
3000000
2000000
salario

Recta de regesión
poblacional (RRP)
1000000

x
x x
x x
x
x x
x
x
0

8 10 12 14 16 18
Escolaridad
Figura 2: Distribución de los salarios para distintos niveles de educación.

2 Una población de 60 individuos puede parecer un poco pequeña, pero por el momento
consideremos que estas familias son el total existente

14
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Denición: La curva de regresión poblacional es simplemente el lugar geométri-


co de las medias condicionales de la variable dependiente para los valores jos de
la(s) variable(s) explicativa(s).

En el ejemplo anterior los valores de Y (salario) no estaban distribuidos de forma


simétrica en torno al valor promedio para cada valor X, desde ahora asumiremos
que esto si se cumple, tal como lo podemos apreciar en la Figura 3.

Figura 3: Ingreso semanal y Gasto semanal. Distribución simétrica

En este ejemplo, se ve la relación entre ingreso semanal y gasto en consumo


semanal, para cada nivel de ingreso se tiene un rango de gasto que se distribuye
en forma simétrica entorno al valor promedio condicional de gasto.

15
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.2.1. Función de regresión poblacional (FRP)

De lo anterior es claro que la media condicional E(Y|Xi ) es función de Xi , donde


Xi es un valor dado de X:

E(Y |Xi ) = f (Xi ) (2.1)

donde f(·) es una función cualquiera, en el ejemplo anterior era una función lineal.
La ecuación (2.1) se denomina Regresión Poblacional.

Que forma tiene f(·) es una pregunta empírica, aunque muchas veces la teoría nos
puede ayudar bastante. Supongamos que en nuestro ejemplo anterior el salario
esta relacionado linealmente con la educación, así podemos suponer que la función
de regresión poblacional E(Y|Xi ) es una función lineal de Xi , es decir:

E(Y |Xi ) = β1 + β2 Xi (2.2)

donde β1 y β2 se denominan coecientes de regresión. Así el objetivo es estimar


β1 y β2 a partir de datos de X e Y.

2.2.2. Especicación estocástica de la función de regresión


poblacional

En los dos ejemplos anteriores veíamos que a medida que se incrementa la vari-
able explicativa (educación o ingreso), el valor promedio de la variable dependi-
ente (salario o gasto) también se incrementaba. Sin embargo, este patrón se da
solo a nivel de promedios. A nivel individual esto no es necesariamente cierto.
En la Tabla 1 podemos ver que el individuo que gana menos ingreso con 9 años
de educación, gana menos que el individuo con 8 años de educación con mayor
salario.

Existe una dispersion de los valores individuales de Yi en torno al promedio


condicional de esta variable. De esta forma, podemos denir:

ui = Yi − E(Y |Xi )

Yi = E(Y |Xi ) + ui (2.3)

donde ui es una variable aleatoria no observable que toma valores positivos o neg-
ativos. Este término surge pues no se puede esperar que todas las observaciones

16
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Yi sean igual al promedio condicional a Xi .

Recordemos que la regresión es una relación estadística, a pesar de conocer los


valores de Xi , esto no nos permite predecir en forma exacta Yi . Lo que no pode-
mos explicar debido a que tiene naturaleza aleatoria se representa a través de ui ,
denominado término de error estocástico.
Entonces siguiendo el ejemplo de la Figura 3, podemos decir que el gasto de una
familia individual (Yi ) corresponde a la suma de dos componentes:

E(Y|Xi ), que corresponde a la media de gasto de todas las familias con el


mismo nivel de ingresos → Componente Determinístico

ui → Componente Aleatorio

Si E(Y|Xi ) es lineal en Xi , podemos escribir la ecuación (2.3) de la siguiente


forma:

Yi = E(Y |Xi ) + ui
= β1 + β2 Xi + ui (2.4)

Tomando el valor esperado condicional en Xi a la ecuación (2.4):

E(Yi |Xi ) = E[E(Y |Xi )|Xi ] + E(ui |Xi )


= E(Y |Xi ) + E(ui |Xi ) (2.5)

Debido a que E(Yi |Xi ) = E(Y |Xi ), implica que:

E(ui |Xi ) = 0 (2.6)

Así, el supuesto de que la recta de regresión pasa a través de las medias condi-
cionales de Y, implica que la media condicional de ui es cero.

17
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.2.3. Función de regresión muestral

En la mayoría de los fenómenos económicos a estudiar, no disponemos de las


observaciones totales de la población, como hemos supuesto hasta ahora. En la
práctica se tiene alcance nada más que a una muestra de los valores de Y que
corresponden a unos valores jos de X. En este caso tenemos que estimar la fun-
ción de regresión poblacional en base a información muestral.

Los datos poblacionales asociados a la Figura 3 son los siguientes:

Tabla 2. Ingreso familiar (X) y Gasto en consumo (Y).


Y|X 80 100 120 140 160 180 200 220 240 260
Gasto en 55 65 79 80 102 110 120 135 137 150
consumo 60 70 84 93 107 115 136 137 145 152
familiar 65 74 90 95 110 120 140 140 155 175
semanal 70 80 94 103 116 130 144 152 165 178
(Y) 75 85 98 108 118 135 145 157 175 180
- 88 - 113 125 140 - 160 189 185
- - - 115 - - - 162 - 191
Media Condicional 65 77 89 101 113 125 137 149 161 173

Supongamos que nosotros no conocemos estos datos, es decir, no tenemos acceso


a las observaciones correspondientes a la población total. Tenemos a nuestra dis-
posición sólo una muestra (Tabla 3), la que ha sido obtenida de forma aleatoria
de la población.
Es importante notar que a partir de una población podemos sacar una gran can-
tidad de muestras en forma aleatoria y en la realidad nosotros observamos solo
una de ellas. Debido a esta variabilidad en las muestras podremos estimar la FRP
pero no de manera precisa. Para ejemplicar esto supongamos que además de la
muestra en la Tabla 3 se saco otra muestra (Tabla 4) a partir de la información
poblacional.

Tabla 3. Muestra aleatoria Tabla 4. Muestra aleatoria


de la población en tabla 2. de la población en tabla 2.
Y X Y X
70 80 55 80
65 100 88 100
90 120 90 120
95 140 80 140
110 160 118 160
115 180 120 180
120 200 145 200
140 220 135 220
155 240 145 240
150 260 175 260

18
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Al gracar los datos de las Tablas 3 y 4 obtenemos los diagramas de dispersion en


la Figura 4. En este diagrama se han trazado dos rectas de regresión mues-
tral: FRM1 corresponde a la primera muestra y FRM2 corresponde a la segunda.
Como vemos, no es posible asegurar cual de las dos rectas muestrales representa
mejor la recta de regresión poblacional.

Entonces es importante tener en mente que las rectas de regresión muestral rep-
resentan la recta de regresión poblacional, pero debido a uctuaciones muestrales
pueden ser consideradas sólo como una aproximación.

Como contraparte muestral la función de regresión muestral puede escribirse


como:

Ŷi = β̂1 + β̂2 Xi (2.7)

donde Ŷi es el estimador de E(Y|Xi ), β̂1 es el estimador de β1 y β̂2 es el estimador


de β2 .

Figura 4: Rectas de Regresión basadas en dos muestras distintas

Denición: Un estimador es una regla, fórmula o método que dice cómo deter-
minar el parámetro poblacional a partir de la información suministrada por la
muestra disponible.

De igual manera que para el caso poblacional la función de regresión muestral

19
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

también tiene una representación estocástica:

Yi = β̂1 + β̂2 Xi + ûi (2.8)

Entonces, el objetivo del Análisis de Regresión es estimar la Función de regresión


poblacional:

Yi = β1 + β2 Xi + ui (2.9)

con base en la Función de regresión muestral:

Yi = β̂1 + β̂2 Xi + ûi (2.10)

Esta aproximación se puede ver en la Figura 5:

Figura 5: Rectas de Regresión muestral y poblacional

En términos de la función de regresión muestral, la Yi observada puede ser ex-


presada como:

Yi = Ŷi + ûi (2.11)

y en términos de la función de regresión poblacional puede ser expresada como:

Yi = E(Y |Xi ) + ui (2.12)

20
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

En la gura 5 podemos notar que para todo Xi a la derecha del punto A, Ŷi
sobreestima E(Y |Xi ). De igual manera, para cualquier punto a la izquierda de A,
Ŷi subestima E(Y |Xi ). Esta sobreestimación y subestimación del modelo pobla-
cional es inevitable debido a las uctuaciones muestrales.

¾Cómo se puede construir la función de regresión muestral para β̂1


y β̂2 que este lo más cerca de los valores verdaderos (poblacionales) de
β1 y β2 ?

2.2.4. Propiedades de un Estimador

Un estimador, siendo función de la muestra, es una variable aleatoria y tiene su


propia distribución de probabilidad.

Las propiedades de los estimadores son las siguientes:

1. Se denomina sesgo a la diferencia entre el valor esperado del estimador y


su verdadero valor: E(β̂) − β . De esta forma, se dice que β̂ es un estimador
insesgado si E(β̂) = β .
2. El estimador es eciente o de mínima varianza si no hay ningún otro esti-
mador insesgado que tenga una varianza menor que β̂ . En general se trata de
utilizar estimadores de varianza pequeña, pues de este modo la estimación
es más precisa.
3. El Error Cuadrático Medio (ECM) es una propiedad de los estimadores que
mezcla los conceptos de eciencia e insesgamiento. El ECM de β̂ se dene
como:
ECM (β̂) = E[(β̂ − β)2 ]
Lo que se puede expresar equivalentemente de la siguiente manera:
ECM (β̂) = V ar(β̂) + [Sesgo(β̂)]2

4. La última propiedad de un estimador es la consistencia. El estimador β̂


es consistente si converge (en el limite) al verdadero valor del parámetro.
Se dice que la sucesión de variables aleatorias X1 , X2 ,...,Xn converge en
probabilidad a la variable aleatoria (o constante) X si:
∀ε > 0, lı́m P r[|Xn − X| < ε] = 1
n→∞

Esto se denota plim Xn = X . Dos reglas útiles al respecto son:

21
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

¡ X ¢ plimX
plim Y
= plimY
plim (X · Y )=plimX · plimY

Ejemplo: Tenemos una variable yi que esta compuesta por la suma de un com-
ponente jo o determinístico (c) y un componente aleatorio(ui ):

yi = c
|{z} + ui
|{z}
componente f ijo componente aleatorio

Si ui ∼ N (0, σu2 ), entonces:

µ = E(yi ) = c
V (yi ) = E[(yi − E(yi ))2 ] = E[u2i ] = σu2

22
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ahora consideremos el siguiente estimador de la esperanza de yi , la media mues-


tral:
n
1 1X
µ̂ = Y = (y1 + y2 + ... + yn ) = yi
n n i=1

Veamos que propiedades tiene este estimador:

Insesgamiento: E(µ̂) = µ
¡ ¢
E(µ̂) = E Y
µ ¶
1
= E (y1 + y2 + ... + yn )
n
1
= (E(y1 ) + E(y2 ) + ... + E(yn ))
n
dado que E(yi ) = E(c) + E(ui ) = c,
| {z }
0

E(µ̂) = c = µ

Eciencia: V ar(µ̂)<V ar(µ̂1 )


Comparemos el estimador promedio muestral con un estimador que es sim-
plemente cualquier valor de yi:
2
µ̂ = Y E(Y ) = c V ar(Y )= σnu
µ̂1 = yi E(yi ) = c V ar(yi ) = σu2

Entonces para n>1 siempre se cumple que µ̂ es más eciente (menor vari-
anza) que µ̂1 .

Error Cuadrático Medio: Como µ̂ es un estimador insesgado de µ al


igual que µ̂1 , el error cuadrático medio de ambos estimadores es igual a la
varianza del estimador, de esta forma µ̂ tiene menor error cuadrático medio
que µ̂1 .

Consistencia: µ̂ es un estimador consistente dado que:


plim(µ̂) = plim(Y ) = c

Ya que si lı́mn→∞ V ar(Y ) = 0 ⇒ plim(Y ) = c.

23
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.3. Modelo de regresión con dos variables

2.3.1. Método de Mínimos Cuadrados Ordinarios

De la sección anterior teníamos que el error estimado era:


ûi = Yi − Ŷi
= Yi − β̂1 − β̂2 Xi (2.13)
es decir, los residuos son simplemente la diferencia entre los valores verdaderos y
estimados de Y.

Si queremos que la función de regresión muestral sea lo más cercana posible


a la poblacional, debemos tratar de escoger los coecientes de regresión (los β 's)
de forma tal que los errores sean lo más pequeños posible. De acuerdo a esto
un criterio para escoger la Pfunción P
de regresión muestral podría ser minimizar
la suma de los los errores: ûi = (Yi − Ŷi ), sin embargo este criterio no es
muy bueno. Observemos la Figura 6, existe una gran diferencia en la magnitud
de los errores, sin embargo en la suma de los errores todos reciben el mismo peso.
Debido a esto es posible que la suma de los errores sea muy pequeña cercana a
cero, incluso cuando la dispersion de los errores en torno a la función de regresión
muestral es alta.

Figura 6: Mínimos Cuadrados Ordinarios

24
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Este problema puede ser solucionado al considerar la suma de los errores al


cuadrado como criterio a minimizar, en este caso los errores más lejos reciben
un mayor peso:
X X
û2i = (Yi − Ŷi )2
X
= (Yi − β̂1 − β̂2 Xi )2 (2.14)

El Método de Mínimos CuadradosPOrdinarios (MCO) escoge β̂1 y β̂2 de


forma tal que para una muestra dada, û2i sea lo más pequeño posible.

Entonces el problema que este método propone resolver es el siguiente:


X
mı́n (Yi − β̂1 − β̂2 Xi )2 (2.15)
β̂1 ,β̂2

las condiciones de primer orden de este problema son:


P X X
∂ û2i
= −2 (Yi − β̂1 − β̂2 Xi ) = −2 ûi = 0 (2.16)
∂ β̂1
P X X
∂ û2i
= −2 (Yi − β̂1 − β̂2 Xi )Xi = −2 ûi Xi = 0 (2.17)
∂ β̂2

Simplicando (2.16) y (2.17) obtenemos las ecuaciones normales:


X X
Yi = nβ̂1 + β̂2 Xi (2.18)
X X X
Yi Xi = β̂1 Xi + β̂2 Xi2 (2.19)

Debemos resolver un sistema con dos ecuaciones y dos incógnitas. De la ecuación


(2.18) podemos despejar β̂1 :
P P
Yi − β̂2 Xi
β̂1 = (2.20)
n
reemplazando (2.20) en (2.19):
ÃP P ! X
X Yi − β̂2 Xi X
Yi X i = · Xi + β̂2 Xi2 (2.21)
n

De esta forma, el estimador de β2 es:


P P P
n · Yi Xi − Xi Yi
β̂2 = P P (2.22)
n · Xi2 − ( Xi )2

25
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

El que puede ser escrito de la siguiente forma (hacerlo):


P
xi y i
β̂2 = P 2 (2.23)
xi
P Pn
donde xi = Xi − X e yi = Yi − Y , con X = n1 ni=1 Xi e Y = 1
n i=1 Yi

Reemplazando (2.22) en (2.20):


P 2P P P
Xi Yi − Xi Xi Yi
β̂1 = P P (2.24)
n · Xi2 − ( Xi )2
= Y − β̂2 X (2.25)

Los resultados (2.23) y (2.25) podrían haber sido obtenidos de igual forma, expre-
sando inicialmente el modelo de regresión en desviaciones con respecto a la media.

El modelo de regresión original es:

Yi = β̂1 + β̂2 Xi + ûi

si le restamos el promedio de esta:

Y = β̂1 + β̂2 X + ûi (2.26)

y recordando que el valor esperado del término de error es 0, tenemos el siguiente


modelo de regresión lineal expresado en desviaciones con respecto a la media:

(Yi − Y ) = β̂2 (Xi − X) + ûi


yi = β̂2 xi + ûi

Así el problema de Mínimos Cuadrados Ordinarios es:


X
mı́n (yi − β̂2 xi )2
β̂2

La condición de primer orden de este problema es:


P X
∂ û2i
= −2 (yi − β̂2 xi )xi = 0
∂ β̂2

Así obtenemos el mismo estimador de β2 , encontrado en (2.23), y β1 se obtiene


simplemente despejando la ecuación (2.26):

β̂1 = Y − β̂2 X

26
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

que corresponde a lo mismo en la ecuación (2.25).

Una vez estimados los coecientes de regresión mediante MCO y utilizando la


información muestral, la recta de regresión muestral (Ŷi = β̂1 + β̂2 Xi ) puede ser
obtenida fácilmente.

Ejemplo 1: Disponemos datos de una empresa química sobre el gasto que el-
la realiza en Investigación y Desarrollo (I+D) y las ganancias anuales de esta
compañía:

Año Gasto en I+D Ganancia Anual


(Millones de dólares) (Millones de dólares)
1990 2 20
1991 3 25
1992 5 34
1993 4 30
1994 11 40
1995 5 31

Ahora debemos debemos determinar de que forma como cambia el promedio


condicional de la variable dependiente (Ganancias) cuando cambia el valor jo de
la variable explicativa (Gasto en I+D).

\
La forma muestral de la recta de regresión: E(Y i |Xi ) = β̂1 + β̂2 Xi requiere deter-
minar el valor estimado de estos parámetros, para lo cual utilizaremos el método

27
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

de mínimos cuadrados ordinarios:


P P P P
n · Yi Xi − Xi Yi Yi Xi − nXY
β̂2 = P P β̂2 = P 2
n · Xi2 − ( Xi )2 Xi − n(X)2
Utilicemos los datos para obtener los cálculos necesarios para computar el esti-
mador de β2 :

Año Gasto en I+D (X ) Ganancia Anual (Y )


(n=6) (Millones de dólares) (Millones de dólares) XY X2
1990 2 20 40 4
1991 3 25 75 9
1992 5 34 170 25
1993 4 30 120 16
1994 11 40 440 121
1995
P 5 P 31 P 155 P 25
Suma X =30 Y =180 XY =1000 X 2 =200
P
X = nX
X = 30
6
X =P5 ← Media de los valores de la variable dependiente
Y = nY
Y = 180
6
Y = 30 ← Media de los valores de la variable independiente

De esta forma,
1000 − 6 · 5 · 30
β̂2 =
200 − 6 · (5)2
1000 − 900
=
200 − 150
100
=
50
β̂2 = 2
β̂1 = Y − β̂2 X
= 30 − 2 · 5
= 30 − 10
β̂1 = 20
De esta forma, la recta de regresión muestral estimada es:
Ŷ = 20 + 2 · X

28
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Con esta ecuación en mano, el gerente de I+D de esta compañía puede predecir
el promedio en ganancias futuras anuales a partir de la cantidad presupuestada
de gasto en Investigación y Desarrollo. Por ejemplo, si la compañía presupuesta
gastar 8 millones de dólares en I+D el próximo año, entonces debe ganar aprox-
imadamente 36 millones de dólares durante este año.

Ejemplo 2: Tenemos los siguientes datos de portales de internet, con los cuales
queremos ver el impacto promedio del número de visitas en el valor de la empresa:

vempresa visitas y-ybar x-xbar (y-ybar)*(x-xbar) (x-xbar)^2 ygorro ugorro


AOL 134844 50 108787.6 30.6 3331621.0 937.9 98976.5 35867.5
Yahoo 55526 38 29469.6 18.6 548871.8 346.9 70403.7 -14877.7
Lycos 5533 28 -20523.4 8.6 -177014.1 74.4 46593.1 -41060.1
Cnet 4067 8 -21989.4 -11.4 250129.1 129.4 -1028.3 5095.3
Juno Web 611 8 -25445.4 -11.4 289441.1 129.4 -1028.3 1639.3
NBC Internet 4450 16 -21606.4 -3.4 72921.5 11.4 18020.3 -13570.3
Earthlink 2195 5 -23861.4 -14.4 343007.3 206.6 -8171.5 10366.5
El sitio 1225 2 -24831.4 -17.4 431445.1 301.9 -15314.7 16539.7
Promedio 26056.4 19.4 26056.4 0
Suma 5090422.9 2137.9
β 1 2381.1
β 2 -20076.8

29
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Utilizando estos datos tenemos:


n
X
(Xi − X)2 = 2137,9
i=1
n
X
(Yi − Y )(Xi − X) = 5090422,9
i=1
5090422,9
β̂2 = = 2381,1
2137,9
β̂1 = 26056,4 − 2381,1 ∗ 19,4 = −20076,8

30
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.3.2. Supuestos detrás del método MCO

En el análisis de regresión nuestro objetivo no es sólo obtener los valores de β̂1 y


β̂2 sino también hacer inferencia sobre los verdaderos β1 y β2 . Nos interesa saber
que tan cerca están β̂1 y β̂2 de sus contraparte poblacional o que tan cerca esta Ŷi
de la verdadera E(Y|Xi ). La Función de regresión poblacional: Yi = β1 +β2 Xi +ui ,
nos muestra que Yi depende de Xi y ui . Así, los supuestos hechos para estas dos
variables son fundamentales para lograr una interpretación válida de los valores
estimados de la regresión. Mientras no se especique la forma como se generan
Xi y ui , no hay forma de hacer inferencia estadística sobre Yi ni sobre β1 y β2 .

Supuesto 1: Modelo de regresión lineal, el modelo de regresión es lineal en


parámetros:

Yi = β1 + β2 Xi + ui

Supuesto 2: Los valores de X son jos, X se supone no estocástica. Esto im-


plica que el análisis de regresión es un análisis de regresión condicional,
condicionado a los valores dados del regresor X.

Supuesto 3: El valor medio del error ui es igual a cero. Dado el valor de


X, el valor esperado del término de error ui es cero:

E(ui |Xi ) = 0

Lo que nos dice este supuesto es que los factores que no están considerados
en el modelo y que están representados a través de ui , no afectan sistemáti-
camente el valor de la media de Y. Es decir, los valores positivos de ui se
cancelan con los valores negativos de ui . De esta forma, el efecto promedio
de ui sobre Y es cero. Ver Figura 7.

31
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Figura 7: Distribución condicional del término de error ui

Supuesto 4: Homocedasticidad o igual varianza de ui . Dado el valor de


X, la varianza de ui es la misma para todas las observaciones:
var(ui |Xi ) = E[ui − E(ui )|Xi ]2
= E(u2i |Xi ) por supuesto 3
= σ2
En la Figura 8 podemos apreciar el signicado del supuesto de homocedas-
ticidad, la variación alrededor de la recta de regresión es la misma para
todos los valores de X. Esto implica que la función de densidad del término
de error ui es la misma.

Figura 8: Homocedasticidad

32
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Por el contrario, el la Figura 9 observamos el caso cuando la varianza del


término de error varia para cada Xi , en este caso particular la varianza del
error aumenta en la medida que Xi crece.

Figura 9: Heterocedasticidad

Esto se conoce como Heterocedasticidad o varianza desigual, lo que se


expresa de la siguiente manera:

var(ui |Xi ) = σi2 (2.27)

Supuesto 5: No existe autocorrelación entre los errores. Dado dos valores


de X, Xi y Xj , con i6= j, la correlación entre ui y uj es cero:

cov(ui , uj |Xi , Xj ) = E{[ui − E(ui )]|Xi }{[uj − E(uj )]|Xj }


= E(ui |Xi )(uj |Xj )
= 0

Si en la Función de regresión poblacional Yi = β1 + β2 Xi + ui , ui esta


correlacionado con uj , entonces Yi no depende solamente de Xi sino también
de uj . Al imponer le supuesto 5 estamos diciendo que solo se considerará
el efecto sistemático de Xi sobre Yi sin preocuparse de otros factores que
pueden estar afectando a Y, como la correlación entre los u's.

Supuesto 6: La covarianza entre ui y Xi es cero E(ui Xi ) = 0:


cov(ui , Xi ) = E[ui − E(ui )][Xi − E(Xi )]
= E[ui (Xi − E(Xi )] por supuesto E(ui ) = 0
= E(ui Xi ) − E(ui )E(Xi ) por supuesto E(Xi ) no estocastica
= E(ui Xi ) por supuesto E(ui ) = 0
= 0

33
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Como mencionamos en la sección 2.2.2 se supone que X y u tienen una in-


uencia separada sobre Y (determinística y estocástica, respectivamente),
ahora si X y u están correlacionadas, no es posible determinar los efectos
individuales sobre Y.
Este supuesto se cumple automáticamente si X es no estocástica y el supuesto
3 se cumple.

Supuesto 7: El número de observaciones n debe ser mayor que el número


de parámetros por estimar. El número de observaciones tiene que ser
mayor que el número de variables explicativas, de otra forma no se puede
resolver el sistema de ecuaciones. Supongamos que tenemos una sola obser-
vación para nuestra variable dependiente y nuestra variable explicativa (Y1
y X1 ), el modelo de regresión es tal que tiene intercepto, es decir:

Y1 = β1 + β2 X1 + u1

el estimador MCO de β2 es :
P
xi yi
β2 = P 2
xi

donde xi = Xi − X e yi = Yi − Y , sin embargo con una observación X1 = X


e Y1 = Y , así β2 no esta determinado y así tampoco podemos determinar
β1 .

Supuesto 8: Variabilidad en los valores de X. No todos los valores de X en


una muestra deben ser iguales, var(X) debe ser un número nito positivo.
Si las X son las mismas ⇒ Xi = X , de esta forma ni β2 ni β1 pueden ser
estimados.

Supuesto 9: El modelo de regresión esta correctamente especicado.


Esto es muy importante, ya que por ejemplo la omisión de variables impor-
tantes en el modelo, o la elección de la forma funcional inadecuada, o la
consideración de supuestos estocásticos equivocados sobre las variables del
modelo, harán cuestionable la validez de la interpretación de la regresión
estimada. (Aspectos que veremos más adelante).

34
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.3.3. Errores estándar de los Estimadores Mínimos Cuadra-


dos Ordinarios

Como vimos en la sección 2.3.1, los valores estimados para β1 y β2 dependen de


los datos muestrales, sin embargo, los datos cambian de una muestra a otra y así
los valores estimados también, por eso es necesario tener una medida que nos per-
mita decir que tan cercano son los valores estimados a los valores poblacionales
de los parámetros.
La medida que utilizaremos para medir la precisión del estimador es el error es-
tándar, que es la desviación estándar de la distribución muestral del estimador,
la que a su vez es la distribución del conjunto de valores del estimador obtenidos
de todas las muestras posibles de igual tamaño de una población dada.

Recordemos el estimador MCO de β2 :


P
xi y i
β̂2 = P 2
xi

donde yi = β2 xi +ui (modelo poblacional en desviaciones con respecto a la media).


De esta forma reemplazando yi en el estimador de β2 :
P
xi (β2 xi + ui )
β̂2 = P 2
x
P 2 iP
x ui x i
= β2 P 2i + P 2
x xi
Pi
ui x i
= β2 + P 2
xi

Aplicando valor esperado a la expresión anterior:


µP ¶
ui x i
E(β̂2 ) = β2 + E P 2
xi
µP ¶
E(ui )xi
= β2 + P 2 por supuesto 2
xi
= β2 por supuesto 3 (2.28)

La ecuación (2.28) nos dice que en valor esperado el estimador MCO de β̂2 es
igual a su verdadero valor. Esta propiedad del estimador MCO se conoce como
insesgamiento.

35
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ahora procedamos a calcular la varianza de el estimador MCO de β2 :


var(β̂2 ) = E[β̂2 − E(β̂2 )]2
= E(β̂2 − β2 )2
µP ¶
[ xi ui ]2
= E P
[ x2i ]2
Por supuesto 4 E(u2i ) = σ 2 y por supuesto 6 E(ui uj ) = 0, esto implica que:
σ2
var(β̂2 ) = P 2 (2.29)
xi

2.3.4. Estimador Mínimo Cuadrado Ordinario de σ 2

Ahora debemos estimar el parámetro poblacional σ 2 , como este corresponde al


valor esperado de u2i y ûi es una estimación de ui , por analogía:
Pn 2

σ̂ = i=1 i
2
n
pareciera ser un estimador razonable. Pero los errores de MCO, están estimados
imperfectamente si los comparamos con los errores poblacionales, ya que depen-
den de una estimación de β1 y β2 . Veamos esto con más detalle:

Partiendo del Regresión poblacional expresado en desviaciones con respecto a


la media:
yi = β2 xi + (ui − u) (2.30)
y recordando también que:
ûi = yi − β̂2 xi (2.31)
Al sustituir (2.30) en (2.31), se obtiene:
ûi = β2 xi + (ui − u) − β̂2 xi
Elevando al cuadrado la expresión anterior, aplicando sumatoria y tomando valor
esperado:
³X ´ X hX i h X i
2 2 2 2
E ûi = E(β̂2 − β2 ) xi + E (ui − u) −2 E (β̂2 − β2 ) xi (ui − u)
| {z } | {z }
(i) (ii)
X ·P ¸
2 x i ui X
= var(β̂2 ) xi + (n − 1)var(ui ) − 2E P 2 xi (ui − u)
xi
= σ 2 + (n − 1)σ 2 − 2σ 2
= (n − 2)σ 2

36
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

hX i hX i
(i) E (ui − u)2 = E (u2i − 2ui u + u2 )
hX X i
= E u2i − 2u ui + nu2
hX nX i
2 2
= E ui − 2u ui + nu
hX n i
= E u2i − 2nu2 + nu2
hX i
2 2
= E ui − nu
" µP ¶2 #
X ui
2
= E ui − n
n
n
= nσ 2 − σ 2
n
= (n − 1)σ 2

h X i h X i
(ii) E (β̂2 − β2 ) xi (ui − u) = E (β̂2 − β2 ) xi (ui − u)
·P ¸
x i ui X
= E P 2 xi (ui − u)
xi
· P P P ¸
( xi ui )2 x i ui x i
= E P 2 −u P 2
xi xi
2
= σ

e2 como:
Por lo tanto se dene el estimador de la varianza σ
P 2
2 ûi
σ
e = (2.32)
n−2
e2 es un estimador insesgado de σ 2 :
De forma tal que, σ
1 ³X ´
e2 =
σ E û2i = σ 2
n−2

37
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.4. Modelo de Regresión con k variables


Ahora abandonemos la simplicación de solo usar dos variables, de ahora en ade-
lante generalizaremos el modelo de regresión lineal para que pueda tener hasta k
variables explicativas.

Aclaración: haremos un cambio de notación, cada observación i de la variable


dependiente será denotada por yi y cada observación i de una variable explicati-
va, por ejemplo X1 , será denotada por x1i . Ahora las variables en minúscula no
signica que estén en desvíos.

El Modelo de Regresión Poblacional en este caso es:

yi = β1 + β2 x2i + β3 x3i + ... + βk xki + ui i = 1, ..., n

2.4.1. Representación Matricial del Modelo de Regresión


Lineal

El modelo con k variables explicativas puede ser expresado en notación matricial.


En efecto, cada variable explicativa xj , con j=1,..., k, es un vector columna de
dimensión n, al igual que la variable dependiente y el término de error. De este
modo, el modelo puede ser reescrito de la siguiente forma:
           
y1 1 x21 x31 xk1 u1
 y2   1   x22   x32   xk2   u2 
           
 ..  =  ..  β1 +  ..  β 2 +  ..  β 3 + ... +  ..  β k +  .. 
 .   .   .   .   .   . 
yn 1 x2n x3n xkn un

Donde las variables explicativas se pueden agrupar en una sola matriz de dimen-
sión n×k, que denotaremos simplemente como X, de esta manera el modelo se
expresa de la siguiente forma:
       
y1 1 x21 x31 · · · xk1 β1 u1
 y2   1 x22 x32 · · · xk2   β2   u2 
       
 ..  =  .. .. .. . . ..  ·  ..  +  ..  ⇒ Y = Xβ + u(2.33)
 .   . . . . .   .   . 
yn 1 x2n x3n · · · xkn βk un

donde Y es un vector de dimensión n×1, X es la matriz de variables explicativas


de dimensión n×k y u es un vector correspondiente al término de error con di-
mensión n×1.

38
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ahora debemos expresar la distribución del término de error en términos ma-


triciales:
 
E(u1 )
 E(u2 ) 
 
E(u) =  .. = 0
 .  n×1
E(un )
   
E(u21 ) E(u1 u2 ) · · · E(u1 un ) σ2 0 · · · 0
 E(u2 u1 ) E(u22 ) · · · E(u2 un )   0 σ2 · · · 0 
0    
E(uu ) =  .. .. .. .. = .. .. . . ..  = σ2 I
 . . . .   . . . .  n×n

E(un u1 ) E(un u2 ) · · · E(u2n ) 0 0 ··· σ 2

De los supuestos 3, 4 y 5, tenemos entonces que el término de error tiene la


siguiente distribución:
µ ¶
u ∼ 0 ,σ I2
(2.34)
n×1 n×n

2.4.2. Estimador Mínimo Cuadrados Ordinarios

El método de MCO, plantea que los parámetros del modelo pueden ser estimados
minimizando la suma de los errores al cuadrado (SE (β̂ )), la que en términos
matriciales equivale a:
n
X
SE (β̂) = û2i = û0 û
i=1

donde û = Y − X β̂ . Entonces el problema de minimizar la suma de los errores al


cuadrado se expresa de la siguiente forma:
h i
0
mı́n SE (β̂) = mı́n (Y − X β̂) (Y − X β̂)
β̂ β̂
h i
= mı́n Y 0 Y − 2β̂ 0 X 0 Y + β̂ 0 X 0 X β̂
β̂

∂SE (β̂)
= −2X 0 Y + 2X 0 X β̂ = 0
∂ β̂ 0
⇒ β̂ = (X 0 X)−1 X 0 Y (2.35)

39
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

De (2.35) tenemos:
X 0 (Y − X β̂) = 0 ⇒ X 0 û = 0 (2.36)
(2.36) es la condición de ortogonalidad.

De esta forma, el vector de parámetros estimados β̂ se obtiene de resolver el


siguiente sistema de ecuaciones normales:
X 0 X β̂ = X 0 Y ⇔
   
1 1 1 ··· 1 1 x2,1 x3,1 · · · xk,1 β̂1
 x2,1 x2,2 x2,3 · · · x2,n  1 x2,2 x3,2 · · · xk,2  β̂2 
   
 x3,1 x3,2 x3,3 · · · x3,n  1 x2,3 x3,3 · · · xk,3  β̂3 
   
 .. .. .. .. ..  .. .. .. .. ..  .. 
 . . . . .  . . . . .  . 
xk,1 xk,2 xk,3 · · · xk,n 1 x2,n x3,n · · · xk,n β̂k
  
1 1 1 ··· 1 y1
 x2,1 x2,2 x2,3 · · · x2,n  y2 
  
 x3,1 x3,2 x3,3 · · · x3,n  y3 
=  
 .. .. .. .. ..  .. 
 . . . . .  . 
xk,1 xk,2 xk,3 · · · xk,n yn

 Pn Pn P    Pn 
n x 2,i Pn i=1 x3,i · · · P ni=1 xk,i β̂1
Pn i=1 yi
 Pn x2,i Pn 2
i=1
· · · Pni=1 x2,i xk,i    
 Pni=1
 Pn i=1 x2,i i=1 x2,i x3,i
P n 2 n


β̂2  
  Pi=1
n
yi x2,i 

⇔  i=1 x3,i i=1 x3,i x2,i i=1 x3,i ··· i=1 x3,i xk,i  β̂3 = i=1 yi x3,i 
 .. .. .. .. ..  ..   .. 
 .    
Pn . Pn . Pn . Pn . 2 . Pn .
i=1 xk,i i=1 xk,i x2,i i=1 xk,i x3,i ··· i=1 xk,i β̂k i=1 yi xk,i

Es importante recordar que el estimador MCO esta denido solo cuando la matriz
(X'X) es invertible, lo que ocurre siempre y cuando:

1. Las k columnas de la matriz X sean linealmente independientes.

2. Se disponga al menos de tantas observaciones como variables explicativas,


es decir: n≥ k .(Supuesto 7)

Pongamos atención en el segundo supuesto, cuando n=k la matriz X tiene dimen-


sión k×k, por lo tanto salvo que no se cumpla el supuesto 8, X es invertible, y de
esta forma (X 0 X)−1 = X −1 (X 0 )−1 y por lo tanto:
β̂ = (X 0 X)−1 X 0 Y = X −1 (X 0 )−1 X 0 Y = X −1 Y (2.37)

40
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

el vector de residuos û = Y − X β̂ = Y − X(X −1 Y ) = Y − Y = 0n , de esta forma


el ajuste es perfecto, ya que todos los residuos son cero, la suma residual de igual
forma toma el mínimo valor posible, cero.
Sin embargo, esta no es una característica deseable, el ajuste perfecto ocurre
porque tenemos una muestra muy reducida. Esto trae como consecuencia poco
robustez e imprecisión en las estimaciones. Si escogemos una nueva muestra, del
mismo tamaño que la anterior, obtendremos otro estimador β̂ con suma residual
0, que puede diferir en forma arbitraria del anterior.

Para lograr estimaciones precisas de los parámetros, es necesario tener un número


de observaciones notablemente superior al de las variables explicativas. La difer-
encia n-k se conoce como el número de grados de libertad de la estimación.

2.5. Propiedades del estimador MCO

Notemos que el vector β̂ es un vector aleatorio, ya que depende del vector de


errores:

β̂ = (X 0 X)−1 X 0 Y = (X 0 X)−1 X 0 (Xβ + u) = β + (X 0 X)−1 X 0 u (2.38)

E(β̂) = E(β) + E[(X 0 X)−1 X 0 u]


= β + (X 0 X)−1 X 0 E(u)

La esperanza de β es el mismo parámetro, ya que este es un constante (valor


poblacional), y por supuestos 2 y 3 el segundo término de la expresión anterior
es cero,

⇒ E(β̂) = β (2.39)

Es decir, el estimador MCO es insesgado, tal como lo habíamos mostrado en la


ecuación (2.28).

De (2.38) podemos denir el error de estimación o sesgo como:

β̂ − β = (X 0 X)−1 X 0 u

41
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Ahora calculemos la varianza de β̂ :

var(β̂) = E[(β̂ − E(β̂)) · (β̂ − E(β̂))0 ]


= E[(β̂ − β) · (β̂ − β)0 ]
= E[(X 0 X)−1 X 0 uu0 X(X 0 X)−1 ]
= (X 0 X)−1 X 0 E(uu0 )X(X 0 X)−1
= (X 0 X)−1 X 0 (σ 2 In )X(X 0 X)−1
= σ 2 (X 0 X)−1 (2.40)

Para poder estimar la varianza de β̂ necesitamos reemplazar σ 2 en (2.40) por su


estimador insesgado:

u0 u
e2 =
σ
n−k

2.5.1. Propiedad de mejor estimador lineal insesgado

Se dice que β̂ , es el mejor estimador lineal insesgado (MELI) de β si se cumple


lo siguiente:

1. El lineal, es decir, es una función lineal de una variable aleatoria, como la


variable y en el modelo de regresión.

2. Es insesgado, es decir, su valor esperado, E(β̂), es igual a el verdadero


valor, β .

3. Tiene varianza mínima dentro de la clase de todos los estimadores lineales


insesgados; un estimador insesgado como varianza mínima es conocido como
un estimador eciente.

2.5.2. Teorema de Gauss-Markov

Proposición: El estimador MCO es el estimador lineal insesgado óptimo, en el


sentido de que cualquier otro estimador lineal e insesgado tiene una matriz de co-
varianza mayor que la del estimador MCO. Es decir, el estimador MCO es MELI.

Demostración: Sea βe = Ay
e un estimador lineal de β , donde A
e es una matriz

42
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

e − (X 0 X)−1 X 0 , de modo que:


k×n. Denotemos A = A

βe = [A + (X 0 X)−1 X 0 ]Y
= [A + (X 0 X)−1 X 0 ](Xβ + u)
= AXβ + β + [A + (X 0 X)−1 X 0 ]u

Aplicando esperanza a la expresión anterior:


e = AXβ + β + [A + (X 0 X)−1 X 0 ]E(u)
E(β)
= AXβ + β

El estimador βe será insesgado solo si la matriz A es tal que AX=0k×k . De esta


forma:

βe = β + [A + (X 0 X)−1 X 0 ]u

y su matriz de covarianza será:


e = E[(βe − β)(βe − β)0 ]
cov(β)
= E{([A + (X 0 X)−1 X 0 ]u)([A + (X 0 X)−1 X 0 ]u)0 }
= σ 2 AA0 + σ 2 (X 0 X)−1
| {z }
cov(β̂)

Como la matriz AA0 es semidenida positiva, se concluye la diferencia entre la


covarianza de βe y β̂ es una matriz semidenida positiva, con lo que la covarianza
de βe es mayor o igual a la covarianza de β̂

43
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.6. Geometría del Estimador MCO


Recordemos que el modelo de regresión muestral tiene la siguiente expresión:

Y = X β̂ + û

la que puede ser reescrita de la siguiente forma:

Y = P Y + MY (2.41)

donde P se denomina matriz de proyección y se dene de la siguiente manera:

P = X(X 0 X)−1 X 0

Además se tiene que M=I-P. De acuerdo a la ecuación (2.36) el estimador MCO es


tal que los errores son ortogonales a las X, es decir se deben escoger los parámet-
ros β de forma tal que el vector de errores sea ortogonal al espacio formados por
las variables explicativas.

Así, el estimador MCO nos permite descomponer Y en dos términos ortogonales


entre si: el primer componente puede ser escrito como una combinación lineal
de las columnas x y el segundo es un componente ortogonal a X (el término de
error), tal como lo muestra (2.41). Esto se representa grácamente en la Figura
10.

MY

x1

PY

x2
0

Col X

Figura 10: Descomposición Ortogonal de Y

El término P Y alternativamente se puede ver como la proyección de Y en el


espacio barrido por las X's y M Y como la proyección de Y es el espacio ortogonal
a las X's.

44
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.7. Bondad de Ajuste y Análisis de Varianza


El objetivo de esta sección es introducir un criterio de ajuste de nuestra regre-
sión, es decir, un criterio que nos indique cuan bien se ajusta nuestro modelo a
la muestra.

En principio, podríamos pensar que la suma de los residuos cuadrados, es de-


cir, nuestro criterio original de ajuste, es una buena opción: a menor sea éste,
mejor es nuestro ajuste. Sin embargo, la suma de los residuos cuadrados puede
ser arbitrariamente escalada al multiplicar la variable dependiente (Y) por el fac-
tor de escala deseado, lo cual invalida su uso como criterio de ajuste.

Por ello, se ha desarrollado un criterio que elimine el problema anterior. Di-


cho estadístico ya no se basará en la magnitud de un valor (como la suma de
los cuadrados de los residuos), sino que intentará preguntarse si la variación de
las variables independientes (X) explica la variación de la variable independi-
ente, como veremos más adelante. Para ello analizaremos con un poco más de
profundidad el modelo de regresión lineal en desvíos con respecto a la media y
presentaremos la llamada descomposición de varianza (o análisis de varianza),
ambos, insumos fundamentales para obtener nuestro estadístico de bondad de
ajuste.

2.7.1. Modelo de Regresión Lineal en Desvíos

Sea el modelo poblacional usual con k variables:

yi = β1 + β2 x2i + β3 x3i + · · · + βk xki + ui (2.42)

donde i = 1 . . . n y cuya contraparte estimada es:

yi = β̂1 + β̂2 x2i + β̂3 x3i + · · · + β̂k xki + ûi (2.43)

Luego, si sumamos para todas las observaciones y dividimos a ambos lados por
el tamaño muestral n, tenemos:

Ȳ = β̂1 + β̂2 x̄2 + β̂3 x̄3 + · · · + β̂k x̄k (2.44)

por lo cual:

β̂1 = Ȳ − β̂2 x̄2 + β̂3 x̄3 + · · · + β̂k x̄k (2.45)

45
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

La ecuación (2.45) muestra que el término independiente de una regresión queda


determinado por el resto de los k-1 coecientes involucrados. Finalmente, note
que restando las ecuaciones (2.43) y (2.44) obtenemos:

yi − Ȳ = β̂2 (x2i − x̄2 ) + β̂3 (x3i − x̄3 ) + · · · + β̂k (xki − x̄k ) + ûi (2.46)

la cual es una expresión similar a (2.43), excepto por dos importantes diferencias.
Primero, el modelo no posee constante y segundo, las variables se encuentran
expresadas en desvíos con respecto a la media. A pesar de ello, note que los coe-
cientes y los residuos son los mismos en ambos modelos.

De lo anterior surge un importante corolario respecto del término constante de


nuestro modelo. En general, el interés del investigador se centra en el impacto de
los regresores sobre la variable dependiente, por lo cual, el término constante no
es más que una corrección que garantiza que los promedios muestrales de ambos
miembros del modelo econométrico coincidan.

Para transformar en desvíos con respecto a la media un modelo en términos ma-


triciales, introduciremos una matriz fundamental para el análisis de esta sección.
Denotaremos por M 0 una matriz de n × n, denida como:
     
1 0 ··· 0 1 1 ··· 1 1 − n1 − n1 · · · − n1
ii0      
1
 0 1 ··· 0  1  1 1 ··· 1   − 1 − n1 · · · − n1 
M 0 = I − =  .. .. . . .. −  .. .. . . ..  =  .. n .. .. .. 
n×n n  . . . .  n . . . .   . . . . 
0 0 ··· 1 1 1 ··· 1 − n1 − n1 ··· 1− 1
n

donde I es la identidad (n×n) e i corresponde al vector unitario de dimensión n.


Dicha matriz es singular, simétrica (M 0 '=M 0 ) e idempotente (M 0 M 0 =M 0 ). En
general, M 0 es conocida como matriz de desvíos, ya que resta a cada columna de
la matriz involucrada, su media aritmética. Por ejemplo, es fácil comprobar que:
   Pn   
y1 y i y1 − Ȳ
 y2  1  Pn yi   y2 − Ȳ 
i=1
0 1 0    i=1   
M Y = Y − ii Y =  ..  −  .. = .. 
n  .  n   
Pn. .
yn i=1 yi yn − Ȳ

Por lo tanto, nuestro modelo expresado en matrices, puede ser expresado en tér-
minos de desvío con respecto a la media como:

M 0 Y = M 0 Xβ + M 0 u (2.47)

46
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.7.2. Análisis de Varianza

Suponga entonces el siguiente modelo poblacional:


Y = Xβ + u
donde Y corresponde a una vector n × 1, X corresponde a nuestra matriz de re-
gresores que incluye un término constante, tal que X es de n × k y u corresponde
a nuestro vector de errores de n × 1.

Buscamos entonces denir la variación de la variable dependiente (Suma de los


cuadrados totales = TSS) como3 :
n
X
T SS = (Yi − Ȳ )2 (2.48)
i=1

Para encontrar entonces una expresión para (2.48), de la ecuación (2.47) tenemos
que nuestro modelo estimado en desvíos con respecto a la media es:
M 0 Y = M 0 X β̂ + M 0 û
con lo cual, al particionar nuestra matriz X en X = [i X2 ], nuestro vector de
parámetros en β 0 = [β1 β2 ] y considerando que M 0 i = 0 y que M 0 û = û,
tenemos que:
M 0Y = M 0 iβ̂1 + M 0 X2 β̂2 + M 0 û
= M 0 X2 β̂2 + û (2.49)
Luego, para formar la TSS(suma de los cuadrados totales o la suma de los cuadra-
dos de las desviaciones de Y con respecto a su media), de la ecuación (2.48),
multiplicamos por Y' la ecuación (2.49):
Y 0M 0Y = Y 0 (M 0 X2 β̂2 + û)
= (X β̂ + û)0 (M 0 X2 β̂2 + û)
= β̂ 0 X 0 M 0 X2 β̂2 + β̂ 0 X 0 û + û0 M 0 X2 β̂2 + û0 û
0 0
Y M Y = β̂2 X20 M 0 X2 β̂2 + û0 û (2.50)
T SS = ESS + RSS (2.51)
donde el segundo y el tercer término desaparecen gracias a que los residuos estima-
dos son, por construcción, ortogonales a las variables explicativas 4 . La igualdad
3 Note que para dicha denición utilizamos los cuadrados de la desviaciones, ya que la suma
de las desviaciones es siempre cero.
4 Ya que X 0 û = X 0 (Y − X β̂) = X 0 Y − X 0 Y = 0.

47
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

anterior es conocida como la descomposición de varianza. El término de la


izquierda corresponde a TSS o la suma de los cuadrados de las desviaciones de
la variable dependiente. En otras palabras, la variabilidad de Y. En la derecha se
encuentra la variabilidad de las variables independientes o regresores y la variabil-
idad de los errores. ¾Cuál es entonces el objetivo?: descomponer la varianza de
la variable dependiente aquella parte que es explicada por la regresión (ESS) de
aquella parte explicada por los residuos (RSS). ¾Por qué?: porque intuitivamente,
la regresión se ajusta mejor si las desviaciones de Y se explican en su mayor parte
por desviaciones de X y no por desviaciones de los residuos.

2.7.3. Bondad de Ajuste: R2 y R̃2

Denimos entonces la bondad de ajuste del modelo a través del siguiente estadí-
grafo llamado también coeciente de determinación:
ESS
R2 = (2.52)
T SS
es decir, como la proporción de la varianza de Y que es explicada por la varianza
de la regresión. Alternativamente:
RSS
R2 = 1 − (2.53)
T SS
Note que:

1. El coeciente de determinación es siempre menor a 1. Ello porque RSS ≤


T SS y por lo tanto RSS
T SS
≤ 1.

2. El análisis de varianza anterior fue derivado bajo el supuesto que el modelo


incluía una constante (por ello utilizábamos la matriz M 0 ). En dicho caso,
necesariamente R2 ≥ 0. En caso de que el modelo no incluya una constante,
se debe utilizar la fórmula (2.5.2) utilizando TSS=Y'Y (sin desvíos).

3. Al agregar regresores al modelo, el R2 nunca decrecerá (se mantendrá con-


stante o aumentará)

4. No es claro cuan bueno sea como predictor de ajuste.

Para ver este último punto, suponga que usted posee el siguiente modelo pobla-
cional:
Y = β1 + β2 X + u

48
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

donde X es un vector (n × 1). Suponga ahora que restamos X a ambos lados de


nuestro modelo. Obtenemos entonces:

Y − X = β1 + γX + u

Si β2 ≈ 1, entonces es fácil vericar que el R2 del primer modelo será cercano a


1, mientras que el del segundo sera cercano a cero, a pesar de que los modelos
son matemáticamente equivalentes. A pesar de lo anterior, en trabajos aplicados,
el R2 es ampliamente utilizado, por lo cual se recomienda su publicación.

Retrocedamos ahora al punto tres. El nos dice que el coeciente de determinación


probablemente crecerá al incluir regresores. Ello plantea incentivos a incluir re-
gresores no relevantes para nuestro modelo, con el n de obtener un mejor ajuste.
¾Porqué sucede esto?, ya que al incluir regresores, la RSS necesariamente decrece
(o en el mejor de los casos se mantiene), mientras que la TSS permanece constante.

Por esta razón se creó el coeciente de determinación ajustado, el cual corrige el


R2 original por los grados de libertad del numerador y el denominador. Entonces,
denimos el R2 ajustado (R̃2 ) como:

û0 û/(n − k)
R̃2 = 1 − (2.54)
Y 0 M Y /(n − 1)

o equivalentemente:

(n − 1)
R̃2 = 1 − (1 − R2 ) (2.55)
(n − k)

49
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.8. Inferencia
Una vez que hemos estimado nuestra regresión muestral, es necesario preguntarse
cuan buena aproximación es dicha regresión de la poblacional. Para que la aprox-
imación sea cercana, es condición necesaria que los parámetros incluidos en la
regresión muestral sea estadísticamente distintos de cero (en caso contrario, no
pertenecen a la regresión poblacional). Así, uno de nuestros objetivos puede ser
el testear la signicancia individual de los parámetros.

Pero lo anterior es sólo una de las preguntas que como investigadores podemos
estar interesados en responder. Por ejemplo, en la estimación de la función de
producción de una rma, que asumimos Cobb Douglas (Y = AK α Lβ eu o en loga-
ritmo ln Y = ln A + α ln K + β ln L + u), podemos estar interesados en descubrir si
la rma presenta rendimientos constantes, crecientes o decrecientes a la escala, lo
cual se reejará en que α + β > o ≤ 1. Por lo tanto, ello podría ser otra hipótesis
interesante de plantearse. También podría ser interesante descubrir si todos los
parámetros a la vez son distintos de cero, o de algún valor determinado.

La gama de preguntas posibles respecto del valor de los parámetros es sólo aco-
tada por la pregunta que el investigador desee responder. Nuestro objetivo es,
por lo tanto, desarrollar los métodos de inferencia y contraste de hipótesis que
nos permitan responder, en el contexto de una regresión muestral particular, las
preguntas anteriores.

Dos notas precautorias. En esta sección nos ocuparemos de restricciones o hipóte-


sis lineales sobre los coecientes. Restricciones no lineales son más escasas en
econometría aplicada y se desarrollan en contexto de un modelo particular. Se-
gundo, en todo lo que se reere a este apartado, asumiremos que los errores de
nuestra regresión muestral siguen una distribución normal (ya veremos porqué).

Entonces, sea nuestro modelo poblacional

Y = Xβ + u

donde X es una matriz de (n × k ),u e Y son vectores (n × 1) y β es vector de


(k × 1).

Sean entonces las siguientes hipótesis:

1. H0 : βi = 0 ⇒ Plantea que el regresor Xi no posee inuencia alguna sobre Y.


Este es el test más común y nos referiremos a él como test de signicancia.

50
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2. H0 : βi = βi0 ⇒ Plantea que el regresor Xi posee un impacto determinado


por βi0 sobre Y.

3. H0 : βi + βj =1 ⇒ Plantea que la suma de los regresores Xi y Xj poseen un


impacto conjunto de magnitud 1.

4. H0 : βi = βj ⇒ Plantea que los regresores Xi y Xj poseen el mismo impacto


sobre Y.

5. H0 : βi =0 ∀ i=2. . . k ⇒ Plantea que todos los regresores conjuntamente,


excepto la constante, son cero.

6. H0 : βl =0 donde el vector β ha sido particionado en dos (βl y βp ) con di-


mensiones (kl × 1) y (kp × 1) respectivamente, tal que kl + kp = k . Plantea
entonces que un subconjunto de parámetros son estadísticamente no signi-
cativos.

Todas las hipótesis anteriores pueden ser resumidas en la siguiente expresión:

Rβ = r

donde R es una matriz de (q × k ) constantes conocidas (ceros o unos), cuyo obje-


tivo será seleccionar los parámetros a testear, cuyo número de las, q, representa
el número de restricciones. A su vez, r es un vector de dimensión q y contiene el
real al cual es restringido cada parámetro. Veamos como serán las matrices R y
r en cada una de nuestras hipótesis:

1. R =[0. . . 010 . . . 0]; r=0; q=1


donde 1 se encuentra en la i-ésima posición

2. R =[0. . . 010 . . . 0]; r=βi0 ; q=1


donde 1 se encuentra en la i-ésima posición

3. R =[0. . . 010 . . . 010 . . . 0]; r=1; q=1


donde 1 se encuentra en la i-ésima posición y en la j-ésima posición.

4. R =[0. . . 010 . . . 0-10 . . . 0]; r=0; q=1


donde 1 se encuentra en la i-ésima posición y en la j-ésima posición.

5. R =[0q×1 Ik−1 ]; r=0; q=k − 1

6. R =[0ki ×kj Iki ]; r=0; q=ki

51
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Entonces, nuestra hipótesis nula corresponde a:

H0 : Rβ = r (2.56)

con lo cual, sólo nos resta derivar el test que nos permita rechazar o no rechazar
nuestra nula. La construcción del estadígrafo es como sigue. Dado que MCO
(bajo los supuestos relevantes) es insesgado, tenemos que E(β̂) = β , por lo tanto,
E(Rβ̂) = Rβ , mientras que la varianza de Rβ̂ corresponde a

V [Rβ̂] = E[R(β̂ − β)(β̂ − β)0 R0 ]


= RV ar(β̂)R0
= σ 2 R(X 0 X)−1 R0

Necesitamos aún un supuesto más para determinar la distribución muestral de


nuestra nula. Dado que β̂ es función de u y u ∼ N (0, σ 2 ), entonces β̂ ∼ N (β, σ 2 (X 0 X)−1 )
y por lo tanto Rβ̂ ∼ N (r, σ 2 R(X 0 X)−1 R0 ), entonces:

β̂ ∼ N [β, σ 2 (X 0 X)−1 ] (2.57)

Rβ̂ ∼ N [Rβ, σ 2 R(X 0 X)−1 R0 ] (2.58)

y si la nula Rβ = r es cierta:

∴ (Rβ̂ − r) ∼ N [0, σ 2 R(X 0 X)−1 R0 ] (2.59)

luego estandarizamos, con lo cual:

(Rβ̂ − r)
p ∼ N [0, 1] (2.60)
σ 2 R(X 0 X)−1 R0

Además, se puede demostrar que (hacerlo)5 :


û0 û
∼ χ2(n−k) (2.61)
σ2
Luego, se puede demostrar que (hacerlo)6 :

(Rβ̂ − r)0 [σ 2 R(X 0 X)−1 R0 ]−1 (Rβ̂ − r) ∼ χ2q (2.62)


5 Basta con recordar que si x corresponde a un vector de realizaciones normales (0,1), por lo
cual x ∼ N (0, σ 2 I) y A corresponde a una matriz simétrica e idempotente de rango n, entonces
1 0 2
σ 2 x Ax ∼ χn . Finalmente, recuerde que û = M Y = M u y que el rango de una matriz simétrica
e idempotente es su traza.
6 Basta con recorder que si el vector x, de dimensión n, es tal que x ∼ N (0, Σ), entonces,
x Σ x ∼ χ2n .
0 −1

52
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

luego, combinando los dos resultados anteriores, se puede demostrar que (hacer-
lo)7 :

[(Rβ̂ − r)0 [R(X 0 X)−1 R0 ]−1 (Rβ̂ − r)]/q


∼ F(q,n−k) (2.63)
û0 û/(n − k)
El test expuesto en (2.63) corresponde a la forma general del test F. Dicho test
es de utilidad para testear cualquier hipótesis de la forma expuesta en (2.56). A
continuación veremos subcasos de dicho test general.

2.8.1. Test t (Una hipótesis lineal)

Reescribiendo el test F como:

[(Rβ̂ − r)0 [RVd


ar(β̂)R0 ]−1 (Rβ̂ − r)] ∼ F(q,n−k)

y haciendo el reemplazo respectivo de R y r correspondientes a las hipótesis 1 o


2 (H0 : βi = 0 = βi0 ), llegaremos a:

(β̂ − βi0 )2
F = ∼ F (1, n − k) (2.64)
Vd ar(βi )
Recordando que t2 es una caso particular de una F con un grado de libertad en
el numerador, tenemos que:

β̂ − βi0
t= q ∼ tn−k (2.65)
Vdar(βi )

Lo anterior es conocido como el test t (test de signicancia) y en su versión más


β̂
utilizada corresponde a t = √ d , donde se busca testear la hipótesis nula de
V ar(βi )
que el parámetro es cero.
El test t también cubre los casos 3. y 4.. En el caso 3. por ejemplo (H0 : βi +βj =1),
el estadígrafo corresponderá a:

β̂i + β̂j − 1
t= q ∼ tn−k (2.66)
Vd d β̂i , β̂j ) + Vd
ar(β̂i ) + 2Cov( ar(β̂j )

La distribución t es simétrica y se aproxima a la normal para tamaños de muestras


7 Sóloun poquito de álgebra y recordar como se construye una distribución F(q, n-k) a partir
de la división de dos χ2 con grados de libertad q en el numerador y n-k en el denominador.

53
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

grandes, sin embargo, la t posee colas más gruesas que la normal (lo cual es más
pronunciado en muestras pequeñas: n≤30). La siguiente gura expone la relación
entre la distribución t y la normal:

Probabilidad

Distribución Normal

Distribución t

Nota precautoria:

Toda la derivación anterior se basa en el estricto supuesto de normalidad de


los errores. En caso de que los mismos no distribuyan normal, la distribución
del test F (y por lo tanto el del t) es desconocida en muestras nitas. Sin em-
a
bargo, es posible demostrar que t ∼ N (0, 1), es decir, que el test t distribuye
asintóticamente normal. Luego, los valores críticos de t y Φ (normal estándar)
se encuentran sumamente cerca si n-k≥30, por lo cual, en términos prácticos no
importa mucho cual de ellas escojamos para los valores críticos (a menos que la
muestra sea especialmente pequeña).

Finalmente, nos queda examinar los criterios de rechazo del test y los niveles
de conanza. Como usted recordará de sus clases de estadística, lo anterior de-
pende de como especiquemos la hipótesis alternativa. A continuación, pasamos
a revisar este punto.

54
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Criterio de Rechazo y Nivel de Conanza

Una vez que hemos calculado el valor del test para nuestra nula particular (o
valor calculado ), resta calcular el valor crítico o el valor que nos indica la tabla t.
Dicho valor crítico nos dirá si nuestra nula es falsa o si no podemos armar que lo
es. La elección de dicho valor crítico se toma desde la tabla de distribución t y el
número debe ser escogido tomado en cuenta el nivel de signicancia escogido
(1 %, 5 % o 10 %), el cual a su vez determina el nivel de conanza del test
(99 %, 95 % o 90 %, respectivamente). El nivel de conanza posee una explicación
intuitiva: Nuestro estadígrafo es función de la muestra con lo que estamos traba-
jando, por lo cual, si contáramos con una gran número de ellas y con cada una
pudiésemos calcular nuestro estadígrafo, el nivel de conanza indica el porcenta-
je de veces que calculamos nuestro estadígrafo en que realmente no rechazamos
lo cierto o rechazamos correctamente lo falso. La forma en que se distribuya la
probabilidad de rechazo, es decir, el nivel de signicancia, depende de nuestra
hipótesis alternativa. A continuación revisamos dicho asunto. Test de una cola

Supongamos que nuestra hipótesis es:

H0 : βi = βio

H1 : βi > βio
donde βi0 ∈ R. En dicho caso, el estadígrafo es calculado según lo propuesto en la
sección anterior. El punto está en como acumulamos la probabilidad de rechazo.
En este caso, el total de la probabilidad de rechazo se acumula en la cola derecha
de la distribución, como lo muestra la siguiente gura8 :
8 ¾Por qué en la cola derecha? Porque la probabilidad de rechazo, es decir, el nivel de sig-
nicancia, nos indica hasta donde puedo tolerar un valor mayor a βio , por lo cual, carecería de
sentido que la zona de rechazo se encuentre en la cola izquierda de la distribución. Por ejemplo,
si βio =0, la distribución de nuestro estadígrafo se centra en cero (vea la fórmula), por lo cual la
hipótesis alternativa correspondería a que el parámetro es positivo. el punto es ¾cuán positivo
puedo aceptar que sea?.

55
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Probabilidad

Se Rechaza (5%)
No se Rechaza

por lo tanto, rechazaremos nuestra hipótesis nula de que el coeciente es cero


contra la hipótesis alternativa que el parámetro es mayor que βio , si el valor cal-
culado del test es mayor al valor crítico de la tabla t. En el caso que H1 sea que
el parámetro es menor a βio , entonces la probabilidad de rechazo se concentra en
la cola izquierda y se rechaza la nula en el caso que el valor calculado sea menor
que el valor crítico de la tabla t.

Test de dos colas

Supongamos que nuestra hipótesis es:

H0 : βi = βio

H1 : βi 6= βio

En este caso estamos repartiendo uniformemente la probabilidad de rechazo en


ambas colas de la distribución como lo muestra la siguiente gura (al 95 % de
conanza):

56
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Probabilidad

Se Rechaza (2,5%))
Se Rechaza (2,5%)
No se Rechaza

Por lo tanto, rechazaremos la nula si el valor calculado es en módulo mayor que


el valor crítico de tabla. Note que en este caso, la probabilidad de rechazo se
reparte un partes iguales en ambas colas. Ello se justica en que la distribución
t corresponde a una distribución simétrica.

Error de Tipo I, Error de Tipo II, Tamaño y Potencia de un test

Antes de continuar, veremos cuatro conceptos estadísticos importantes que nos


indican características de nuestro test.

1. Error de Tipo I (ETI): Corresponde a la probabilidad de rechazar la


nula cuando es cierta.

2. Error de Tipo II (ETII): Corresponde a la probabilidad de aceptar la


nula cuando es falsa.

3. Tamaño del Test: Corresponde la probabilidad de cometer ETI. Se dene


como el nivel de signicancia del test (α).

4. Potencia del Test: Corresponde a la probabilidad de rechazar la nula


cuando es falsa. Se dene como Potencia =1-ETII.

El óptimo para el investigador sería minimizar ambos tipos de errores y tener un


test con un menor tamaño y mayor potencia posibles, sin embargo, note que el

57
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

tamaño del test y por lo tanto, el ETI, es una variable endógena al investigador,
en tanto que él decide con que nivel de conanza trabajar. Luego, el objetivo se
transforma en, dado un nivel de conanza, minimizar la ocurrencia de ETII.

Intuitivamente, si usted escoge un nivel de signicancia pequeño (1 %, por ejemp-


lo), sus zonas de rechazo serán pequeñas, con lo cual, inevitablemente, la zona de
no rechazo crece, lo cual implica que por minimizar el ETI, ha aumentado el ETII.

P-value

Otra forma alternativa al valor crítico de tabla para rechazar o no rechazar nues-
tra nula, corresponde al uso de los llamados p-values, los cuales son reportados
en cualquier paquete estadístico. El p-value (p) se dene como:

p = p(tcalculado ) = P (|Z| ≥ |tcalculado |) = 2(1 − Φ(|tcalculado |)) (2.67)

es decir, el p-value representa la probabilidad de que el valor crítico (t de tabla, en


nuestro caso), sea mayor al valor t calculado, es decir, describe el nivel de signif-
icancia exacto asociado a un resultado econométrico en particular. Por ejemplo,
un p-value de 0.07 indica que un coeciente es estadisticamente signicativo en
un nivel de 0.07 (o con un 93 % de conanza).

Ejemplo:

Suponga el siguiente Modelo de Regresión Lineal Simple:

Yi = β1 + β2 Xi + ui para i = 1, ..., N
Además posee la siguiente información muestral de X e Y:

Y 2 5 6 7
X 0 10 18 20

El estimador MCO de β1 y β2 es el siguiente:


· ¸ · ¸−1 · ¸ · ¸
βˆ1 4 48 20 2,1935
β̂ = ˆ = =
β2 48 824 298 0,2338

La matriz de varianzas y covarianzas de β̂ es:

V̂ (β̂) = σ̂u2 (X 0 X)−1


· ¸−1 · ¸
0,436 4 48 0,180866 −0,010536
= =
2 48 824 −0,010536 0,000878

58
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Primero veamos el ajuste de este modelo, es decir, en que grado la variable x


2
explica a la variable y , para lo cual calculemos el R2 y R :
P4
RSS û2 0,436
2
R = 1− = 1 − P4 i=1 i =1− = 0,969
T SS i=1 (Y i − Y )2 14
P4 2
2 RSS/2 i=1 ûi /2
R = 1− = 1 − P4 = 0,953
T SS/3 i=1 (Yi − Y ) /3
2

Como podemos ver, el grado de ajuste del modelo es bastante bueno, como el
modelo incluye constante, el R2 se puede interpretar como la proporción de la
variabilidad de la variable independiente que es explicada por la variabilidad de
la variable dependiente, la que en este caso alcanza un 97 %.

Ahora veamos si estos parámetros estimados son signicativos a un 95 % de con-


anza, para lo cual realizaremos un test t de signicancia a cada uno de ellos:

1. Test de signicancia de β̂1 :


H0 : β̂1 = 0
H1 : β̂1 6= 0

β̂1
t= ∼ t2
V ar(β̂1 )
De esta forma, el valor calculado para el estadístico t es:
2,193548387
tc = √ = 5,157850523
0,180866
El valor de tabla del estadístico t a un 95 % de conanza y con dos grados
de libertad es 4,303.
Probabilidad

No se
Rechaza Se
Se Rechaza
Rechaza (2,5%)
(2,5%))

t(2)=4,303 t(2)=4,303

tc=5,158

59
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

De esta forma, se rechaza la hipótesis nula de que β̂1 =0, y por lo tanto el
parámetro estimado resulta ser estadísticamente signicativo.

2. Test de signicancia de β̂2 :


H0 : β̂2 = 0
H1 : β̂2 6= 0

β̂2
t= ∼ t2
V ar(β̂2 )

De esta forma, el valor calculado para el estadístico t es:


0,233870968
tc = √ = 7,892762865
0,000878

El valor de tabla del estadístico t a un 95 % de conanza y con dos grados


de libertad es 4,303.

Probabilidad

No se
Rechaza Se
Se Rechaza
Rechaza (2,5%)
(2,5%))

t(2)=4,303 t(2)=4,303

tc=7,893

De esta forma, se rechaza la hipótesis nula de que β̂2 =0, y por lo tanto el
parámetro estimado resulta ser estadísticamente signicativo.

3. TAREA: Testee la siguiente hipótesis nula:


H0 : β̂1 − β̂2 = 2

H1 : β̂1 − β̂2 6= 2

60
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.8.2. Test F (Conjunto de hipótesis lineales)

Los casos 6. y 5. corresponden a un conjunto de hipótesis a testear. En el caso


5. correspondía a un subconjunto particular de parámetros, mientras que el caso
6. correspondía a la nula de que todos ellos eran cero, menos la constante. En
dichos casos se aplica la fórmula del test F según la ecuación (2.63) y los criterios
de rechazo siguen lo expuesto en la sección anterior.

Sin embargo, en ambos casos podemos derivar expresiones alternativas para nue-
stro test.

Todas las pendientes del modelo son cero: En este caso, se puede
demostrar que el test F puede expresarse como:

ESS/(k − 1)
F = ∼ F(k−1,n−k) (2.68)
RSS/(n − k)

o alternativamente, utilizando la denición del R2 :

R2 /(k − 1)
F = ∼ F(k−1,n−k) (2.69)
(1 − R2 )/(n − k)

Un subconjunto de las pendientes del modelo son cero: En este


caso, se puede demostrar que el test F puede expresarse como:

(û0∗ û∗ − û0 û)/k2


F = ∼ F (k2 , n − k) (2.70)
û0 û/(n − k)

donde û∗ denotan los residuos MCO restringidos (donde k2 representa el


número de regresores que han sido restringidos a cero), mientras que û
representan los residuos del modelo MCO original.

2.8.3. Intervalos de Conanza

Una forma alternativa (o mejor dicho complementaria) de examinar la signican-


cia estadística de un parámetro ( o un conjunto de ellos) es a través de intervalos
de conanza (IC). Ellos nos indican, dado un nivel de conanza, el rango de
valores admisibles del coeciente que se estima. Los niveles de conanza gen-
eralmente utilizados son 99 %, 95 % y 90 % (al igual que en los test de hipótesis),

61
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

donde el tamaño de los mismos es necesariamente decreciente9 .

Una manera natural de obtener el IC asociado a β̂i es a través del test t aso-
ciado. Vimos entonces que él corresponde a:

β̂ − βi0
qi ∼ tn−k
V ar(β̂i )

entonces, si deseamos un IC del (1-α) % de conanza (es decir, de α % de signi-


cancia) para el parámetro β̂i , basta obtener de las tablas de distribución el valor
λα correspondiente, es decir:
 
β̂i − βi0
1 − α = P r Zα/2 ≤ q ≤ Z1−α/2 
V ar(β̂i )
 
β̂i − βi0
= P r −Z1−α/2 ≤ q ≤ Z1−α/2 
V ar(β̂i )
· q q ¸
= P r β̂i − Z1−α/2 V ar(β̂i ) ≤ βi0 ≤ β̂i + Z1−α/2 V ar(β̂i )

donde la tercera expresión se obtiene de despejar βi0 de la segunda. Note que el


intervalo ha sido construido en base a una distribución simétrica (como la t o la
normal), por lo cual el valor de tabla a escoger debe corresponder a α/2.

Note además que dicho intervalo está construido sólo en base a constantes cono-
cidas. Una vez construido, se puede contrastar la nula (H0 : βi = βi0 ) al nivel
de signicancia α sencillamente observando si βi0 pertenece al intervalo (en cuyo
caso no rechazamos la nula) o se encuentra fuera de él (en cuyo caso rechazamos
la nula)10 . Nuevamente, la validez de dicho intervalo de conanza depende críti-
camente del supuesto de distribución de los errores. En el caso que el valor Zα
se obtenga de la tabla t, como ya sabemos, estamos suponiendo que los errores
siguen una distribución normal. Un caso más general es utilizar los valores críticos
de la distribución normal estándar.

También es posible derivar regiones de conanza, es decir, IC de conanza si-


multáneos para una conjunto de parámetros, sin embargo, su utilización es escasa
9 Intuitivamente, ya que a
más exacta es mi estimación del rango posible, con menos conanza
puedo armar estar en lo correcto.
10 Una forma fácil de verlo es pensando en β =0, es decir, que la variable x no ayuda a
i0 i
explicar y .

62
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

en econometría aplicada (½a menos que su pregunta puntual lo requiera!).

Finalmente derivaremos el intervalo de conanza para la varianza de los errores.


Sabemos de la ecuación (2.61) que:

û0 û
2
∼ χ2n−k
σ

(n − k)σ̃ 2
2
∼ χ2n−k (2.71)
σ

Utilizando la misma lógica que utilizamos para el IC de un parámetro β̂ , tenemos


que el IC para σ̃ 2 corresponde a:
" #
(n − k)σ̃ 2 (n − k)σ̃ 2
≤ σ2 ≤ 2 = (1 − α) (2.72)
χ2n−k,α χn−k,1−α

Note que los valores críticos utilizados corresponden a χ2n−k,1−α y χ2n−k,α , ya que
la distribución χ2 es una distribución asimétrica.

2.8.4. Test de Normalidad (Test de Jarque-Bera)

Consideramos ahora el problema de utilizar los momentos de los residuos MCO


para hacer inferencia sobre la distribución de los errores poblacionales. Dado que
algunas de las propiedades de MCO y de la inferencia dependen del supuesto de
normalidad en los errores, es importante poseer un contraste para dicho supuesto.
Como es sabido, la distribución normal es simétrica y mesocúrtica. La simetría
implica que el tercer momento poblacional E(u3 ) en torno a la media, es cero. El
hecho que sea mesocúrtica implica que la kurtosis es 3 (es decir, el ancho de las
colas de la distribución, el cual se mide utilizando el cuarto momento en torno
a la media). Recordemos entonces que el coeciente de simetría poblacional se
dene como:
√ E(u3 )
S= 3
(σ 2 ) 2
mientras que la kurtosis (o coeciente de):

E(u4 )
K=
(σ 2 )2

63
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

En base a los anteriores, Bera y Jarke (1981), propusieron el siguiente estadígrafo,


construido bajo la nula de normalidad:
" #
Ŝ (K̂ − 3)2 a 2
JB = n + ∼ χ(2)
6 24

Donde los estimadores muestrales del coeciente de asimetría y kurtosis se ob-


tienen al considerar que un estimador natural de:

µr = E[ûr ]

corresponde a:
n
1X r
mr = û
n i=1 i
Note que el estadígrafo está denido en términos del exceso de kurtosis, por
lo cual, a menor sea el valor, menor es la probabilidad de rechazar la nula de
normalidad. Note además que el estadístico es esencialmente no constructivo, en
términos de que no nos indica que camino seguir en caso de rechazar la nula,
además de que no rechazar normalidad no implica conrmar su existencia. Sin
embargo, en la práctica corresponde al test más utilizado.

64
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.9. Predicción
La predicción es una de las herramientas más atractivas y utilizadas en Econometría.
Si el modelo que hemos escogido conrma la teoría en consideración, es decir,
a sobrevivido a las pruebas de hipótesis, podemos utilizar el modelo estimado
Yb = X βb para predecir. La predicción se puede efectuar para un valor puntual de
la variable dependiente, y 0 , correspondiente a un valor dado de los regresores, x0 ,
o predecir el valor esperado E[y 0 /x0 ] condicional a las variables explicativas.

Supongamos primero que queremos predecir un valor individual de Y, y 0 , asoci-


ado a un vector de regresores x0j con j = 1, 2..., k de dimensión 1 × k .

De acuerdo con el modelo econométrico se tiene que y 0 = β1 +x02 β2 +.....+x0k βk +u0 .


Para predecir el valor de y 0 podemos utilizar la estimación MCO del modelo,
yb0 = x0 βb.

De esta forma, el error de predicción estará dado por :


b + u0
e0 = y 0 − yb0 = x0 (β − β)
En donde se distinguen dos fuentes del error de predicción

El error en la estimación del vector β


El error estocástico inherente al modelo u0

Sin embargo, si consideramos que el estimador MCO es insesgado y mantenemos


los supuestos de nuestro modelo de regresión lineal, es trivial mostrar que el valor
esperado del error de predicción será cero. Además, podemos calcular la varianza
del error de predicción:
b
e0 ) = E[x0 (β − β)(β
V ar(b b 0 x00 + 2x0 (β − β)u
− β) b 0 + u0 u00 ]

e0 ) = σµ2 + σµ2 x0 (X 0 X)−1 x00


V ar(b
La varianza del error de predicción dependerá de la matriz de regresores X de
dimensión n × k que se utilizó para obtener las estimaciones de β . Sabemos que
a mayor dispersion de las variables explicativas menor varianza tendrán nues-
tras estimaciones MCO11 . Además dependerá del vector x0 que hemos asumido
11 Es posible y se recomienda derivar una expresión para la varianza del error de predicción
utilizando un modelo con 2 regresores. En está expresión se aprecia claramente la dependencia
de la varianza del error de predicción con la dispersion en torno a la media de las variables
explicativas.

65
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

conocido y del parámetro σµ2 , el cual no conocemos y deberá ser reemplazado por
su estimador σ bµ2 si es que queremos construir un intervalo de conanza para la
predicción yb0 .

Bajo supuestos de normalidad del término de error, el error de predicción es


una combinación lineal de dos variables normales por lo tanto tiene una distribu-
ción Normal(0, σbe2 ). Por lo tanto, por una razonamiento análogo al de las secciones
anteriores se tiene que:

y 0 − yb0 y 0 − yb0
q ∼ N (0, 1) ⇒ q ∼ tn−k
σµ2 (1 + x0 (X 0 X)−1 x00 ) σbµ2 (1 + x0 (X 0 X)−1 x00 )

Por lo tanto, dada una predicción puntual yb0 y una estimación de la desviación
estándar del error de predicción podemos construir un intervalo de conanza para
el valor de y 0 :
p p
y 0 − t1−α/2,n−k V ar(b
P r[b e0 ) ≤ y 0 ≤ yb0 + t1−α/2,T −k V ar(b
e0 )] = 1 − α

Consideremos ahora que el investigador no está interesado en predecir el valor


de la variable endógena y 0 , si no tan solo su valor esperado E(y 0 ) = x0 β . La
predicción, al igual que en el caso anterior, será x0 βb. La diferencia es que el error
de predicción en este caso estará denido por ee = E[y 0 ] − x0 βb = x0 β − x0 βb =
b.
x0 (β − β)

Calculando entonces la varianza (Hacerlo!) de este nuevo error de predicción


podemos construir ahora un intervalo de conanza para E(y 0 ) de la misma forma
que antes.

E[y 0 ] − yb0 E[y 0 ] − yb0


q ∼ N (0, 1) ⇒ q ∼ tn−k
σµ2 (x0 (X 0 X)−1 x00 ) σbµ2 (x0 (X 0 X)−1 x00 )

p p
y 0 − t1−α/2,n−k
P r[b e0 ) ≤ E[y 0 ] ≤ yb0 + t1−α/2,T −k
V ar(e e0 )] = 1 − α
V ar(e

Donde utilizamos V ar(yb0 ) = V ar(x0 β)


b = x0 V ar(β)x
b 00 = σ 2 x0 (X 0 X)−1 x00 .
µ

La siguiente gura ejemplica las predicciones de y 0 y E[y 0 /x0 ] en un modelo


de 2 variables independientes.

66
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.9.1. Medición de la precisión de la predicción

Se han propuesto varias medidas para valorar la precisión de los modelos de


predicción. Muchas de estas medidas están para evaluar la predicción expost, es
decir, predicciones para las que las variables exógenas no tienen que ser predichas.
Dos de estas medidas que se basan en los residuos de la predicción, son la raíz
cuadrada del error cuadrado medio y el error absoluto medio.
rP
bi )2
i (yi − y
RM SE =
n0

67
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

P
i | yi − ybi |
M AE =
n0
Donde n0 es el número de períodos que hay que predecir. Estos métodos presentan
un problema obvio de escala. Algunas medidas que no presentan este problema
se basan en el estadístico U de Theil.
s P
(1/n0 ) i (yi − ybi )2
U= P
(1/n0 ) i yi2

Ejemplo:
Supongamos que un analista comercial está pensando en construir un edicio
comercial para luego vender. Sin embargo, no sabe cuales son las características
que debiera tener el edicio para maximizar su rentabilidad. Para descubrir esto
el se propone realizar un análisis de regresión.

El analista elige al azar una muestra de 11 edicios de ocinas de 1500 edicios


posibles. Estos datos los puede utilizar para emplear el análisis de regresión lineal
multiple para estimar el valor de un edicio de ocinas en un área determinada
basándose en las siguientes variables.

x1 x2 x3 x4 y
Datos Supercie m2 Ocinas Entradas Antiguedad años Valor Edicio US$
2310 2 2 20 142000
2333 2 2 12 144000
2356 3 1,5 33 151000
2379 3 2 43 150000
2402 2 3 53 139000
2425 4 2 23 169000
2448 2 1,5 99 126000
2471 2 2 34 142900
2494 3 3 23 163000
2517 4 4 55 169000
2540 2 3 22 149000

Teniendo los datos podemos entonces utilizar cualquier software estadístico que
nos permita desarrollar la estimación por mínimos cuadrados ordinarios del mod-
elo de regresión. Supongamos que el modelo que mejor describe el compor-
tamiento de nuestra variable dependiente es un modelo lineal del tipo:

yi = β1 + β2 x2i + β3 x3i + β4 x4i + µi

Utilizando el software Stata tenemos:

68
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

A mayor número de metros cuadrados, entradas y cantidad de ocinas del edicio


mayor es el valor comercial de este. Además, mientras más años de construcción
menor es el valor del edicio. Todas las variables incluidas en el modelo son es-
tadísticamente signicativas( lo cual se puede ver comparando los test calculados
con los de t de tabla, o viendo directamente el p-value) individualmente (Test
t) y conjuntamente(Test F). Un porcentaje importante de la varianza del precio
es explicada por la varianza de las variables explicativas, conclusión obtenida a
2
partir del alto R2 y R observado.

Las conclusiones obtenidas a partir de la inferencia realizada son válidas s i el


supuesto de normalidad de los errores se cumple. Para estudiar esto observemos el
comportamiento de los errores estimados y realicemos un Test de Normalidad(Jarque-
Bera).

69
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Podemos ver que la distribución de los errores no es del todo simétrica (Skewness =
1,2) y que tampoco presenta un comportamiento mesocurtico (Kurtosis = 3).
Ambos elementos se ven reejados en el estadísitico Jarque - Bera, el cual cae en
la zona de rechazo (Ver además p -value).

Las estimaciones realizadas anteriormente pueden hacerse en cualquier programa


estadístico, incluso en el sub utilizado programa excel, el cual posee un comando
que permite obtener estimaciones de regresiones lineal de manera mu rápida.

70
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Con los parámetros estimados es posible realizar predicciones del valor de un


edicio particular condicional a sus características.

ybi = βb1 + βb2 x2i + βb3 x3i + βb4 x4i

Por ejemplo podría calcular el valor tasado de un edicio de ocinas en la misma


zona con 2500 metros cuadrados, tres ocinas, dos entradas y una antiguedad de
25 años. Es decir realizar predicciones fuera de la muestra.

158261 = 52318 + 27,64 ∗ 2500 + 12530 ∗ 3 + −234,24 ∗ 25

Para analizar la capacidad predictiva de nuestro modelo realicemos predicciones


utilizando la muestra que ya tenemos. Utilizando por ejemplo el programa Eviews
tenemos.

71
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

72
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Si analizamos los errores de predicción podemos ver que en promedio son cero,
tal como se demostró en clases.

Para ver la relación existente entre la varianza de la predicción y una de las


variables explicativas podemos realizar un ajuste con una variable.

Podemos ver que la varianza de la predicción es mayor a medida que las variables
explicativas están más lejos de su media.

73
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.10. Estimación Máximo Verosímil (EMV)


Hasta el momento hemos adoptado el criterio de estimación consistente con es-
coger los valores de los parámetros (β̂ ,σ̂ 2 ) de modo de minimizar la suma de los
residuos al cuadrado. A continuación, expondremos otra forma de obtener los
parámetros de interés, el cual, a diferencia de OLS, descansa en un determinado
supuesto respecto de la distribución del término de error, teniendo por objetivo,
como veremos más adelante, determinar los parámetros que maximicen la prob-
abilidad de ocurrencia de la muestra observada. La ventaja de MV es que puede
producir estimadores consistentes y asintóticamente ecientes cuando MCO falla.

Sea Y'=[y1 , y2 , . . ., yn ] un vector n × 1 de valores muestrales para la variable


dependiente, los cuales dependen de un vector k × 1 θ' = [θ1 , θ2 , . . ., θk ]. Sea
f (y; θ) la densidad conjunta asociada. A dicha probabilidad conjunta se le llama
función de Verosimilitud y se denota por L(·):

L(θ; y) = f (y; θ)

Note que hemos invertido la notación entre L y la densidad. Ello porque la den-
sidad describe los valores probables de Y dado un vector θ determinado, sin
embargo, en nuestro caso el sentido es inverso: estamos interesados en el vector θ
dado un vector Y determinado.

Al maximizar L(θ; Y ) respecto de θ se obtienen los estimadores máximo verosímiles


(θ̂M V ), los cuales maximizan la probabilidad de ocurrencia de la muestra observa-
da, es decir:
θ̂M V = máx L(θ; Y ) (2.73)
θ

o equivalentemente12
θ̂M V = máx ln(L(θ; Y )) = máx l(θ; Y ) (2.74)
θ θ
13
Luego, si asumimos que las observaciones de Y son independientes, entonces :
n
Y n
X
l(θ; Y ) = ln( Li (θ; yi )) = li (θ; yi ) (2.75)
i=1 i=1
12 En general se utiliza el logaritmo de la función de verosimilitud, denotado como l = ln(L)
como función objetivo. Note que dicha transformación es inocua, en términos de que el vector
∂l
de parámetros que maximize l será el que a su vez maximize L, ya que: ∂θ = L1 ∂L
∂θ
13 Bajo independencia, la función de distribución conjunta de una muestra corresponde a la
multiplicación de las funciones de densidad individuales.

74
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

La primera derivada de L es generalmente conocida como Score, s = (θ; Y ), por


lo cual θ̂M V se obtienen al igualar el score a cero.

2.10.1. Propiedades de los estimadores MV

Las propiedades de los estimadores ML se derivan en grandes muestras, por lo


cual hablaremos de las propiedades asintóticas de los mismos. Ellas son:

1. Consistencia:

plim(θ̂M V ) = θ (2.76)

es decir, asintóticamente, el parámetro estimado corresponde al parámetro


poblacional.

2. Eciencia Asintótica: La varianza del estimador ML alcanza la llamada


Cota Inferior de Cramer Rao, es decir I(θ)−1 . Esta propiedad asintótica
es la principal virtud de los estimadores ML. La cota inferior de Cramer
Rao corresponde al inverso de la matriz de información (que deniremos a
continuación), la cual corresponde a la mínima varianza que puede poseer
un estimador insesgado.

3. Normalidad Asintótica:

θ̂M V ∼a N (θ, I(θ)−1 ) (2.77)

es decir, el estimador ML distribuye asintóticamente normal, con media θ


y varianza igual al inverso de la llamada matriz de información (I(θ)).
Esta última se dene como:
· ¸ · 2 ¸
∂l ∂l 0 ∂ l
I(θ) = E = −E
∂θ ∂θ ∂θ∂θ0

donde note que la matriz hessiana de segundas derivadas de L es una matriz


cuadrada y simétrica de orden k × k .

4. Invarianza: Si θ̂ es el estimador ML de θ y g(θ) es una función continua


de θ, entonces g(θ̂) es el estimador ML de g(θ).

75
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.10.2. Estimación MV

Como ya es usual, sea el siguiente modelo poblacional:

Y = Xβ + u
iid
donde las matrices poseen los tamaños usuales y u ∼ N (0, σ 2 I). Entonces:
n
Y
f (u1 , u2 , . . . , un ; σ 2 I) = f (u1 ) ∗ f (u2 ) ∗ · · · ∗ f (un ) = f (ui )
i=1

y asumiendo una distribución normal para los errores, tenemos que la función de
verosimilitud corresponde a:
n
Y 1 u2
i
2
f (u1 , u2 , . . . , un ; σ I) = √ exp− 2σ2 (2.78)
i=1 2πσ 2
1 0
− u u2
= n exp 2σ (2.79)
(2πσ 2 ) 2
luego, dado nuestro modelo poblacional, tenemos que:
1 −
(Y −Xβ)0 (Y −Xβ)
L = f (y1 , y2 , . . . , yn ; X, σ 2 , β) = n exp 2σ 2 (2.80)
(2πσ 2 ) 2

con lo cual, nuestros estimadores θ̂M V = [β̂M V σ̂M 2 0


V ] se obtienen siguiendo la
regla expuesta en (2.74):
µ ¶
1 −
(Y −Xβ)0 (Y −Xβ)
máx ln(L) = máx ln n exp 2σ 2
β,σ 2 β,σ 2 (2πσ 2 ) 2
µ ¶
n n 2 (Y − Xβ)0 (Y − Xβ)
= máx − ln(2π) − ln(σ ) − (2.81)
β,σ 2 2 2 2σ 2
con lo cual, las CPO:
∂lnL 1
= 2 X 0 (Y − X β̂) = 0
∂β σ̂

=⇒ β̂M V = (X 0 X)−1 X 0 Y (2.82)


∂lnL n 1
= − 2 + 4 (Y − X β̂)0 (Y − X β̂) = 0
∂σ 2σ̂ 2σ̂

(Y − X β̂M V )0 (Y − X β̂M V )
=⇒ σˆ2 M V = (2.83)
n

76
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Entonces, bajo normalidad de los errores, el estimador β̂M V es equivalente al es-


timador MCO. Sin embargo, note que el estimador de la varianza de los errores
(σ̂M V ) da lugar al estimador sesgado.

Nos queda entonces derivar la varianza de los estimadores MV. Vimos que la
matriz de varianzas correspondía al inverso de la matriz de información (I(θ)).
Por facilidad de cálculo, generalmente se utiliza la segunda denición de I(θ), es
decir, la de las segundas derivadas de la función de verosimilitud. Entonces:

∂2l X 0X
=− 2
∂β∂β 0 σ

·
¸
∂ 2l X 0X
−E = (2.84)
∂β∂β 0 σ2

∂ 2l X 0u
=− 4
∂β∂σ 2 σ

·¸
∂ 2l
−E =0 (2.85)
∂β∂σ 2

∂2l n u0 u
= −
∂(σ 2 )2 2σ 4 σ6

·¸
∂ 2l n
−E 2 2
= 4 (2.86)
∂(σ ) 2σ

donde esta última esperanza se deriva del hecho que E(u0 u) = nσ 2 . Entonces, la
matriz de información corresponde a:
µ X0X ¶
0
I(β, σ) = σ 2
n (2.87)
0 2σ 4

mientras que su inversa:


µ ¶
−1 (X 0 X)−1 σ 2 0
I(β, σ) = 2σ 4 (2.88)
0 n

Note que el hecho que la matriz de información (y por lo tanto su inversa) sea
una matriz diagonal, reeja que X y u se distribuyen independientemente (de otra

77
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

forma E(X 0 u) 6=0).

Ejemplo: Considere la siguiente función de densidad condicional:


λe−λy (λy)x
f (y|x) = y ≥ 0, λ≥0
x!
Obtenga el estimador de máxima verosimilitud de λ.

Primero debemos recordar que cada observación i de la variable dependiente y


tiene la siguiente densidad condicional a la variable explicativa x:

λe−λyi (λyi )xi


f (yi |xi , λ) =
xi !
El logaritmo de la función de verosimilitud asociada a cada observación i es:
µ −λyi ¶
λe (λyi )xi
li (λ|yi , xi ) = ln
xi !
= ln λ − λyi + xi (ln λ + ln yi ) − ln(xi !)

De esta forma, aplicando sumatoria a la ecuación anterior obtengo la verosimilitud


conjunta:
n
X n
X n
X n
X
L(λ|y, x) = n ln λ − λ yi + ln λ xi + xi ln yi − ln(xi !)
i=1 i=1 i=1 i=1

Maximizando la expresión anterior con respecto a λ obtenemos el estimador Máx-


imo Verosímil:
n Pn
∂L n X xi
= − yi + i=1 = 0
∂λ λ̂ i=1 λ̂
n
X Xn
n − λ̂ yi + xi = 0
i=1 i=1
P
n + ni=1 xi
λ̂ = Pn
i=1 yi
1+x
λ̂ =
y
Ahora suponga que disponemos de los siguientes datos de la variable x e y :

y 2 5 6 7
x 4 10 18 20

78
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

En este caso el estimador Máximo Verosímil de λ es:


1+x
λ̂ =
y
1 + 13
= = 2,8
5

79
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.11. Inferencia en el contexto MV

2.11.1. Test de Razón de Verosimilitud (LR)

El valor de la función de verosimilitud, L(β̂, σ̂ 2 ), corresponde al valor de la


verosimilitud irrestricta, es decir, sin imponer ninguna restricción sobre los
parámetros del modelo. Suponiendo entonces que nuestro interés se centra en
una serie de restricciones lineales del tipo Rβ = r (donde R y r se denen como
en la sección 2.8), entonces el modelo original es estimable en su versión restringi-
da, al maximizar la función de verosimilitud sujeta a Rβ = r, cuyo resultado son
los estimadores β̃ y σ˜2 . Luego L(β̃ , σ˜2 ) corresponde al valor de la verosimilitud
restringida.
El valor de la verosimilitud restringida no puede ser superior al de la no restringi-
da, sin embargo, podría esperarse que si las restricciones impuestas son correctas,
el valor de la primera esté cerca del de la segunda. Entonces, denimos la razón
de verosimilitud (λ) como:
L(β̃, σ˜2 )
λ=
L(β̂, σ̂ 2 )
El test LR se dene entonces como:

LR = −2 ln λ = 2[ln L(β̂, σ̂ 2 ) − ln L(β̃, σ˜2 )] ∼a χ2 (q) (2.89)

donde q corresponde al número de restricciones impuestas (es decir, el número de


las de R).

Intuitivamente, el valor del estadígrafo crecerá a mayor sea la discrepancia entre


los valores de la verosimilitud restringida y la no restringida, lo cual nos aleja de
la posibilidad que las restricciones impuestas sea válidas (no rechazo de la nula).

En el caso que los errores distribuyan normal, es posible derivar una versión
alternativa del estadígrafo utilizando los residuos. Reemplazando β̂M V y σˆ2 M V en
l es posible demostrar:
µ ¶− n2
2πe
L(β̂, σˆ2 ) = (2πe)− 2 (σˆ2 )− 2 =
n n n
(û0 û)− 2 (2.90)
n

Luego, si denimos como ûN R los residuos del modelo irrestricto y como ûR ,
reemplazando en la denición del test, obtenemos:

LR = n(ln û0R ûR − ln û0N R ûN R ) (2.91)

80
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

2.11.2. Test de Wald (W)

Un segundo test asintótico en el contexto MV corresponde al llamado Test de


Wald. Dicho test se basa en evaluar la hipótesis nula en los coecientes estimados
y evaluar cuan cercano es el resultado comprado a lo propuesto por la nula. Una
de las ventajas del test de Wald es que sólo necesita de la estimación no restringi-
da. Así, una vez obtenido β̂ , un vector (Rβ̂ − r) cercano a cero tendería a apoyar
la hipótesis nula.

Siguiendo la misma lógica de la demostración del test F, si:


a
β̂ ∼ (β, I(β)−1 ) (2.92)
entonces, bajo la hipótesis nula:
a
(Rβ̂ − r) ∼ (0, RI(β)−1 R0 ) (2.93)
entonces, se puede demostrar que:
a
(Rβ̂ − r)0 [RI(β)−1 R0 ]−1 (Rβ̂ − r) ∼ χ2q (2.94)
donde q es el número de las de R y por lo tanto, el número de restricciones (según
la denimos en la sección 2.8). Luego, como los estimadores MV distribuyen asin-
tóticamente normales, entonces la matriz de información expuesta en la ecuación
(2.88) es válida en muestras grandes, tenemos que el estadístico de Wald se dene
como14 :
(Rβ̂ − r)0 [R(X 0 X)−1 R0 ]−1 (Rβ̂ − r) a 2
W = ∼ χq (2.95)
σ̂ 2
Una nota: Dijimos que el test era válido asintóticamente, donde hemos utilizado
el resultado de normalidad asintótica de MV. En caso de que los errores efecti-
vamente distribuyan normal en muestra nita, el test (lógicamente) mantiene su
distribución.

2.11.3. Test del Multiplicador de Lagrange (LM)

Un tercer test corresponde al test LM, el cual también es conocido como el test
del Score. recordemos que el Score corresponde a la matriz de primeras derivadas
14 Note que hemos utilizado sólo el bloque superior izquierdo de la inversa de la matriz de
información. Ello porque el test corresponde a los parámetros asociados a los coecientes de la
regresión. Además, ello es posible porque la matriz es diagonal, lo cual implica que no existe
correlación entre los errores y los regresores.

81
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

de la función de Verosimilitud:
∂ ln L
s(θ) =
∂θ
∂l
=
∂θ
Como vimos en la introducción, s(θ̂) = 0, por lo cual, al evaluar el score en el
estimador restringido bajo la nula Rβ − r = 0 (β̃ ), generalmente obtendremos
un vector diferente de cero, sin embargo, si la nula no se puede rechazar, esper-
aríamos obtener un vector cercano a cero.

Se puede demostrar que el score posee media cero y varianza igual a la matriz de
información (I(θ)). Por lo tanto, tenemos que la forma cuadrática:
a
s0 (θ)I(θ)−1 s(θ) ∼ χ2

con lo cual, al evaluar en el vector de parámetros restringido tenemos que bajo


la nula, el test LM se dene y distribuye como:

LM = s0 (θ̃)I(θ̃)−1 s(θ̃) ∼a χ2q (2.96)

Note que contraposición al test de Wald, sólo necesitamos calcular el estimador


restringido. De hecho, su popularidad reside en que muchas veces es más fácil
calcular el estimador restringido que el irrestricto.

Dada la normalidad asintótica de los estimadores MV, podemos reducir el es-


tadígrafo a una forma mucho más simple. Para ver lo anterior, considere una
notación matricial del score:
· ∂l ¸ · 1 0
¸
∂β σ 2X u
s(θ) = = u0 u
∂l
∂σ 2
− 2σn2 + 2σ 4

entonces, para evaluar el score en la estimación restringida, utilizamos los residuos


restringidos, los cuales denotaremos por:

u∗ = Y − X β̃

y por lo tanto:
u0∗ u∗
σ̂ 2∗ =
n
con lo cual:
· 1
¸
X 0 u∗
s(θ̃) = σ̂ 2∗ (2.97)
0

82
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Entonces, tomado en cuenta la denición de I(θ)−1 dada en (2.87) y evaluándola


en el estimador restringido, tenemos que nuestro test en (2.96) queda como:
· ¸· 1 0 ¸
£ 1 0 ¤ σ̃ 2 (X 0 X)−1 0 2 u ∗ X
LM = uX 0
σ̃ 2 ∗ 2σ̃ 4
σ̃
0 n
0
u0∗ X(X 0 X)−1 X 0 u∗
=
σ̃ 2
u X(X 0 X)−1 X 0 u∗
0
= n ∗ (2.98)
u0∗ u∗
= nR2 ∼a χ2q (2.99)
donde el R2 corresponde a la bondad de ajuste de la regresión auxiliar entre u∗
y X.

Resumiendo, el test se implementa en tres simples pasos:

1. Estimar el modelo restringido y obtener sus residuos


2. Con ellos correr una regresión de ellos contra X. Obtener el R2
3. Construir el estadístico

Ejemplo: Siguiendo con el ejemplo anterior, testee la hipótesis nula de que λ = 5.

(i) Test de Razón de Verosimilitud: recordemos que el estadístico de este test es:
LR = 2[ln L(λ̂) − ln L(λ̃)] ∼a χ2 (q)
Primero debemos evaluar el logaritmo de la verosimilitud en el parámetro
no restringido (estimado):
n
X n
X n
X n
X
L(λ̂|y, x) = n ln λ̂ − λ̂ yi + ln λ̂ xi + xi ln yi − ln(xi !)
i=1 i=1 i=1 i=1
= 4 · ln(2,8) − 2,8 · 20 + ln(2,8) · 52 + 90,04 − 97,014
= −5,317999436
El siguiente paso es computar el logaritmo de la función de verosimilitud
restringida, es decir, evaluada en el valor del λ bajo la hipótesis nula (λ̃ = 5):
n
X n
X n
X n
X
L(λ̃|y, x) = n ln λ̃ − λ̃ yi + ln λ̃ xi + xi ln yi − ln(xi !)
i=1 i=1 i=1 i=1
= 4 · ln(5) − 5 · 20 + ln(5) · 52 + 90,04 − 97,014
= −16,8481637

83
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Luego debemos computar el estadístico restando ambas verosimilitudes en


logaritmos y multiplicar esta diferencia por 2:

LR = 2[ln L(λ̂) − ln L(λ̃)]


= 2[−5,317999436 + −16,8481637] = 23,06032853

Finalmente, debemos comparar el valor de este estadístico con el valor de


tabla de una χ2 con 1 grado de libertad (sólo estamos testeando una hipóte-
sis). El valor de la χ2 con un grado de libertad a un 5 % de signicancia es
de 3.84, por lo tanto se rechaza la hipótesis nula de que λ sea igual a 5.

(ii) Test de Wald: para poder realizar este test primero necesitamos computar la
matriz de varianzas y covarianzas del estimador, el inverso de la matriz de
información. Recordemos la forma de esta matriz:
· ¸ · 2 ¸
∂l ∂l 0 ∂ l
I(θ) = E = −E
∂θ ∂θ ∂θ∂θ0

El score (o primera derivada de el logaritmo de la función de verosimilitud


era:
n Pn
∂lnL n X xi
= − yi + i=1
∂λ λ i=1 λ

Ahora, la segunda derivada (o Hessiano) es:


Pn
∂lnL2 n i=1 xi
= − −
∂λ∂λ0 λ2 P λ2
∂lnL 2
(n + ni=1 xi )
= −
∂λ∂λ0 λ2
Como la variable x es ja el valor esperado del hessiano corresponde a la
misma expresión, luego el negativo de esto constituye la matriz de informa-
ción:
P
(n + ni=1 xi )
I(λ) =
λ2
(4 + 52)
I(λ) =
λ2
56
I(λ) =
λ2
Ahora el estadístico de Wald se construye de la siguiente forma:

W = (λ̂ − 5)0 I(λ̂)(λ̂ − 5) ∼ χ21

84
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

Reemplazando λ̂ por 2.8:


µ ¶
c 0 56
W = (2,8 − 5) (2,8 − 5)
(2,8)2
W c = 34,6

Como el valor calculado del estadístico de Wald resulta ser mayor al valor
de tabla de una χ2 con un grado de libertad, se rechaza la hipótesis nula de
que λ̂ = 5.

(iii) Test de multiplicador de Lagrange: para construir este estadístico necesita-


mos evaluar el score y la matriz de información en el estimador restringuido
e), que en este caso es igual a 5:

n Pn
e n X 4 52
s(λ) = − yi + i=1 = − 20 + = −8,8
e
λ e
λ 5 5
i=1

e = 56
I(λ) = 2,24
(5)2
Reemplazando en el estadístico:
e 0 I(λ)
LM = s(λ) e −1 s(λ)
e
LM = (−8,8)(2,24)−1 (−8,8) = 34,6

Con lo cual se rechaza la hipótesis nula de que λ̂ = 5.

2.12. Algunas acotaciones respecto a la estimación


y la inferencia MV
1. La sección 2.10.2 asume que la distribución de los errores sigue una dis-
tribución normal. Sin embargo, suponer errores normales es sólo uno de los
posibles supuestos respecto a la distribución de los errores. Existe una gran
cantidad de posibilidades al respecto, utilizándose otras como la distribución
logística y la exponencial, muy regularmente en otros tópicos econométricos.
Lo anterior es una ventaja de la estimación MV, dado que sus propiedades
asintóticas se mantienen independientemente de la distribución utilizada.

2. Otra ventaja corresponde a la posibilidad de utilizar modelos no lineales.


MCO (tal y como lo hemos estudiado) sólo permite estimar modelos lineales
en parámetros, mientras que MV permite no linealidades (aunque ello im-
plique la imposibilidad de obtener de obtener formas funcionales cerradas

85
Econometría I
Capitulo 2: Modelo de Regresión Lineal FACEA, Universidad de Chile

para nuestros estimadores, lo cual implica necesariamente utilizar métodos


numéricos para optimizar la función objetivo).

3. Otra ventaja reside en la inferencia. Toda la inferencia vista en MCO poseía


distribución exacta bajo el supuesto de normalidad. Los test asintóticos
visto en la inferencia MV son válidos bajo cualquier distribución supuesta
(aunque asintóticamente).

4. Adicionalmente, los tres test vistos son capaces de lidiar con restricciones no
lineales. ¾Por qué? Porque MV es capaz de lidiar con modelos no lineales15

5. Es posible demostrar que W ≥ LR ≥ LM al ser aplicados a un modelo


lineal. Los tres son asintóticamente equivalentes, sin embargo, en muestras
nitas arrojarán resultados diferentes.

6. ¾Cuándo es recomendable utilizar un test t o un test F por sobre un test


asintótico?

7. Todos los paquetes estadísticos reportan el valor de la función de verosimili-


tud (es decir, la función evaluada en los parámetros estimados). Ello, muchas
veces es utilizado como un criterio de selección entre modelos (recuerde que
nuestro objetivo es maximizar la función de verosimilitud).

15 Unejemplo de restricción no lineal corresponde a H0 : ln(β32 ) = −0,1+ln(β2 ). Para estimar


el modelo restringido basta con aislar β2 e introducirlo en la función de verosimilitud que será
maximizada por métodos numéricos.

86
Capítulo 3

Forma Funcional y Especicación

3.1. Regresores Estocásticos en el Modelo de Re-


gresión Lineal
En el desarrollo del modelo de regresión lineal realizado en la sección 2.4 asum-
imos que nuestras variables explicativas eran determinísticas (Supuesto 2). En
ese contexto, cada vez que tomábamos una muestra diferente los regresores per-
manecían jos y solo la variable dependiente cambiaba, haciendo entonces que
la regresión muestral fuera una aproximación a la regresión poblacional. En está
sección procederemos a eliminar este supuesto1 y veremos cuales son las con-
secuencias de asumir regresores estocásticos en las estimaciones del modelo de
regresión lineal. Es decir, asumiremos ahora que X es obtenida aleatoriamente a
partir de alguna distribución de probabilidad.

Si X es estocástico, X debe ser independiente de u si queremos mantener las


propiedades estadísticas de los estimadores MCO. Un método adecuado para
obtener las propiedades estadísticas de βb consiste en obtener primero los resulta-
dos condicionados en X. Esto equivale al caso de los regresores no estocásticos.
Después buscamos los resultados incondicionales "promediando"(por ejemplo, por
integración total) las distribuciones condicionadas. La clave de este razonamien-
to es que, si podemos establecer insesgamiento condicionado en un X arbitrario,
podemos promediar las X para obtener un resultado incondicionado.

Manteniendo los supuestos 3 y 4 dados por E(u|x)=E(u)=0, V ar(u|X) = V ar(u) =


1 Todos los otros supuestos realizados anteriormente se mantienen.

87
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

σ 2 podemos al igual que antes estudiar si MCO es insesgado.

βb = β + (X 0 X)−1 X 0 u

b
E[β|X] = β + (X 0 X)−1 X 0 E[u|X] = β

Ya que por supuesto 3 E[u|X] = 0. Podemos ahora calcular el valor esperado


incondicional aplicando esperanza sobre todo el espacio posible de los regresores.
b = Ex [E[β|X]]
E[β] b

b = β + Ex [(X 0 X)−1 X 0 E[u|X]] = β


E[β]

Por lo tanto, βb también es insesgado incondicionalmente.E[β]


b = Ex [E[β|X]]
b = β.
El insesgamiento de los parámetros MCO es robusto a los supuestos de la matriz
X.

Con respecto a la varianza de β condicionada en la matriz de variables inde-


pendientes tenemos
b
V [β|X] = σ 2 (X 0 X)−1

Sin embargo, la varianza incondicional de βb esta dada por2


b = Ex [V [β|X]]
V [β] b b
+ Vx [E[β|X]]

b = Ex [V [β|X]]
V [β] b + Vx [β]

b = Ex [V [β|X]]
V [β] b = E[σ 2 (X 0 X)−1 ] = σ 2 E[(X 0 X)−1 ]

Nuestra conclusión inicial se altera un poco, tenemos que sustituir (X 0 X)−1 por
su valor esperado para obtener la matriz de covarianzas apropiadas. La varianza
incondicionada de βb solo puede ser descrita en términos del comportamiento
medio de X. Sin embargo, el teorema de Gauss Markov seguirá aplicando. Ya que
si para cada X particular el estimador MCO es el mejor estimador lineal insesgado
también lo será para los valores medios de los regresores.

2 Aplicando descomposición de la varianza(Ver).

88
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Conclusiones:

Si los errores son independientes de las X entonces se cumplirá el Teorema


de Gauss Markov.

Bajo normalidad del error los test estadísticos tienen la misma distribución
que en el caso de las X no estocásticas.

3.2. Incorporación de No Linealidades


En la sección 2 asumimos que el modelo de regresión debía ser lineal. Sin embargo,
muchas de las relaciones económicas no son lineales. Veamos el siguiente ejemplo
de la relación entre las ventas de los portales de Internet y el número de visitas
al portal.

Claramente la relación es no lineal. No es lo mismo en términos de ventas aumen-


tar desde 40 visitas a 50 que de 10 visitas a 20. Pero, ¾Cómo podemos incorporar
no linealidad entre Y y X en nuestro modelo de regresión?. Básicamente lo que
haremos es utilizar algunos tipos de transformación de variables. Esto nos permi-
tirá tener un modelo no lineal y a partir de la aplicación de las transformaciones
tener un modelo de regresión lineal para el que se cumplen todas las cosas que
hemos visto.

89
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Transformación Logarítmica

Suponga un modelo original no lineal de la siguiente forma Yi = β1 Xiβ2 ui .


Si aplicamos logaritmo nos quedará un modelo transformado de la sigu-
iente forma
ln(Yi ) = ln(β1 ) + β2 ln(Xi ) + ln(ui )
∂Y X
En donde β2 = ∂X Y
corresponde a la elasticidad X de Y. Este tipo de
transformaciones es muy útil en modelos de demanda y de producción.
Transformación Semilogarítmica

Suponga un modelo original no lineal de la siguiente forma Yi = β1 eβ2 Xi ui .


Si aplicamos logaritmo nos quedará un modelo transformado de la sigu-
iente forma
ln(Yi ) = ln(β1 ) + β2 Xi + ln(ui )
∂Y 1
En donde β2 = ∂X Y
corresponde a la semi elasticidad X de Y. Una uti-
lización común de la formulación semilogarítmica se da en los casos de
crecimiento exponencial. Si X es el tiempo t, entonces ∂ln(Y
∂t
)
= β2 =Tasa
media de crecimiento de Y.
Transformación Recíproca

Suponga un modelo original no lineal de la siguiente forma Yi = β1 +


β2 X1i + ui . El cual podemos expresar como un modelo transformado de
la siguiente forma
Yi = β 1 + β 2 Zi + u i
∂Y
En donde β2 = ∂X
corresponde al parámetro usual.

Si no se conoce a priori la forma funcional, existen algunos métodos que podrían


identicar la existencia de alguna no linealidad. A continuación veremos uno de
ellos.

3.2.1. Test de No Linealidades Omitidas (Test de Reset)

Una pregunta interesante de plantearse es si nuestro modelo ha omitido no lin-


ealidades en ciertos regresores3 . Ramsey (1969) introdujo el siguiente test. Bajo
3 Es
importante no confundir la no linealidad en regresores Vs no linealidades en parámetros.
Nuestro enfoque se basa en el primer tipo de ellas. El segundo es de mayor complejidad en tanto

90
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

la nula, el modelo poblacional corresponde a:

Y = Xβ + u

luego, denotamos, como ya es usual, Ŷ = X β̂ . Ramsey propuso estimar el sigu-


iente modelo auxiliar a través de MCO.

Y = X β̂1 + Z β̂2 + û

donde:
£ ¤
Z = Ŷ 2 Ŷ 3 . . . Ŷ m

luego la nula:

H0 : No Existen no linealidades omitidas

H0 : β2 =0

puede ser testeada utilizando un test de Wald sobre β2 . Es posible demostrar que
bajo la nula W∼a χ2m−1 . Por lo tanto, la nula se rechaza al α % de signicancia si
el estadígrafo es mayor que el valor crítico correspondiente. Para implementar el
test, m (es decir, el número de potencias de Y a incluir en la regresión auxiliar)
debe ser seleccionado previamente. Típicamente, valores pequeños como 2, 3 o 4
parecen funcionar mejor.

que al derivar la función objetivo con respecto a los parámetros de interés, podemos no obtener
una forma funcional cerrada para nuestro estimador. Ello nos llevará generalmente a utilizar
métodos numéricos para maximizar o minimizar nuestra función objetivo, la cual, incluso puede
dejar de ser estrictamente cóncava.

91
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.3. Variables Dummies o cualitativas


En en análisis de regresión, la variable dependiente esta inuida frecuentemente
no solo por variables continuas como so el ingreso, producción, precios, costos,
estatura, temperatura, etc..., sino también por variables que son esencialmente
cualitativas, estos son regresores binarios, es decir, variables que sólo toman el val-
or 0 o 1. Dichas variables son llamadas variables dummies, variables dicotómicas
o variables cticias. Muchas veces el regresor es binario porque así fue recogido
en la encuesta. Sin embargo, en otros casos el regresor binario ha sido construido
a partir de otras variables de los datos.

Algunos ejemplos de variable dummies son: género, raza, religión, nacionalidad,


región geográca, etc....Con respecto a las dos primeras variables mencionadas
por ejemplo, se ha encontrado que manteniendo todos los demás factores con-
stantes, las trabajadoras mujeres ganan menos que sus colegas hombres, y que
las personas de color ganan menos que las blancas. Este patrón puede resultar de
discriminación sexual o racial, pero cualquiera sea la razón, las variables cualita-
tivas tales como género o raza sí inuyen sobre la variable dependiente.

Por ejemplo, consideremos la siguiente variable dummy para género (mujer/hombre)


del individuo. Entonces la variable dummy consistirá en un vector (n × 1) con
elementos 0 o 1 según corresponda. Es decir:
(
1 mujer
d1i = (3.1)
0 hombre

A modo de ejemplo, pensemos en una ecuación simple de salarios E(Salario(W)/Género),


la cual implica el siguiente modelo:

Wi = β0 + β1 d1i + ui (3.2)

entonces, dada la especicación escogida para la dummy, tenemos que:

β0 = E(W/hombre)

β0 + β1 = E(W/mujer)
Alternativamente, podríamos haber denido la dummy de la siguiente forma:
(
0 mujer
d2i = (3.3)
1 hombre

92
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

y el modelo como
Wi = β0 + β1 d2i + ui
entonces, en esta segunda especicación escogida para la dummy, tenemos que:

β0 + β1 = E(W/hombre)

β0 = E(W/mujer)
Una tercera forma de denir el modelo sería incluyendo ambas dummies:

Wi = β1 d1i + β2 d2i + ui

con el cual tendríamos que los retornos a ambos géneros serían:

β2 = E(W/hombre)

β1 = E(W/mujer)

Los tres modelos anteriores son equivalentes. Note que en el tercer modelo
no incluimos término constante ya que ello haría que la matriz X fuese singular y
por lo tanto, no invertible. Dicho error de especicación es llamado en la literatu-
ra Trampa de las Dummies y corresponde a un error netamente del investigador,
no de los datos.

Un modelo de regresión puede contener variables explicativas que son exclusi-


vamente dicotómicas o cualitativas, tales modelos se denominas Modelos de
análisis de varianza (ANOVA), estos modelos son utilizados para determinar
la signicancia estadística de la diferencias de medias entre grupos, por ejemplo,
serviría para determinar si existe diferencia signicativa entre los ingresos medios
de los hombres y mujeres.

Ejemplo I:
Contamos con datos de ingreso proveniente de la ocupación principal para el año
2000, de acuerdo a zona geográca de Chile: Norte (de la primera a la cuarta
región), Centro (quinta región, sexta región y región metropolitana) y Sur (de
la séptima a la duodécima región). Suponga que deseamos averiguar si el salario
promedio diere entre las distintas zonas geográcas, si tomamos el promedio de
los salarios de los individuos en cada una de las zonas obtenemos lo siguiente:

Zona Geográfica Salario Promedio


Norte $ 270,154
Centro $ 296,857.8
Sur $240,238.9

93
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Estos números son claramente diferentes entre sí, pero lo que nos interesa saber
es si esta diferencia es estadísticamente signicativa, para esto utilizaremos un
modelo ANOVA.

Consideremos el siguiente modelo de regresión:


Yi = β0 + β1 D1i + β2 D2i + ui
donde:

Yi =Salario del individuo i.


D1i =es una variable dummy que toma valor 1 si la persona i vive en el norte y
cero sino.
D2i = es una variable dummy que toma valor 1 si la persona i vive en el sur y
cero sino.

Este modelo es como cualquier otro modelo de regresión lineal, la única difer-
encia que ahora todo nuestras variables explicativas son binarias. De esta forma,
el salario promedio de los individuos que viven en el norte es:
E(Yi |D1i = 1, D2i = 0) = β0 + β1
de igual forma el salario promedio de los individuos que viven en el sur es:
E(Yi |D1i = 0, D2i = 1) = β0 + β2
y por último, el salario promedio de los individuos que viven en el centro es:
E(Yi |D1i = 0, D2i = 0) = β0
Así, el salario promedio de los individuos de la zona centro esta dado por el inter-
cepto de la ecuación de regresión, además los coecientes β1 y β2 ("pendiente"),
indican la cantidad en que los salarios promedios del norte y sur dieren de los del
centro, respectivamente. Ahora necesitamos ver si estas diferencias son estadísti-
camente signicativas.

El modelo estimado es:

94
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Como los tres coecientes estimados resultan ser estadísticamente signicativos,


la diferencia en los salarios promedios entre regiones es estadísticamente signi-
cativa. De esta forma, se puede concluir que los salarios en la zona centro son
estadísticamente mayores a los de la zona norte y sur, y que los de la zona norte
son estadísticamente superior a los de la zona sur.
Es importante tener claro que las variables dicotómicas simplemente señalaran
las diferencias, si es que estas existen, pero no sugieren razones por las cuales
estas se presentan.

Desde ahora llamaremos a la categoría que no se le asigna dummy (en nuestro


ejemplo la zona centro) como categoría base, todas las comparaciones se harán
respecto a esta categoría. Los coecientes correspondientes a las variables di-
cotómicas los llamaremos coecientes de interacción diferencial.

Los modelos ANOVA que acabamos de analizar no son muy frecuentes en economía,
sólo se utilizan para testear diferencias de medias.

Los modelos econométricos generalmente son más amplios e introducen tanto vari-
ables explicativas continuas como dicotómicas. Por ejemplo, es razonable suponer
que, además del género, existen otros factores que explican el salario (educación
y experiencia (entre otros) siguiendo a Mincer (1974)).

Especiquemos nuevamente el modelo en (3.2) como E(Salario (W)/Educación


(E), Género):
Wi = β0 + β1 d2i + β2 Ei + ui
Dicho modelo presenta un efecto intercepto para el género, es decir, hombres
y mujeres poseen diferente intercepto, pero igual pendiente (β2 ) en educación
(retorno a la educación):

W Hombres

Mujeres
β 2

β 0+β 1 β 2

β 0

E
Salario y Educación, diferencia de intercepto entre hombres
y mujeres

95
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Ahora, si quisiéramos especicar un modelo en que además las pendientes varíen


con el género (retornos a la educación diferenciados), tendríamos el siguiente
modelo:
Wi = β0 + β1 d2i + β2 Ei + β3 d2i · Ei + ui
donde:

E(Salario (W)/Educación (E), Hombre)=β0 + β1 +β2 E +β3 E .


E(Salario (W)/Educación (E), Mujer)=β0 +β2 E .
∂E(Salario(W )/Educacin(E),Hombre)
∂E
= β2 + β3 .
∂E(Salario(W )/Educacin(E),M ujer)
∂E
= β2 .

En el caso que existan otros regresores continuos (experiencia, por ejemplo), po-
dría ser deseable poseer efectos diferenciados en la pendiente sólo para algunos
de ellos.

Hombres
W
β 2+β 3 Mujeres

β 0+β 1 β 2

β 0

E
Salario y Educación, diferencia de intercepto y pendiente
entre hombres y mujeres

96
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.3.1. Posibles usos de las variables Dummies

Como hemos mencionado las variable dummies pueden reejar características in-
dividuales como género, status marital,raza, etc, y de esta forma las habiamos
llamado variable cualitativas. Sin embargo, este no es el único motivo para
incluir dummies en una regresión. Existen además aquellas dummies llamadas
dummies estacionales cuyo objetivo es controlar por factores temporales de
los datos. Por ejemplo, estimando la demanda de helados, es posible que ex-
ista un .efecto verano"por lo cual la demanda aumente en algunos trimestres o
bimestres, de esta forma para controlar dicho efecto, se deben incluir 4 dummies
cada una correspondiente a un trimestre del año (o 6 en el caso del bimestre, o 2
en el caso del semestre, etc.). Recuerde que el caso de incluir una constante debe
retirar discrecionalmente alguna de ellas, la cual servirá como trimestre de ref-
erencia. Las dummies también pueden ser útiles para captar efectos umbrales.
Siguiendo con nuestro ejemplo de educación, podríamos tener que en la encuesta,
la variable Educación no fue recogida en forma continua, sino discreta (es decir,
si la persona posee: Educación Básica (8 años), Educación Media (12 años), Edu-
cación Universitaria (17 años), Educación universitaria con postgrado (19 años)).
Deniendo una dummy por cada nivel de educación, el coeciente asociado a ca-
da una de ellas nos mostraría el retorno a cada tipo de educación. Finalmente,
las dummies pueden ser de utilidad para cuanticar efectos condicionales. Ya
habíamos enunciado éstas cuando vimos E(W/E,género), en que permitimos que
la pendiente varíe entre géneros. Dichas dummies son de interés cuando queremos
captar algún efecto condicional a alguna característica. Por ejemplo, el retorno a
la educación dado que se es mujer, o que se es casado, o que se es blanco, etc.
En dicho caso, basta introducir la dummy que identica el estado condicional
multiplicada por la variable de interés.

Concluyendo, la forma en que se incluyan las variables binarias en el modelo


de regresión depende de la pregunta que el investigador desee responder o del
objetivo que tenga para incluirlas. Creatividad y teoría.

Desde el punto de vista de la teoría de regresión, di corresponde a un vari-


able aleatoria del mismo proceso de muestro que generó el resto de las variables.
Veamos entonces como manejarlas algebraicamente. Sea el modelo simple:

Wi = β1 d1i + β2 d2i + ui

o en nuestra notación matricial usual:

Y = Xβ + u

97
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

donde β = (β1 β2 ) y X = [D1 D2 ], entonces:

β̂ = (X 0 X)−1 X 0 Y
· 0 ¸−1 · 0 ¸
D1 D1 D10 D2 D1 Y
=
D20 D1 D20 D2 D20 Y
· Pn 2 Pn ¸−1 · Pn ¸
Pn i=1 d1i Pn 2
i=1 d 1i d2i Pn
i=1 d1i yi
=
i=1 d1i d2i i=1 d2i i=1 d2i yi
· ¸−1 · Pn ¸
n1 0 Pni=1 d1i yi
=
0 n2 i=1 d2i yi
· ¸
y¯1
=
y¯2

donde n1 y n2 son el número de observaciones con d1i =1 y d2i =1, respectivamente,


y y¯1 y y¯2 corresponden a las medias muestrales entre las respectivas observaciones.

Y con respecto a la varianza de los estimadores:

V (β) = (X 0 X)−1 σ̂ 2
" 2 #
σ̂
n1
0
= 2
0 σ̂n2

donde: n
2 1X 2
σ̂ = û
n i=1 i
es el estimador basado en la muestra completa.

98
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Ejemplo II:
A continuación veremos la aplicación de la llamada .Ecuación de Mincer"para
estimar el retorno a la educación. Los datos corresponden a un grupo de jóvenes
chilenos egresados de la educación media técnica, los que fueron entrevistados en
1997. La primera gura muestra la estimación de la ecuación de Mincer en su
versión original (1974):

ln(Salario)i = α + β1 Educacioni + ui

Consideremos ahora una versión más completa del modelo en que incluimos la
experiencia y una dummy que toma el valor 1 si el individuo es una mujer:

Note que el retorno a la educación sigue siendo positivo, mientras que la dummy
para mujer es negativa (¾Qué signica que el parámetro sea negativo?). Veamos a
continuación, la misma especicación, sólo que esta vez la dummy se dene como
1 si el individuo es hombre:

99
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

¾Cómo es el parámetro de la dummy para el hombre comparado con el de la


mujer? ¾Qué pasa con la estimación del resto de los parámetros?.

100
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.4. Variable Dependiente Rezagada


Cuando trabajamos con series de tiempo, es posible que sea de nuestro interés
incluir rezagos de la variable dependiente como variables explicativas. Ello puede
ocurrir cuando creemos que existe cierta persistencia de nuestra variable depen-
diente. Por ejemplo, para tratar de explicar el comportamiento de la inación
(πt ), tendría sentido introducir como variables explicativas, junto con la tasa de
crecimiento del dinero (mt ), rezagos de la propia tasa de inación:

πt = β0 + β1 πt−1 + β2 mt + ut

Supongamos el modelo más simple posible:

yt = β1 yt−1 + ut con |β1 | < 1 (3.4)

Adelantándonos a la teoría de series de tiempo, el modelo anterior recibe el nom-


bre de Proceso Autorregresivo de Primer Orden (AR(1)), donde el nombre
de autorregresivo se debe a que la variable se explica por rezagos de ella misma y
de primer orden porque depende sólo del primer rezago (el orden indica el número
máximo de rezagos incluidos).

La estimación MCO del modelo anterior es β̂ = (X 0 X)−1 X 0 Y , donde X=[i,Yt−1 ],


con la diferencia que esta vez poseemos n-1 datos, a menos que supongamos un
valor inicial para Y0 . En este caso dejan de cumplirse uno de los supuestos bajo
los cuales vimos las propiedades del estimador MCO y la inferencia asociada,
aunque continuemos haciendo los supuestos pertinentes para el término de error,
el modelo viola el supuesto de regresores jos (no estocásticos).

Analicemos esto con más detalle, el estimador MCO de β1 en (3.4) es:


PT
yt yt−1
β̂1 = Pt=2 T
t=2 yt−12
PT
t=2 (β1 yt−1 + ut )yt−1
= PT 2
t=2 yt−1
PT
ut yt−1
= β1 + Pt=2 T
t=2 yt−12

para que este estimador sea insesgado se requiere que:


"P #
T
u t y t−1
E Pt=2 T
=0 (3.5)
t=2 yt−12

101
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

lo cual se cumplirá en la medida que ys y ut sean independientes para todo (t,s).

Para examinar este punto con más detalle, substituyamos el modelo en repetidas
ocasiones hasta llegar a una forma general:

y1 = β1 y0 + u1
y2 = β1 y1 + u2 ⇒ y2 = β1 (β1 y0 + u1 ) + u2 = β12 y0 + (u2 + β1 u1 )
y3 = β1 y2 + u3 ⇒ y3 = β1 (β12 y0 + u2 + β1 u1 ) + u3 = β13 y0 + β12 u1 + β1 u2 + u3

..
.
yt = β1t y0 + (ut + β1 ut−1 + β12 ut−2 + · · · + β1t−1 u1 )

Luego, multiplicando yt por ut , ut−1 , ut−2 , etc. y tomando esperanza, tenemos


que:

E(yt ut ) = σ 2
E(yt ut−1 ) = β1 σ 2
E(yt ut−2 ) = β12 σ 2

Por lo tanto, el valor actual de y se encuentra correlacionado con el error actual y


pasado (no con los futuros). De la misma forma, rezagando la expresión nal para
yt , multiplicando por ut , ut−1 , ut−2 , etc. se puede vericar que el regresor yt−1 no
se encuentra correlacionado con el valor actual del error, pero si con sus valores
pasados. Ello implica que nuestro supuesto E(ui Xi ) = 0 ya no es válido, por lo
cual, la matriz de varianzas y covarianzas involucradas ya no será una matriz de
ceros, lo cual se traducirá en que los estimadores MCO ya no serán insesgados,
pero si consistentes (Demostrarlo).

Note que lo anterior es válido para rezagos de la variable dependiente, pero no


para rezagos de variables explicativas, en cuanto estos últimos pueden ser aún
interpretados como jos. El único problema que puede presentar el incluir este
tipo de regresores es la alta correlación que existente entre el valor presente del
regresor y de su o sus rezagos incluidos en el modelo. Ello da origen a problemas
de multicolinealidad.

102
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.4.1. Ejemplo y advertencias sobre el uso de variable de-


pendiente rezagada como regresor

Tenemos la siguiente información sobre Índice de Precios al Consumidor (IPC)


desde 1982 al 20034 . A partir de esta información podemos construir la inación
(cambio porcentual en el índice de precios):
IP Ct − IP Ct−1
πt =
IP Ct−1

Veamos que resultados obtenemos al realizar la siguiente regresión:

IP Ct = β0 + β1 IP Ct−1 + ut

4 Información obtenida del Banco Central de Chile: www.bcentral.cl

103
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Cuando el coeciente de la variable dependiente rezagada es muy cercano a 1, se


dice que la serie tiene raiz unitaria5 . Sin embargo, este no es el caso. Si teorica-
mente siempre se espera que la inación sea pequeña pero positiva, deberiamos
esperar que el índice de precios siempre fuera creciendo, y por lo tanto esta serie
más que tener una raiz unitaria tiene una tendencia.

La persistencia en el índice de precios al consumidor es casi obvia. Lo que nos


interesa es determinar si existe persistencia en la inación, la que deberíamos
esperar fuera estable en el tiempo y con valores relativamente bajos y positivos.
Vemos que sucede al estimar el siguiente modelo:

πt = β0 + β1 πt−1 + ut

El coeciente β1 es signicativo y del orden del 0.8 ¾Que signica esto?.


5 Cuando una serie tiene raiz unitaria, esta no es estacionaria, lo que signica que no uctúa
en torno a su valor promedio. El test t de signicancia del parámetro que acompaña a la variable
dependiente, no sirve para evaluar la hipótesis de raiz unitaria. Comente error tipo I

104
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.5. Selección de Modelos


Una pregunta crucial que se enfrenta en econometría aplicada es como escoger
entre diversas especicaciones planteadas para responder una misma pregunta.
No existe un respuesta única al problema anterior, sin embargo, algunas recomen-
daciones son:

Elegir el modelo más parsimonioso (lo más pequeño posible)

Que posea un buen ajuste

Que sea consistente con los datos observados

Sin embargo, el caso de tener que elegir entre modelos anidados, es posible utilizar
los llamados Criterios de Información. Suponga que usted desea escoger entre
alguno de los siguientes modelos:

Y = β0 + β1 x1 + β2 x2 + β3 x3 + u (1)

Y = α0 + α1 x1 + α3 x3 + v (2)
Y = φ0 + φ(x1 + x2 ) + ω (3)
donde se dice que el modelo (1) encompasa al (2) y al (3), ya que los dos segundos
son el versiones restringidas del primero. Luego, se dice (2) y (3) son anidados en
(1)

La pregunta relevante es ¾Cuál de las tres especicaciones anteriores es mejor?.


Los criterios de información nos ayudan a responder dicha pregunta. El primer
criterio de información es el Criterio de Akaike (ACI) y se dene como:

2 ln L k
ACI = − +
n n
mientras que el Criterio de Schwarz (BIC) se dene como:

2 ln L ln(n)
BIC = − +k
n n
Luego, el criterio de selección entre modelos anidados corresponde a elegir el
modelo con menor criterio de información. Note que para que los criterios sean
comprables, deben poseer el mismo tamaño de muestra.

105
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.5.1. Ejemplo: Retornos a la educación, diferencias entre


hombres y mujeres

Recordemos lo aprendido en la sección 3.3 del curso. Veíamos que para estimar el
retorno a la educación, es decir, cuanto ingreso adicional me genera un año más
de educación, podíamos considerar al menos tres especicaciones:

M odelo I : Wi = β0 + β1 d2i + β2 Ei + β3 Ei · d2i + ui


M odelo II : Wi = β0 + β1 d2i + β2 Ei + ui
M odelo III : Wi = β0 + β2 Ei + ui

donde Wi era el logaritmo natural del salario del individuo i, d2i era una variable
dummy que tomaba el valor 1 si la persona i era hombre y 0 sino, Ei eran los
años de educación del individuo i y Ei · d2i era una variable interactiva.
Además tenemos que el Modelo II anida al modelo III, y el modelo I anida a los
modelos II y III. De esta forma, podemos utilizar los criterios de información de
Akaike y Schwarz para determinar con que especicación nos quedamos.

Estimación del Modelo I:


Wi = β0 + β1 d2i + β2 Ei + β3 Ei · d2i + ui

106
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Estimación del Modelo II:


Wi = β0 + β1 d2i + β2 Ei + ui

Estimación del Modelo III:


Wi = β0 + β2 Ei + ui

107
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

En resumen:

Modelo Akaike Schwarz


I 2.278 -680692.847
II 2.279 -680676.053
II 2.338 -676154.845

Como debemos elegir el modelo que minimize el criterio de información, de acuer-


do a ambos criterios debemos elegir el Modelo I.

108
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.6. Regresión Particionada


Sea el siguiente modelo de regresión lineal con k regresores:

Y = Xβ + u

La matrix X de dimensión n × k puede ser particionada en dos submatrices de


dimensiones n × k1 y n × k2 que llamaremos respectivamente X1 y X2 . De igual
forma el vector de parámetros β debe ser particionado en dos subvectores β1 y
β2 asociado a cada una de las submatrices de variables explicativas.
De esta forma, el modelo anterior puede ser reescrito como:

Y = X1 β1 + X2 β2 + u

En términos matriciales estamos haciendo lo siguiente:


 
h i β1
X = n×kX1 X2 β =  k1 ×1  tal que k = k1 + k2
n×k 1 n×k2
k×1 β2
k2 ×1

Recordando que la estimación mínimos cuadrados ordinaria implica despejar el


vector de parámetros del sistema de ecuaciones normales X 0 X β̂ = X 0 Y , podemos
escribir esto en función de las matrices particionadas:
·µ 0 ¶ ¸ · ¸ · 0 ¸
X1 ¡ ¢ β̂1 X1 Y
· X1 X2 · =
X20 β̂2 X20 Y
· 0 ¸ · ¸ · 0 ¸
X1 X1 X10 X2 β̂1 X1 Y
0 0 · =
X2 X1 X2 X2 β̂2 X20 Y

Lo que puede ser expresado de la siguiente forma:

X10 X1 β̂1 + X10 X2 β̂2 = X10 Y (i)


X20 X1 β̂1 + X20 X2 β̂2 = X20 Y (ii)

De (ii) podemos despejar β̂2 :

X20 X2 β̂2 = X20 Y − X20 X1 β̂1


X20 X2 β̂2 = X20 (Y − X1 β̂1 )
β̂2 = (X20 X2 )−1 X20 (Y − X1 β̂1 ) (iii)

109
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Reemplazando (iii) en (i):

X10 Y = X10 X1 β̂1 + X10 X2 (X20 X2 )−1 X20 (Y − X1 β̂1 )


| {z }
P2

X10 Y = X10 X1 β̂1 + X10 P2 Y − X10 P2 X1 β̂1


X10 Y − X10 P2 Y = X10 X1 β̂1 − X10 P2 X1 β̂1
X10 (I − P2 ) Y = X10 (I − P2 ) X1 β̂1
| {z } | {z }
M2 M2

Así, obtenemos el estimador MCO de β1 (y β2 en forma análoga) de una regresión


particionada:

β̂1 = (X10 M2 X1 )−1 X10 M2 Y


β̂2 = (X20 M1 X2 )−1 X20 M1 Y

También se puede demostrar que las matrices de varianzas y covarianzas de ambos


estimadores son:

e2 (X10 M2 X1 )−1
V̂ (β̂1 ) = σ
e2 (X20 M1 X2 )−1
V̂ (β̂2 ) = σ

Donde σ
e2 se obtiene utilizando la muestra completa.

3.7. Omisión de Variables Relevantes

3.7.1. Impacto sobre el Insesgamiento

Considere el siguiente modelo poblacional (expresado en desvíos con respecto a


la media):
Y = X1 β1 + X2 β2 + u
Suponga ahora que el investigador se equivoca y estima el siguiente modelo:

Y = X1 β1 + u

Estimando el modelo incorrecto obtenemos:

β̂1 = (X10 X1 )−1 X10 Y


= β1 + (X10 X1 )−1 X10 X2 β2 + (X10 X1 )−1 X10 u

110
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

por lo cual:

E(β̂1 ) = β1 + (X10 X1 )−1 X10 X2 β2


= β1 + Zβ2

Ello implica que por lo general, la omisión de variables relevantes (que pertenecen
al modelo poblacional), causará que los parámetros estimados sea sesgados. Ello
no sucederá, sólo en el caso que Z=0 (es decir que X1 y X2 sea ortogonales) o si
β2 =0 (aunque dicho caso es contradictorio, dado que implicaría que la variable
no pertenece al modelo poblacional).

La dirección del sesgo es difícil de obtener, sin embargo, el análisis se simpli-


ca si pensamos en β1 y β2 como escalares. En dicho caso:
Cov(X1 , X2 )
E(β̂1 ) = β1 + β2
V (X1 )
De lo anterior, se desprende que la dirección del sesgo depende de como covarien
las variables incluidas con respecto a las excluidas y del signo del parámetro
omitido.

3.7.2. Impacto sobre la Varianza

Estimando el modelo incorrecto, el estimador de la varianza será:

V (β̂1 /X1 ) = σ 2 (X10 X1 )−1

mientras que si hubiéramos estimado el modelo correcto, se puede demostrar que


la varianza del estimador insesgado de β1 (β̂1∗ ) correspondería a:

V (β̂1∗ /X1 , X2 ) = σ 2 (X10 M2 X1 )−1

donde M2 = I − X2 (X20 X2 )−1 X20 . Luego, comparamos las inversas de ambas ma-
trices:

(V (β̂1 /X1 ))−1 − (V (β̂1∗ /X1 , X2 ))−1 = σ −2 (X10 X2 (X20 X2 )−1 X20 X1 )

tal que se puede demostrar que dicha matriz es denida positiva.

Por lo tanto, el omitir variables relevantes implica que los parámetros estimados
serán sesgados y que sus varianzas serán menores. Más aún, también es posible
demostrar que el estimador de la varianza de los errores (σ̃ 2 ) es sesgado hacia
arriba (la varianza poblacional es menor).

111
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.7.3. Ejemplo

Suponga que un investigador quiere estimar el retorno a la educación y que el


modelo verdadero(obviamente es un caso ilustrativo) está dado por:

Wi = β1 Ei + β2 EXPi + ui (1)

Donde Wi corresponde al logaritmo del salario del individuo i, Ei corresponde a


los años de educación del individuo i, EXPi corresponde a los años de experiencia
laboral del individuo i6 y ui corresponde a un término de error bien comportado.

Sin embargo este investigador utiliza el siguiente modelo para su estimación.

Wi = β1 Ei + ui (1)

Los resultados del modelo verdadero son

Los resultados el modelo estimado son

6 La cual esta denida como EXPi = Edadi − Ei − 6.

112
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Podemos ver el parámetro que acompaña a la variable años de educación es menor


en el modelo estimado que en el modelo verdadero. Esta dirección del sesgo se
puede explicar por el signo del parámetro que acompaña a la variable experiencia
en el modelo verdadero y a la relación existente entre educación y experiencia en
el mercado laboral.

113
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.8. Inclusión de Variable Irrelevantes

3.8.1. Impacto sobre Insesgamiento

Considere ahora el siguiente modelo poblacional:

Y = X1 β1 + u

Suponga ahora que el investigador se equivoca y estima el siguiente modelo:

Y = X1 β1 + X2 β2 + u

Estimando el modelo incorrecto obtenemos:

β̂1 = (X10 M2 X1 )−1 X10 M2 Y


= β1 + (X10 M2 X1 )−1 X10 M2 u

donde M2 se dene igual que el la sección anterior. Entonces:

E(β̂1 ) = β1

y con el mismo razonamiento, se puede demostrar que:


µ ¶
2 û0 û
E(σ̃ ) = E
T − k1 − k2
2
= σ

es decir, la inclusión de variable irrelevantes no causa sesgo en los parámetros


estimados, ni en la varianza de los errores estimados. Bajo dichos resultados,
pareciera que es mejor poner muchos regresores en nuestro modelo. Sin embargo,
nos falta estudiar que sucede con la varianza de los parámetros estimados.

3.8.2. Impacto sobre Varianza

Recordemos que:

βˆ1 = β1 + (X10 M2 X1 )−1 X10 M2 u

con lo cual, la varianza estimada:

V (βˆ1 /X1 , X2 ) = σ 2 (X10 M2 X1 )−1

114
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

mientras que la varianza verdadera:



V (βˆ1 /X1 ) = σ 2 (X10 X1 )−1

entonces, como probamos con anterioridad, la varianza verdadera es menor que


la varianza estimada. Ello implica que el incluir regresores adicionales, aumenta
la varianza de nuestros parámetros estimados, lo cual se traduce en parámetros
menos ecientes.

3.8.3. Ejemplo

Suponga que un investigador quiere estimar el retorno a la educación y que el


modelo verdadero(obviamente es un caso ilustrativo) está dado por:

Wi = β1 + β2 Ei + ui (1)

Donde Wi corresponde al logaritmo del salario del individuo i, Ei corresponde a


los años de educación del individuo i y ui corresponde a u término de error bien
comportado.

Sin embargo este investigador utiliza el siguiente modelo para su estimación.

Wi = β1 + β2 Ei + β3 Di + ui (1)

Donde Di corresponde a una variable dicotómica que toma el valor 1 si el indi-


viduo fuma y 0 si no fuma.

Los resultados del modelo verdadero son

Los resultados el modelo estimado son:

115
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Podemos ver no existe una variación importante en los parámetros del modelo
estimado y el modelo verdadero. Sin embargo, tal como habíamos demostrado, la
varianza de los parámetros aumenta disminuyendo entonces la eciencia.

116
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.9. Perturbaciones no Esféricas


Un supuesto importante en el modelo clásico de regresión lineal (Supuesto 4) es
que los errores ui son homocedásticos, es decir la varianza es constante para todo
valor de Xi :

V ar(ui ) = V ar(uj ) para i 6= j

Figura 8: Homocedasticidad

Cuando el supuesto 4 no se cumple los errores son Heterocedasticos:

Figura 9: Heterocedasticidad

Además se suponía que los términos de error no estaban correlacionados entre si


(Supuesto 5):

Cov(ui uj ) = 0 para i 6= j

117
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Es decir, teníamos que E[uu0 ]=σ 2 In , ahora si el término de error no cumple con
los supuestos del modelo de regresión lineal tenemos que E[uu0 ]=σ 2 Ω. Donde Ω
es una matriz denida positiva.

3.9.1. Consecuencias de estimación por MCO

Recordemos que el estimador MCO es:

β̂ = (X 0 X)−1 X 0 Y
= β + (X 0 X)−1 X 0 u

Como el supuesto de que E[u|X] = 0 se mantiene, tenemos que la E[β̂|X] = β y


por lo tanto, E[β̂ − β]=0. De esta forma, el estimador MCO con perturbaciones
no esféricas sigue siendo insesgado y consistente. Pero no será eciente, dado
E[uu0 ]=σ 2 Ω entonces la varianza de β̂ es:
·³ ´³ ´0 ¸
V ar(β̂) = E β̂ − β β̂ − β
£ ¤
= E (X 0 X)−1 X 0 uu0 X(X 0 X)−1
= σ 2 (X 0 X)−1 (X 0 ΩX)(X 0 X)−1

De esta forma, solo si Ω = In la matriz de covarianzas de β̂ será igual a σ 2 (X 0 X)−1 ,


por lo tanto el estimador MCO en presencia de perturbaciones no esféricas no
tendrá varianza mínima, es decir, no será eciente. Entonces cualquier inferencia
basada en σe2 (X 0 X)−1 llevará a conclusiones erróneas.

3.9.2. Estimación Eciente: Mínimos Cuadrados General-


izados

La estimación eciente de β en el modelo generalizado, donde los errores pueden


no ser esféricos, requiere el conocimiento de Ω. Para comenzar supondremos que
Ω es una matriz conocida, simétrica y denida positiva.

Bajo estas condiciones el Método de Mínimos Cuadrados Generalizados nos


permite estimar de manera eciente los parámetros.

Dado que Ω es una matriz simétrica denida positiva, puede ser descompues-

118
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

ta de la siguiente manera:7

Ω = CΛC 0

donde las columnas de C son los vectores propios de Ω y los valores propios (λj )
de Ω se encuentran en la diagonal
p de Λ. Entonces 1/2sea Λ1/2 , la matriz diagonal
con el j-ésimo elemento igual a λj y sea T = CΛ . De esta forma, Ω = T T 0 .
Además sea P 0 = CΛ−1/2 y por lo tanto, Ω−1 = P 0 P . 8

Si pre multiplicamos Y = Xβ + u por P obtenemos:

P Y = P Xβ + P u o
Y ∗ = X ∗ β + u∗ (3.6)

Notemos que (3.6) es un modelo transformado de forma tal que:

V ar(u∗ ) = E[u∗ u0∗ ]


= σ 2 P ΩP 0
= σ 2 In (3.7)

Por lo tanto, el modelo transformado cumple con los supuestos del modelo clásico
de regresión, y se puede utilizar MCO para estimar el parámetro β :

β̂M CG = (X∗0 X∗ )−1 X∗0 Y


= (X 0 P 0 P X)−1 X 0 P 0 P Y
= (X 0 Ω−1 X)−1 X 0 Ω−1 Y

Como el estimador MCG de β es idéntico al estimador MCO aplicado al modelo


transformado (3.6) y que cumple con los supuestos, β̂M CG es MELI.

3.9.3. Test de Hipótesis

Nuevamente como el estimador MCG es igual al estimador MCO sólo que se aplica
al modelo transformado, todos los procesos para testear hipótesis y construir
intervalos de conanza se mantienen.
Por ejemplo si queremos testear q hipótesis lineales H0 : Q0 β = c, se tiene el
7 Esto
se conoce como Descomposición Espectral de una matriz.
8 Esto
viene de la ortogonalidad de C, lo que implica que I = C 0 C = CC 0 y entonces
0 −1
C =C .

119
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

siguiente estadístico F:
³ ´0 ³ ´
−1
Q0 β̂M CG − c [Q0 σ
eM2
CG (X∗
0
X∗ )−1
Q] Q 0
β̂M CG − c
∼ Fq,n−k
q
³ ´0 ³ ´
0 0 −1
1 Q β̂M CG − c [Q (X∗0 X∗ )−1 Q] 0
Q β̂M CG − c
· 2
∼ Fq,n−k
q σ
eM CG

donde σ 2
eM CG es el estimador insesgado de σ en presencia de perturbaciones no
2

esféricas:
³ ´0 ³ ´
−1
û0∗ û∗ Y − X β̂M CG Ω Y − X β̂M CG
2
σ
eM CG = =
n−k n−k

3.9.4. Estimación cuando Ω es desconocida:


Mínimos Cuadrados Factibles

Anteriormente asumimos que Ω era conocida, en este caso una simple transfor-
mación del modelo de regresión lineal lleva a una matriz de covarianza esférica.
En la práctica, Ω es desconocida y es necesario estimar los parámetros al interior
de esta matriz.

Entonces lo que debemos hacer es sustituir Ω por un estimador de ella Ω̂. Es-
to se denomina estimador Mínimos Cuadrados Factibles (MCF), donde el
estimador de β se dene de la siguiente forma:
³ ´−1
β̂M CF = X 0 Ω̂−1 X X 0 Ω̂−1 y

El problema es que tenemos más incógnitas (n(n+1)/2) en Ω que observaciones,


para n>1. En la práctica para lograr la estimación de Ω debemos asumir que es
función de un número jo y reducido de parámetros θ. El problema se reduce a
encontrar θ̂ y usarlo para computar Ω̂ = Ω(θ̂).

120
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.9.5. Heterocedasticidad

La Heterocedasticidad surge cuando a pesar de que Cov(ui uj )=0 para i6= j, las
varianzas de cada observación son diferentes, es decir, V ar(uj ) = σj2 para j=1,...,n.
La matriz de covarianzas en este caso es:
   
σ12 · · · 0 ω1 · · · 0
   
E[uu0 ] = σ 2 Ω =  ... . . . ...  = σ 2  ... . . . ... 
0 ··· σn2 0 ··· ωn
4000000
3000000
2000000
salario

Recta de regesión
poblacional (RRP)
1000000

x
x x
x x
x
x x
x
x
0

8 10 12 14 16 18
Escolaridad
Figura 2: Distribución de los salarios para distintos niveles de educación.

La heterocedasticidad es un problema bastante recurrente, especialmente al tra-


bajar con datos de corte transversal. Algunas razones por las que ui puede variar
son las siguientes:

En los modelos de aprendizaje sobre errores, a medida que la gente aprende,


sus errores de comportamiento son menores, así en este caso a medida que
aumentan las horas de práctica de una cierta actividad, la varianza de los
errores se reduce.

A medida que aumentan los ingresos, la gente tiene más posibilidades de


disponer de parte de ese ingreso de la forma que desee. Así en una regresión
de ahorro contra ingreso, es posible que σi2 aumente en la medida que el
ingreso aumenta.

La Heterocedasticidad también puede surgir por la presencia de factores


atípicos, que es muy diferente a las restantes observaciones.

121
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Al omitir variables relevantes, a parte del sesgo que se produce en las estima-
ciones por esto, se produce Heterocedasticidad ya que este variable estará
en el término de error y por lo tanto la varianza dependerá de ella.

Otra fuente de Heterocedasticidad es la asimetría en la distribución de una


o más variables explicativas incluidas en el modelo, por ejemplo: ingreso,
riqueza y educación.

122
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Como mencionamos anteriormente en presencia de Heterocedasticidad el es-


timador MCO seguirá siendo insesgado, pero no tendrá varianza mínima. El es-
timador que si cumple con la propiedad de MELI es el de MCG. Este último
estimador requiere conocimiento de la matriz Ω. Sin embargo, White (1980) ha
propuesto una aproximación a la matriz de covarianzas del estimador MCO:

V ar(β̂|X) = (X 0 X)−1 (X 0 σ 2 ΩX)(X 0 X)−1


que no requiere una representación especica de la forma funcional que adopta la
heterocedasticidad, por lo que no tendremos riesgo de asumir una forma funcional
incorrecta.

La sugerencia de White es que la varianza del estimador β̂M CO se exprese de


la siguiente forma:
µ ¶
0 −1 1 2 0
V ar(β̂|X) = n(X X) σ X ΩX (X 0 X)−1
n
se dene:

Σ = n−1 σ 2 X 0 ΩX
Xn
−1
= n σi2 xi x0i
i=1

la que se estima de la siguiente forma:


n
X
Σ̂ = n −1
ûi 2 xi x0i
i=1

White demuestra bajo condiciones generales que:


n
X p
Σ̂ = n−1 ûi 2 xi x0i → Σ
i=1

De esta forma, una estimación consistente de la matriz de covarianzas es:

V ar(β̂|X) = n(X 0 X)−1 Σ̂(X 0 X)−1 (3.8)

su comparación con σ 2 (X 0 X)−1 puede dar noción del grado de heterocedasticidad.

La estimación de White de una matriz consistente con Heterocedasticidad es


un resultado muy útil, ya que no se necesita saber la naturaleza de la Hetero-
cedasticidad. Ante la duda de presencia de este problema es mejor ocupar este
estimador ya que no produce alteraciones, y nos permite hacer inferencia correcta
con o sin la presencia de Heterocedasticidad.

123
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Contrastes de Heterocedasticidad:
1. El contraste de White: La hipótesis nula es de Homocedasticidad (al
igual que en todos los contrastes que estudiaremos). Esto es, H0 : σi2 = σ 2
∀ i, bajo la hipótesis nula el estimador de la matriz de covarianzas de β̂ es
Vdar(β̂|X) = σ e2 (X 0 X)−1 , pero bajo la hipótesis alternativa es (3.8). Basa-
do en la observación de esto, White propone un test que puede obtenerse
al calcular nR2 de una regresión de û2i contra todos los productos posibles
entre las variables explicativas. Demuestra que nR2 ∼ χ2J−1 , donde J es el
número de regresores de esta ecuación.

Consideremos el siguiente modelo:


yi = β0 + β1 xi + β2 zi + ui
Los pasos para realizar el test de White son:

a ) Obtener β̂ y los residuos de la estimación del modelo anterior por MCO


{ûi }ni=1
b ) Correr una regresión de û2i sobre una constante, xi , zi , x2i , zi2 y xi zi .
c ) Computar nR2 de la regresión anterior
d ) Para el nivel de signicancia escogido, comparar nR2 con el valor críti-
co de una distribución chi cuadrado con 5 grados de libertad. Si nR2
excede el valor crítico se rechaza la hipótesis nula de Homocedastici-
dad.

2. El contraste de Goldfeld y Quandt: este contraste parte del supuesto de


que la magnitud de σi2 depende de cierta variable zi , la que generalmente
es una variable explicativa pero no es necesario. Supongamos que dicha
relación es positiva, es decir, para valores más altos de zi mayor es σi2 . Las
observaciones se dividen en dos grupos, bajo la hipótesis nula ambos grupos
tienen la misma varianza, pero bajo la alternativa las varianzas dieren
signicativamente. Entonces el contraste consiste en:

a ) Ordenar las observaciones por los valores de la variable zi , de menor a


mayor.
b ) Omitir p observaciones en la mitad de la muestra, se sugiere no eliminar
más de la tercera parte de las observaciones.
c ) Estimar dos veces el modelo original, una con las n−p
2
primeras ob-
n−p
servaciones muestrales y otra con las 2 últimas observaciones en la
muestra. Notar que p debe ser lo sucientemente pequeño de manera
que T −p
2
sea mayor al número de parámetros.

124
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

d ) Se calcula es estadístico:

û02 û2 n−p


∼ Fm,m con m = −k
û01 û1 2

Si se sospecha que la varianza del error depende inversamente de zi , entonces


las observaciones se deben ordenar de mayor a menor.
Si se llega a la conclusión de que el término de error del modelo no presenta
heterocedasticidad, podría deberse a que hemos comenzado con una mala
especicación del parámetro σi2 , que quizás depende de un variable diferente
a la que hemos supuesto. Por esta razón el contraste debería realizarse varias
veces con distintas variables de las que tengamos sospechas pueda depender
la varianza del término de error.

3. El contraste de Breusch y Pagan: supongamos que la varianza del


término de error de cada observación depende de un vector de variables zi
de dimensión p, es decir:

σi2 = h(zi0 α) = h(α0 + α1 z1i + α2 z2i + ... + αp zpi )

Notemos que si todos los coecientes α's excepto el correspondiente a α0


fuesen cero, tendríamos una situación de Homocedasticidad. Por lo tanto,
si puedieramos estimar los coecientes α0 , α1 ,...,αp un contraste para la
hipótesis nula de Homocedasticidad es:

H0 : α1 = α2 = ... = αp = 0

Los pasos para realizar este contraste son:

a ) Se estima por MCO el modelo original y se obtienen los residuos cor-


respondientes.
b ) Se obtiene la serie de residuos normalizados al cuadrado:
Pn 2
û2i û
êi = 2 i = 1, ..., n donde σ̂u = i=1 i
2 2
σ̂u n

c ) Se estima una regresión de ê2i sobre una constante y las variables z1i ,
z2i ,...,zpi y se obtiene la suma explicada (SE) de dicha regresión.9
d ) Bajo la hipótesis nula de Homocedasticidad y dado el supuesto de
normalidad del término de error, la razón SE
2
se distribuye χ2p .
9 Recordemos Pn
que la suma explicada de una regresión es igual a i=1 (ŷi − y)2 , cuando yi es
la variable dependiente.

125
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

4. El contraste de Glesjer: este contraste es más ambicioso que el anterior,


ya que trata de estimar la verdadera estructura de Heterocedasticidad, no
limitándose a una estructura lineal. Sin embargo, una limitación del con-
traste de Glesjer es que sólo resulta útil cuando se cree que dicha estructura
puede explicarse solo con una variable. Este contraste se hace en tres etapas:

a ) Estimar el modelo por MCO y obtener los residuos correspondientes.


b ) Estimar una regresión del valor absoluto de ûi , o su cuadrado û2 , sobre
una potencia de la variable zi , es decir:

|ûi | = δ0 + δ1 zih + νi
© ª
para distintos valores del exponente h: h = −1, 1, 21 , − 21 . Escoger el
valor de h que proporcione una mejor regresión (coeciente δ1 signi-
cativo y una suma residual pequeña).
c ) Una vez seleccionado h, se divide el vector de dimensión (k+1) formado
yi ,xi ) de cada periodo por δ̂0 +δ̂1 zih si se estimo la
por las observaciones (q
regresión de |ûi | y por δ̂0 + δ̂1 zih si se estimo û2i , y se estima el modelo
de nuevo por MCO, pero ahora con las variables transformadas.

Ejemplo: Producción y Empleo por comunidades autónomas de España

Como ejemplo, estimemos la relación que existe entre empleo y Pib en las comu-
nidades autónomas españolas. Se dispone datos del PIB en miles de millones de
pesetas, y de ocupados, en miles de personas para 1989, los que se muestran en
la siguiente tabla:

126
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Estimador de la
desviación estandar
del error
~2
σ u SEC/(n-k)
=
= 4307097.27/16

= 269193.56
~ 518.84
σ u=

127
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

El estimador del parámetro asociado al empleo resulta ser signicativo, por cada
1,000 empleador el PIB aumenta en 3,760 millones de pesetas. Sin embargo, la
estimación de la constante es bastante imprecisa, y por ello resulta ser no sig-
nicativa. Existe la posibilidad de que la varianza del componente del PIB no
explicado por el empleo aumente con este, es decir, tengamos un problema de
heterocedasticidad, donde σi depende de empleoi , y de esta forma, σi2 depende
de empleo2i . Con esta sospecha, es necesario testear Heterocedasticidad.

1. Test Breusch-Pagan: para realizar este test, primero de la estimación MCO


del modelo de interés se obtienen los residuos, luego se computan los residuos
normalizados (dividir cada residuo al cuadrado por el estimador de la varianza
del error). Se estima una regresión entre los residuos generalizados y el empleo al
cuadrado.

SE

Una vez realizada la estimación se construye el estadístico SE


2
= 7,64, que resulta
2
ser mayor al valor de tabla de una χ1 al 95 % de conanza (3.84), de esta forma
se rechaza la hipótesis nula de homocedasticidad.

2. Test Goldfeld y Quandt: es de esperar que la varianza dependa positiva-


mente del nivel de empleo, de esta forma, ordenamos las observaciones de menor a
mayor nivel de empleo y omitimos las 6 observaciones que ocupan los lugares cen-
trales. Luego estimamos dos modelos cada uno con 6 observaciones, y se computa
el estadístico λ igual a la división de la suma residual:

128
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

λ = 93.2

Este estadístico λ debe ser comparado con el valor de tabla de una distribución
Fm,m al 95 % de conanza, que es igual a 6.39. De esta forma, nuevamente se
rechaza la hipótesis nula de Homocedasticidad.

129
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

3.9.6. Autocorrelación

Al comienzo de esta sección examinamos el caso general cuando la matriz de vari-


anzas y covarianzas del error dejaba de cumplir los supuestos 4 y 5, en este caso la
matriz ya no era σ 2 In , sino que era igual a σ 2 Ω. La forma que tome esta matriz Ω
dependerá de cual de los dos supuestos se estaba rompiendo. En la sección 3.8.5,
vimos que forma toma la matriz Ω si se rompe el supuesto 4 de Homocedasticidad
en el término de error, en este caso la matriz de varianzas y covarianzas del error
es no escalar (o no esférica) porque los elementos de la diagonal eran distintos
para cada observación i.

Por otra parte, la autocorrelación es un problema que surge cuando rompemos el


supuesto 5 de no autocorrelación en los errores. Ello implica que:

Cov(ui uj ) 6= 0 para i 6= j

La autocorrelación en el término de error se da en los datos se serie de tiempo,


donde es un problema bastante común.

Luego, nuestra matriz de varianzas y covarianzas del error ya no será una matriz
diagonal (como en el caso de varianzas esféricas y no esférica pero sólo con het-
erocedasticidad) ya que el término de error se encuentra correlacionado consigo
mismo a través del tiempo. La forma que toma la matriz cuando sólo tenemos
autocorrelación pero los errores son homocedásticos:
 
σ 2 σ1,2 σ1,3 · · · σ1,T
 σ2,1 σ 2 σ2,3 · · · σ2,T 
 
0 2  σ3,1 σ3,2 σ 2 · · · σ3,T 
E[uu ] = σ Ω =  
 .. .. .. . . .. 
 . . . . . 
σT,1 σT,2 σT,3 · · · σ 2

donde σt,q = cov(ut uq ).

Nuestro modelo ahora será:

yt = Xt β + ut t = 1, 2, ..., T. (3.9)
ut = ρut−1 + εt

donde, como vimos en la sección 3.4, el error sigue un proceso AR(1).

130
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Matriz de Varianzas y Covarianzas cuando ut es un AR(1):

En este caso el término de error tiene la forma señalada en (3.9):

ut = ρut−1 + εt

σε2
1. V (ut ) = V (ρut−1 + εt )=ρ2 V (ut−1 ) + σε2 , de esta forma V (ut ) = 1−ρ2

2. Como E(ut ) = 0, Cov(ut ut−1 ) = E(ut · ut−1 ). Calculemos esta última esper-
anza:

ut · ut−1 = ut−1 · (ρut−1 + εt )


= ρu2t−1 + ut−1 εt /E(·)
E(ut · ut−1 ) = ρ E(u2t−1 ) + E(ut−1 εt )
| {z } | {z }
σ2 0
2
E(ut · ut−1 ) = ρσ

3. Siguiendo la misma lógica anterior, E(ut , ut−2 ) se calcula de la siguiente


forma:

ut · ut−2 = ut−2 · (ρut−1 + εt )


= ρut−1 ut−2 + ut−2 εt /E(·)
E(ut · ut−2 ) = ρ E(ut−1 ut−2 ) + E(ut−2 εt )
| {z } | {z }
ρσ 2 0

E(ut · ut−2 ) = ρ2 σ 2

4. Así se puede derivar la siguiente expresión genérica:

E(ut · ut−(T −1) ) = ρT −1 σ 2

131
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Entonces:
 
σ 2 σ1,2 σ1,3 · · · σ1,T
 σ2,1 σ 2 σ2,3 · · · σ2,T 
 
 σ3,1 σ3,2 σ 2 · · · σ3,T 
E[uu0 ] = σ 2 Ω =  
 .. .. .. .. .. 
 . . . . . 
σT,1 σT,2 σT,3 · · · σ2
 
σ2 ρ · σ2 ρ2 · σ 2 · · · ρT −1 · σ 2
 ρ · σ2 σ2 ρ · σ2 · · · ρT −2 · σ 2 
 
 ρ2 · σ 2 ρ · σ2 σ2 · · · ρT −3 · σ 2 
=  
 .. .. .. .. .. 
 . . . . . 
ρT −1 · σ 2 ρT −2 · σ 2 ρT −3 · σ 2 · · · σ2
 
1 ρ ρ2 · · · ρT −1
 ρ 1 ρ · · · ρT −2 
 
 2
· · · ρT −3 
= σ2  ρ ρ 1 
 .. .. .. .. .. 
 . . . . . 
T −1 T −2 T −3
ρ ρ ρ ··· 1

Naturaleza y causas de la autocorrelación

Existe autocorrelación cuando el término de error de un modelo econométrico está


correlacionado consigo mismo a través del tiempo. Por supuesto, no es necesario
que ut este correlacionado consigo mismo sólo un periodo atrás, esta correlación
puede ser de cualquier orden, es decir, ut puede ser un AR(1), AR(2),...,AR(q),
etc. Así, dependiendo de cual sea el orden de la autocorrelación en el término de
error, la matriz de varianzas y covarianzas ira tomando distintas formas.

La autocorrelación en el término de error puede ser producida por varias causas:

Existencia de ciclos y tendencias : Si la autocorrelación es positiva (es decir,


en (3.9) el coeciente ρ es positivo), un valor alto de ut que genera un valor
de yt por sobre su media condicional, tendrá una probabilidad elevada de ir
seguido por un valor alto de ut+1 , y por ello, de un valor de yt+1 por encima
del promedio; lo mismo ocurría para yt debajo del promedio.
Sin embargo, si existe autocorrelación negativa, valores de yt por sobre su
valor promedio condicional irán seguidos, con alta probabilidad, de valores
de yt+1 por debajo de su promedio. Por lo tanto, la autocorrelación positiva
esta asociada a la existencia de rachas de valores altos y bajos de yt .

132
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Autocorrelación Positiva Autocorrelación Negativa

Entonces, si debido a la inercia presente en la mayoría de las variables


macroeconómicas la variable endógena presenta ciclos, y estos no son bien
explicados por la variables exógenas del modelo, el término de error tendrá
autocorrelación.

Por otra parte, también es cierto que la mayoría de las variables económicas
(y especialmente las variables medidas en términos nominales) tienen una
tendencia, generalmente creciente. Si el conjunto de variables explicativas
del modelo no explican adecuadamente dicho comportamiento, entonces el
término de error incorporará dicha tendencia, lo que conduce a existencia de
autocorrelación positiva:una primera racha de residuos negativos seguidos
por otra racha de residuos positivos.

X Modelo
XX verdadero
X X Modelo
XX X estimado
X
XX
X X X
X
X
X X
X X
X X

Autocorrelación producida por una tendencia

Variables omitidas : Omisión tanto de variables relevantes, de no lineali-


dades y de relaciones dinámicas (rezagos de la variable dependiente) serán

133
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

incorporadas al término de error, causando posible autocorrelación (además


de las diculatdes que usted ya comoce de las secciones 3.4 y 3.6).

Corolario: Si usted encuentra autocorrelación en sus residuos, entonces


revise su modelo, ya que el error está captando información relevante que
usted está omitiendo.

Todo lo dicho en las secciones 3.8.1 hasta 3.8.4 aplican en este contexto (recuerde
que la matriz Ω se planteó en términos generales). De esta forma, MCO sigue
siendo insesgado, pero pierde eciencia, por lo cual ya no es MELI. El estimador
de mínima varianza en este contexto es MCG, y en caso de desconocerse la forma
de la autocorrelación se debe utilizar MCF.

Sin embargo y siguiendo el espíritu de la corrección de White, Newey y West


(1987) propusieron una corrección para la matriz de varianzas y covarianzas de
MCO. Recordemos que en este contexto se cumple que:

V ar(β̂M CO /X) = σ 2 (X 0 X)−1 X 0 ΩX(X 0 X)−1

mientras que el estimador de Newey-West corresponde a:

V ar(β̂M CO /X) = n(X 0 X)−1 S(X 0 X)−1 (3.10)

donde el estimador consistente de S es:


n n
1XX
Ŝ = w(t − s)ût ûs xt x0s (3.11)
n t=1 s=1
|t−s|<L

donde L corresponde al orden máximo de autocorrelación del término de error


(que no siempre es fácil de determinar).

134
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Contrastes de Autocorrelación

1. Test de Durbin-Watson (d): Lejos el test más utilizado para detectar


autocorrelación de los residuos es el test propuesto en 1951 por Durbin
y G.S Watson. El test está diseñado para detectar autocorrelación en los
residuos de la forma ut = ρut−1 +εt (AR(1)), donde ε es ruido blanco (media
cero y varianza constante). La nula corresponde a no autocorrelación de los
residuos (H0 : ρ = 0 H1 : ρ 6= 0)y el test se dene como:
Pn
(ût − ût−1 )2
d = t=2Pn 2 (3.12)
t=1 ût

Si ρ > 0, los valores de û probablemente serán muy cercanos, por lo cual el


numerador será muy pequeño en comparación al residuo mismo. Ello im-
plica que d será pequeño. Si ρ < 0, entonces el numerador probablemente
será grande, más grande que el residuos n si mismo. Ello implica que d será
grande10 .

Se puede demostrar que para muestra grandes d converge a:

d ' 2(1 − ρ̂) (3.13)

con:
Pn
t=2 ût ût−1
P
ρ̂ = n 2
t=1 ût

donde ρ puede ser obtenido de la siguiente regresión:

ût = ρût−1 + ut (3.14)

Respecto a los valores críticos del test, la distribución en muestras nitas


depende del supuesto de normalidad de los errores y de la matriz X, por
lo cual Durbin y Watson derivaron las tablas de valores de críticos para
facilitar la aplicación del test. Sin embargo, dichos valores poseen rangos
indeterminados, en los cuales no podemos tomar una decisión respecto a la
nula. El test distribuye con dos colas y se presenta en la siguiente gura:
10 Por lo tanto, autocorrelación positiva tenderá a arrojar un pequeño d, mientras que auto-
correlación negativa tenderá a arrojar un d grande

135
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Por ejemplo, el test rechaza la nula de no autocorrelación en favor de la


alternativa de correlación positiva si DW < dl y lo rechaza ante la alterna-
tiva de correlación negativa de los errores si DW > 4 − dl. El test posee dos
zonas grises que se presentan en los intervalos (dl,du) y (4-du, 4-dl), en las
cuales no podemos decir nada respecto de la nula. Finalmente, si DW cae
dentro del intervalo (du, 4-du) no se rechaza la nula de no autocorrelación.

Sin embargo, las tablas de valores críticos son raramente utilizadas. Lo


anterior debido a que si no existe autocorrelación, por la ecuación (3.13)
sabemos que el valor de d será cercano a dos, mientras que si hay evidencia
de autocorrelación positiva d será muy pequeño y si existe evidencia de
autocorrelación negativa,d será grande.

El test posee dos grandes omisiones. Primero, sólo sirve para detectar au-
tocorrelación de orden 1 en los errores y segundo, no puede ser aplicado si
se incluyen regresores de la variable dependiente en el modelo (porque se
construye bajo el supuesto de regresores determinísticos). Además, se debe
tener presente que el test está construido bajo normalidad de los errores y
que existen las zonas grises o indeterminadas de las que hablábamos con
anterioridad.

2. Test de h-Durbin (h) Una variación del test DW puede ser aplicada
cuando existen variables rezagadas de la variable dependiente en nuestro

136
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

modelo. Esta variación se conoce como test de h-Durbin. El estadígrafo es:


µ ¶r
DW n
h = 1− ∼a N (0, 1) (3.15)
2 1 − nσ̂α̂2
donde σ̂α̂2 a la varianza del parámetro asociado al primer rezago de la variable
dependiente incluido en el modelo. Algunas notas respecto al test. Primero,
no importa cuantos rezagos de Y se hallan incluido en el modelo: sólo nos
interesa la varianza del primero de ellos. Segundo, el test no es aplicable
cuando nσ̂α̂2 > 1 y tercero, las propiedades del test sólo son conocidas as-
intóticamente, por lo cual debe ser implementado con cuidado en muestras
pequeñas.

3. Test de Breusch y Godfrey Este test es una alternativa para testear


autocorrelaciones de ordenes superiores a 1 y se basa en el test LM in-
troducido en la sección 2.12.3. La nula, al igual que en todos los test de
autocorrelación es que los residuos no se encuentran correlacionados. Con-
sideremos para distintos valores de k, el siguiente conjunto de estadísticos:
Pn
t=1 ût ût−k
rk = P n 2
(3.16)
t=1 ût

note que si k=1, entonces estamos en una caso parecido al estadístico DW.
Los pasos para realizar el test son:

a ) Estimar el modelo por MCO y obtener los residuos û. El modelo puede
incluir rezagos de la variable dependiente.
b ) Estimar una regresión auxiliar de ût sobre p rezagos: ût−1 , . . . , ût−p ,
incluyendo las variables exógenas (X) del modelo original. Note que
deberá excluir p observaciones.
c ) Calcular el R2 de la regresión auxiliar
d ) Construir el estadígrafo nR2 ∼ χ2p
La lógica del test se basa en que si no existe autocorrelación, entonces los
residuos MCO no deberían ser explicados por sus retardos, por lo cual el
R2 de la regresión auxiliar debería ser cercano a cero, lo cual nos llevaría a
un bajo valor del estadígrafo y a un no rechazo de la nula.

4. Test de Box-Pierce-Ljung (Q-Stat) Este test se basa en el cuadrado


de las primeras p autocorrelaciones de los residuos MCO. El estadígrafo se
dene como:
p
X
Q=n rj2 (3.17)
j=1

137
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

donde: Pn
t=j+1 ût ût−j
rj = P 2
t=1 ût

La distribución del estadígrafo bajo la nula de no autocorrelación es χ2 con


grados de libertad igual a p menos el número de rezagos del error incluidos
en la especicación autorregresiva del error. De ello se deduce que el test
permite detectar autocorrelación de ordenes superiores a 1.

Estimación de Modelos con Autocorrelación

Como vimos anteriormente la matriz Ω en presencia de autocorrelación es:


 
1 ρ ρ2 · · · ρT −1
 ρ 1 ρ ··· ρT −2 
 
 ρ2 ρ 1 ··· ρT −3 
Ω =  
 .. .. .. .. .. 
 . . . . . 
T −1 T −2 T −3
ρ ρ ρ ··· 1

Se puede demostrar que la matriz P en este caso es:


 p 
1 − ρ2 0 0 ··· 0
 −ρ 1 0 ··· 0 
 
 0 −ρ 1 ··· 0 
P =  
 .. .. .. .. .. 
 . . . . . 
0 0 ··· −ρ 1
Entonces utilizando esta matriz P podemos transformar el modelo y aplicar Míni-
mos Cuadrados Generalizados. Al premultiplicar X e Y por la matriz P tendremos
que la primera observación se transforma de la siguiente forma:
p p p
1 − ρ2 y1 = ( 1 − ρ2 )x01 β + ( 1 − ρ2 )u1 (3.18)

Y para el resto de las (T − 1) observaciones la transformación es la siguiente:

yt − ρyt−1 = (xt − ρxt−1 )0 β + ut − ρut−1 (3.19)


| {z }
εt

El que la primera observación de la muestra tenga un trato especial, es porque


para ella no existe una observación anterior, y por lo tanto, es imposible aplicar
la transformación en (3.19).

138
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

1. Estimación MCF: El Método de Cochrane Orcutt

La matriz P que transforma nuestro modelo en un libre de autocorrelación


en el error, es tal que cada observación de las variables dependientes, ex-
plicativas y término de error, se debe transformar de acuerdo a (3.19). Si
es que nuestro modelo es el siguiente:

y t = x t β + ut
ut = ρut−1 + εt

El modelo transformado es de la siguiente forma:

yt − ρyt−1 = (xt − ρxt−1 ) β + ut − ρut−1


| {z } | {z } | {z }
yt∗ x∗t εt

⇒ yt∗ = x∗t β + εt

El Método de Cochrane-Orcutt es un procedimiento iterativo para obtener


la estimación de β y ρ:

a ) Estimar por Mínimos Cuadrados Ordinarios la regresión de interés,


ignorando la presencia (conocida) de autocorrelación de primer orden
en el término de error.
b ) Utilizar los residuos MCO para estimar el parámetro ρ. Esto puede
hacerse mediante una regresión de ût contra ût−1 , o a partir del es-
tadístico DW de la estimación anterior.
c ) Utilizar este parámetro ρ̂ para transformar las variables, y obtener yt∗
y x∗t .
d ) Estimar por MCO un modelo con las variables transformadas, para
obtener un nuevo vector de coecientes β .
e ) Utilizar esta nueva estimación para computar otro vector de residuos,
y utilizar estos residuos para obtener una nueva estimación de ρ
f ) Repetir este procedimiento hasta que los β convergan11 .

Este Método puede ser fácilmente generalizado con autocorrelación de orden


superior.

2. Estimación por Máxima Verosimilitud

11 Estosucede cuando la diferencia entre el vector de parámetros β diere innitesimalmente


del β obtenido en la vuelta anterior.

139
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Supongamos que se pretende estimar el modelo de regresión con auto-


correlación de primer orden. Además debemos asumir alguna distribución
para εt (recuerde que este es un requisito para poder estimar por máxima
verosimilitud). Supongamos que εt se distribuye N (0, σε2 ). Así, la función
de verosimilitud es:
µ ¶T Ã" P #!
1 − Tt=1 ε2t
L= √ · exp (3.20)
σε 2π 2σε2

Recordemos que P es la matriz que transforma ut en εt , es decir, εt =


P ut . La función de verosimilitud en (3.20) se puede expresar en función del
término de error ut (AR(1)) como12 :
µ ¶T p Ã" PT #!
2 2 2
1 −(1 − ρ )u 1 − t=2 (u t − ρu t−1 )
L= √ · 1 − ρ2 · exp
σε 2π 2σε2
p
dado que en este caso el determinante de P (|P |) es 1 − ρ2 .

Finalmente, la función de verosimilitud en función del término de error


original autocorrelacionado es:
µ ¶T p µ· 0 −1 ¸¶
1 −u Ω u
L= √ 2
· 1 − ρ · exp (3.21)
σε 2π 2σε2

La ventaja de este método es que puedo estimar simultáneamente β y ρ.

12 Ver Greene, Análisis Econométrico página 69. Si la función de densidad conjunta de la


variable εt es:
µ ¶T Ã" P #!
T
1 − t=2 ε2t
f (ε) = √ · exp
σε 2π 2σε2

o equivalentemente:
µ ¶T µ· ¸¶
1 −ε0 ε
f (ε) = √ · exp
σε 2π 2σε2

la función de densidad de conjunta de P ut = εt es:


µ ¶T µ· ¸¶
1 u0 P 0 P u
f (u) = √ · |P | · exp
σε 2π 2σε2

140
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

El logaritmo de la Verosimilitud Condicional13 en términos de observables es:


µ ¶ µ ¶ T
T −1 T −1 1 X
lnL = − ln(2π) − ln(σε2 ) − 2 [(yt − xt β) − ρ(yt−1 − xt−1 β)]2
2 2 2σε t=2

Las condiciones de primer orden del problema de Máxima Verosimilitud son:


T
∂lnL 1 X ∗
= ε̂t xt = 0 (k ecuaciones) (3.22)
∂β σ̂ε2 t=2
T
∂lnL 1 X
= (ût − ρ̂ût−1 )ût−1 = 0 (1 ecuacion) (3.23)
∂ρ σ̂ε2 t=2
PT 2
∂lnL (T − 1) 1 t=2 ε̂t
= − · + = 0 (1 ecuacion) (3.24)
∂σε2 2 σ̂ε2 σ̂ε4

De (3.22) podemos encontrar el estimador MV de β , que como podemos observar


coincide con el estimador MCF.

De (3.23) se determina el estimador MV de ρ:


PT
t=2 ût ût−1
ρ̂ =
ût−1
que corresponde exactamente a lo sugerido por el método de Cochrane-Orcutt.

Ejemplo: Estimación de Función Consumo

Suponga estamos interesados en estimar una función Consumo:

Ct = β0 + β1 Yt + ut (3.25)

donde Ct es el consumo e Yt es el Ingreso. Para esto contamos con información


del consumo agregado del sector público y privado y del PIB de España para los
años 1954-1988. Estas series se muestran en el siguiente gráco:
13 Laestimación condicional toma la primera observación como dada y es eliminada de la
estimación, es decir, se estima con (T-1) observaciones

141
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

20000

16000

12000

8000

4000

0
1955 1960 1965 1970 1975 1980 1985
CONSUMO PIB

Ahora estimemos (3.25) utilizando la información disponible:

142
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Dependent Variable: CONSUMO


Method: Least Squares
Date: 11/09/04 Time: 15:51
Sample: 1954 1988
Included observations: 35
CONSUMO=C(1)+C(2)*PIB

Coefficient Std. Error t-Statistic Prob.

C(1) 76.53412 81.89808 0.934504 0.3568


C(2) 0.768971 0.006842 112.3909 0.0000

R-squared 0.997394 Mean dependent var 8615.809


Adjusted R-squared 0.997315 S.D. dependent var 3490.620
S.E. of regression 180.8607 Akaike info criterion 13.28878
Sum squared resid 1079450. Schwarz criterion 13.37765
Log likelihood -230.5536 Durbin-Watson stat 0.338818

Si comparamos el valor del DW (0.34) con el valor de tabla (k'=1 y n=35 al 95 %


de conanza, di=1.4 y ds=1.52), tenemos que se rechaza la hipótesis nula de no
autocorrelación a favor de autocorrelación positiva. Además podemos apreciar
grácamente la forma autorregresiva de los residuos:

16000

12000

8000
400
4000
200
0
0

-200

-400
1955 1960 1965 1970 1975 1980 1985
Residual Actual Fitted

Veamos que sucede con nuestros parámetros estimados si aplicamos la corrección


de Newey-West a nuestra estimación MCO:

143
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Dependent Variable: CONSUMO


Method: Least Squares
Date: 11/09/04 Time: 15:59
Sample: 1954 1988
Included observations: 35
Newey-West HAC Standard Errors & Covariance (lag truncation=3)
CONSUMO=C(1)+C(2)*PIB

Coefficient Std. Error t-Statistic Prob.

C(1) 76.53412 105.8340 0.723152 0.4747


C(2) 0.768971 0.008968 85.75039 0.0000

R-squared 0.997394 Mean dependent var 8615.809


Adjusted R-squared 0.997315 S.D. dependent var 3490.620
S.E. of regression 180.8607 Akaike info criterio 13.28878
Sum squared resid 1079450. Schwarz criterion 13.37765
Log likelihood -230.5536 Durbin-Watson sat 0.338818

144
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Para realizar la estimación MCF de la propensión marginal a consumir (que


es equivalente a la estimación Máximo Verosímil) debemos primero estimar la
función autorregresiva del error. Para esto determinemos primero el vector de
residuos de la estimación MCO de nuestro modelo de interés:

Y luego estimamos el siguiente modelo:

145
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

ρ^

Una vez estimado ρ podemos transformar el modelo original de acuerdo a la


ecuación (3.19), de forma que el error transformado (εt ) cumple con los requisitos
para que MCO sea MELI:

146
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

La estimación del modelo transformado arroja los siguientes resultados:

147
Econometría I
Capitulo 3: Forma Funcional y Especicación FACEA, Universidad de Chile

Primero, podemos notar que el DW es 1.81, mayor al límite superior de tabla


(1.52) y menor a (4 − ds) = 2,48, por lo tanto no se puede rechazar la nula
de no autocorrelación. El parámetro de la propensión marginal a consumir es
exactamente el mismo que el obtenido de la estimación MCO del modelo original.

148
Capítulo 4

Problemas con los datos

4.1. Multicolinealidad
Es prácticamente imposible encontrar dos variables económicas cuyo coeciente
de correlación es una determinada muestra sea numéricamente cero, dicho coe-
ciente puede tomar valores pequeños pero nunca llegar a ser cero. Granger y
Newbold (1974) entre otros autores han ilustrado como el sólo hecho de intro-
ducir una tendencia lineal en dos series de tiempo independientes aumenta su
correlación notablemente.

La Multicolinealidad aparece cuando las variables explicativas en modelo econométri-


co están correlacionadas entre si, esto tiene efectos negativas cuando se quire es-
timar los parámetros del modelo por MCO.

Existen diversas fuentes de la multicolinealidad:

El método de recolección de información empleado, obtención de muestras


en un intervalo limitado de valores de los regresores en la población.

Restricción en el modelo o en la población objeto de muestreo.

Especicación del modelo.

Consideremos el siguiente modelo:

yi = β1 + β2 x2i + ... + βk xki + ui

149
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

Si existe la inversa de X'X, el estimador MCO de este modelo, viene dado por
β̂M CO = (X 0 X)−1 X 0 y y su matriz de covarianzas es Var(β̂ )=σu2 (X 0 X)−1 .

Supongamos que la xji tiene un alto grado de correlación con las demás vari-
ables explicativas de modelo, es decir que la regresión lineal:

xji = δ1 + δ2 x2i + ... + δj−1 xj−1,i + δj+1 xj+1,i + ... + δk−1 xki + νi (4.1)

tiene un coeciente de determinación alto.

En estas condiciones la variable xji puede escribirse aproximadamente como una


combinación lineal del resto de las variables explicativas del modelo, lo que se
puede apreciar en la ecuación (4.1). Como consecuencia una de las columnas
de la matriz X, la correspondiente a xji , puede escribirse como una combinación
lienal aproximada de las demás columnas de X, y de esta forma (X'X) será aprox-
imadamente singular.

En la medida que el determinante de (X'X) sea distinto de cero, existirá (X'X)−1 ,


y por lo tanto también existirá es el estimador MCO, y sigue cumpliendo con la
propiedad de MELI, pero se tienen las siguientes consecuencias:

1. La solución del sistema de ecuaciones normales está mal denido: mientras


la dependencia de xji sea aleatoria como lo muestra la ecuación (4.1) y no
exacta, X'X no será exactamente singular y existirá un único estimador
MCO, ya que existe una única solución al sistema de ecuaciones normales,
pero también habrá un número de vectores β1 , β2 , ..., que al sustituirlos en
el sistema de ecuaciones normales, serían aproximadamente una solución al
mismo.

2. Pequeñas variaciones muestrales por incorporar o sustraer un número re-


ducido de observaciones muestrales, introducirá ligeros cambios en (X'X) y
X'y, pero podrían generar importantes cambios en la solución β̂ del sistema
de ecuaciones normales.

3. Al ser la matriz X'X casi singular, es muy pequeña. Como consecuencia la


matriz de covarianzas será muy grande, por lo tanto el estimador MCO es
poco preciso en este caso.

150
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

4.1.1. Multicolinealidad Exacta y Multicolinealidad Aprox-


imada

La presencia de multicolinealidad en un modelo de regresión lineal puede ser de


dos formas:

Multicolinealidad Exacta: una de las variables explicativas es una com-


binación lineal determinística de todas las demás (o algunas de ellas).
Multicolinealidad Aproximada: ocurre cuando una de las variables es
aproximadamente igual a una combinación lineal de las restantes, como en
la ecuación (3.1).

En la práctica, contrario a lo que se pudiera esperara es más complicado la mul-


ticolinealidad aproximada que la exacta.

4.1.2. Detección de Multicolinealidad

Puesto que la multicolinealidad es un problema de naturaleza muestral, que surge


principalmente por el carácter no experimental de la mayoría de la información
recopilada en las Ciencias Sociales, no tiene una manera única de ser detectada.
Lo que se tiene son algunas reglas prácticas detalladas a continuación:

1. El R2 es alto, pero los parámetros no resultan ser individualmente signica-


tivos.

Por ejemplo: Considere los siguientes datos:

Tabla 6: Multicolinealidad
Periodo yi x2i x3i x4i
1 20 5 10 10
2 12 2 8 6
3 28 7 12 16
4 26 6 4 12
5 14 4 16 8
6 24 8 14 14
7 16 3 6 4

Las variables x3 y x4 tienen las mismas observaciones numéricas solo que en


distinto orden, de forma tal que la correlación entre x2 y estas dos variables

151
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

son: ρ23 = 0,32 y ρ24 = 0,93, altamente diferentes entre sí.


Una regresión de yi sobre x2i , x3i y una constante generó las siguientes
estimaciones MCO:
yt = 10,81 + 2,92x2i − 0,54x3i + ûi (4.2)
(2,6) (0,42) (0,21)

R2 = 0,92 σ̂u2 = 2,09

Una regresión de y contra una constante, x2 y x4 , produjo las siguientes


estimaciones:
yi = 6,67 + 1,33x2i + 0,67x4i + ûi (4.3)
(3,27) (1,61) (0,81)

R2 = 0,83 σ̂u2 = 3,16

Ambas regresiones no incluyen las mismas variables explicativas y por lo


tanto, no son comparables. Sin embargo, en el segundo modelo donde el gra-
do de correlación entre las variables explicativas es alto, podemos apreciar
que a pesar de que el R2 es alto, los parámetros resultan ser insignicativos
individualmente (t4 =2.78).

152
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

2. Pequeños cambios en los datos, produce importantes variaciones en las es-


timaciones mínimo cuadráticas.

3. Los coecientes pueden tener signos opuestos a los esperados o una magni-
tud poco creíble.

4.1.3. Otros métodos de detección de multicolinealidad


(a) Métodos basados en la correlación entre variables explicativas: una
de las consecuencias de la multicolinealidad era varianzas de los estimadores
bastante altas. Entonces, ¾Cúal es la relación entre la varianza estimada y
el grado de correlación entre las variables explicativas?.
Si descomponemos la matriz X de la siguiente forma:

X = [xj ; Xj ]

donde xj es un vector columna correspondiente a la j-ésima variable ex-


plicativa y Xj una matriz de n×(k-1) con las observaciones de las restantes
variables. Entonces, X'X puede escribirse como:
· 0 ¸
0 xj xj x0j Xj
XX=
Xj0 xj Xj0 Xj
1
De esta forma, el elemento (1,1) de (X 0 X)−1 es (Demostrar ):

[(x0j xj ) − x0j Xj (Xj0 Xj )−1 (Xj0 xj )]−1 = (x0j Mj xj )−1

donde Mj = In − Xj (Xj0 Xj )−1 Xj0 y donde x0j Mj xj corresponde a la suma de


los residuos al cuadrado de una regresión de xj sobre Xj , de esta forma se
tiene que:
σu2
V ar(β̂j ) = 0 (4.4)
xj Mj xj

Lo que tiene la siguiente expresión:


σu2
V ar(β̂j ) = (4.5)
STj (1 − Rj2 )
1 Recordar que la inversa de una matriz particionada es:
· ¸−1 · −1 ¸
A11 A12 A11 (I + A12 F2 A21 A−1 −1
11 ) −A11 A12 F2
=
A21 A22 −F2 A21 A−1
11 F2

donde F2 =(A22 -A21 A−1


11 A12 ).

153
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

P
donde STj es la suma total de la regresión entre xj y Xj (STj = ni=1 (xji −
xj )2 ) y R2j es el coeciente de determinación de esta misma regresión.

La varianza de β̂j depende de tres cosas:

La varianza del término de error, que es independiente del grado de


correlación entre las x's.
La suma total propia de la variable xj , la que depende solo de esta
variable.
El coeciente de determinación R2j , el que si depende del grado del gra-
do de correlación entre la variable xj y las restantes, es decir, depende
del grado de multicolinealidad.

La cota inferior para la varianza de β̂j , cuando R2j =0, es:

σu2
V ar(β̂j0 ) =
STj

Por lo que la relación entre las varianzas de la estimación de βj en un caso


de correlación entre variables explicativas y el caso de independencia lineal
es:

V ar(β̂j ) 1
=
V ar(β̂j0 ) 1 − Rj2

154
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

De acuerdo con este análisis, los coecientes de determinación obtenidos


en las regresiones de cada variable explicativa con el resto son un buen
indicador de una posible situación de multicolinealidad.

(b) Métodos basados en el tamaño de la matriz X'X: cuando tenemos mul-


ticolinealidad la matriz X'X es casi singular, de esta manera una medida de
tamaño de esta matriz nos permite detectar la presencia de multicolineali-
dad. El determinante no es una medida buena, ya que tiene problemas de
sensibilidad a los cambios de unidades. Pero sabemos que el determinante
de una matriz simétrica es igual al producto de sus valores propios, y por lo
tanto el examen de estos valores nos da una idea del tamaño de la matriz.
De esta forma, Belsley propone la siguiente medida para ver el grado de
multicolinealidad:
r
λmax
γ=
λmin
Esta medida se denomina número de condición de la matriz X, y números
de este indicador mayores 25 suelen considerarse problemáticos.
Los λ's corresponden a los valores propios de la matriz B = S(X 0 X)S ,
donde S es la siguiente matriz diagonal:
 
√ 10 0 ··· 0
 x2 x2 
 .. 
 0 √ 1
0 . 
S=  x 0x
3 3 
. . 
 .. 0 .. 0 
 
0 ··· 0 √01
xk xk

Esta matriz nos permite librarnos del problema de unidad en el tamaño de


los valores propios, ya que normaliza cada una de las variables al dividir
todas las observaciones por su desviación estándar.
El número de condición de la matriz X (γ ), implica que mientras mayor es
este valor, el valor de λmin es realmente pequeño al compararlo con λmax ,
indicando el potencial problema de multicolinealidad.

4.1.4. Remedios contra la Multicolinealidad

Se han propuesto varios métodos para hacer frente a la multicolinealidad. La


solución más sencilla es eliminar de la regresión las variables que se sospeche son
la causa del problema. Obviamente de este método surgen problemas de especi-
cación, como la omisión de variables relevantes. Es necesario recordar que el

155
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

estimador MCO sigue siendo el mejor estimador lineal insesgado de los parámet-
ros. El problema es que, cuando hay multicolinealidad, el mejor no resulta ser
muy bueno.

Las soluciones propuestas en la literatura (estimador de ridge o estimador cresta


y estimador de componentes principales) tienen como característica buscar un
estimador ligeramente sesgado pero cuya varianza sea mucho menor, es decir, un
estimador con menor error cuadrático medio. No existe una metodología que per-
mita eliminar el problema de alta multicolinealidad sin alterar las propiedades y
la interpretación de los parámetros.
Estas metodologías tienen poco respaldo intuitivo, por lo tanto la interpretación
de los parámetros es desconocida.

156
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

4.2. Error de Medición


Una dicultad en todo trabajo empírico en Economía es la imposibilidad de
disponer de las observaciones muestrales de las variables de interés. Por ejemplo,
las variables de contabilidad nacional como el PIB, stock de capital o consumo,
son sólo estimaciones de conceptos teóricos que no se observan en la realidad. En
otros casos, como la Renta Permanente, inteligencia o habilidad de un trabajador,
no disponemos ni siquiera estimaciones, y debemos utilizar variables Proxies, que
aproximan los conceptos que se quieren utilizar. Así por ejemplo se utilizan años
de experiencia del trabajador para aproximar su habilidad.

Podemos adelantar que el error de medición o el uso de variables proxies generará


sesgos en las estimaciones por MCO, el que será menor:

cuanto más se aproxime la verdadera variable que debería incluirse en el


modelo con que que incluyo efectivamente.

cuanto más independiente sea el error de medida de las restantes variables


del modelo.

Consideremos el siguiente modelo lineal simple:

yi = βxi + ui i = 1, ..., n (4.6)

en el que la variable dependiente yi está medida con error, es decir, solo observa-
mos:

yi∗ = yi + νi i = 1, ..., n (4.7)

donde asumimos que νi ∼ N (0, σν2 ) y es independiente de xi y ui .

Reemplazando (4.7) en (4.6):

yi∗ = βxi + (ui + νi ) = βxi + εi (4.8)

Bajo los supuestos mencionados es fácil darse cuenta que el estimador de β será
el mismo que si observáramos el verdadero valor de yi .
En consecuencia, los errores de medida en la variable endógena no producen
ningún problema importante al estimar por MCO.

Ahora supongamos que la variable xi esta medida con error, es decir:

x∗i = xi + ωi i = 1, ..., n (4.9)

157
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

donde ωi ∼ N (0, σω2 ) y es independiente de ui , xi y de yi .

El modelo en términos de las variables observables es:

yi = βx∗i + (ui − βωi ) = βx∗i + εi (4.10)

contrario a lo que ocurría en (4.8) en este caso tenemos dicultad al estimar por
MCO, ya que el término de error εi esta relacionado con x∗i , lo que va en contra
del supuesto 6, veamos:

Cov(εi , x∗i ) = Cov(ui − βωi , xi + ωi )


= Cov(ui , xi ) − βCov(ωi , xi ) + Cov(ui , ωi ) − βCov(ωi , ωi )
= 0 − β · 0 + 0 − βσω2

Esto hace que el estimador MCO de β en el modelo (4.10) sea sesgado:


PN Á
x∗i yi 1/N
β̂ = Pi=1
N
·
i=1 xi
∗2 1/N
1
P N ∗ Á
N i=1 xi yi
β̂ = 1
P N ∗2
plim
N i=1 x i
P
plim N N
1 ∗
i=1 xi yi
plimβ̂ = P
plim N1 N i=1 xi
∗2
P
plim N1 N i=1 (xi + ωi )(βxi + ui )
plimβ̂ = P
plim N1 N i=1 (xi + ωi )
2
P
plim N1 N i=1 (xi + ωi )(βxi + ui + βωi − βωi )
plimβ̂ = P
plim N1 N i=1 (xi + ωi )
2
P
plim N1 N i=1 (xi + ωi )(ui − βωi )
plimβ̂ = β+ P
plim N1 N i=1 (xi + ωi )
2

−βσ 2
plimβ̂ = β + 2 ω2
Sx + σω
β
plimβ̂ = 2
σω
1+ Sx2
Pn
donde Sx2 = plim n1 i=1 x2i , que supondremos existe.

El resultado en términos generales es que el estimador MCO en presencia de


error de medición estará sesgado hacia en origen.

158
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

En el caso del modelo de regresión múltiple:


y = Xβ + u
X∗ = X + ω
donde todas las variables pueden estar medidas con error. Extendiendo lo desar-
rollado anteriormente:
plim β̂M CO = β − [Σxx + Σωω ]−1 Σωω β (4.11)
X0X ω0 ω
donde Σxx = plim n
y Σωω = plim n
.

Lo que implica que un sólo error basta para generar inconsistencias en todos
los coecientes del modelo.

4.2.1. Estimación por Variables Instrumentales

La estimación consistente de los parámetros en presencia de errores de medida es


posible si se disponen de instrumentos.

Denición: Un instrumento es una variable no incluida en el modelo, que cumple


con:

No estar correlacionada con el término de error.

Esta correlacionada con la variable explicativa para la cual actúa como


instrumento (en este caso la variable medida con error).

Volviendo al modelo en (4.10), el sesgo del estimador MCO de β surge por la


correlación entre la variable x∗i y εi . Supongamos ahora que se dispone de la
variable zi , tal que:
E(zi εi ) = 0 E(zi x∗i ) 6= 0
Entonces el estimador de variables instrumentales de (4.10) es:
Pn
zi yi
β̂V I = Pni=1 ∗
i=1 zi xi

En un modelo de regresión múltiple, tenemos que encontrar una matriz Z que


contenga los instrumentos de las variables medidas con error. El estimador de
Variables Instrumentales se obtiene de una regresión MCO en dos etapas:

159
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

i. En la primera etapa, se hace una regresión entre X ∗ y la matriz de instrumentos


Z, para obtener el valor estimado de X ∗ :

X ∗ = Zϕ + ²
ϕ̂ = (Z 0 Z)−1 Z 0 X ∗
X̂ ∗ = Z(Z 0 Z)−1 Z 0 X ∗

ii. En la segunda etapa se reemplaza el valor estimado de X ∗ en el modelo de


regresión original:

y = X ∗β + ε
y = X̂ ∗ β + ε

y obtengo el estimador de β mediante MCO:


0 0
β̂V I = (X̂ ∗ X̂ ∗ )−1 X̂ ∗ y
0 0
= [X ∗ Z(Z 0 Z)−1 Z 0 X ∗ ]−1 X ∗ Z(Z 0 Z)−1 Z 0 y (4.12)

Si todas las variables explicativas están medidas con error cada una de ellas se
necesita un instrumento, entonces Z tiene dimensión n×k al igual que X ∗ , en este
caso se puede demostrar (Hacerlo ) que:

β̂V I = (Z 0 X ∗ )−1 Z 0 y

con matriz de varianzas y covarianzas (también demostrar ):


0
V ar(β̂V I ) = σε2 (Z 0 X ∗ )−1 (Z 0 Z)(X ∗ Z)−1

4.2.2. Test de Hausman

Bajo errores de medida, el estimador MCO es inconsistente, mientras que el esti-


mador de variables instrumentales es consistente. Si en ralidad no hubiese errores
de medida, ambos estimadores serán consistentes, y MCO es además eciente,
lo que no ocurre con cualquier estimador de variables instrumentales (es un esti-
mador en dos etapas, lo que hace perder eciencia).

Por lo tanto, para contrastar la existencia de errores de medida Hausman plantea


realizar un test estadístico comparando (β̂M CO − β̂V I ) con su matriz de varianzas
y covarianzas.

160
Econometría I
Capitulo 4: Problemas con los datos FACEA, Universidad de Chile

La hipótesis nula es que no existe error de medida, es decir:

H0 : β̂M CO − β̂V I = 0 (4.13)

Hausman demuestra que la matriz de varianzas y covarianzas de (β̂M CO − β̂V I )


es igual a V (β̂V I ) − V (β̂M CO ). De esta forma, se puede construir el siguiente
estadístico de Wald para la hipótesis nula en (4.13):

W = (β̂M CO − β̂V I )0 (V (β̂V I ) − V (β̂M CO ))−1 (β̂M CO − β̂V I ) ∼ χ2k

161

También podría gustarte