Está en la página 1de 22

Captulo 3

El modelo clsico de regresin lineal


(MCRL)
3.1

El modelo clsico de regresin lineal


El modelo clsico de regresin lineal contempla los supuestos de Gauss-Markov ms
el supuesto clsico, el cual asume normalidad de los errores poblacionales.
Frmula: Distribucin de los errores en el modelo clsico

u1 |X
nid(0, 2 )

..
2
u|X = ...
N(0n1 , Inn )
.
un |X

(3.1)

nid(0, 2 )

(3.1) significa que cada error i de las n observaciones que se utilizarn en la regresin
fue generado por un PGD caracterizado por errores con distribucin normal e independiente (nid), con media cero y con varianza 2 . En otras palabras, el error distribuye de
forma normal, idntica (con la misma media y varianza) e independiente (niid).
Note que no fue necesario especificar nid en la expresin de la derecha en (3.1), debido
a que la MVC, Inn 2 , implica independencia al tener elementos no diagonales iguales
a cero. As mismo basta con especificar un vector de media uniforme y un nico escalar
de varianza para denotar una distribucin idntica.
Con el supuesto de normalidad el PGD asumido es ahora
y = X + u ,
(n1)

(nk)(k1)

u N(0, Inn 2 ),

rango(X) = k;

(3.2)

(n1)

donde y u son desconocidos para el investigador. El modelo a estimar sigue siendo


y = X + u ,
(n1)

(nk)(k1)

(3.3)

(n1)

cuya estimacin es la de MCO, con


= (X 0 X)1 X 0 y
c ) = 2 (X 0 X)1 ,
var(

(3.4)
donde 2 =

u0 u
nk

(3.5)

Captulo 3. El modelo clsico de regresin lineal (MCRL)

38

La diferencia crucial respecto al modelo visto anteriormente es que ahora los errores no slo tienen media y varianza definida, sino toda una forma funcional para su
distribucin. Como veremos esto implica que tanto y como tendrn una distribucin
normal. Siendo este el caso se puede indicar con precisin cul es la probabilidad de
que, por ejemplo, la variable aleatoria estudiada tome, por ejemplo, un valor que diste
ms de 3 desviaciones estndar sobre de la media. Tal como muestra la figura 3.1, dicha
probabilidad es aproximadamente 1 99,7 % = 0,3 %.
Figura 3.1: Distribucin Normal

Densidad

68,2 %
95 %
99,7 %

1
0
1
Desviaciones estndar ( )

Como el error se distribuye normal, esto tambin se cumple para y, puesto que1
u|X N(0, 2 I)
y|X = X + u|X N(X , 2 I),
y para , puesto que
y|X N(X , 2 I)
|X = (X 0 X)1 X 0 y|X N((X 0 X)1 X 0 X , (X 0 X)1 X 0 2 X(X 0 X)1 )
N( , 2 (X 0 X)1 ).

(3.6)

Esta es la razn por la cual en el ejemplo del captulo anterior la distribucin de un


coeficiente j segua una distribucin normal tanto para y1 como para y2 (ver figuras
2.3a, 2.3b y 2.4). De haberse generado los datos con un error que no se distribuye de
forma (i) normal (ii) idntica y (iii) independiente (niid) posiblemente j no se hubiese
distribuido con una campana gausiana en muestreo aleatorio.

3.2

Pruebas de hiptesis sobre los coeficientes estimados


El supuesto de normalidad permite dar una forma funcional a la distribucin de
los coeficientes estimados y calcular la significancia asociada a algn test sobre los
coeficientes. Los test ms comunes son:
1 Como

regla general se tiene que si y N(, ), entonces Ay + b N(A + b, AA0 ).

3.2 Pruebas de hiptesis sobre los coeficientes estimados

39

1. El test t de significancia individual, el cual indica si un coeficiente se encuentra


suficientemente alejado de un valor de referencia (usualmente fijado en cero).
2. El test F sobre significancia conjunta, el cual indica si un grupo de coeficiente se encuentra suficientemente alejado de un vector de valores de referencia
(usualmente un vector de ceros).
Ambas pruebas tiene hiptesis nulas (H0 ) que corresponden a restricciones lineales
de la forma:
H0 : R = r
(qk)(k1)

(3.7)

(q1)

Por ejemplo, en la tabla 3.1 se representan de la forma (3.7) algunas alternativas de H0


para la regresin y = a + bx2 + cx3 .
Tabla 3.1: Representacin matricial de restricciones lineales
Hiptesis nula

Representacin de la forma (3.7)

H0 : b = 0


0

H0 : c = 5


0

H0 : a + b = 1


1

H0 : a = b
H0 : a = 1, b = 2
H0 : a = b = c = 0


1

1
0

1
0
0


 a
1 0 b = 0
c
 a
0 1 b = 5
c
 a
1 0 b = 1
c
 a
1 0 b = 0
c
 a
 
0 0
1
b =
1 0
2
c

0 0 a
0
1 0 b = 0
0 1 c
0

Test
t
t
t
t
F
F

Podemos estudiar la MVC, [R ], de la restriccin lineal (3.7) a partir de nuestro


resultado (3.6). Multiplicado por R a la izquierda se obtiene
R |X N(R , 2 R(X 0 X)1 R0 ).
Si H0 es cierta, entonces R = r y, por lo tanto,
(R r)|X N(0, 2 R(X 0 X)1 R0 ).

(3.8)

De ahora en adelante, para no sobrecargar la notacin, obviaremos la condicionalidad


explcita a X, aunque esta siga mantenindose implcitamente.
3.2.1

Significancia individual (test t)


En el caso de una restriccin simple, es decir cuando q = 1 , como el trmino R r
y R(X 0 X)1 R0 son escalares tendremos
(R r)
p
N(0, 1)
2 R(X 0 X)1 R0

Captulo 3. El modelo clsico de regresin lineal (MCRL)

40

Por lo general 2 es desconocida y


u0 u
debe ser estimada va 2 (nk)
. Cuando
el modelo se encuentra bien especificado ui N(0, 1) implica q
u N(0, 1) y por
u0 u
u0 u
2
2
ende 2 (nk) nk y 2 (nk)
nk
(ver tabla 3.2).
q 0

u u
2
Dividiendo por = 2 (nk)
nk
obtenemos

Figura 3.2: Distribucin t


0,4

n k = 100
nk = 5
nk = 2
nk = 1

N(0,1)

0,3

0,2

0,1

0
6

(R r)
t = p
tnk (3.9)
2 R(X 0 X)1 R0

La distribucin de (3.9) sigue una forma


funcional conocida (figura 3.2), por lo que
podemos calcular el area debajo de la curva dado n k.
En la figura se muestra como cuando n k es elevado prcticamente no existe diferencia
entre la distribucin normal y la distribucin t.
Dada la simetra de la distribucin, en los test t H0 se rechazar si:
Test de una cola: t tcrtico
Test de dos colas: |t| tcrtico
Tabla 3.2: Distribuciones chi-cuadrado, t y F
Distribucin 2 : Si Z1 , Z2 , ..., Zn son variables normales estandarizadas independientes, entonces
n

Z = Zi2 n2

Z n2 .

i=1

Distribucin t: Sean Z1 una variable normal estndar y Z2 una variable 2 con k


grados de libertad, vale decir Z1 N(0, 1) y Z2 k2 , entonces

Z1
nZ1
t=p
=
tn .
Z2
Z2 /n
Distribucin F: Sean Z1 y Z2 variables 2 independientes con k1 y k2 grados de
libertad, respectivamente, entonces
F=

Z1 /n1
Fn1 ,n2
Z2 /n2

Qu significa que una variable sea significativa?

Trabajos economtricos suelen presentar no solo el valor de los coeficientes estimados y sus desviaciones tpicas, sino tambin el nivel de significancia o valor p de los
coeficientes estimados. El formato ms comn de presentacin es el que se muestra en
la tabla 3.3, donde algunos coeficientes vienen acompaados de asteriscos asociados a

3.2 Pruebas de hiptesis sobre los coeficientes estimados

41

los niveles de significancia respectivos. Qu significan, exactamente, esos niveles de


significancia?
Tabla 3.3: Regresiones MCO en base a la tabla 1.2
Variable dependiente: Ingreso en 2010
Modelo
const
Inequidad en 1950

(M1)

(M2)

(M3)

5.99e+04

1.16e+04

4.92e+04

(8.57e+03)

(3.84e+03)

1.94e+04

(1.06e+04)

1.62e+04

(4.14e+03)

Ingreso en 1950
13
0.636

n
R2

(4.42e+03)

1.79

0.848

(0.704)

(0.547)

13
0.314

13
0.731

Desviaciones tpicas entre parntesis


* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento

Para entender su significado veamos primero el formato de presentacin que entregan


los software economtricos tras una estimacin por MCO. La tabla 3.5 muestra el
resultado de una regresin con gretl. En la primera columna aparecen los valores del
vector . Luego aparecen las desviaciones tpicas de cada regresor (las races de la
diagonal de la matriz de varianza covarianza de ). En la tercera columna aparece un
estadstico t. Sabemos que el estadstico t corresponde a (3.9), pero hay componentes
del test que no son explcitos en la tabla. Primero, cul es la restriccin lineal asociada
al test?, es decir, cul es la hiptesis nula que se sostiene? La respuesta es:
Frmula: Estadstico t y su H0 en un software:
H0 : j N(0, var[ j ])

j
j
tj = q
=
tnk
s

c j]
var[

(3.10)

Por qu esa hiptesis


nula y no otra? La razn es
Tabla 3.4: Decisiones en la prueba de hiptesis
que las hiptesis nulas se
Decisin (resultado
Estado de la naturaleza
suelen plantear de forma condel
estadstico)
H
es
verdadera H0 es falsa
0
servativa para poder refutarNo se rechaza H0
no hay error
error tipo II
las. Asumimos, por ejemplo,
Se
rechaza
H
error
tipo
I
no hay error
0
que el medicamento que recibe un paciente no le sirve
para recuperarse, o que la inequidad no tiene efecto sobre el ingreso medio (es decir,
un j poblacional de cero). Luego calculamos un estadstico de prueba (el estadstico t
en este caso) y nos preguntamos qu tan improbable es obtener ese resultado. Mientras
menos probable sea, ms seguridad tendremos para rechazar la hiptesis nula en favor

Captulo 3. El modelo clsico de regresin lineal (MCRL)

42

de la hiptesis alternativa (que la variable s tiene impacto con j 6= 0).


En trminos generales (para todo tipo de test, no slo para el test t) stas son
interpretaciones precisas de la significancia (en general):
Prob. de rechazar H0 cuando H0 es cierta (error del tipo I, tabla 3.4)
Prob. de obtener un estadstico de prueba asumiendo que se cumple H0
Cuando nos referimos a la significancia de un coeficiente, tomamos en cuenta
(3.10) y la interpretacin es aun ms precisa. Formas alternativas de expresarla son:
Prob. de obtener un valor igual o superior a |tj |.
c j ]).
Prob. de obtener un valor igual o superior a | j | dada H0 : j N(0, var[
Prob. de obtener valores j tan o ms distantes de cero, dada la normalidad de j
c j ] en muestreo repetido.
y la varianza estimada var[

Es decir, una una variable se considera significativa cuando su coeficiente es significativamente distinto de cero asumiendo que en muestreo repetido este se distribuye de
forma normal con la varianza estimada.
Note que ese es otro aspecto que por lo general no es explcito en los software: la
significancia del test t de las tablas 3.3 y 3.5 asume un test de dos colas.
Valor p de j en un software: El valor p o significancia de un coeficiente esti-

mado ( j ) en un software estadstico corresponde a la probabilidad de rechazar la


hiptesis nula
H0 : j N(0, var[ j ])

(3.11)

con un test t de dos colas. Es decir, corresponde a la prob. de obtener


nk
|tj | t1

(3.12)

En trminos simples nos dice cul es la probabilidad de obtener un coeficiente tan o


ms distinto de cero cuando el su valor en el PGD es cero.
En ocasiones (por ejemplo en algunas publicaciones) no se reporta la significancia
sino solo el valor t o incluso solo los errores estndar. Esta informacin debiera bastarle
para saber si un coeficiente es significativo al 5 % en un test a dos colas. Para ello puede
hacer uso de la siguiente regla prctica de
podemos decir que j es
significancia:



aproximadamente significativo al 5 % si t = j /s j 2. Esta es solo una aproximacin.
Por ejemplo, si tenemos n k = 30, para un nivel de 5 % de significancia, el valor crtico
es tcrtico = 2, 04; si tenemos n k = 60 , para un nivel de 5 % de significancia, el valor
crtico es tcrtico = 2, 00; si n , para un nivel de 5 % de significancia, el valor crtico
tcrtico tiende a 1,96 (al igual que en la normal estndar).
Podemos ilustrar la interpretacin de la significancia con dos ejemplos. Tomemos
primero el coeficiente Ingreso 1950 de la tabla 3.5. El resultado es Ingreso 1950 = 0,848.
Es este valor significativamente distinto de cero?
Para responder esta pregunta debemos tomar en cuenta que si la varianza de Ingreso 1950

3.2 Pruebas de hiptesis sobre los coeficientes estimados

43

Tabla 3.5: Resultados de regresin presentados en gretl


MCO, usando las observaciones 113
Variable dependiente: Ingreso per cpita en 2010

const
Inequidad1950
Ingreso1950

Coeficiente

Desv. Tpica

Estadstico t

Valor p

49246.9
16167.6
0.848

10618.8
4416.54
0.54729

4.6377
3.6607
1.5498

0.0009
0.0044
0.1522

Media de la vble. dep.


Suma de cuad. residuos
R2
F(2, 10)
Log-verosimilitud
Criterio de Schwarz

20239.13
1.96e+08
0.731101
13.59437
125.8782
259.4513

D.T. de la vble. dep.


D.T. de la regresin
R2 corregido
Valor p (de F)
Criterio de Akaike
HannanQuinn

7791.079
4425.705
0.677322
0.001406
257.7565
257.4081

es alta, entonces es probable obtener dicho valor, mientras que si es baja, ser improbable y el coeficiente puede ser considerado significativamente distante de cero. Por
convencin cientfica, consideraremos significativo un coeficiente si obtenemos
un valor p asociado de = 10 % o menos, siendo lo ms comn un criterio de = 5 %.
La forma ms sencilla de plantear la significancia al 5 % es por medio de la pregunta: se encuetra el coeficiente a ms de 2 desviaciones estndar de cero? Con
sIngreso 1950 = 0,547, en el caso de esta variable no se cumple la condicin, pues cae en
el rango 2 0,547 indicado como IC 95 % en el grfico inferior de la figura 3.3.
Tambin podemos hacer la pregunta, cul es la probabilidad de obtener un valor
Ingreso 1950 0,848 si en realidad H0 : Ingreso 1950 = 0? La probabilidad aparece marcada como el rea de franjas /2 en el grfico inferior. Si multiplicamos esa area por
dos obtenemos exactamente 0.1522, el valor p de la tabla 3.5.
En conclusin: Ingreso 1950 no es significativamente distinto de cero (con un nivel de
significancia = 5 %), pues el valor 0,848 se encuentra a tan slo 1,54 desviaciones
estndar (ver valor t en la tabla 3.5) de cero. Sin embargo, la variable s sera significativa
a un nivel de, por ejemplo, 20 % (valor demasiado alto como para ser considerado un
resultado serio).
Veamos ahora el coeficiente Inequidad 1950 . El valor estimado es de 1,6 104 . Es
este un valor significativamente distinto de cero? En esta oportunidad nos encontramos a
ms de dos desviaciones estndar de cero y, por ende, la variable puede ser considerada
significativa al 5 %. Cul es el valor exacto de la significancia del coeficiente? Ser dos
veces esa pequea area bajo la curva en el intervalo [ : 1,6 104 ] que casi ningn
ojo humano es capz de ver en el grfico inferior de la figura 3.4. La variable es bastante
significativa, con un nivel de significancia inferior a 1 %.
Es una variable significativa una con alto impacto sobre la variable dependiente?
No necesariamente. Significancia estadstica es un concepto que poco tiene que ver

Captulo 3. El modelo clsico de regresin lineal (MCRL)

44

Figura 3.3: Significancia e IC de Ingreso 1950


t =
3

Ingreso 1950
0,54729

H0 : Ingreso 1950 = 0
IC 95 %
/2

0,4

0,2

0
2

1,5

0,5

0,5

1,5

2,5

1,5

2,5

Ingreso 1950
2

1,5

0,5

0,5

H0 : Ingreso 1950 = 0,848


IC 95 %
/2

0,4

0,2

1
t =

Ingreso 1950 0,848


0,54729

con frases como la donacin del millonario es un aporte muy significativo para la
fundacin. Note que la magnitud del impacto est medido por j . La significancia
slo nos cuenta cun seguros estamos de que el valor de j es poco probable desde la
perspectiva de H0 : j = 0.

3.2.2

Intervalos de confianza para un coeficiente


Una forma alternativa de presentar la incertidumbre respecto a un coeficiente estimado, relacionada con el test t pero distinta de l, corresponde al intervalo de
confianza (IC).
Un IC de 95 % para un coeficiente nos dice que el valor de j se encuentra con una
prob. de 95 % dentro de un intervalo de valores determinado. Es decir, el IC nos entrega
un valor mximo y uno mnimo entre los cuales esperamos que se encuentre j con
cierta probabilidad.
Cmo se obtiene un IC? Si volvemos a (3.6), la ecuacin de normalidad de , se

3.2 Pruebas de hiptesis sobre los coeficientes estimados

45

tiene que
|X N( , 2 (X 0 X)1 )
j |X N( , var[ j ])
j |X N(0, var[ j ])
j
q
|X N(0, 1)

var[ j ]

j
q
|X

c j]
var[

tnk

Nuevamente, para no sobrecargar la notacin, podemos obviar la condicionalidad


explcita a X, aunque esta siga mantenindose implcitamente, y escribir:
j j
tnk .
s j
Si deseamos un IC del (1 ) 100 % de confianza para el parmetro j , j = 1, . . . , k,
este ser:
"
#
j j

nk
nk
1 = P t/2

t1/2
s j
#
"
j j

nk
nk
t1/2
(dada la simetra en t)
= P t1/2

s j
h
i
nk
nk

= P t1/2 s j j j t1/2 s j
h
i
nk
nk
= P t1/2
s j j j t1/2
s j
Finalmente obtenemos:
Frmula: IC de (1 ) 100 % para un coeficiente
h
i
nk
nk
1 = P j t1/2
S j j j + t1/2
S j

(3.13)

Una regla prctica para


determinar un IC de 95 %
Figura 3.5: Realidades estadsticas
en una regresin es sumar y restar a al coeficiente estimado 2
veces el error estndar obtenido.
Por ejemplo, para el coeficiente de Ingreso1950 , una aproximacin del IC sera Ingreso 1950
2 0,54729 = [0,24658; 1,94258]. Comparando con la tabla 3.6 vemos que el clculo
no es preciso (el valor t a utilizar es 2.228 en lugar de 2), pero al menos da cuenta de
que el coeficiente no es significativo al 5 %, debido a que el IC abarca valores 0.2
2 La

regla prctica tiene una precicin con un margen de error 2 % para valores de n k que estn
entre 30 y . Para valores inferiores a 30 es recomendable calcular el valor t crtico exacto.

Captulo 3. El modelo clsico de regresin lineal (MCRL)

46

Figura 3.4: Significancia e IC de Inequidad 1950 (escala 104 )


t =
7

Inequidad 1950
0,44165

H0 : Inequidad 1950 = 0
IC 95 %
/2

0,4

0,2

2,5

1,5

0,5

0,5

1,5

0,5

1,5

Inequidad 1950
3

2,5

1,5

0,5

H0 : Inequidad 1950 = 1,617


IC 95 %
/2

0,4

0,2

0
4

1
t =

Inequidad 1950 +1,617


0,44165

El intervalo de confianza de Inequidad1950 , en tanto, no se intersecta con cero, lo


que es consecuente con un coeficiente que es significativamente distinto de cero.
Como el IC de 95 % de Ingreso 1950 s abarca = 0 mientras el de Inequidad 1950
no abarca = 0 se muestra en los grficos inferiores de las figuras 3.3 y 3.4. Como
se aprecia, la diferencia entre el anlisis de IC y el anlisis de significancia es sutil:
simplemente se centra la distribucin en otra posicin y con ambos procedimientos es
posible evaluar si una variable es o no significativa a un nivel .

Tabla 3.6: Intervalos de confianza para los coeficientes del modelo M3

Regresor (x j )

Valor exacto de t: t(10; 2,5 %) = 2,228




q

Coeficiente ( j ) IC de 95 % j 2,228 var[ j ]

const
Inequidad en 1950
Ingreso en 1950

49246.9
16167.6
0.848176

25586.8
26008.3
0.371266

72907.0
6326.95
2.06762

3.2 Pruebas de hiptesis sobre los coeficientes estimados


3.2.3

47

Test F de significancia conjunta


El test F se aplica cuando el nmero de restricciones es q > 1 . La hiptesis alternativa en este caso es que alguna de las restricciones impuestas no se cumpla.
Retomando (3.8), la distribucin de H0 : R = r cuando ella es cierta es3
(R r) N(0, 2 R(X 0 X)1 R0 )
1
( 2 R(X 0 X)1 R0 ) 2 (R r) N(0, I)
qq

q1

Es decir, cada uno de los q elementos del vector distribuye como una normal estndar.
Como la sumatoria de q variables normales estndar cuadradas se distribuye como una
n2 , tendremos:
(R r)0 [ 2 R(X 0 X)1 R0 ]1 (R r) q2
1q

qq

q1

Luego, como 2 habitualmente no es conocida, se utiliza


u0 u
2
nk
2
y el cociente entre ambas distribuciones 2 , llamado test o estadstico F (en general):
[(R r)0 [R(X 0 X)1 R0 ]1 (R r)]/q
Fq,nk
u0 u/(n

k)
Cuando H0 contempla que un grupo de coeficientes es igual a cero, despus de una
serie de pasos que omitiremos para no desviar la atencin, la expresin anterior puede
ser reescrita como
F=

(u0r ur u0 u)/(q)

Fq,nk
0
u u/(n

k)

(3.14)

donde ur corresponden a los residuos de una regresin MCO restringida (con los q
regresores excluidos), q denota el nmero de regresores que han sido restringidos a cero
y u representan los residuos del modelo MCO original.
(3.14) es un estadstico de uso comn en tests economtricos. Su interpretacin es
simple: como el modelo MCO reducido siempre tendr un peor ajuste, la diferencia
u0r ur u0 u captura cunto mejora el ajuste con los regresores adicionales. A mayor
diferencia entre u0r ur y u0 u,
ms poder explicativo se gana con los q regresores y ms
significativo figura estadstico. Es decir, si existe una alta discrepancia entre un modelo
con, digamos 5 regresores y otro con 8 regresores (incluyendo los 5 del modelo anterior), entonces (3.14) tendr un valor elevado y significativo, dando cuenta de que los
q = 3 regresores adicionales son relevantes (estadsticamente distintos de cero en forma
1

se hace uso de la expresin ( 2 R(X 0 X)1 R0 ) 2 . Sabemos que existe debido a que R(X 0 X)1 R0 es
una matriz simtrica.
3 Ac

Captulo 3. El modelo clsico de regresin lineal (MCRL)

48

conjunta). Para que la significancia de F sea alta basta que al menos uno de los q = 3
coeficientes sea relevante.
En la parte inferior de la tabla 3.5 puede encontrar el valor F(2; 10) = 13,59437 y
su significancia asociada de 0.001406. Cmo interpretamos este estos valores? Como
ve q = 2. Esto tiene relacin con la hiptesis nula:
Frmula: H0 del test F de una regresin en un software
H0 : 2 = 3 = ... = k = 0

(3.15)

Es decir, todas las pendientes, salvo la constante son iguales a cero. En otras palabras,
corresponde a la significancia total del modelo.

3.3

Proyecciones con IC
Tomemos como ejemplo el modelo de estimado en (1.4):
\ = 877,83 0,433ao
precio
Cul es nuestra mejor estimacin del precio del watt de energa solar en 2015? Simplemente:
\ = 877,83 0,433 2015 = 5,335
precio
Tomando ahora el modelo M3 (p. 10), si quisiramos predecir el nivel de ingreso en
2010 para una un pas con las caractersticas que tuvo Argentina en 1950, es decir con
sus niveles de inequidad e ingreso en 1950, la prediccin o pronstico sera
\
PIB
2010 = 49246,9 1 16167,6 2,5048 + 0,848 4934,41 = 12935,5
Asimismo, si deseamos obtener un vector de y0 de n0 pronsticos dada una matrix X 0
de regresores imputados, nuestra proyeccin ser
y0 = X 0
(n0 1)

(3.16)

(n0 k)(k1)

Por ejemplo, si usted desea predecir simultneamente el nivel de ingreso de un pas


que tuvo el PIB y la inequidad de Argentina junto con el nivel de ingreso de un pas que
tuvo el PIB de Argentina pero la inequidad de Japn, su pronstico sera:




1 2,5048 4934,41
12935,5
0
0
X =
y =
1 1,7226 4934,41
25581,8
0
0
(n k)

(n 1)

Denominaremos error de prediccin e0 a la diferencia que ocurrir entre la


observacin efectiva y0 (por lo general desconocida ex ante) y la prediccin y0 :
e0 = y0 y0 = X 0 + u0 X 0 = X 0 ( ) + u0 .
(n0 1)

En la ltima expresin se manifiesta la existencia de dos fuentes del error de prediccin:

3.3 Proyecciones con IC

49

1. El error en la estimacin del vector


2. El error estocstico u0 inherente al PGD
La suma de ambos componentes da lugar a la diferencia e0 = y0 y0 mientras el
primer componente aislado es el culpable de la diferencia que pueda surgir entre el valor
esperado de E[y0 |X 0 ] (dado por la FRP) y la prediccin y0 (dado por la FRM). Esta ltima
diferencia se denomina error de prediccin de la media, que denotaremos con e0 .
Si consideramos que el estimador MCO es insesgado, entonces E[e0 |X, X 0 ] =
E[X 0 ( ) + u0 |X, X 0 ] = 0 y = (X 0 X)1 X 0 u. Con esto, y considerando los
supuestos de Gauss-Markov, la MVC del error de estimacin se encuentra dada por,






e0 |X, X 0 = E (e0 E[e0 ])(e0 E[e0 ])0 |X, X 0 = E e0 e00 |X, X 0
h
i
0
0
0
0 0
0

= E (X ( ) + u )(X ( ) + u ) |X, X


= E (X 0 (X 0 X)1 X 0 u + u0 )(X 0 (X 0 X)1 X 0 u + u0 )0 |X, X 0


= E (X 0 (X 0 X)1 X 0 u + u0 )(u0 X(X 0 X)1 X 00 + u00 )|X, X 0

= E X 0 (X 0 X)1 X 0 uu0 X(X 0 X)1 X 00 (X 0 (X 0 X)1 X 0 u)u00

u0 (u0 X(X 0 X)1 X 00 ) + u0 u00 |X, X 0




= X 0 (X 0 X)1 X 0 E uu0 |X, X 0 X(X 0 X)1 X 00 X 0 (X 0 X)1 X 0 E uu00 |X, X 0




E u0 u0 |X, X 0 X(X 0 X)1 X 00 + E u0 u00 |X, X 0
0
Los errores
 0u 0y u son
 ortogonales
 00 (es0 decir, independientes), motivo por el cual
0
se cumple E u u |X, X = 0 y E uu |X, X = 0. Por lo tanto,


e0 |X, X 0 = X 0 (X 0 X)1 X 0 2 Inn X(X 0 X)1 X 00 + 2 In0 n0

= 2 X 0 (X 0 X)1 X 00 + 2 In0 n0 ,
|
{z
} | {z }
(1)

(3.17)

(2)

donde aparecen nuevamente ambas fuentes del error de prediccin.


La MVC del error de prediccin de la media condicional E[y0 |X 0 ] ser simplemente




E[y0 ] y0 |X, X 0 e0 |X, X 0 = 2 X 0 (X 0 X)1 X 00 .
(3.18)
{z
}
|
(1)

A partir de (3.17) y (3.18) podemos construir dos tipos de IC: (i) el IC de la media
de y0 y (ii) el IC de y0 , incluyendo el error, lo que ampla su IC.
Aplicando el mismo procedimiento que con un coeficiente j podemos obtener un
IC de la prediccin:
i
h
nk
nk
1 = P y0 t1/2
se0 y0 y0 + t1/2
se0 ,

q
b 0 |X, X 0 ] con [e
b 0 |X, X 0 ] = 2 [X 0 (X 0 X)1 X 00 + I 0 ]. Si n0 es
donde se0 = diag
[e
n
b 0 ] con dimendiones n0 n0 , cuyo elemento diagonal
mayor a 1 tendremos una MVC [e

Captulo 3. El modelo clsico de regresin lineal (MCRL)

50

es el relevante para la construccin del IC de cada prediccin.


Anlogamente, IC de prediccin de la media es
h
i
0
nk
0 0
0
nk
1 = P y t1/2 se0 E[y |X ] y + t1/2 se0 ,

q
0
0
b
b e0 |X, X 0 ] = 2 [X 0 (X 0 X)1 X 00 ].
[e |X, X ] y [
donde se0 = diag
En la figura 3.6 se muestra la diferencia grfica entre ambos ICs. En ambos casos el
IC se ampla con la distancia respecto a la media de X, siendo el IC en 3.6a ms acotado
que en 3.6b.
Figura 3.6: Intervalos de confianza de prediccin ...
(a) ... para la media condicional E[y0 |X 0 ]

Costo [$/W, escala log]

101,2

(b) ... para y0 = E[y0 |X 0 ] + u0

100,9

1,2
IC 95 % de y 10
Pred. media
100,9

100,6

100,6

100,3

100,3

100

100
101
103
107
109 1011
105
MW producidos acumulados [escala log]

101
103
107
109 1011
105
MW producidos acumulados [escala log]

A modo de ejemplo, para la proyeccin para Argentina en los dos escenarios propuestos tenemos 2 = 19586868,038,


[e0 ] = 25291296,02 1371228,44 ,
1371228,44 23074370,36


5704427,98 1371228,44
[E(y0 ) y0 ] =
,
1371228,44 3487502,32
y los resultados de la tabla 3.7, donde el valor crtico de la distribucin t es 2.22814.
Tabla 3.7: Intervalor de confianza de 95 %
Media

IC de la pred. de la media

12935.49122
25581.8004

7613.816779 18257.16565
21420.78326 29742.81753

IC de la prediccin
1730.080129
14878.7596

24140.9023
36284.8412

En qu circunstancias se invalida el clculo de los intervalos de confianza de


prediccin? Naturalmente cualquier violacin de los supuestos del MCRL tiene impacto
sobre la validez del IC que se calcule. Si el modelo est incorrectamente especificado

3.4 Diagnstico residual del MCRL

51

(por ejemplo, excluyendo una variable importante), entoces se invalida todo el anlisis
desde el clculo de en adelante. Si los errores son heterocedsticos, por ejemplo, no
se invalida la proyeccin pero s sus intervalos de confianza.
En otras palabras, el IC nos dice cul es la confianza que se tiene de la proyeccin
cuando todo lo asumido se cumple. Si usted no confa en un investigador, tampoco
debiera confiar en los intervalos de confianza que publica.

3.4

Diagnstico residual del MCRL


Si no se cumplen todos los supuestos del MCRL, la regresin que usted estime en
un software estadstico ser invlida. La tabla 3.8 muestra las consecuencias de algunas
violaciones de supuestos del MCRL.
Tabla 3.8: Algunas violaciones de los supuestos del MCRL
Propiedad invalidada de e y
Problema
Muestreo inadecuado
Causalidad incorrecta
No linealidad
Omisin de variable relevante
Errores heterocedsticos
Autocorrelacin de u
Anormalidad de u

Insesgamiento
x
x
x
x

Desv. estndar
x
x
x
x
x
x

Significancia
e ICs
x
x
x
x
x
x
x

Por ejemplo, si se viola el supuesto de especificacin correcta (cualquiera de los


primeros 4 casos de la tabla 3.8, entre otros), se invalidan prcticamente todos los
clculos mostrados hasta ahora. Si nicamente se viola, por ejemplo, la normalidad de
los errores poblacionales, siguen siendo vlidos el clculo de la varianza y el teorema
de Gauss-Markov, pero no el clculo de tests t, tests F o el IC de un coeficiente, como
tampoco ser vlido el clculo del IC de prediccin.
Lamentablemente suele ser difcil verificar si se viola el supuesto de muestreo respresentativo o el de causalidad correcta. Por este motivo en la prctica es importante
que el investigador se asegure sobre la calidad de los datos y que se informe sobre las
posibles relaciones causales que podran existir entre las variables. Otros supuestos,
como el de linealidad en las variables, el de homocedasticidad de los herrores o el de normalidad de los errores pueden ser fcilmente verificados va anlisis residual: si los
residuos se comportan de forma contraria a la que se debieran comportar los errores poblacionales, entonces se puede rechazar la hiptesis nula sobre alguno de estos supuestos.
Las figuras 3.7 y 3.8 muestran el patrn grfico que emerge cuando se producen
ciertas violaciones particulares de los supuestos del MCRL. Si tenemos un solo regresor,
la no linealidad y la heterocedasticidad son muy fciles de detectar grficamente. La
deteccin de una variable omitida, en tanto, no es tan fcil en la prctica, pues requiere de
que se tenga a disposicin la variable omitida z (podramos haberla omitido por no contar

Captulo 3. El modelo clsico de regresin lineal (MCRL)

52

con ella en la base de datos). La deteccin grfica de la autocorrelacin tambin es algo


insegura. En el ejemplo de las figuras 3.7e y 3.8e vemos como los residuos se encuentran
agrupados (para ciertos rangos de x son particularmente altos o bajos), lo que nos permite
concluir que existe una relacin sistemtica entre los errores, correspondiente a una
funcin de x. Pero tambin puede que la autocorrelacin sea funcin sistemtica de
una variable no observada (por ejemplo una funcin de cules fueron los grupos de
estudiantes que se prepararon conjuntamente para una prueba) y que no se vea en un
grfico residual en funcin de x.
Figura 3.7: Regresiones con algunos problemas
(b) No linealidad

x
(e) Autocorrelacin

x
(f) Heterocedasticidad

x
(d) Variable omitida

(c) Heterocedasticidad

(a) Sin problema

Figura 3.8: Anlisis grfico de residuos


(b) No linealidad

variable omitida z

(f) Heterocedasticidad

(e) Autocorrelacin

x
(d) Variable omitida

(c) Heterocedasticidad

(a) Sin problema

Vemos que cuando tenemos un nico regresor x, el anlisis grfico resulta til no
solo para reconocer outliers con apalancamiento, sino tambin para detectar violaciones

3.4 Diagnstico residual del MCRL

53

de los supuestos de homocedasticidad, linealidad y, si tenemos suerte, de autocorrelacin


e incluso detectar variables omitidas. Con ms regresores el anlisis grfico se torna
progresivamente difcil a medida que aumenta k, motivo por el que en regresiones
mltiples se recomienda utilizar algn test de diagnstico como los que se presentan
a continuacin. En todos ellos la idea bsica es que si el modelo se encuentra bien
especificado, entonces los residuos no debieran tener alguna forma funcional particular
que puede ser estimada con una alto grado de significancia conjunta o alta bondad de
ajuste.
3.4.1

Contrastes de no linealidad
Los test de linealidad/no linealidad tienen como hiptesis:
H0 : la relacin entre X e y es lineal.
H1 : la relacin entre X e y es no-lineal.
Una forma sencilla de verificar la existencia de no linealidades es correr una regresin auxiliar,
y = X + Z + ,

(3.19)

donde Z es una matriz que contiene versiones no lineales (cuadrados, logaritmos, etc.)
de regresores contenidos en X. Si el test F asociado a la H0 : = 0 es significativo, se
rechaza la H0 de linealidad.
Otra forma ms popular de verificar la existencia de no linealidades es correr la
regresin auxiliar,
u = X + Z + ,

(3.20)

con los residuos u del la regresin original como variable dependiente y donde Z es ahora
una matriz que contiene cuadrados, cubos, logaritmos, etc. (segn se especifique) por lo
general de cada regresor contenido en X (slo k 1 columnas, pues se ignora la constan 2 + con los datos de la figura 3.7b,
te). Si, por ejemplo, se corre la regresin u = x + x
2
el R ser alto, mientras que para la misma regresin con los datos de la figura 3.7a el R2
ser bajo. Es decir, un mayor R2 de (3.20) es indicativo de la presencia de no linealidades.
Cun alto debe ser R2 de (3.20) para rechazar estadsticamente linealidad? Podemos
utilizar el estadstico de prueba nR2 ,
2
LM = n R2 gl
,

(3.21)

que corresponde a una forma particular de la familia de estadsticos del multiplicador


de Lagrange (estadsticos LM), que estudiaremos ms adelante. Por ahora podemos
adelantar que (3.21) se distribuye asintticamente como una chi-cuadrado con grados de
libertad iguales al nmero de restricciones en el modelo reducido (u = X en este caso,
2 ).
siendo k 1 el nmero de restricciones lineales en H0 : = 0, lo que implica nR2 k1
Para evaluar no linealidad tambin es comn utilizar el test RESET (Regression
Equation Specification Error Test) de Ramsey, basado en la regresin auxiliar
+ 1 y2 + ... + k1 yk + ,
y = X

(3.22)

Captulo 3. El modelo clsico de regresin lineal (MCRL)

54

donde y = X. Si no existen relaciones no lineales entre y y los regresores, entonces se


cumple 1 = 2 = . . . = k1 = 0. As, si se cumple la hiptesis nula, el estadstico F
asociado con dicha hiptesis nula arrojara un valor que no es significativo.

u2i

Contrastes de heterocedasticidad
Los test de homocadasticidad/heterocedasticidad tienen como hiptesis:
H0 : ui se distribuye con varianza constante a lo largo de X (homocedasticidad).
H1 : ui se distribuye con varianza cambiante a lo largo de X (heterocedasticidad).
El primer paso en un contraste de hete2
rocedasticidad
es cuadrar los residuos de
Figura 3.9: ui de fig. 3.8c
la regresin como se ilustra en las figuras
3.9 y 3.10. El test de Breusch-Pagan
tiene como regresin auxiliar la relacin
lineal
u2i
= Xi + i ,
1
2
u

i
n

(3.23)

donde Xi representa la fila i de X. Si la


regresin auxiliar (3.23) tiene buen ajuste
x
(un alto R2 o un bajo valor p del test F),
entonces se concluye que la varianza residual es una funcin de X y se rechaza la homocedasticidad. Estadsticamente esto se
puede hacer mediante el test F o un test nR2 . Sin embargo, el estadstico de prueba ms
comn para evaluar significancia en el test de Breusch-Paga es
u0 u
2
k1
,
2
donde u0 u es la suma de cuadrados explicada de la regresin (anloga a y0 y en una
regresin MCO de y respecto de X). Intuitivamente, si la suma de cuadrados explicada
de la regresin auxiliar es alta, entonces el ajuste es bueno y se rechaza la H0 de
homocedasticidad.
La figura 3.9 muestra la idea del
2
test de Breusch-Pagan: si la recta (que
Figura 3.10: ui de fig. 3.8f
puede ser multidimensional) tiene una
pendiente significativa o un alto ajuste, entonces estamos ante heterocedasticidad. Una debilidad evidente de este contraste se ilustra en la figura
3.10. Ah vemos como un modelo lineal del tipo (3.23) no captura la posibilidad de heterocedasticidad no lineal.
u2i

3.4.2

Esta es la ventaja que tiene el test de


White, cuya regresin auxiliar tiene como variable dependiente el cuadrado de los

3.4 Diagnstico residual del MCRL

55

residuos y como variables independientes tanto a los regresores de X como a sus


cuadrados y productos cruzados. Por ejemplo, si la regresin original es
yi = 1 + 2 x2,i + 3 x3,i + ui ,
entonces se corre la regresin auxiliar
2
2
u2i = 1 + 2 x2,i + 3 x3,i + 4 x2,i
+ 5 x3,i
+ 6 x2,i x3,i + i .

Luego,a partir del estadstico de prueba LM = n R 2 k2 se evala se rechaza significativamente la homocedasticidad.


3.4.3

Tests de normalidad
Si los errores poblacionales se distribuyen de forma normal, entonces los residuos
de una regresin tambin debieran distribuirse de forma normal. La forma tradicional de
verificar este supuesto es mediante la comparacin de la asimetra y la curtosis de los
residuos. Como toda distribucin normal es simtrica (asimetra S = 0) y mesocrtica
(curtosis K = 3), se puede construir el estadstico de prueba de Jarque-Bera,


n 2 1
2
JB =
S + (K 3) 22 ,
(3.24)
6
4
el cual toma mayor valor a mayor asimetra (S) y a mayor discrepancia de la curtosis
respecto de 3. Es decir, a mayor JB, ms anormal es la distribucin de los residuos. Si
JB es suficientemente elevado se puede rechazar la hiptesis nula de normalidad. La
distribucin asinttica de (3.24) es JB 22 .
Con el tiempo se ha hecho popular el contraste de Doornik-Hansen de normalidad multivariada, una variacin del contraste de Jarque-Bera cuyo estadstico de
prueba distribuye igualmente como una chi-cuadrado.
Por ltimo cabe mencionar el diagnstico va un grfico QQ. En l se grafican
los percentiles de la distribucin de la variable en cuestin versus los cuantiles de la
distribucin normal y una lnea de 45 . Si los residuos se distribuyen normales, entonces
cada percentil de la distribucin debe asimilarse al percentil de la distribucin normal y
las observaciones deben estar cercanas a la lnea de 45 . La figura 3.11 muestra un caso
en que los residuos s distribuyen de forma normal y otro en que no.

Captulo 3. El modelo clsico de regresin lineal (MCRL)

56

Figura 3.11: Grficos QQ de la distribucin normal


(a) Caso normal

(b) Caso no-normal

30

20

2
1

10

0
0
-1
-10

-2

-20
-30
-30

-3
-4
-20

-10

10

20

30

Cuantiles de la Normal

3.4.4

-4

-3

-2

-1

Cuantiles de la Normal

Tests de inestabilidad
En la tabla 3.9 se presentan los
resultados
de la regresin
Tabla 3.9: Estimacin de la tasa de crecimiento
de Mxico (1960-2005)
ln(PIB) = 0 + 1 Ao + u
Var dep.: log. PIB per cpita
1960-2005 1960-1981 1982-2005

para tres submuestras del PIB per cpita mexicano. La primera toma to

da la muestra presentada en la figura


const
22.8
55.9
3.39
(2.21)
(1.79)
(3.26)
3.12, mientras las columnas siguien

Ao
0.0159
0.0327
0.00616
tes se restringen a antes de 1981 y des(0.00112)
(0.000911)
(0.00164)
pus de 1981 respectivamente. Como
el modelo es log-nivel, el coeficiente
n
35
21
14
1 se interpreta como la tasa de creciR 2
0.821
0.985
0.364
miento anual del nivel de ingreso en
Desviaciones tpicas entre parntesis
el pas.
* indica significativo al nivel del 10 por ciento
** indica significativo al nivel del 5 por ciento
Los resultados son muy distintos.
Si tomamos el periodo completo la tasa de crecimiento del ingreso de los mexicanos fue
de 1,6 %. Pero durante ese periodo hubo una diferencia notable entre lo que se vio entre
1960 y 1981, con un crecimiento de 3,3 % y luego entre 1982 y 2005, con un crecimiento
de tan slo 0.6 %. Este cambio, el cual resulta evidente a simple vista en la figura 3.12,
corresponde a lo que se denomina cambio estructural.
Si tenemos un modelo con varios regresores es probable que no sea fcil encontrar
cambios estructurales con un simple anlisis grfico, caso en el que podemos recurrir
a un test F denominado contraste de Chow de cambio estructural. El test plantea
como hiptesis nula que un todas las observaciones provienen de un mismo PGD y
como hiptesis alternativa plantea que, dividiendo la muestra en dos, ambas submuestras
provienen de PGD distintos (por ejemplo, que la economa mexicana tuvo tasas de
crecimiento distintas en los dos periodos analizados).

3.4 Diagnstico residual del MCRL

57

Supongamos que H1 plantea un cambio estructural de la economa mexicana en


1981. Para construir el estadstico de prueba partimos creando una variable binaria
(llammosla Dummy), que toma el valor 0 en la submuestra 1960-1981 y el valor 1 en
la submuestra 1982-2005. Con ella corremos la regresin auxiliar
ln(PIB) = 0 + 1 Ao + 0 Dummy + 1 Dummy Ao + ,
Note que el valor ajustado de esta regresin es

0 + 1 Ao,
si Ao 1980
\
ln(PIB) =

0 + 0 + (1 + 1 )Ao, si Ao > 1980


As, cuando Ao > 1980 la contante de la recta aumenta en 0 y su pendiente
aumenta en 1 . Bajo la hiptesis nula de que no hay diferencia entre los PGDs de ambas
muestras se cumple H0 : 0 = 1 = 0. Para rechazarla evaluamos el estadstico F (ver
(3.14)) de restricciones lineales mltiples,
F=

(u0r ur u0 u)/(q)

Fq,nk
0
u u/(n

k)

(3.25)

donde ur corresponden a los residuos de una regresin MCO restringida (con los q
regresores excluidos), q denota el nmero de regresores que han sido restringidos a cero
y u representan los residuos del modelo MCO original.

Estadstico F

ln(PIB)

La figura 3.12 ayuda a


ilustrar la lgica del contrasFigura 3.12: Ingreso per cpita en Mxico
te. Si la suma de residuos
(a) 1 modelo vs. 2 modelos
cuadrados de la regresin
subdividida en muestras es
9
mucho menor que la suma de
8,8
residuos cuadrados de la regresin restringida, entonces
8,6
el estadstico F ser elevado.
8,4
En la figura ?? se muestra co8,2
mo el estadstico F del test de
1970
1980
1990
2000
1960
Chow alcanza un mximo en
Ao
el ao 1983, indicando que
(b)
Test
de
Chow
esa en esa fecha se registra el
mayor cambio de tendencia
150
del crecimiento del PIB en
100
Mxico (el grfico se obtuvo
50
efectuando el test de Chow
para cada ao). Pero tambin
0
1960 1965 1970 1975 1980 1985 1990 1995 2000
los valores cercanos a 1983
tienen un estadstico de prueAo
ba elevado. As, por ejemplo,
el resultado de la regresin auxiliar para un cambio estructural en 1981,
\ = 55,56 + 0,0327Ao + 52,47Dummy 0,0265Dummy Ao,
ln(PIB)

2005

58

Captulo 3. El modelo clsico de regresin lineal (MCRL)

tiene un contraste F asociado a H0 : 0 = 1 = 0 de F2;41 = 83,885, cuya significancia


es prcticamente cero (3,23 1015 ).
Fjese que el resultado de la regresin auxiliar corresponde al resultado obtenido el segundo y tercer modelo de la tabla 3.9 (sume a la constate y a la pendiente los
coeficientes asociados a Dummy y obtendr el resultado de la regresin para 1981-2005).
Pendiente: ejemplo outliers.

También podría gustarte