Está en la página 1de 8

EL MODELO

Sea Y una variable dependiente


y K-1 variables explicativas:
X2, X3, .... XK
Es decir:

Y  1   2 X 2  3 X 3  .....   K X K  U
Miriam Camacho V.

EL MODELO: Supuestos del Modelo de Regresión Lineal


y Evaluación Econométrica
En el modelo:
MCO dará las mejores estimaciones si se cumplen
Y  1   2 X 2  3 X 3  .....   K X K  U los siguientes supuestos sobre el término u:

Los parámetros  1,  2, …,  K son • Valor esperado de u es 0: E(ui) = 0


desconocidos y deben ser estimados • Varianza de u es constante: E[ui2]=2
El método más utilizado es el de MCO y
permite obtener la recta mínimo cuadrática
• Los términos de perturbación no están
correlacionados entre sí. E[ut ut+s]=0
Yˆ  ˆ1  ˆ2 X 2  ˆ3 X 3  .....  ˆK X K • u y Xk no están correlacionadas
• No existe Multicolinealidad
donde : ˆ1 , ˆ2 ,..., ˆK , son los estimadores de MCO
• U se distribuye normalmente

1.1 NATURALEZA DE LA HS Y SUS CONSECUENCIAS 1.4 NATURALEZA DE LA HETEROCEDASTICIDAD


Y SUS CONSECUENCIAS
En el modelo en su forma matricial los supuestos
anteriores se pueden expresar de la sigte manera: En el modelo
i) El modelo es lineal
Y = X + U
Y = X + U
Nos ocuparemos del supuesto
ii) E[U]=0
 2
0 ... 0  E[UU’]= ² In,
iii) E[UU’]= ² In,  
 0  2 ... 0  O lo que es lo mismo:
O lo que es lo mismo: E[UU ' ]   ... 
 ... ... ...  2 0 ... 
0
 0
 0 ...  2   
 0 2 ... 
0
iv) X es un conjunto de números fijos E[UU ' ]   
v) Rango de X =K< n  ... ... ... ...

 0 2
...  
 0
vi) U  N( 0, 2In)

1
En el caso de un modelo de dos En el modelo del Consumo en función del
variables: ingreso:
f(u) Consumo

f(u)
Y

A medida que aumentan los ingresos la variabilidad


X de los términos de perturbación aumenta.

2000
1.4 NATURALEZA DE LA HS Y SUS
CONSECUENCIAS
Ci=  1 +  2Yi + ui 1800

1600 Otras situaciones:


1400 i) A medida que los ingresos aumentan, la gente
tiene mayor oportunidad de elegir cómo disponer
de ellos, de ahí que la variabilidad tiende a
C 1200
o

aumentar con el ingreso.


n
s 1000
u
m
o 800 ii) Las empresas con grandes utilidades tienden a
(
B 600
presentar más variabilidad en cuanto a sus
s
. políticas de reinversión que las de menores
) 400
0 400 800 1200 1600 2000 2400 2800
utilidades.
Ingreso (Bs.) iii) A medida que la gente aprende de sus errores,
A medida que aumentan los ingresos la variabilidad del estos van disminuyendo en el tiempo. Esto significa
que a medida que la variable independiente
Consumo aumenta.
aumenta, la varianza de los errores disminuye.
 La varianza de u aumenta  E[ui Xi] =Cov[ui Xi ] 0

1.4 NATURALEZA DE LA HS Y SUS


CONSECUENCIAS Consecuencias
Otras situaciones: i) Los estimadores de MCO siguen siendo insesgados y
consistentes, pero ya no son eficientes, para ningún
iv) En el modelo de la producción (Y) en función de las tipo de muestra (grande o pequeña).
horas de trabajo, el volumen de producción mensual
ii) El estimador de u² subestima el valor de la
tiende a ser el mismo.
varianza y, en consecuencia, el estimador de los
v) A medida que las técnicas de recolección de la errores estándar de los estimadores de MCO
información mejoran, la varianza de Ui tiende a estarán subestimados. Recuérdese que la matriz de
disminuir. varianzas y covarianzas del estimador mínimo
cuadrático es:
v) Se puede producir heterocedasticidad
presencia de valores atípicos.
por la 2

Var[ ˆ ]   2 ( X ' X ) 1... y...Sˆ 2 


e i

vi) También por error de especificación (exclusión de


nK
variables relevantes). O en el caso del modelo de dos variables:

 No es alejado de la realidad suponer que la Var[ ˆ2 ] 


2
Var[ ˆ1 ]   2
X i
2

Heteroscedasticidad se produce cuando E[XkiUi]  0. (X i  x) 2


n ( X  x )
i
2

2
Consecuencias 1.5 Pruebas para detectar
iii) En consecuencia, las pruebas t y F no son Heteroscedasticidad
confiables, se obtendrían conclusiones.
Para corregir un modelo con perturbaciones
Erróneas.
heterocedásticas, se deben hacer supuestos
Recuérdese que el estadístico de prueba es sobre la forma en que están relacionadas
de la forma: ˆ Var[ui] y la(s) variable(s) explicativa(s).
tk  k
0
Sˆˆk Las formas más usuales son:
ˆ 2

F
y i
K 1
2
• i²=²Xki2
e i
nK
iv) Las estimaciones son poco precisas, puesto • i²=²Xki
que los intervalos de confianza se obtienen: • i²=² + Xki
ˆk  t 2 Sˆˆk

1.5 Pruebas para detectar Heteroscedasticidad


1.5 Pruebas para detectar Heteroscedasticidad
i) Método gráfico:
i) Método gráfico:
Dado que no se conoce a-priori la naturaleza de la Hs,
se puede hacer un análisis de los cuadrados de los
errores. Si presentan algún patrón de comportamiento.

ei2 ei2
ei2 ei2 ei2

X ki , Yˆi X ki , Yˆi
X ki , Yˆi X ki , Yˆi
X ki , Yˆi

1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
i) Método gráfico ii) Prueba de Park
Ejemplo: El nivel de
mortalidad infantil Park formaliza el método gráfico, bajo el supuesto:
depende de las  i2   2 X i ev i

TMIi  1   2 IPi  U i
Condiciones de vida: Ln  Ln  LnX i  vi
i
2 2

Basta probar la significación estadística de 


Se cuenta con la
información de los 314 Ho: =0 (Homoscedasticidad) H1: 0 (Heteroscedasticidad)
municipios en el año
2001 y se obtuvo el
siguiente gráfico:. Dado que  i2 es desconocida, se corre la siguiente regresión

Lnei2  Ln 2  LnX i  vi

3
1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
ii) Prueba de Park iii) Prueba de Glejser
En el Ejemplo: Similar a la prueba de Park. Se propone las siguientes
relaciones:
Ho: =0 (Homoscedasticidad) H1: 0 (Heteroscedasticidad)  ei  1   2 X ki  vi
 ei  1   2 X ki  vi
Lnei2  Ln 2  LnX i  vi
1
 ei  1   2  vi
X ki
 ei  1   2 X ki  vi
 ei  1   2 X ki2  vi

El problema es que el término vi es Hs y Ac.


 Existe heterocedasticidad
En la práctica este método es utilizado en muestras grandes

1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
iv) Prueba Goldfeld-Quandt iv) Prueba Goldfeld-Quandt
Para casos en que i2 está correlacionada positivamente
con alguna de las variables explicativas. Procedimiento:
 i2   2 X ki
2
1º Ordenar en orden ascendente de la variable
explicativa que se supone causa la HS.
Ho: Las perturbaciones son homocedásticas 2º Omitir d observaciones centrales (alrededor de
H1: Las perturbaciones son heterocedásticas 1/5 parte)
Consiste en correr dos regresiones. 3º Ajustar dos regresiones separadas con todas las
Estadístico de prueba: variables y obtener SCR1 (de las observaciones más
bajas) y SCR2 (con las observaciones más altas)
SCR2
F  F n d 2 K n d 2 K  4º Realizar la prueba
SCR1 
 2
;
2

Si las Ui  N

1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
iv) Prueba Goldfeld-Quandt iv) Prueba Goldfeld-Quandt
Para el ejemplo: Ho: Homosedasticidad) H1: Heterocedasticidad
Para la primera regresión:
Estadístico de prueba:
SCR2
F  F 31462 2*2 31462 2*40 
SCR1 
 20
;
2

SCR2 63536.684
F   230
Para la segunda regresión: SCR1 27584.885

Cuál es la conclusión?

4
1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
v) Prueba Breusch-Pagan-Godfrey (BPG) v) Prueba Breusch-Pagan-Godfrey (BPG)
Para muestras grandes. Se supone que i² es función Procedimiento:
de un grupo de variables no estocásticas (Todas o
1º Obtener los residuos ei de la regresión MCO
algunas de las variables explicativas) 2
2º Obtener: ei
 i2  1   2 Z 2i  3 Z3i  .....   m Z mi  vi ~ 2  
n
Si 2= 3= …. m= 0  i²= 1 Constante (Homosc.) 2
3º Construir la variable: e
pi  ~i 2
Se puede plantear la prueba: 
4º Correr la regresión:
Ho: 2= 3= …. m=0 H1: Por lo menos uno 0
(Homoscedast.) (Heteroscedasticidad) Pi = 1 + 2 Z2i + 3Z3i +…. mZmi+ vi

1.5 Pruebas para detectar Heteroscedasticidad


1.5 Pruebas para detectar Heteroscedasticidad
v) Prueba Breusch-Pagan-Godfrey (BPG)
v) Prueba Breusch-Pagan-Godfrey (BPG)
Procedimiento: Ejm. En el modelo: TMIi= 1+2Anmuj+ 3IPi + Ui
5º Obtener la suma de cuadrados de los residuos o Para obtener la suma de cuadrados de los residuos
no explicada, y el estadístico de prueba: ANOVAa

Modelo Suma de cuadrados gl Media cuadrática F Sig.

1
  SCR
1 Regresión 58471,000 2 29235,500 99,861 ,000b

Si Ui  N    aprox 2 (m-1) 2 Residuo 91048,783 311 292,761

Total 149519,783 313

2(m-1)
a. Variable dependiente: tmi

b. Predictores: (Constante), INDICE POBREZA, anfem

2º Obtener:
3º Crear los valores Pi
No se Rechaza Ho Se Rechaza Ho 4º Correr la regresión:
Homoscedast. Heteroscedast. Pi = 1 + 2 Z2i + 3Z3i +…. mZmi+ vi
 2 2 Por Ejm.: Pi= 1+2anmuji+3anmuji2+4 IPi+5IPi2 + vi
0

1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
v) Prueba Breusch-Pagan-Godfrey (BPG) v) Prueba Breusch-Pagan-Godfrey (BPG)

Ho: 2= 3= …. m=0 H1: Por lo menos uno 0


Se puede realizar esta
(Homoscedast.) (Heteroscedasticidad) prueba en EVIEWS:

1 1186.784 Procedimiento: Una vez


  SCR   593.4 corrida la regresión View
  aprox  2(5-1) 2 2
Residuals diagnostics
2(4) Breusch Pagan Godfrey

El problema es que corre la


siguiente regresión:

No se Rechaza Ho Se Rechaza Ho
Homoscedast. Heteroscedast. ei2 = 1 + 2 Z2i + 3Z3i + …. mZmi+ vi
 Existe HS En lugar de Pi, con el cuadrado de los errores
0 9,49

5
1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
vi) Prueba General de White vi) Prueba General de White
No exige la normalidad de los errores. Ejemplo: Para dos variables
Sea el modelo: Yi  1   2 X 2i  U i
Yi  1   2 X 2i   3 X 3i  U i
La regresión: e  1   2 X 2i   3 X 22i  vi
2
Procedimiento: i

1º Obtener los residuos ei


2(3-1)
2º Obtener R2 de la siguiente la regresión:
ei2  1   2 X 2i  3 X 3i   4 X 22i  5 X 32i   6 X 2i X 3i  vi No se Rechaza Ho Se Rechaza Ho
Homoscedast. Heteroscedast.
3º Bajo Ho: Homosc (2=3=...=m=0) H1: Heteros.
0.05
Si n es grande  n R2   (m-1)2
0 5.99 2

1.5 Pruebas para detectar Heteroscedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
vi) Prueba General de White vi) Prueba General de White
Ejemplo: La siguiente tabla contiene información Para el ejemplo:
sobre los gastos en alquiler y los ingresos
familiares de 40 hogares.
Alqi  1   2 Ingi  U i
Procedimiento:
1º Obtener los residuos ei
Ingresos(Bs.) Gastos mensuales en Alquiler (Bs.)
1000 225 200 175 225 175 230 190 200

2º Obtener R2 de la siguiente la regresión:


2000 300 350 375 400 325 300 390 400
3000 475 350 475 500 500 380 420 490
4000 600 700 650 500 550 600 750 450
5000 700 1000 900 500 600 650 580 600
ei2  1   2 Ingi   3 Ingi2  vi
El modelo a estima sería el siguiente: 3º Bajo Ho: Homosc (2=3=0) H1: Heteros.
Si n es grande  n R2   (m-1)2
Alqi  1   2 Ingi  U i

1.5 Pruebas para detectar Heteroscedasticidad 4.3.2 Pruebas para detectar Heterocedasticidad

vi) Prueba General de White vi) Prueba General de White


Con el Eviews, para el modelo:
Para la regresión: e  1   2 Ingi   3 Ing  vi
2
i
2
i TMIi  1   2TAFi  3 IPi  U i
Con los datos de
Cochabamba, la salida
incluyendo términos
cruzados sería:
2(3-1)
n R2 =40*0.331
Procedimiento: Una vez
=13.24 No se Rechaza Ho Se Rechaza Ho corrida la regresión View
Homoscedast. Heteroscedast. Residuals diagnóstics
White Heteroskedasticity
0.05 Test (cross terms)
 Existe HS
0 5.99 2 ¿Cuál es la conclusión???

6
4.3.2 Pruebas para detectar Heterocedasticidad 1.5 Pruebas para detectar Heteroscedasticidad
vi) Prueba General de White
vii) Prueba de correlación por rangos
Para el ejemplo:
TMIi  1   2TAFi  3 IPi  U i Prueba no paramétrica. Se basa en el coeficiente de
correlación por rangos de Spearman.
La salida SIN Estadístico de prueba: n2
t  rs  t( n  2)
términos cruzados 1  rs2
sería:
t(n-2) Donde : rs  1  6
d i
2

n(n  1)
2

Procedimiento: Una vez di  rangoX ki  rango ei


corrida la regresión View
Residuals diagnostics Heterosc. Homosced. Heterosc.
White Heteroskedasticity
Test (no cross terms)

¿Cuál es la conclusión??? -t/2 0 t/2 t

1.5 Pruebas para detectar Heteroscedasticidad

Rango de una variable vii) Prueba de correlación por rangos


Para el ejemplo:
rs  1  6
d i
2

 1 6
4237.5
 0.594
X
X Rx
Rx n(n 2  1) 40(40 2  1)
10
10 1 40  2
12 t  0.594  4.5517
12 2
1  0.594 2
15
15 3,5 t(38)
15
15 3,5
17
17 5
20
20 6
28
28 8 Heterosc. Homosced. Heterosc.
28
28 8
28
28 8
30
30 10
-1.96 0 1.96 4.55 t

1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST. 1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST.

Dos enfoques para remediar la heterocedasticidad: i) i²=²Xki2 o lo que es lo mismo:

a) Cuando se conoce cada i2: Var(Ui)= E[Ui2] = 2 Xki2 (Xki, la variable que se
Se puede utilizar el método llamado Mínimos Cuadrados supone está causando la heteroscedasticidad)
Ponderados. Sin embargo, en los estudios
econométricos, esto es muy poco frecuente, por lo Se debe verificar si transformando el modelo se
que este método no es aplicable. soluciona la heteroscedasticidad.

b) Cuando no se conoce i2: Sea el modelo de dos variables:


En la práctica, se debe recurrir a hacer algunos
supuestos sobre i2, para transformar el modelo de Yi  1   2 X 2i  U i
regresión original. Los más usuales son: Yi
 1
1 X U
  2 2i  i
X 2i X 2i X 2i X 2i
i) i²=²Xki 2

ii) i²=²Zi2
Yi *  1 X 2i   2  U i
* *
iii) i²=²( 1 +  2 X2i + Ui)2

7
1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST. 1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST.

i) i²=²IPi2 i) i²=²Xki2 o lo que es lo mismo:


Var(Ui)= E[Ui2] = 2 Xki2

TMIi  1   2 ANFEM i   3 IPi  U i  Ui  1


Dado que: Ui*=Ui/Xki  Var   2
Var[Ui]
TMIi 1 ANFEM IP U  X 2i  X 2i
 1  2  3 i  i
IPi IPi IPi i IPi IPi
Pero: Var[Ui]   2 X 2
2i

 Var[Ui* ]   2 ...i
 0.138 i * IPi 
TMIi 1 ANFEM IP
 38.40  0.9
IPi IPi IPi i IPi
Se obtiene un nuevo término de perturbación
TMIi  38.40  0.90 ANFEM i  0.14 IP
Homoscedástico

1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST. 1.6 SOLUCIONES AL PROBLEMA DE HETEROSCEDAST.

ii) En general: i²=²Zi2 Donde Zi, es conocida y es iii) Modelo de Prais y houthaker: i²=²( 1+  2Xi)2
función de las variables explicativas Pero como no se conoce ( 1+  2Xi) se tiene que
En el caso de dos variables: estimar.

Yi  1   2 X i  U i 1º Estimar el modelo como si no existiese HS


2º Transformar el modelo:
Yi 1 X U
 1   2 2i  i Yi 1 X 2i Ui
Zi Zi Zi Zi  1  2 
Yi  1Zi   2 X  U i
* * * * ˆ1  ˆ2 X i ˆ1  ˆ2 X i ˆ1  ˆ2 X i ˆ1  ˆ2 X i
2i
Yi 1 X U
Yˆi*   1   2 2i  i
  Ui  1
 Var U i*  Var    2 Var[Ui] Yˆi Yˆi Yˆi Yˆi
 Zi  Z i  Ui 
 
 Var U i*  Var 
ˆ ˆ  ˆ ˆ
1
Var[Ui]
Como:  1   2 X i  ( 1   2 X i )
2

2 2 1
 
Var U i    Z i  Var U  2  2 Z i   2 ..i
* 2 Como:
 
i
Var U i    2 ( ˆ1  ˆ2 X i ) 2  Var U i* 
Zi 1
 2 (ˆ1  ˆ2 X i ) 2   2 ..i
( ˆ1  ˆ2 X i ) 2

Corrección por el Método de White

Antes de correr la regresión: Options White

También podría gustarte