Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conceptos:
Que se busca con la Modelacin Economtrica?
Proceso de Modelacin Economtrica
I. Repaso de Herramientas Matemticas para el curso de Econometra
1.1lgebra Matricial
1.2Geometra Matricial
II. Repaso de Herramientas Matemticas para el curso de Econometra
2.1Conceptos
2.2Caractersticas ms importantes de una distribucin de probabilidad
Media o Esperanza Matemtica E(X)
Varianza
Funcin de Distribucin
Funcin de Distribucin Acumulada (FDA)
Funcin de Distribucin Acumulada (FDA)
La distribucin Normal
La distribucin Normal Estndar
Distribucin t.
Distribucin F
Distribucin Chi Cuadrada
ndice de Asimetra (Skewness)
Indice de Curtosis (Kurtosis)
Estadstico Jarque Bera:
Varianza y Esperanza Condicional
III.Mtodo de Mnimos Cuadrados Ordinarios (Relacin entre dos variables)
3.1Anlisis grfico de Relacin entre dos variables
3.2El modelo de Regresin Lineal de Dos Variables
A.)
B.)
Utilizacin de ratios
Econometra I
Conceptos:
Es la combinacin de aspectos matemticos y tcnicas estadsticas con el objetivo de obtener
aproximaciones de las relaciones Terico-Cuantitativas y/o Emprico-Cuantitativas de los
postulados de las teoras econmicas.
William H. Greene1
La econometra se basa en la aplicacin de tcnicas matemticas y estadsticas al anlisis de las
relaciones postuladas por la teora econmica.
Juan Francisco Castro y
Roddy Rivas Llosa2
Que se busca con la Modelacin Economtrica?
Simplificar la realidad
Teora econommica/
Intuicin
Modelo Economtrico
Verificacin de Supuestos
Prediccin
Evaluacin de Polticas
1 Anlisis Economtrico
2 Econometra Aplicada
I.
lgebra Matricial
Una matriz es una coleccin de nmeros ordenados rectangularmente, que designamos
como:
a11
a
21
a12
a 22
aik ]=[A] = a n1
ik
an2
a31
A=[
a32
a13 a1k
a 23 a 2 k
a 33 a 3k
a n 3 a nk
a1
a2
a3 a K
a1k
a
2 k
a k a3k
M
ank
Algunos tipos especiales de matrices
Matriz simtrica.-
Matriz escalar.-.- Es una matriz diagonal con el mismo valor en todos los
elementos de la diagonal.
Matriz identidad.-
Matriz Cero [0].- Es aquella que tienes ceros en todos los elementos de la
matriz.
Matriz Columna o Vector.- Es aquel arreglo de nmeros que solo tiene una
columna y puede tener n filas, generalmente para denominar o nombrar a los
vectores o matrices columna se les asigna letras en minscula.
aik a ki , i, k
Matriz Columna [i] o Vector [i].- Es una matriz columna con dimensin (nx1)
o en su defecto de n filas, en las que todos sus valores son uno.
Suma de Matrices.- Para que dos matrices puedan sumarse es necesario que
tengan la misma dimensin. (matrices conformables para la suma). Esta
operacin tambin se extiende a la resta de matrices.
C = A+ B
A+0 = A
A+B = B+A
(A+B)+C = A+(B+C) = (A+C) + B
a' b a1b1 a 2 b2 a3 b3 a n bn
(A * B) * C A * (B * C) (A * C) * B
Ley Asociativa
Transpuesta de A
(A+B+C)=A + B + C = C + B + A
(ABC)=CBA
D=D si D es una matriz simtrica
Sumas de Elementos
Las matrices y vectores proporcionan una forma particularmente conveniente de
representar sumas de elementos. Un instrumento til es el vector [i].
x
i 1
x1 x 2 x3 x n i ' x
k k k k k nk k (i' i)
i 1
n
kx
i 1
i 1
si k=1/n
n
nx
i 1
n
x
i 1
1
1
1
1
1 n
1
x1 x 2 x3 x n xi i ' x
n
n
n
n
n i 1
n
i ' x nx
Donde x es la media de X
Geometra Matricial
Vectores
Un vector es una secuencia ordenada de elementos colocados en forma de fila o
columna. Los elementos son generalmente nmeros reales o smbolos que
representan nmeros reales.
a1
a
2
a
A = 3
Vector Fila
B =
b1
b2
b3
a1
a
2
a
A= 3
Entonces
A =
a1
a2
a3
Combinaciones Lineales
La combinacin de dos operaciones de multiplicacin escalar y suma de vectores
proporciona un vector que es una combinacin lineal de los otros vectores.
A=
a1
a
2
a3
B=
b1
b
2
b3
a1
b1
a 2 b2
a3
b3
C=
Dependencia Lineal.- Un conjunto de vectores es linealmente dependiente si
cualquiera de los vectores en el conjunto puede ser escrito como una combinacin
lineal de los otros.
i y A no triviales
1 A1 2 A2 3 A3 n An 0 ;
A=
2
4
7
B=
4
8
14
2
4
4 8
7
14
0
0
0
2 4 0 (1)
4 8 0 (2)
7 14 0 (3)
1;
1 / 2
1;
1/ 2
2;
1
2;
1
1 A1 2 A2 3 A3 n An 0
1 , 2 3 n 0
2
M
3
5
N
1
M N 0
2
5
0
3
1
2 5 0 (1)
3 0 (2)
2
5
3 0
2
1
0 (3)
2
Espacio Vectorial.
Es el conjunto de vectores generados por dos o ms vectores linealmente
independientes.
10
II.
f ( x) Pr ob( X x)
Funcin de Probabilidad
0 Pr ob( X x) 1
f x 1
i
f x dx 1
i
f ( x) 0
E ( X ) f ( xi ).xi
i
E a a
E[ X i ] E[ X i ]
E[cXY ] cE[ XY ]
Varianza
Si X y Y no son v.a.i
:
var( X ) E ( X ) 2 x . f ( xi )
2
11
var a a
var( X ) E ( X ) 2 E[ X 2 ] 2 2
Prueba
E X E 2 X E E X 2 E X
E X 2 E X 2 E X
var( X ) E ( X ) 2 E X 2 2 X 2
2
var( aX b) a 2 var( X )
Prueba
var( aX ) E (aX aX ) 2 E a 2 ( X X ) 2
a E ( X X ) a var( X )
2
Cuando
las
cov( X , Y ) E X x Y y 0
Cuando las v.a. son independientes (X,Y dependientes)
cov( X , Y ) E X x Y y E XY x y xy
Funcin de Distribucin.- Para cualquier variable aleatoria x, la probabilidad de que
x sea menor o igual que v se indica por F(v). F(x), es la.
Funcin de Distribucin Acumulada (FDA) : variable aleatoria discreta.
F ( x) Pr ob( X x)
P[ X k ] f ( x)
X x
kx
F ( x) P[ X x]
f (t )dt
f ( x)
dF ( X )
dx
f x / , 2
La distribucin Normal :
1
e
2
2
1
x
12
x2
t[ n ] z
Distribucin t.
Distribucin F :
1
As
N
X i X
i 1
xn
F n1 , n 2 x1 n1
1
f x / 0,1
e 2
2
x2 n2
z N 0,1 z 2 X 2 1
tiene
una
distribucin
Simtrica
positiva,
Si As<0,
La variable
(moda>mediana> media)
tiene
una
distribucin
Simtrica
negativa,
1
N
X i X
i 1
N
JB
N k 2 1
2
S K 3
6
4
Estadstico Jarque Bera: Jarque Bera es un prueba
estadstica para probar si la serie sigue una distribucin normal o no, k representa el
nmero de coeficientes estimados
Ho :
H1 :
13
E Y \ X yf ( y \ x)
y
E Y \ X yf ( y \ x)dy
y
si y es discreta
Si y es continua
Var Y \ X E y E Y \ X \ X y E Y \ X f ( y \ x )
2
Var Y \ X E y E Y \ X \ X y E Y \ X f ( y \ x)dy
Discreta
Continua
Ejemplo 1:
X:
17
f (x)
1/5
18
2/5
19
1/5
20
1/5
Mediana : 18
1
2
1
1
E ( X ) * 17 * 18 * 19 * 20
5
5
5
5
E ( X ) 3,4 7,2 3,8 4 18,4
Media
Varianza Poblacional:
Desviacin Estndar
var( X ) E ( X ) 2
1
2
1
1
(17 18,4) * (18 18,4) * (19 18,4) * (20 18,4) *
5
5
5
5
0.392 0.064 0.072 0.512 1.04
Poblacional:
Varianza Muestral:
var( X ) E ( X ) 2
1
2
1
1
(17 18, 4) * (18 18, 4) * (19 18, 4) * (20 18, 4) * 1.3
4
4
4
4
ndice de Asimetra:
14
As
1
N
X i X
i 1
N
3
3
1 18 18.4
17 18.4
18 18.4
5 1.0198039 1.0198039
1.0198039
1
0.4
1.4
5 1.0198039 1.0198039
19 18.4
1.0198039
20 18.4
1.0198039
0.4
0.4
1.6
1.0198039
1.0198039 1.0198039
1
1
0.060 2.587 0.060 0.204 3.861 (1.358) 0.272
5
5
3
1 N X X
K i
N i 1
1 18 18.4 17 18.4
18 18.4
5 1.0198039 1.0198039
1.0198039
4
19 18.4
20 18.4
1.0198039
1.0198039
1
1
0.024 3.552 0.024 0.120 6.059 (9.778) 1.956
5
5
Estadstico Jarque Bera: Se distribuye como una chi cuadrada con dos
grados de libertad
JB
N 0
1
2
2
0.272 1.956 3 0.288682
6
4
Series: SER01
Sample 1 5
Observations 5
2.0
1.6
1.2
0.8
0.4
0.0
17.0
17.5
18.0
18.5
19.0
19.5
20.0
Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis
18.40000
18.00000
20.00000
17.00000
1.140175
0.271545
1.955621
Jarque-Bera
Probability
0.288682
0.865592
20.5
15
C
(consumo)
5
3
2
1
4
2
I(ingreso)
7 10
2
5
3
7
4
6
4
15
12
10
Funcin de Probabilidad
f(C\I)
0,20
0,40
0,20
0,20
0,25
0,25
0,50
0,33
0,33
0,33
0,50
0,50
0,5 1,66666667
0,75 2,33333333
2
2
6
5
0,6
0,8
0,2
0,8
Esperanza Condicional
Sumatoria
2,4
3,25
11
16
0,36
0,16
1,96
2,56
0,16
1,5625
0,0625
0,5625
0,5625
1
1
0
1
1
0,390625 0,33333333
0,015625 0,33333333
0,28125
0
0,5
0,5
0,6875 0,66666667
3.1
17
El grfico de dispersin entre dos variables grfica coordenadas a partir de las valores
que toman las variables en un determinado momento del tiempo, o variables que
pertenecen a una misma observacin.
c.) Coeficiente de Correlacin
r (
3.2
X X Y Y
Cov( X , Y )
)(
)/n
Sx
Sx
SxS y
En este el grfico de dispersin nos muestra los valores que toma el consumo dado
un valor del ingreso y los valores medios o esperanzas matemticas de todos los
consumos condicionados a los ingresos se puede expresar de la siguiente manera.
E[Y / X ] X
18
E[Y / X ]
i Yi E[Y / X i ] Yi X i
Supuestos que se deben cumplir para obtener estimadores MICO
E[ i ] 0
Var ( i ) E[ i2 ] 2
Cov( i , j ) E[ i j ] 0
Funcin de Regresin Muestral.- Dado que los datos no se obtienen de toda la
poblacin debido a que es muy costoso, toma mucho tiempo y es difcil la ubicacin
de todos los individuos de la poblacin. La toma de muestras representativas de la
poblacin y sus resultados sirven para inferir resultados para toda la poblacin, en
este sentido se obtiene estimadores que infieran los resultados de los parmetros
poblacionales.
Poblacin
B.)
PBI VS Poblacin
30.000,0
25.000,0
Y a bX
20.000,0
15.000,0
10.000,0
5.000,0
20.000
40.000
60.000
80.000
100.000
120.000
140.000
PBI
19
Y a bX
Donde a y b son estimadores de y que son parmetros de la poblacin.
3.3
Y a bX
e Y Y
n
Yi Yi Yi a bX i
i 1
i 1
i 1
i 1
i 1
i 1
X i (2)
a Y bX
Yi a bX i 2 0
i 1
i 1
Y X aX bX
i 1
i 1
ei
i 1
i 1
ei
Y a bX (1)
i 1
X Yi Y
Yi a bX i 2 X i 0
i 1
i 1
Cov( X , Y )
Var ( x)
i 1
rXY
i 1
rXY
X Yi Y
X
i 1
X
i 1
i 1
X Yi Y
i 1
n
n
Cov( X , Y )
Cov( X , Y )
S X SY
Var ( X )Var (Y )
rXY
S
Cov( X , Y ) S X Cov( X , Y ) S X
b X
S X SY
SX
Var ( x) S Y
SY
b rXY
SY
SX
Bondad de Ajuste
Descomposicin de la suma de Cuadrados en Desvos
x=X X
y=Y Y
; x en desvos
Y =a+bX +e
(1)
; x en desvos
20
Y =a+b X
.(2)
(1)-(2)
Y Y =b ( X X ) +e
y=bx +e
e= ybx
e 2= ( y bx )2
e 2= y 2 2b xy + b2 x 2
xy
Sabemos que: b=
x2
e 2= y 2 2b (b x 2)+b 2 x 2
e 2= y 2 b2 x 2
Despejando la sumatoria de desvos al cuadrado de la variable dependiente
y 2=b2 x 2 + e 2
Sabemos que:
Y^ =a+bX
Y^ =a+b X
(3)
.(4)
(3) (4)
Y^ Y^ =b ( X X )
^y =bx
^y 2=b2 x 2
y 2= ^y 2+ e2
..(5)
STC=SEC+ SRC
STC: Sumatoria total de desviaciones al cuadrado de la variable Y
STC: Sumatoria Explicada de cuadrado de la variable
SRC: Sumatoria Residual de cuadrados.
Dividiendo (5) entre STC
y 2 = ^y 2 + e2
y2 y2 y2
^y 2 : Coeficiente de Correlacin.
R 2=
y2
21
2
e
1=R +
y2
e2
R2=1
y2
2
s
y = r xy s y
x
2
( )
( )
x 2+ e2
sy
sx
y 2=r xy2
x 2+ e2
y 2=r xy2 y 2+ e 2
e2
1=r xy 2 +
y2
e2
r xy 2=1
y2
En Forma Matricial
e1 Y1 Y1 Y1 a bX i
e Y Y Y a bX
2
en Yn Yn Yn a bX n
e1
Y1 1 X 1
e
2 Y2 1 X 2 a
b
en
Yn 1 X n
e Y X
e1
e
2
en
Y1
Y
2
Yn
a bX 1
a bX
2
a bX n
e' e Y X ' Y X
e' e
X ' Y X * Y X ' X 0
22
X ' Y X * Y X ' X 0
2 X ' Y X 0
IV.
X ' Y X ' X 0
X ' X 1 ( X ' Y )
Dentro del estudio de la inferencia estadstica, se describe como se puede tomar una muestra
aleatoria y a partir de ella estimar el valor de un parmetro poblacional, para hacerlo es
necesario tener conocimiento de ciertos datos de la poblacin como la media, la desviacin
estndar o la forma de la poblacin, pero a veces no se dispone de esta informacin, en este caso
es necesario hacer una estimacin puntual que es un valor que se usa para estimar un valor
poblacional. Pero una estimacin puntual es un solo valor y se requiere un intervalo de valores a
esto se denomina intervalote confianza y se espera que dentro de este intervalo se encuentre el
parmetro poblacional buscado. Tambin se utiliza una estimacin mediante un intervalo, el
cual es un rango de valores en el que se espera se encuentre el parmetro poblacional.
4.1 Hiptesis Y Prueba De Hiptesis
Hiptesis es una aseveracin a priori de un valor que puede tomar un coeficiente.
En el anlisis estadstico se hace una aseveracin, es decir, se plantea una hiptesis, despus
se hacen las pruebas para verificar la aseveracin o para determinar que no es verdadera, la
prueba de hiptesis es un procedimiento basado en la evidencia muestral y la teora de
probabilidad; se emplea para determinar si la hiptesis es una afirmacin razonable.
Prueba de una hiptesis: se realiza mediante un procedimiento sistemtico de cinco paso:
Para que cualquier ensayo de hiptesis sea bueno, debe disearse de forma que minimice
los errores de decisin. En la prctica un tipo de error puede tener ms importancia que el
otro, y as se tiene a conseguir poner una limitacin al error de mayor importancia. La
nica forma de reducir ambos tipos de errores es incrementar el tamao de la muestra, lo
cual puede ser o no ser posible.
La probabilidad de cometer un error de tipo II denotada con la letra griega beta ,
depende de la diferencia entre los valores supuesto y real del parmetro de la poblacin.
Como es ms fcil encontrar diferencias grandes, si la diferencia entre la estadstica de
muestra y el correspondiente parmetro de poblacin es grande, la probabilidad de
cometer un error de tipo II, probablemente sea pequea.
El estudio y las conclusiones que obtengamos para una poblacin cualquiera, se habrn
apoyado exclusivamente en el anlisis de una parte de sta. De la probabilidad con la que
estemos dispuestos a asumir estos errores, depender, por ejemplo, el tamao de la
muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una
distribucin normal
Existe una relacin inversa entre la magnitud de los errores y : conforme a aumenta,
disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas
estadsticas. Lo ideal sera establecer y .En la prctica se establece el nivel y para
*
t
se( )
Paso 4: Formular la regla de decisin
Se establece las condiciones especficas en la que se rechaza la hiptesis nula y las
condiciones en que no se rechaza la hiptesis nula. La regin de rechazo define la
ubicacin de todos los valores que son tan grandes o tan pequeos, que la probabilidad de
que se presenten bajo la suposicin de que la hiptesis nula es verdadera, es muy remota
Distribucin muestral del valor estadstico z, con prueba de una cola a la derecha
Valor critico: Es el punto de divisin entre la regin en la que se rechaza la hiptesis
nula y la regin en la que no se rechaza la hiptesis nula.
Paso 5: Tomar una decisin.
En este ltimo paso de la prueba de hiptesis, se calcula el estadstico de prueba, se
compara con el valor crtico y se toma la decisin de rechazar o no la hiptesis nula.
Tenga presente que en una prueba de hiptesis solo se puede tomar una de dos decisiones:
aceptar o rechazar la hiptesis nula. Debe subrayarse que siempre existe la posibilidad de
rechazar la hiptesis nula cuando no debera haberse rechazado (error tipo I). Tambin
existe la posibilidad de que la hiptesis nula se acepte cuando debera haberse rechazado
(error de tipo II).
4.2 Significancia individual de una relacin economtrica
Dado el planteamiento de la funcin a regresionar:
f ( X ) Y X e
y si se cumple los principales supuestos de MCO tales como:
E[ i ] 0
Var ( i ) E[ i2 ] 2
Cov( i , j ) E[ i j ] 0
para explicar la implicancia de las variables independientes sobre las variables
dependientes se debe probar que
(estadsticamente diferente de cero).
es
estadsticamente
significativa
Ho : 0
Estadsticamente significativo
Ha : 0
Estadsticamente no significativo
se( ) se( )
f ( X ) Y 1 X 1 2 X 2 3 X 3 e
De la anterior especificacin economtrica se puede identificar 3 aspectos que podran hacer
que la estimacin de la variable dependiente (Y) no sea correcta.
, 1 , 2 , 3 Los coeficientes
y los errores (e )
, , ,
1
2
3 , son
La especificacin economtrica asume que los coeficientes
constantes e invariantes una ves calculado, pero existen situaciones en las que es
frecuente toparse con coeficientes con cambios estructurales repentinos, o por el
contrario, con evoluciones lentas debidas a cambios en el entorno social o ambiental.
El grfico de residuos
frente a predicciones
El grfico de residuos
El grfico de residuos
frente a una variable explicativa omitida
. En
muchas ocasiones se intuye que se debera incluir un trmino cuadrtico o una
interaccin (producto) de variables explicativas, siendo razonable hacer el grfico
de los residuos frente a variables como xij2 o xij . xik.
El grfico de residuos
frente a la variable ndice o tiempo
si las
observaciones son recogidas secuencialmente y se sospecha que el tiempo puede
ser una variable regresora.
.
.
V.
e1 Y1 1 X 1
e Y 1 X 0
2
2 2
k
en Yn 1 X n
e Y
X .
e1
e2
E ee' E e1
en
E e1e2
E e1e3
E e2 e1
E e2 e2
E e2 e3
E e3 e 2
E e3 e3
E en e2
E e n e3
E ee' E e3 e1
E e e
n 1
e1e n
e2 e1
e2 e2
e2 en
e3 e 2
e3 e n
e n e2
e n E e3 e1
e e
n 1
E e1e1
e1e 2
e2
e1e1
cov(ei , e j ) E ei e j 0
e n e n
var( ei ) E ei2 2
E e1en
E e 2 en
E e3 e n
E en en
E en en
5.1 Autocorrelacin
E ei e j cov( ei , e j ) 0 i j
Expresando en forma sencilla el modelo clsico supone que un trmino de
perturbacin cualquiera no esta influenciado por algn otro.
Por ejemplo si se esta tratando con informacin trimestral de series de tiempo para
efectuar una regresin de la produccin sobre los insumos trabajo y capital y si por
ejemplo hay una huelga laboral que afecta la produccin en un trimestre, no hay
razn para pensar que esta interrupcin afectara la produccin del trimestre
siguiente. Es decir, si la produccin es inferior este trimestre, no hay razn para
esperar que esta sea baja en el siguiente trimestre. En forma similar, si se esta
tratando con informacin de corte transversal que involucra la regresin del gasto de
consumo familiar sobre el ingreso familiar, no se espera que el efecto de un
incremento en el ingreso de una familia sobre su gasto de consuma incida sobre el
gasto de consumo de otra.
u,u
tiempo u,u
tiempo u,u
u,u
Fig.1.1
Fig.1.2
u,u
tiempo u,u
Fig.1.3
Fig.1.4
u,u
tiempo u,u
tiempo
u,u
Fig.1.5
5.1.1
Causa De Autocorrelacin
Inercia: Como bien se sabe las series de tiempo tales como el PNB los ndices
de precio la produccin el empleo y el desempleo presentan ciclos (econmicos).
Empezando del fondo de la recesin cuando se inicia la recuperacin econmica,
la mayora de estas series se empiezan a moverse hacia arriba entonces el valor
de una serie en un punto del tiempo es mayor que su valor anterior, por ejemplo
un aumento en la tasa de inters o en los impuestos o ambos.
Sesgo De Especificacin: Caso De Variables Excluidas:
La exclusin de variables explicativas relevantes puede ocasionar problemas de
autocorrelacin. Frecuentemente la inclusin de tales variables elimina el patrn
de correlacin observado entre los residuales. Por ejemplo supngase que se
tiene en el siguiente modelo de demanda:
Fenmeno De La Telaraa:
Rezagos:
En una regresin de series de tiempo en el gasto de consumo sobre el ingreso, no
es extrao encontrar que el gasto de consumo en el periodo actual dependa, entre
otras cosas, del gasto de consumo del periodo anterior. Es decir una
autoregresin porque una de las variables explicativas es el valor rezagado de la
variable dependiente.
Datos Agregados:
En el anlisis emprico los datos simples son frecuentemente manipulados. Por
ejemplo en las regresiones de series de tiempo que contienen informacin
trimestral, esa informacin generalmente se deriva de informacin mensual
agregando simplemente las informaciones de 3 meses y dividiendo la suma por
3. Dicho procedimiento de promediar cifras introduce cierto suavizamiento de
datos al eliminar las fluctuaciones en la informacin mensual. Por consiguiente
la grafica trimestral aparece mucho mas suave que la grafica analizado
mensualmente y este suavizamiento puede inducir a un patrn sistemtico en las
perturbaciones, introduciendo con esto autocorrelacin.
5.1.2
Consecuencias:
Como en el caso de la heterocedasticidad, en presencia de autocorrelacin los
estimadores MCO continan siendo lineales-insesgados al igual que
consistentes, pero dejan de ser eficientes.
5.1.3
Deteccin De La Autocorrelacin:
(u
t 2
u t 1 ) 2
t n
u
t 2
u u
u
t
2
t
2
t
u t21 u t u t 1
2
t
2(1
u u
u
t
t 1
2
t
) 2(1 )
t 1
2
t
Coeficiente de correlacin
No se rechace H0 o H0 o ambas
d
dL
dU
4- dU
4- dL
2
5.2 Heterocedasticidad. E ei ' ei var( ei ) I
Causas
La Heteroscedasticidad surge normalmente en datos de seccin cruzada donde la
escala de la variable dependiente y el poder explicativo de la tendencia del modelo
varia a lo largo de las observaciones. En muchos casos los datos microeconmicos,
como los estudios de gasto de las familias, presentan este comportamiento.
Intuitivamente la presencia de diferente varianza para diferentes observaciones se
pueden ejemplificar en las siguientes causas.
Razones de escala
Distribucin espacial
Aprendizaje de los errores
Menores restricciones de eleccin. Mejoras en la Informacin
Observaciones Influyentes
Problemas de especificacin
5. 2 . 2 Consecuencias
Con presencia de heteroscedasticidad, los estimadores mnimo cuadrtico
seguirn siendo insesgados dado que E(U)=0 y las variables explicativas son
no estocsticas o independientes de los errores, por lo tanto E(XU)=0, pero
dado que la varianza al no ser constante se invalidan las pruebas de
significancia estadstica en especial las pruebas de la distribucin t-Student y
F de Fisher-Snedecor.
Por lo tanto, los principales problemas seran:
Estimadores ineficientes.
5.3 MULTICOLINEALIDAD
e1
Y1 1
e2
Y2 1
en
Yn 1
e
X 11
X 21
X 12
X 22
X 1n
X 2n
X K1
0
X K2
k
X Kn
.
X i k
(2)
5.3.2
Consecuencias De La Multicolinelidad
1
r
32
R r42
.....
r12
r24
1
r43
.....
r13
r24
r34
1
.....
r14
.....
.....
.....
.....
.....
r21
r31
r41
.....
1
k:
n:
(rmax ) n k 1 ~
t n k 1
1 rmax
X i k
Var ( j )
T (1 R 2j ) S 2j
.(1)
S el regresor j-simo fuera ortogonal con respecto a los dems regresores (es
decir, si la correlacin con el resto de los regresores fuera nula), la frmula
para la varianza quedara reducida a:
2
Var ( *j )
Donde:
TS 2j
.(2)
R 2j
S 2j
1
FIV ( j )
1 R 2j
.. (3)
Entonces es una medida de qu tan severa es la dependencia lineal de Xi con
2
2
respecto a las dems X . Por ejemplo, si, Ri 0.5 , =2; si Ri 0.999 ,
i
=1000.
2
En la prctica, un >10 ( Ri 0.9 ), se considera problemtico.
R2
El problema que tiene el FIV (o el j o la tolerancia) es que no suministra
ninguna informacin que pueda utilizarse para corregir el problema.
v. Nmero de Condicin8 (Tamao de la Matriz XX)
Una medida de qu tan problemtica es la multicolinealidad aproximada es el
nmero de condicin de la matriz. En particular, para una matriz cuadrada, A,
ste se define como:
max
IC k ( X )
K
min
El indice de condicin, (X), es igual a la raz cuadrada de la razn entre la
raz caracterstica ms grande ( max) y la raz caracterstica ms pequea (
min) de la matriz XX,
Como la matriz XX es de dimensin kk se obtienen k races caractersticas9,
pudindose calcular para cada una de ellas un ndice de condicin definido de
la siguiente forma:
El hecho de que el valor propio ms pequeo sea cercano a cero en relacin
al ms grande significa que la matriz es cuasi singular. Una matriz con un
nmero de condicin grande (>20) es difcil de invertir de manera exacta.
8 Fue planteado inicialmente por Rachudel (1971) y desarrollado posteriormente por Belsley et al.
(1980), y Belsley (1982).
9 Para matrices no cuadradas, tal como Xnxk, calculamos el nmero de condicin de XX. Debido a que
los valores propios son sensibles a la escala de las variables, se recomienda dividir cada columna, xi, por
su norma, , a fin de que tenga un largo igual a 1.
100
Multicolinealidad severa
max
K 1000
min
; Multicolinealidad entre modera y fuerte
max
1000
min
;
Multicolinealidad severa
2
xi ,Con las restantes
) /( n k 1)
~ F k 2, n k 1
:
Coeficiente de determinacin en la regresin de alguna X k
con las restantes incluidas en el modelo.
k:
Nmero de parmetros incluyendo el intercepto.
n:
Nmero de observaciones
La regla de decisin es: Si F-calculado es mayor al F-tabulado a cierto nivel
de significacin (se rechaza la hiptesis nula, se dice entonces que la X k en
particular es colineal con las dems.
vii. Test Chi-Cuadrado (Test de Ortogonalidad)
10 El nmero de condicin mide la sensibilidad de las estimaciones mnimo cuadrticas ante pequeos
cambios en los datos. De acuerdo con los estudios realizados por Belsley y otros (op. cit.), y Belsley (op.
cit.), tanto con datos observados como con datos simulados, el problema de la multicolinealidad es grave
cuando el nmero de condicin toma un valor entre 10 y 30. Naturalmente, si este indicador superase el
valor de 30, el problema sera ya manifiestamente grave. Estos valores vienen generalmente referidos a
regresores medidos con escala de longitud unidad (es decir, con los regresores divididos por la raz
cuadrada de la suma de los valores de las observaciones), pero no centrados. Parece que no es
conveniente centrar los datos (es decir, restarles sus correspondientes medias), ya que esta operacin
oscurece cualquier dependencia lineal que implique al trmino independiente.
2
~ 2 k (k 1) / 2
calc
n 1
Ln R
R:
k:
n:
Ln:
2
2
La regla de decisin es: Si -calculado es mayor al -tabulado a cierto
nivel de significacin (se rechaza la hiptesis nula, se dice entonces que la X k
en particular es colineal con las dems.
b. Correccin
i. Mtodo de Pre-estimacin
Reestructurar el modelo en base a informacin previa.
Esto hace alusin al caso en que se cuenta con informacin a priori que
permite reducir la colinealidad entre algn par o conjunto de variables.
Supongamos el siguiente ejemplo para ilustrar este punto:
ln(Y t ) 0 1 ln(K t ) 2 ln (L t ) e t
Donde Yt =nivel de produccin, Kt = factor capital, Lt = factor trabajo.
Supongamos que Kt y Lt son altamente colineales. Sin embargo, se sabe, por
estudios previos, que la funcin de produccin presenta rendimientos
constantes a escala. Esto es,
. Por lo tanto, el modelo puede ser
1 2 1
simplificado a:
ln(Y t /L t ) 0 1 ln(L t /L t ) 2 ln(K t /L t ) e t
ln(Y t /L t ) 0 2 ln(K t /L t ) e t
Desgraciadamente, en la prctica no es usual contar con este tipo de
informacin.
r ( X ' X rD ) 1 X 'Y
Donde D es una matriz diagonal que contiene los elementos de la diagonal de
XX y r es un escalar escogido arbitrariamente. En la prctica, r se escoge de
modo tal que r sea estable frente a pequeas variaciones en ste. (Se
sugiere partir de un valor de r=0.01).
Aunque el estimador cresta es sesgado, tiene una matriz varianza covarianza
menor a la de MICO:
E ( r ) ( X ' X rD ) 1 X ' X
BIBLIOGRAFIA.Arellano, M. 2003. Panel Data Econometrics. Oxford University Press. (HB 139
A68)
Enders, W. 2003. Applied Econometric Time Series. 2nd Ed. Wiley and Sons Inc.
(HB 139 E57 2003)