Está en la página 1de 51

Contenido

Conceptos:
Que se busca con la Modelacin Economtrica?
Proceso de Modelacin Economtrica
I. Repaso de Herramientas Matemticas para el curso de Econometra
1.1lgebra Matricial
1.2Geometra Matricial
II. Repaso de Herramientas Matemticas para el curso de Econometra
2.1Conceptos
2.2Caractersticas ms importantes de una distribucin de probabilidad
Media o Esperanza Matemtica E(X)
Varianza
Funcin de Distribucin
Funcin de Distribucin Acumulada (FDA)
Funcin de Distribucin Acumulada (FDA)
La distribucin Normal
La distribucin Normal Estndar
Distribucin t.
Distribucin F
Distribucin Chi Cuadrada
ndice de Asimetra (Skewness)
Indice de Curtosis (Kurtosis)
Estadstico Jarque Bera:
Varianza y Esperanza Condicional
III.Mtodo de Mnimos Cuadrados Ordinarios (Relacin entre dos variables)
3.1Anlisis grfico de Relacin entre dos variables
3.2El modelo de Regresin Lineal de Dos Variables
A.)

Funcin de Regresin Poblacional

B.)

Funcin de Regresin Muestral

3.3Estimadores Mnimos Cuadrticos (caso 2 variables)


IV.Anlisis de Significancia de los estimadores (prueba de Hiptesis) y Contrastes de Errores de
especificacin
4.1Hiptesis Y Prueba De Hiptesis
4.2Significancia individual de una relacin economtrica

4.3Error de especificacin en un modelo economtrico.


4.3.1 Error de especificacin, problemas con las variables independientes (X).
4.3.2 Error de especificacin, problemas con las coeficientes (X).
4.3.3 Error de especificacin, problemas con las perturbaciones (e).
4.3.4 Deteccin de Errores de especificacin en un modelo economtrico.
V. Violacin a los Supuestos de Mnimos Cuadrados Ordinarios (Errores de especificacin
posibles problemas con los errores (e))
5.1Autocorrelacin
5.1.1 Causa De Autocorrelacin
5.1.2 Consecuencias:
5.1.3 Deteccin De La Autocorrelacin:
5.1.4 Medidas Remediales
5.2Heterocedasticidad.
5.2.1 Causas
5.2.2 Consecuencias
5.3Multicolinealidad
5.3.1 Causas De La Multicolinealidad
5.3.2 Consecuencias De La Multicolinelidad
A. Multicolinealidad Aproximada o Imperfecta
a. Identificacin
b. Correccin
B. Multicolinealidad Aproximada o Imperfecta
a. Identificacin
i. Mtodo De La Relacin Entre T Y R2
ii. Mtodo De La Matriz De Correlacin
iii. Mtodo De La Prueba t
iv. Correlacin entre Variables Explicativas: Se debe regresionar cada una de Nmero de
Condicin (Tamao de la Matriz XX)
v. Mtodo De La Prueba F
vi. Test Chi-Cuadrado (Test de Ortogonalidad)
b. Correccin
i. Mtodo de Pre-estimacin
ii. Mtodo de Estimador Cresta (Ridge)
iii. Mtodo de Componentes Principales
iv. Mtodo Exclusin de Variables Colineadas
v. Aumento del tamao de la muestra

vi. Utilizacin de informacin extramuestral


vii.

Utilizacin de ratios

Econometra I
Conceptos:
Es la combinacin de aspectos matemticos y tcnicas estadsticas con el objetivo de obtener
aproximaciones de las relaciones Terico-Cuantitativas y/o Emprico-Cuantitativas de los
postulados de las teoras econmicas.
William H. Greene1
La econometra se basa en la aplicacin de tcnicas matemticas y estadsticas al anlisis de las
relaciones postuladas por la teora econmica.
Juan Francisco Castro y
Roddy Rivas Llosa2
Que se busca con la Modelacin Economtrica?

Simplificar la realidad

Comprender y explicar las relaciones existentes en la realidad

Predecir acontecimientos para el futuro

Proceso de Modelacin Economtrica

Teora econommica/
Intuicin

Modelo Economtrico

Estimacin del Modelo

Verificacin de Supuestos

Inferencia sobre los Estimadores

Prediccin

Evaluacin de Polticas

1 Anlisis Economtrico
2 Econometra Aplicada

I.

Repaso de Herramientas Matemticas para el curso de Econometra

lgebra Matricial
Una matriz es una coleccin de nmeros ordenados rectangularmente, que designamos
como:

a11
a
21

a12
a 22

aik ]=[A] = a n1
ik

an2

a31

A=[

a32

a13 a1k
a 23 a 2 k
a 33 a 3k

a n 3 a nk

Muchas veces a una matriz se le conoce como un conjunto de vectores


A=
Donde

a1

a2

a3 a K

a k es el vector o columna k de la matriz A

a1k
a
2 k
a k a3k

M
ank
Algunos tipos especiales de matrices

Matriz cuadrada.-Es aquella en la cual el nmero de filas es igual al nmero


de columnas.

Matriz simtrica.-

Matriz diagonal.- Es una matriz cuadrada cuyos nicos elementos distintos de


cero aparecen en su diagonal principal.

Matriz escalar.-.- Es una matriz diagonal con el mismo valor en todos los
elementos de la diagonal.

Matriz identidad.-

Matriz Cero [0].- Es aquella que tienes ceros en todos los elementos de la
matriz.

Matriz triangular.- Es aquella que tienes ceros encima o bien debajo de la


diagonal principal. Si los ceros estn por encima de la diagonal, la matriz es
triangular inferior.

Matriz Columna o Vector.- Es aquel arreglo de nmeros que solo tiene una
columna y puede tener n filas, generalmente para denominar o nombrar a los
vectores o matrices columna se les asigna letras en minscula.

Matriz Fila o Vector fila.- Es la transpuesta de un vector o matriz columna.

Es aquella matriz en la cul

aik a ki , i, k

Es una matriz escalar con unos en la diagonal.

Matriz Columna [i] o Vector [i].- Es una matriz columna con dimensin (nx1)
o en su defecto de n filas, en las que todos sus valores son uno.

Algunas Operaciones con Matrices

Suma de Matrices.- Para que dos matrices puedan sumarse es necesario que
tengan la misma dimensin. (matrices conformables para la suma). Esta
operacin tambin se extiende a la resta de matrices.
C = A+ B

A y B Son matrices conformables y C es la resultante con la


misma dimensin

A+0 = A
A+B = B+A
(A+B)+C = A+(B+C) = (A+C) + B

Producto de Matrices.- Se define a partir del producto interno, este es el


producto de un vector fila por un vector columna y la resultante es un nmero
escalar.

a' b a1b1 a 2 b2 a3 b3 a n bn

Para multiplicar dos matrices, el nmero de columnas de la primera debe


coincidir con el nmero de filas de la segunda, en este caso decimos que ambas
matrices son conformables para el producto

C A * B B * A Donde A y B son conformables, B y A no necesariamente


son conformables.

(A * B) * C A * (B * C) (A * C) * B

Ley Asociativa

A * (B C) A * B A * C Ley Distributiva (premultiplicacin)


(B C) * A B * A C * A Ley Distributiva (postmultiplicacin)

Transpuesta de una matriz.- Es transformar la k-esima fila de una matriz por


su k-sima columna y este resultado se le asigna un apostrofe ().
Operaciones:
Si A, B, C y D son 4 matrices cualquiera y con dimensin apropiadas para
realizar las operaciones.
A=

Transpuesta de A

(A+B+C)=A + B + C = C + B + A
(ABC)=CBA
D=D si D es una matriz simtrica

Sumas de Elementos
Las matrices y vectores proporcionan una forma particularmente conveniente de
representar sumas de elementos. Un instrumento til es el vector [i].

x
i 1

x1 x 2 x3 x n i ' x

k k k k k nk k (i' i)
i 1
n

kx

kx1 kx2 kx3 kxn k xi ki' x

i 1

i 1

si k=1/n
n

nx
i 1
n

x
i 1

Entonces obtenemos la media aritmtica de X

1
1
1
1
1 n
1
x1 x 2 x3 x n xi i ' x
n
n
n
n
n i 1
n

i ' x nx

Donde x es la media de X

Geometra Matricial
Vectores
Un vector es una secuencia ordenada de elementos colocados en forma de fila o
columna. Los elementos son generalmente nmeros reales o smbolos que
representan nmeros reales.

a1
a
2

Vector Columna o Simplemente Vector

a
A = 3

Vector Fila

B =

b1

b2

b3

Un vector Fila se puede expresar como la transpuesta de un vector columna de la


siguiente forma:

a1
a
2

a
A= 3

Entonces

A =

a1

a2

a3

A es un vector columna, mientras que A es un vector fila 3

3 El Apostrofe en la parte superior derecha de A, indica la transpuesta de A

Combinaciones Lineales
La combinacin de dos operaciones de multiplicacin escalar y suma de vectores
proporciona un vector que es una combinacin lineal de los otros vectores.

A=

a1
a
2
a3

B=

b1
b
2
b3

Si A y B son dos vectores que tienen la misma dimensin, entonces se puede


construir un sin nmero de combinaciones lineales a partir de ellos.
C= .A+ .B

a1
b1

a 2 b2
a3
b3
C=
Dependencia Lineal.- Un conjunto de vectores es linealmente dependiente si
cualquiera de los vectores en el conjunto puede ser escrito como una combinacin
lineal de los otros.

i y A no triviales

1 A1 2 A2 3 A3 n An 0 ;

Ejemplo: Verificar si A y B son linealmente dependientes.

A=

2
4

7

B=

4
8

14

Para comprobar que A y B son linealmente dependientes debemos hacer la siguiente


operacin
0= .A+ .B

2
4
4 8
7
14

0
0
0

2 4 0 (1)
4 8 0 (2)
7 14 0 (3)

Del sistema de tres ecuaciones podemos encontrar un conjunto de resultados


posibles de los cuales:

1;
1 / 2

1;
1/ 2

2;
1

2;
1

Vectores Linealmente independientes.- Un conjunto de vectores es linealmente


independiente si y solo si se cumple:

1 A1 2 A2 3 A3 n An 0

1 , 2 3 n 0

Ejemplo: Verificar si M y N son dos vectores linealmente independientes.

2
M
3

5
N
1

M N 0
2
5
0
3
1

2 5 0 (1)
3 0 (2)

Despejando de (1) y Reemplazando en (2)

2
5
3 0
2
1
0 (3)
2

El nico valor para que satisface (3) es cero y


por lo tanto tambin ser cero.

Espacio Vectorial.
Es el conjunto de vectores generados por dos o ms vectores linealmente
independientes.

Si A y B son dos vectores linealmente independientes, entonces todas las


combinaciones lineales no triviales de A y B forman el espacio vectorial.

10

II.

Repaso de Herramientas Matemticas para el curso de Econometra


2.1 Conceptos
Variable.- Es una caracterstica cuantificable o cualificable de una entidad
cualquiera que puede tomar diferentes valores.
Variables Aleatorias.- Se dice que una variable es una variable aleatoria, porque el
valor de esta variable es incierta hasta que el experimento se lleve a cabo
Variable Aleatoria discreta.- Cuando el conjunto de realizaciones es finito o
infinito pero numerable.
Variable Aleatoria continua.- Cuando el conjunto de realizaciones es
infinitamente indivisible y por lo tanto no es numerable.
Distribucin de Probabilidad.- Es un conjunto de valores xi tomados de una
variable aleatoria X y sus probabilidades asociadas.

f ( x) Pr ob( X x)

Funcin de Probabilidad

Los axiomas de probabilidad para una variable aleatoria discreta:

0 Pr ob( X x) 1

f x 1
i

Los axiomas de probabilidad para una variable aleatoria continua:

f x dx 1
i

f ( x) 0

2.2 Caractersticas ms importantes de una distribucin de probabilidad


Media o Esperanza Matemtica E(X).- La media, valor esperado o esperanza
matemtica de una variable aleatoria se define como:

E ( X ) f ( xi ).xi
i

Operaciones con el operador de esperanza matemtica 4


o

E a a

E[aX bY ] aE[ X ] bE[Y ]

E[ X i ] E[ X i ]

E[cXY ] cE[ X ]E[Y ] Si X y Y son v.a.i

E[cXY ] cE[ XY ]
Varianza

Si X y Y no son v.a.i
:

var( X ) E ( X ) 2 x . f ( xi )
2

Operaciones con el operador de varianza5

4 Asumiendo X,Y variables aleatorias independientes (v.a.i.) y a,b,c constantes


5 Asumiendo X,Y variables aleatorias independientes (v.a.i.) y a,b,c constantes

11

var a a

var( X ) E ( X ) 2 E[ X 2 ] 2 2

Prueba

E X E 2 X E E X 2 E X
E X 2 E X 2 E X
var( X ) E ( X ) 2 E X 2 2 X 2
2

var( aX b) a 2 var( X )

Prueba

var( aX b) var( aX ) var( b)

var( aX ) E (aX aX ) 2 E a 2 ( X X ) 2

a E ( X X ) a var( X )
2

Cuando

las

v.a. son independientes (X,Y independientes)

var( aX bY ) a 2 var( X ) b 2 var( X )

cov( X , Y ) E X x Y y 0
Cuando las v.a. son independientes (X,Y dependientes)

var( aX bY ) a 2 var( X ) b 2 var( X ) 2ab cov( x, y )


var( aX bY ) a 2 var( X ) b 2 var( X ) 2ab cov( x, y )

cov( X , Y ) E X x Y y E XY x y xy
Funcin de Distribucin.- Para cualquier variable aleatoria x, la probabilidad de que
x sea menor o igual que v se indica por F(v). F(x), es la.
Funcin de Distribucin Acumulada (FDA) : variable aleatoria discreta.

F ( x) Pr ob( X x)

P[ X k ] f ( x)
X x

kx

Funcin de Distribucin Acumulada (FDA) : variable aleatoria continua.

F ( x) P[ X x]

f (t )dt

f ( x)

dF ( X )
dx

Algunas Funciones de Distribucin:

f x / , 2

La distribucin Normal :

1
e
2

2
1
x

12

x2

La distribucin Normal Estndar :

t[ n ] z

Distribucin t.

Distribucin F :

1
As
N

X i X

i 1

xn

F n1 , n 2 x1 n1

Distribucin Chi Cuadrada :


N

1
f x / 0,1
e 2
2

x2 n2

z N 0,1 z 2 X 2 1

ndice de Asimetra (Skewness) : Se dice que la


distribucin de una variable es simtrica, si los intervalos equidistantes del intervalo
central tienen iguales frecuencias.
Si As=0, La variable tiene una distribucin simtrica, (la media, la mediana y
la moda son iguales)
Si As>0,
La variable
(moda<mediana< media)

tiene

una

distribucin

Simtrica

positiva,

Si As<0,
La variable
(moda>mediana> media)

tiene

una

distribucin

Simtrica

negativa,

1
N

X i X

i 1
N

Indice de Curtosis (Kurtosis)6: Mide el ndice de


apuntamiento de la distribucin de la variable
Si K=3, La distribucin es normal
Si K>3, La distribucin de la variable es leptocurtica
Si K<3, La distribucin de la variable es platicurtica

JB

N k 2 1
2
S K 3
6
4
Estadstico Jarque Bera: Jarque Bera es un prueba

estadstica para probar si la serie sigue una distribucin normal o no, k representa el
nmero de coeficientes estimados
Ho :

La serie sigue una distribucin normal con 2 grados de libertad

H1 :

La serie no sigue una distribucin normal

Si la probabilidad de JB es mayor al 5% entonces se acepta la hiptesis nula


Si la probabilidad de JB es menor al 5% entonces se rechaza la hiptesis nula

6 El coeficiente de asimetra y la curtosis son basados en la varianza y fueron


propuestos por Bickel and Doksum 1977

13

Varianza y Esperanza Condicional


Esperanza Condicional o Media Condicional.- Una media condicional es la
media de la distribucin condicional y se define por

E Y \ X yf ( y \ x)
y

E Y \ X yf ( y \ x)dy
y

si y es discreta
Si y es continua

Varianza Condicional.- La varianza condicional es la varianza de la distribucin


condicional.

Var Y \ X E y E Y \ X \ X y E Y \ X f ( y \ x )
2

Var Y \ X E y E Y \ X \ X y E Y \ X f ( y \ x)dy

Discreta

Continua

Ejemplo 1:
X:

17

f (x)

1/5

18
2/5

19
1/5

20
1/5

Mediana : 18

1
2
1
1
E ( X ) * 17 * 18 * 19 * 20
5
5
5
5
E ( X ) 3,4 7,2 3,8 4 18,4

Media

Varianza Poblacional:

Desviacin Estndar

var( X ) E ( X ) 2
1
2
1
1
(17 18,4) * (18 18,4) * (19 18,4) * (20 18,4) *
5
5
5
5
0.392 0.064 0.072 0.512 1.04
Poblacional:

var( X ) E ( X ) 2 1.04 1.0198039

Varianza Muestral:

var( X ) E ( X ) 2
1
2
1
1
(17 18, 4) * (18 18, 4) * (19 18, 4) * (20 18, 4) * 1.3
4
4
4
4

Desviacin Estndar Muestral:

var( X ) E ( X ) 2 1.3 1.140175

ndice de Asimetra:

14

As

1
N

X i X

i 1
N

3
3
1 18 18.4
17 18.4
18 18.4


5 1.0198039 1.0198039
1.0198039

1
0.4
1.4

5 1.0198039 1.0198039

19 18.4

1.0198039

20 18.4

1.0198039

0.4
0.4
1.6


1.0198039
1.0198039 1.0198039

1
1
0.060 2.587 0.060 0.204 3.861 (1.358) 0.272
5
5
3

ndice de Curtosis (Kurtosis)

1 N X X
K i
N i 1

1 18 18.4 17 18.4
18 18.4




5 1.0198039 1.0198039
1.0198039


4

19 18.4
20 18.4

1.0198039
1.0198039

1
1
0.024 3.552 0.024 0.120 6.059 (9.778) 1.956
5
5

Estadstico Jarque Bera: Se distribuye como una chi cuadrada con dos
grados de libertad

JB

N 0
1
2
2
0.272 1.956 3 0.288682
6
4

Calcular el Pvalue de 0.288682 en distribucin normal


Pvalue[x=0.288682] para 5% de nivel de confianza
Pvalue[x=0.288682] = 1-@cchisq(0.288682,2)=0.865592
2.4

Series: SER01
Sample 1 5
Observations 5

2.0
1.6
1.2
0.8
0.4
0.0
17.0

17.5

18.0

18.5

19.0

19.5

20.0

Mean
Median
Maximum
Minimum
Std. Dev.
Skewness
Kurtosis

18.40000
18.00000
20.00000
17.00000
1.140175
0.271545
1.955621

Jarque-Bera
Probability

0.288682
0.865592

20.5

15

Ejercicio: Se disponen de la siguiente informacin de 14 alumnos a los cuales se


les ha preguntado por su Ingresos diarios y el nmero de copias que estn dispuestos a
obtener por da para su trabajo de econometra.
Se pide hallar la varianza y la media condicional
Obs Consumo Ingreso
1
3
5
2
5
10
3
2
5
4
12
15
5
2
7
6
3
7
7
7
10
8
4
7
9
1
5
10
6
10
11
4
5
12
3
5
13
4
7
14
10
15

Ordenando los Datos

C
(consumo)

5
3
2
1
4
2

I(ingreso)
7 10
2
5
3
7
4
6
4

15
12
10

Funcin de Probabilidad
f(C\I)

0,20
0,40
0,20
0,20

0,25
0,25
0,50

0,33
0,33
0,33

0,50
0,50

0,5 1,66666667
0,75 2,33333333
2
2

6
5

Funcin de Probabilidad Por Valor de consumo


C*f(C\I)

0,6
0,8
0,2
0,8
Esperanza Condicional
Sumatoria
2,4

3,25

11

16

Para hallar la varianza condicional


(C-E[C\I])2

0,36
0,16
1,96
2,56
0,16

1,5625
0,0625
0,5625
0,5625

1
1
0

1
1

0,390625 0,33333333
0,015625 0,33333333
0,28125
0

0,5
0,5

0,6875 0,66666667

Dividimos entre el nmero total de datos


0,072
0,064
0,392
0,512
Varianza Condicional
Sumatoria
1,04
III.

Mtodo de Mnimos Cuadrados Ordinarios


Relacin entre dos variables

3.1

Anlisis grfico de Relacin entre dos variables


a.) Anlisis grfico con respecto al tiempo (caso de series de tiempo)

La relacin existente entre el nivel de PBI y el crecimiento poblacional es positivo


segn nos muestra el grfico
b.) Anlisis de Grfico de Dispersin

17

El grfico de dispersin entre dos variables grfica coordenadas a partir de las valores
que toman las variables en un determinado momento del tiempo, o variables que
pertenecen a una misma observacin.
c.) Coeficiente de Correlacin

r (
3.2

X X Y Y
Cov( X , Y )
)(
)/n
Sx
Sx
SxS y

El modelo de Regresin Lineal de Dos Variables


A.)

Funcin de Regresin Poblacional


Un modelo Condicional
Dado un conjunto de valores poblacionales para dos variables, podemos graficarlo, en
un grfico de dispersin.

En este el grfico de dispersin nos muestra los valores que toma el consumo dado
un valor del ingreso y los valores medios o esperanzas matemticas de todos los
consumos condicionados a los ingresos se puede expresar de la siguiente manera.

E[Y / X ] X

18

E[Y / X ]

i Yi E[Y / X i ] Yi X i
Supuestos que se deben cumplir para obtener estimadores MICO

E[ i ] 0
Var ( i ) E[ i2 ] 2
Cov( i , j ) E[ i j ] 0
Funcin de Regresin Muestral.- Dado que los datos no se obtienen de toda la
poblacin debido a que es muy costoso, toma mucho tiempo y es difcil la ubicacin
de todos los individuos de la poblacin. La toma de muestras representativas de la
poblacin y sus resultados sirven para inferir resultados para toda la poblacin, en
este sentido se obtiene estimadores que infieran los resultados de los parmetros
poblacionales.
Poblacin

B.)

PBI VS Poblacin
30.000,0
25.000,0

Y a bX

20.000,0
15.000,0
10.000,0

5.000,0
20.000

40.000

60.000

80.000

100.000

120.000

140.000

PBI

La Funcin de la Regresin Muestral (FRM) es una funcin lineal que representa el


conjunto de valores estimados dado un valor de X, y esta representado por lo
siguiente:

19

Y a bX
Donde a y b son estimadores de y que son parmetros de la poblacin.
3.3

Estimadores Mnimos Cuadrticos (caso 2 variables)

E[Y / X ] X Funcin de Regresin Poblacional

Y a bX

Funcin de Regresin Muestral

e Y Y
n

Yi Yi Yi a bX i

i 1

i 1

i 1

i 1

i 1

i 1

X i (2)

a Y bX

Yi a bX i 2 0

i 1

i 1

Y X aX bX

i 1

i 1

ei

i 1

i 1

ei

Y a bX (1)

i 1

X Yi Y

Yi a bX i 2 X i 0

i 1

i 1

Cov( X , Y )
Var ( x)

Coeficiente de Correlacin y Estimadores


n

i 1

rXY

i 1

rXY

X Yi Y
X

i 1

X
i 1

i 1

X Yi Y

i 1

n
n
Cov( X , Y )
Cov( X , Y )

S X SY
Var ( X )Var (Y )

rXY

S
Cov( X , Y ) S X Cov( X , Y ) S X

b X
S X SY
SX
Var ( x) S Y
SY

b rXY

SY
SX

Bondad de Ajuste
Descomposicin de la suma de Cuadrados en Desvos

x=X X
y=Y Y

; x en desvos

Y =a+bX +e

(1)

; x en desvos

20

Y =a+b X

.(2)

(1)-(2)

Y Y =b ( X X ) +e

y=bx +e
e= ybx

e 2= ( y bx )2
e 2= y 2 2b xy + b2 x 2
xy
Sabemos que: b=
x2
e 2= y 2 2b (b x 2)+b 2 x 2
e 2= y 2 b2 x 2
Despejando la sumatoria de desvos al cuadrado de la variable dependiente

y 2=b2 x 2 + e 2
Sabemos que:

Y^ =a+bX
Y^ =a+b X

(3)
.(4)

(3) (4)

Y^ Y^ =b ( X X )
^y =bx

^y 2=b2 x 2
y 2= ^y 2+ e2

..(5)

STC=SEC+ SRC
STC: Sumatoria total de desviaciones al cuadrado de la variable Y
STC: Sumatoria Explicada de cuadrado de la variable
SRC: Sumatoria Residual de cuadrados.
Dividiendo (5) entre STC

y 2 = ^y 2 + e2
y2 y2 y2
^y 2 : Coeficiente de Correlacin.
R 2=
y2

21

2
e

1=R +
y2
e2
R2=1
y2
2

Coeficiente de correlacin y coeficiente de determinacin.


2

s
y = r xy s y
x
2

( )
( )

x 2+ e2

sy
sx

y 2=r xy2

x 2+ e2

y 2=r xy2 y 2+ e 2
e2
1=r xy 2 +
y2
e2
r xy 2=1
y2

En Forma Matricial

e1 Y1 Y1 Y1 a bX i
e Y Y Y a bX
2

en Yn Yn Yn a bX n

e1
Y1 1 X 1
e

2 Y2 1 X 2 a

b

en
Yn 1 X n
e Y X

e1
e
2


en

Y1
Y
2


Yn

a bX 1
a bX
2

a bX n

e' e Y X ' Y X
e' e
X ' Y X * Y X ' X 0

22

X ' Y X * Y X ' X 0
2 X ' Y X 0

IV.

X ' Y X ' X 0
X ' X 1 ( X ' Y )

Anlisis de Significancia de los estimadores (prueba de


Hiptesis) y Contrastes de Errores de especificacin

Dentro del estudio de la inferencia estadstica, se describe como se puede tomar una muestra
aleatoria y a partir de ella estimar el valor de un parmetro poblacional, para hacerlo es
necesario tener conocimiento de ciertos datos de la poblacin como la media, la desviacin
estndar o la forma de la poblacin, pero a veces no se dispone de esta informacin, en este caso
es necesario hacer una estimacin puntual que es un valor que se usa para estimar un valor
poblacional. Pero una estimacin puntual es un solo valor y se requiere un intervalo de valores a
esto se denomina intervalote confianza y se espera que dentro de este intervalo se encuentre el
parmetro poblacional buscado. Tambin se utiliza una estimacin mediante un intervalo, el
cual es un rango de valores en el que se espera se encuentre el parmetro poblacional.
4.1 Hiptesis Y Prueba De Hiptesis
Hiptesis es una aseveracin a priori de un valor que puede tomar un coeficiente.
En el anlisis estadstico se hace una aseveracin, es decir, se plantea una hiptesis, despus
se hacen las pruebas para verificar la aseveracin o para determinar que no es verdadera, la
prueba de hiptesis es un procedimiento basado en la evidencia muestral y la teora de
probabilidad; se emplea para determinar si la hiptesis es una afirmacin razonable.
Prueba de una hiptesis: se realiza mediante un procedimiento sistemtico de cinco paso:

Siguiendo este procedimiento sistemtico, al llegar al paso cinco se puede o no rechazar


la hiptesis, pero debemos de tener cuidado con esta determinacin ya que en la
consideracin de estadstica no proporciona evidencia de que algo sea verdadero. Esta
prueba aporta una clase de prueba ms all de una duda razonable. Analizaremos cada
paso en detalle
Objetivo de la prueba de hiptesis.
El propsito de la prueba de hiptesis no es cuestionar el valor calculado del estadstico
(muestral), sino hacer un juicio con respecto a la diferencia entre estadstico de muestra y
un valor planteado del parmetro.

Paso 1: Plantear la hiptesis nula Ho y la hiptesis alternativa H1.


Cualquier investigacin estadstica implica la existencia de hiptesis o afirmaciones
acerca de las poblaciones que se estudian.
La hiptesis nula (Ho) se refiere siempre a un valor especificado del parmetro de
poblacin, no a una estadstica de muestra. La letra H significa hiptesis y el subndice
cero no hay diferencia. La hiptesis nula es una afirmacin que no se rechaza a menos
que los datos maestrales proporcionen evidencia convincente de que es falsa. El
planteamiento de la hiptesis nula siempre contiene un signo de igualdad con respecto al
valor especificado del parmetro.
La hiptesis alternativa (H1) es cualquier hiptesis que difiera de la hiptesis nula. Es una
afirmacin que se acepta si los datos maestrales proporcionan evidencia suficiente de que
la hiptesis nula es falsa. Se le conoce tambin como la hiptesis de investigacin. El
planteamiento de la hiptesis alternativa nunca contiene un signo de igualdad con
respecto al valor especificado del parmetro.
Paso 2: Seleccionar el nivel de significancia.
Nivel de significancia: Probabilidad de rechazar la hiptesis nula cuando es verdadera. Se
le denota mediante la letra griega , tambin es denominada como nivel de riesgo, este
termino es mas adecuado ya que se corre el riesgo de rechazar la hiptesis nula, cuando
en realidad es verdadera. Este nivel esta bajo el control de la persona que realiza la
prueba.
Si suponemos que la hiptesis planteada es verdadera, entonces, el nivel de significacin
indicar la probabilidad de no aceptarla, es decir, estn fuera de rea de aceptacin. El
nivel de confianza (1-), indica la probabilidad de aceptar la hiptesis planteada, cuando
es verdadera en la poblacin.

La distribucin de muestreo de la estadstica de prueba se divide en dos regiones, una


regin de rechazo (conocida como regin crtica) y una regin de no rechazo
(aceptacin). Si la estadstica de prueba cae dentro de la regin de aceptacin, no se
puede rechazar la hiptesis nula.
La regin de rechazo puede considerarse como el conjunto de valores de la estadstica de
prueba que no tienen posibilidad de presentarse si la hiptesis nula es verdadera. Por otro
lado, estos valores no son tan improbables de presentarse si la hiptesis nula es falsa. El
valor crtico separa la regin de no rechazo de la de rechazo.
Tipos de errores

Cualquiera sea la decisin tomada a partir de una prueba de hiptesis, ya sea de


aceptacin de la Ho o de la Ha, puede incurrirse en error:
Un error tipo I se presenta si la hiptesis nula Ho es rechazada cuando es verdadera y
deba ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra
alfa
Un error tipo II, se denota con la letra griega se presenta si la hiptesis nula es aceptada
cuando de hecho es falsa y deba ser rechazada.
En cualquiera de los dos casos se comete un error al tomar una decisin equivocada.
En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las
consecuencias posibles.

Para que cualquier ensayo de hiptesis sea bueno, debe disearse de forma que minimice
los errores de decisin. En la prctica un tipo de error puede tener ms importancia que el
otro, y as se tiene a conseguir poner una limitacin al error de mayor importancia. La
nica forma de reducir ambos tipos de errores es incrementar el tamao de la muestra, lo
cual puede ser o no ser posible.
La probabilidad de cometer un error de tipo II denotada con la letra griega beta ,
depende de la diferencia entre los valores supuesto y real del parmetro de la poblacin.
Como es ms fcil encontrar diferencias grandes, si la diferencia entre la estadstica de
muestra y el correspondiente parmetro de poblacin es grande, la probabilidad de
cometer un error de tipo II, probablemente sea pequea.
El estudio y las conclusiones que obtengamos para una poblacin cualquiera, se habrn
apoyado exclusivamente en el anlisis de una parte de sta. De la probabilidad con la que
estemos dispuestos a asumir estos errores, depender, por ejemplo, el tamao de la
muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una
distribucin normal
Existe una relacin inversa entre la magnitud de los errores y : conforme a aumenta,
disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas
estadsticas. Lo ideal sera establecer y .En la prctica se establece el nivel y para

disminuir el Error se incrementa el nmero de observaciones en la muestra, pues as se


acortan los limites de confianza respecto a la hiptesis planteada .La meta de las pruebas
estadsticas es rechazar la hiptesis planteada. En otras palabras, es deseable aumentar
cuando sta es verdadera, o sea, incrementar lo que se llama poder de la prueba (1- )
La aceptacin de la hiptesis planteada debe interpretarse como que la informacin
aleatoria de la muestra disponible no permite detectar la falsedad de esta hiptesis.
Paso 3: Clculo del valor estadstico de prueba
Valor determinado a partir de la informacin muestral, que se utiliza para determinar si se
rechaza la hiptesis nula., existen muchos estadsticos de prueba para nuestro caso
utilizaremos el estadstico t.
En la prueba para una media poblacional con muestra pequea y desviacin estndar
poblacional desconocida se utiliza el valor estadstico t.

*
t
se( )
Paso 4: Formular la regla de decisin
Se establece las condiciones especficas en la que se rechaza la hiptesis nula y las
condiciones en que no se rechaza la hiptesis nula. La regin de rechazo define la
ubicacin de todos los valores que son tan grandes o tan pequeos, que la probabilidad de
que se presenten bajo la suposicin de que la hiptesis nula es verdadera, es muy remota
Distribucin muestral del valor estadstico z, con prueba de una cola a la derecha
Valor critico: Es el punto de divisin entre la regin en la que se rechaza la hiptesis
nula y la regin en la que no se rechaza la hiptesis nula.
Paso 5: Tomar una decisin.
En este ltimo paso de la prueba de hiptesis, se calcula el estadstico de prueba, se
compara con el valor crtico y se toma la decisin de rechazar o no la hiptesis nula.
Tenga presente que en una prueba de hiptesis solo se puede tomar una de dos decisiones:
aceptar o rechazar la hiptesis nula. Debe subrayarse que siempre existe la posibilidad de
rechazar la hiptesis nula cuando no debera haberse rechazado (error tipo I). Tambin
existe la posibilidad de que la hiptesis nula se acepte cuando debera haberse rechazado
(error de tipo II).
4.2 Significancia individual de una relacin economtrica
Dado el planteamiento de la funcin a regresionar:

f ( X ) Y X e
y si se cumple los principales supuestos de MCO tales como:

E[ i ] 0
Var ( i ) E[ i2 ] 2
Cov( i , j ) E[ i j ] 0
para explicar la implicancia de las variables independientes sobre las variables
dependientes se debe probar que
(estadsticamente diferente de cero).

es

estadsticamente

significativa

Ho : 0

Estadsticamente significativo

Ha : 0

Estadsticamente no significativo

se( ) se( )

Si t>t tabla entonces se dice que se rechaza la hiptesis nula de estadsticamente no


significativa.
4.3 Error de especificacin en un modelo economtrico.
La hiptesis bsica del modelo de regresin lineal mltiple es que la variable dependiente
Y se puede expresar como una combinacin lineal de k variables explicativas ms un
trmino de error .

f ( X ) Y 1 X 1 2 X 2 3 X 3 e
De la anterior especificacin economtrica se puede identificar 3 aspectos que podran hacer
que la estimacin de la variable dependiente (Y) no sea correcta.

Las X (X1, X2, X3, las variables independientes)

, 1 , 2 , 3 Los coeficientes

y los errores (e )

En este sentido estos 3 aspectos podran causar un error de especificacin economtrica


4.3.1 Error de especificacin, problemas con las variables independientes (X).
En la prctica no siempre es posible incluir todas las variables relevantes, bien porque
alguna de estas variables no se considera relevante o porque no se puede medir. Otras
veces se incluyen errneamente variables irrelevantes o se especifica una relacin
lineal que no lo es. Todo ello conduce a especificar incorrectamente el modelo y es
importante determinar la influencia de tales especificaciones incorrectas y tenerlas en
cuenta en los resultados.

Se debe considerar los siguientes errores de especificacin de este tipo al ajustar un


modelo de regresin mltiple:

Omitir una variable relevante, alguna variable regresora de gran importancia


no se ha includo en el modelo. Este problema produce:
Que los estimadores mnimos cuadrticos
sean sesgados y con mayor
varianza salvo que la variable excluda sea ortogonal a las variables
regresoras del modelo.
Que la varianza residual R2 sea un estimador sesgado por exceso ya que los
errores son mayores de lo que seran si se hubiera includo la variable
excluda, sobre todo si esta variable es ortogonal a las variables regresoras,
ya que entonces su influencia en la variable Y es mayor.
Como R2 es muy grande los intervalos de confianza de los parmetros del
modelo son mayores de lo que deberan y los contrastes individuales de la t
llevarn a considerar como no significativas a variables regresoras que si lo
son.

Incluir una variable irrelevante, que no influye en la variable dependiente Y o


que la informacin que proporciona sobre esta variable ya est contenida en las
otras variables regresoras. Las consecuencias de este problema son las
siguientes:

Si la variable irrelevante incluida depende de las otras variables regresoras


se tiene un problema de multicolinealidad. Aumentar la varianza de los , y
los contrastes individuales de la t tienden a considerar como no
significativas a variables regresoras que si lo son.

Si la variable irrelevante incluida es ortogonal a las otras variables


regresoras, el efecto es menor, se pierde eficacia porque se pierde un grado
de libertad al aumentar una variable regresora que no aporta variabilidad
explicada, pero para tamaos muestrales grandes el efecto es mnimo.

Especificar una relacin lineal inapropiada, proporciona malos resultados,


sobre todo fuera del rango de valores observados porque una relacin no lineal
en un estrecho intervalo de observacin se puede aproximar por una lineal. Las
graves consecuencias de este error son las siguientes:
Los estimadores son sesgados y su varianza se calcula mal.
La varianza residual se calcula mal y los contrastes individuales de la t no
son vlidos.
Las predicciones del modelo son malas, sobre todo fuera del rango de
valores de las observaciones.

Variables X no Estacionarias, Se puede dar que las variables explicativas


tengan un comportamiento de caminata aleatoria que no explicara en nada a la
variable dependiente y solo hace sera una relacin espuria.

Alta Correlacin de las X, Las variables explicativas pueden estar


correlacionadas y por lo tanto hacer que la matriz de las variables X no sea
invertible en el peor de los casos, a este problema se le denomina
Multicolinealidad que se vera mas adelante.

4.3.2 Error de especificacin, problemas con las coeficientes (X).

, , ,

1
2
3 , son
La especificacin economtrica asume que los coeficientes
constantes e invariantes una ves calculado, pero existen situaciones en las que es
frecuente toparse con coeficientes con cambios estructurales repentinos, o por el
contrario, con evoluciones lentas debidas a cambios en el entorno social o ambiental.

4.3.3 Error de especificacin, problemas con las perturbaciones (e).


Los errores de especificacin causados por las perturbaciones, implican directamente
la violacin a los supuestos del mtodo de mnimos cuadrados ordinarios, estos son
Autocorrelacin y Heterocedasticidad, que se vera mas ampliamente el siguiente
capitulo.
4.3.4

Deteccin de Errores de especificacin en un modelo economtrico.


Los errores de especificacin se detectan utilizando los grficos de residuos descritos
anteriormente. Especialmente se tendrn en cuenta:

El grfico de residuos

frente a predicciones

El grfico de residuos

frente a una variable explicativa

El grfico de residuos
frente a una variable explicativa omitida
. En
muchas ocasiones se intuye que se debera incluir un trmino cuadrtico o una
interaccin (producto) de variables explicativas, siendo razonable hacer el grfico
de los residuos frente a variables como xij2 o xij . xik.

El grfico de residuos
frente a la variable ndice o tiempo
si las
observaciones son recogidas secuencialmente y se sospecha que el tiempo puede
ser una variable regresora.

.
.

V.

Violacin a los Supuestos de Mnimos Cuadrados Ordinarios

(Errores de especificacin posibles problemas con los errores (e))

e1 Y1 1 X 1
e Y 1 X 0
2
2 2



k
en Yn 1 X n
e Y
X .

e1

e2
E ee' E e1


en

E e1e2

E e1e3

E e2 e1

E e2 e2

E e2 e3

E e3 e 2

E e3 e3

E en e2

E e n e3

E ee' E e3 e1

E e e
n 1

e1e n

e2 e1

e2 e2

e2 en

e3 e 2

e3 e n

e n e2

e n E e3 e1

e e
n 1

E e1e1

e1e 2

e2

e1e1

cov(ei , e j ) E ei e j 0

e n e n

var( ei ) E ei2 2
E e1en

E e 2 en

E e3 e n

E en en
E en en

5.1 Autocorrelacin

E ei e j cov( ei , e j ) 0 i j
Expresando en forma sencilla el modelo clsico supone que un trmino de
perturbacin cualquiera no esta influenciado por algn otro.
Por ejemplo si se esta tratando con informacin trimestral de series de tiempo para
efectuar una regresin de la produccin sobre los insumos trabajo y capital y si por
ejemplo hay una huelga laboral que afecta la produccin en un trimestre, no hay
razn para pensar que esta interrupcin afectara la produccin del trimestre
siguiente. Es decir, si la produccin es inferior este trimestre, no hay razn para
esperar que esta sea baja en el siguiente trimestre. En forma similar, si se esta
tratando con informacin de corte transversal que involucra la regresin del gasto de
consumo familiar sobre el ingreso familiar, no se espera que el efecto de un
incremento en el ingreso de una familia sobre su gasto de consuma incida sobre el
gasto de consumo de otra.

Sin embargo, si tal dependencia existe, se tiene autocorrelacin. Simblicamente,


E(ui,uj)0.i = j
En esta situacin, la interrupcin ocasionada por una huelga este trimestre
puede afectar muy fcilmente la produccin del siguiente trimestre, o los
incrementos del gasto de consumo de una familia pueden inducir muy fcilmente a
otra familia a aumentar su gasto de consumo para no quedarse atrs de la primera.
Se pueden visualizar algunos de los patrones razonables de autocorrelacin y de no
autocorrelacin, los cuales estn dados en las siguientes figuras.
En la fig. 1.1 a 1.4 se muestra que hay un patrn distinguible entre las u.
En la fig. 1.1 muestra un patrn cclico; las fig. 1.2 y 1.3 sugieren una tendencia
lineal hacia arriba o hacia abajo en las perturbaciones; y la fig. 1.4 indica que tantos
trminos de tendencia lineal como de tendencia cuadrtica estn presentes en las
perturbaciones. Solamente la fig. 1.5 indica que no hay patrn sistemtico, apoyando
el supuesto de no autocorrelacin del modelo clsico de regresin lineal.

u,u
tiempo u,u

tiempo u,u
u,u

Fig.1.1

Fig.1.2

u,u

tiempo u,u

Fig.1.3

Fig.1.4

u,u

tiempo u,u

tiempo

u,u

Fig.1.5

5.1.1

Causa De Autocorrelacin
Inercia: Como bien se sabe las series de tiempo tales como el PNB los ndices
de precio la produccin el empleo y el desempleo presentan ciclos (econmicos).
Empezando del fondo de la recesin cuando se inicia la recuperacin econmica,
la mayora de estas series se empiezan a moverse hacia arriba entonces el valor
de una serie en un punto del tiempo es mayor que su valor anterior, por ejemplo
un aumento en la tasa de inters o en los impuestos o ambos.
Sesgo De Especificacin: Caso De Variables Excluidas:
La exclusin de variables explicativas relevantes puede ocasionar problemas de
autocorrelacin. Frecuentemente la inclusin de tales variables elimina el patrn
de correlacin observado entre los residuales. Por ejemplo supngase que se
tiene en el siguiente modelo de demanda:
Fenmeno De La Telaraa:

La oferta de muchos productos agrcolas refleja este fenmeno donde dicha


oferta reacciona al precio con rezago de un periodo de tiempo debido a que la
implementacin de las decisiones de oferta toma tiempo (periodo de gestacin)
por lo tanto los agricultores estn influenciados por el precio prevaleciente del
ao anterior y su funcin de oferta es:
ofertat=B1+B2Pt-1t+ut
(2.3.a)
Suponiendo que al final del periodo t, el precio Pt resulta ser inferior a Pt-1 .
es muy probable que los agricultores desean producir en el periodo t+1 menos de
lo produjeron en el periodo t. Obviamente en esta situacin no se espera que las
perturbaciones ui sean aleatorias porque si los agricultores producen excedentes
en el ao t, es probable que reduzcan su produccin en t+1 y as sucesivamente
conduciendo a un patrn de telaraa.

Rezagos:
En una regresin de series de tiempo en el gasto de consumo sobre el ingreso, no
es extrao encontrar que el gasto de consumo en el periodo actual dependa, entre
otras cosas, del gasto de consumo del periodo anterior. Es decir una
autoregresin porque una de las variables explicativas es el valor rezagado de la
variable dependiente.

Datos Agregados:
En el anlisis emprico los datos simples son frecuentemente manipulados. Por
ejemplo en las regresiones de series de tiempo que contienen informacin
trimestral, esa informacin generalmente se deriva de informacin mensual
agregando simplemente las informaciones de 3 meses y dividiendo la suma por
3. Dicho procedimiento de promediar cifras introduce cierto suavizamiento de
datos al eliminar las fluctuaciones en la informacin mensual. Por consiguiente
la grafica trimestral aparece mucho mas suave que la grafica analizado
mensualmente y este suavizamiento puede inducir a un patrn sistemtico en las
perturbaciones, introduciendo con esto autocorrelacin.

5.1.2

Consecuencias:
Como en el caso de la heterocedasticidad, en presencia de autocorrelacin los
estimadores MCO continan siendo lineales-insesgados al igual que
consistentes, pero dejan de ser eficientes.

5.1.3

Deteccin De La Autocorrelacin:

Mtodo grafico (Prueba de la rachas/ prueba de Geary)


Recordando que el supuesto de autocorrelacin del modelo clsico se relaciona con
las perturbaciones poblacionales ut, las cuales no pueden ser observadas
directamente. Por lo cual disponemos de valores aproximados que pueden obtenerse
a partir del procedimiento usual MCO.
Se debe graficar los residuos y observar si tienen algn comportamiento sistemtico.
Al observar un grafico con residuales negativos posteriormente positivos y luego

negativos y si los residuales serian puramente aleatorios sera un comportamiento no


sistemtico y por lo tanto no existira autocorrelacin
Pero si existen residuos con signos iguales consecutivos (representan una racha) y la
longitud de la misma como el nmero de elementos (sea + o -). Si existe muchas
rachas negativas llamaremos autocorrelacin negativa caso contrario llamamos
autocorrelacin positiva.
Mtodo grafico (Correlograma de los residuos)

Si el coeficiente de autocorrelacin parcial pasa los limites de confianza esto


indicara que existe autorcorrelacin
Prueba De Durbin Watson
La prueba mas conocida para detectar correlacin serial es la desarrollada
por el estadsticos Durbin y Watson. El cual se define como:7
t n

(u
t 2

u t 1 ) 2

t n

u
t 2

u u
u
t

2
t

2
t

u t21 u t u t 1

2
t

2(1

u u
u
t

t 1

2
t

) 2(1 )

t 1

2
t

Coeficiente de correlacin

Es la razn de la suma de las diferencias al cuadrado de residuales sucesivos


sobre la SRC. Abservamos que en el numerador del estadistico d, el numero
de observaciones es n-1 porque una observacin se pierde al obtener la
diferencias consecutivas .
2

A diferencia de las pruebas t, F o X , no hay un valor nico critico que lleve al


rechazo o a la aceptacin de la hiptesis nula por no haber correlacin serial de
7 puesto que y difieren solo en una observacin, estos son aproximadamente iguales
por consiguiente, haciendo =

primer orden en las perturbaciones ut sin embargo Durbin y Watson tuvieron


xito al encontrar un limite inferior DL y un limite superior DU tales que si el
valor d calculado cae por afuera de estos valores crticos puede tomarse una
decisin con respecto a la presencia de correlacin serial positiva o negativa.
El procedimento de prueba aplicado puede explicarse con la fig. siguiente la cual
muestra que los limites de d son 0 y 4. y pueden establecerse expandiendo.
como el coeficiente de autocorrelacin muestral de primer orden, un estimador
de es posible expresar como:
puesto que -1<= <= 1 implica que : 0<= d <= 4
estos son los limites de d; cualquier valor d estimado debe caer dentro de estos
limites.

Rechcese H0 evidencia de auto correlacin positiva


Zona de inde- cision

Rechcese H0 evidencia de auto correlacin negativa


Zona de inde- cision

No se rechace H0 o H0 o ambas
d

dL

dU

4- dU

4- dL

5.1.4 Medidas Remediales


Puesto que en presencia de correlacin serial los estimadores MCO son ineficientes,
es esencial buscar medidas remdiales. El remedio, depende del conocimiento que
se tenga sobre la naturaleza de la interdependencia entre las perturbaciones. Se
distinguen dos situaciones: cuando la estructura de Autocorrelacin es conocida y
cuando no lo es.
Cuando la estructura de Autocorrelacin es conocida.
Puesto que las perturbaciones ut no son observables, la naturaleza de la correlacin serial
es frecuentemente un asunto de especulacin o de exigencias practicas. En la
practica, usualmente se supone que las ut siguen el esquema autorregresivo de
primer orden, a saber:
ut=ut-1+t
donde []<1y donde las t siguen los supuestos MCO de valor esperado cero,
varianza constante y Autocorrelacin.
Si suponemos la validez de ut=ut-1+t el problemas de correlacin serial puede
ser resuelto satisfactoriamente si se conoce el coeficiente de Autocorrelacin, para
ver esto se tiene en cuenta al modelo con dos variables.
Yt=B1+B2Xt+ut
En el tiempo t as como tambin en el tiempo t-1. por lo tanto:
Yt-1=B1+B2Xt-1+ut
Multiplicando por ambos lados obtenemos:

Yt-1= B1+ B2Xt-1+ ut-1


y restando con la ecuacin inicial obtenemos:
(Yt - Yt-1) = B1 (1- ) + B2Xt - B2Xt-1+ (ut - ut-1)
= B1 (1- ) + B2 (Xt -Xt-1)+t
puesto que MCD satisface todos los supuestos MCO, se puede proceder a aplicar
MCO sobre las variables transformadas y obtener estimadores con todas las
propiedades optimas; es decir MELI. Realizar la regresion es equivalente a utilizar
los mnimos cuadrados generalizando (MCG).
Cuando no es conocida
Aunque la regresin en diferencias generalizadas es aplicacin sencilla, esta
regresin generalmente es difcil de efectuar en la practica porque raramente se
conoce. Por consiguiente, se requiere disear mtodos alternativos:
Mtodo de la primera diferencia.
Puesto que se encuentra entre 0 y +-1 se puede partir de dos posiciones
extremas. En un extremo se puede suponer que =0 es decir no hay correlacin
serial y en el otro extremo se puede considerar que =+-1: una Autocorrelacin
positiva o negativa perfecta. Cuando se efecta una regresin, generalmente se
supone que no hay correlacin y luego dejamos que otra prueba demuestre el
supuesto.

2
5.2 Heterocedasticidad. E ei ' ei var( ei ) I

Una de las condiciones del Teorema de Gauss-Markov para estimar los


parmetros lineales ms eficientes establece, entre otros, que la varianza de los
trminos de disturbio para cada muestra observada debe ser constante. Esta
afirmacin se refiere que para el modelo estimado: Yi=+Xi+ui la condicin
significa que el trmino de disturbio; {u1, u2, , uN}; en las N observaciones,
llamando N el total de observaciones mustrales, potencialmente tendran un valor
medio o esperanza muestral igual a cero y su varianza debe ser constante e igual
para cada una de las muestras (Dougherty, 1992).
Se espera, por tanto, que algunos valores de los errores estimados (y de las
perturbaciones) sern positivos y otros negativos pero la mayora relativamente
cercanos a cero. Se espera, a priori, que no exista ningn patrn de comportamiento
sistemtico de los errores alrededor de su valor esperado o cero y se distribuyan
uniformemente presentado la misma dispersin. Esta condicin es conocida como
homoscedasticidad.
5.2.1

Causas
La Heteroscedasticidad surge normalmente en datos de seccin cruzada donde la
escala de la variable dependiente y el poder explicativo de la tendencia del modelo
varia a lo largo de las observaciones. En muchos casos los datos microeconmicos,
como los estudios de gasto de las familias, presentan este comportamiento.
Intuitivamente la presencia de diferente varianza para diferentes observaciones se
pueden ejemplificar en las siguientes causas.
Razones de escala
Distribucin espacial
Aprendizaje de los errores
Menores restricciones de eleccin. Mejoras en la Informacin
Observaciones Influyentes
Problemas de especificacin

5. 2 . 2 Consecuencias
Con presencia de heteroscedasticidad, los estimadores mnimo cuadrtico
seguirn siendo insesgados dado que E(U)=0 y las variables explicativas son
no estocsticas o independientes de los errores, por lo tanto E(XU)=0, pero
dado que la varianza al no ser constante se invalidan las pruebas de
significancia estadstica en especial las pruebas de la distribucin t-Student y
F de Fisher-Snedecor.
Por lo tanto, los principales problemas seran:

Estimadores ineficientes.

Perdida de validez de las pruebas de contraste estadsticos.

Dado que la estimacin de la varianza estara sesgada y su estimacin no sera


adems consistente, no se puede, en consecuencia, depender de los resultados
obtenidos de los intervalos de confianza, ni de las pruebas puntuales usuales,
por tanto, si se detecta su presencia, se deben estimar los parmetros por otros
medios ms adecuados como; mnimos cuadrados ponderados u otra tcnica de
estimacin. Siempre es necesario comprobar si existe o no un problema
significativo antes de proceder a corregirlo. En algunos casos la comprensin
de la forma de corregir permite comprender mejor la utilidad de los
procedimientos formales de deteccin.

5.3 MULTICOLINEALIDAD
e1
Y1 1


e2
Y2 1





en
Yn 1
e

X 11

X 21

X 12

X 22

X 1n

X 2n

X K1

0
X K2

k
X Kn
.

Multicolinealidad se presenta cuando existe colinealidad entre las variables


independientes o explicativas (cuando existe dependencia lineal entre las columnas
de la matriz X.), de acuerdo al grado de colinealidad es difcil identificar de manera
precisa el efecto individual de cada una de ellas sobre la variable dependiente o
explicada.
Para fijar ideas, consideremos el siguiente modelo lineal:
Yt 0 1 X 1t 2 X 2t k X kt et ..(1)
y supongamos que el siguiente modelo de regresin tiene un R2 alto:
X it j 0 i1 X 1t i 2 X 2t ik X kt vi

X i k

(2)

En dicho caso, Xit es aproximadamente una combinacin lineal de las variables


explicativas restantes. Ello implica que la matriz X'X ser aproximadamente
singular.
Siempre y cuando X'X NO sea singular, el estimador MICO ser nico y NO perder
su condicin de MELI. Sin embargo, presentar los siguientes problemas:
a. La solucin del sistema de ecuaciones normales estar mal definida:
b. La casi singularidad de la matriz XX se reflejar en el valor de su determinante,
el cual ser cercano a cero. Como consecuencia, las varianzas de los estimadores
MICO, provenientes de la matriz, sern grandes. Ello incrementar el ancho de
los intervalos de confianza para el contraste de hiptesis lineales. En
consecuencia, tenderemos a aceptar la hiptesis nula. (Es decir, caer el poder
del test: la probabilidad de rechazar H0 cuando sta es falsa).
5.3.1 Causas De La Multicolinealidad
La multicolinealidad se origina por la presencia de cierto grado de interdependencia
estadstica entre los regresores de un modelo economtrico. Las causas del
problema de la multicolinealidad suelen ser:
a) Escasa variabilidad de algunas variables explicativas.
b) Existencia de alguna relacin causal y/o casual entre dos o ms variables
explicativas o regresres.

c) El mtodo de recoleccin de informacin empleado. Por ejemplo la obtencin de


las muestras en un rango limitado de valores tomados por los regresores en la
poblacin.
d) Restricciones sobre el modelo o en la poblacin que es el objeto de muestreo. Por
ejemplo, en la regresin del consumo de electricidad sobre el ingreso (X 2) y el
tamao de las viviendas (X3) hay una restriccin fsica en la poblacin puestos
que las familias con ingresos mas altos, generalmente tienen viviendas ms
grandes que las familias con ingresos ms bajos.
e) Especificacin del modelo, por ejemplo, la adicin de trminos polinomiales a un
modelo de regresin, especialmente cuando el rango de la variable X es pequeo.
f) Un modelo sobre determinado, esto sucede cuando el modelo tiene ms variables
explicativas que el nmero de observaciones. Esto podra suceder en
investigacin medica donde puede haber un nmero bajo de pacientes sobre
quienes se rene informacin respecto a un gran nmero de variables.

5.3.2

Consecuencias De La Multicolinelidad

Las consecuencias de un cierto nivel de multicolinealidad pueden ser las siguientes:


1. Cuanto ms grande sea la correlacin, ms prximo a cero ser el determinante
de la matriz XX, lo cual incrementar las varianzas y covarianzas del vector de
los parmetros estimados.
2. Las elevadas varianzas hacen que los parmetros estimados sean imprecisos e
inestables. En efecto, cuanto mayor es la varianza, menor ser el estadstico de
contraste t, lo cual a menudo nos llevar a la conclusin que una variable
explicativa es irrelevante, cuando en realidad no lo es.
3. Un cierto nivel de multicolinealidad, sin embargo, no afecta el estadstico de
contraste de significacin global, F. La idea es que el estadstico F considera
toda la explicacin de la variabilidad de la variable endgena, mientras que las
variables explicativas comparten una parte de la variabilidad con las dems
variables implicadas.
4.
No pueden obtenerse los estimadores MCO cuando la multicolinealidad es
perfecta.
5.
Errores Standard grandes y extensos intervalos de confianza.
6.
Los estimadores son muy sensibles a la inclusin o supresin de pocas
observaciones y/o variables. No son robustos.
7.
Los estimadores pueden tener el signo cambiado.
8.
Aun cuando los estimadores MCO son MELI, estos presentan varianzas y
covarianzas grandes, que hacen difcil la estimacin precisa.
9.
Debido a la consecuencia 8, los intervalos de confianza tienden a ser
mucho ms amplios, conduciendo a una aceptacin ms fcil de la hiptesis
nula de cero (es decir, que el verdadero coeficiente poblacional es cero)
10.
Tambin debido a la consecuencia 8, la razn t de uno o ms coeficientes
tiende a ser estadsticamente no significativa.
11.
Aun cuando la razn t de uno o ms coeficientes sea estadsticamente no
significativa, el R2, la medida global de bondad de ajuste, puede ser muy alto.
12.
Los estimadores MCO y sus errores estndar pueden ser sensibles a
pequeos cambios en la informacin.
A. Multicolinealidad Aproximada o Imperfecta
Ocurre cuando una de las variables explicativas es una combinacin lineal
determinstica de todas las dems (o de un subconjunto de ellas). Es decir, la
matriz X'X es singular y, por lo tanto, existen infinitas soluciones a las
ecuaciones normales. Es fcilmente detectable porque X'X es singular. Por
ejemplo, un conjunto de las variables explicativas satisfacen una identidad
contable.
a.

Identificacin: Cuando la determinante de la matriz X'X es cero (matriz


singular)
b.
Correccin: Reestructurar el modelo quitando la variable colineada

B. Multicolinealidad Aproximada o Imperfecta: Ocurre cuando una de las variables


explicativas es aproximadamente una combinacin lineal de las restantes (o de un
subconjunto de ellas). La multicolinealidad aproximada es ms difcil de detectar.
No obstante, sta puede traducirse (aunque no necesariamente) en:
Un R2 alto pero con coeficientes de baja significancia estadstica.
Estimadores MICO con signos y/o magnitudes implausibles, producto de la poca
precisin con la cual son estimados.
Estimadores MICO muy sensibles a pequeos cambios en el tamao de la
muestra.
a. Identificacin
Como la multicolinealidad es un problema muestral, ya que va asociada a la
configuracin concreta de la matriz X, no existen contrastes estadsticos,
propiamente dichos, que sean aplicables para su deteccin. En cambio, se han
desarrollado numerosas reglas prcticas que tratan de determinar en qu medida
la multicolinealidad afecta gravemente a la estimacin y contraste de un modelo.
Estas reglas no son siempre fiables, siendo en algunos casos muy discutibles. A
continuacin se van a exponer los procedimientos que son los que gozan de
mayor soporte para la identificacin.
i. Mtodo De La Relacin Entre T Y R2
Mediante este mtodo podemos determinar la existencia de multicolinealidad
observando las razones t y si estas no son estadsticamente significativas y
contamos con un coeficiente de determinacin elevado (superior a 0.80),
podemos estar ante un sntoma claro de multicolinealidad.
ii. Mtodo De La Matriz De Correlacin
Como el problema de multicolinealidad es un problema con las variables
predeterminadas, establecemos una matriz de correlacin entre aquellas, es
decir:

1
r
32
R r42

.....
r12

r24
1
r43
.....
r13

r24
r34
1
.....
r14

.....
.....
.....
.....
.....

r21
r31
r41

.....
1

Como es de notar, si la correlacin entre las variables predeterminadas fuera


1, extrema correlacin, el determinante de R ser igual a cero, caso contrario,
si la correlacin fuera 0, el determinante ser igual a 1, por lo que podemos
esbozar una regla en los siguientes trminos:

Si el determinante de la matriz R es cercano a cero, el grado de


multicolinealidad es considerable; si es cercano a uno, la correlacin entre las
variables no ser de consideracin.
iii. Mtodo De La Prueba t
Tiene que ver mucho con el mtodo anterior (matriz de correlacin):, este
mtodo elige la mxima correlacin ( rmax )
Ho : rmax 0
Ha : rmax 0
t
rmax :

k:
n:

(rmax ) n k 1 ~
t n k 1
1 rmax

Coeficiente de mximo de la matriz de correlacin


Nmero de parmetros incluyendo el intercepto.
Nmero de observaciones

La regla de decisin es: Si t-calculado es mayor al t-tabulado a cierto nivel de


significacin (se rechaza la hiptesis nula), se dice entonces que la X k en
particular es colineal con las dems.
iv. Correlacin entre Variables Explicativas: Se debe regresionar cada una de
las variables exgenos con el resto de independientes.
X it j 0 i1 X 1t i 2 X 2t ik X kt vi

X i k

Se debe obtener el R2 de cada una de estas regresiones.


Regla: Factor de Incremento de varianza
En un modelo de regresin mltiple la varianza de las parmetros se puede
escribir as:
2

Var ( j )
T (1 R 2j ) S 2j

.(1)
S el regresor j-simo fuera ortogonal con respecto a los dems regresores (es
decir, si la correlacin con el resto de los regresores fuera nula), la frmula
para la varianza quedara reducida a:
2

Var ( *j )
Donde:

TS 2j

.(2)

R 2j

: Es el coeficiente de determinacin obtenido al efectuar la regresin de


Xj sobre el resto de los regresores del modelo.

S 2j

: Es la varianza muestral del regresor Xj


T: Nmero de observaciones
El cociente entre (1) y (2) es precisamente el factor de agrandamiento de la
varianza (FIV), cuya expresin ser:

1
FIV ( j )
1 R 2j
.. (3)
Entonces es una medida de qu tan severa es la dependencia lineal de Xi con
2
2
respecto a las dems X . Por ejemplo, si, Ri 0.5 , =2; si Ri 0.999 ,
i

=1000.
2
En la prctica, un >10 ( Ri 0.9 ), se considera problemtico.

R2
El problema que tiene el FIV (o el j o la tolerancia) es que no suministra
ninguna informacin que pueda utilizarse para corregir el problema.
v. Nmero de Condicin8 (Tamao de la Matriz XX)
Una medida de qu tan problemtica es la multicolinealidad aproximada es el
nmero de condicin de la matriz. En particular, para una matriz cuadrada, A,
ste se define como:
max
IC k ( X )
K
min
El indice de condicin, (X), es igual a la raz cuadrada de la razn entre la
raz caracterstica ms grande ( max) y la raz caracterstica ms pequea (
min) de la matriz XX,
Como la matriz XX es de dimensin kk se obtienen k races caractersticas9,
pudindose calcular para cada una de ellas un ndice de condicin definido de
la siguiente forma:
El hecho de que el valor propio ms pequeo sea cercano a cero en relacin
al ms grande significa que la matriz es cuasi singular. Una matriz con un
nmero de condicin grande (>20) es difcil de invertir de manera exacta.

8 Fue planteado inicialmente por Rachudel (1971) y desarrollado posteriormente por Belsley et al.
(1980), y Belsley (1982).

9 Para matrices no cuadradas, tal como Xnxk, calculamos el nmero de condicin de XX. Debido a que
los valores propios son sensibles a la escala de las variables, se recomienda dividir cada columna, xi, por
su norma, , a fin de que tenga un largo igual a 1.

Regla10: Existe multicolinealidad cuando:


10< k ( ) <30
Multicolinealidad entre moderada y fuerte
k ( ) >30

100

Multicolinealidad severa

max
K 1000
min
; Multicolinealidad entre modera y fuerte

max
1000
min
;

Multicolinealidad severa

vi. Mtodo De La Prueba F


En un modelo de K-1 variables predeterminadas, es conveniente determinar
cual de las mencionadas variables X esta correlacionada con las restantes
para lo cual hay necesidad de hacer regresiones auxiliares de cada X con las
restantes y obtener el R2 correspondiente. Luego siguiendo la relacin entre F
y R2 se establece el siguiente probador:

Ho : R 2xi, Con las Restantes 0


Ha : R 2xi, Con las Restantes 0
Ft

( R x2i ,Con las restantes ) /( k 2)


(1 R

2
xi ,Con las restantes

) /( n k 1)

~ F k 2, n k 1

Rxi ,Con las restantes

:
Coeficiente de determinacin en la regresin de alguna X k
con las restantes incluidas en el modelo.
k:
Nmero de parmetros incluyendo el intercepto.
n:
Nmero de observaciones
La regla de decisin es: Si F-calculado es mayor al F-tabulado a cierto nivel
de significacin (se rechaza la hiptesis nula, se dice entonces que la X k en
particular es colineal con las dems.
vii. Test Chi-Cuadrado (Test de Ortogonalidad)

10 El nmero de condicin mide la sensibilidad de las estimaciones mnimo cuadrticas ante pequeos
cambios en los datos. De acuerdo con los estudios realizados por Belsley y otros (op. cit.), y Belsley (op.
cit.), tanto con datos observados como con datos simulados, el problema de la multicolinealidad es grave
cuando el nmero de condicin toma un valor entre 10 y 30. Naturalmente, si este indicador superase el
valor de 30, el problema sera ya manifiestamente grave. Estos valores vienen generalmente referidos a
regresores medidos con escala de longitud unidad (es decir, con los regresores divididos por la raz
cuadrada de la suma de los valores de las observaciones), pero no centrados. Parece que no es
conveniente centrar los datos (es decir, restarles sus correspondientes medias), ya que esta operacin
oscurece cualquier dependencia lineal que implique al trmino independiente.

En esta prueba se busca evaluar la ortogonalidad de los regresores sobre la


base de la matriz de correlaciones por pares entre las series independientes.
Las hiptesis relevantes de esta prueba son:

Ho : Las X i son ortogonale s entre si


Ha : Las X i no son ortogonale s entre si
Ha : R 2xi, Con las Restantes 0
2k 5

2
~ 2 k (k 1) / 2
calc
n 1
Ln R

R:
k:
n:
Ln:

Matriz de Correlacin entre pares de regresores modelo.


Nmero de parmetros sin incluir el intercepto.
Nmero de observaciones
Logaritmo natural

2
2
La regla de decisin es: Si -calculado es mayor al -tabulado a cierto
nivel de significacin (se rechaza la hiptesis nula, se dice entonces que la X k
en particular es colineal con las dems.

b. Correccin
i. Mtodo de Pre-estimacin
Reestructurar el modelo en base a informacin previa.
Esto hace alusin al caso en que se cuenta con informacin a priori que
permite reducir la colinealidad entre algn par o conjunto de variables.
Supongamos el siguiente ejemplo para ilustrar este punto:
ln(Y t ) 0 1 ln(K t ) 2 ln (L t ) e t
Donde Yt =nivel de produccin, Kt = factor capital, Lt = factor trabajo.
Supongamos que Kt y Lt son altamente colineales. Sin embargo, se sabe, por
estudios previos, que la funcin de produccin presenta rendimientos
constantes a escala. Esto es,
. Por lo tanto, el modelo puede ser
1 2 1
simplificado a:
ln(Y t /L t ) 0 1 ln(L t /L t ) 2 ln(K t /L t ) e t
ln(Y t /L t ) 0 2 ln(K t /L t ) e t
Desgraciadamente, en la prctica no es usual contar con este tipo de
informacin.

ii. Mtodo de Estimador Cresta (Ridge)


Una solucin que se ha propuesto para reducir el grado de colinealidad entre
las columnas de X es el estimador cresta:

r ( X ' X rD ) 1 X 'Y
Donde D es una matriz diagonal que contiene los elementos de la diagonal de
XX y r es un escalar escogido arbitrariamente. En la prctica, r se escoge de

modo tal que r sea estable frente a pequeas variaciones en ste. (Se
sugiere partir de un valor de r=0.01).
Aunque el estimador cresta es sesgado, tiene una matriz varianza covarianza
menor a la de MICO:

E ( r ) ( X ' X rD ) 1 X ' X

Var ( r ) ( X ' X rD ) 1 X ' X ( X ' X rD ) 1

Ello implica que r puede ser preferible a MICO, trminos de ECM.


iii. Mtodo de Componentes Principales
La idea detrs del mtodo de componentes principales radica en extraer de la
matriz X un nmero de variables que expliquen la mayor parte de la
variacin en X. (Esta ltima se define como traza (XX). La pregunta
relevante es: qu combinaciones lineales proporcionan el mejor ajuste para
todas las columnas de X?
Pasos:
1er.- Normalizar las variables exgenas
2do.- Identificar los ponderadores para considerar las posibles
combinaciones lineales
3ro.- Crear las nuevas variables explicativas en base a las ponderaciones y
las combinaciones lineales.
4to.- Regresionar la variable dependiente con las nuevas variables
explicativas (que ya han sido extrados las colinealidades).
5to.- Reescribir el modelo transformando los valores a la especificacin
inicial.
El estimador de componentes principales es sesgado, pero tiene una varianza
menor a la de MICO, por ello, puede ser preferible a ste, segn el criterio de
ECM. Sin embargo, el estimador de componentes principales no est libre de
problemas:

Difcil de interpretar. (Es una mezcla de los coeficientes originales).


Los componentes principales NO son escogidos en base a ninguna
relacin entre X e Y.
Como sabemos, la magnitud de los valores propios es sensible a la
escala de las Xs, por lo cual se recomienda normalizar cada columna.
Sin embargo, ello afecta la interpretacin de los resultados.
iv. Mtodo Exclusin de Variables Colineadas
Este mtodo radica en seleccionar las variables que supuestamente estn
colineadas y probar las regresiones con y observar con variable se obtienen
mejores resultados estadsticos y econmicos.
v. Aumento del tamao de la muestra
Teniendo en cuenta que un cierto grado de multicolinealidad acarrea
problemas cuando aumenta ostensiblemente la varianza muestral de los
estimadores, las soluciones deben ir encaminadas a reducir esta varianza.
Existen dos vas: por un lado, se puede aumentar la variabilidad a lo largo de
la muestra de los regresores colineales introduciendo observaciones
adicionales. Esta solucin no siempre es viable, puesto que los datos
utilizados en las contrastaciones empricas proceden generalmente de fuentes
estadsticas diversas, interviniendo en contadas ocasiones el investigador en
la recogida de informacin.
Por otro lado, cuando se trate de diseos experimentales, se podr
incrementar directamente la variabilidad de los regresores sin necesidad de
incrementar el tamao de la muestra.
Finalmente, conviene no olvidar que el trmino de perturbacin no debe
contener ningn factor que sea realmente relevante para la explicacin de las
variaciones del regresando, con el fin de reducir todo lo posible la varianza
del trmino de perturbacin.
vi. Utilizacin de informacin extramuestral
Otra posibilidad es la utilizacin de informacin extramuestral, bien
estableciendo restricciones sobre los parmetros del modelo, bien
aprovechando estimadores procedentes de otros estudios.
El establecimiento de restricciones sobre los parmetros del modelo reduce el
nmero de parmetros a estimar y, por tanto, palia las posibles deficiencias
de la informacin muestral. En cualquier caso, para que estas restricciones
sean tiles deben estar inspiradas en el propio modelo terico o, al menos,
tener un significado econmico.
En general, un inconveniente de esta forma de proceder es que el significado
atribuible al estimador obtenido con datos de corte transversal es muy
diferente del obtenido con datos temporales. A veces, estos estimadores
pueden resultar realmente extraos o ajenos al objeto de estudio. Por otra

parte, al estimar las varianzas de los estimadores obtenidos en la segunda


regresin hay que tener en cuenta la estimacin previa.
vii. Utilizacin de ratios
Si en lugar del de la variable dependiente y de los regresores del modelo
original se utilizan ratios con respecto al regresor que tenga mayor
colinealidad, puede hacer que la correlacin entre los regresores del modelo
disminuya. Una solucin de este tipo resulta muy atractiva, por su sencillez
de aplicacin. Sin embargo, las transformaciones de las variables originales
del modelo utilizando ratios pueden provocar otro tipo de problemas.
Suponiendo admisibles las hiptesis bsicas con respecto a las perturbaciones
originales del modelo, esta transformacin modificara implcitamente las
propiedades del modelo, de tal manera que las perturbaciones del modelo
transformado utilizando ratios ya no seran perturbaciones homoscedsticas,
sino heteroscedsticas.

BIBLIOGRAFIA.Arellano, M. 2003. Panel Data Econometrics. Oxford University Press. (HB 139
A68)

Enders, W. 2003. Applied Econometric Time Series. 2nd Ed. Wiley and Sons Inc.
(HB 139 E57 2003)

Greene, W. 1997. Econometric Analysis, 3th Ed. MacMillan Publishing Company


N.Y.
Griffiths, W. , R. Carter Hill, George G. Judge. 1993. Learning and Practicing
Econometrics. (HB 139 G82)
Gujarati, D. 2003. Basic Econometrics. 4th Edicin, Mc Graw Hill.
Johnston, Jack, John Dinardo. 1997. Econometric Methods. 4th Edition. The
McGraw-Hill Companies, Inc. (HB 139 J67 1997 EN)
Kennedy, P. 2003, A Guide to Econometrics, 5th Edition. MIT Press.
Maddala, G.S.
1996. Introduccin a la Econometra, Prentice-Hall
Hispanoamericana S.A., Segunda Edicin. (HB 139 M14I ES)
Novales, A. 1993. Econometra, McGraw-Hill, Interamericana de Espaa,
segunda edicin. (HB 139 N86)
Wooldridge, J. 2002. Econometric Analysis of Cross Section and Panel Data. The
MIT Press. (HB 139 W86)

También podría gustarte