Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Guía de Estudio para La Asignatura de Econometría PDF
Guía de Estudio para La Asignatura de Econometría PDF
ECONOMETRÍA I
Julio 2009
Introducción
Programa Universitat Empresa y es un curso obligatorio del primer semestre del pri-
mer año del Programa (tercero de carrera). El objetivo principal del curso es familiari-
zar al estudiante con los elementos básicos del trabajo econométrico proporcionándole
los modelos económicos. Por otro lado, es también objetivo del curso familiarizar al
para la investigación empírica. Por la naturaleza del los modelos estudiados, el curso
útil al alumno en el aprendizaje del contenido temático del curso. La idea es que pueda
de los temas estudiados en clase. La guía contiene apuntes sobre todos los temas
1
Capítulo 1
1.1. El modelo
Sean y y x dos variables económicas de interés. Queremos un modelo econométrico
que proporcione respuestas a preguntas como: (i) ¾cuáles son los efectos sobre y de un
Donde:
2
4. β0 , β1 − son los parámetros del modelo.
Sea ahora {(xi , yi ) : i = 1, ...n} una muestra de la población. Asumiendo que estos
datos sean generados por el modelo de regresión (1.1) podemos asumir que por cada
i
yi = β0 + β1 xi + ui (1.2)
E(yi ) = E(β0 + β1 xi + ui )
= β0 + β1 x + E(ui )
= β0 + β1 xi
donde la primera y segunda igualdad derivan de las propiedades del valor esperado y
la tercera de S2. La media condicional de y es una recta que se conoce como función
de regresión poblacional y es también una función lineal de x.
El parámetro β1 es el parámetro que a menudo mas interesa a los economistas
∆y
tonces β1 = ∆x
nos dice cuánto varía y si x varia de ∆x y u se mantiene constante. Si
3
∆x = 1, o sea un cambio unitario en x, β1 = ∆y representa la variación de y. Queda
claro ahora la implicación del supuesto de linealidad del modelo: el efecto de x sobre
cambio unitario de x si todos los demás factores son constantes, o como la variación
Sin embargo para poder interpretar β0 , xi debe poder tomar valor igual a cero. En
Obs. y x
1 1.8987 8.0000
2 7.0240 9.0000
3 3.1294 10.0000
4 5.3579 11.0000
5 4.3279 12.0000
6 6.1567 13.0000
7 4.1183 14.0000
8 3.5169 15.0000
9 3.7885 16.0000
10 6.7904 17.0000
11 6.1492 18.0000
12 6.4227 19.0000
13 9.0072 20.0000
14 7.7124 21.0000
15 7.8797 22.0000
16 10.1453 23.0000
4
Tabla 1:
yi = β0 + β1 xi + ui
= 1 + 0,3xi + ui
1.2. Estimación
Trataremos ahora la importante cuestión de la estimación de los parámetros del mo-
que se suponen generados por el modelo de regresión, para obtener valores para los
Mínimos Cuadrados Ordinarios. El criterio que nos permite obtener los estima-
5
Figura 1:
6
los residuos de regresión. Para entender el método necesitamos algunas deniciones
yi como ŷi = β̂0 + β̂1 xi , y el residuo de regresión como ûi = yi − ŷi = yi − β̂0 + β̂1 xi .
El residuo de regresión para la observación i es la diferencia entre el valor verdadero
yi y su valor ajustado ŷi y expresa la parte de yi que no podemos explicar con nuestra
de la suma de todos los residuos al cuadrado. La idea es que queremos escoger β̂0 , β̂1
de manera que la parte de variabilidad de y que no podemos explicar, o sea la suma
Pn Pn
de todos los residuos al cuadrado, i=1 û2i = i=1 (yi − β̂0 + β̂1 xi )2 , sea mínima.
Formalmente β̂0 , β̂1 son los estimadores que solucionan el siguiente problema de
minimización:
n
(yi − β̂0 − β̂1 xi )2 ≡ Q
X
mı́n
β̂0 ,β̂1 i=1
Para solucionar este problema hay que encontrar las condiciones del primer orden.
Estas condiciones son las derivadas parciales de la función objetivo, Q, respecto a los
n
∂Q X
=0⇒ 2(yi − β̂0 − β̂1 xi ) = 0
β̂0 i=1
n
∂Q X
=0⇒ 2(yi − β̂0 − β̂1 xi )xi = 0
β̂1 i=1
n
X n
X n
X
yi − β̂0 − β̂1 xi =0
i=1 i=1 i=1
Pn Pn Pn
i=1 yi i=1 β̂0 i=1 β̂1 xi
− − =0
n n n
Pn
nβ̂0 xi
ȳ − − β̂1 i=1 = 0
n n
ȳ − β̂0 − β̂1 x̄ = 0
que es una ecuación para β̂0 en términos de β̂1 . Ahora podemos utilizar la segun-
da condición de primer orden para encontrar una ecuación para β̂1 . De la segunda
7
obtenemos
n h
X i
yi − (ȳ − β̂1 x̄) − β̂1 xi xi = 0
i=1
n
X n
X
(yi − ȳ)xi − β̂1 (xi − x̄)xi = 0
i=1 i=1
n n
(xi − x̄)2 = 0
X X
(yi − ȳ)(xi − x̄) − β̂1
i=1 i=1
Pn
i=1 (yi − ȳ)(xi − x̄)
β̂1 = Pn 2
(1.4)
i=1 (xi − x̄)
La última igualdad se obtiene utilizando las propiedades del operador suma. Podemos
Pn Pn Pn
observar que i=1 xi (xi − x̄) = i=1 (xi − x̄)(xi − x̄) implica i=1 x̄(xi − x̄) = 0 que
Pn Pn Pn 2
es cierto porque i=1 x̄(xi − x̄) = x̄ i=1 xi − i=1 (x̄) = n(x̄)2 − n(x̄)2 .
Una segunda manera a través de la cual se puede derivar el mismo estimador se
conoce como el método de los momentos. La idea es muy sencilla. El supuesto S1 nos
E(u) = 0. Entonces
E(y − β0 − β1 x) = 0
E(x(y − β0 − β1 x)) = 0
El método de los momentos elige los estimadores β̂0 , β̂1 de manera que solucionen las
n
n−1
X
(yi − β̂0 − β̂1 xi ) = 0
i=1
n
n−1
X
xi (yi − β̂0 − β̂1 xi ) = 0
i=1
Multiplicando las dos ecuaciones por 2n obtenemos las mismas ecuaciones obtenidas
las soluciones deberán ser las mismas y los estimadores que encontraremos en este
8
Podemos notar que β̂1 es simplemente el ratio entre la covarianza muestral y la
varianza muestral de x
Pn
(xi −x̄)(yi −ȳ)
i=1
β̂1 = Pn n−1 2
(x −x̄)
i=1 i
n−1
ˆ y)
Cov(x,
=
ˆ
V ar(x)
Ejemplo 1.1 Utilizando datos para salario promedio horario (medidos en dólares
por hora) y años de educación para 526 individuos, contenidos en el archivo WAGE1
regresión:
ˆ i = −0,90 + 0,54educi
salario
El valor estimado de la pendiente signica que un año más de educación hace que el
salario aumente en 0,54 dólares por hora. ¾Cuál será el salario horario previsto para
Una implicación clave de la estimación del modelo es que la recta de regresión muestral
la Tabla 1 obtenemos
de regresión poblacional (la línea continua) vista antes y la nueva recta de regresión
9
Figura 2.
10
muestral (la línea discontinua) estimada en este ejemplo. La razón que explica esta
mos las propiedades algébricas y después las propiedades estadísticas de tales estima-
dores.
Propiedades algebraicas
= 0.
Las primeras tres igualdades se obtienen a través de las propiedades del operador
siempre se cumple.
P3 La media muestral de los valores ajustados es igual a la media muestral del los
valores originales : ŷ¯ = ȳ.
ûi = yi − ŷi
11
n
X n
X n
X
ûi = yi − ŷi
i=1 i=1 i=1
Xn Xn
yi = ŷi
i=1 i=1
ŷ¯ = ȳ
Propiedades estadísticas
Antes de ver las propiedades estadísticas de los estimadores necesitamos repasar algu-
nos conceptos y resultados estadísticos clave. Sea x una variable aleatoria con función
de densidad normal con media µ y varianza σ2
x ∼ N (µ, σ 2 )
x−µ
y= ∼ N (0, 1)
σ
o sea la suma de las zi al cuadrado es una variable con distribución chi-cuadrado con
y
q
w
∼ tk
k
o sea una variable con distribución t−student con k grados de libertad. Ahora sean
12
Figura 3
Vamos a estudiar ahora las propiedades estadísticas de los estimadores MCO. Ba-
Pn
i=1 (yi − ȳ)(xi − x̄)
β̂1 = Pn 2
i=1 (xi − x̄)
Pn
i=1 (xi − x̄)yi
= Pn 2
i=1 (xi − x̄)
Pn
i=1 (xi − x̄)(β0 + β1 xi + ui )
= Pn 2
i=1 (xi − x̄)
Pn Pn Pn
i=1 (xi − x̄)β0 + i=1 (xi − x̄)β1 xi + i=1 (xi − x̄)ui
= Pn 2
i=1 (xi − x̄)
13
Vamos a analizar los primeros dos términos a la derecha del igual. El primero
Pn Pn
i=1 (xi − x̄)β0 β0 i=1 (xi− x̄)
Pn 2
= Pn 2
i=1 (xi − x̄) i=1 (xi − x̄)
= 0
Pn Pn
porque i=1 (xi − x̄) = nx̄ − i=1 xi = nx̄ − nx̄. El segundo
Pn Pn
i=1 (xi − x̄)β1 xi β1 xi − x̄)xi
i=1 (xi
Pn 2
= Pn 2
i=1 (xi − x̄) i=1 (xi − x̄)
Pn
β1 xi i=1 (xi − x̄)2
= Pn 2
i=1 (xi − x̄)
= β1
n
X n
X n
X
(xi − x̄)(xi − x̄) = (xi − x̄)xi − (xi − x̄)x̄
i=1 i=1 i=1
Xn Xn
= (xi − x̄)xi − x̄ (xi − x̄)
i=1 i=1
Xn Xn n
X
= (xi − x̄)xi − x̄( xi − x̄)
i=1 i=1 i=1
Xn
= (xi − x̄)xi − x̄(nx̄ − nx̄)
i=1
Xn
= (xi − x̄)xi
i=1
Resumiendo,
Pn
(xi − x̄)ui
β̂1 = β1 + Pi=1
n 2
(1.5)
i=1 (xi − x̄)
La (1.5) nos dice que el estimador MCO β̂1 es igual al parámetro β1 más otro
término que es una combinación lineal de las variables aleatorias ui . Por esta
razón β̂1 es también una variable aleatoria. Una directa implicación de este re-
14
Ejemplo 1.2 Para entender mejor esta propiedad haremos el siguiente ejer-
regresión anterior. La gura 3 muestra, por cada una de las muestra (eje x),
el valor estimado de β̂1 . Es evidente que cada una de las muestras proporciona
15
Pn !
i=1 ui
= β0 + E
n
Pn
i=1 E(ui )
= β0 +
n
= β0
estimadores MCO
σ2 1 x̄2
P6 V ar(β̂1 ) = Pn (x −x̄)2
y V ar(β̂0 ) = σ 2 n
+ Pn (x −x̄)2
i=1 i i=1 i
implica
Pn
i=1 (xi − x̄)ui
β̂1 − β1 = Pn 2
i=1 (xi − x̄)
Utilizando P5, tomando el cuadrado y el valor esperado de los elementos obte-
−x̄)
Sea ki = Pn(xi(x i −x̄)
2. Podemos escribir la ecuación de arriba como
i=1
n
!2
h i2 X
E β̂1 − E(β̂1 ) = E ki ui
i=1
Para entender mejor el valor esperado a la derecha del igual supongamos que
n = 2. En este caso
2
ki ui )2 = E k12 u21 + k22 u22 + 2k1 u1 k2 u2
X
E(
i=1
= E(k12 u21 ) + E(k22 u22 ) + E(2k1 u1 k2 u2 )
= k12 σ 2 + k2 σ 2
= σ 2 (k12 + k2 )
16
Las primeras tres igualdades se obtienen utilizando las propiedades del valor
quiera
n
!2 n
2
ki2
X X
E ki ui = σ
i=1 i=1
Pn
(xi − x̄)2
= σ Pni=1 2
[ i=1 (xi − x̄)2 ]2
σ2
= Pn 2
(1.6)
i=1 (xi − x̄)
Otra propiedad del estimador MCO es la siguiente, conocida como Teorema de Gauss-
Markov:
dez y linealidad con varianza menor que el estimador MCO. Haremos ahora una
−x̄)
prueba sencilla de esta propiedad para β̂1 . Denimos otra vez ki = Pn(xi(x i −x̄)
2.
i=1
Pn
Entonces, el estimador MCO es β̂1 = i=1 ki yi . Denimos otro estimador lineal
Pn
de β1 , le llamaremos βi∗ como βi∗ = i=1 wi yi . Si substituimos yi obtenemos
Pn Pn Pn
βi∗ = α i=1 wi + β1 i=1 wi xi + i=1 wi ui . Tomando el valor esperado
n n n
! ! !
E(βi∗ )
X X X
= E α w i + E β1 w i xi + E w i ui
i=1 i=1 i=1
n
X n
X
= α wi + β1 w i xi
i=1 i=1
= β1 .
Pn
Para que se cumpla la propiedad de insesgadez de este nuevo estimador i=1 wi =
Pn
0 y i=1 wi xi = 1. Vamos ahora a calcular la varianza de este nuevo estimador.
n
!
ar(β1∗ )
X
V = V ar wi yi
i=1
n
wi2 V ar(yi )
X
=
i=1
17
n
= σ2 wi2
X
i=1
n
!2
2
X (xi − x̄) (xi − x̄)
= σ wi − Pn 2
+ Pn 2
i=1 i=1 (xi − x̄) i=1 (xi − x̄)
n
!2 Pn
(xi − x̄) (xi − x̄)2
2
wi2 − Pn + σ Pni=1 2
X
= σ +
i=1 ( i=1 (xi − x̄)2 )2
i=1 (xi − x̄)
2
n
! !
2
X
2 (xi − x̄) (xi − x̄)
+2σ wi − Pn 2
Pn 2
i=1 i=1 (xi − x̄) i=1 (xi − x̄)
Pn
(x −x̄)2
el último elemento a la derecha del igual es cero. El segundo σ 2 Pni=1 i 2 2 =
( i=1 (xi −x̄) )
σ 2 Pn 1
(xi −x̄)2
. Entonces la varianza de β1∗ será
i=1
n
!2
(xi − x̄) 1
ar(β1∗ ) 2
wi2 + σ 2 Pn
X
V =σ − Pn 2 2
(1.7)
i=1 i=1 (xi − x̄) i=1 (xi − x̄)
−x̄)
Esto implica que la varianza es mínima cuando wi = Pn(xi(x i −x̄)
2 o sea β1∗ tiene
i=1
to, de éste dependen las varianzas de los estimadores. Como será claro en la siguiente
sección, obtener una estimación de la varianza del término de error es básico para
diferencia existente entre los errores ui y los residuos ûi de regresión. Hemos visto que
el residuo de regresión es
= β0 + β1 xi + ui − β̂0 + β̂1 xi
18
Es claro que ûi u ui no son iguales simplemente porque parámetros y estimadores
no coinciden. La relación que hay entre residuo y error es que sus medias coinciden
los valores estimados de los errores o sea los residuos de regresión. Entonces, una
Pn
i=1
û2i
posibilidad sería utilizar la fórmula anterior con los residuos . El problema es
n
que este estimador es sesgado. El estimador insesgado que utilizamos en este curso es
el siguiente:
Pn
2 û2i
i=1
σ̂ = (1.8)
n−2
La insesgadez se obtiene a través de la normalización por n − 2 en lugar de n. Una vez
obtenida una estimación para la varianza del error es muy sencillo estimar la varianza
palabras, sobre hasta que punto la recta de regresión MCO se ajusta a los datos.
siguiente manera:
n
(yi − ȳ)2
X
ST C ≡
i=1
n
(ŷi − ȳ)2
X
SEC ≡
i=1
n
û2i
X
SCR ≡
i=1
SEC mide la varianza muestral de las ŷi (sabemos de P3 que ŷ¯i = ȳ ) y SCE mide la
19
variación muestral de ûi (sabemos de P1 que ¯ = 0).
û Ahora vamos a demostrar que
ST C = SEC + SCR
o sea la suma total de los cuadrados es igual a la suma de los cuadrados de los residuos
n n
(yi − ȳ)2 = (yi − ŷi + ŷi − ȳ)2
X X
i=1 i=1
n
(ûi + ŷi − ȳ)2
X
=
i=1
n n n
û2i + (ŷi − ȳ)2
X X X
= 2ûi (ŷi − ȳ) +
i=1 i=1 i=1
n
X
= SCR + 2ûi (ŷi − ȳ) + SEC
i=1
arriba es cero.
n
X n
X
2ûi (ŷi − ȳ) = 2ûi (ŷi − ȳ)
i=1 i=1
Xn
= 2ûi (β̂0 + β̂1 xi − ȳ)
i=1
Xn
= 2ûi (ȳ − β̂1 x̄ + β̂1 xi − ȳ)
i=1
Xn
= 2ûi β̂1 (xi − x̄)
i=1
n
X n
X
= 2β̂1 ûi xi − 2β̂1 ûi x̄
i=1 i=1
Xn n
X
= 2β̂1 ûi xi − 2β̂1 x̄ ûi
i=1 i=1
= 0
SEC SCR
1= +
ST C ST C
20
Denimos el R-cuadrado de la regresión, o coeciente de determinación, de la siguiente
manera:
SEC SCR
R2 = =1−
ST C ST C
y se interpreta como la fracción de la variación muestral de yi explicada por xi . El R2
siempre está entre cero y uno.
de medida de las variables es necesario para poder interpretar correctamente los pará-
metros estimados. Vamos a estudiar ahora cómo cambian las estimaciones de nuestro
Pn
i=1 (xi − x̄)(cyi − cȳ)
β̃1 = Pn 2
i=1 (xi − x̄)
Pn
(xi − x̄)(yi − ȳ)
= c i=1Pn 2
i=1 (xi − x̄)
= cβ̂1
21
= cȳ − cβ̂1 x̄
= cβ̂0
En este caso, con la nueva variable dependiente cy , los dos estimadores serán los es-
Pn
i=1 (cxi − cx̄)(yi − ȳ)
β̃1 = Pn 2
i=1 (cxi − cx̄)
Pn
c i=1 (xi − x̄)(yi − ȳ)
= c
c2 ni=1 (xi − x̄)2
P
1
= β̂1
c
(1.9)
Formas funcionales
Hasta ahora hemos considerados relaciones lineales entre variables, por ejemplo sa-
22
interpretación de los parámetros en el caso en que una o las dos variables del modelo
Caso 1: log-nivel
Supongamos que nuestro modelo de regresión sea el siguiente
log(y) = β0 + β1 x + u
∆ log(y)
Si ∆u = 0 entonces β1 = ∆x
. Esto signica que 100β1 representa el cambio en
log(salarioi ) = β0 + β1 educi + ui
ˆ
log(salario i ) = 0,58 + 0,08educi
donde el parámetro β̂1 = 0,08 nos dice que un año más de educación determina un
donde las dos variables eran especicadas en niveles. En ese caso, β1 expresaba el
cambio en unidades de salario (miles de euros) cuando educ aumentaba en una uni-
dad (año).
Caso 2: nivel-log
Supongamos que nuestro modelo de regresión ahora sea el siguiente
y = β0 + β1 log(x) + u
∆y
Si ∆u = 0, entonces β1 = ∆ log(x)
. Esto signica que β1 /100 representa el cambio en
23
Ejemplo 4 Ahora utilizando el archivo CEOSALES1 de la bases de datos Wool-
salaryi = β0 + β1 log(salesi ) + ui
MCO obtenemos
ˆ
salary i = −898,93 + 262,9 log(salesi )
Caso 3: log-log
Supongamos que nuestro modelo de regresión ahora sea el siguiente
log(y) = β0 + β1 log(x) + u
∆ log(y)
Si ∆u = 0 entonces β1 = ∆ log(x)
. En este caso β1 tiene la interpretación de elasticidad
log(salaryi ) = β0 + β1 log(salesi ) + ui
ˆ
log(salary i ) = 4,82 + 0,25 log(salesi )
24
La tabla 2 resume la interpretación en todos los diferentes casos.
Tabla 2
1.3. Inferencia
Vamos a tratar ahora el tema de la inferencia. Básicamente estudiaremos el contraste
parámetro.
Este supuesto implica otra propiedad del estimador MCO o sea que el estimador se
25
Además de este nuevo supuesto, necesitamos también repasar algunos resultados es-
β̂i − βi
∼ N (0, 1) (1.10)
se(β̂i )
q
Pn
donde se(β̂i ) = V ar(β̂i ) = σ[ i=1 (xi − x̄)2 ]−1/2 . Segundo (que se demostrará mas
adelante)
Pn 2
i=1 ûi (n − 2)σ̂ 2
= ∼ χn−2
σ2 σ2
o sea el ratio entre el estimador de la varianza multiplicado por n−2 y la varianza
de término de error es una variable con distribución χ2 con n−2 grados de libertad.
t−student
β̂i − βi β̂i − βi
Pn 2 −1/2
= σ̂
σ̂[ i=1 (xi − x̄) ] Pn
([σ i=1 (xi − x̄)2 ]−1/2 )
σ
es la raíz cuadrada de una variable con distribución χn−2 dividido por sus grados de
libertad, o sea, la denición de una variable t−student con n−2 grados de libertad.
β̂i − βi
∼ tn−2 (1.11)
ˆ
se(β̂i )
ˆ
q ˆ
V ar(β̂i ) = σ̂[ ni=1 (xi − x̄)2 ]−1/2 .
P
donde se(β̂i ) =
das hipótesis estadísticas sobre los parámetros del modelo. Para poder desarrollar el
26
contraste necesitamos antes aclarar el concepto de hipótesis nula y de hipótesis alter-
nativa. La hipótesis nula es una hipótesis estadística, una armación sobre algunos
de los parámetros del modelo, que se asume ser cierta al principio del contraste. En
H0 : βi = βi0
H0 : β1 = 0.
podemos rechazar tal hipótesis tendríamos que concluir que no hay ninguna relación
dos colas. Un primer tipo de hipótesis alternativa (contraste a una sola cola) es el
siguiente
H0 : β1 6= βi0 .
determinada hipótesis nula se puede considerar compatible o no con lo datos. Una vez
entre los datos y la hipótesis nula. O sea, necesitamos una cantidad que permita
27
juzgar si la hipótesis que estamos contrastando es compatible con lo que observamos
β̂i
∼ tn−2
ˆ
se(β̂i )
Es importante entender porqué este estadístico puede proporcionar información que
nos permita decidir si la H0 es compatible o no con los datos. Hemos visto que
este estadístico es una variable con distribución t−student. Una vez obtenidas las
estimaciones de los parámetros del modelo, podemos calcular el valor del estadístico
de contraste bajo la hipótesis nula. Esto nos proporcionará un número, digamos t̂n−2 .
Supongamos ahora que este número se encuentre muy alejado del valor promedio
de la distribución. Esto implica que si los datos fueran de verdad generados por el
modelo de regresión con el valor del parámetro implicado por la hipótesis nula, sería
seria improbable obtener los valores obtenidos para las estimaciones de βi y se(β̂i ).
Esto tendría que sugerir que la hipótesis nula es incompatible con nuestros datos y
medio para poder rechazar la hipótesis nula? Para esto necesitamos especicar un nivel
de signicatividad α para el contraste. Éste representa la probabilidad de rechazar
28
critico de la distribución t correspondiente a ese nivel. Denimos el valor crítico t∗n−2, α ,
2
asociado a α, como aquel valor tal que p(|t| > t∗n−2, α ) = α, o sea aquel valor tal que
2
la probabilidad que la variable en valor absoluto tome valores mayores que el valor
la hipótesis nula. La idea que está detrás de este criterio de rechazo es que si
|t̂n−2 | > t∗n−2 α esto signica que p(|tn−2 | > t̂n−2 ) < α, o sea el valor t̂n−2 esta-
2
ˆ ˆ
para las desviaciones típicas de los estimadores: se(β̂0 ) = 0,16, se(β̂1 ) = 0,05. Pode-
mos contrastar la hipótesis nula que los años de educación no tienen efecto alguno
β̂1 0,54
=
ˆ 0,05
se(β̂1 )
= 10,8
29
y comparar el valor obtenido con el valor crítico de la distribución t−student con
digamos α = 0,05. El valor crítico es t∗524,0,025 = 1,9645 < t̂. Entonces, rechazamos la
hipótesis nula al 5 %. Supongamos ahora que la hipótesis estadística que nos interesa
contrastar sea que un año más de educación corresponde a un dólar por hora mas.
Otra vez rechazamos la hipótesis nula al 5 % porque el valor absoluto del estadístico
Una propiedad muy importante del contraste de hipótesis es que si hemos rechazado
todos los niveles de signicatividad mayor que α. La razón es que si α0 > α entonces
t∗n−2, α y innito.
2
hipótesis nula.
30
Supongamos que queremos contrastar la H0 : βi = βi0 frente a la alternativa H1 : βi <
βi0 . El contraste de hipótesis se desarrollará a través de los pasos siguientes:
hipótesis nula.
Notese que mientras en el contraste a dos colas el valor crítico de referencia es t∗n−2, α
2
∗
para un nivel de signicatividad α, en el contraste a una cola será tn−2,α o −t∗n−2,α
Valor- p
nula. El problema es que la elección del nivel de conanza es una decisión subjetiva
del investigador ya que no existe un nivel correcto. Para esta razón, a menudo, es
mínimo al que se puede rechazar la hipótesis nula y se dene (en el contraste a dos
colas) como
o sea, indica la probabilidad que la variable t tome, en valor absoluto, valores mayores
que el valor obtenido para el estadístico de contraste t̂. Queda claro entonces porque
31
1.3.2. Intervalos de conanza
El segundo instrumento para la inferencia es el de los intervalos de conanza para un
que decidir sobre una hipótesis nula, la idea es de encontrar un intervalo tal que, con
Utilizando lo que hemos visto antes sabemos que 1−α corresponde a la pro-
Vamos a ver ahora como de aquí podemos construir un intervalo de conanza para el
ˆ ˆ
p −t∗n−2, α se(β̂i ) < β̂i − βi < t∗n−2, α se(β̂i ) = 1−α
2 2
ˆ ˆ
p −β̂i − t∗n−2, α se(β̂i ) < −βi < −β̂i − t∗n−2, α se(β̂i ) = 1−α
2 2
ˆ ˆ
p β̂i − t∗n−2, α se(β̂i ) < βi < β̂i + t∗n−2, α se(β̂i ) = 1−α
2 2
Esto nos dice que con probabilidad 1 − α el parámetro βi estará incluido en el in-
ˆ ˆ
tervalo [β̂i − t∗n−2, α se(β̂i ), β̂i + t∗n−2, α se(β̂i )]. Esto es un intervalo de conanza para el
2 2
parámetro βi .
(0,05)(1,96)] = [0,44, 0,64]. Podemos notar que el intervalo no incluye el valor cero
32
y esto es consistente con el resultado del contraste de la hipótesis H0 : β1 = 0 que
33
Ejercicios
(1) Queremos analizar el efecto del gasto en campaña electoral sobre el porcentaje
porcentaje de votos de A?
como valor crítico 1.96 y sabiendo que la desviación típica de β̂1 es 0,01 .
(c) La suma de los cuadrados de los residuos (SCR) es 40891.1 Hallar la des-
price = β0 + β1 assess + u
estimada es
34
(a) Contrastar la hipótesis H0 : β0 = 0.
(b) Contrastar H0 : β1 = 1.
y.
contraste t.
y x
6.3000 2.0000
9.5000 4.0000
7.4000 3.0000
2.4000 1.0000
0.9000 0
(c) Encontrar R2 .
35
(7) Estamos interesados en analizar la relación entre dos variables xi y yi . Por esto
yi = β0 + β1 xi + ui
xi = γ0 + γ1 yi + vi
Si estimamos los parámetros de los dos modelos utilizando MCO ¾es siempre
1
cierto que β1 = γ1
? Si no ¾en que casos?
36
Aplicaciones con GRETL
(1) Ejercicio 2.10 Wooldridge.
37
Capítulo 2
2.1. El modelo
En muchas aplicaciones es natural pensar que una variable económica de interés
pueda depender de más de una variable exógena. Por esta razón, veremos ahora cómo
el modelo de regresión lineal con k-variables. A diferencia del modelo simple este
modelo admite más de una variable como regresor. El modelo de regresión lineal con
2. xij , j = 1, ..., k − son las k variables a través de las cuales queremos explicar
38
3. ui − es el término de error, es una variables aleatoria y representa factores no
el modelo como
y = Xβ + u (2.2)
39
Como en el capitulo anterior, añadimos al supuesto de linealidad del modelo los
supuestos siguientes:
S2' Las variables dependientes son non aleatorias o jas en muestras repetidas.
S5' El rango de X es k + 1.
Como el caso del modelo simple un supuesto alternativo a S2 que podemos hacer es
el siguiente.
2.2. Estimación
2.2.1. Estimador Mínimos Cuadrados Ordinarios (MCO)
Como en el modelo simple, el único estimador que veremos en el modelo a k -variables
es el estimador MCO. Para poder derivar el estimador necesitamos algunos resultados
= (y − Xβ̂)0 (y − Xβ̂)
= y0 y + β̂ 0 X0 Xβ̂ − 2β̂ 0 X0 y
40
y esto implica que los dos serán iguales. Entonces podemos formular el problema de
Como antes, el problema se soluciona tomando las condiciones del primer orden, o
sea las derivadas parciales respecto a β̂ igualadas a cero. La única diferencia con al
caso anterior es que aquí tenemos que utilizar las reglas de derivaciones respecto a un
vector y no un escalar. Las condiciones del primer orden son las siguientes
X0 Xβ̂ − X0 y = 0.
Este resultado es muy útil para poder entender la interpretación de cada uno de los
elementos en el vector β̂ . Dado que r̂j es la parte de xj que no está relacionada con las
demás variables independientes, β̂j mide el efecto de xj sobre y una vez que descon-
tamos los efectos de las demás variables exógenas. Por eso, podemos interpretar β̂j
como el efecto parcial de xj sobre y o sea el efecto de xj cuando las demás variables
se mantienen jas.
Ejemplo 2.1 En el modelo utilizado en el Ejemplo 1.1 para explicar el salario horario,
añadimos otro regresor: los años trabajados en el actual puesto de trabajo. Utilizando
ˆ
log(salario i ) = 0,216 + 0,097educ + 0,010exper.
41
La interpretación de β̂1 = 0,097 es que ahora un año más de educación produce un
incremento del salario de 9.7 %, mientras que un año más de experiencia laboral au-
menta el salario en un 1 %.
parámetros que ya eran incluidos cambian. Este resultado queda claro en el ejemplo
que acabamos de ver, donde en el caso de un solo regresor β̂1 = 0,8 mientras que
añadiendo exper cambia a 0,97. Hay dos excepciones a este resultado. Se consideren
esto signica que la covarianza es cero y que el efecto de x2 sobre x1 es cero. Pero
esto implica que r̂i1 = xi1 − β̂0 = xi1 − x̄1 y los estimadores de β̂1 coinciden en los dos
modelos.
Para la varianza del error, el estimador insesgado que utilizaremos en este capitulo
es parecido al anterior. La única diferencia es que ahora hay que normalizar por el
û0 û
σ̂ 2 = (2.4)
n−k−1
42
1
Ejemplo 2.2 Se consideren los datos siguientes
5 −3 2 0
−3 6 −2 −4
(X0 X)−1 =
2
−2 4 3
0 −4 3 4
3
2
X0 y =
1
2
y0y = 80, n = 90 (2.5)
β̂ = (X0 X)−1 X0 y
5 −3 2 0 3
−3 6 −2 −4
2
=
2
−2 4 1
3
0 −4 3 4 2
11
= −7
12
(2.6)
û0û
σ̂ 2 =
n−k−1
y0y − β̂ 0 X0 y
=
n−k−1
1 Los datos son tomado desde Johnston and DiNardo (2001).
43
Sabemos que y0y = 80. Sólo nos falta calcular el segundo elemento
3
2
β̂ 0 X0 y = ( 11 −7 12 3)
= 37
1
2
80−37
entonces σ̂ 2 = 86
= 0,5.
mos las propiedades algébricas y después las propiedades estadísticas de tales estima-
dores.
Propiedades algébricas
P1' X0 û = 0
X0 û = X0 (y − Xβ̂)
= X0 y − X0 Xβ̂
= 0
Propiedades estadísticas
repasar media y varianza para un vector de variables aleatorias. Sea x = [x1 , ..., xk ]0
un vector de n variables aleatorias. Denimos su valor esperado
E(x1 )
.
.
E(x) = .
E(xk )
44
y su varianza
principal hay los términos E [(xi − E(xi ))2 ], o sea las varianzas de las variables con-
tenidas en el vector x, mientras que fuera de la diagonal principal hay los términos
E [(xi − E(xi ))(xj − E(xj ))], o sea las covarianzas entre las variables en x. Si x es un
vector de variables aleatoria normales, o sea si x tiene distribución normal multiva-
x ∼ N (µ, Σ)
Vamos a estudiar ahora las propiedades estadísticas de los estimadores MCO. Pode-
mos ahora volver a escribir en forma matricial los supuestos S2' y S3'. El primero
implica que E(u) = 0, el segundo que V ar(u) = σ 2 I donde I es una matriz identidad
de dinemsión n × n.
β̂ = (X0 X)−1 X0 y
= β + (X0 X)−1 X0 u
= β
45
P3' V ar(β̂) = σ 2 (X0 X)−1
Utilizando la denición de varianza de un vector de variables aleatorias
h i
V ar(β̂) = E (β̂ − E(β̂))(β̂ − E(β̂))0
h i
= E (β̂ − β)(β̂ − β)0
β̂ − β = (X0 X)−1 X0 u
Entonces
h i
V ar(β̂) = E (X0 X)−1 X0 uu0 X(X0 X)−1
= σ 2 (X0 X)−1
P4' El estimador de la varianza del término de error visto antes es insesgado E(σ̂2 ) =
σ2.
P5' El vector de residuos û es una transformación lineal del vector término de error
u.
De su denición tenemos
û = y − Xβ̂
= y − X(X0 X)−1 X0 y
= (I − X(X0 X)−1 X0 )y
= (I − X(X0 X)−1 X0 )u
= Mu
46
P6' El vector de residuos û tiene esperanza cero, E(û) = 0 y varianza E(ûû0 ) =
σ 2 M.
Desde la propiedad de antes E(û) = ME(u) = 0. Además
E(ûû0 ) = E(Muu0 M)
= ME(uu0 )M
= σ2M
y simétrica.
= σ 2 A0 [I − X(X0 X)−1 X0 ]A
= σ 2 A0 MA
h i
c0 V ar(β̂) − V ar(β ∗ ) c ≥ 0
47
por denición de matríz semidenida positiva y en particular V ar(β̂j ) ≤ V ar(βj∗ )
por cualquier j.
n
(yi − ȳ)2 = y0 y − nȳ 2
X
ST C ≡
i=1
n
(ŷi − ȳ)2 = ŷ0 ŷ − nȳ 2
X
SEC ≡
i=1
n
û2i = û0 û
X
SCR ≡
i=1
Segundo, como en el modelo simple ST C = SEC + SCR. Para poder demostrar esto
empezamos por la denición de SCR.
= y0 y − β̂ 0 X0 y − y0 Xβ̂ + β̂ 0 X0 Xβ̂
= y0 y − β̂ 0 X0 y (2.7)
y0 y = û0 û + β̂ 0 X0 y
Lo único que hay que observar ahora es que ŷ0 ŷ = β̂ 0 X0 y. Esto es fácil de demostrar:
β̂ 0 X0 y = β̂ 0 X0 (Xβ̂ − û)
= β̂ 0 X0 Xβ̂ − β̂ 0 X0 û
= β̂ 0 X0 Xβ̂
= ŷ0 ŷ
48
donde la tercera igualdad se obtiene con la propiedad P1' y la última por denición
de ŷ. Hemos entonces establecido que la suma total de cuadrados es igual a la suma
SEC
R2 =
ST C
β̂ 0 X0 y − nȳ 2
=
y0 y − nȳ 2
β̂ 0 X0 Xβ̂ − nȳ 2
=
y0 y − nȳ 2
hecho podemos escribir la varianza de cada uno del los β̂j como
σ2
V ar(β̂j ) = Pn 2 2
(2.8)
i=1 (xij − x̄) (1 − Rj )
donde Rj2 es el R-cuadrado que se obtiene de la regresión de xj sobre todas las demás
variables exógenas.
Ejercicio 2.2 (cont.) Utilizando los datos del ejemplo 2.2 calcular R2 . Sabemos
β̂ 0 X0 y−nȳ 2 Pn
que R2 = y0 y−nȳ 2
. El primer elemento de X0 y es i=1 yi = 3. Entonces el nume-
R2 = 36,9/79,9 = 0,46.
independientes con una varianza muestral distinta de cero, la suma de los residuos al
cuadrado tiene que disminuir y por esta razón el coeciente de determinación tiene
49
que aumentar. Esto implica que no podemos utilizar el R2 como una medida de bon-
dad del ajuste para comparar modelos con un número diferente de regresores. O sea
riable exógena es útil para explicar la variable dependiente. Gracias a esta corrección
R̄2 nos permite comparar la bondad del ajuste en modelos con un número diferente
n−1
R̄2 = 1 − (1 − R2 )
n−k−1
n−1
Cuando añadimos un regresor k aumenta. Esto hace aumentar n−k
(1−R2 ) y disminuir
R̄2 contrastando el efecto opuesto debido al aumento de R2 .
A menudo la comparación entre R̄2 de diferentes modelos se toma como criterio
de elección entre modelos. Para poder hacer esto, dos condiciones deben cumplirse:
misma. Hay que hacer una advertencia aquí. El hecho de encontrar un R̄2 bajo no
una situación que ocurre a menudo en los trabajos empíricos. Más importante que
conables para los contrastes de hipótesis para los parámetros del modelo de interés
económico.
50
y añadir un supuesto, como hemos en el capitulo anterior, al modelo. El supuesto es
Del supuesto anterior deriva otra propiedad del estimador MCO, o sea
Los resultados mencionados antes son los siguientes. Sea x un vector k ×1 de variables
aleatorias.
x0 Σ−1 x ∼ χ2k
x0 Ax ∼ χ2r
En particular si x ∼ N (0, σ 2 I)
x0 Ax
∼ χ2r
σ2
Aplicando (i) y (ii) a nuestros estimadores obtenemos dos resultados muy importantes
1) Desde la proprieded P4' sabemos que bajo las hipótesis del modelo β̂ ∼ N (β, σ 2 (X0 X)−1 ).
Entonces
q ≤ k + 1)
R(β̂ − β) ∼ N (0, Rσ 2 (X0 X)−1 R0 ).
(R(β̂ − β))0 (Rσ 2 (X0 X)−1 R0 )−1 (R(β̂ − β)) ∼ χ2q (2.9)
51
2) Desde la proprieded P7' y desde el supuesto S5' sabemos que û = M u y
û0 û u0 M u
= ∼ χ2n−k−1
σ2 σ2
Podemos notar que esta expresión es el ratio entre dos variables χ2 cada una
y la segunda es
û0 û σ̂ 2
= ,
σ 2 (n − k − 1) σ2
como hemos visto en el capitulo anterior, el ratio entre dos χ2 divididas por sus
variable Fq,n−k−1 donde q son los grados de libertad del numerador y n−k−1
los del denominador.
nes lineales múltiples. Como en el modelo simple los ingredientes básicos son una
52
de la hipótesis nula. Empezamos explicando cómo podemos expresar en términos for-
males una hipótesis nula que implique un conjunto de restricciones lineales sobre los
Rβ = r
β1 + β2 = 1
β3 = −1
H0 : Rβ = r
y la alternativa como
H0 : Rβ 6= r
estadístico es
(Rβ̂ − r)0 (R(X0 X)−1 R0 )−1 (Rβ̂ − r)/q
û0 û
∼ Fq,n−k−1 (2.11)
n−k−1
53
o sea una variable con distribución F con q y n−k−1 grados de libertad. (2.11)
nuestra muestra de datos y las restricciones implicadas por la hipótesis nula calcula-
∗ ∗
mos el valor para el estadístico de contraste F̂ . Si F̂ > Fq,n−k−1,α , donde Fq,n−k−1,α
es el valor crítico para la distribución F con q y n−k−1 grados de libertad, recha-
∗
zamos la hipótesis nula al nivel de conanza α. Si por lo contrario F̂ < Fq,n−k−1,α no
rechazamos la hipótesis. Otra vez la idea que está detrás del criterio de rechazo es
cualquier decisión sobre la hipótesis nula es una decisión sobre todas las restricciones
H0 : 2β1 + β2 = 3 (2.12)
niendo R y r. R = ( 0 2 1 0 ), = r = 3. Entonces
11
−7
Rβ̂ − r = ( 0 2 1 0) −3 = −5
12
3
Podemos encontrar ahora R(X0 X)−1 R0
5 −3 2 0 0
−3 6 −2 −4
2
R(X0 X)−1 R0 = ( 0 2 1 0)
2
−2 4 3
1
0 −4 3 4 0
54
0
2
= ( −4 10 0 −5 )
= 20
1
0
Juntando todas las piezas obtenemos
1
(−5) 20 (−5)
F̂ = = 2,5
0,5
∗
El valor crítico 5 % es F1,86 = 3,95, por lo tanto no rechazamos la hipótesis nula.
55
Entonces el estadístico de contraste será
−1
20 −5 −5
( −5 −3 ) = 7,8
−5 4 −3
que es mayor del valor crítico al 5% o sea 3.1. Por lo tanto rechazamos la
hipótesis nula.
y la siguiente hipótesis
β1 = 0
H0 : . (2.14)
β2 = 1
yi = β0 + xi1 + β3 xi3 + ui
¾Cómo podemos estimar los parámetros de este modelo? Podemos escribir la ecuación
anterior como
yi − xi1 = β0 + β3 xi3 + ui
yi∗ = β0 + β3 xi3 + ui
Considerando yi∗ = yi − xi1 como nueva variable dependiente, podemos utilizar MCO
56
Una vez obtenidas las estimaciones podemos calcular la suma de los residuos al cuadra-
Pn
do SCRr = i=1 û2ri con ûri = ŷi∗ − β̂3∗ xi3 (el índice r se reere al modelo restringido).
(SCRr − SCR)/q
∼ Fq,n−k−1 (2.15)
SCR/(n − k − 1)
o, utilizando sus deniciones,
(2.11), en el sentido que los números calculados en los dos casos coinciden.
contraste sólo se puede utilizar en el caso en que las variables dependientes coincidan
0 0
uˆr uˆr û û
(uˆr 0 uˆr − û0 û)/q ( y0y−nȳ 2 − y0y−nȳ 2 )/q
= û0 û
û0 û/(n − k − 1) y0y−nȳ 2
/(n − k − 1)
û0 û uˆr 0 uˆr
Desde la denición de coeciente de determinación
y0y−nȳ 2
= 1−R2 y y0y−nȳ 2
= 1−Rr2
donde Rr2 es el coeciente de determinación en el modelo restringido. Entonces
pone en evidencia porque para poder utilizar este contraste necesitamos que la va-
riable dependiente sea la misma en los dos modelos. Para llegar a esta expresión
57
uˆr 0 uˆr
necesitamos poder interpretar como uno menos el coeciente de determina-
y0y−nȳ 2
ción en el modelo restringido. Esto es el caso sólo si y0y −nȳ 2 es la suma de cuadrados
signica que este estadistico no se puede utilizar para contrastar la hipótesis nula
siguientes estimaciones:
ˆ
log(salario i ) = 0,216 + 0,097educ + 0,010exper
com SCR = 111,345 y Rr2 = 0,24934. Si excluimos exper del modelo y volvemos a
estimar obtenemos
ˆ
log(salario i ) = 0,583 + 0,082educ
(120,769 − 111,345)/1
= 43,92
111,345/519
y rechazamos la hipótesis nula porque este valor es mayor que el valor crítico al
∗
5% F1,524 = 3,86. Utilizando (2.17) obtenemos
(0,24934 − 0,18581)/1
= 43,92
(1 − 0,24934)/519
R2 /q 0,24934/1
2
= = 172,39
(1 − R )/(n − k − 1) (1 − 0,24934)/519
58
que es mayor que el valor crítico al 5 % y por lo tanto rechazamos la hipótesis
nula.
sobre los parámetros del modelo. En particular este contraste se puede utilizar para
contrastar H0 : βi = βi0 . En el capítulo anterior hemos visto que para contrastar esta
2
los dos porque existe una relación que nos dice que tn−k−1 = F1,n−k−1 . Para contrastar
la hipótesis nula H0 : βi = βi0 podemos emplear el estadístico t con n−k−1
grados de libertad o el estadístico F1,n−k−1 . El resultado (rechazar o no rechazar H0 )
será exactamente igual en los dos contraste. Nótese que en el caso de k -variables si
parámetros.
59
Ejercicios
(1) Volvemos a considerar el modelo del ejercicio (2) en el precedente capitulo
price = β0 + β1 assess + u
estimada es
(c) Con MCO encontramos β̂1 = 0,95 y β̂2 = −0,0048 y β̂2 = 11,83 . Interpre-
60
(f ) ¾Podemos, sabiendo que bajo la H0 : β1 = 1, β2 = 0 el R2 es 0,7, contrastar
esta H0 ?.
Y = Xβ + u
nula en (b).
Yi = β0 + β1 Xi + ui
61
Xi2 = 147,18
P P
donde se conocen las siguientes cantidades: i Xi = 37,2 i
Yi2 = 597,03
P P P
i Yi = 75,50 i t Yi Xi = 295,95, N = 10.
igual a cero.
Valore críticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62
yi = β0 + β1 xi1 + ui .
Supongamos de añadir otro regresor xi2 correlacionado con xi1 . ¾Cual será el
62
Aplicaciones con GRETL
(1) Ejercicio 4.12 Wooldridge.
63
Capítulo 3
Extensiones
decisión sobre cuales variables hay que incluir en el modelo. Veremos dos casos: el
primero en que en que incluimos una variable irrelevante y el segundo en que omitimos
yi = β0 + β1 xi1 + ui
yi = β0 + β1 xi1 + β2 xi2 + ui
de β2 que tendría que acercarse al cero, ya que su valor medio en muestras repetidas
será igual a cero. Esto deriva del hecho que los estimadores siguen insesgados por-
que no hay ninguna violación de los supuestos del modelo. Sin embargo, hay alguna
64
implicación sobre la precisión de las estimaciones. Desde el primer capítulo sabemos
σ2
V ar(β̂1 ) = Pn 2 2
(3.1)
i=1 (xi1 − x̄1 ) (1 − R1 )
en el caso en que el modelo fuese bien especicado. Entonces, aunque los estimadores
siguen insesgados, la varianza de los estimadores será mayor si las variables están
especicado sea
yi = β0 + β1 xi1 + β2 xi2 + ui
yi = β0 + β1 xi1 + ui
x2 Pn
i=1 (xi1 − x̄1 )(yi − ȳi )
β̂1 = Pn
i=1 (xi1 − x̄1 )
Pn
− x̄1 )(β1 xi1 + β2 xi2 + ui )
i=1 (xi1
β̂1 = Pn 2
i=1 (xi 1 − x̄1 )
Pn Pn Pn
i=1 (xi1 − x̄1 )xi1 i=1 (xi1 − x̄1 )xi2 (xi1 − x̄1 )ui
= β1 Pn 2
+ β2 Pn 2
+ Pi=1
n 2
i=1 (xi 1 − x̄1 ) i=1 (xi 1 − x̄1 ) i=1 (xi 1 − x̄1 )
Pn Pn
(xi1 − x̄1 )xi2 (xi1 − x̄1 )ui
= β1 + β2 Pi=1
n 2
+ Pi=1
n 2
(3.2)
i=1 (xi 1 − x̄1 ) i=1 (xi 1 − x̄1 )
65
Si tomamos el valor esperado obtenemos
Pn
(xi1 − x̄1 )xi2
E(β̂1 ) = β1 + β2 Pi=1
n 2
(3.3)
i=1 (xi 1 − x̄1 )
modelo. Por ejemplo, podemos pensar en los rendimientos de escala en una función
estimar el modelo de regresión bajo restricciones lineales sobre los parámetros, o sea
siguiente modelo
donde q<k y que estas restricciones se pueden expresar, como hemos visto ya en el
mı́n
∗
y0 y + β ∗ 0 X0 Xβ ∗ − 2β ∗ 0 X0 y
β
s.a. Rβ ∗ = r
66
donde β̂ es el estimador MCO. Su varianza es
h i
V ar(β ∗ ) = σ 2 (X0 X)−1 − (X0 X)−1 R0 (R(X0 X)−1 R0 )−1 R(X0 X)−1
y se puede demostrar que esta varianza es menor que la varianza del β̂ . Vamos a ver
ahora formalmente que el test de Wald visto antes coincide con la forma alternativa
ûr = y − Xβ ∗
entonces
67
Ejercicios
(1) Supongamos que el verdadero modelo de regresión sea
yi = β0 + β1 xi1 + β2 xi2 + ui
yi = β0 + β1 xi1 + ui
68
Apéndices
A.1 GRETL
GRETL (http://gretl.sourceforge.net/win32/) es un programa de econometría que
se puede bajar gratis desde internet. Está instalado en las aulas de informática 21-
con Windows, Mac, y Linux. Está disponible en varios idiomas incluyendo el español.
GRETL ya tiene instalada varias bases de datos. En la misma página podéis bajar e
instalar en GRETL otras bases de datos como Wooldridge, de la cual hemos utilizado
de utilizar. En el programa hay una guía de usuario muy útil que introduce el uso del
programa.
Datos
Para poder cargar una base de datos en GRETL tenemos que, como se ve en gura
pantalla con todas las bases de datos que hay disponibles en GRTL. Como ejemplo,
69
Figura 4
tulo 1. La gura 7 muestra una nueva pantalla con todas las variables contenidas en
opcciones en el menú que antes eran disponibles. Por ejemplo, seleccionando Datos
tenemos varias opcciones que, entre otras cosas, nos permiten crear nuevas variables
70
Figura 5
71
Figura 6
72
Figura 7
73
Figura 8
74
Figura 9
MCO
Vamos a ver ahora como estimar un modelo de regresión con MCO. Si volvemos
regresión con MCO. Si seleccionamos este comando se abre otra pantalla (gura 10).
En esta nueva pantalla tenemos que seleccionar la variable dependiente (en la parte
alta) y las variables independiente (en la parte baja). En este ejemplo seleccionamos
75
wage como variable dependiente y const (el término constante) y educ como varia-
bles independientes. Una vez seleccionado ok GRETL estima con MCO el modelo y
nos proporciona la tabla de resultados que vemos en gura 11. En esta tabla tenemos:
cedimiento visto antes pero añadiendo otro regresor exper. Utilizamos ahora estas
el menú de la pantalla de los resultados hay una opción que es tests. Si selecciona-
mos esta oppcion vemos (gura 13) que hay varias sub-opcciones entre las cuales hay
linear restrictions. Seleccionando tal opccion se abre otra página (gure 14) en
la que hay que escribir cual hipótesis nula queremos contrastar. Una vez declarada la
hipótesis nula seleccionamos ok y obtenemos, gura 15, los resultados del contraste.
GRETL nos proporciona el valor del estadistico de contraste F (en este caso igual a
76
Figura 10
77
Figura 11
78
Figura 12
79
Figura 13
80
Figura 14
81
Figura 15
82
A.2 Exámenes
83
Examen Econometría (PUE) Diciembre 2007
1. El siguiente modelo es una versión simplicada del modelo utilizado por Biddle
trabajar:
donde sleep y totwork son el tiempo (en minutos) dormido y trabajado por sema-
na y educ y age son respectivamente educación y edad (en años). Utilizando 706
observaciones se obtienen las siguientes estimaciones
a) Se interpreten desde un punto de vista cuantitativo todos y cada uno de los coe-
cientes estimados.
b) Si alguien trabaja cinco horas mas por semana, ¾de cuanto cambia sleep según el
modelo estimado?
Sean 112,28, 0,017, 5,88, 1,45 las desviaciones típicas de β̂0 , β̂1 , β̂2 , β̂3 respectivamente.
e) Contrastar al 5 % la hipótesis nula de que cada uno de los coecientes sean se-
g) Contrastar al 5 % la hipótesis nula de que los coecientes β̂1 , β̂2 , β̂3 sean cero con-
juntamente.
84
Supongamos ahora que sacamos educ y age de nuestro modelo. La estimación nos
da
h) ¾El hecho de incluir age y educ cambia substancialmente la relación entre trabajar
y dormir?
i) ¾Podría ser R2 en este caso mayor del que hemos obtenido en la estimación ante-
a cero.
Yi = β0 + β1 Xi + ui
Xi2 = 147,18
P P P
donde se conocen las siguientes cantidades: i Xi = 37,2 i i Yi =
Yi2 = 597,03
P P
75,50 i t Yi Xi = 295,95, N = 10.
a) Estimar β0 , β1 utilizando el estimador de mínimos cuadrados.
cero.
Valore críticos :
t0,025,8 = 2,28, t0,025,702 = 1,96, F2,702 = 3,01, F3,702 = 2,62
85
Examen Econometría (PUE) Septiembre 2008
habitaciones ( bdrms )
Se satisfacen todos los supuestos del modelo de regresión lineal que hemos estudiado
H0 : β1 = 1.
(iv) Contrastar al 5 % hipótesis nula
β1 = 0
H0 :
β2 = 0
n = 88, R2 = 0,561136
(v) ¾Cuál es el aumento estimado en el precio de una casa cuando se añade una
86
(vi) ¾Cuál es ahora la interpretación de β̂1 = 0,808254?
1,04306log(assess) + +0,00743824log(lotsize) + u,
log(price) − log(assess) = β0 + u
Valores críticos: t0,025,85 = 1,98, F2,85 = 3,1, F2,83 = 3,11, F4,83 = 2,48
87
Examen Econometría I (PUE) Diciembre 2008
donde wage es el salario por hora, jc es el número de años como estudiante en una
ˆ
log(wage) = 2,091 + 0,070jc + 0,069univ, n = 6763, R2 = 0,109, SCR = 1432,93.
(ii) ¾Cual es el valor predicho de log(wage) para un individuo con cuatro años de
(iii) ¾Qué porcentaje de la variación en el logaritmo del salario se explica por las
(H0 : β2 = 0).
conjuntamente.
88
el trabajo
ˆ
log(wage) = 1,472 + 0,0667jc + 0,0769univ + 0,0049exper
los demás factores. Esto nos permite comparar el rendimiento de diferentes tipos de
(ix) Sea θ = β1 − β2 y sea totcol = jc + univ . Mostrar que el modelo (2) se pue-
de escribir como
modelo.
89
Bibliograa
New York.
3.a edición.
a
Paraninfo Thompson Learning, 2 Ed.
90