P. 1
Solucionario del capítulo 1 de Pindyck

Solucionario del capítulo 1 de Pindyck

|Views: 1.717|Likes:
Publicado porriemma
Soluciones al capítulo 1 de Pindyck
Soluciones al capítulo 1 de Pindyck

More info:

Published by: riemma on Apr 29, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

04/27/2015

pdf

text

original

§1. Capítulo 1. Ejercicios Resueltos.

Ejercicio 1.1. a)

M vs. Y 5.5 5.0 4.5 4.0 M 3.5 3.0 2.5 2.0 1.5 4 5 6 7 Y 8 9 10 11

Dependent Variable: Y Method: Least Squares Date: 09/01/09 Time: 11:20 Sample: 1981 1990 Included observations: 10 Variable C M R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 1.168145 1.715553 0.958626 0.953454 0.373717 1.117312 -3.231091 1.775444 Std. Error 0.483419 0.126008 t-Statistic 2.416420 13.61458 Prob. 0.0421 0.0000 7.550000 1.732211 1.046218 1.106735 185.3568 0.000001

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

1

b) El intercepto en YN i = a + bM i + ε i ( i = 1, 2,..., n ) es el ingreso nacional (YN ) que es independiente de la variable explicativa que es la cantidad de dinero ( M ) . La pendiente (1.71553) es el incremento en el ingreso nacional cuando la cantidad de dinero se incrementa en una unidad. c) Conforme al dato, YN = 12 en 1991 por lo que 12 = 1, 618145 + 1, 715553M . Por lo tanto,
M= 12 − 1,168145 = 6.313914522. Es decir, la cantidad de dinero deberá ser 6.31 millones 1, 715553

de dólares para que el ingreso nacional sea 12 millones de dólares en el año 1991.

Ejercicio 1.2. La recta de regresión estimada en el texto es
Dependent Variable: G Method: Least Squares Date: 09/01/09 Time: 16:15 Sample: 1 8 Included observations: 8 Variable C IP R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 1.375000 0.120370 0.782407 0.746142 0.329843 0.652778 -1.327668 3.230496 Std. Error 0.368776 0.025915 t-Statistic 3.728556 4.644832 Prob. 0.0098 0.0035 3.000000 0.654654 0.831917 0.851777 21.57447 0.003523

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

La recta de regresión que pide se estime en el ejercicio es IPi = a + bGi + ε i , la cual está dada por
Dependent Variable: IP Method: Least Squares Date: 09/01/09 Time: 16:16

2

Sample: 1 8 Included observations: 8 Variable C G R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient -6.000000 6.500000 0.782407 0.746142 2.423840 35.25000 -17.28360 3.147163 Std. Error 4.284784 1.399405 t-Statistic -1.400304 4.644832 Prob. 0.2110 0.0035 13.50000 4.810702 4.820901 4.840761 21.57447 0.003523

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

El diagrama de dispersión entre las dos variables es

24

20

16 IP 12 8 4 1.6

2.0

2.4

2.8 G

3.2

3.6

4.0

4.4

¿Porqué los dos resultados son diferentes? La primera regresión es Gi = a + bIPi + ε i , en la que tenemos como variable endógena a los puntos promedios de los alumnos y como variable explicativa al ingreso de los padres, además de la variable estocástica. Aquí la teoría nos dice que el rendimiento académico puede estar explicado por el bienestar económico de la familia. Si, al revés, consideramos como la variable endógena o dependiente al ingreso de los padres y como variable explicativa al rendimiento académico de los hijos, estamos

3

sustancialmente cambiando la recta de regresión estimada y por consiguiente los parámetros estimados deberían ser diferentes. Ejercicio 1.3. a) El modelo original está dado por Y = a + bX . El modelo transformado está dado por Y = a '+ b ' X ∗ , donde X ∗ = 10 X . Estimación de b por mínimos cuadrados ordinarios en el modelo original. Se realiza conforme a la siguiente expresión

⎛ ⎞ n∑ X i2 − ⎜ ∑ X i ⎟ i =1 ⎝ i =1 ⎠ Estimación de b por mínimos cuadrados ordinarios en el modelo transformado. Se realiza conforme a la siguiente expresión
n n

b=

n∑ X iYi − ∑ X i ∑ Yi
i =1 i =1 i =1 2

n

n

n

⎛ ⎞ ⎛ ⎞ n∑ X i∗ 2 − ⎜ ∑ X i∗ ⎟ n∑102 X i2 − ⎜102 ∑ X i ⎟ i =1 i =1 i =1 ⎝ i =1 ⎠ ⎝ ⎠ Por lo tanto, al multiplicar la variable explicativa X i por un factor de 10 el parámetro estimado correspondiente a esta variable explicativa fue dividido por 10.
n n n n

b' =

n∑ X i∗Yi − ∑ X i∗ ∑ Yi
i =1 i =1 i =1 2

n

n

n

=

n∑ 10 X iYi − ∑10 X i ∑ Yi
i =1 i =1 i =1 2

n

n

n

=

10 1 b = b. 2 10 10

Estimación de a por mínimos cuadrados ordinarios en el modelo original. Se realiza conforme a la siguiente expresión
a=

∑Y
i =1

n

i

n n Estimación de a ' por mínimos cuadrados ordinarios en el modelo transformado. Se realiza conforme a b n n n 10 Por lo tanto, el intercepto es el mismo en ambos modelos. a' =
i =1

−b

∑X
i =1

n

i

∑ Yi

n

−b'

∑ X i∗
i =1

n

=

∑ Yi
i =1

n

10∑ X i
i =1

n

= a.

b) En esta sección el modelo transformado queda de la siguiente manera: Y ∗ = c1 + c2Y X ∗ = d1 + d 2 X Calcularemos los parámetros a, a ', b, b ' correspondientes a los modelos original y transformado al igual que en la parte a) de este ejercicio. La única diferencia en la solución será que utilizaremos en este caso las fórmulas de los estimadores de mínimos cuadrados ordinarios en su versión de desvíos con respecto a las medias de las variables endógena y explicativa.

4

Computamos primero

E ( X ∗ ) = E ( d1 + d 2 X ) = d1 + d 2 E ( X ) .
Estimación de b en el modelo original en su versión desvíada con respecto a la media ∑ xi yi b= ∑ xi2 Estimación de b ' en el modelo transformado en su versión desvíada con respecto a la media ∑ ⎡( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤ ⎡( c1 + c2Yi ) − ( c1 + c2 E (Yi ) )⎤ = ⎣ ⎦⎣ ⎦ b' = 2 ∑ ⎡( d1 + d2 X i ) − ( d1 + d2 E ( X i ) )⎤ ⎣ ⎦ ∑ d2 xi c2 yi = d2c2 b = c2 b. = 2 d2 d2 ∑ d 22 xi
Por lo tanto, la conclusión es que si se multiplica a la variable explicativa por d 2 , el parámetro estimado de la pendiente debe dividirse por ese número. Asimismo, si se multiplica la variable explicada por c2 , el parámetro estimado para la pendiente debe multiplicarse por ese mismo número. La adición de constantes en la transformación de variables tanto explicativa como explicada no altera a los coeficientes de mínimos cuadrados ordinarios. Sabemos que a = 0 en el primer modelo original en su versión de desvíos. Estimación de a ' en el modelo transformado en su versión desvíada con respecto a la media c a ' = E (Y ∗ ) − b ' E ( X ∗ ) = ( c1 + c2 E (Y ) ) − 2 b ( d1 + d 2 E ( X ) ) = d2

E (Y ∗ ) = E ( c1 + c2Y ) = c1 + c2 E (Y ) .

= c1 − Ejercicio 1.4.

c2 d1 cd b + c2 E (Y ) − c2bE ( X ) = c1 − 2 1 b + c2 a. d2 d2

Si todas las observaciones de la variable explicativa o independiente son las mismas tenemos que ⎛c⎞ ⎜ ⎟ c X =⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝c⎠ Veamos que le ocurre primero al estimador de la pendiente de mínimos cuadrados ordinarios. Tendremos el modelo Yi = α + β X i + ε i . Por consiguiente, estimaremos a β utilizando la expresión

5

0 = . ∑x 0 Lo que indica que la pendiente está indefinida. Asimismo, α = y−βx Pero como β está indefinido, α también lo estará.
2 i

β=∑

xi yi

Lo que aquí ocurre es lo siguiente. Como la variable explicativa siempre es la misma, es imposible determinar su efecto sobre la variable endógena. Es necesario que la variable explicativa cambie de valor a efectos de poder estimar su efecto sobre la endógena. Ejercicio 1.5. Pruebe que la línea de regresión estimada pasa a través del punto de la media X , Y . Ayuda: Muestre que X y Y satisfacen la ecuación Y = a + bX , donde a y b están definidos como en el texto por las ecuaciones (1.2) y (1.3). Solución. Sabemos que y que a = Y − b X 2 ⎛ ⎞ n∑ X − ⎜ ∑ X i ⎟ i =1 ⎝ i =1 ⎠ Por consiguiente, hallamos a b y luego con b hallamos a a, de ahí tenemos que
i =1 i =1 i =1 n n

(

)

b=

n∑ X iYi − ∑ X i ∑ Yi
2 i

n

n

n

a = Y −bX

Por lo tanto

Y = a + bX lo que demuestra que la recta de regresión pasa por el punto X , Y .

(

)

Ejercicio 1.6. El intercepto es este caso es el gasto autónomo del ingreso en ropas pero como es negativo no tiene un interés práctico ya que no hay gasto negativo en ropas. Ejercicio 1.7.
1) Dependent Variable: G Method: Least Squares

6

Date: 09/01/09 Time: 17:51 Sample: 1 8 Included observations: 8 Variable C IP R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 2.875000 -0.018519 0.011396 -0.153371 0.896237 4.819444 -9.324377 1.951969 Std. Error 1.002023 0.070415 t-Statistic 2.869194 -0.262991 Prob. 0.0285 0.8014 2.625000 0.834523 2.831094 2.850955 0.069164 0.801355

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

2) Dependent Variable: G Method: Least Squares Date: 09/01/09 Time: 17:54 Sample: 1 7 Included observations: 7 Variable C IP R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat Coefficient 1.467105 0.111842 0.658148 0.589777 0.356334 0.634868 -1.531703 3.111331 Std. Error 0.467827 0.036048 t-Statistic 3.135996 3.102612 Prob. 0.0258 0.0268 2.857143 0.556349 1.009058 0.993604 9.626203 0.026774

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

Los estimadores son sensibles a los datos muestrales obviamente. Para ser un outlier debe estar muy alejado de la recta de regresión, que no parece ser el caso aquí.

7

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->