Está en la página 1de 11

Examen sustitutorio de Econometrı́a 1

Preparado por: Hebert Suarez Cahuana

Apellidos y nombres:...............................................................................................................................
Recomendaciones:

Utilice sus propios útiles.


Apague su celular.

1. En el modelo de regresión simple: Yi = β0 + β1 Xi + ui


a) El intercepto por lo general es pequeño y no tiene importancia.
b) β0 + β1 Xi representa la función de regresión poblacional.
c) El valor absoluto de la pendiente por lo general esta entre 0 y 1.
d ) β0 + β1 Xi representa la función de regresión muestral.
e) β0 + β1 Xi representa el residuo.
f ) Ninguna de las anteriores.
2. El R2 es una medida de:
a) Si X es una causa o no de X.
b) La bondad de ajuste de la lı́nea de regresión.
c) Si se cumple o no que, la suma explicada al cuadrado es mayor que la suma total al cuadrado.
d ) El cuadrado del determinante de R.
e) La variación total explicada por el error.
f ) Ninguna de las anteriores.
3. E(ui /Xi = 0) implica que:
a) Si se divide el error por la variable explicativa se obtiene cero (en promedio).
b) Los residuos de la función de regresión muestral no están relacionados con la variable explicativa.
c) La media muestral de X es mucho mayor que la media muestral de los errores.
d ) La distribución condicional del error dada la variable explicativa tiene media cero.
e) La distribución condicional de X dado el valor del error tiene media cero.
f ) Ninguna de las anteriores.
4. El cuadro 1 muestra la cantidad ofrecida de un bien Y a varios precios X, manteniendo todo lo demás constante. La

Cuadro 1

Y 12 14 10 13 17 12 11 15
X 5 11 7 8 11 7 6 9

regresión de Y sobre X es:


a) Ŷ = 6.41176 + 0.823529Xi
b) Ŷ = 5.41176 + 0.823529Xi
c) Ŷ = 6.41176 − 0.823529Xi
d ) Ŷ = 6.41176 + 6.823529Xi
e) Ŷ = 6.41176 + 1.823529Xi
f ) Ninguna de las anteriores.
5. En el cuadro 1 El R2 de la regresión de Y sobre X es:

a) 0.940523
b) 0.740523
c) 0.340523
d ) 0.040523
e) 0.640523
f ) Ninguna de las anteriores.

6. En referencia al cuadro 1 El error estándar de la regresión Y sobre X es:

a) 0.9405
b) 1.4686
c) 0.3405
d ) 0.0405
e) 0.6407
f ) Ninguna de las anteriores.
7. En referencia al cuadro 1 utilizando el método de mı́nimos cuadrados ordinarios, el valor predicho y el residuo para la
5◦ observación (Ŷ5 , û5 ) son:

a) (15.47,1.53)
b) (14.47,1.53)
c) (15.47,0.53)
d ) (10.47,1.53)
e) (15.47,0.43)
f ) Ninguna de las anteriores.

8. Si los supuestos del modelo lineal se cumplen, entonces en grandes muestras β̂0 y β̂1 tienen una distribución normal
conjunta normal. La distribución normal en grandes muestras de β̂1 es N (β1 , σβ̂2 ), donde la varianza de la distribución
1
σβ̂2 es:
1

1 var[(Xi − µX )ui ]
σβ̂2 ) =
1 n [var(Xi )]2
La distribución normal en grandes muestras de β̂0 es N (β0 , σβ̂2 ) donde:
0
 
1 var(H u
i i ) µX
σβ̂2 ) = donde Hi = 1 −
0 n [E(Hi2 )] E(Xi2 )
Este resultado se fundamenta debido a:

a) La ley de los grandes números.


b) El teorema de Slutsky.
c) El teorema del lı́mite central.
d ) El teorema de la función continua.
e) El teorema de la distribución exacta.
f ) Ninguna de las anteriores.

9. El modelo poblacional es Yi = β1 Xi + ui , el estimador β̂1 de mı́nimos cuadrados de este modelo es:


n
X
Xi2 Yi
i=1
a) β̂1 = n
X
Xi2
i=1
n
X
Xi Yi2
i=1
b) β̂1 = n
X
Xi2
i=1
n
X
Xi Yi
i=1
c) β̂1 = n
X
Xi
i=1
n
X
Xi Yi
i=1
d ) β̂1 = n
X
Xi3
i=1
n
X
Xi Yi
i=1
e) β̂1 = n
X
Xi2
i=1
f ) Ninguna de las anteriores.
10. En la siguiente salida de Stata complete los valores a y b:

. regress calificacion rem,robust

Linear regression Number of obs = 420


F(1, 418) = 19.26
Prob > F = 0.0000
R-squared = 0.0512
Root MSE = 18.581

------------------------------------------------------------------------------
| Robust
calificacion | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
rem | -2.279808 .5194892 a 0.000 -3.300945 -1.258671
_cons | 698.933 10.36436 b 0.000 678.5602 719.3057
------------------------------------------------------------------------------

a) a= -4.39, b=67.44
b) a= -4.39, b=60.44
c) a= a= -4.39, b=50.44
d ) a= -5.39, b=67.44
e) a= -2.39, b=67.44
f ) Ninguna de las anteriores.

11. En el modelo de regresión simple se sabe que (X̄ = 5.45, Ȳ = 75.9, β̂1 = −2.39) entonces β̂0 es igual a:
a) 88.9255
b) 98.9255
c) 62.8745
d ) 49.8581
e) 48.8827
f ) Ninguna de las anteriores.

12. En el modelo Yi = β0 + β1 Xi + ui , i = 1, ..., n para que los estimadores MCO sean eficientes y se cumpla el teorema
de Gauss-Markow se requiere hacer el supuesto:
a) El término del error ui tiene media condicional igual a cero dado Xi : E(ui /Xi ) = 0
b) (Xi , Yi ), i = 1, ..., n son i.i.d extraı́dos de una distribución conjunta.
c) Los valores extremos son improbables, Xi y Yi tienen momentos finitos de 4◦ orden no iguales a cero.
d ) var(ui /Xi = x)=constante para i = 1, ..., n en particular no depende de x.
e) ui se distribuye de manera normal.
f ) Ninguna de las anteriores.
13. En el modelo Yi = β0 +β1 Xi +ui , i = 1, ..., n si Yi representa la cantidad demandada y ofrecida del bien y (cantidad de
equilibrio) X representa el precio del bien (equilibrio), según la teorı́a económica las variables que también determinan
Yi pero que no son el precio y están contenidas en el término del error ui son: El ingreso, el precio del bien sustituto,
el precio del bien complementario, el precio de los factores de producción, la tecnologı́a.
Si se estima el modelo por MCO no se estarı́a cumpliendo el supuesto:
a) El término del error ui tiene media condicional igual a cero dado Xi : E(ui /Xi ) = 0
b) (Xi , Yi ), i = 1, ..., n son i.i.d extraı́dos de una distribución conjunta.
c) Los valores extremos son improbables, Xi y Yi tienen momentos finitos de 4◦ orden no iguales a cero.
d ) var(ui /Xi = x)=constante para i = 1, ..., n en particular no depende de x.
e) ui se distribuye de manera normal.
f ) Ninguna de las anteriores.
14. Si los errores son heteroscedásticos, entonces:
a) MCO es MELI.
b) MCP (mı́nimos cuadrados ponderados) es MELI si la varianza condicional de los errores es conocida y es un factor
constante de proporcionalidad.
c) Los estimadores MCO son consistentes.
d ) Los estimadores MCO son eficientes.
e) Los estimadores MCO son sesgados.
f ) Ninguna de las anteriores.
15. ¿Cuál de las siguientes afirmaciones NO es un supuesto del modelo lineal general?
Los regresores no son estocásticos.
La media condicional de las perturbaciones es cero.
La perturbación de la observación no está correlacionada con los regresores de la observación para todo.
I Los regresores no son estocásticos.
II La media condicional de las perturbaciones (errores) es cero.
III La perturbación i no esta correlacionada con la perturbación j para todo i 6= j
IV El modelo es lineal en los parámetros.
(Examen de selección del BCRP).
a) I.
b) II.
c) III.
d ) I y II.
e) Ninguna de las anteriores.
16. Asuma el siguiente modelo lineal y = Xβ + u, donde y es el vector de nx1 de la variable dependiente, X es una matriz
nxk con los k regresores del modelo, los cuales se asumen fijos en muestreo repetido y u es el vector de errores que se
distribuyen con N (0, Σ), entonces el mejor estimador lineal insesgado del vector de parámetros β es:
(Examen de selección del BCRP )
a) (X0 Σ−1 X)−1 (X0 Σ−1 y)
b) (X0 X)−1 (X0 y)
c) (X0 ΣX)(X0 Σy)
d ) (X0 ΣX)−1 (X0 Σ−1 y)
e) (X0 Σ−1 X)−1 (X0 Σy)
f ) Ninguna de las anteriores.

17. Se dice que un estimador β̂ basado en una muestra de tamaño n, es consistente para el parámetro β si:
a) lı́m E(β̂) = β
n→∞

b) lı́m E(β̂) = β y lı́m var(β̂) = 0


n→∞ n→∞

c) E(β̂) = β
d ) lı́m var(β̂) = 0
n→∞
e) Ninguna de las anteriores.
18. Se tiene que n = 420, en el modelo Yi = β0 + β1 Xi + ui se encuentra que el error estándar del estimador de la pendiente
es 0.51 cuando se utiliza la formula robusta ante heteroscedasticidad, mientras que es 0.48 con la fórmula válida sólo
bajo homoscedasticidad. Para calcular el estadı́stico t, el procedimiento recomendado es:
a) Utilizar la fórmula válida bajo homoscedasticidad porque el estadı́stico t se vuelve grande.
b) Primero probar la homoscedasticidad de los errores y luego tomar una decisión.
c) Utilizar la fórmula robusta ante heteroscedasticidad.
d ) Tomar una decisión dependiendo de cuan diferentes son los estadı́sticos t de la pendiente bajo los dos procedi-
mientos.
e) Utilizar el error estańdar válido bajo homoscedasticidad porque el estadı́stico t se vuelve más pequeño.
f ) Ninguna de las anteriores.
19. Se utilizan 143 observaciones, suponga que ha estimado una función de regresión simple y que el estimador de la
pendiente es 0.04, con un error estándar igual a 0.01. Se desea probar si el estimador es estadı́sticamente significativo.
¿Cuál de las siguientes decisiones es la correcta?
a) Usted decide que como el coeficiente es pequeño entonces es muy probable que también sea cero en la población.
b) La pendiente es estadı́sticamente significativa puesto que esta cuatro errores estándar a partir del cero.
c) La respuesta de Y ante un cambio en X debe ser económicamente importante puesto que es estadı́sticamente
significativa.
d ) Puesto que la pendiente es muy pequeña, el R2 también debe ser pequeño.
e) Se debe utilizar el error estándar válido bajo homoscedasticidad.
f ) Ninguna de las anteriores.
20. Un investigador , utilizando datos de una muestra aleatoria sobre 250 trabajadores hombres y 280 trabajadoras mujeres,
estima la siguiente regresión:

\ = 12.52 + 2.12 hombre


salario
(0.23) (0.36)
2
n = 250 R = 0, 06 SER = 4.2
(1)

hombre es una variable binaria. Se define la brecha de género salarial como la diferencia entre los salarios promedios
de los hombres menos el salario promedio de las mujeres.
¿Cuál es esta brecha? ¿Es estadı́sticamente significativa?
a) 2.12, estadı́sticamente significativa.
b) 2.12, no es estadı́sticamente significativa.
c) 14.64, estadı́sticamente significativa.
d ) 14.64, no es estadı́sticamente significativa.
e) 0.36, no es estadı́sticamente significativa.
f ) Ninguna de las anteriores.
21. Los supuestos de MCO en regresión simple:
El término del error ui tiene media condicional cero dada Xi : E(ui /Xi ) = 0. (Xi , Yi ), i = 1, ..., n son extracciones i.i.d.
Los valores extremos son improbables: Xi y Yi tienen momentos de cuarto orden finitos.
Estos supuestos sirven para:
a) Los estimadores MCO sean correctos.
b) Los estimadores MCO sean insesgados, consistentes y eficientes en muestras finitas.
c) Los estimadores MCO sean robustos en muestras finitas.
d ) Los estimadores MCO sean insesgados, consistentes y eficientes en muestras grandes.
e) La distribución muestral de los estimadores MCO sea normal en muestras grandes.
f ) Ninguna de las anteriores.
22. Suponga que (Yi , Xi ) cumplen los supuestos del MCO, se extrae una muestra aleatoria de n = 250 y se obtiene

Y
b = 5.4 + 3.2 X
(3.1) (1.5)
2
n = 250 R = 0, 026 SER = 6.2
(2)

Se desea probar H0 : β1 = 1 al 95 % de confianza:


a) No se rechaza la hipótesis nula.
b) Se rechaza la hipótesis nula.
c) No se rechaza la hipótesis alterna.
d ) Se comete un error tipo 1 con una probabilidad de 10 %.
e) Se comete un error tipo II con una probabilidad de 5 %.
f ) Ninguna de las anteriores.
23. En un modelo de regresión simple Yi = β0 + β1 Xi + ui , si se cumplen los supuestos siguientes:
E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d 0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞ var(ui /Xi ) = σu2
Se tiene la siguiente información:
Xn Xn n
X n
X n
X
Yi = 21.9 (Yi − Ȳ )2 = 86.9 (X − X̄)(Y − Ȳ ) = 106.4 Xi = 186.2 (X − X̄)2 = 215.4 n = 200
i=1 i=1 i=1 i=1 i=1

Con esta información determine β̂0 y β̂1


a) (0.3503811506, 0.493964716)
b) (−0.3503811506, −0.493964716)
c) (−0.3503811506, 3.493964716)
d ) (0.4503811506, 0.493964716)
e) (−0.3503811506, 0.493964716)
f ) Ninguna de las anteriores.
24. En un modelo de regresión simple Yi = β0 + β1 Xi + ui , si se cumplen los supuestos siguientes:
E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d 0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞ var(ui /Xi ) = σu2
Se tiene la siguiente información:
Xn Xn n
X n
X n
X
Yi = 21.9 (Yi − Ȳ )2 = 86.9 (X − X̄)(Y − Ȳ ) = 106.4 Xi = 186.2 (X − X̄)2 = 215.4 n = 200
i=1 i=1 i=1 i=1 i=1

Con esta información determine ee(β̂0 ) y ee(β̂1 ) (en ese orden)

a) (0.02837646701, 1.03956213814)
b) (1.02837646701, 0.03956213814)
c) (0.03956213814, 0.02837646701)
d ) (0.02837646701, 6.03956213814)
e) (3.02837646701, 0.03956213814)
f ) Ninguna de las anteriores.

25. Con los siguientes datos:


X 0 1 4 5
Y 2 1 3 2

Las ecuaciones normales son:


a)

4β̂0 + 10β̂1 = 10
10β̂0 + 42β̂1 = 23

b)

4β̂0 + 10β̂1 = 8
10β̂0 + 42β̂1 = 23

c)

4β̂0 + 10β̂1 = 10
10β̂0 + 42β̂1 = 20

d)

4β̂0 + 13β̂1 = 10
13β̂0 + 42β̂1 = 23

e)

4β̂0 + 13β̂1 = 8
13β̂0 + 42β̂1 = 23

f ) Ninguna de las anteriores.


26. En un modelo de regresión simple Yi = β1 Xi +ui , si se cumplen los supuestos siguientes: E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d
0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞ var(ui /Xi ) = σu2 El estimador MCO de β1 es:
n
X Xi Yi
a)
i=1
Xi
n
X Yi
b)
i=1
Xi2
n
X Xi Y 2 i
c)
i=1
Xi2
n
X Xi Yi
d)
i=1
Xi0.5
n
X Xi Yi
e)
i=1
Xi2
f ) Ninguna de las anteriores.
27. En un modelo de regresión simple Yi = β1 Xi + ui , si se cumplen los supuestos siguientes:
E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d 0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞ var(ui /Xi ) = σu2
El estimador de la varianza del estimador MCO de β1 es:
v
u σ2
u
a) u n u
uX
t Xi
i=1
v
u σ2
u
b) u n u
uX
t X2 i
i=1
v
σu2
u
c) u n
u
uX
t (Yi − Ȳ )2
i=1
v
u σ2
u
d) u n u
uX
t Xi Yi
i=1
v
σu2
u
e) u n
u
uX
t (Xi − X̄)2
i=1

f ) Ninguna de las anteriores.


28. En un modelo de regresión simple Yi = β0 + β1 Xi + ui , si se cumplen los supuestos siguientes:
E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d 0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞ var(ui /Xi ) = σu2
Señale el estimador no-lineal de β̂1 :
n
X
Xi3 Yi
i=1
a) n
X
(Xi − X̄)2
i=1
Xn
log(Xi )Yi
i=1
b) n
X
(Xi − X̄)2
i=1
Xn
Xi3 Yi
i=1
c) n
X
logXi
i=1
Xn
Xi3 logYi
i=1
d) n
X
(Xi − X̄)2
i=1


e)

f ) Ninguna de las anteriores.
29. En un modelo de regresión simple Yi = β0 + β1 Xi + ui , si se cumplen los supuestos siguientes:
E(ui /Xi ) = 0 ∀i (Yi , Xi ) ∼ i.i.d 0 < E(Yi4 ) < ∞, 0 < E(Xi4 ) < ∞
Se tiene una muestra aleatoria de tamaño 10 entonces la distribución muestral del estimador β̂1 es:

β̂1 − β1
a) ∼ N (0, 1)
ee(β1 )
β̂1 − β1
b) ∼ tn−2
ee(β1 )
β̂1 − β1
c) ∼ N (1, σu2 )
ee(β1 )
d ) No se conoce.
β̂1 − β1
e) ∼ χ2
ee(β1 )
f ) Ninguna de las anteriores.
x−µ
30. Sea x una variable aleatoria que tiene media µ y varianza σ 2 , sea z = x − , encuentre E(z) o la media de z.
σ
a) 0
b) 1
c) σ + 1
d) µ
e) µ − 1
f ) Ninguna de las anteriores.
31. ¿Cuál(es) de las siguientes causas puede(n) hacer que los estadı́sticos t usuales de MCO no sean válidos (es decir, que
no tengan una distribución t bajo H0 ?
a) Heteroscedasticidad.
b) Que exista un coeficiente de correlación muestral de 0.95 entre dos variables independientes del modelo.
c) Omitir una variable explicativa importante.
d ) Que el valor p sea menor que α.
e) Ninguna es causa de que los estadı́sticos t usuales no sean válidos.
f ) Ninguna de las anteriores.
32. En el teorema de Gauss-Markov la palabra “lineal” significa:
a) El modelo es lineal en los parámetros.
b) Las Ŷi son funciones lineales de los β̂j .
c) Los β̂j son funciones lineales de los Ŷi .
d ) Los β̂j es una función lineal de los Yi .
e) El modelo es lineal en los parámetros y las variables.
f ) Ninguna de las anteriores.
33. La consistencia de un estimador se asocia con el cumplimiento de:
a) La ley de los grandes números.
b) El teorema del lı́mite central.
c) El teorema de Slutsky.
d ) La homoscedasticidad.
e) La distribución normal de un estimador dado un tamaño de muestra.
f ) Ninguna de las anteriores.
34. Bajo los supuestos para el modelo de regresión múltiple (media condicional de cero para la media, todos los Xi e Yi
son i.i.d., todos los Xi e Yi tienen cuarto momento finito, no multicolinealidad perfecta), los estimadores MCO para la
pendiente y el intercepto:
a) Tienen una distribución normal exacta para n¿25.
b) Son ELIO (Estimadores Lineales Insesgados Óptimos)
c) Tienen una distribución normal en muestras pequeñas siempre que los errores sean homoscedásticos.
d ) Son insesgados y consistentes.
e) Son insesgados, consistentes y eficientes.
f ) Ninguna de las anteriores.
35. ¿Cuál de los siguientes supuestos es más probable que no se cumpla para que exista sesgo por variable omitida?
a) E(ui /Xi ) = 0
b) (Xi , Yi ) son i.i.d extraı́dos de una distribución conjunta.
c) No existe valores extremos o atı́picos en
d ) Existe heteroscedasticidad.
e) Multicolinealidad perfecta.
f ) Ninguna de las anteriores.
36. La trampa de las variables dummy es un ejemplo de:
a) Multicolinealidad imperfecta.
b) Algo que es sólo de interés teórico.
c) Algo que no sucede a los estudiantes universitarios.
d ) Heteroscedasticidad.
e) Multicolinealidad perfecta.
f ) Ninguna de las anteriores.
37. Considere el modelo de regresión múltiple con dos regresores X1 y X2 , donde ambas variables son determinantes de la
variable dependiente Y . Primero regresiona Y sobre X1 y no encuentra una relación. Sin embargo cuando regresiona
Y sobre X1 y X2 , la pendiente cambia bastante. Esto sugiere que su regresión tiene:
a) Heteroscedasticidad.
b) Multicolinealidad perfecta.
c) Trampa de las variables dummy.
d ) Valores atı́picos.
e) Sesgo por variable omitida.
f ) Ninguna de las anteriores.
38. La multicolinealida imperfecta:
a) Hace que sea difı́cil estimar con precisión uno o más efectos parciales con los datos de la muestra.
b) Incumple el cuarto supuesto de los mı́nimos cuadrados ordinarios en el modelo de regresión múltiple.
c) Significa que no se puede estimar el efecto de al menos un X sobre Y.
d ) Reduce la varianza de la distribución muestral de cada estimador MCO.
e) Hace que los estimadores MCO sean inconsistentes.
f ) Ninguna de las anteriores.
39. Señale lo incorrecto.
a) Un incremento en el no necesariamente significa que una variable agregada sea estadı́sticamente significativa.
b) Un elevado R2 o R̄2 no significa que los regresores son la verdadera causa de la variable dependiente.
c) Un elevado R2 o R̄2 no significa que no exista sesgo por omisión de variables.
d ) Un elevado R2 o R̄2 no necesariamente significa que usted tiene el conjunto de regresores apropiados ni un bajo
R2 o R̄2 significa necesariamente que usted tiene un conjunto inapropiado de regresores
e) Un elevado significa R2 o R̄2 que se cumplen los primeros tres supuestos MCO y los estimadores son insesgados
y consistentes.
f ) Ninguna de las anteriores.

40. En el modelo Yi = β̂0 + β̂1 X1i + β2 X2i + ui para probar la hipótesis H0 : β1 + β2 = 4 la regresión transformada debe
ser:
a) Ŷi = β̂0 + β̂1 (X1i + 4) + β̂2 (X2i + X1i )
b) Ŷi = β̂0 + γ̂1 X1i + β̂2 (X2i − X1i )
c) Ŷi = β̂0 + β̂1 (X1i + 4) + γ̂1 (X2i + X1i )
d ) Ŷi = β̂0 + γ̂1 (X1i + 4) + β̂2 (X2i − X1i )
e) Ŷi = γ̂1 + β̂1 (X1i + 4) + β̂2 (X2i + X1i )
f ) Ninguna de las anteriores.
41. Considere una regresión con dos variables, en la que Xi1 es la variable de interés y X2i es la variable de control. La
independencia de la media condicional requiere:
a) E(ui /X2i , X1i ) = E(ui /X2i )
b) E(ui /X2i , X1i ) = E(ui /X1i )
c) E(ui ) = E(ui /X2 i)
d ) E(u2i /X2i , X1i ) = E(ui /X2i )
e) E(ui /X2i ) = E(ui /X1i )
f ) Ninguna de las anteriores.

42. El sesgo de variable omitida en regresión múltiple ocurre cuando:


a) Al menos un regresor incluido debe estar relacionado con la variable omitida y ésta debe ser un determinante de
la variable Y.
b) Ningún regresor incluı́do debe estar correlacionado con la variable omitida y ésta debe ser un determinante de la
variable dependiente Y.
c) Al menos un regresor incluı́do debe estar correlacionado con la variable omitida y ésta no debe ser un determinante
de la variable dependiente Y.
d ) Al menos un regresor incluı́do debe estar correlacionado con la variable omitida y ésta debe correlacionarse con
el error.
e) Al menos un regresor incluı́do debe estar correlacionado con la variable omitida y ésta no debe correlacionarse
con error .
f ) Ninguna de las anteriores.
43. Si E(ui /X2i , X1i ) = E(ui /X1i ) la(s) variable(s) causa es:

a) ui
b) X2
c) X1
d ) X1 y X2
e) No se puede determinar.
f ) Ninguna de las anteriores.
44. En una regresión se obtiene Ŷi = 120.3 + 0.45X1i + 3.21X2i + 5.78X3i con un tamaño de muestra de 460, se obtiene un
F robusto de 2.32 para la prueba de significancia global entonces: ( =0.05 ).
a) Se rechaza H0 : β0 = 0, βX1 = 0, βX2 = 0
b) No se rechaza H0 : β0 = 0, βX1 = 0, βX2 = 0
c) Se rechaza H0 : βX1 = 0, βX2 = 0
d ) Se rechaza H0 : βX1 = 0, βX2 = 0, βX3 = 0
e) Ninguna de las anteriores.

45. El F válido bajo homoscedasticidad bajo la hipótesis nula se distribuye como un F con:
a) q grados de libertad en el numerados y n − k grados de libertad en el denominador.
b) n − k grados de libertad en el numerador y q grados de libertad en el denominador.
c) q grados de libertad en el numerador e infinitos grados de libertad en el denominador
d ) q grados de libertad en el numerados y n − k − 1 grados de libertad en el denominador.
e) n − k − 1 grados de libertad en el numerador y q grados de libertad en el denominador.
f ) Ninguna de las anteriores.

También podría gustarte