Está en la página 1de 6

Nombre: Angela Alberto Munnich

ID: 10136144
Matrícula: 2018-5191

Econometría I
Práctica 5
1. Considere la siguiente regresión con una variable dicotómica (D) y la variable
explicativa X.
𝑌 = 𝛽0 + 𝛽1𝐷 + 𝛽2𝑋 + 𝑢

a) Derive el efecto marginal de X sobre Y.


-Por cada unidad adicional de X, mi variable dependiente Y aumentará en B2, todo lo
demás constante.
b) ¿Qué mide el coeficiente 𝛽1?

-Captura el efecto sobre Y que tiene la presencia de una característica en observaciones


de la muestra.
c) ¿Cómo se ve afectada la pendiente de X por la presencia de la variable dicotómica?

- Basándonos en la regresión del ejercicio la pendiente no se ve afectada, sino que lo que


cambia es el intercepto, este se ve afectado por la variable dicotómica, el cual será mayor
y ocasionará que este se encuentre más hacia arriba. Ya que si fuera la variable
independiente la que estuviera afectada se debería de crear una variable de interacción.

d) ¿Cuál es el valor esperado de Y?

- El valor esperado de Y sería igual a:


E(𝑌) = (𝛽0 + 𝛽1) + 𝛽2X (si la característica está presente)
E(𝑌) = 𝛽0 + 𝛽2X (si la característica no está presente)

2. Ahora, considere un modelo en el cual se incluye un término de interacción entre la


variable dicotómica y X.
𝑌 = 𝛽0 + 𝛽1𝐷 + 𝛽2𝑋 + 𝛽3(𝑋 ∗ 𝐷) + 𝑢

a) Derive el efecto marginal de X sobre Y.

-Por cada unidad adicional de X, mi variable independiente Y aumentará en B2,


manteniendo todo lo demás constante.
b) ¿Cómo la variable dicotómica afecta el valor esperado de Y?

- Si la característica se encuentra presente el valor esperado de Y va a ser más grande y si


no se encuentra presente la característica el valor esperado de Y no se ve afectado.
c) ¿Se ve afectado el intercepto o la pendiente por la presencia de la variable de interacción?

- Sí, ambos se ven afectados. En el caso del intercepto este será más grande y la pendiente
será mas empinada.

3. Suponga que se tiene información de salarios (pesos por hora), nivel educativo (en
años) y género (hombre o mujer). Si se quiere estimar el efecto de la educación y el
género sobre el salario, se tienen dos opciones, (1) hacer dos regresiones separadas,
una donde se incluyan todas las mujeres y otra todos los hombres, o (2) hacer una
regresión con todos los datos. ¿Cuál opción es mejor? Diga como haría para estimar
ambas opciones.

- Opino que la mejor opción sería hacer una regresión con todos los datos ya que
podríamos crear una variable dummy donde adquieran valor 1 las mujeres y valor 0
los hombres y así ver de una forma más clara como el salario se ve afectado por el
hecho de ser hombre o mujer, además de la educación. También, hacer una regresión
con todos los datos nos permite no tener que separar las observaciones en dos grupos
(hombres y mujeres en el caso de que se tenga una gran muestra)

4. Suponga que se dispone de información sobre el genero y si se es casado. Con esto se


definen las siguientes variables dicotómicas:
1, 𝑚𝑢𝑗𝑒𝑟 𝑦 𝑐𝑎𝑠𝑎𝑑𝑎
𝐸1 = {
0, 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜

1, 𝑚𝑢𝑗𝑒𝑟 𝑦 𝑠𝑜𝑙𝑡𝑒𝑟𝑎 0,
𝐸2 = {𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜

1, ℎ𝑜𝑚𝑏𝑟𝑒 𝑦 𝑐𝑎𝑠𝑎𝑑𝑜
𝐸3 = {0, 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜

1, ℎ𝑜𝑚𝑏𝑟𝑒 𝑦 𝑠𝑜𝑙𝑡𝑒𝑟𝑜
𝐸1 = {0, 𝑒𝑛 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟𝑎𝑟𝑖𝑜
a) Comente sobre los problemas de estimar la siguiente regresión usando las
variables dicotómicas:
𝑌 = 𝛽0 + 𝛽1𝐸1 + 𝛽2𝐸2 + 𝛽3𝐸3 +
𝛽4𝐸4 + 𝑢

- Solo podemos incluir variables dicotómicas cualitativas y eso nos limita a


trabajar únicamente con una variable que depende únicamente de si se cumple
la condición o no. Además, algo que hay que tener en cuenta es que esto puede
ocasionar la trampa de la variable dicotómica, es decir que si agregamos
variables dicotómicas iguales al número de categorías que existan, la suma de
esas variables dicotómicas reproducirá la columna del intercepto por lo que
habrá multicolinealidad perfecta. Por tanto, se tendría que añadir una variable
dicotómica menos que el número de categorías.

5. Considere el siguiente modelo de probabilidad lineal de ser arrestado en 1986


(arr86):

Donde:
Pcnv: proporción de arrestos previos que terminaron en una
condena. Avgsen: tiempo promedio en prisión por condenas
anteriores (en meses). Tottime: meses en prisión antes de 1986
desde los 18 años de edad.
Ptime86: meses en prisión en 1986.
Qemp86: cantidad de trimestres con empleo durante 1986.

a) Comente sobre el impacto de las variables explicativas sobre la probabilidad de


ser arrestado en el 1986.

- PCNV: además de ser significativa para el modelo, tiene un efecto negativo


en la probabilidad, es decir que por cada arresto previo que terminó en
condena, la probabilidad de ser arrestado en 1986 cae en 0.16.
- ASGSen: no es significativa para el modelo, por lo que la probabilidad de
ser arrestado en 1986 no se ve influenciada por esta variable.
- Tottime: esta variable tampoco es significativa para el modelo, por lo que
no influye tampoco en la probabilidad de ser arrestado en 1986.
- Ptime86: esta variable es significativa para el modelo, tiene un efecto
negativo en la probabilidad, por lo que mientras más meses en prisión en
1986, menor es la probabilidad de ser arrestado en 1986. La reduce en
0.021.
- Qemp86: Si es significativa para el modelo y a mayor cantidad de
trimestres empleados, menor es la probabilidad de ser arrestado en 1986.
Esta variable reduce la probabilidad en 0.0428.

b) Como investigador, ¿Qué usted haría con las variables que resultan ser
insignificantes de forma individual? ¿Por qué?

Yo las eliminaría debido a que no me afectaría mi probabilidad de ser arrestado en 1986.


Además, si bien mi R cuadrado caería yo debo preocuparme por el ajustado, el cual va a
crecer a medida que yo quite esas variables insignificantes.

c) Diga la probabilidad de arresto para alguien que tiene 5 arrestos previos con 2
condenas, la primera de 10 meses y la segunda de 36 meses, de los cuales los
últimos 4 meses fueron en 1986. Esta persona no ha conseguido trabajo luego de
salir de prisión.

- La probabilidad es de 0.321142

6. Diga si las siguientes afirmaciones son verdaderas, falsas o inciertas.


Explique de forma detallada su respuesta.

a) La multicolinealidad es un problema exclusivo de micronumerosidad.

- Falso, esta no es la única causa, también puede darse porque el modelo es sobre
determinado, es decir que hay más variables explicativas que observaciones.
También cuando se aplican restricciones sobre el modelo o población, por
ejemplo: Si se quiere saber el consumo de un grupo de personas y se usan
variables explicativas como el ingreso o riqueza, ambas variables están muy
correlacionadas, también por un R cuadrado alto y t estadísticos no significativos
y, por último, si el modelo tiene términos polinomiales.

b) Se dice que hay multicolinealidad cuando la correlación entre variables


explicativas excede 0.8.
- Verdadero, ya que esto es considerado como una alta correlación entre las
variables explicativas. Del mismo modo, también hay multicolinealidad si
el R cuadrado es alto, pero la prueba T es no significativa. O también
cuando se hace una regresión para cada variable explicativa y si el R
cuadrado de cada una es mayor al R cuadrado del modelo original hay
multicolinealidad.

c) A mayor colinealidad entre las variables menor la varianza de los estimadores.

- Falso, es todo lo contrario, esto aumenta enormemente la varianza de los


estimadores.

d) Los estimadores MICO dejan de ser MELI cuando existe multicolinealidad.

- Incierta, ya que depende del nivel de multicolinealidad, si esta es perfecta,


entonces si dejan de ser MELI pero si no lo es, continúan siéndolo.

e) Si los 𝑅2 de las regresiones auxiliares son inferiores al de la regresión original


indicaría que no hay multicolinealidad.

- Verdadero, ya que se tiene dicho que para esta prueba si los R cuadrados de
las regresiones auxiliares dan menor que el R cuadrado del modelo original
por ende no estamos en presencia de multicolinealidad.

f) Omitir una variable relevante del modelo no ocasiona que los MICO dejen de ser
MELI.

- Falso, si lo hace, ya que el no incluir una variable que sea relevante hace que no
estemos incluyendo información importante que ayuda a que el modelo explique
mejor la variable dependiente. Esto ocasiona que los estimadores no tiendan al
parámetro, por lo que dejan de ser MELI al no incluir esa información necesaria.
En resumen, los estimadores van a presentar un sesgo. La varianza de los
estimadores será menor que la del verdadero modelo.

g) Incluir una variable redundante no tiene ninguna consecuencia para el modelo.

- Falso, ya que mi R cuadrado se va a ver afectado, este será mayor, pero en el


caso del ajustado, este será menor ya que estoy incluyendo información que no
es importante y no explica nada. Asimismo, la varianza de los parámetros será
mayor que el modelo original, por lo que serán ineficientes.

h) Se dice que un modelo esta anidado dentro de otro cuando este es un caso
especial de un modelo más grande.
- Verdadero, ya que existen modelos que tienen distintos niveles. Por ejemplo,
si se quiere saber el rendimiento de los estudiantes de una escuela, se puede
empezar por analizar el rendimiento de los estudiantes de un curso, ya que
el resultado que se obtenga estará muy correlacionado con el rendimiento de
los estudiantes de la escuela.

i) Cuando se hace la prueba RESET, al rechazar la hipótesis nula, se dice que el


modelo alternativo está bien especificado.

- Falso, lo que quiere decir es que mi modelo original tiene problemas de


manera funcional. Eso no quiere decir que el alternativo necesariamente sea
correcto ya que hay que hacer la prueba para este, aun así.

j) Los errores de medición en la variable independiente generan una mayor


varianza, pero los estimadores siguen siendo insesgados.

- Verdadero, ya que, si bien la varianza de los estimadores será mayor, estos


seguirán siendo insesgados es decir que, a pesar de todo, tenderán al
parámetro poblacional

k) Una estimación recursiva consiste en estimar el modelo para tamaños muestrales


idénticos.

- Falso, en realidad consiste en estimar el modelo para tamaños muestrales


distintos, siempre añadiendo una observación más al modelo hasta llegar a la
observación T. Esto nos ayuda a poder medir el error de predicción existente.
Con esto se busca que los parámetros se mantengan constantes y que los residuos
no se desvíen de cero.

También podría gustarte