Está en la página 1de 12

TALLER 1

JOHN EDINSON TUMAY MORALES

FABIAN FERNANDO PIRATOVA BARRIOS

VALENTINA MONTIEL SIERRA

UNIVERSIDAD PEDAGÓGICA Y TECNOLÓGICA DE COLOMBIA

FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS

ECONOMIA
TUNJA, BOYACA

2022

Taller 1

a) Si hay un problema de multicolinealidad a través de los test del FIV y el TOL

Variable VIF TOL

sales 2.26 0.441937

profits 2.25 0.444766

assets 1.45 0.687739

tenure 1.21 0.825270

age 1.20 0.830142

totcomp 1.03 0.975104

Mean VIF 1.57

si el VIF es menor a 10 hay colinealidad, pero no es un problema preocupante; el TOL va en

un Intervalo de [0 – 1] mientras más se acerque a 0, mayor será el grado de multicolinealidad.

Teniendo en cuenta esto se analizan las variables:

La variable sales (ventas) presenta multicolinealidad, sin embargo, esta no interfiere en el

análisis de los datos de manera significante.

La variable profits (beneficios) presenta multicolinealidad, sin embargo, esta no interfiere en

el análisis de los datos de manera significante.


La variable assets (activos) presenta multicolinealidad, sin embargo, esta no interfiere en el

análisis de los datos de manera significante.

La variable tenure (antigüedad) presenta multicolinealidad, sin embargo, esta no interfiere en

el análisis de los datos de manera significante.

La variable age (edad) presenta multicolinealidad, sin embargo, esta no interfiere en el análisis

de los datos de manera signficante.

La variable totcomp presenta multicolinealidad, sin embargo, esta no interfiere en el análisis

de los datos de manera signficante.

Podemos concluir que las variables no presentan problemas de multicolinealidad, además el

TOL de las variables no se acercan a 0.

b) Si hay heteroscedasticidad, por medio de las pruebas de: Park, Glejser, White, Breusch-

Pagan-Godfrey.

Prueba de park
En la prueba de park la decisión nos dice que si el beta resulta estadísticamente significativo

se dice que hay heterocedasticidad, si no, habrá homocedasticidad. Entonces, si el T no es

significativo, entonces no hay heterocedasticidad.

Conclusión: Prob > F nos dio 0.0000, es decir que hay un problema de heterocedasticidad.

Prueba de glejser

En la prueba de glejser la decisión nos dice que si el beta resulta estadísticamente significativo

se dice que hay heterocedasticidad si no, habrá homocedasticidad. No es significativo entonces

hay homocedasticidad existe una varianza constante)

Conclusión: Prob > F nos dio 0.0000, es decir, es estadísticamente significativo, lo que

significa que existe un problema de heterocedasticidad.


Prueba de White

En la prueba de White la decisión nos dice que si el valor Prob > chi2 es mayor a 0.05, hay

homocedasticidad, si no, hay heterocedasticidad

Conclusión: El valor Prob > chi2 nos dio 0.0000, es decir que efectivamente hay un problema

de heterocedasticidad.

Prueba de Breusch-Pagan-Godfrey
En la prueba de Breusch-Pagan-Godfrey la decisión nos dice si el valor de la Prob > chi2 es

mayor a 0.05, hay homocedasticidad, si no, hay heterocedasticidad

Conclusión: El valor Prob > chi2 nos dio 0.0000, es decir que efectivamente hay un problema

de heterocedasticidad.

c) ¿Cuáles son las consecuencias que traen la multicolinealidad y heteroscedasticidad?

Consecuencias de la multicolinealidad:

1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas

grandes que dificultan la estimación precisa.

2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más

amplios, lo cual propicia una aceptación más fácil de la “hipótesis nula cero” (es

decir, que el verdadero coeficiente poblacional es cero).

3. También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a

ser estadísticamente no significativa.

4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa,

R2, la medida global de bondad de ajuste, puede ser muy alta.

5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios

en los datos.

Consecuencias de la Heterocedasticidad:

 Cuando var(β*ˆ2) ≤ var(βˆ2), significa que los intervalos de confianza serán

innecesariamente grandes. Como resultado, es probable que las pruebas t y F den

resultados imprecisos en el sentido de que la var (βˆ2) es demasiado grande, y lo que


parece un coeficiente estadísticamente no significativo (debido que el valor t es más bajo

de lo apropiado), de hecho, puede resultar significativo si se establecen intervalos de

confianza correctos con base en el procedimiento de MCG. Por concluyente, si insistimos

en los procedimientos de prueba usuales a pesar de la presencia de heteroscedasticidad,

las conclusiones o inferencias que obtengamos pueden ser muy equivocadas.

d) ¿Qué medidas remediales se podrían utilizar para corregir estos problemas?

Medidas para corregir la multicolinealidad:

Información a priori: Puede provenir de un trabajo empírico anterior, en donde el problema de

colinealidad resultó ser menos grave o de la teoría relevante que soporta el campo de estudio.

Combinación de información de corte transversal y de series de tiempo: hay información de

corte transversal (por ejemplo, información generada a través de paneles de consumidores o

estudios sindicados realizados por varias agencias privadas y estatales), con tal información, que

está en un punto en el tiempo, se puede obtener una estimación relativamente confiable.

Eliminación de una(s) variable(s) y el sesgo de especificación: Al enfrentar el problema de

multicolinealidad grave, una de las soluciones “más simples” consiste en omitir del modelo una

de las variables colineales. Sin embargo, al eliminar una variable del modelo se puede incurrir en

un sesgo de especificación o error de especificación. El sesgo de especificación surge de la

especificación incorrecta del modelo utilizado en el análisis.

Transformación de variables: Como la multicolinealidad es una característica de la muestra, es

posible que en otra muestra con las mismas variables la colinealidad no sea tan grave como en la
primera. A veces, con sólo aumentar el tamaño de la muestra (si esto es posible) se mitiga el

problema de colinealidad.

Reducción de la colinealidad en las regresiones polinomiales: se ha visto que, si las variables

explicativas están expresadas en forma de desviación, es decir, desviaciones del valor medio, la

multicolinealidad se reduce sustancialmente.

Medidas para corregir la heterocedasticidad:

Cuando se conoce σ2i; método de los mínimos cuadrados ponderados: Se dividen todas las

variables explicativas entre la varianza.

Cuando no se conoce σ2: Varianzas y errores estándar consistentes con heteroscedasticidad de

White demostró que esta estimación puede realizarse de forma que las inferencias estadísticas

sean asintóticamente válidas (es decir, para muestras grandes) sobre los verdaderos valores de los

parámetros, los errores estándar de White corregidos mediante heteroscedasticidad también se

conocen como errores estándar robustos.

e) Cree un segundo modelo con ln(salario) como variable dependiente. ¿Observa alguna

mejora en la heteroscedasticidad?
En este modelo con ln(salarios) la decisión que se tiene en cuenta es que si el valor Prob >

chi2 es mayor a 0.05, hay homocedasticidad, si no, hay heterocedasticidad.

Podemos concluir que con el segundo modelo de ln(salarios) no se ha solucionado el problema

de heterocedasticidad.

f) Cree diagramas de dispersión del salario sobre cada variable independiente. ¿Puede

discernir qué variables contribuyen al problema de heteroscedasticidad? ¿Qué propondría

ahora para resolverlo? ¿Cuál es el modelo final?

Salario – activos salario – antigüedad


Salario – edad salario – remuneración

Salario – utilidades salario – ventas

Se puede observa que dado el gráfico de dispersión de cada una de las variables explicativas

que la variable edad presenta heterocedasticidad, además, en la regresión, no es estadísticamente

significativa.
Se puede observar que las variables edad, ventas, beneficios no son estadísticamente

signficativas al aplicarle una regresion robusta, entonces se procede a hacer lo siguiente.

Al generar una versión robusta de la variable dependiente sobre las independientes, se puede

observar que, aunque la variable edad sigue siendo no significativa, ahora el problema de

heterocedasticidad es menor, sumado a las demás variables que ahora son estadísticamente

significativas.
g) Obtenga los residuos y vea si hay autocorrelación en ellos. ¿Cómo transformaría los datos

en caso de detectar correlación serial? ¿Cuál es el significado de la correlación serial en el

presente ejemplo?

DESICIÓN: Dada la prueba de primer orden que solo evalúa el grado de autocorrelación de

un año a otro se dice que: dwatson=2; o cercano a 2: no hay autocorrelación.

Podemos concluir que el valor resultante fue de 2.029317, es decir, no hay autocorrelación.

¿Cómo transformaría los datos en caso de detectar correlación serial?

¿Cuál es el significado de la correlación serial en el presente ejemplo?

El grado de inercia en las variables económicas es bajo, además no presenta un alto grado de

sesgo de especificación, quizá debido a que no hubo errores graves en la medición de la variable

dependiente ni en las independientes.

En este caso las perturbaciones ut, consideradas dentro de la regresión son aleatorias y no

correlacionadas.

También podría gustarte