Está en la página 1de 45

Econometría 1

Sesión 9
29/octubre

Unidad didáctica 10: Multicolinealidad// Violaciones a los supuestos del


modelo (introducción)

MSc. Cinthya Sarahí Arteaga Portillo

cinthya.arteaga@unitec.edu
1. Asistencia
2. Objetivo
3. Repaso
Contenido 4. Violaciones de los supuestos
Referencias bibliográficas

• Ver vídeo sobre TLC:


https://www.youtube.com/watch?v=46DgBP9VwtE&ab_ch
annel=Estad%C3%ADstica%C3%BAtil
Objetivo Identificar elementos generales de los
supuestos para su cumplimiento
Repaso
1. Interpretación de los parámetros
Tipo de Comportami Implicación Interpretación
modelo ento de la
variable
Lin-Lin Lineal (Y), Si X aumenta en 1 unidad entonces, Y
Lineal (X)
cambia en β1 unidades
Log-Lin Logaritmo Si X aumenta en 1 unidad entonces, Y
(Y), Lineal (X)
cambia en 100* β1 % unidades
2. Variables ficticias
Lin-Log Lineal (Y), Si X aumenta en 1 unidad entonces, Y
Logaritmo
(X) cambia en (1/100)* β1 % unidades
Repaso
1. Interpretación de los parámetros
Tipo de Comportami Implicación Interpretación
modelo ento de la
variable
Log-Log Logaritmo Si X aumenta en 1 unidad entonces, Y
(Y),
Logaritmo cambia en β1 % unidades
(X)

En cualquier Intercepto de la regresión El parámetro del intercepto indica el


β0 2.modelo.
Variables ficticias
valor promedio de la variable de
respuesta Y cuando X es cero
Repaso
2.Tipos de datos
• Variables numéricas (continuas y discretas)
• Variables categóricas (nominales y ordinales)
• Otras variables (fechas/tiempo, cadena de texto, lógica )
3. Variables ficticias: variables de carácter o índole categórica (cualitativas).
Ejemplos: género, raza, si recibe un subsidio o no, etc. Las podemos entonces definir de
esta forma:
Repaso
1. MCO
• Facilidad: Es un método computacionalmente fácil de usar.
• Si se cumplen los supuestos de MCO es el mejor método para estimar. Esto se conoce como el
teorema de Gauss-Markov.
2. Teorema de Gauss-Markov implicación de estimadores eficientes y
consistentes.
Violaciones de los supuestos
1. No normalidad del error
2. Multicolinealidad
3. Autocorrelación
4. Heteroscedasticidad
5. Independencia Condicional
No normalidad del error

El supuesto de normalidad de los errores dice que:

• Debido al Teorema del Límite Central (TLC) es un supuesto muy


razonable.
• La no normalidad de los errores no tiene implicaciones graves.
• No es necesario en la demostración de Gauss Markov, pero se usa
para obtener más fácilmente algunos de los estadísticos de prueba
dentro de la regresión.
No normalidad del error
Para evaluar si el supuesto se cumple o no se puede hacer un procedimiento
muy sencillo.
• Computamos los residuales y los graficamos.
• Generalmente, estos residuales van a tener una distribución muy parecida a la
normal.
Debido a que insertamos una constante, los residuales casi siempre tienen
media cero.

Adicionalmente, se puede hacer un test Jarque-Bera para evaluar la


normalidad de la variable.

Este supuesto se cumplirá a medida que aumentemos el tamaño de muestra.


(Por eso la importancia que los datos tengan más de 30 observaciones)
Ejemplo no normalidad de los errores
Ejemplo no normalidad de los errores

Se estiman los errores en el


programa estadístico, luego
se pide que se genere un
grafico de distribución de
los errores estimados.
No normalidad del error
Resumen:
• Podemos usar test de Jarque-Bera, en el programa estadístico para
verificar si se cumple o no el supuesto de normalidad de los errores.
• Supuesto casi siempre se cumple.
• No tiene implicaciones en el teorema de Gauss Markov.
• Es un supuesto leve.
Multicolinealidad
Multicolinealidad existe cuando Las X’s se correlacionan.
Hay dos tipos:
• Multicolinealidad perfecta: Cuando tenemos que dos vectores son linealmente
dependientes. El modelo no es estimable.
• Multicolinealidad imperfecta: Cuando dos variables se correlacionan fuerte más no
perfectamente.

Esta violación afecta la estimación de las varianzas de los estimadores.


No afecta el teorema de Gauss-Markov. Es decir que los estimadores siguen
siendo MELI.
Pero las varianzas y covarianzas van a estar sobre estimadas y los intervalos
de confianza serán muy amplios.
Multicolinealidad
Se puede demostrar que en un modelo con 2 variables independientes:

Donde r1,2 es el coeficiente de correlación entre X1 y X2.

Entonces cuando la correlación es alta, la varianza del estimador esta inflada.


En consecuencia el error estándar es muy grande y no se puede rechazar H0.
En un modelo con variables independientes no significativas, pero con un F y
un R2 grandes se puede sospechar que hay multicolinealidad.
Multicolinealidad
Para saber entonces si, sí hay multicolinealidad podemos calcular r y
ver que si es cercano a 1 o -1.

Si están muy correlacionadas podemos solucionar el problema


excluyendo alguna de las variables.
Multicolinealidad
Multicolinealidad
Ejemplo ejercicio 1: pantalla de Eviews
Heteroscedasticidad
• Cuando hablamos de un modelo heteroscedástico nos referimos a un
modelo en el que la varianza del error no es constante a través de los
diferentes valores de X.
• En particular, asumamos un modelo heteroscedástico por naturaleza:

• Esto lo podemos escribir también matricialmente:


Heteroscedasticidad
• Hay muchos factores para que exista heteroscedasticidad en un modelo.
• Depende de cada modelo que estimemos si es posible que se tenga o no
heteroscedasticidad.
• Ejemplos:
• Ecuación de Mincer.
• Diferencias regionales.
• Diferencias de género.
• Diferencias raciales.
• Diferencias en forma en que se recoge la información.
• Observaciones atípicas
• Es fácil ver esto en una gráfica.
Ejemplo homoscedasticidad

La varianza del salario


no es constante a
través de la educación
de los individuos.
Noten también la
presencia de
observaciones atípicas
Heteroscedasticidad
• Al igual que en la violación de los otros supuestos, debemos pensar cuáles
son las implicaciones de tener heteroscedasticidad.
• El efecto es en la estimación de los errores estándar de los estimadores.
Heteroscedasticidad
• Existen muchas formas de identificar si tenemos o no heteroscedasticidad.
• No existen reglas precisas para detectarla.
• Sin embargo, podemos evaluar el comportamiento de los residuales del modelo y la
variable X.
• Todas las pruebas de identificación de heteroscedasticidad se harán evaluando si
existe una relación entre X y e.

En el modelo MCO entre salario y educación podemos calcular e2 y hacer un


diagrama de dispersión, entre los años de educación y los residuales al
cuadrado:
Heteroscedasticidad
Adicionalmente a estas “pruebas gráficas” podemos hacer varias pruebas
formales:
• Una prueba de diferencia de varianzas.
• Una prueba de Breusch-Pagan.
• La prueba de White.
Heteroscedasticidad

Para solucionar el problema de heteroscedasticidad tenemos varias


técnicas.
Estas van a depender si:
• Forma funcional de la heteroscedasticidad conocida: Mínimos cuadrados
Generalizados o mínimos cuadrados factibles.
• Forma funcional desconocida: Errores robustos o de white.
Autocorrelación Al utilizar información
georreferenciada surge el
interrogante sobre si se encuentra
La autocorrelación no es muy presente algún tipo de dependencia
típica en casos de corte espacial entre los datos.
transversal. Esta dependencia se denomina
autocorrelación espacial y es el más
importante de los efectos espaciales.
Sin embargo, puede haber Para contrastar su presencia el
autocorrelación espacial. estadístico más utilizado fue propuesto
por Moran en los años cincuenta y a
partir de el se han diseñado nuevas
Autocorrelación sí es muy común propuestas.
en series de tiempo o datos panel.
Ejemplo de aplicación de datos corte
transversal georreferenciados:
http://www.scielo.org.co/pdf/seec/v18
n37/v18n37a5.pdf
Autocorrelación

Razones para la existencia:


• Inercia en las series de tiempo.
• Mala especificación del modelo.
• Rezagos (cuando se consideran variables t-1, en periodos t.)
• Modelos diferenciados.
• Tendencias.
Autocorrelación

Un ejemplo de una serie


con tendencia puede ser
la matrícula escolar
Autocorrelación

Si los errores se
correlacionan
positivamente, vamos a
tener que los residuales se
van a ver similar a esto:
Autocorrelación

Si los errores se correlacionan


negativamente, entonces los
residuales se verán:
Autocorrelación

• Las implicaciones de tener autocorrelación son las mismas que para


heteroscedasticidad.
• Sí se afecta Gauss-Markov.
• La autocorrelación, al igual que la heteroscedasticidad, no permite
factorizar el σ2 (varianza) y obtener la fórmula de la matriz de Var-Cov
de MCO.
Autocorrelación

Para identificar si tenemos o no autocorrelación también se puede


hacer de varias formas:
• Graficar los residuales
• Hacer una prueba formal: Durbin-Watson
Ejemplo autocorrelación
Ejemplo autocorrelación

Podemos entonces graficas los


residuales con respecto al
tiempo para ver cómo se
comportan.

Esto muestra una posible


autocorrelación positiva.
Autocorrelación
Como siempre, la gráfica nos ayuda, pero no es una prueba formal. En ese
sentido, se plantea una prueba (test) formal llamada el estadístico de
Durbin-Watson (d)
Se debe plantear una prueba de hipótesis de la forma:

El estadístico de prueba es el siguiente:


Autocorrelación
La distribución del Durbin-Watson es una distribución particular:

Los valores dU y dL vienen de una tabla particular para esta distribución que depende
de K y de N.
Autocorrelación
Autocorrelación
Hay una cosa muy importante del estadístico d y es su relación con el
coeficiente de correlación. Se puede demostrar que:

donde r es el estimador de ρ .

Entonces con el coeficiente correlación podemos también estimar d.


Noten que:
Autocorrelación
Para solucionar el problema de autocorrelación podemos también aplicar
mínimos cuadrados generalizados (MCG).

El método de estimación de mínimos cuadrados generalizados se basa en


el criterio de estimación mínimo cuadrática, pero la función de distancia a
minimizar es distinta a la de este criterio, ya que incorpora la información
adicional, en la matriz de varianzas y covarianzas, de las perturbaciones
(errores).
Preguntas:
Temario
Revisión del avance del contenido
Temas
PRIMER PARCIAL
Unidad didáctica 1: Naturaleza del análisis de regresión// Búsqueda de ideas para investigación //
búsqueda de fuentes de datos// repaso sobre estadística descriptiva
Unidad didáctica 2: Introducción a la econometría.
Unidad didáctica 3: ¿Qué es econometría? ¿Para qué sirve la econometría?
Unidad didáctica 4: Los Modelos económicos.
Unidad didáctica 5: Los Modelos Econométricos.
Unidad didáctica 6: La interpretación de los parámetros
Unidad didáctica 7: Modelos de regresión lineal simple. .//supuestos
Unidad didáctica 8: Introducción a la regresión lineal y Modelos de Regresión Lineal Simple.
Unidad didáctica 9: Variables ficticias.//Interacciones
Unidad didáctica 10: Multicolinealidad.
Unidad didáctica 11: Error de especificación en la parte sistemática del Modelo de Regresión. (ver
referencias sobre modelización económica)
Temas
SEGUNDO PARCIAL
Unidad didáctica 12: Estimación de intervalos y prueba de hipótesis.
Unidad didáctica 13: Introducción a la prueba de hipótesis.
Unidad didáctica 14: Pruebas de contraste de hipótesis.
Unidad didáctica 15: Tipos de pruebas estadísticas. Cálculo del tamaño de la muestra.

Unidad didáctica 16: Extensiones del Modelo de Regresión lineal de dos variables.
Unidad didáctica 17: Análisis de regresión con dos variables.
Unidad didáctica 18: Modelo de regresión con dos variables.
Unidad didáctica 19: Análisis de regresión múltiple. Generalidades.
Unidad didáctica 20: Introducción función lineal y funciona cuadrática.
Unidad didáctica 21: Introducción función cubica y función hiperbólica.

También podría gustarte