Está en la página 1de 5

NOM-NOM: 1ud X >>> B2uds Y

NOM-LOG: 1%X >>> B2/100uds Y

LOG-NOM: 1ud X >>> B2*100% Y


LOG-LOG: 1% X >>> B2% Y

“Estadísticos Principales”
“Histograma” >>> Distribución de frecuencias”

R: cuanto de la variable dependiente queda explicado por el modelo (en %)


P-valor: si es distinto de cero rechazamos la nula, el contraste es significativo.
SI ES MENOR QUE 0,05 RECHAZAMOS LA NULA
Multicolinealidad (m-c)
1. Definición, naturaleza, causas del problema
2. Consecuencias
-Dos o más variables explicativas se parecen mucho (correlación muy alta) y, por tanto,
resulta difícil medir sus efectos individuales sobre la variable explicada.
-Estimadores MCO siguen ELIO, pero baja precisión
-Varianzas y errores estándares de estimadores son grandes
3. Detección
-Matriz de correlaciones:
*coeficientes de correlación altos
-Significación individual (t) y global (F) del modelo:
*pocos 𝛽s significativos,
*pero 𝑅2 alto. (% que queda explicado por el modelo)

-Análisis de IFV (inflación de varianza por causa de m-c): cuantifica la intensidad de m-c, el IFV
es un índice que mide cuanto la varianza de un coeficiente estimado se incrementa a causa de
m-c.
-𝐼FV𝑗=1/(1-Rj^2) donde 𝑅𝑗^2 es el R-cuadrado de la regresión auxiliar de 𝑋𝑗 sobre todas las otras
variables explicativas.
-También podemos interpretar los valores diagnósticos de m-c de BKW

-La primera parte nos muestra la inflamación.


-La segunda, Diagnóstico de Besley: lambda indica si hay problema de multicolineali-
dad o no, cond(condición) indica según 30.
-A parte podemos hacer una regresión auxiliar. Con las dos variables que no fueron sig-
nificativas y vemos que estas tienen un 0,98 de R2 (significación?)
4. Medidas correctivas
¿Soluciones? Aumentar/ mejorar la muestra, transformar los datos… Pero NO quitar variables
sin pensar…

No Normalidad
1. Definición, naturaleza, causas del problema
2. Consecuencias
-El termino de error no se distribuye normalmente
-No podemos hacer inferencias, ni contrastes de hipótesis y construir intervalos de
confianza con muestras pequeñas.
- En muestras grandes… el problema es menor.
3. Detección
Después de estimación, contraste de normalidad (Jarque Berra) para los residuos.

-Según el pvalor (del contraste de normalidad “JARQUE BERRA” los residuos=0,91296):


-NO MENOR QUE 0,005, mayor que 0,05
-NO rechazamos la nula, la nula es que todo es perfecto
-("El ERROR tiene distribución normal, tmb aparece en el modelo) por lo que no hay
problema, se indica que hay distribución normal (::aceptamos la nula)

4. Medidas correctivas
¿Soluciones? Aumentar la muestra…
Heteroscedasticidad
1. Definición, naturaleza, causas del problema
2. Consecuencias
-La varianza del error no es constante; normalmente con datos de corte transversal;
es un problema de “tamaño”
(porque con datos de corte transversal tenemos unidades muy heterogéneas y tienen
“tamaños diferentes)
-Los estimadores MCO siguen insesgados y lineales, pero no son eficientes
- No es posible hacer inferencias, contrastes de hipótesis individuos y globales, intervalos
de confianza
3. Detección
a. Gráficos de residuos contra una de las variables independientes
b. Utilizando los residuos al cuadrado como proxy para la varianza del error

c. Contrastes de heteroscedasticidad
• Contraste de White
• Contraste de Breusch Pagan
• Y muchos otros contrastes depende de la forma de heteroscedasticidad
• Hipótesis nula (siempre): No hay problema de het
- Cuando p-valor< 0,05 (o 0,01) Rechazar la nula, hay evidencia de het al nivel de
significatividad de 5% (o 1%)
- Cuando p-valor> 0,05 (o 0,01) No rechazar la nula, no hay het
1. Medidas correctivas
A MCP (Mínimos Cuadrados Ponderados)

Sqrt para hacer raíces.

También podría gustarte