Está en la página 1de 4

Tema 9: Contraste de Hipótesis (Estructurales).

Modelo básico de regresión lineal

CONTASTE DE HIPÓTESIS

CONTRASTE DE HIPÓTESIS ESTRUCTURALES


1) MUESTRAS PEQUEÑAS
Nuestra primera hipótesis de trabajo es disponer de una información suficientemente amplia sobre el conjunto de variables
observables implicadas en el modelo. Como requisito mínimo para que pueda determinarse una solución, se exige que el
número de datos sea superior la número de parámetros del modelo (n>k). A efectos operativos se necesitará un mínimo de
alrededor entre 18 y 20 datos para 3 ó 4 parámetros que nos garantice la validez en el proceso de estimación. De tal manera
que los grados de libertad sean mayores que 15.
Grados de libertad (n-k) …… n-k>15
Sin embargo, la existencia de muestras pequeñas, por ejemplo menos de 15 datos, produce estimaciones que, aunque
insesgadas y eficientes, presentan varianzas comparativamente elevadas respecto de las que se obtendrían con tamaños
muestrales superiores.
Como consecuencia de ello los intervalos de predicción resultan demasiado amplios y los contrastes de significación estadística
no son conclusivos al respecto. Es posible que trabajando con grados de libertad menores de diez algunos o todos los
parámetros no resulten significativos ya sea o no correcta la conclusión.
Solución:
- Aumentar el tamaño de la muestra
- Reducir los parámetros

2) MULTICOLINEALIDAD
En el planteamiento del MBRL se exigía que no existiera ninguna relación exacta entre las variables explicativas, cumpliéndose
la hipótesis denominada de RANGO PLENO que garantiza la invertibilidad de X.
X matriz fija con rango (X) = ρ(X) = k < n
En efecto, dado que ρ(X)= ρ(X’X)= k y siendo la matriz X’X de orden (k x n) x (n x k) = (k x k), la hipótesis de rango pleno implica
que el determinante de la matriz a invertir es no nulo y, por tanto, existe la matriz inversa.
Existen dos tipos de multicolinealidad:
- Exacta => se define como la existencia de una combinación lineal exacta entre dos o más variables exógenas incluidas en el
modelo y se incumple la propiedad de rango pleno (“near singular matrix!”).
- Parcial o aproximada=> se define como la existencia de una relación lineal fuerte pero no exacta entre dos o más variables
explicativas o exógenas incorporadas en el modelo.
Puede decirse que la multicolinealidad es, en cierto modo, un fenómeno inevitable: en un sistema económico es generalmente
muy difícil suponer la total falta de correlación (independencia) entre sus distintos elementos. Lo importante es saber cuándo
sus efectos son lo suficientemente grandes como para generar una interpretación errónea de los resultados.
¿Cómo se detecta la multicolinealidad?
A priori, en el modelo nos encontraremos con un R2 alto, un contraste F adecuado y unas t-student bajas en algunas de las
variables.
Para determinar si existe o no multicolinealidad, partimos del cálculo de las correlaciones entre las variables explicativas=>
COEFICIENTE DE CORRELACIÓN SIMPLE entre dos variables X1, X2
El coeficiente de correlación oscila entre valores 1 y -1 ¿qué valor debería tener la correlación entre dos variables X para afirmar
que existe (o no) un problema de multicolinealidad entre las variables?
En la práctica aquellas X que tengan una correlación mayor a 0,8 ó 0,85 indican presencia de colinealidad. También podemos
tomar como valor de referencia el valor de la R (valor de la raíz cuadrada del coeficiente R2 que obtenemos con la estimación
del modelo).
Si r < R => no existe multicolinealidad
Causas de la multicolinealidad:
- Datos referidos a una base muy homogénea en que no existe variación
- Variables que representan una tendencia común
- Relaciones aproximadas e incluso teóricas entre variables exógenas
Efectos de la multicolinealidad:
Provoca altas varianzas en los estimadores (las varianzas de los estimadores crece según aumenta la correlación entre las
variables X) con tres efectos inmediatos:
- Los estimadores son insesgados pero pueden sufrir errores considerables
- Los estimadores suelen sufrir cambios sensibles al añadir nueva información, es decir, al actualizar el modelo, lo que pone
de manifiesto la inseguridad de la estimación.
- Las varianzas elevadas de los estimadores hacen difícil rechazar cualquier contraste de no significación de los parámetros,
es decir, afecta a los contrastes individuales.
Ho => no existe ninguna relación entre las variables exógenas
En Eviews se calcula la MATRIZ DE CORRELACIONES SIMPLES, se analizan las correlaciones entre las variables X del modelo y
comprobamos valores de esas correlaciones.
Partimos de un modelo básico de regresión lineal:

Para analizar la multicolinealidad hay que observar


las correlaciones simples que se registran entre las
variables explicativas que han dado origen a la
estimación que se analiza. Correlaciones mayores de
0,8 ó 0,85 indican presencia de colinealidad

Seleccionamos las exógenas y las abrimos como grupo


3) ESPECIFICACIÓN ERRÓNEA
a) La forma funcional no es lineal.
b) Omisión de variables relevantes.
c) Inclusión de variables irrelevantes.
Se incumple la hipótesis de partida del modelo que indica que existe una relación lineal en la que la variable endógena (y)
depende de las k variables explicativas que tienen sobre ella un efecto destacable.

CONTRASTE DE HIPÓTESIS EN EL MODELO BÁSICO DE REGRESIÓN LINEAL


Contraste de hipótesis
Especificación errónea - Variables Omitidas y variables redundantes
El programa Eviews nos proporciona dentro del menú de visualización VIEWS del objeto ECUACIÓN una serie de contrastes directos
(COEFFICIENT TEST) para la determinación de la existencia de variables omitidas (OMITTED VARIABLES) y también para el caso de
incorporación de variables redundantes (REDUNDANT VARIABLES).

En Eviews, se puede aplicar el test de variables omitidas:


VIEWS / COEFFICIENT TEST / OMMITED VARIABLES

En Eviews, se puede aplicar el test de variables irrelevantes:


VIEWS / COEFFICIENT TEST / REDUNDANT VARIABLES
Pruebas de variables omitidas:
Nos da una idea de si una variable adicional podría mejorar el modelo
View/Coefficient Diagnostics/Omitted Variables Test-Likelihood Ratio.
En el cuadro de dialogo se escriben las variables a omitir (caso:
TIPOC_ED)
H0 : La variable es IRRELEVANTE. Prob>0,05
H1 : La variable es relevante. Prob<0,05
(Para un 95 % de nivel de significatividad )
Con una probabilidad de 0,6567 se acepta hipótesis nula, es decir, la
variable es irrelevante

Pruebas de variables redundantes:


Indica el modelo mejoraría al excluir una variable que está incluida en
el modelo
View/Coefficient Diagnostics/Redundant Variables Test- Likelihood
Ratio.
En el cuadro de dialogo se escriben la variable a analizar (RENTAD)
H0 : La variable es REDUNDANTE. Prob>0,05
H1 : La variable no es redundante. Prob<0,05
(Para un 95 % de nivel de significatividad )
Con una probabilidad de 0,0005 se rechaza la hipótesis nula, es decir,
la variable no es redundante.

También podría gustarte