Está en la página 1de 8

Prueba de Koenker-Basset (KB)

La prueba KB se basa en los residuos al cuadrado, 𝑢̂𝑖2 , pero en vez de hacer la regresión
sobre una o más regresoras, se efectúa la regresión de los residuos al cuadrado sobre los
valores estimados de la regresora al cuadrado.

Se basa en el supuesto de que la varianza de las perturbaciones es una función de los


regresores, la forma funcional real no necesita ser especificada. Esta prueba supone que los
residuales cuadrados es una función lineal de los valores estimados al cuadrado de la variable
dependiente.

Procedimiento
Para el empleo de esta prueba se necesita una variable que sea proxy para la varianza no
observable (los residuos al cuadrado) y una variable que solo está influenciada por los
regresores (variable dependiente estimada al cuadrado).

1. Estimar el modelo
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖
2. Obtener los residuos y las 𝑌̂𝑖 elevadas al cuadrado.
3. Y con los valores anteriores estimar el siguiente modelo:

𝑢̂𝑖 2 = 𝛼1 + 𝛼2 (𝑌
̂𝑖 )2 + 𝑣𝑖

𝑣𝑖 ~𝑁(0, 𝜎 2 )

4. Probar la significancia del parámetro 𝛼2 mediante una prueba t:

𝑯𝟎 : 𝜶𝟐 = 𝟎

𝑯𝟏 : 𝜶𝟐 ≠ 𝟎
5. Contrastar con el t crítico. Dado que la prueba “t” tiene solo un grado de libertad, el
valor cuadrado del valor t se distribuye como una distribución F con un grado de
libertad. Si rechazamos la Ho concluimos que hay evidencia de heterocedasticidad.

𝒕𝜶 > 𝒕𝒅 𝑹𝒆𝒄𝒉𝒂𝒛𝒂𝒎𝒐𝒔 𝒍𝒂 𝑯𝟎 . , 𝒑𝒐𝒓 𝒍𝒐 𝒕𝒂𝒏𝒕𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝑯𝒆𝒕𝒆𝒓𝒐𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅


Y si el modelo es doble logaritmo, se lleva a cabo la regresión de los residuos al cuadrado
sobre (𝑙𝑛̂
𝑌𝑖 )2

Ventajas

 Es aplicable aun cuando 𝑢𝑖 no esté normalmente distribuido.


 La prueba KB es aplicable si hay una o muchas regresoras.
Test de Park
Estos contrastes siguen la misma idea del test de White y suponen que las varianzas de las
perturbaciones son función de una o varias variables, generalmente, variables explicativas
del modelo econométrico propuesto.

Park sugiere que 𝜎𝑖2 es algún tipo de función de la variable explicativa 𝑋𝑖 , siendo la forma
función sugerida
𝛽
𝜎𝑖2 = 𝜎 2 𝑋𝑖 𝑒 𝑣𝑖

𝑙𝑛 𝜎𝑖2 = 𝑙𝑛 𝜎 2 + 𝛽 𝑙𝑛 𝑋𝑖 + 𝑣𝑖

𝒗𝒊 es el termino de perturbaciones estocástico.

𝝈𝟐𝒊 es desconocida por lo que se usa 𝑢̂i2 como una aproximación y correr la siguiente
expresión:

𝑙𝑛 𝑢̂𝑖 2 = 𝑙𝑛 𝜎 2 + 𝛽 𝑙𝑛 𝑋𝑖 + 𝑣𝑖

𝑙𝑛 𝑢̂𝑖 2 = 𝛼 + 𝛽 𝑙𝑛 𝑋𝑖 + 𝑣𝑖
Establecemos las siguientes hipótesis:

𝐻0: 𝛽 = 0 𝐻𝑜𝑚𝑜𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑

𝐻𝑎: 𝛽 ≠ 0 𝐻𝑒𝑡𝑒𝑟𝑜𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑

Si 𝛽 es significativo existe presencia de heterocedasticidad, caso contrario existe


homocedasticidad.
En resumen:

̂𝒊𝟐
1. Realizar una regresión MCO, ignorando la heterocedasticidad y capturando los 𝒖

2. Realizar una regresión tomando como variable dependiente los residuos al cuadrado
en función de una o varias variables explicativas y analizar la significación conjunta
de la regresión

Desventajas
Ha habido cierto debate sobre la validez de esta prueba. Por ejemplo, Goldfeld y Quandt
advirtieron que 𝑣𝑖 puede violar los supuestos de MCO y demás puede tener
heterocedasticidad, por lo que es aconsejable utilizarla como un método estrictamente
exploratorio.
CONTRASTE DE HETEROCEDASTICIDAD
Vamos a verificar la presencia de heterocedasticidad, mediante el contraste de White, el
contraste de Breusch-Pagan/Godfrey, el contraste de Goldfeld-Quandt.

Contraste de White
A diferencia de la prueba de Goldfeld-Quandt, que requiere reordenar las observaciones
respecto de la variable X que supuestamente ocasiona la heteroscedasticidad, o de la prueba
BGP, sensible al supuesto de normalidad, la prueba general de heteroscedasticidad propuesta
por White no se apoya en el supuesto de normalidad y es fácil aplicarla. Es el test más general
para detectar la heteroscedasticidad en los modelos de regresión lineal.
Considere el siguiente modelo de regresión con tres variables:

𝒀𝒊 = 𝜷𝟏 + 𝜷𝟐 𝑿𝟐𝒊 + 𝜷𝟑 𝑿𝟑𝒊 + 𝝁𝒊
Para realizar la prueba de White se procede de la siguiente forma:

• Paso 1: Se estima la regresión anterior por MCO y se obtiene los residuos 𝑢̂𝑖

• Paso 2: Se efectúa la siguiente regresión (auxiliar) considerando como variable


dependiente a los residuos al cuadrado frente a todas las variables explicativas del
modelo, sus cuadrados y sus productos cruzados:

𝑢̂𝑖2 = 𝛼1 + 𝛼2 𝑋2𝑖 + 𝛼3 𝑋3𝑖 + 𝛼4 𝑋2𝑖


2 2
+ 𝛼5 𝑋3𝑖 + 𝛼6 𝑋2𝑖 𝑋3𝑖 + 𝑣𝑖

También pueden introducirse potencias más altas de las variables independientes.


Observe que hay un término constante en esta ecuación, aunque la regresión original
puede o no contenerlo.

• Paso 3: Obtenga 𝑅 2 de esta regresión (auxiliar).

Según la hipótesis nula de que no hay heterocedasticidad:

𝐻0 = 𝜎12 = 𝜎22 = 𝜎32 = ⋯ 𝜎𝑛2

Puede demostrarse que el tamaño de la muestra (n) multiplicado por 𝑅 2 ( coeficiente


de determinación) obtenido de la regresión auxiliar asintóticamente sigue la
distribución ji cuadrada con 𝑔𝑙 igual al número de variables explicativas (sin el
término constante) en la regresión auxiliar. Es decir,
2
𝑛 ∗ 𝑅 2 ≈ 𝜒𝑔𝑙

Cuando el valor ji cuadrado excede al valor ji cuadrado dado, determinado, se


rechazará la 𝐻0 a contrastar y se enfrentará un problema de heterocedasticidad.

𝐻0 : 𝜎12 = 𝜎22 = 𝜎32 = ⋯ 𝜎𝑛2

𝜒𝑐2 > 𝜒𝑑2 𝑅. 𝐻𝑜


Inconvenientes:

 Cuando un modelo tiene muchas regresoras, la introducción de todas las


regresoras y de sus términos elevados al cuadrado y de sus productos cruzados
puede consumir grados de libertad rápidamente.
 En los casos en que el estadístico de prueba de White es significativo
estadísticamente la heterocedasticidad puede no necesariamente ser la causa,
sino los errores de especificación.

Contraste de Breusch-Pagan
El éxito de la prueba de Goldfeld-Quandt depende no sólo del valor de c (el número de
observaciones centrales que se van a omitir), sino también de la identificación de la variable
X correcta que servirá de referencia para ordenar las observaciones. Esta limitación de la
prueba se evita si consideramos la prueba Breusch-Pagan-Godfrey (BPG).

• Considere el modelo:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖

• Suponga que la varianza del error 𝜎𝑖2 se describe como:

𝜎𝑖2 = 𝑓(𝛼1 + 𝛼2 𝑍2𝑖 + ⋯ + 𝛼𝑚 𝑍𝑚𝑖 )

• Es decir, 𝜎𝑖2 es algún tipo de función de las variables 𝑍 que presumiblemente causan
heterocedasticidad; alguna de las 𝑋 o todas pueden servir como 𝑍,

• Específicamente supongamos que:

𝜎𝑖2 = 𝛼1 + 𝛼2 𝑍2𝑖 + ⋯ + 𝛼𝑚 𝑍𝑚𝑖

• Es decir, 𝜎𝑖2 es una función lineal de las 𝑍.

• Si 𝛼2 = 𝛼3 = ⋯ = 𝛼𝑚 = 0, 𝜎𝑖2 = 𝛼1 , que es una constante.

• Para probar si 𝜎𝑖2 es homoscedástica, se puede probar la hipótesis de que 𝛼2 = 𝛼3 =


⋯ = 𝛼𝑚 = 0
• Por tanto, las hipótesis son:

• H0 : α2 = α3 = ⋯ = αn = 0 ( 𝒉𝒂𝒚 𝒉𝒐𝒎𝒐𝒔𝒄𝒆𝒅á𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅)

• 𝑯𝟏 : 𝐻0 𝑛𝑜 𝑒𝑠 𝑐𝑖𝑒𝑟𝑡𝑎 (𝒆𝒙𝒊𝒔𝒕𝒆 𝒉𝒆𝒕𝒆𝒓𝒐𝒔𝒄𝒆𝒅𝒂𝒔𝒕𝒊𝒄𝒊𝒅𝒂𝒅)

El procedimiento es el siguiente.

• Paso 1: Estimar el modelo inicial por MCO, y obtenga los residuos (𝑢̂𝑖 )
• Paso 2: Calcular el estimador de MV de la varianza

𝜎̃ 𝟐 = ∑ 𝑢̂𝑖2 ⁄𝒏

• Paso 3: Construya las variables 𝑝𝑖 definidas como:

𝑝𝑖 = 𝑢̂𝑖2 ⁄𝜎̃ 𝟐

• Paso 5: Obtenga la SCE (Suma de cuadrados explicada) y defina:


1
Θ= 𝑆𝐶𝐸
2
• Paso 4: Haga la regresión de los 𝑝𝑖 sobre las 𝑍 como

𝑝𝑖 = 𝛼1 + 𝛼2 𝑍2𝑖 + ⋯ + 𝛼𝑚 𝑍𝑚𝑖 + 𝑣𝑖
Si suponemos que los 𝑢𝑖 están normalmente distribuidos se demuestras que sí hay
homocedasticidad, y si el tamaño n de la muestra aumenta indefinidamente, entonces

𝚯~𝒙𝟐m−𝟏
Donde m es el número de variables incluidas en la regresión auxiliar.

Regla de decisión:

𝚯(= 𝑿𝟐 ) > 𝑿𝟐 𝑑 → 𝑹𝒆𝒄𝒉𝒂𝒛𝒂 𝑯𝟎


Por tanto, hay heterocedasticidad

Contraste de Goldfeld-Quandt
Este contraste es muy sencillo y se aplica para muestras finitas (1995) se aplica cuando
sospechamos que la varianza del error aumenta con los valores de una variable 𝑋𝑖 , es decir,
cuando se supone que una única variable (típicamente uno de los regresores) provoca la
heterocedasticidad.

Supongamos que 𝜎 2 se relaciona positivamente con el i-esimo regresor, 𝑋𝑖 .

𝜎𝑖2 = 𝜎𝑢2 𝑍𝑖

El problema al contrastar lo podemos formular como

𝐻0 : 𝜎𝑖2 = 𝜎𝑢2 (𝐻𝑜𝑚𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑)

𝐻1 : 𝜎𝑖2 = 𝜎𝑢2 𝑍𝑖 𝑝𝑎𝑟𝑎 𝑎𝑙𝑔𝑢𝑛 𝑖 = 2, … . , 𝑝 (𝐻𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑)


El proceso del contraste es el siguiente:

1. Identificar la variable que causa la heterocedasticidad, digamos Z


2. Ordenar de forma ascendente las observaciones segun los valores de Z
3. Dividir los datos en tres submuestras. La submuestra central con C observaciones, y
las otras dos submuestras con (n-C)/2 obervaciones.
La determinación de C es arbitraria. Sin embargo algunos autores suelen considerar
como criterios el omitir entre un 20 y un 25% de las observaciones totales.

𝑐=4 𝑐𝑢𝑎𝑛𝑑𝑜 𝑛 = 30

𝑐 = 10 𝑐𝑢𝑎𝑛𝑑𝑜 𝑛 = 60
𝑛
𝑐= 𝑝𝑎𝑟𝑎 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠 𝑔𝑟𝑎𝑛𝑑𝑒𝑠.
3

4. Omitir las observaciones centrales, y estimar por mínimos cuadrados ordinarios la


ecuación de regresión en cada submuestra
5. se capturan las respectivas sumas de cuadrados residuales en cada submuestra siendo
𝑺𝑪𝑹𝟏 y 𝑺𝑪𝑹𝟐 . Si 𝐻1 es cierta, entonces se debería cumplir que 𝑺𝑪𝑹𝟐 > 𝑺𝑪𝑹𝟏
6. Calcular el estadístico de contraste
𝑆𝐶𝑅2 /(𝑚2 − 𝑘2 )
𝐹𝑐 =
𝑆𝐶𝑅1 /(𝑚1 − 𝑘1 )

Siendo 𝑚1 el número de observaciones de la submuestra superior, 𝑘1 ; es el número


de parámetros de la submuestra superior, 𝑚2 es el número de observaciones de la
submuestra inferior, 𝑘2 ; es el número de parámetros de la submuestra inferior.

Que sigue una distribución 𝐹 con 𝑞 grados de libertad en el numerador y


denominador.

𝛼
7. La hipótesis 𝐻0 se rechaza al nivel de significancia 𝛼, si 𝐹𝑐 > 𝐹𝑚 1 −𝑘1 ,𝑚2 −𝑘2
(siendo
𝐹𝑑 el valor critico).

Cabe recalcar que tendrá poca potencia cuando C sea demasiado grande y por lo tanto
𝑆𝐶𝑅1y 𝑆𝐶𝑅2 tengan pocos grados de libertad; sin embargo, si C es pequeño, la potencia
será también escasa ya que se reducen las diferencias existente entre 𝑆𝐶𝑅1y 𝑆𝐶𝑅2 .

Contraste de Glesjer
 Los estadísticos anteriores (de White, Goldfeld-Quandt) son capaces de darnos
información sobre el grado de igualdad de las varianzas de una serie de submuestras,
pero no modelizan el patrón heterocedástico que sigue la varianza de la perturbación.

 Debemos tener en cuenta que para aplicar mínimos cuadrados generalizados resulta
indispensable conocer qué tipo de heterocedasticidad sigue la varianza de la
perturbación. Desde este punto de vista, parece conveniente utilizar métodos que nos
den alguna ayuda en este sentido.

 Glesjer propone descartar la variación del error en función de una variable z, que
ahora pueden estar elevadas a una potencia " 𝛾 " que estaría comprendida entre
-1 y 1.
𝛾
𝜎𝑖 = 𝛼 + 𝛿𝑍𝑖 + 𝜈𝑖

El procedimiento utilizado es el siguiente:


1. Estimar el modelo inicial, sobre el que se pretende saber si hay o no
heterocedasticidad, empleando MCO y determinando los errores.

2. Estimar cuatro regresiones para los valores absolutos del error del modelo
anterior, como sustituto de σi, en función de una variable elevada consecutivamente
a " γ ", que para cada modelo tomaría los valores -1, -0,5, 0,5 y 1.

𝛾
|𝑢̂𝑖 | = 𝛼 + 𝛿𝑍𝑖 + 𝜈𝑖

𝐻0 : HOMOSCEDASTICIDAD: la varianza es constante en toda la muestra.

𝐻1 : HETEROSCEDASTICIDAD: la varianza es una función cualquiera de la variable que


produce la heteroscedasticidad.

En cada caso la hipótesis nula de homoscedasticidad es rechazada sí el estimador δ


(delta) es significativamente distinto de cero y con mayor R2.

Glejser propone diversas relaciones funcionales donde se incluyen tantas formas funcionales
lineales y no lineales:
|𝑢̂𝑖 | = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑣𝑖

|𝑢̂𝑖 | = 𝛽1 + 𝛽2 √𝑋𝑖 + 𝑣𝑖

1
|𝑢̂𝑖 | = 𝛽1 + 𝛽2 + 𝑣𝑖
𝑋𝑖
1
|𝑢̂𝑖 | = 𝛽1 + 𝛽2 + 𝑣𝑖
𝑋
√ 𝑖
Inconvenientes
Goldfeld y Quandt establece que el término de error 𝑣𝑖 tiene algunos problemas; pues su
valor esperado diferente de cero 𝐸(𝑣𝑖 ) ≠ 0, está fuertemente correlacionado.

Los modelos de regresión propuestos por GLEJSER los modelos (5) y (6) no son lineales en
los parámetros por tanto no pueden estimarse mediante el procedimiento de MCO habitual.

 GLEJSER descubrió que para muestras grandes, los cuatro primeros modelos suelen
dar resultados satisfactorios en la detección de la heterocedasticidad.
 En la práctica, la técnica de GLEJSER es útil para muestras grandes, y en muestras
pequeñas sirve estrictamente como herramienta cualitativa para obtener una noción
sobre la heterocedasticidad.

También podría gustarte