Está en la página 1de 15

Test Breusch-Godfrey

En estadstica, el Test Breusch-Godfrey es usado como medio para


validar algunos de los supuestos aplicados a los modelos de regresin de
series de datos. En particular, es un tests para detectar la presencia de
dependencia serial que no ha sido considerada dentro del modelo
propuesto y en el cual, si se presenta, llevar a conclusiones incorrectas,
o los parmetros estimados sern subptimos si esto no se toma en
cuenta. Los modelos de regresin que pueden ser testeados incluyen
algunos

rezagos

en

sus variables

dependientes y

son

usados

como variables independientes en la representacin del modelo para las


ltimas observaciones. Este tipo de estructura es comn en los modelos
economtricos.

Un nombre alternativo para este test es Test del multiplicador de


Lagrange de correlacin serial de BreuschGodfrey, lo cual indica
que este test es equivalente a uno basado en la idea del Test de

multiplicador de Lagrange.
El nombre del test es en honor a Trevor S. Breusch y Leslie G.
Godfrey.

Test de Breusch-Pagan
En estadstica, el test de Breusch-Pagan se utiliza para determinar
la heterocedasticidad en un modelo de regresin lineal. Analiza si
la varianza estimada de los residuos de una regresin depende de los
valores de las variables independientes.
Supongamos que estimamos el siguiente modelo:

Y obtenemos un conjunto de valores para , los residuos. Con las


restricciones de los Mnimos Cuadrados Ordinarios la media es 0, de

modo que dada la suposicin de que la varianza no depende de las


variables independientes, la estimacin de la varianza se puede obtener
a partir de la media de los valores al cuadrado. Si la suposicin no fuera
correcta,

podra

ocurrir

que

la

varianza

estuviera

relacionada

linealmente con las variables independientes. Ese modelo se puede


examinar haciendo una regresin de los residuos al cuadrado respecto
de las variables independientes, empleando una ecuacin de la forma:

Esta es la base del test. Si el test-F confirma que las variables


independientes

son

significativas,

entonces

se

puede

rechazar

la hiptesis nula de homocedasticidad.


El test de Chow es un test estadstico y economtrico que prueba si los
coeficientes en dos regresiones lineales en dos sets de data son iguales.
El test de Chow fue inventado por el economista Gregory Chow. En
econometra, el test de Chow es normalmente usado en el anlisis
de series de tiempo para probar la presencia de un cambio.
En

hay

intervalos

un
y

cambio

estructura,

las

regresiones

en

los

generan mejores modelos que la regresin

combinada (lnea punteada) en todo el intervalo.

Supongamos que modelamos nuestra data como:

Si dividimos nuestra data en dos grupos, entonces tendremos

La hiptesis nula del test de Chow ser que

,y.

Sea

la suma de cuadrados residuos de la data combinada,

de cuadrados residuos del primer grupo y


residuos del segundo grupo.
cada grupo y

la suma

la suma de cuadrados

son el nmero de observaciones en

es el nmero total de parmetros (en este caso, 3).

Entonces el estadstico del test de Chow ser:

El estadstico del test se comporta como una distribucin F con


y

grados de libertad.

Estadstico de Durbin-Watson:
En estadstica, el estadstico de Durbin-Watson, desarrollado por el
reputado economista Watson, es una estadstica de prueba que se utiliza
para detectar la presencia de autocorrelacin (una relacin entre los
valores separados el uno del otro por un intervalo de tiempo dado) en
los residuos (errores de prediccin) de un anlisis de la regresin. Lleva
el nombre de James Durbin y Geoffrey Watson. La pequea muestra de
la distribucin de esta relacin se deriva de John von Neumann(von
Neumann, 1941). Durbin y Watson (1950, 1951) aplicaron esta
estadstica para los residuales de mnimos cuadrados, y desarrollaron
pruebas para la hiptesis nula de que los errores estn correlacionados
en serie frente a la alternativa de que siguen un proceso de primer
orden autorregresivo. Ms tarde, John Denis Sargan y Alok Bhargava
desarrollaron varias pruebas estadsticas del tipo Neumann-DurbinWatson von para la hiptesis nula de que los errores en un modelo de
regresin siguen un proceso con una raz unitaria contra la hiptesis
alternativa de que los errores siguen un proceso estacionario de primer
orden autorregresivo (Sargan y Bhargava, 1983).

Clculo e interpretacin del estadstico de Durbin-Watson:


Si et es el residual asociado a la observacin en el tiempo t, entonces la
prueba estadstica es:

Donde T es

el

nmero

de

observaciones.

Puesto

que

es

aproximadamente igual a 2(1 r), donde r es la autocorrelacin de la


muestra de los residuos,1 d = 2 indica que no hay autocorrelacin. El
valor de d siempre est entre -1 y 1,5. Si la estadstica de Durbin-Watson
es sustancialmente menor que 0,5, hay evidencia de correlacin serial
positiva. Como regla general, si Durbin-Watson es inferior a 1,0 aunque
lo ptimos es que sea menor que 0, puede ser causa de alarma. Los
valores pequeos de d indican los trminos de error sucesivos son, en
promedio, cerca del valor de los otros, o correlacionados positivamente.
Si d> 2, los trminos de error sucesivas son, en promedio, muy diferente
en valor el uno del otro, es decir, correlacionada negativamente. En las
regresiones,

esto

puede

implicar

una

subestimacin

del

nivel

de significacin estadstica.
Para probar la autocorrelacin positiva en importancia , la estadstica
de prueba d se compara con los valores crticos inferiores y superiores
(dL, and dU,):

Si d < dL,, existe evidencia estadstica de que los trminos de


error se autocorrelacionados positivamente.

Si d > dU,, no hay evidencia estadstica de que los trminos de


error se autocorrelacionados positivamente.

Si dL, < d < dU,, la prueba no es concluyente.

Correlacin serial positiva es la correlacin en serie en la que un error


positivo para una observacin aumenta las posibilidades de un error
positivo para otra observacin.
Para probar la autocorrelacin negativa en significacin , la estadstica
de prueba (4 - d) se compara a bajar y los valores crticos de nivel
superior (dL, and dU,):

Si (4 d) < dL,, existe evidencia estadstica de que los trminos


de error se autocorrelacionados negativamente.

Si (4 d) > dU,, no hay evidencia estadstica de que los trminos


de error se autocorrelacionados negativamente.

Si dL, < (4 d) < dU,, la prueba no es concluyente.

Correlacin serial negativa implica que un error positivo para una


observacin aumenta la probabilidad de un error negativo para otra
observacin y un error negativo para uno aumenta las posibilidades de
un error positivo para otra observacin.
Los valores crticos, dL, y dU,, variar segn el nivel de significacin (), el
nmero de observaciones, y el nmero de predictores en la ecuacin de
regresin. Su derivacin es compleja-los estadsticos suelen obtener a
partir de los apndices de textos estadsticos.

Causalidad de Granger :
Causalidad de Wiener-Granger o Test de Wiener-Granger:

Desarrollado por el Premio Nobel de Economa (ao 2003) Clive W. J.


Granger (1934-), a partir de las indicaciones de Norbert Wiener. Es un
test consistente en comprobar si los resultados de una variable sirven
para

predecir

otra

variable,

si

tiene

carcter

unidireccional o bidireccional. Para ello se tiene que comparar y deducir


si el comportamiento actual y el pasado de una serie temporal A predice
la conducta de una serie B. Si ocurre el hecho, se dice que el resultado
A causa en el sentido de Wiener-Granger el resultado B; el
comportamiento es unidireccional. Si sucede lo explicado e igualmente
el resultado B predice el resultado A, el comportamiento es
bidireccional, entonces el resultado A causa el resultado B, y el
resultado B causa el resultado A.

Coeficiente de correlacin de Spearman:


El coeficiente de correlacin de Spearman es menos sensible que el de
Pearson para los valores muy lejos de lo esperado. En este ejemplo:
Pearson = 0.30706 Spearman = 0.76270
En estadstica, el coeficiente de correlacin de Spearman, (rho) es una
medida de la correlacin (la asociacin o interdependencia) entre
dos variables aleatorias continuas. Para calcular , los datos son
ordenados y reemplazados por su respectivo orden.
El estadstico viene dado por la expresin:

Donde D es la diferencia entre los correspondientes estadsticos de


orden de x - y. N es el nmero de parejas.

Se tiene que considerar la existencia de datos idnticos a la hora de


ordenarlos,

aunque

si

stos

son

pocos,

se

puede

ignorar

tal

circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la
siguiente aproximacin a la distribucin t de Student.

La

interpretacin

de

coeficiente

de

Spearman

es

igual

que

la

del coeficiente de correlacin de Pearson. Oscila entre -1 y +1,


indicndonos asociaciones negativas o positivas respectivamente, 0
cero, significa no correlacin pero no independencia. La tau de
Kendall es un coeficiente de correlacin por rangos, inversiones entre
dos ordenaciones de una distribucin normal bivariante.
Prueba de Significancia para cada coeficiente de la regresin
La prueba individual de un coeficiente de regresin puede se til para
determinar si:
Se incluyen otra variable regresora.
Se elimina una o ms variables regresoras presentes en el
modelo
La adicin de variables regresoras en el modelo implica:
La SC
La SC

incremente
disminuya

Pero se debe decidir si el incremento en la SC

es tan significativo

que justifique la inclusin de otra variable regresora en el modelo, ya

que la inclusin de variables que no deberan ser incluidas puede


aumentar la SC

La hiptesis para probar la significancia desde cualquier coeficiente de


regresin es

Si la hiptesis nula no es rechazada, es un indicador de que la variable


regresora puede ser eliminada del modelo.
La prueba estadstica para la hiptesis es

Donde

es

el

elemento

correspondiente a

de

la

diagonal

de

la

matriz

. La prueba estadstica se distribuye

con

grados de libertad del error. La hiptesis nula se rechaza si:

Prueba de Rachas:
El contraste de rachas permite verificar la hiptesis nula de que la
muestra es aleatoria, es decir, si las sucesivas observaciones son
independientes. Este contraste se basa en el nmero de rachas que
presenta una muestra. Una racha se define como una secuencia de
valores muestrales con una caracterstica comn precedida y seguida
por valores que no presentan esa caracterstica. As, se considera una
racha la secuencia de k valores consecutivos superiores o iguales a la

media maestral (o a la mediana o a la moda, o a cualquier otro valor de


corte) siempre que estn precedidos y seguidos por valores inferiores a
la media muestral (o a la mediana o a la moda, o a cualquier otro valor
de corte).
El nmero total de rachas en una muestra proporciona un indicio de si
hay o no aleatoriedad en la muestra. Un nmero reducido de rachas (el
caso extremo es 2) es indicio de que las observaciones no se han
extrado de forma aleatoria, los elementos de la primera racha proceden
de una poblacin con una determinada caracterstica (valores mayores o
menores al punto de corte) mientras que los de la segunda proceden de
otra poblacin. De forma idntica un nmero excesivo de rachas puede
ser tambin indicio de no aleatoriedad de la muestra.
Si la muestra es suficientemente grande y la hiptesis de aleatoriedad
es cierta, la distribucin muestral del nmero de rachas, R, puede
aproximarse mediante una distribucin normal de parmetros:

donde n1 es el nmero de elementos de una clase, n2 es el nmero de


elementos de la otra clase y n es el nmero total de observaciones.

Prueba de Anderson-Darling:
En estadstica,

la prueba

de

Anderson-Darling es

una prueba no

paramtrica sobre si los datos de una muestra provienen de una


distribucin especfica. La frmula para el estadstico A determina si los
datos

(observar que los datos se deben ordenar)

vienen de una distribucin con funcin acumulativa .

Donde:

El estadstico de la prueba se puede entonces comparar contra las


distribuciones del estadstico de prueba (dependiendo que

se utiliza)

para determinar el P-valor.


La prueba de Anderson-Darling es una prueba estadstica que permite
determinar si una muestra de datos se extrae de una distribucin de
probabilidad. En su forma bsica, la prueba asume que no existen
parmetros a estimar en la distribucin que se est probando, en cuyo
caso la prueba y su conjunto de valores crticos siguen una distribucin
libre. Sin embargo, la prueba se utiliza con mayor frecuencia en
contextos en los que se est probando una familia de distribuciones, en
cuyo caso deben ser estimados los parmetros de esa familia y debe
tenerse estos en cuenta a la hora de ajustar la prueba estadstica y sus
valores crticos. Cuando se aplica para probar si una distribucin normal
describe adecuadamente un conjunto de datos, es una de las
herramientas estadsticas ms potentes para la deteccin de la mayora
de las desviaciones de la normalidad.

Test de Phillips-Perron:
En estadstica y econometra, la prueba de Phillips-Perron (el nombre
viene de Peter Phillips y CB Pierre Perron) 1 es una prueba de raz
unitaria. Es decir, se utiliza en el anlisis de series de tiempo para probar
la hiptesis nula de que una serie de tiempo es integrada de orden 1. Se
basa en la prueba de Dickey-Fuller de que la hiptesis nula es

en

, donde es la primera diferencia del operador. Al igual

que la prueba de Dickey-Fuller aumentada, la prueba de Phillips-Perron


aborda la cuestin de que el proceso de generacin de datos para
podra tener un orden superior de autocorrelacin que es admitido en la
ecuacin de prueba - haciendo

endgeno y invalidando as el

Dickey-Fuller t-test. Mientras que la prueba de Dickey-Fuller aumentada


aborda esta cuestin mediante la introduccin de retardos de

como

variables independientes en la ecuacin de la prueba, la prueba de


Phillips-Perron hace un no-paramtricos correccin a la estadstica t-test.
El

ensayo

es

robusto

con

respecto

especificado autocorrelacin y heterocedasticidad en

el

no

proceso

de

alteracin de la ecuacin de prueba.


El artculo de Davidson y MacKinnon (2004) muestra que la prueba de
Phillips-Perron es menos eficiente en muestras finitas que la prueba de
Dickey-Fuller aumentada.

Prueba de Dickey-Fuller:
En estadstica,

la prueba

de

Dickey-Fuller confirma

si

una raz

unitaria est presente en un modelo autorregresivo. Lleva el nombre de


los estadsticos David Dickey yWayne Fuller, quienes desarrollaron la
prueba en 1979.1
Explicacin:
Un simple modelo Autorregresivo de orden (1) es

Donde yt es la variable de inters, t es el ndice de tiempo, es un


coeficiente, y ut es el trmino de error. La raz unitaria est presente
si = 1. El modelo sera no estacionario en este caso.
El modelo de regresin puede ser escrito como

Donde es el operador de primera diferencia. Este modelo puede ser


estimado y las pruebas para una raz unitaria es equivalente a pruebas
= 0 (donde = - 1). Dado que la prueba se realiza con los datos
residuales en lugar de los datos en bruto, no es posible utilizar una
distribucin t estndar para proporcionar los valores crticos. Por tanto,
esta

estadstica

tiene

una

determinada

distribucin

conocida

simplemente como la tabla de Dickey-Fuller.


Hay tres versiones principales de la prueba:
1. Prueba de raz unitaria:

2. Prueba de raz unitaria con la deriva:

3. Prueba de raz unitaria con deriva y tendencia temporal determinista:

Cada versin de la prueba tiene su propio valor crtico que depende del
tamao de la muestra. En cada caso, la hiptesis nula es que hay una
raz unitaria, = 0. Las pruebas tienen un bajo poder estadstico en el
que a menudo no pueden distinguir entre los procesos de raz unitaria
verdaderos ( = 0) y los procesos de raz unitaria cerca ( es cercano a

cero). Esto se conoce como el problema de "observacin de cerca de


equivalencia".
La intuicin detrs de la prueba es el siguiente. Si la serie y es
estacionaria (o tendencia estacionaria), entonces tiene una tendencia a
volver a una constante (o determinista de tendencias) significa. Por lo
tanto los valores grandes tendern a ser seguido por los valores ms
pequeos cambios (negativos), y valores pequeos de los valores ms
grandes (cambios positivos). En consecuencia, el nivel de la serie ser
un predictor significativo de cambio del perodo siguiente, y tendr un
coeficiente negativo. Si, por otro lado, la serie est integrada, a
continuacin, los cambios positivos y negativos cambios ocurrirn con
probabilidades que no dependen del nivel actual de la serie, en un paseo
aleatorio , donde se encuentra ahora, no afecta el camino que se ir
despus.
Es notable que :

Puede ser reescrito como:

Con una tendencia determinista procedente de

interseccin estocstico procedente de


Dando

como

resultado

lo

que

se

y un trmino de

.
conoce

como

una

tendencia

estocstica.
Hay tambin una extensin de la prueba de Dickey-Fuller (DF) llamado el
test de Dickey-Fuller aumentada (ADF), que elimina todos los efectos

estructurales (autocorrelacin) en la serie de tiempo y luego las pruebas


con el mismo procedimiento.

También podría gustarte