Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Pruebas Kolmogorov-Smirnov y Anderson-Darling PDF
Pruebas Kolmogorov-Smirnov y Anderson-Darling PDF
Pruebas Estadsticas
No Paramtricas
Para modelos estadsticos, pruebas estadsticas e inferencia no paramtrica. Estos son mtodos
libres de distribucin, es decir, no se basan en supuestos de que los datos provengan de una
distribucin de probabilidad determinada. Son importantes en la econometra porque con
frecuencia no se conocen los parmetros de las series de tiempo con las que se trabajan. El
termino estadstico no paramtrico tambin puede hacer referencia a un estadstico (funcin
sobre una muestra) cuya interpretacin no depende de que la poblacin se ajuste a cualquier
distribucin parametrizada.
Estos mtodos se usan cuando los datos tienen un ranking pero no una interpretacin numrica
clara, Ej. Las preferencias. Como hacen pocos supuestos, su aplicacin es ms amplia que los
mtodos paramtricos. Se aplican en situaciones donde se conoce poco sobre la aplicacin en
cuestin. Adems, por basarse en menos supuestos, estos mtodos son ms robustos. Tambin
son ms simples de implementar. Aunque en algunas situaciones se justifique la caracterizacin
de parmetros, los mtodos no paramtricos son ms fciles de usar. Todo esto deja poco espacio
para el mal uso y mal interpretacin. (mayor objetividad)
Los modelos no paramtricos difieren de los modelos paramtricos en que la estructura del
modelo no es especificada a priori, si no que es determinada con los datos. Esto no significa que
el modelo carezca de parmetros, si no que el nmero y naturaleza de los parmetros es flexible
y no fijada en adelanto. Muchas pruebas de bondad de ajuste no parametricas se basan en la
estimacin de mnima distancia contrastando la estimacin de mxima verosimilitud en las
paramtricas.
Un histograma es un estimado no paramtrico simple de una distribucin de probabilidad. La
estimacin de densidad kernel (Kernel density estimation - Parzen window) provee mejores
estimados de la densidad que los histogramas. La regresin no paramtrica y semi-paramtrica se
basan en kernels, splines, y wavelets.
Mtodos:
Coeficiente de correlacin de rangos Spearman
Mann-Whitney U
Kruskal-Wallis anlisis de varianza (ANOVA) de una va
Friedman anlisis de varianza (ANOVA) de dos vas
Prueba Durbin
Prueba de corridas Wald-Wolfowitz
Prueba Kolmogorov-Smirnov
Prueba Anderson-Darling
Mtodos utilizados como complementos:
Estadstico Durbin-Watson (detecta la presencia de autocorrelacin en los residuos de un
anlisis de regresin solo valido para regresores estocsticos)
Prueba LM de correlacin serial Breusch-Godfrey (ms general y complemento de DW)
Prueba Jarque-Bera (bondad de ajuste que mide discrepancia con normalidad basada en la
custosis y asimetra de la muestra)
Prueba 2 (bsica)
Simulacin Financiera
Sea X1,,Xn una variable aleatoria i.i.d. en R con f.d.c. F(x). La funcin de distribucin empirica
Fn(x) basada en la muestra X1,,Xn es una funcin step (escalera) definida por
Propiedades asintticas
a.s.
Por la ley fuerte de los nmeros grandes Fn(x)
F(x) para x fija.
D
Por el teorema del lmite central n (Fn ( x) F ( x) ) N (0, F ( x)(1 F ( x)) ). El
teorema Berry-Essen provee la tasa de esta convergencia.
Kolmogorov demostr que n Fn ( x) F ( x) converge en distribucin a la distribucin
Kolmogorov, provisto que F(x) es continua. La prueba Kolmogorov-Smirnov de bondad
de ajuste se basa en este hecho.
Es una funcin definida sobre el conjunto X que indica la membresa de un elemento del
subconjunto A de X. 1A(x) = 1 si x A, 0 si x A. Se relaciona al concepto de las variables
dummy (en anlisis de regresin, estadstica no confundir con el significado del trmino en
matemticas, variable libre).
Simulacin Financiera
Prueba Kolmogorov-Smirnov
La prueba KS se puede modificar para servir como prueba de bondad de ajuste. En el caso
especial de probar la normalidad de la distribucin, muestras son estandarizadas y comparadas
con la distribucin normal estndar. Esto es equivalente a cuadrar la media y varianza de la
distribucin de referencia igual a los estimados muestral, y es sabido que utilizar la muestra para
modificar la H0 reduce la potencia de la prueba. La prueba Lilliefors es una adaptacin que
intenta corregir este sesgo, pero no es tan potente como la AD.
Prueba KS
Bajo la hiptesis nula que la muestra proviene de una distribucin hipottica F(x),
n
n Dn sup B ( F (t )) converge en distribucin, donde B(t) es el Brownian bridge.
t
Si F es continua, entonces bajo la hiptesis nula n Dn converge a la distribucin Kolmogorov,
la cual no depende de F. Este resultado se conoce como el teorema de Kolmogorov (existen otros
teoremas de Kolmogorov en otras reas de la matemtica). La bondad de ajuste, o prueba KS, es
construida utilizando los valores crticos de la distribucin de Kolmogorov. La H0 se rechaza
para el nivel si n Dn > K ; donde K se encuentra de P(K K) = 1 . La potencia
asinttica de esta prueba es 1. Si la forma o parmetros de F(x) son determinados de Xi, la
inigualdad puede no sostenerse. En este caso, mtodos de Monte Carlo son requeridos para
determinar el nivel de rechazo de .
Prueba KS 2-muestra
nn
Dn,n = sup Fn ( x) Fn ( x) y la H0 se rechaza para el nivel si Dn, n > K
x n + n
Limites de confianza para la forma de la funcin de distribucin
Mientras que la prueba KS es usualmente usada para probar si una F(x) dada es la distribucin
de probabilidad subyacente de Fn(x), el procedimiento puede ser invertido para dar limites de
confianza en F(x) misma. Si se elige un valor critico del estadstico de prueba D tal que
P(Dn > D) = ; entonces una banda de ancho D alrededor de Fn(x) contendr en su totalidad
a F(x) con probabilidad 1 .
Limitaciones de la prueba KS
Es por esto que la prueba de bondad de ajuste AD es preferible, aunque solo se puede usar para
pocas distribuciones especificas.
Simulacin Financiera
Prueba Anderson-Darling
n 2k 1
S= [ln F (Yk ) + ln(1 F (Yn +1 k ))]
k =1 n
El estadstico de prueba puede entonces ser comparado contra los valores crticos de la
distribucin terica (dependiendo de que F es utilizada) para determinar el p-valor. La prueba
AD para normalidad es una prueba de distancia o prueba de funcin de distribucin empirica.
Esta basada en el concepto de que cuando se da una distribucin subyacente hipottica, los datos
pueden ser transformados a una distribucin uniforme. Los datos muestrales transformados
pueden entonces ser probados para uniformidad con una prueba de distancia.
Procedimiento
Esta explicacin esta basada en una prueba para una distribucin normal
Los datos Xi para i = 1,,n de la variable X que se quiere probar se organizan ascendentemente
(menor a mayor). La media X y desviacin estndar s son calculadas para la muestra X. Los
Xi X
valores Xi se estandarizan como Yi = . Con la f.d.c. normal estndar , A2 se calcula
s
como
1 n
A2 = n S = n (2i 1)[ln (Yi ) + ln(1 (Yn +1i ))]
n =1
144i4 444442444444443
1 n
n [( 2i 1) ln (Yi ) + ( 2( n i ) +1) ln(1 (Yi ))]
n i =1
La prueba AD es una modificacin de la prueba KS y da mayor peso a las colas que KS. La KS
es libre de distribucin en el sentido que los valores crticos no dependen en la distribucin
especfica que se est probando. La AD hace uso de la distribucin especfica al calcular los
valores crticos. Esto tiene la ventaja de permitir una prueba ms sensible y la desventaja de tener
que calcular los valores crticos para cada distribucin.