Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Introducción
2 Prueba de Kolgomorov-Smirnov
4 Prueba de Anderson-Darling
5 Pruebas de 2 Muestras
Introducción
H0 : F = F 0
Introducción
Una pregunta interesante es si los datos tiene una distribución uniforme, para probar la
hipótesis, es necesario calcular F̂n y con ella la prueba serı́a de la forma:
H0 : F = F0 ∼ U(0, 5)
Introducción
(t)−F0 (t))2
• An = F(F̂n(t)(1−F
R
0 0 (t))
dF0 (t)
• wn,k,g = (F0 (t) − F̂n (t))k g (F0 (t))dF0 (t)
R
Se define de esa manera debido al teorema de Gilvenko-Cantelli, que nos dice que
sup−∞<t<∞ |F (t) − F̂n (t)| → 0 a.s, es decir que la máxima distancia entre la
distribución empı́rica y la real tiende a 0. Por lo tanto si nuestra F0 es la distribución
real, se espera que Dn sea pequeño.
Prueba de Kolgomorov-Smirnov
La idea de este estadı́stico es medir el area que separa F̂n de F0 , el estadı́stico se define
como: Z
Cn = (F0 (t) − F̂n (t))2 dF0 (t)
Prueba de Cramér-von Mises
F0 es continua; Z 1
nCn → B 2 (t)dt en distribución
0
Donde B(t) es un puente Browniano.
Prueba de Cramér-von Mises
La idea es tambien medir el área en que separa F̂n de F0 , sin embargo, el termino
F0 (t)(1 − F0 (t)) busca tener una mayor ponderación en la región donde la distribución
F0 (t) tiene mayor incertidumbre. El estadistico se define como
m
dado que para algún 0 < γ < 1, n+m →γ