Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ENP2
ENP2
17
Enrique M. Cabaña.
18
Capı́tulo 2: Pruebas de bondad de ajuste.
dades F̂ para la que, si Y1 , . . . , Yn es una muestra de F̂ , entonces la probabilidad
de que resulte {Y1 , . . . , Yn } = {X1 , . . . , Xn } es máxima. Esta probabilidad es
positiva sólo si F̂ tiene probabilidades p1 , . . . , pn concentradas en X1 , . . . , Xn ,
y vale n! ni=1 pi , cuando las Xi (i = 1 . . . , n) son todas diferentes.
El máximo de este producto, con la condición ni=1 pi ≤ 1, se produce
cuando todas las probabilidades son iguales: p1 = . . . = pn = 1/n.
Como consecuencia, F̂ es la distribución empı́rica Fn .
Cuando Fn es cercana a F0 , no hay razones para rechazar H0 . En cambio,
cuando Fn dista mucho de F0 , vamos a rechazar H0 .
No debe extrañarnos entonces que las pruebas más utilizadas tengan como
región crı́tica {(X1 , . . . , Xn ) : d(Fn , F0 ) > constante}, donde d es una distan-
cia entre probabilidades, o una seudo - distancia, como suele llamarse a una
función con las propiedades de una distancia, excepto la que establece que
d(F, G) = 0 implica F = G.
Las pruebas que incluimos en las secciones siguientes resultan de elegir
adecuadamente d. La primera de ellas ha sido analizada en §??. Las otras dos
han sido presentadas en §??, en el marco de aplicaciones del proceso empı́rico,
y ahora las estudiaremos con mayor detenimiento.
1 1 k
(Mi − npi )2
Q = √ (M − np)tr (diagp)−1 √ (M − np) =
n n i=1 npi
Enrique M. Cabaña.
20
Capı́tulo 2: Pruebas de bondad de ajuste.
tiene distribución asintótica χ2 con k − 1 grados de libertad, cuando P consta
de k intervalos.
Por este motivo, la prueba con región crı́tica
Q > χ2k−1,1−α
tiene nivel asintótico α para n grande.
k
−2 log λ = 2 Mh log(Mh /np0,h ).
h=1
1
log(Mh /np0,h ) = (Mh /np0,h − 1) − (Mh /np0,h − 1)2 + A(Mh /np0,h − 1)3
2
y entonces
k
1
−2 log λ = 2 Mh [(Mh /np0,h − 1) − (Mh /np0,h − 1)2 + A(Mh /np0,h − 1)3 ].
h=1 2
k
Mh Mh − np0,h k
(Mh − np0,h )2
2A Mh (Mh /np0,h − 1)3 ≤ 2A max
h=1
h np0,h np0,h h=1 np0,h
≤ 2A
k
1
2 Mh [(Mh /np0,h − 1) − (Mh /np0,h − 1)2 ] =
h=1 2
∼
k
Mh k
Mh2
=2 Mh −1 =2 − 2n
h=1 np0,h h=1 np0,h
k
(Mh − np0,h )2 k k
(Mh − np0,h )2
= + (Mh − np0,h ) = .
h=1 np0,h h=1 h=1 np0,h
k (Mh −np0,h )2
Concluimos como consecuencia que h=1 np0,h
tiene distribución asin-
tótica χ2k−1 para n grande.
Enrique M. Cabaña.
22
Capı́tulo 2: Pruebas de bondad de ajuste.
2.3.4 La selección de los intervalos de partición.
La arbitrariedad con que puede partirse el recorrido de la variable aleatoria es
una caracterı́stica que da a la prueba χ2 una gran versatilidad, y, al mismo
tiempo, constituye una debilidad de la misma. Lo primero llega al extremo
de que, sin ningún cambio, la prueba es aplicable al ajuste de distribuciones
multivariantes, por ejemplo. Lo segundo es causa de que los diferentes criterios
para el diseño de la prueba sean relativamente complicados.
Estos criterios se vuelven relativamente simples cuando la meta es con-
seguir una prueba cuyo estadı́stico tenga una distribución que se aproxime
rápidamente a la asintótica (este no es un argumento de calidad de carácter
estadı́stico, sino simplemente de comodidad para el usuario). En ese caso,
estudios empı́ricos muestran que conviene utilizar (k) clases con iguales pro-
babilidades (1/k), con valor esperado de observaciones por clase (n/k) no de-
masiado pequeño, al menos 1 o 2 (tanto mayor cuanto más pequeño sea el nivel
de la prueba).
Una recomendación tradicional, popularizada hace varias décadas, que es-
tudios posteriores han mostrado que es excesivamente conservativa, es que la
esperanza del número de observaciones en cada clase de la partición sea al
menos 5. Una recomendación de Mann y Wald para k celdas equiprobables, es
elegir k = 4 5 2n2 /(Φ−1 (1 − α))2 cuando la muestra tiene tamaño n (grande)
y el nivel de la prueba es α.
dependen sólo de n, k.
Se observará que Qn es una variable aleatoria discreta, que sólo puede
asumir un número finito de valores. Por ese motivo, la ecuación (2.1) debe
reemplazarse por
Esto implica que cα es uno de los valores que alcanza la variable aleatoria Qn .
Si estos valores se ordenan de manera creciente: q1 < q2 < . . . < qm , entonces
m
cα = qj(α) cuando m j=j(α) P{Qn = qj } > α, y j=j(α)+1 P{Qn = qj } ≤ α.
Licenciatura en Estadı́stica.
23
2.3. Prueba χ2 .
k 50
45
α = .10
40
α = .05
35
30 α = .01
25
20
15
10
0 50 100 150 200 250 300 350 400 450 500
Figura 2.1: Gráfico de k = 4 5 2n2 /(Φ−1 (1 − α))2 para α = .1, .05 y .01
Tabla 2.2: Valores crı́ticos para la prueba χ2 de Pearson de nivel 5%, corres-
pondientes a k clases equiprobables, y muestras de tamaño n.
n k
3 4 5 6 7 8 9 10 11
5 5.2000
10 6.2000 7.6000 9.0000 10.4000
15 5.2000 7.6667 8.6667 11.0000 12.5333 14.3333 15.6000 16.3333
20 6.1000 7.6000 9.0000 10.6000 12.2000 13.6000 15.1000 17.0000 17.4000
25 5.8400 7.4800 9.2000 10.7600 12.2400 14.3600 14.9600 17.0000 17.6800
30 5.6000 7.8667 9.3333 11.2000 12.4667 13.7333 15.6000 16.6667 18.4000
35 5.7143 7.6286 9.4286 10.7714 12.4000 14.1429 15.1429 16.7143 18.1143
40 6.0500 7.6000 9.2500 11.0000 12.5000 14.0000 15.3500 16.5000 18.3000
45 5.7333 7.5333 9.5556 10.8667 12.7111 13.8444 15.2000 16.5556 18.3111
50 5.9200 7.7600 9.4000 10.9600 12.4400 14.0000 15.5200 16.8000 18.2000
55 6.1455 7.6182 9.6364 10.7818 12.5818 14.0909 15.5273 17.1818 18.4000
60 6.1000 7.6000 9.3333 10.8000 12.8000 13.8667 15.6000 16.6667 18.1000
65 5.9385 7.6769 9.5385 10.7846 12.4308 14.1385 15.4462 16.6923 18.0923
70 5.9429 7.8286 9.4286 10.9143 12.4000 14.1143 15.3714 17.1429 18.3143
75 6.0800 7.5067 9.4667 11.0000 12.6400 14.0667 15.1200 16.8667 18.1333
80 6.0250 7.4000 9.5000 11.0500 12.4000 13.8000 15.4000 17.0000 18.4500
85 6.0941 7.8471 9.2941 10.9294 12.4235 13.9176 15.6941 17.0000 18.1412
90 6.0667 7.6889 9.6667 10.9333 12.3556 14.1778 15.6000 16.6667 18.5333
95 5.9579 7.6947 9.2632 10.9158 12.8000 14.0526 15.3684 16.8947 18.3579
100 6.0200 7.6000 9.6000 10.8800 12.5600 13.9200 15.2000 16.6000 17.9200
∞ 5.9915 7.8147 9.4877 11.0705 12.5916 14.0671 15.5073 16.9190 18.3070
n k
12 13 14 15 16 17 18 19 20
20 19.6000 20.3000
25 19.6400 21.2800 22.6000 23.6000 24.2800
30 19.6000 21.1333 22.2667 24.0000 25.4667 26.6667 27.6000 29.5333 30.0000
35 19.5143 20.3429 22.2000 22.8571 24.8857 26.6857 28.2571 28.5143 29.5714
40 19.4000 21.1000 22.3000 23.7500 24.8000 26.3000 27.5000 29.3500 30.0000
45 19.2667 21.1556 22.5111 24.0000 24.3333 25.6444 27.4000 28.8889 30.1111
50 19.6000 20.7200 22.2400 23.8000 25.5200 26.1600 27.7600 29.0400 30.0000
55 19.8364 21.3455 22.1273 23.8182 24.4182 26.2909 27.1455 28.9455 30.4545
60 19.6000 20.6000 22.1333 23.5000 24.8000 26.1333 27.6000 29.3000 30.0000
65 19.3692 20.8000 22.2308 23.8462 24.8462 25.7538 27.7692 28.8308 30.0769
70 19.4857 20.6286 22.0000 23.8571 25.0857 26.1714 27.7143 29.3429 30.0000
75 19.5600 21.2000 22.2533 23.6000 25.0533 26.3200 27.0000 28.6133 29.8000
80 19.6000 20.7500 22.2000 23.5000 25.2000 26.2500 28.0000 29.2500 30.0000
85 19.6118 20.9882 22.2235 23.5294 25.1176 26.4000 27.4471 28.7765 30.0588
90 19.6000 20.9333 22.3111 23.6667 25.2000 26.3556 27.2000 29.0667 30.0000
95 19.3158 20.9053 22.4526 23.5789 25.0842 26.1474 27.2105 29.2000 30.2632
100 19.7600 20.9000 22.6400 23.6000 24.8000 26.1400 27.4400 28.8200 30.0000
∞ 19.6751 21.0261 22.3620 23.6848 24.9958 26.2962 27.5871 28.8693 30.1435
Enrique M. Cabaña.
26
Capı́tulo 2: Pruebas de bondad de ajuste.
√
Tabla 2.3: Valores crı́ticos del estadı́stico de Kolmogorov nD obtenidos por
medio de una simulación basada en 200.000 replicaciones.
α α α
n 10% 5% n 10% 5% n 10% 5%
5 1.136 1.258 14 1.176 1.307 35 1.197 1.330
6 1.144 1.271 15 1.177 1.307 40 1.201 1.337
7 1.154 1.279 16 1.179 1.310 45 1.202 1.335
8 1.157 1.285 17 1.183 1.314 50 1.206 1.334
9 1.162 1.292 18 1.184 1.316 60 1.203 1.336
10 1.167 1.295 19 1.181 1.312 70 1.205 1.341
11 1.167 1.297 20 1.183 1.314 80 1.205 1.339
12 1.168 1.299 25 1.188 1.320 100 1.209 1.340
13 1.176 1.307 30 1.191 1.326 ∞ 1.224 1.358
u2
3/4
1/4 a a u1
g1
g2
g3
g4
1
1 n n
= i2 [F0 (X(i+1) ) − F0 (X(i) )] − i[F02 (X(i+1) ) − F02 (X(i) )] + n u2 du
n i=0 i=0 0
Enrique M. Cabaña.
30
Capı́tulo 2: Pruebas de bondad de ajuste.
1 n+1 1 n
n+1 n
n
= (i−1)2 F0 (X(i) )− i2 F0 (X(i) )− (i−1)F02 (X(i) )+ iF02 (X(i) )+
n i=1 n i=0 i=2 i=1 3
n2 1 n n
n
= + (1 − 2i)F0 (X(i) ) − n + F02 (X(i) ) +
n n i=1 i=1 3
n
2
2i − 1
n
i2 i 1 n
= F0 (X(i) ) − − 2
− 2+ 2 +
i=1 2n i=1 n n 4n 3
n
2
2i − 1 n(n + 1)(2n + 1) n(n + 1) n n
= F0 (X(i) ) − − 2
+ 2
− 2+
i=1 2n 6n 2n 4n 3
n
2
2i − 1 1
= F0 (X(i) ) − + .
i=1 2n 12n
X1 −µ Xn −µ
El proceso empı́rico de las variables tipificadas Z1 = σ
, . . ., Zn = σ
es n
1
b(Z)
n (x) = √ 1{Zi ≤x} − F0 (x) .
n i=1
Con la notación
s X̄ − µ
yn = y + −1 y+ ,
σ σ
Licenciatura en Estadı́stica.
33
2.6. Pruebas de Cramér - von Mises.
escribimos
√
b̂n (y) = bn(Z) (yn ) + n (F0 (yn ) − F0 (y)) .
x−µ
Como consecuencia, de b(X) (Z)
n (x) = bn σ
, obtenemos
X̄ − µ 1
=√ zdbn(Z) (z),
σ n
2
s2 1 2 (Z) 1
= 1 + √ z db n (z) − zdbn(Z) ,
σ2 n n
y entonces
1 y 2 (Z) √
yn = y + √ zdbn(Z) (z) + √ z dbn (z) + o(1/ n).
n 2 n
Puesto que bn(Z) tiene la distribución asintótica del puente browniano b(F0 )
asociado a F0 , bajo “F = F0 ”, la distribución lı́mite del proceso empı́rico
estimado b̂n (y) es también gaussiana. El lı́mite de las covariancias muestra
que esta distribución asintótica es la de
(F0 ) (F0 ) y 2 (F0 )
b (y) + zdb (z) + z db (z) f0 (y). (2.4)
2
Se observará que el procedimiento de estimación de los parámetros pro-
porciona estimadores que no son invariantes respecto de la transformación
canónica X → F0 (X). Por ese motivo, la distribución de los estadı́sticos que
describen el tamaño de b̂n no es independiente de la distribución F0 , o más pre-
cisamente, no es independiente de la familia de distribuciones de probabildad
que interviene en la hipótesis nula de ajuste. Por ese motivo, los procedimien-
tos basados en lo que precede requieren la determinación de los valores crı́ticos
para cada F0 en particular.
Una prueba análoga puede realizarse para cualquier otra familia de dis-
tribuciones que sea la mı́nima familia cerrada bajo cambios de posición o de
dispersión que contiene a una distribución F0 dada. Por lo que acabamos de
indicar, el procedimiento es el mismo, pero los valores crı́ticos tienen que ser
calculados nuevamente, para cada familia.
Enrique M. Cabaña.
34
Capı́tulo 2: Pruebas de bondad de ajuste.
2.6.1 Un ejemplo: La prueba de normalidad de Lil-
liefors.
La utilización del estadı́stico de Kolmogorov D̂n = sup |F̂n −Φ|, donde F̂n (y) =
1 n
n i=1 1{Yi ≤y} dentro del contexto precedente, conduce a la llamada Prueba de
Lilliefors de región crı́tica D̂n > ĉn (α).
Intuitivamente, es de esperar que, si la muestra tiene distribución normal,
la muestra tipificada estimada esté más cerca de la distribución normal tı́pica
que la muestra tipificada con los verdaderos parámetros, ya que µ̂ y σ̂ 2 son
los parámetros de la distribución normal que mejor se ajusta a la muestra, en
particular, mejor que la verdadera distribución que dio lugar a la muestra.
Este argumento no es concluyente, ya que los estimadores son los que ma-
ximizan la verosimilitud, en el caso de la distribución normal, y no los que
minimizan la distancia de Kolmogorov. Pero la intuición es correcta: Lilliefors
obtuvo empı́ricamente la distribución de D̂n , y sus tablas lo confirman.
Existe una propuesta análoga de Lilliefors, para la cual también ha cal-
culado tablas de los valores crı́ticos, para probar la hipótesis nula de que la
distribución es exponencial.
El estadı́stico de la prueba de normalidad de Lilliefors suele escribirse en
la forma
Ln = sup |Fn (x) − F̂ (x)|,
donde F̂ es la distribución normal cuyas media y variancia son las estimadas,
es decir, con Z normal tı́pica, F̂ (x) = P{µ̂ + σ̂Z ≤ x} = Φ((x − µ̂)/σ̂), pero el
cambio de variables Yi = (Xi − µ̂)/σ̂ conduce a escribir Fn (x) = n1 ni=1 1{Xi ≤x}
= n1 ni=1 1{Yi ≤(x−µ̂)/σ̂} = F̂n ((x − µ̂)/σ̂) y entonces Ln = sup |F̂n ((x − µ̂)/σ̂) −
Φ((x − µ̂)/σ̂)| = D̂n .
En resumen es equivalente utilizar la muestra tipificada estimada, y com-
pararla con la distribución normal tı́pica, o comparar directamente la dis-
tribución empı́rica con la distribución normal estimada.