Está en la página 1de 18

Cap tulo 2 Pruebas de bondad de a juste.

2.1 Pruebas de a juste simples.

Dadas las observaciones (X1 , . . . , Xn ) independientes, con distribuci n F , deo seamos probar la hipotesis nula H0 : F = F0 . En principio, la hipotesis alternativa sera H: F = F0 , pero es posible que dentro de esta alternativa multiple haya algunas distribuciones para las que nos interese especialmente que la prueba tenga una buena potencia. A la hip tesis H0 se la llama hiptesis de ajuste de la distribucin F0 al o o o modelo del cual proviene la muestra. Las pruebas de H0 se llaman pruebas de ajuste. A lo largo del Siglo XIX, los modelos aleatorios se volvieron cada vez mas frecuentes y cada vez mas necesarios para describir la naturaleza. Un modelo se consideraba adecuado en tanto no presentara incoherencias evidentes con los resultados de la experiencia. Recin en 1999 surgio la primera prueba de ajuste, a partir de la cual los e cient cos pudieron poner a prueba sus modelos e incluso seleccionar entre varios modelos propuestos para un mismo fenomenos, cules con adecuados y a cules no lo son. Esa primera prueba es la llamada prueba 2 de Pearson. a

2.2

Generalidades sobre las pruebas de a juste.

Para decidir si se rechaza H0 :F = F0 a partir de la informacion dada por la muestra aleatoria simple X1 , . . . , Xn de F , resulta natural estimar F por medio de la muestra, y comparar la estimacion con F0 . El estimador de mxima verosimilitud de F es la distribuci n de probabilia o 17

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste. dades F para la que, si Y1 , . . . , Yn es una muestra de F, entonces la probabilidad de que resulte {Y1 , . . . , Yn } = {X1 , . . . , Xn } es mxima. Esta probabilidad es a positiva solo si F tiene probabilidades p1 , . . . , pn concentradas en X1 , . . . , Xn , y vale n! n pi , cuando las Xi (i = 1 . . . , n) son todas diferentes. i=1 . El mximo de este producto, con la condicion n pi 1, se produce a i=1 cuando todas las probabilidades son iguales: p1 = . . . = pn = 1/n. Como consecuencia, F es la distribucin emp o rica Fn . Cuando Fn es cercana a F0 , no hay razones para rechazar H0 . En cambio, cuando Fn dista mucho de F0 , vamos a rechazar H0 . No debe extranarnos entonces que las pruebas mas utilizadas tengan como regi n cr o tica {(X1 , . . . , Xn ) : d(Fn , F0 ) > constante}, donde d es una distancia entre probabilidades, o una seudo - distancia, como suele llamarse a una funci n con las propiedades de una distancia, excepto la que establece que o d(F, G) = 0 implica F = G. Las pruebas que incluimos en las secciones siguientes resultan de elegir adecuadamente d. La primera de ellas ha sido analizada en ??. Las otras dos han sido presentadas en ??, en el marco de aplicaciones del proceso emprico, y ahora las estudiaremos con mayor detenimiento. 18

2.3

Prueba 2 de a juste.

Para probar la hipotesis H0 F = F0 a partir de una muestra aleatoria simple X1 , . . . , Xn de F , Karl Pearson propuso el siguiente procedimiento, que es en realidad una prueba de H0 Para cada uno de los intervalos I de una particion nita P de R, se cumple F (I ) = F0 (I ), y, como consecuencia, una prueba aproximada de H0 en la medida que la particion P sea sucientemente na. Llamemos p0 al vector de las probabilidades F0 (I ) correspondientes a los intervalos de P , y p al de las probabilidades F (I ). Entonces, H0 equivale a p = p0 . Esta ultima es una hipotesis simple sobre el parmetro p de la distribuci n a o multinomial(n, p) del vector M cuyas componentes son las frecuencias M (I ) = . nFn (I ) = n 1{Xi I } , I P . i=1 Denotemos ahora P = {I1 , . . . , Ik }, y p0,j = F0 (Ij ), Mj = M (Ij ). El estad stico de Pearson es
k (nFn (Ij ) np0,j )2 . (Mj EMj )2 = . np0,j EMj j=1 j=1 Su distribuci n bajo H0 depende de n y p0 , y puede obtenerse en cada caso o mediante el clculo directo a partir de la distribucion multinomial, o por sia mulaci n. Su distribucin asintotica para n es 2 con k 1 grados o o

Qn =

k .

Licenciatura en Estad stica. 2 2.3. Prueba .

19

de libertad. En la secci n siguiente se aportan argumentos basados en la o utilizacin de la distribucion normal asintotica de la multinomial, o bien en o el comportamiento asintotico del cociente de verosimilitudes, para obtener la mencionada distribucion asintotica.

2.3.1

La distribucion aproximada del estad stico de Pearson para n grande.

La esperanza de 1{Xi I } es P{X1 I }, de modo que EM = np. Las covariancias Cov(1{Xi I } , 1{Xi J } ) valen E1{Xi I } 1{Xi J } E1{Xi I } E1{Xi J } = P{Xi I, Xi J } P{Xi I }P{Xi J } de manera que VarM = n, con = diagp pptr .

El Teorema del Lmite Central permite deducir que la distribucion asinto tica de 1 (M np) es Normal(0, ). La matriz es singular, porque cuando u = (1, 1,n. . . , 1)tr , u = diagpu pptr u = 0. El recorrido de la transformacion lineal x x es ortogonal a u, porque utr x = xtr u = 0. Observemos que un vector Z Normal(0, ) est contenido con probabilia dad 1 en el complemento ortogonal u de u, ya que la variable aleatoria (u, Z ) = utr Z tiene esperanza Eutr Z = 0 y variancia Varutr Z = utr u = 0. Llamemos a la matriz de la proyeccion ortogonal sobre el complemento de tr u, es decir, = I uu /n. Denotamos por T a la matriz de la transformacion lineal que, como la asociada a , tiene por nucleo al subespacio generado por u, y recorrido u , y cuya restricci n a u es la inversa de la restricci n de o o al mismo subespacio, es decir, T = . Un clculo directo permite vericar a que T = (diagp)1 , ya que (diagp)1 = (diagp)1 (diagp pptr ) = (I uptr ) = . El clculo anterior permite conrmar que el recorrido de no solo es ora togonal a u sino que es u . Como es simtrica, T tambin lo es, y tiene una e e 1/2 1/2 ra cuadrada simtrica T . El vector T Z tiene variancia T 1/2 (T 1/2 )tr z e = , y T 1/2 Z 2 = Z tr T Z 2 1 . k Por lo tanto la forma cuadratica
k . (Mi npi )2 1 1 Q = (M np)tr (diagp)1 (M np) = n n np i i=1

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste. 2 tiene distribuci n asintotica con k 1 grados de libertad, cuando P consta o de k intervalos. Por este motivo, la prueba con region cr tica 20 Q > 2 1,1 k tiene nivel asinttico para n grande. o

2.3.2

Una deduccion alternativa de la distribucion asin ttica de Q ba jo H0 . o

El argumento constructivo de la seccion anterior puede reemplazarse por el siguiente, mucho mas directo, pero basado en un articio que resulta explicable una vez que se conoce el resultado. 1 Hemos visto que n (M np) es asint ticamente Normal(0, ), de modo que o deseamos establecer que, si Y Normal(0, ), entonces Q = Y tr (diagp)1 Y = (diagp)1/2 Y 2 tiene distribuci n 2 con k 1 grados de libertad. o Consideremos ahora un vector Z = (Z1 , . . . , Zktr normal t ) Rk pico en tr . tr Su proyecci n sobre el vector de norma uno v = ( p1 , . . . , pk ) es vv Z , o y, como consecuencia, su proyeccion sobre el complemento ortogonal de v es tr Z vv Z . Por tratarse de la proyeccion de un vector normal tpico sobre un tr 2 2 subespacio de dimensi n k 1, se cumple Z vv Z k 1 . o La variancia de la proyeccion es Var(I vv tr )Z = (I vv tr )VarZ (I vv tr ) tr 2 tr = (I vv ) = I vv . Por otra parte, la variancia de (diagp)1/2 Y es (diagp)1/2 (diagp)1/2 I (diagp)1/2 pptr (diagp)1/2 = I vv tr . En resumen, (diagp)1/2 Y y la proyecci n (I vv tr )Z de Z tienen la misma distribucion, o 2 1/2 y esto nos permite concluir que Q = (diagp) Y tiene la misma distribuci n que la norma al cuadrado de la proyeccion, es decir, 2k 1. o

2.3.3

Anlisis a partir del cociente de verosimilitudes. a

Consideremos la prueba del cociente de verosimilitudes de la hipotesis nula H0 p = p0 contra la alternativa H1 p = p0 , a partir de las observaciones M de la distribuci n multinomial (n, p). o Mh k La verosimilitud de la muestra es k n! stico de h=1 ph , y el estad mxima verosimillitud de p es M/n, de modo que el cociente de verosimilitudes a vale =
k h=1 h p0,h M h=1

Mh !

El parmetro p est en el espacio de parametros formado por los vectores a a de Rk cuya suma de componentes vale 1. La dimension de este espacio es k 1.

k (Mh /n)Mh h=1

Licenciatura en Estad stica. 21 2 2.3. Prueba . Como consecuencia, la distribucion asintotica de 2 log es 2 con k 1 grados de libertad. Vamos a calcular

2 log = 2

k . h=1

Mh log(Mh /np0,h ).

El desarrollo de Taylor log(1 + x) = x 1 x2 + Ax3 , A acotado, nos conduce a


2 3 1 log(Mh /np0,h ) = (Mh /np0,h 1) (Mh /np0,h 1)2 + A(Mh /np0,h 1) 2

y entonces

2 log = 2

k .

1 Mh [(Mh /np0,h 1) (Mh /np0,h 1)2 + A(Mh /np0,h 1)3 ]. 2 h=1

El sumando que contiene la constante A se acota por 2A


k . h=1

Mh (Mh /np0,h

k Mh Mh np0,h . (Mh np0,h )2 1) 2A max h np0,h np0,h np0,h h=1 3

2A
de modo que 2 log es asint ticamente equivalente a o 2
k .

1 Mh [(Mh /np0,h 1) (Mh /np0,h 1)2 ] = 2 h=1

k . h=1

=2
k .

Mh

k 2 . Mh Mh 1 = 2 2n np0,h np0,h h=1

k k . (Mh np0,h ) 2 (Mh np0,h ) 2 . + (Mh np0,h ) = . np0,h np0,h h=1 h=1 h=1

Concluimos como consecuencia que t tica 2 1 para n grande. o k

.k
h=1

(Mh np0,h )2 np0,h

tiene distribuci n asino

22

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste.

2.3.4

La seleccion de los intervalos de particion.

La arbitrariedad con que puede partirse el recorrido de la variable aleatoria es una caracterstica que da a la prueba 2 una gran versatilidad, y, al mismo tiempo, constituye una debilidad de la misma. Lo primero llega al extremo de que, sin ningun cambio, la prueba es aplicable al ajuste de distribuciones multivariantes, por ejemplo. Lo segundo es causa de que los diferentes criterios para el diseno de la prueba sean relativamente complicados. Estos criterios se vuelven relativamente simples cuando la meta es conseguir una prueba cuyo estad stico tenga una distribucion que se aproxime rpidamente a la asintotica (este no es un argumento de calidad de caracter a estad stico, sino simplemente de comodidad para el usuario). En ese caso, estudios emp ricos muestran que conviene utilizar (k) clases con iguales probabilidades (1/k), con valor esperado de observaciones por clase (n/k) no demasiado pequeno, al menos 1 o 2 (tanto mayor cuanto mas pequeno sea el nivel de la prueba). Una recomendacion tradicional, popularizada hace varias dcadas, que es e tudios posteriores han mostrado que es excesivamente conservativa, es que la esperanza del numero de observaciones en cada clase de la particion sea al menos 5. Una recomendacion de Mann y Wald para k celdas equiprobables, es . elegir k = 4 5 2n2 /(1 (1 ))2 cuando la muestra tiene tamano n (grande) y el nivel de la prueba es .

2.3.5

Los valores cr ticos.

Es recomendable la utilizacion de particiones con iguales probabilidades, es 1 tr decir, p0 = k (1, 1, . . . , 1) . En ese caso, los valores cr ticos c tales que P{Qn > c } = (2.1)

dependen slo de n, k. o Se observara que Qn es una variable aleatoria discreta, que solo puede asumir un numero nito de valores. Por ese motivo, la ecuacion (2.1) debe reemplazarse por P{Qn > c } , P{Qn c } > . Esto implica que c es uno de los valores que alcanza la variable aleatoria Qn . Si estos valores se ordenan de manera creciente: q1 < q2 < . . . < qm , entonces . .m c = qj() cuando m j=j() P{Qn = qj } > , y j=j()+1 P{Qn = qj } .

Licenciatura en Estad stica. 2 2.3. Prueba .

23

Tabla 2.1: Valores de k dados por la formula de Mann y Wald, y esperanza del numero de observaciones por celda en cada caso.
n 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 150 200 250 300 350 400 450 500 k 14 15 16 17 18 19 20 21 21 22 23 23 24 25 25 26 26 31 35 38 41 43 46 48 50 = .10 n/k 1.4286 1.6667 1.8750 2.0588 2.2222 2.3684 2.5000 2.6190 2.8571 2.9545 3.0435 3.2609 3.3333 3.4000 3.6000 3.6538 3.8462 4.8387 5.7143 6.5789 7.3171 8.1395 8.6957 9.3750 10.0000 k 12 14 15 16 16 17 18 19 19 20 21 21 22 22 23 23 24 28 31 34 37 39 41 43 45 = .05 n/k 1.6667 1.7857 2.0000 2.1875 2.5000 2.6471 2.7778 2.8947 3.1579 3.2500 3.3333 3.5714 3.6364 3.8636 3.9130 4.1304 4.1667 5.3571 6.4516 7.3529 8.1081 8.9744 9.7561 10.4651 11.1111 k 11 12 13 14 14 15 16 16 17 17 18 18 19 19 20 20 21 24 27 30 32 34 36 38 39 = .01 n/k 1.8182 2.0833 2.3077 2.5000 2.8571 3.0000 3.1250 3.4375 3.5294 3.8235 3.8889 4.1667 4.2105 4.4737 4.5000 4.7500 4.7619 6.2500 7.4074 8.3333 9.3750 10.2941 11.1111 11.8421 12.8205

24 k

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste.


50

45

= .10 = .05

40

35

30

= .01

25

20

15

10 0

50

100

150

200

250

300

350

400

450

500

n Figura 2.1: Graco de k = 4 5 2n2 /(1 (1 ))2 para = .1, .05 y .01 La Tabla 2.2 indica valores de c estimados mediante una simulacion basada en 10.000 replicaciones, correspondientes a = 5% para varios valores de n, k, e incluye el valor asintotico en la l nea n = . Los resultados muestran que la aproximacion resultante de reemplazar c por el valor l mite cuando n es buena. Muestran tambin que se requiere una simulaci n ms e o a precisa, basada en un numero considerablemente mayor de replicaciones, para describir adecuadamente la evolucion de c en funci n de n, ya que resulta o ms razonable atribuir las uctuaciones observadas a medida que n crece a a los errores de la simulacion que al comportamiento de los verdaderos valores cr ticos.
.

2.4

Prueba de a juste de Kolmogorov.

En el mismo numero de la revista Giornale dellIstituto Italiano degli Attuari, que dirig F. P. Cantelli, de enero de 1933, aparecieron un art a culo de V. 1 Glivenko en el que muestra la validez del hoy llamado Lema de Glivenko Cantelli y el artculo en que A. N. Kolmogorov propone la prueba que lleva su 2 nombre
1 Sulla 2 Sulla

determinazione empirica delle leggi di probabilita, pp. 92-99. ` determinazione empirica di una legge di distribuzione, pp. 83 - 91.

Licenciatura en Estad stica. 2.4. Prueba de Kolmogorov.

25

Tabla 2.2: Valores crticos para la prueba 2 de Pearson de nivel 5%, corres pondientes a k clases equiprobables, y muestras de tamano n.
n 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100 3 5.2000 6.2000 5.2000 6.1000 5.8400 5.6000 5.7143 6.0500 5.7333 5.9200 6.1455 6.1000 5.9385 5.9429 6.0800 6.0250 6.0941 6.0667 5.9579 6.0200 5.9915 12 19.6000 19.6400 19.6000 19.5143 19.4000 19.2667 19.6000 19.8364 19.6000 19.3692 19.4857 19.5600 19.6000 19.6118 19.6000 19.3158 19.7600 19.6751 4 7.6000 7.6667 7.6000 7.4800 7.8667 7.6286 7.6000 7.5333 7.7600 7.6182 7.6000 7.6769 7.8286 7.5067 7.4000 7.8471 7.6889 7.6947 7.6000 7.8147 13 20.3000 21.2800 21.1333 20.3429 21.1000 21.1556 20.7200 21.3455 20.6000 20.8000 20.6286 21.2000 20.7500 20.9882 20.9333 20.9053 20.9000 21.0261 5 9.0000 8.6667 9.0000 9.2000 9.3333 9.4286 9.2500 9.5556 9.4000 9.6364 9.3333 9.5385 9.4286 9.4667 9.5000 9.2941 9.6667 9.2632 9.6000 9.4877 14 22.6000 22.2667 22.2000 22.3000 22.5111 22.2400 22.1273 22.1333 22.2308 22.0000 22.2533 22.2000 22.2235 22.3111 22.4526 22.6400 22.3620 6 10.4000 11.0000 10.6000 10.7600 11.2000 10.7714 11.0000 10.8667 10.9600 10.7818 10.8000 10.7846 10.9143 11.0000 11.0500 10.9294 10.9333 10.9158 10.8800 11.0705 15 23.6000 24.0000 22.8571 23.7500 24.0000 23.8000 23.8182 23.5000 23.8462 23.8571 23.6000 23.5000 23.5294 23.6667 23.5789 23.6000 23.6848 k 7 8 9 10 11

n 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100

12.5333 12.2000 12.2400 12.4667 12.4000 12.5000 12.7111 12.4400 12.5818 12.8000 12.4308 12.4000 12.6400 12.4000 12.4235 12.3556 12.8000 12.5600 12.5916 k 16 24.2800 25.4667 24.8857 24.8000 24.3333 25.5200 24.4182 24.8000 24.8462 25.0857 25.0533 25.2000 25.1176 25.2000 25.0842 24.8000 24.9958

14.3333 13.6000 14.3600 13.7333 14.1429 14.0000 13.8444 14.0000 14.0909 13.8667 14.1385 14.1143 14.0667 13.8000 13.9176 14.1778 14.0526 13.9200 14.0671 17

15.6000 15.1000 14.9600 15.6000 15.1429 15.3500 15.2000 15.5200 15.5273 15.6000 15.4462 15.3714 15.1200 15.4000 15.6941 15.6000 15.3684 15.2000 15.5073 18

16.3333 17.0000 17.0000 16.6667 16.7143 16.5000 16.5556 16.8000 17.1818 16.6667 16.6923 17.1429 16.8667 17.0000 17.0000 16.6667 16.8947 16.6000 16.9190 19

17.4000 17.6800 18.4000 18.1143 18.3000 18.3111 18.2000 18.4000 18.1000 18.0923 18.3143 18.1333 18.4500 18.1412 18.5333 18.3579 17.9200 18.3070 20

26.6667 26.6857 26.3000 25.6444 26.1600 26.2909 26.1333 25.7538 26.1714 26.3200 26.2500 26.4000 26.3556 26.1474 26.1400 26.2962

27.6000 28.2571 27.5000 27.4000 27.7600 27.1455 27.6000 27.7692 27.7143 27.0000 28.0000 27.4471 27.2000 27.2105 27.4400 27.5871

29.5333 28.5143 29.3500 28.8889 29.0400 28.9455 29.3000 28.8308 29.3429 28.6133 29.2500 28.7765 29.0667 29.2000 28.8200 28.8693

30.0000 29.5714 30.0000 30.1111 30.0000 30.4545 30.0000 30.0769 30.0000 29.8000 30.0000 30.0588 30.0000 30.2632 30.0000 30.1435

26

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste.

Tabla 2.3: Valores crticos del estadstico de Kolmogorov nD obtenidos por medio de una simulaci n basada en 200.000 replicaciones. o n 5 6 7 8 9 10 11 12 13 10% 1.136 1.144 1.154 1.157 1.162 1.167 1.167 1.168 1.176 5% 1.258 1.271 1.279 1.285 1.292 1.295 1.297 1.299 1.307 n 14 15 16 17 18 19 20 25 30 10% 1.176 1.177 1.179 1.183 1.184 1.181 1.183 1.188 1.191 5% 1.307 1.307 1.310 1.314 1.316 1.312 1.314 1.320 1.326 n 35 40 45 50 60 70 80 100 10% 1.197 1.201 1.202 1.206 1.203 1.205 1.205 1.209 1.224 5% 1.330 1.337 1.335 1.334 1.336 1.341 1.339 1.340 1.358

El estadstico de Kolmogorov es D = sup |Fn (x) F (x)|, la prueba tiene regi n cr o tica nD > cn (), con cn () elegido para que el nivel sea , y en el art culo mencionado, Kolmogorov muestra (i) que la distribucion de D cuando se cumple H0 F = F0 es la misma para cualquier distribucion F0 continua, y (ii) que limn cn () = c(), soluci n de = 2 o
.
j=1

(1) j 1 e2j 2 c2 () .

La Tabla 2.3 describe de manera emp rica la variacion de cn () con n. Un clculo exacto de la probabilidad gn (a) = P{Dn > a} podr hacerse a a integrando la densidad n! de la distribuci n de probabilidades de la muestra o ordenada U(1) , U(2) , . . . , U(n) de la distribuci n uniforme en [0, 1], en la region o denida por las desigualdades |Fn (u) u| < a, 0 < u < 1. Se trata de un numero innito de desigualdades, una para cada u en [0, 1], pero para que todas se cumplan basta que los puntos de coordenadas (U(i) , (i 1)/n), (U(i) , i/n), i = 1, 2, . . . , n estn en la banda {(u, y) : 0 < u < 1, u a < y < u + a}. e Para que esto ocurra es necesario y suciente que los puntos medios de los segmentos verticales del graco de la funci n de distribuci n emp o o rica - todos ellos de longitud 1/n - disten menos de a 1/2n de la diagonal, de manera que 1 gn (a) es el producto de n! por la medida (longitud, area, volumen ...) de la regi n de Rn formada por los puntos u = (u1 , . . . , un ) que verican las o ecuaciones |(i 1/2)/n ui | < a 1/2n, i = 1, 2 . . . , n.

Licenciatura en Estad stica. 2.4. Prueba de Kolmogorov.

27

Ejemplo 2.4.1 El c lculo directo mediante la integracion de la densidad cona junta es inabordable para valores grandes de n como lo muestra el siguiente an lisis para algunos valores pequenos: a n = 1 Las desigualdades se reducen a |1/2 u| < a 1/2, que dene para a > 1/2 un intervalo de longitud min(2a 1, 1). De all resulta g1 (a) = 1 min(2a 1, 1) = 2(1 a)+ (la notacion x+ = max(x, 0) indica la parte positiva de x). n = 2 Las desigualdades |1/4 u1 | < a 1/4, |3/4 u2 | < a 1/4 denen un cuadrado cuya interseccion con [0, 1]2 tiene lado 2(a 1/4) cuando 1/4 < a 1/2. Luego, para 1/2 < a 1, el lado es 1/4 + (a 1/4) = a, y para a > 1 la intersecci n es todo el cuadrado unitario, y el lado es o constante igual a 1. u2

/ / /

3/4
/ / / / / / / / / / / / / /

/ / /

Figura 2.2: Regiones de integracion para el calculo de la distribucion de D2 . Estos cuadrados estan contenidos en el primer caso en la region de in tegracion o recorrido de la variable 0 u1 u2 1, y en el segundo

28

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste. caso tienen fuera de esa region un triangulo de area 2(a 1/2)2 . Como consecuencia, g2 (a) =
2 1 2(2a 1/2) 2 = 1/2 + 4a 8a 1 2(a2 2(a 1/2)2 ) 0

si 1/4 < a 1/2 si 1/2 < a 1 si 1 < a.

La Figura 2.3 muestra los gracos de las funciones g1 y g2 obtenidas en el Ejemplo precedente, y tambin de g3 y g4 calculadas mediante integracion e numrica. e

g1

g2 g4 g3

Figura 2.3: Representacion graca de gn (a) = P{Dn > a} para n = 1, 2, 3, 4.

2.5
Qn = n

Pruebas de a juste de Cramr - von Mises. e


Los estad sticos de Cramr - von Mises son de la forma e

(Fn (x) F0 (x)) (F0 (x))dF0 (x) =


2

2 bn (F0 (x))(F0 (x))dF0 (x),

(2.2)

Licenciatura en Estad stica. 2.5. Pruebas de Cramer - von Mises.

29

donde Fn es la funci n de distribuci n emp o o rica de una la muestra aleatoria simple X1 , . . . , Xn de cierta distribuci n F que suponemos continua. o El cambio de variables u = F0 (x) permite escribirlos de manera equivalente 1 como Qn = n 0 (Fn (F 0 1 (u)) u)2 (u)du. Dado que las variables Ui = F0 (Xi ) constituyen una muestra aleatoria simple de la distribucion uniforme, y que la funci n en escalera Fn (F 0 1 (u)) es la funci n de distribuci n emp o o o rica de esa muestra, esta ultima escritura muestra que la distribucion de Q no depende de F0 cuando F = F0 . Muestra tambin que la distribuci n l e o mite para n del estadstico Qn 1 2 es la de 0 b (u)(u)du, donde b es un puente browniano tpico. Llamemos X(1) , . . . , X(n) a los estad sticoa de orden que se obtienen ordenando la muestra de menor a mayor. El estad stico Qn puede calcularse teniendo en cuenta que en cada intervalo de la forma (X(i) , X(i+1) ), la funci n o Fn (x) es constante, igual a i/n. Esta observacion vale para i = 0, 1, . . . , n con la convenci n X(0) = , X(n+1) = . A partir de esta observacion podemos o escribir Qn = n
n . X(i+1) i=0 X(i) n . i ( F0 (x))2 (F0 (x))dF0 (x) = n n i=0

F0 (X (i+1) )
F0 (X(i) )

i ( u)2 (u)du. n

El clculo expl a cito de estas integrales, cuya eventual dicultad depende de la selecci n de la funci n , permite reducir la expresi n que dene al estad o o o stico Qn a una suma nita que depende de la muestra a travs de las variables e aleatorias uniformes F0 (Xi ). Encontramos de nuevo de esta manera que la distribuci n de Qn no depende de cul sea la distribucion F0 . Solo depende de o a n y de cul sea la funci n . a o

2.5.1

El estad stico de Cramr - von Mises propiamente e dicho.

La prueba propuesta por Cramr y von Mises se basa en el estad e stico (2.2) correspondiente a (u) = u. El estadstico se calcula en la forma Qn = n
n . F0 (X(i+1) ) i=0 F0 (X(i) ) n . F0 (X(i+1) ) i2 2iu i 2 + u2 )du ( u) du = n ( 2 n n n i=0 F0 (X(i) )

1 n n . 1. 2 2 i [F0 (X(i+1) ) F0 (X(i) )] i[F 0 (X(i+1) ) F 2 (X(i) )] + n u2 du 0 n i=0 0 i=0

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste. n+1 n n+1 n . . 1. 1. 2 n 2 = (i 1)2 F0 (X(i) ) i F0 (X(i) ) (i 1)F 2 (X(i) )+ iF 0 (X(i) )+ 0 3 n i=1 n i=0 i=2 i=1 30 = = =
n .. i=1 n n . 2 n n2 1. + (1 2i)F0 (X(i) ) n + F 0 (X(i) ) + 3 n n i=1 i=1

n .. i=1

2i 1 F0 (X(i) ) 2n 2i 1 2n =
.2

.2

n . i=1

i i2 1 2+ 2 2 4n n n

n 3

F0 (X(i) )

n(n + 1)(2n + 1) n(n + 1) n n + 2+ 2 2 2n 6n 4n 3 2i 1 2n


.2

n .. i=1

F0 (X(i) )

1 . 12n

2.5.2

Sobre la distribucion asintotica del estad stico de Cramr - von Mises. e

1 Ya hemos observado que Qn converge en ley a Q = 0 b2 (u)du. Para describir la distribuci n de Q, tomemos una sucesi n de funciones f1 , . . . , fn , . . . que o o constituyan un sistema ortonormal completo en el espacio L = {f : [0, 1] R : Ef 2 (U ) < , U Unif[0, 1]}, con el producto interno (f, g) 0 f (u)g(u)du. = 1 . 1 En ese caso, del desarrollo de Fourier b(u) = fi (u) 0 fi (v)b(v)dv rei=1 1 2 . 1 sulta b2 = 0 b (u)du = i=1 ( 0 fi (v)b(v)dv)2 . 1 Las variables 0 fi (v)b(v)dv tienen distribuci n normal conjunta, con espeo ranzas cero y covariancias

E
0

fi (v)b(v)dv

fj (v)b(v)dv =

fi (u)[

(Eb(u)b(v))fj (v)dv]du.

Esta expresi n se simplicar notablemente si se cumpliera o a


1
0

(Eb(u)b(v))fj (v)dv = j fj (u)


.

(2.3)

para algun valor de j , porque en ese caso tendr amos


1 1 1

Cov(
0

fi (u)b(u)du,

fi (v)b(v)dv) =

fi (u)j fj (u)du

0, i ,

si i = j, si i = j.

Vamos a vericar que las funciones fj pueden elegirse de manera que se cumpla (2.3), es decir:
1
0

(u v uv)fj (v)dv = j fj (u).

Licenciatura en Estad stica. 2.5. Pruebas de Cramer - von Mises. Veamos en primer lugar qu funciones f cumplen e f (u) =
1
0

31
1

(u v uv)f (v)dv = (1 u)
u
0

vf (v)dv + u
0 u

f (v)(1 v)dv.

Al derivar esta ecuacion una vez, encontramos f t (u) = vf (v)dv + u(1 u)f (u) + =
1 1 1
u

f (v)(1 v)dv u(1 u)f (u), f (v)dv.

vf (v)dv +
0 u

Una nueva derivacion muestra que f debe cumplir f tt (u) = (u). Las f soluciones de esta ecuacin son de la forma a cos(u/ ) + b sin(u/ ). o La ecuaci n de partida muestra que f (0) = f (1) = 0, y esto implica que, o de las funciones trigonomtricas indicadas, slo podemos conservar las de la o e 2 2 forma fi (u) = bi sin(u/ i ), con i = i . Para que las funciones fi tengan 1/ norma 1, se requiere elegir bi = 2. Es conocido que el sistema de las funciones trigonomtricas 1, sin(nt), cos(nt) e (n = 1, 2, . . .) es un sistema completo en el intervalo [, ], y, de manera equivalente, que 1, sin(nu), cos(nu) (n = 1, 2, . . .) son un sistema com1 pleto en [1, 1]. Esto signica que cuando 1 f 2 (x)dx < , f coincide en L2 ([1, 1]) con su desarrollo en serie de Fourier. 1 Por este motivo, si 0 f 2 (u)du < , entonces la funci n impar f igual a o 2 f en [0, 1] coincide en L ([1, 1]) con su desarrollo en serie de Fourier, que es un desarrollo de senos, porque los coecientes de los cosenos son todos nulos, debido a que f es impar. Esto implica que f coincide en L2 ([0, 1]) en [0, 1] con su desarrollo en serie de Fourier de senos. Un clculo directo muestra que las funciones fi (u) = 2 sin(nu) cumplen a 1 las condiciones que muestran que 0 b2 (u)du tiene la distribuci n de la suma o . 1 picas. Se trata de una distribucion Z 2 , con Z1 , Z2 , . . . i.i.d. normales t i2 2 i i=1 con puntos de contacto con las distribuciones 2 . En vez de una suma nita de cuadrados de variables normales t picas independientes, como es el caso de 2 las distribuciones , se trata de una suma innita de tales cuadrados, pero multiplicados por coecientes diferentes, que tienden a cero de modo que la . 1 = 1/6) es nita. variancia (que en este caso vale 2 2 i=1 i

2.5.3

La prueba de Anderson y Darling.

El estad stico de Anderson - Darling integra los cuadrados b2 de los apartamienn tos del proceso emprico respecto de su esperanza (nula bajo H0 ) medidos

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste. en relaci n a Varb2 (x) = F0 (x)(1 F0 (x)). En otras palabras, se utiliza o n ( F0 (x)) = F0 (x)(11 F0 (x)). Como en el caso de la Prueba de Cramr - von Mises, puede obtenerse una e f rmula para calcular el estadstico o 32 A2 n
1

=
0

2 bn (F0 (x)) dF0 (x) F0 (x)(1 F0 (x))

mediante una suma nita, y puede describirse la ley asintotica, que es la de 1 b2 (u) 0 u(1u) du como la de una serie del mismo tipo que la encontrada en el caso de Cranr - von Mises. e

2.6

Pruebas de a juste a la familia F = {L( + X ) : L(X ) = F0 , R, R+ }.


.

Para probar H0 :F F , pueden estimarse y 2 mediante = 1n n Xi , i=1 1 .n 2 2 i = n i=1 (Xi ) . Luego se tipica la muestra en la forma Yi = X y 2 se aplica a Y1 , . . . , Yn una prueba de ajuste a la distribucion F0 , adaptada a la circunstancia de que la muestra tipicada no es i.i.d., ya que las variables no son independientes, puesto que en todas intervienen y 2 . 1 El promedio de la muestra = X = xdFn (x) = + n xdb(X ) se expresa n convenientemente a partir de la funcion de distribuci n emp o rica o del proceso emprico. . Lo mismo ocurre con el estimador de la variancia, 2 = 1 n (Xi X )2 i=1 n .2 . 1 1 (X (X = (x X )2 dFn (x) = 2 + n (x )2 dbn ) n xdbn ) . Introducimoe el proceso emprico estimado
n n . . 1 .. 1 .. n (y) = b 1{Yi y } F0 (y) = 1{Xi X +sy } F0 (y) ni=1 n i=1 n 1 . . = 1 X F0 (y) s n i=1 {Zi y+( 1)y+ }

El proceso emp rico de las variables tipicadas Z1 = es


n . 1 .. (Z bn )(x) = 1{Zi x} F0 (x) . n i=1

X1 ,

. . ., Zn =

Xn

Con la notacion

. X s yn = y + 1 y+ ,

Licenciatura en Estad stica. 2.6. Pruebas de Cramer - von Mises. escribimos n (y) = b(Z ) (yn ) + n (F0 (yn ) F0 (y)) . b
n

33

Como consecuencia, de

b(X ) (x) n

= b(Z ) n

, obtenemos

X 1 zdb(Z ) (z), = n n 1 s2 1 2 (Z ) =1+ z dbn (z) 2 n n y entonces


.
(Z zdbn )

.2

1 y 2 (Z ) (Z z dbn (z) + o(1/ n). yn = y + zdbn ) (z) + n 2 n


Como consecuencia, si F0 tiene densidad f0 , podemos escribir n (y) = b(Z ) (yn ) + b n
.

zdb(Z ) (z) + n

y 2 (Z ) . z dbn (z) f0 (y) + o(1/ n). 2

(Z Puesto que bn ) tiene la distribuci n asintotica del puente browniano b(F0 ) o asociado a F0 , bajo F = F0 , la distribucion lmite del proceso emprico n (y) es tambin gaussiana. El lmite de las covariancias muestra estimado b e que esta distribuci n asintotica es la de o

(F0 )

(y) +

zdb

(F0 )

y 2 (F0 ) . (z) + z db (z) f0 (y). 2

(2.4)

Se observara que el procedimiento de estimacion de los parametros pro porciona estimadores que no son invariantes respecto de la transformacion cannica X F0 (X ). Por ese motivo, la distribucion de los estadsticos que o describen el tamano de n no es independiente de la distribuci n F0 , o mas pre b o cisamente, no es independiente de la familia de distribuciones de probabildad que interviene en la hiptesis nula de ajuste. Por ese motivo, los procedimieno tos basados en lo que precede requieren la determinacion de los valores cr ticos para cada F0 en particular. Una prueba analoga puede realizarse para cualquier otra familia de dis tribuciones que sea la m nima familia cerrada bajo cambios de posicion o de dispersi n que contiene a una distribucion F0 dada. Por lo que acabamos de o indicar, el procedimiento es el mismo, pero los valores crticos tienen que ser calculados nuevamente, para cada familia.

34

Enrique M. Cabana. Cap tulo 2: Pruebas de bondad de ajuste.

2.6.1

Un ejemplo: La prueba de normalidad de Lilliefors.

La utilizacion del estad stico de Kolmogorov Dn = sup |Fn |, donde Fn (y) = 1 .n i=1 1{Yi y } dentro del contexto precedente, conduce a la llamada Prueba de n Lilliefors de regi n cr o tica Dn > cn (). Intuitivamente, es de esperar que, si la muestra tiene distribucion normal, la muestra tipicada estimada est ms cerca de la distribuci n normal tpica e a o 2 que la muestra tipicada con los verdaderos parametros, ya que y son los parametros de la distribucion normal que mejor se ajusta a la muestra, en particular, mejor que la verdadera distribucion que dio lugar a la muestra. Este argumento no es concluyente, ya que los estimadores son los que maximizan la verosimilitud, en el caso de la distribucion normal, y no los que minimizan la distancia de Kolmogorov. Pero la intuicion es correcta: Lilliefors n , y sus tablas lo conrman. obtuvo emp ricamente la distribucion de D Existe una propuesta analoga de Lilliefors, para la cual tambin ha cal e culado tablas de los valores cr ticos, para probar la hipotesis nula de que la distribuci n es exponencial. o El estadstico de la prueba de normalidad de Lilliefors suele escribirse en la forma Ln = sup |Fn (x) F (x)|, donde F es la distribuci n normal cuyas media y variancia son las estimadas, o es decir, con Z normal t pica, F(x) = P{ + Z x} = ((x )/ ), pero el 1 .n cambio de variables Yi = (Xi )/ conduce a escribir Fn (x) = n i=1 1 {Xi x} 1 .n n ((x )/ ) y entonces Ln = sup |Fn ((x )/ ) = n i=1 1{Yi (x)/} = F n . ((x )/ )| = D En resumen es equivalente utilizar la muestra tipicada estimada, y compararla con la distribucion normal tpica, o comparar directamente la dis tribucin emprica con la distribucion normal estimada. o

También podría gustarte