Está en la página 1de 9

1. Nociones sobre tests de hipótesis.

Hipótesis de contraste. Es una armación contrastable acerca de: (i) un valor de un parámetro que caracteriza la dis-
tribución de una variable; (ii) un conjunto de parámetros; (iii) una distribución estadística. La hipótesis nula (denominada
H0 ) se corresponde con la no existencia de un efecto (nada cambia, no hay mejora). Es la negación de la hipótesis del
investigador e incluye siempre la igualdad. Si se encuentra evidencia en contra se rechaza H0 . Por otro lado, la hipótesis
alternativa (denominada H1 ) coincide con la hipótesis del investigación, o sea, lo que se desea probar. Las hipótesis pueden
ser: (1) simples si cuando el parámetro toma un único valor: H : θ = θo ; o (2) compuestas si el parámetro puede tomar
varios valores posibles: H : θ ∈ (θ1 , θ2 , . . .); por ejemplo: H1 : θ 6= θo ; H0 : θ ≤ θo ; θ ≥ θo ; H1 : θ < θo ;H1 : θ > θo .
También podemos clasicar las hipótesis según los siguientes grupos.
1. Hipótesis paramétricas: reeren al valor de algún parámetro de una distribución. Por ejemplo: (1) bajo una normal
N (µ, σ 2 ), H0 : µ ≤ 4, H1 : µ > 4 o bien H0 : σ ≥ 2, H1 : σ < 2; (2) bajo una Binomial Bi (n, π), H0 : π ≤ 0,1,
H1 : π > 0,1.
2. Hipótesis no paramétricas: estas hipótesis se pueden referir a: (1) una forma distribucional: H0 : la distribución de
la v.a. X es simétrica vs. H1 : no es simétrica; (2) una relación entre variables aleatorias: H0 : X e Y son v.a.
independientes vs. H1 : no son independientes; (3) la pertenencia a una familia de distribuciones: H0 : la v.a X tiene
distribución normal vs. H1 : no tiene distribución normal.

Contraste de hipótesis. Es una función estadística para tomar decisiones. Si el estadístico de contraste tiene un
determinado valor se toma una determinada decisión, si no es así, se toma otra. Se verica si una propiedad que cumple
la población (por ej., su esperanza, varianza, simetría, etc.) es compatible con la información observada en la muestra. El
estadístico de contraste es una función de la muestra que: (i) da información relevante empírica sobre la armación hecha
en H0 ; (ii) tiene una distribución muestral conocida.
El proceso de decisión tiene las siguientes etapas. Primero, se comienza suponiendo que H0 es verdad y se imagina
que el experimento se repite muchas veces en idénticas condiciones; obteniendo muchos valores para el estadístico que
estima el valor del parámetro del cual se hace una armación en H0 . De este modo se obtiene una distribución muestral
(que debe ser conocida) bajo la hipótesis nula. En segunda instancia, usando la distribución muestral de dicho estadístico,
se calcula la probabilidad de obtener un valor del estadístico como el obtenido a partir de la muestra o incluso mayor,
suponiendo que H0 es cierta. En tercer lugar, si se obtiene una probabilidad muy pequeña se concluye que la diferencia
entre lo observado en el estadístico (calculado a partir de la muestra) y lo que se espera observar si H0 fuera verdad es
muy grande. Entonces se rechaza H0 .

Regla de decisión. Criterio usado para rechazar o no H0 . Se basa en la distribución muestral del estadístico de contraste.
Hay dos regiones excluyentes:
1. Región de no rechazo o de aceptación: tiene valores del estadístico de contraste próximos a la armación de H0 . Su
probabilidad (área bajo la distribución del estadístico bajo H0 ) es 1 − α (nivel de conanza).
2. Región de rechazo o crítica: tiene valores del estadístico de contraste muy alejados de la armación de H0 . Dichos
valores tienen probabilidad baja de ocurrencia si H0 es verdadera. Su probabilidad (área bajo la distribución del
estadístico bajo H0 ) es α (nivel de riesgo o signicación).
En los contrastes bilaterales H1 da lugar a una región crítica a ambos lados de los valores posibles del estadístico (test a
dos colas). En la H1 se desea saber si hubo algún cambio. Por ejemplo: H0 : θ = θo vs H1 : θ 6= θo . Por otro lado, en los
contrastes unilaterales H1 da lugar a una región crítica a un solo lado de los valores posibles del estadístico (test a una sola
cola). En la H1 se desea saber si el cambio se produce en una cierta dirección, o sea, si una valor aumenta o disminuye.
Por ejemplo: H0 : θ ≤ θo vs H1 : θ > θo (unilateral a derecha); H0 : θ ≥ θo vs H1 : θ < θo (unilateral a izquierda).
Los contrastes bilaterales sirven para detectar efectos en la dirección contraria a la esperada; o sea que contradigan la
expectativa en H1 . Generalmente se usan si hay información previa sobre dirección del efecto.

1
Figura 1: Regiones de rechazo (crítica) y no rechazo (de aceptación) bajo H0

Figura 2: tipos de contraste

El investigador decide el tamaño de la región de rechazo; o sea decide el valor del estadístico de contraste a partir
del cual va a rechazar la hipótesis nula. Dicho nivel crítico de corte identicará cuáles serán los valores del estadístico de
contraste con baja probabilidad de ocurrir bajo la hipótesis nula. El valor del estadístico de contraste a partir del cual
se rechaza la hipótesis nula recibe el nombre de valor crítico. A la probabilidad de los valores de la región crítica se le
conoce como nivel de signicación y se denota mediante α. Al valor 1 − α se le conoce como nivel de conanza. La zona
de rechazo está determinada por el nivel de signicación de la prueba, ya que cuando se plantea una prueba de hipótesis
se selecciona el nivel de signicación α, o sea cuánto estamos dispuestos a equivocarnos. La regla de decisión basada en el
valor crítico es la siguiente:
Prueba a dos colas Se rechaza H0 si el valor absoluto del estadístico es mayor que el valor crítico: | Zobs |> z α2
Prueba de una cola a la derecha Se rechaza H0 si el valor del estadístico es mayor que el valor crítico: Zobs > zα
Prueba de una cola a izquierda Se rechaza H0 si el valor del estadístico es menor que el valor crítico: Zobs < zα

p-valor. Es la probabilidad de obtener un valor del estadístico como el obtenido a partir de la muestra o incluso más
extremo, suponiendo que H0 es cierta. Para pruebas con cola a la derecha, el p-valor es el área bajo la curva de la
distribución bajo H0 hacia la derecha del valor observado; para una cola a la izquierda es el área a la izquierda. O sea que:
Prueba a dos colas área bajo la curva más allá del estadístico observado en valor absoluto: P (Z ≥| zobs |)
Prueba de una cola a la derecha área ba jo la curva a derecha del valor observado: P (Z ≥ zobs )
Prueba de una cola a izquierda área bajo la curva a izquierda del valor observado: P (Z ≤ zobs )

La regla de decisión basada en el valor crítico es la siguiente: Si si el p-valor obtenido es más pequeño que el nivel de
signicación α, rechazaremos la hipótesis nula. Un p-valor pequeño indica que el estadístico de contraste es inconsistente
con la armación sobre el parámetro de H0 ; es decir, que la muestra obtenida es atípica, improbable cuando H0 es
verdadera.

2
Supongamos que si se aplica el método didáctico A para enseñar español L2. Con dicho método el promedio de los
errores escritos de los alumnos para un determinado fenómeno gramatical es igual a 18. Se propone un método de enseñanza
B y se decide que valdría la pena implementarlo si redujera el promedio de error a menos de la mitad. Se elige una muestra
aleatoria de 25 alumnos y se les enseña dicho fenómeno con el método B , luego los alumnos escriben redacciones y se
observa un promedio de error igual a 6,9. ¾Conviene enseñar con el método B a todos los alumnos? Pues bien, supongamos
que la variable aleatoria X = cantidad de errores sigue una distribución normal N (µ, 1). Es decir que tenemos una
m.a. X1 , X2 , . . . , X25 con Xi ∼ N (µ, 1). Bajo estas condiciones sabemos que la distribución de la media muestral (de los
errores) es:
 
1 X̄ − µ
X̄ ∼ N µ, ⇐⇒ Z = q ∼ N (0, 1)
25 1
25

Nuestro contraste de hipótesis es: H0 : µ = 9 vs H1 : µ < 9. Es decir que en H0 armamos que la media poblacional de
la cantidad de errores escritos es igual a nueve. Si esto fuera verdad no nos convendría cambiar de método. La hipótesis
alternativa arma que la media de errores poblacional es menor a nueve. Si esto fuera cierto entonces convendría cambiar
de método. X̄ es el estadístico de contraste que, bajo H0 tiene una distribución muestral Z = √ X̄−9
1
∼ N (0, 1), o sea
25
suponiendo que µ = 9. En la muestra hemos obtenido x̄ = 6,9. ¾Este es un valor sucientemente atípico para rechazar
H0 ? Supongamos que queremos correr un riesgo de equivocarnos igual al 5 %; o sea que α = 0,5. Es decir que hay una
chance de 5 % de rechazar la hipótesis nula cuando es en realidad es cierta. Denimos el valor crítico como zα = −1,64.
Si el valor observado del estadístico es menor a zα rechazamos la hipótesis nula. Alternativamente, si la probabilidad de
obtener el valor observado o incluso un valor más extremo es menor que 0,5 (p < 0,5) también rechazamos H0 . Calculamos
pues la probabilidad de que la media muestral tenga un valor igual o menor a 6,9 bajo una distribución muestral normal
con media µ = 9 y varianza 25 1
(µ = 9 porque es la distribución bajo la hipótesis nula). Este es el p-valor.
 
X̄ − 9 6,9 − 9
= P (Z ≤ −10,5) = Φ (−10,5) = 4,31 × 10−28 < 0,0001

P X̄ ≤ 6,9 = P 1 ≤ 1
5 5

La conclusión es que rechazamos la hipótesis nula porque p < 0,0001 (y por lo tanto p < α = 0,5) y porque zobs =
−10,5 < zα = −1,64. Por ende, nos conviene cambiar al método B .
Si el valor observado de la media muestral hubiera sido x̄ = 8,8:
 
 X̄ − 9 8,8 − 9
P X̄ ≤ 8,8 = P 1 ≤ 1 = P (Z ≤ −1) = Φ (−1) = 0,159
5 5
En este caso la conclusión es que NO rechazamos la hipótesis nula porque p > α = 0,5 y porque zobs = −1 > zα = −1,64.
Por ende, NO nos conviene cambiar al método B .

Figura 3: Ejemplo. Arriba: x̄ = 6,9 (z = −10,5); Abajo: x̄ = 8,8 (z = −1)

Errores de tipo I y II. En el procedimiento de decisión basado en la muestra apuntado pueden ocurrir las siguientes
situaciones:

3
H0 es V H0 es F
No rechazar H0 X error tipo II
rechazar H0 error tipo I X

Cuadro 1: Tipos de eventos en el procedimiento de decisión.

Tenemos dos tipos de eventos que llevan a error en el procedimiento de decisión: (a) Error tipo I: rechazar H0 cuando
en realidad la hipótesis nula es verdadera; (b) error de tipo II: no rechazar H0 cuando en realidad la hipótesis nula es
falsa. Si se comete error de tipo I en el ejemplo anterior se concluirá que el método B es efectivo aunque en realidad no lo
sea. Esto puede conducir a aplicar el método B pero no mejorar la enseñanza porque dicho método es tan efectivo como
el A pero no mejor. Si se comete un error de tipo II en el ejemplo anterior, se concluirá que el método B no es efectivo
aunque en realidad sí lo es. Esto puede conducir a no mejorar la enseñanza por falta de aplicación del método B , que en
realidad es efectivo.
Ahora veamos cuál es la probabilidad de los eventos. La probabilidad de rechazar H0 cuando en realidad la hipótesis
nula es verdadera es α. La probabilidad de no rechazar H0 cuando en realidad la hipótesis nula es falsa es β . El complemento
de β es π = 1 − β y es la probabilidad de rechazar H0 cuando en realidad la hipótesis nula es falsa; o sea la capacidad del
test para rechazar cuando tiene que hacerlo. Esta última probabilidad se denomina potencia del test. Entonces:
α = P (error tipo I) = P (rechazar H0 | H0 es V )

β = P (error tipo II) = P (no rechazar H0 | H0 es F )

π = 1 − β = P (rechazar H0 | H0 es F )
La probabilidad de error de tipo I, o sea α, es la máxima probabilidad de cometer un error de tipo I que el investigador
está dispuesto a tolerar. A menor α, mayor es la evidencia necesaria para rechazar H0 ; o sea menor es el p-valor que
se necesita. α debe seleccionarse antes de analizar los datos. La probabilidad de tipo I la elige el investigador. Por otra
parte β y π dependen de: (1) la magnitud del efecto, esto es la diferencia entre µH0 − µH1 ; (2) el tamaño muestral n. Al
aumentar n, aumenta la potencia del test (y por ende β , la probabilidad de error tipo II, disminuye).
β es la probabilidad de no rechazar H0 cuando H0 es falsa; o sea cuando H1 es verdadera. Utilicemos la notación
Pµ para indicar la probabilidad cuando el verdadero valor del parámetro es µ. Supongamos que el verdadero promedio
poblacional de error en el ejemplo anterior es µ = 8,5, es decir que H0 : µ = 9 es FALSA y H1 : µ = 8,5 es VERDADERA.
El error de tipo II implica estar dentro de la región de aceptación de la distribución bajo H0 aunque esta sea falsa. O sea
sería el área a la derecha de −1,64:
     
X̄ − 9 1 
P8,5 (Z > −1,64) = P8,5 1 > −1,64 = P8,5 X̄ > −1,64 + 9 = P8,5 X̄ > 8,67
5
5
Pero la verdadera media es µ = 8,5 entonces debemos medir cuán lejos nos encontramos de esta bajo H1 ; por ende,
estandarizando:
 
 X̄ − 8,5 8,67 − 8,5
P8,5 X̄ > 8,67 = P8,5 1 > 1 = P8,5 (Z > 0,85) = 1 − Φ (0,85) = 0,197
5 5

Es decir que hay una probabilidad de tipo II de un 20 % de que la media muestral de errores sea mayor a 8,67 y por
lo tanto, nos lleve a concluir erróneamente que µ = 9 cuando en realidad µ = 8,5. La potencia del test es π = 1 − β =
1 − 0,197 = 0,803. Es decir que hay un 80 % de probabilidad de concluir de forma correcta que µ > 9 (o sea de rechazar
sin error la hipótesis nula). La Figura que sigue muestra a la distribución bajo la hipótesis nula (centrada en µ = 9) en
azul y a la distribución bajo la hipótesis alternativa (centrada en µ = 8,5) en rojo. El área de relleno oscuro corresponde
a la probabilidad de error tipo
 I: α = P9 X̄ < 8,67 . El área de relleno azul suave corresponde a la probabilidad de error
tipo II: β = P8,5 X̄ > 8,67 . Por ultimo, el área rellanada de colorado suave es la potencia, o sea π = 1 − β .

4
Figura 4: Probabilidades α, β y π .

Miremos otro ejemplo. Sea X1 , X2 , . . . , Xn una m. a. de tamaño n = 10 con Xi ∼ N µ, 302 . Se observa que en la


muestra X̄ = 200. Queremos testear el contraste: H0 : µ = 175 vs H1 : µ > 175, con un nivel de signicación de α= 0,05.
Dado que sigma es conocido y Xi es normal, sabemos que la distribución muestral de X̄ bajo H0 es: X̄ ∼ N µ, σn ,
2

donde σ2
n = 302
10 = 900
10 = 90; con lo cual:

X̄ − µ
X̄ ∼ N (µ, 90) ⇐⇒ Z = √ ∼ N (0, 1)
90
La H1 nos dice que se trata de un contraste unilateral a derecha. El valor crítico es zα = 1,64. Calculamos el p-valor:
 
 X̄ − 175 200 − 175
P X̄ ≥ 200 = P √ ≥ √ = P (Z ≥ 2,63) = 1 − Φ (2,63) = 0,0043 < 0,01
90 90
Decisión: (1) zobs ≥ zα ⇔ 2,63 ≥ 1,64 y (2) P (Z ≥ zobs ) < α ⇔ P (Z ≥ 2,63) = 0,0043 < 0,05. Entonces se rechaza
H0 .
Calculemos ahora la probabilidad del error tipo II si el verdadero valor fuera µ = 200

X̄ − 175
  √   
P200 (Z < 1,64) = P200 √ < 1,64 = P200 X̄ < 1,64 90 + 175 = P200 X̄ < 190,6
90
 
 X̄ − 200 190,6 − 200
P200 X̄ < 190,6 = P200 √ < √ = P200 (Z < −0,99) = Φ (−0,99) = 0,161
90 90
Por lo tanto, cuando µ = 200 hay una probabilidad de 16,1 % de que, en una muestra de tamaño 10, la media
muestral sea menor o igual a 190,6. Por ende, que esto lleve a concluir erróneamente que µ = 175. La potencia del test es
π = 1 − β = 1 − 0,161 = 0,839. Es decir que hay un 84 % de probabilidad de concluir de forma correcta que µ > 175. La
Figura que sigue muestra a la distribución bajo la hipótesis nula (centrada en µ = 175) en azul y a la distribución bajo la
hipótesis alternativa (centrada en µ = 200) en rojo. El área de relleno oscuro corresponde a la probabilidad de error tipo
I: α = P9 X̄ > 190,6 . El área de relleno azul suave corresponde a la probabilidad de error tipo II: β = P8,5 X̄ < 190,6 .


Por ultimo, el área rellanada de colorado suave es la potencia, o sea π = 1 − β .

5
Figura 5: Probabilidades α, β y π .

Como se dijo, β depende del tamaño del efecto, o sea de la diferencia δ = µH0 − µH1 . En otras palabras el tamaño del
efecto indica cuán cercano se encuentra el verdadero valor del parámetro del valor propuesto en H0 . Cuanto más cerca se
encuentren más aumenta β y más disminuye π . Es decir que la potencia disminuye a medida que el tamaño del efecto que
se quiere encontrar es cada vez más pequeño. A la inversa, cuanto más aumente el tamaño del efecto buscado, más bajará
β y por ende, más se incrementará la potencia π .
Por otro lado, α y β tienen relación inversa: cuanto más fuerte sea la evidencia requerida para rechazar H0 (α más
pequeño), más probable es que se fracase en detectar una diferencia real (β aumenta y π disminuye).
Como α es jado por el investigador, para un α jo determinado se puede disminuir β con un n muestral mayor. Esto
es así porque a mayor n disminuye el error estándar y por ende se vuelve más fácil discriminar las curvas de H0 y H1 ya
que se superponen menos. Para ver esto rehagamos el último ejercicio con n = 64. Ahora: σx̄ = √3064 = 308 = 3,75 y sea el
valor verdadero µ = 190. Calculemos entonces la probabilidad de tipo II:
 
X̄ − 175  
P190 (Z < 1,64) = P190 < 1,64 = P190 X̄ < 1,64 (3,75) + 175 = P190 X̄ < 181,16
3,75
 
 X̄ − 190 181,16 − 190
P190 X̄ < 181,16 = P190 < = P200 (Z < −2,35) = Φ (−2,35) = 0,0094
3,75 3,75
Por ende β = 0,0094 y la potencia es π = 1 − β = 1 − 0,0094 = 99,06.

Figura 6: Probabilidades α, β y π .

En suma, α lo ja el investigador. En cuanto a β , es preciso calcular el n muestral necesario para obtener una potencia
de al menos un 80 % y β lo más pequeño posible, para un tamaño de efecto mínimo considerado como pertinente por el
investigador.
El cuadro que sigue muestra diferentes situaciones respecto del error de tipo I / II y el tamaño muestral.

6
N pequeño N muy grande
Rechazo H0 Efecto tan grande que se detecta Puedo detectar como signicativas diferencias
(error tipo I posible) aunque n sea pequeño (,) muy pequeñas, sin importancia técnica (/)
No Rechazo H0 NO CONCLUYENTE. Potencia es baja. (†) Gran potencia pero aún así no se detecta el efecto
(error tipo II posible) Es posible que el efecto exista pero no se detecte. Con lo cual si el efecto existe, es despreciable. (,)

Cuadro 2: Errores de tipo I/II y tamaño muestral.

Hagamos un último ejemplo usando un contraste bilateral: H0 : µ = 175 vs H1 : µ 6= 175; con x̄obs = 200 y σn = 90
2

pero ahora el nivel crítico es z α2 = 1,96. El valor observado del estadístico es: zobs = 200−175

90
= 2,63. Como la normal
estándar es simétrica, buscamos la siguiente probabilidad:

P (Z > 2,63, Z < −2,63) = P (Z > 2,63)+P (Z < −2,63) = P (Z >| 2,63 |) = 2P (Z > 2,63) = 2 (1 − Φ (2,63)) = 2 (0,0043) = 0,0085

El cuadro que sigue muestra la manera de calcular los p-valores para cada caso en una distribución simétrica y la
relación entre ellos.
H1 Signo de Zobs p-valor relación
H1 : µ 6= µo +,− 2P (Z ≥| Zobs |) pdistinto
H1 : µ < µ o + P (Z ≤ Zobs ) 1 − pdistinto
2
pdistinto
− 2
pdistinto
H1 : µ > µ o + P (Z ≥ Zobs ) = 1 − P (Z ≤ Zobs ) 2
− 1 − pdistinto
2

Cuadro 3: Cálculo de p-valores bajo simetría y relación entre ellos.

Ejempliquemos con el valor Z =| 2,63 | según el cuadro que sigue:

H1 Zobs Signo de Zobs p-valor relación


H1 : µ 6= µo 2,63 ó −2,63 +,− 2P (Z ≥| Zobs |) = 2P (Z ≥ 2,63) = 2 (1 − Φ (2,63)) = 0,008538487 pdistinto = 0,008538487
pdistinto
H1 : µ < µ o 2,63 + P (Z ≤ Zobs ) = P (Z ≤ 2,63) = Φ (2,63) = 0,9957308 1− 2
⇔ 1 − 0,008538487
2
pdistinto
−2,63 − P (Z ≤ Zobs ) = P (Z ≤ −2,63) = Φ (−2,63) = 0,004269243 2
= 0,008538487
2
pdistinto
H1 : µ > µ o 2,63 + P (Z ≥ Zobs ) = 1 − P (Z ≤ Zobs ) = 1 − Φ (2,63) = 0,004269243 2
= 0,008538487
2
pdistinto
−2,63 − P (Z ≥ Zobs ) = 1 − P (Z ≤ Zobs ) = 1 − Φ (−2,63) = 0,9957308 1− 2
⇔ 1 − 0,008538487
2

Para terminar esta sección se listan algunos comentarios adicionales sobre el test de hipótesis.
Las hipótesis y el α deben denirse antes de mirar los datos. La evidencia de la muestra no debe usarse para decidir
cómo plantear la hipótesis alternativa o jar el α. O sea que si se obtuviera un p-valor p = 0,06 (no signicativo si
α = 0,05) no vale aumentar el α o incrementar el n muestral para ver si da signicativo. Se supone que se hizo el
experimento con un n suciente con una potencia adecuada para detectar efectos.
Algunas veces en los artículos se habla de tendencia signicativa para un p-valor no signicativo menor a 0.1 con
α = 0,05. El nivel de signicación es un corte que dice que si p < α se rechaza H0 y el efecto es signicativo y si
p ≥ α no se rechaza H0 y el efecto NO es signicativo.

Si se rechaza con un contraste bilateral, entonces se rechaza con contraste unilateral pero no al revés.
Rechazar la H0 no implica causalidad.
Signicación estadística solamente signica que si la H0 fuera cierta, la muestra obtenida es atípica. Pero esto puede
no tener importancia práctica porque el efecto detectado puede ser demasiado pequeño para que sea relevante en la
investigación.
El procedimiento de testear hipótesis procede según un argumento de contradicción. El p-valor pequeño da evidencia
contra H0 porque el valor del estadístico de contraste observado es improbable si H0 fuera verdadera.
Si el p-valor no es pequeño, o sea si no se rechaza H0 decimos No hay evidencia para rechazar H0 . Pero no
podemos decir aceptamos H0  porque la falta de evidencia no implica que la proposición que se enuncia en H0 se
necesariamente verdadera: la falta de evidencia no implica la equivalencia en H0 .

7
H0 habla de una proposición lógica sobre el valor de un parámetro, que puede ser verdadera o falsa. NO es la
probabilidad de que H0 sea verdadera.
El supuesto irrenunciable en los tests de hipótesis es que la muestra es aleatoria, es decir que las variables aleatorias
son independientes e idénticamente distribuidas.

2. Diagnósticos de normalidad.

Podemos evaluar el supuesto de normalidad mediante grácos o tests. Un gráco muy usado es el QQ-plot o gráco
cuantil-cuantil. Dicho gráco permite evaluar la cercanía a una distribución dada, por ejemplo la normal. En el QQ-plot
se gracan en el eje de abscisas (eje x ) los percentiles de la distribución teórica (en nuestro caso normal) y en el eje
de ordenadas (eje y) las observaciones ordenadas, que pueden ser vistas como percentiles empíricos. El siguiente gráco
compara el qq-plot con los histogramas y box-plots para distribuciones con diferente forma.

Figura 7: QQ-plots, histogramas y box-plots para diferentes tipos de distribuciones.

En el contexto de tests de hipótesis para la media, usamos tests de normalidad cuando n es chico ya que via el
T.C.L. con n grande la media muestral tiene una distribución aproximadamente normal, aunque la v.a. tenga cualquier
distribución (tener en cuenta que la velocidad de aproximación diere según la distribución de la v.a.). El contraste en
este tipo de tests es: H0 : la variable tiene distribución normal vs. H1 : la variable NO tiene distribución normal. Es decir
que la hipótesis que nos interesa demostrar es la nula pero esto es imposible porque No rechazar H0 no implica que esta
sea verdadera, esto es, no podemos decir la distribución de la variable es normal. En cambio interpretamos rechazo y
no rechazo de la siguiente manera.
1. Si rechazo H0 (p-valor pequeño): se prueba que la muestra NO fue obtenida de una distribución normal.
2. Si no rechazo H0 (p-valor grande): decimos que no hay diferencias groseras con la hipótesis de que la muestra
provenga de una distribución normal.
Por otra parte, al usar los tests con una muestra con n pequeño, el test tiene baja potencia. Por ende, para estar seguros
la hipótesis nula NO SE RECHAZA con un p-valor grande: p ≥ 0,2. A continuación se describen brevemente tres tests de
normalidad.

8
Shapiro-Wilks. La hipótesis nula de este test es que la variable sigue una distribución normal con cualquier media y
varianza. Su estadístico de contraste es W ∈ [0, 1], que indica la correlación en valor absoluto entre los percentiles de una
normal acumulada observados en la muestra con los percentiles de la normal acumulada teórica. A menor valor de W ,
mayor evidencia para rechazar H0 .

Kolmogorov-Smirnov. La hipótesis nula de este test es que la variable sigue a una distribución normal con una media
y una varianza predeterminadas. Esto es impráctico porque µ y σ 2 comúnmente se desconocen. Su estadístico de contraste
es D ∈ [0, ∞), que es la distancia entre la distribución empírica de los datos y la distribución normal con los parámetros
propuestos. Cuanto mayor sea D, más evidencia para rechazar H0 .

Lilliefors. La hipótesis nula de este test es que la variable sigue una distribución normal con cualquier media y varianza.
Este test estima µ mediante x̄ (media muestral) y la varianza σ 2 mediante s2 (varianza muestral). Luego se estandariza la
variable usado dichos estimadores: xis−x̄ . Por último usa el test de Kolmogorov-Smirnov para comparar con una distribución
normal estándar N (0, 1).

También podría gustarte