Está en la página 1de 42

Estos Resúmenes y Tablas han sido extraídos del libro

40 ± 10 horas de BIOESTADÍSTICA (2013)


publicado en esta misma Editorial y por los mismos autores
A. Martín Andrés y J. de D. Luna del Castillo

RESÚMENES y TABLAS de

BIOESTADÍSTICA
3ª edición (2013)

¡ATENCIÓN!
No puede escribirse nada en este cuadernillo,
salvo correcciones de erratas autorizadas por los profesores
© Antonio Martín Andrés
Juan de Dios Luna del Castillo

© EDICIONES CAPITEL, S.L.


Europolis, C/ Bruselas 16B- 28232 LAS ROZAS ( Madrid)
e-mail (editor): rpa@norma-capitel.com.
e-mail (autores): amartina@ugr.es y jdluna@ugr.es.

Reservados los derechos de edición, adaptación o reproducción para todos los países.
No está permitida la reproducción total o parcial de este libro, ni su tratamiento in-
formático, ni la transmisión de ninguna forma o por cualquier medio, ya sea electrónico,
mecánico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escri-
to de los titulares del Copyright.

ISBN: 978-84-8451-054-3.
Depósito Legal: M-24.370-2013

2
INTRODUCCIÓN 1

RESUMEN DEL CAPÍTULO I


INTRODUCCIÓN
1.1 NECESIDAD
Las Ciencias de la Salud se basan en el método inductivo (extensión al todo
de las conclusiones obtenidas en una parte), siendo el Método Estadístico el úni-
co modo de validarlo. Las razones que siguen son reflejo de la anterior:
a) La variabilidad biológica de los individuos objeto de estudio origina que
sus datos sean impredecibles: el Método Estadístico lo controla.
b) La naturaleza cuantitativa de las Ciencias de la Salud requiere del Método
Estadístico para analizar y poner orden en los datos que proporciona.
c) La investigación en las Ciencias de la Salud requiere de la Estadística en sus
etapas de diseño, recopilación de datos y análisis de los resultados, permi-
tiendo leer crítica y comprensivamente los resultados científicos ajenos.
d) La naturaleza del trabajo clínico es en esencia de tipo probabilístico o es-
tadístico, disciplinas que dan rigor y objetividad a los clásicos procesos sub-
jetivos de diagnóstico, pronóstico y tratamiento.
e) La perspectiva comunitaria de las Ciencias de la Salud requiere del uso de
la Estadística para poder extrapolar las conclusiones desde la parte estudiada
de la población a su globalidad.

1.2 DEFINICIÓN DE ESTADÍSTICA


Es el conjunto de métodos necesarios para recoger, clasificar, representar y
resumir datos, así como para hacer inferencias (extraer consecuencias) científi-
cas a partir de ellos (Bioestadística alude a la aplicación teórica y/o práctica de
la Estadística a las Ciencias de la Salud). De ahí que conste de dos partes:
a) Estadística Descriptiva, cuyo fin es la recogida, clasificación, representa-
ción y resumen de los datos.
b) Inferencia Estadística, cuyo fin es extender a toda la población las conclu-
siones obtenidas en una parte de ella (la muestra).

1.3 CONSIDERACIONES FINALES


a) El método estadístico es un método riguroso para el análisis de datos. Su va-
lidez está condicionada por la verificación de ciertas hipótesis que no pueden
ser violadas (y que, por tanto, deben ser comprobadas).
b) Es importante planificar adecuadamente la experiencia. Una planificación in-
correcta puede hacer desaprovechable la experiencia o elevar indeseablemen-
te el coste de la misma.
c) La Estadística Descriptiva no tiene valor inferencial alguno. Ella sólo descri-
be lo que hay y sugiere posibles preguntas, pero no permite extraer conclu-
siones ciertas sobre nada.
2 INTRODUCCIÓN

1.4 CONTENIDOS DE ESTOS RESÚMENES


El Cuadro R.1.1 presenta esquemáticamente los objetivos de interés y el
Resumen del Capítulo que los contiene.
Cuadro R.1.1
Capítulo donde encontrar los conceptos generales que se indican

Descriptiva
Herramientas
Estadística
II

Intervalos de confianza Distribución de los datos


Inferencial
¿Cuánto vale una caracterís-
III
tica en una población?
IV y partes del VI al X
Test de Hipótesis
¿Es cierta una hipótesis?
Generalidades: V

Hipótesis que implican dos


Hipótesis que implican a una proporción o
características
una media en:
(Problemas de Asociación)

1 pobla- 2 poblacio- 3 o más pobla-


ción nes ciones
VI VII VIII

Ambas Ambas Una numé-


no numé- numéri- rica y otra
ricas cas no
VIII IX y X X

2
ESTADÍSTICA DESCRIPTIVA 3

RESUMEN DEL CAPÍTULO II

ESTADÍSTICA DESCRIPTIVA

2.1 TIPOS DE DATOS


Los datos obtenidos de un experimento pueden ser:
a) Cuantitativos: Cuando su resultado es un número. Se dividen en:
i) Discretos: Si toman valores numéricos aislados (se “cuentan”).
ii) Continuos: Si toman cualquier valor entre unos márgenes (se “miden”).
b) Cualitativos: Cuando su resultado no es un número. Pueden ser:
i) Dicotómicos o Binarios: Si admiten solo dos posibilidades.
ii) Multicotómicos o Policotómicos: Si admiten más de dos posibilidades.
Estos a su vez pueden ser ordinales (nominales) según que sus resultados
sí (no) admitan una ordenación lógica.

2.2 PRESENTACIÓN TABULAR DE LOS DATOS


a) Cuando los datos son discretos o cualitativos, con cada valor de los mismos
se forman las clases o modalidades del carácter. Cuando son continuos (o
discretos con muchos valores posibles), con cada conjunto de valores de los
mismos se forman los intervalos de clase (que deben tener igual longitud).
En ambos casos, la primera y/o última clases pueden ser excepción.
b) Los intervalos de clase vienen definidos por dos números, el límite inferior LI
y el límite superior LS; la diferencia de ellos es la longitud de clase L = LILS
y la semisuma es la marca de clase (LI+LS)/2, valor que representa a toda
ella.
c) A cada clase o intervalo de clase se le anota la frecuencia absoluta fi -o nú-
mero de datos que pertenecen a la clase- y la frecuencia relativa hi = fi/n (con
n = número total de datos). Sucederá que fi = n y hi = 1. Multiplicando hi
por 100, 1.000,… se obtienen los % (tantos por ciento), 0/00 (tantos por
mil),....
d) Toda tabla debe tener un enunciado claro, indicar las unidades de medida,
contar con igual nº de decimales en cada columna, especificar el total de cada
columna y “quedar bonita” (las fi deben crecer/decrecer razonablemente).
2.3 PRESENTACIÓN GRÁFICA DE LOS DATOS
a) Histograma/Diagrama de barras: Si sobre cada punto (intervalo) del eje de
abscisas se levanta una barra (rectángulo) de tanta altura como frecuencia
haya, se obtiene un diagrama de barras (histograma). Con frecuencia, la pa-
labra “histograma” alude a ambas representaciones.
b) Polígono de frecuencias: Es la línea poligonal obtenida uniendo los puntos
del plano que tienen por abscisa la clase o marca de clase y por ordenada la
frecuencia.
c) Diagramas de sectores: Se obtiene si en un círculo se asigna a cada clase un
sector de área proporcional a la frecuencia de la clase. El ángulo que lo deli-
mita es 360hi (en grados).
4 ESTADÍSTICA DESCRIPTIVA

En los dos primeros casos la frecuencia puede ser absoluta o relativa. Las gráfi-
cas deben verificar propiedades similares a las del resumen 2.2.d.

2.4 SÍNTESIS DE DATOS


Para sintetizar la información de todos los datos de la muestra mediante uno
o más números representativos de ella, se definen las medidas de una distribu-
ción de frecuencias. Son de dos tipos:
a) Medidas de posición: Describen cómo se encuentra el resto de la muestra
con respecto a ellas.
i) Moda: La clase cuya frecuencia alcanza un máximo absoluto (si la cuali-
dad es nominal) o relativo (en otro caso).
ii) Mediana: Es el valor que divide a la muestra ordenada (de menor a ma-
yor) en dos partes iguales; ocupa la posición (n+1)/2.
iii) Percentil: El percentil pi es el nº que deja a su izquierda (incluido él mis-
mo) un "i%” de la muestra ordenada de menor a mayor (i = 1, 2,...., 99).
iv) Cuartil: c1 = p25, c2 = p50, c3 = p75.
v) Decil: d1 = p10, d2 = p20,..., d9 = p90.
vi) Media aritmética (la importancia de cada dato la da su frecuencia):
 Para datos no agrupados: x = xi / n.
 Para datos agrupados: x = fixi / n, con fi = n.
vii) Media ponderada (la importancia de cada dato la da su frecuencia y otro
criterio): x p =wixi /wi, con wi los pesos de ponderación.
b) Medidas de dispersión (describen cómo de dispersos son los datos):
i) Recorrido, rango o amplitud: Es la diferencia entre los valores más grande
y más pequeño de la muestra.
ii) Varianza o desviación cuadrática media: Es la medida de dispersión ade-
cuada cuando se utiliza la media como medida de posición. Se define co-
mo la media de los cuadrados de las desviaciones a la media. Se obtiene
mediante las fórmulas que siguen (en donde la primera fórmula es la defi-
nición, la segunda es la apropiada para el cálculo y n =fi ):
  xi  x  1  2  xi  
2 2

 Datos no agrupados: s 2 =  
 i x  
n 1 n  1  n 

f  x  x  1   fi xi   ,
2 2

 Datos agrupados: s 2 = i i  
 i if x 2
 
n 1 n  1  n 
iii) Desviación típica o estándar: es la raíz cuadrada (s) de la varianza.
iv) Rango intercuartílico: Es la medida de dispersión adecuada cuando se uti-
liza la mediana como medida de posición. Se define como RI = c3c1 (en
un margen de RI unidades se encuentran el 50% de los datos).
v) Coeficiente de variación: Se utiliza para evaluar un método de medida.
Como CV = (s/ x )100%, su interpretación es que por cada 100 unidades
medidas, el método se equivoca en CV (en términos de s).

4
DISTRIBUCIONES DE PROBABILIDAD 5

RESUMEN DEL CAPÍTULO III

DISTRIBUCIONES DE PROBABILIDAD

3.1 DEFINICIONES
a) Fenómeno aleatorio: aquel fenómeno cuyos resultados son impredecibles.
b) Probabilidad (de un resultado dado de un fenómeno aleatorio): es el límite
de la frecuencia relativa del resultado cuando el número de experiencias (re-
peticiones del fenómeno) tiende hacia infinito.
c) Variable aleatoria: es el resultado numérico de un fenómeno aleatorio y
pueden ser:
i) Discretas: se identifican por la función de probabilidad Pr (x) (regla que
asocia a cada valor x de la variable, su probabilidad Pr (x)).
ii) Continuas: se identifican por la función de densidad f(x) (que indica cómo
de probable es que la variable caiga en los alrededores del valor x), cuya
representación gráfica es la curva de densidad. El área bajo la curva de
densidad entre dos valores a y b indica la probabilidad de que la variable x
se encuentre entre dichos valores: Pr (a  x  b).
En general a ambas funciones se les llama distribución de probabilidad.
d) Parámetros poblacionales: por contraposición a los parámetros muestrales
del resumen R.2.4 (que describen las muestras), se definen de modo similar
los parámetros poblacionales (que describen las poblaciones o las variables
aleatorias). Los paralelos a los parámetros muestrales x , s2, s y h = p̂ son los
parámetros poblacionales , 2,  y p.

3.2 DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS


La mayoría de las variables de la Naturaleza siguen alguna de las siguientes
(se excluyen las distribuciones en el muestreo que se ven más adelante):
a) Distribución Normal:
i) Definición: una variable x sigue la distribución Normal (como la de la
portada de este cuadernillo) si su curva de densidad tiene forma de cam-
pana (campana de Gauss) con centro de simetría en  (media, moda y
mediana) y desviación típica  (la distancia desde el eje vertical en  al
punto de inflexión de la curva). Por tanto x toma valores entre  y +.
Para aludirla se indicará x  N(; ), con  y  los dos parámetros de
la distribución.
ii) Tipificación: si x es una variable cualquiera de media  y desviación ,
entonces (x)/, la variable x tipificada, tiene de media 0 y de desvia-
ción 1. Cuando además x  N(; ), entonces z = (x)/  N(0; 1) es
la llamada Normal típica o estándar.
iii) Tabla 1: para cada probabilidad  la tabla da el valor z de una N(0; 1) tal
que Pr (z  z  +z) = 1. Por ello, si x  N(; ), los intervalos x 
  z, x   + z2 y x   z2 contienen al (1)100% de las ob-
servaciones de la variable x.
6 DISTRIBUCIONES DE PROBABILIDAD

iv) Teorema Central del Límite: si x es una variable cualquiera de media  y


desviación típica , y si x es la media de una muestra de tamaño n  30,
x se distribuye aproximadamente como una Normal: x  N(; / n ),
con / n el error estándar. Si x es Normal, lo anterior se verifica exac-
tamente para cualquier valor de n.
b) Distribución Binomial:
i) Definición: si de una población de tamaño (N) infinito, cuyos individuos ve-
rifican una cierta característica dicotómica con probabilidad p, se extrae una
muestra de tamaño n, el número x de individuos de entre los n que verifican
la característica sigue una distribución Binomial. Cuando N < , x sigue
aproximadamente una Binomial si N > 40 y n/N (fracción de muestreo) 
0,10. Por tanto 0  x  n. Para aludirla se indicará x  B(n; p), con n y p los
dos parámetros de la distribución.
ii) Media y Varianza: son  = np y 2 = npq respectivamente, con q = 1p.
iii) Propiedad: Si n es suficientemente grande (np, nq > 5 suele bastar), la Bi-
nomial se aproxima a la Normal en el sentido de que la probabilidad de que
la Binomial valga x es aproximadamente igual a la probabilidad de que la
Normal valga entre x0,5 y x+0,5 (el valor 0,5 es la corrección por conti-
nuidad o mitad del salto de la variable).
c) Distribución de Poisson:
i) Identificación: Son variables x de Poisson (ley de los sucesos raros): i)
Aproximadamente, una Binomial con n grande y p pequeño; ii) El número
de partículas por unidad de medio (si un gran número de partículas están re-
partidas al azar en una gran cantidad de medio); iii) El número de sucesos
que ocurren por unidad de tiempo (si estos suceden al azar e independien-
temente entre sí). Por tanto 0  x < . Para aludirla se indicará x  P(),
con  el único parámetro de la distribución.
ii) Media y Varianza:  = 2 =  en ambos casos.
iii) Propiedad: Si  es suficientemente grande, se aproxima a la Normal (en el
mismo sentido que el indicado para la Binomial).

6
INTERVALOS DE CONFIANZA 7

RESUMEN DEL CAPÍTULO IV


INTERVALOS DE CONFIANZA
4.1 MUESTREO ALEATORIO
Las muestras deben tomarse al azar, de modo que todo individuo de la po-
blación tenga igual probabilidad de ser seleccionado y que la selección de uno
de ellos no condicione la selección de otro. El azar puede imitarse mediante da-
dos, bolas en urna, etc., pero lo mejor es hacerlo a través de una Tabla de
Números Aleatorios como la Tabla 2. Solo en ese caso la muestra es representa-
tiva de la población y será válido todo lo que se indica en estos Resúmenes.
4.2 ESTIMACIÓN
Los parámetros poblacionales no suelen ser conocidos y con frecuencia es
imposible conocerlos exactamente. La Teoría de la Estimación es la parte de la
Inferencia Estadística que sirve para determinar el valor de los parámetros po-
blacionales en base al de los parámetros muestrales. La estimación puede ser:
a) Por punto: si se asigna al parámetro desconocido () un único valor ( ̂ )
que será su valor aproximado y que es una función de los valores de la mues-
tra. Antes de tomar la muestra se dice que ̂ es un estimador de ; después
de tomarla, el valor de ̂ en ella es una estimación de . Usualmente ̂ es el
parámetro muestral homónimo al parámetro poblacional  a estimar ( ˆ  x ,
̂ 2 = s2 y p̂ = h). Es conveniente que el valor promedio de ̂ en todas las
muestras posibles sea el verdadero valor  a estimar; de ser así, ̂ es un es-
timador insesgado o centrado de  (los estimadores citados arriba lo son); en
otro caso es un estimador sesgado o no centrado de .
b) Por intervalo: si se asigna al parámetro desconocido () un intervalo de va-
lores (I; S) -dados por una fórmula- entre los cuales está  con una cierta
probabilidad 1. Al tomar una muestra y determinar I y S en base a ella,
se obtiene el intervalo de confianza (I; S), con  el error del intervalo y
1 la confianza del mismo: el investigador espera que este sea uno de los
(1)100 intervalos de cada 100 que contienen realmente a  (y no uno de
los 100% de cada 100 que fallan).
4.3 INTERVALO DE CONFIANZA PARA UNA MEDIA 
a) Intervalo: si x es una variable aleatoria de media  y varianza 2 desconoci-
das, y si x1, x2, ..., xn es una muestra aleatoria de ella con media x y desvia-
ción típica s, entonces   x ± ts/ n -con t en la Tabla 3 con (n1) gl y
s/ n el llamado error estándar estimado- si:
i) x es Normal.
ii) x es cualquiera pero n  60. Cuando x es discreta (y saltando de 1 en 1), a
la expresión anterior hay que añadirle una corrección por continuidad: 
 x ± [ts/ n +1/(2n)]
b) Tamaño de muestra: Si x  N(; ), con  y  desconocidas, y se desea
obtener un tamaño de muestra n tal que la media x de esa muestra verifique
que  x  d    x  d, entonces:
i) Si se conoce un valor máximo de 2: n = {z(Máx ) / d}2, con z en la
Tabla 1.
ii) Si 2 es desconocida pero hay una muestra piloto: n = (ts/d)2, con t en
la Tabla 3 con ( n l) gl, n el tamaño de la muestra piloto y s2 su va-
rianza.
8 INTERVALOS DE CONFIANZA

iii) En otro caso: Hacer d = K y n = (z/K)2, con z en la Tabla 1.


Si el n resultante es grande ( 60), las fórmulas anteriores también valen,
aproximadamente, si x es no Normal.
Los casos i) e ii) requieren comprobar que la muestra del tamaño n acon-
sejado verifica las especificaciones: tomada la muestra y obtenido el intervalo
de confianza   (I; S) en base a ella, debe ocurrir que (SI)/2  d (de no
ser así hay que volver a determinar el tamaño de muestra).
4.4 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN p
Sea x  B(n; p) y x una observación (en lo que sigue z siempre en la Tabla 1):
a) Intervalo:
i) Método de Wilson con cpc: si x, nx > 5:
 z2 z2  x  0,5  
p   x  0,5    z    x  0,5  1 
2 4 
 n 

  n  z
2


(del símbolo , usar el  para el extremo inferior y el + para el superior),
expresión que se simplifica en el clásico método de Wald con cpc (el de
casi todos los libros) si x > 20 y nx > 20 (en ella p̂ = x/n y qˆ  1  pˆ ):
 ˆˆ
pq 1   x n  x  
p  ˆp   z   =  x   z  0 ,5 n
 n 2n    n 

El método de Wilson es siempre mejor que el de Wald.
ii) Método de Wald ajustado: válido siempre pero peor que el de Wilson (uti-
lizar solo si el anterior no es válido)
   x  2  n  x+2   n+4
p    x  2    z   
  n4  
b) Tamaño de muestra: Si se desea obtener un tamaño de muestra n tal que la
proporción p̂ de ella verifique que  p̂ p d  p  p̂  d, entonces:
i) Con información: Si en base a una información previa -bibliográfica o de
muestra piloto- se conoce que p  (pI; pS), n = (z/d)2pq, con p el valor
de dicho intervalo que esté más cercano a 0,5 y q = 1p.
ii) Sin información: n = (z/2d)2.
En el primer caso hace falta comprobar al final que la muestra del tamaño n
aconsejado verifica las especificaciones: tomada la muestra y obtenido el in-
tervalo de confianza p  (pI; pS) y el valor de p̂ en base a ella, debe ocurrir
que p̂  pI  d y p̂  pS  d (de no ser así hay que volver a determinar el
tamaño de muestra).
4.5 GENERALIDADES SOBRE LOS INTERVALOS DE CONFIANZA
Lo que sigue es válido para todos los intervalos de confianza:
a) Los intervalos de confianza de estos Resúmenes son siempre de dos colas -es
decir del tipo   (I; S)- con una confianza de 1. Cuando se desee un
intervalo de confianza de una cola, obtener el extremo que interese (I o S)
al error 2. El intervalo será   S o   I.
b) Las fórmulas de tamaño de muestra son válidas para un intervalo de confian-
za de dos colas al error . Cuando se le desee de una cola, cambiar en ellas 
por 2.

8
CONCEPTO GENERAL DE TEST DE HIPÓTESIS 9

RESUMEN DEL CAPÍTULO V


CONCEPTO GENERAL DE TEST DE HIPÓTESIS

5.1 OBJETIVO
Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir
cuál de dos hipótesis -H0 (hipótesis nula) o H1 (hipótesis alternativa)- debe
aceptarse en base al resultado obtenido en una muestra.

5.2 TIPOS
a) Test bilateral o de dos colas: Si H1 es la negación total de H0.
b) Test unilateral o de una cola: Si H1 es una parte de la negación de H0.

5.3 ELECCIONES PREVIAS


Antes de realizar un test, el investigador debe decidir:
a) H0: Hipótesis formulada como una igualdad o una afirmación positiva. Una
conclusión por ella no implica seguridad alguna acerca de su certeza (salvo
que se fije de antemano el tamaño de la muestra).
b) H1: Es la hipótesis que se quiere demostrar fuera de toda duda, es decir aque-
lla que, de concluirse, se quiere estar prácticamente seguro de que es cierta.
Puede ser una parte de la negación de H0 (test de una cola) si la otra parte im-
plica una conclusión/acción equivalente a la que proporcionaría una acepta-
ción de H0.
c)  : Es un valor tanto más pequeño cuantas más garantías se precisen de que
una decisión por H1 sea correcta. Usualmente  = 5% .
d) Estadístico de contraste: Es la variable que se va a utilizar para realizar el
test; viene dada por una función de los valores de la muestra que resume toda
la información relevante de ella respecto del test a realizar.
e) Tamaño de muestra n (opcional): Si se desea que una conclusión por H0 sea
también fiable (ver los detalles en R.5.7).

5.4 MÉTODO
Para tomar la decisión debe obtenerse un intervalo de valores del estadísti-
co de contraste cuya probabilidad, bajo H0, sea 1. El intervalo -que será de
dos colas en los tests bilaterales y de una cola (con la desigualdad en sentido
opuesto al indicado por H1) en los unilaterales- se denomina región de acepta-
ción; los valores que están fuera de él se denominan región crítica o región de
rechazo. Obtenida la muestra, si el valor que toma en ella el estadístico de con-
traste está en la región de aceptación se acepta H0; si está fuera (es decir, en la
región de rechazo) se acepta H1. En el primer caso se dice que el test (o el resul-
tado) es estadísticamente no significativo; en el segundo se dice que el test (o el
resultado) es estadísticamente significativo (ambos para un test realizado al
error ).
10 CONCEPTO GENERAL DE TEST DE HIPÓTESIS

5.5 ERRORES ASOCIADOS A LA CONCLUSIÓN DE UN TEST


a) Definiciones: Toda decisión de un test de hipótesis puede ser errónea. Las
dos posibilidades de error se denominan:
i) Si se concluye H1: error  = error de Tipo I = nivel de significación =
 = Pr (decidir H1es cierta H0).
ii) Si se concluye H0: error  = error de Tipo II =
 = Pr (decidir H0es cierta H1).
b) Consecuencias:
i) El error  está controlado, pues se fija de antemano y es tan pequeño co-
mo se desee; de ahí que una decisión por H1 es siempre fiable.
ii) El error  no está controlado de antemano, pudiendo ser grande; de ahí
que una decisión por H0 no sea fiable (lo único que indica es que no se ha
podido demostrar que es falsa).
iii) El error  es un único número (puesto que H0 alude a un único valor, al
venir dada por una igualdad), pero el error  alude a muchos números
(puesto que depende de la alternativa H1 que se considere).
iv) El error  disminuye conforme aumenta , conforme H1 se aleja de H0 y
conforme aumenta el tamaño n de la muestra (si todo lo demás permane-
ce constante).

5.6 POTENCIA DE UN TEST


Se llama potencia  a la capacidad que tiene un test para detectar las hipó-
tesis alternativas verdaderas, es decir:
 = 1 = Pr (decidir H1es cierta H1)
Como  también depende de la hipótesis alternativa, ella alude a muchos núme-
ros que, en el caso de tests acerca de parámetros, dan lugar a una representación
gráfica llamada curva de potencia (de  vs. H1). Un test es tanto mejor cuanto
más potente sea.

5.7 TAMAÑO DE MUESTRA


Determinando el tamaño de muestra n de antemano, las conclusiones por
H0 también son fiables (las conclusiones por H1 siempre lo son) pues su error 
asociado también está controlado (como lo estaba ). Si H0:  = 0 (con  el
parámetro de interés), para determinar n hace falta especificar:
a) El error  del test;
b) La primera alternativa de interés o primera H1 (digamos 1) que se desea
diferenciar de H0. Esto es equivalente a fijar la mínima diferencia de interés 
=10, pues la primera alternativa de interés será 1 = 0 +  (para H1:
 > 0), 1 = 0   (para H1:  < 0) o 1 = 0   (para H1:   0).
c) El error  (o la potencia  = 1) para tal alternativa.
El n obtenido garantiza que el test realizado con tal muestra (al error )
dará significativo el (1)100% de las veces en que la verdadera hipótesis H1
se diferencie de H0 en la cantidad  especificada (o más veces si la diferencia es
mayor, o menos veces si es menor).

10
CONCEPTO GENERAL DE TEST DE HIPÓTESIS 11

5.8 INTERVALOS DE CONFIANZA TRAS UN TEST DE HIPÓTESIS


Tras realizar un test de hipótesis acerca de un parámetro usualmente es con-
veniente obtener un intervalo de confianza para el mismo, tanto si se concluye
H0 (para ver si la conclusión es fiable o debería aumentarse la muestra) como si
se concluye H1 (para así indicar cuánto de falsa es H0). Las reglas son:
a) Cuando el test es de dos colas, el intervalo será de dos colas:
i) Si se concluyó H1: al error .
ii) Si se concluyó H0: al error 2.
b) Cuando el test es de una cola, el intervalo será de una cola:
i) Si se concluyó H1: al error  y con la desigualdad en el sentido que indica
H1.
ii) Si se concluyó H0: al error  y con la desigualdad en el sentido contrario
al que indica H1.
c) En ambos casos, si se concluye H0:
i) Si n fue fijado de antemano: la conclusión es fiable y no es preciso obte-
ner el intervalo.
ii) Si n no fue fijado de antemano: la conclusión es fiable solo si el intervalo
obtenido no contiene a la/s primera/s alternativa/s de interés. En otro caso
la conclusión no es fiable, debe aumentarse n y repetirse el test.
d) En ambos casos, si se concluye H1: el intervalo obtenido (que sirve para ver
cuánto de falsa es H0) no debe contener al valor del parámetro bajo H0.
Adicionalmente, cuando se concluye H1 puede interesar conocer si también
hay significación biológica: la hay si el intervalo al error  (de dos colas si el
test es de dos colas; de una cola, con la desigualdad en sentido contrario al que
indica H1, si el test es de una cola) contiene a algún valor relevantemente distin-
to del valor del parámetro bajo H0.

5.9 VALOR P
a) Definición: El valor P, nivel crítico P o nivel mínimo de significación es
i) El mínimo error  al cual un resultado es significativo.
ii) La probabilidad de obtener un resultado tan extraño o más que el obtenido
cuando H0 es cierta.
b) Consecuencias:
i) P mide las evidencias que hay en contra de H0 (pero no mide cuánto de
falsa es H0).
ii) El valor P de un test de una cola (con H1 en la dirección a que apuntan
los datos) suele ser la mitad del valor P del test de dos colas.
iii) Fijado un valor de : si P   se decide H1; si P >  se decide H0.

5.10 REGLAS PARA TOMAR LA DECISIÓN


a) Regla usual para un error  dado (generalmente  = 5%):
i) Si P  % se concluye H1 (la decisión es fiable);
ii) Si P > % se concluye H0 (la decisión será fiable si se verifica 5.8.c).
12 CONCEPTO GENERAL DE TEST DE HIPÓTESIS

b) Regla Automática de Decisión para el caso de  = 5%:


i) Si P 5%: se concluye H1;
ii) Si P > 15%: se concluye H0;
iii) En otro caso: Se concluye H0, indicando que hay indicios de significa-
ción (en realidad conviene ampliar la muestra y repetir el test).

5.11 PRESENTACIÓN DE LAS CONCLUSIONES


a) Las tablas estadísticas generalmente no permiten conocer el valor exacto de
P, sino una cota del mismo. Las conclusiones entonces suelen ser del tipo: H1
(P < 2%) o H0 (P  30%) por ejemplo.
b) Cuando P es “> 5%,  5%,  1% o  1‰” se dice que el test o el resultado es
“no significativo, significativo, muy significativo o altamente significativo”
respectivamente. En otras ocasiones encima del valor experimental se coloca
“nada, *, ** o ***” respectivamente (para indicar que P toma los valores re-
señados arriba).

5.12 CRITERIOS GENERALES PARA TODOS LOS TESTS


a) Tests de dos colas realizados a un error : Calcular una cantidad experi-
mental Cexp a partir de los datos y compararla con la/s cantidad/es teórica/s C
que indique/n la Tabla del Apéndice apropiada (al error ), decidiendo como
sigue:
i) Si la tabla proporciona dos límites CI y CS (como en las Tablas 4, 6 y 7):
Si C I  Cexp  CS  aceptar H 0  al error  

Si Cexp  C I o Cexp  CS  aceptar H1  con error  
ii) Si la tabla proporciona solo un límite C:
Si Cexp  C  aceptar H 0  al error  

Si Cexp  C  aceptar H1  con error  
b) Cálculo de P y test de dos colas en base al mismo: Localizar en la Tabla
del Apéndice apropiada los dos valores 1 y 2 consecutivos (con 1 < 2) en
los que el test pasa de concluir H0 a concluir H1; entonces 1 < P  2 y la
decisión se toma del modo indicado en el Resumen 5.10.
c) Tests de una cola al error : Comprobar si el resultado experimental es
conforme con H1 y entonces:
i) Si NO es conforme con H1: Decidir H0 sin más operaciones (P  50%).
ii) Si SÍ es conforme con H1: Actuar como en a), pero en base al error 2, o
como en b), pero con el P obtenido dividido por 2: 1/2 < P  2/2.
d) Tamaño de muestra: Las fórmulas de tamaño de muestra que se verán sir-
ven para determinar el mínimo tamaño de muestra preciso para que un test de
dos colas al error  dé significativo el (1)100% de las veces en que la
verdadera hipótesis H1 se diferencie de H0 en la cantidad  que se especifique
(o más veces si la diferencia es mayor, o menos veces si es menor). En todo
caso, cuando el test es de una cola hay que cambiar en la fórmula  por 2.

12
TESTS CON UNA MUESTRA 13

RESUMEN DEL CAPÍTULO VI

TESTS CON UNA MUESTRA

6.1 TEST DE NORMALIDAD DE D’AGOSTINO (H0: “La muestra proviene


de una variable aleatoria Normal”)
Si x1, x2, ..., xn es una muestra aleatoria (ordenada de menor a mayor) de
una variable aleatoria x, comparar con una D de la Tabla 4 (por el modo allí
indicado) la cantidad:
n 1
ixi  xi
Dexp = 2
 2  xi 2 
n n xi  
 n 

6.2 TEST DE HIPÓTESIS PARA UNA PROPORCIÓN (H0: p = p0)


Sea xB(n; p), con p desconocido:
a) Test: Si x es una observación de ella y ocurre que np0 > 5 y nq0 > 5, con q0 =
1p0, comparar zexp = (xnp00,5) / np0 q0 con una z de la Tabla 1.
b) Tamaño de la muestra: Para detectar alternativas p1, con p1p0= :
2
 z p q  z2  p1q1 
n=  0 0 
  
con q1 = 1p1, las cantidades z en la Tabla 1 y:
i) En tests de una cola: p1 = p0 para H1: p < p0; p1 = p0+ para H1: p > p0
(además de cambiar  por 2 como es tradicional);
ii) En tests de dos colas: p1 el valor más cercano a 0,5 de entre los p0  .
14 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS

RESUMEN DEL CAPÍTULO VII


TESTS DE HOMOGENEIDAD CON DOS MUESTRAS
7.1 GENERALIDADES VÁLIDAS PARA EL RESUMEN ACTUAL
a) Muestras: Dos muestras son independientes cuando cada individuo de las
mismas proporciona una única observación. Son apareadas, relacionadas o
dependientes cuando cada individuo proporciona dos observaciones (los da-
tos se obtienen por parejas). Cuando la asociación entre esas parejas de datos
es positiva, el muestreo apareado es preferible al independiente.
b) Test: Las comprobaciones previas a un test de una cola (H1: 1 < 2 o H1: p1
< p2 por ejemplo) son las lógicas ( x1  x2 o ˆp1  ˆp2 ).
c) Intervalos de confianza: Todos están construidos como de dos colas. Para
una cola cambiar  por 2 y conservar sólo el extremo apropiado.
d) Tamaños de muestra: En las fórmulas debe entenderse que:
i) El tamaño pronosticado alude al tamaño de cada una de las dos muestras
(n = n1 = n2) cuando estas se planifican como iguales.
ii) Aluden a un test de dos colas: cuando sea de una cola cambiar  por 2.
iii) La mínima diferencia importante  alude al primer valor de 12 o
de p1p2 a diferenciar del valor 0. Si el test es de una cola, lo anterior
es válido sin el valor absoluto.
7.2 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE
VARIABLES NORMALES (H0: 1 = 2)
a) Test para muestras independientes: Si las muestras -de tamaños n1 y n2,
medias x1 y x2 y varianzas s12 y s22 - provienen de variables de medias 1 y
2 y varianzas  12 y  22 desconocidas, obtener Fexp = s12 / s22 , con s12  s22 , y
compararla con F0,10 [n11; n21] de la Tabla 5; entonces:
i) Si Fexp < F0,10 (Varianzas iguales:  12   22   2 ) (Test de Student): Com-
parar con una t(n1+n22) de la Tabla 3 la cantidad:
x1  x2  n  1 s12   n2  1 s22
texp = , con s 2 = 1
n n n1  n2  2
s2 1 2
n1n2
ii) Si Fexp  F0,10 (Varianzas distintas:  12   22 ) (Test de Welch): Comparar
con una t(f) de la Tabla 3 la cantidad:
 A  B
2
x x s2 s2
texp = 1 2 , con A = 1 , B = 2 y f =
A B n1 n2 A2 B2

n1  1 n2  1
b) Test para muestras apareadas (Test de Student): Dadas dos variables (x1 y
x2 de medias 1 y 2 respectivamente) y n parejas de datos (x1i; x2i) de las
mismas, con i = 1, 2, …, n, obtener sus diferencias di = x1ix2i y la media ( d )
y varianza ( sd2 ) de las mismas. El test consiste en comparar:
d
texp = vs. t(n1) de la Tabla 3
sd / n
2

14
TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 15

c) Intervalo de confianza para la diferencia de medias: La siguiente expre-


sión es válida para los tres casos citados en a) y b), con la misma notación,
condiciones y alusiones de entonces:
12(numerador de la texp sin valor absoluto)  t(denominador de la texp)
d) Tamaño de muestra: Con igual notación que en a) y b), para detectar una
diferencia 12=  (en lo que sigue zx se mira en la Tabla 1 y tx en la Ta-
bla 3 con f  gl):
i) Muestras independientes (Varianzas iguales): n1 = n2 = n, con:
2 2 2
2 
z  z2   2 
t  t2    z  z2  
n  2   , n = 2s    , n = 2 
       K 
la primera expresión se utiliza cuando  (o su valor máximo) es conoci-
2

do, la segunda cuando hay muestras piloto de tamaños ni y varianza


común s2 (con f  = n1  n2  2 ) y la tercera cuando  = K (con K un va-
lor dado de antemano que usualmente verifica 0  K  0,5).
ii) Muestras apareadas:
2 2 2
 z  z2   2  t  t2   2  z  z2  
n=  d  , n =   ds , n =  
       K 
la primera expresión se utiliza cuando  d2 (o su valor máximo) es conoci-
do, la segunda cuando hay una muestra piloto de tamaño n y varianza
s2 (con f  = n 1 gl), la tercera cuando 12= Kd.
7.3 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE
VARIABLES CUALESQUIERA (H0: 1 = 2)
Si, en las condiciones y notación del Resumen 7.2, las variables implicadas
(x o d) no son Normales, gran parte de lo indicado allí es aproximadamente váli-
do si las muestras son grandes (mayores que 60 si las variables son marcada-
mente no Normales). Las reglas aconsejadas son las siguientes:
a) Test e intervalo para muestras independientes: Aplicar el test de Welch
del Resumen 7.2.a.ii) y el intervalo del Resumen 7.2.c.
b) Test e intervalo para muestras apareadas: Aplicar el test de Student del
Resumen 7.2.a.i) y el intervalo del Resumen 7.2.c.
c) Tamaño de muestra: Es válido lo indicado en el Resumen 7.2.d si el n final
predicho es superior a 60.
d) Variables discretas: En los casos a) y b), si la variable implicada es discreta
y saltando de 1 en 1 conviene efectuar una cpc consistente en sumar al radio
del intervalo de confianza la cantidad c (o restar al numerador de la texp la
cantidad c) con:
i) Muestras independientes: c = (n1+n2)/2n1n2.
ii) Muestras apareadas: c = 1/2n.
16 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS

7.4 TESTS NO PARAMÉTRICOS (TESTS DE WILCOXON) PARA


COMPARAR DOS MUESTRAS DE VARIABLES CUALESQUIERA
(H0: La primera población no tiende a dar valores más altos o más bajos que
la segunda, lo que es prácticamente equivalente a afirmar que 1 = 2)
a) Asignación de rangos: En lo que sigue se hablará de “asignar rangos a una
muestra ordenada”. Por tal se entiende al proceso de, dada una muestra orde-
nada de menor a mayor (x1  x2  ...  xn), asignar el rango 1 al elemento x1, el
rango 2 al elemento x2, ..., el rango n al elemento xn. Cuando haya varios ele-
mentos xi consecutivos iguales (empates) a cada uno de ellos se le asigna el
rango promedio que tendrían si fueran distintos; por ejemplo, si xr = xr+1 = ...
= xs, a cada elemento se le asigna el rango promedio (r+s)/2.
b) Muestras independientes (test de Wilcoxon): Dadas dos muestras indepen-
dientes de tamaños n1 y n2 (n1  n2 por convenio), unir las dos muestras en
una sola, ordenarla de menor a mayor, asignarle rangos a sus elementos y
calcular las sumas de rangos (R1 y R2) de los elementos de cada una de las
muestras. Deberá suceder que R1+R2 = (n1+n2)(n1+n2+1)/2. Llamar por Rexp a
la suma de rangos (R1) de la muestra de menor tamaño y entonces:
i) Si n1+n2  30: Comparar Rexp con el valor R de la Tabla 6 por el modo
allí indicado.
ii) Si n1+n2 >30: Comparar con el valor z de la Tabla 1 la cantidad (en lo
que sigue no se tiene en cuenta la posible existencia de empates):

zexp=
Rexp    0,5  n  n  1 n1 y 2 =  n2
, con  = 1 2
 2 6
La verificación del sentido de la significación se hace en base a los rangos
médios Ri = Ri/ni de cada muestra: si R1 < R2 entonces 1 < 2.
c) Muestras apareadas (test de Wilcoxon): Dadas n' parejas de datos, obtener
las n' diferencias entre ellas, rechazar las que sean cero, ordenar el resto (n)
de menor a mayor valor de sus valores absolutos, asignarles rangos y calcular
las sumas de rangos -R(+) y R()- de las diferencias positivas y negativas.
Deberá suceder que R(+) + R() = n(n+1)/2. Entonces:
i) Si n  25: Comparar R(+) -o R(), es lo mismo- con el valor R de la Ta-
bla 7 por el modo allí indicado.
ii) Si n > 25: Comparar con el valor z de la Tabla 1 la cantidad (en lo que
sigue no se tiene en cuenta la posible existencia de empates):
R       0,5 n  n  1 2n  1
zexp = , con  = y 2 = 
 4 6
La verificación del sentido de la significación se hace en base a los rangos: si
R(+) < R() entonces 1 < 2.

7.5 TESTS DE COMPARACIÓN DE DOS PROPORCIONES (MUES-


TRAS INDEPENDIENTES) (H0: p1 = p2)
Si xi  B(ni; pi) -con i = 1, 2- son independientes y si de cada una de ellas
se obtiene una muestra en el formato de la Tabla R.7.1, entonces, llamando por
p̂i =xi/ni, p̂ =a1/N, q̂i =1 p̂i y qˆ  1  ˆp (en lo que sigue las cantidades zx siem-
pre en la Tabla 1, pues se utiliza la aproximación de la Binomial a la Normal):

16
TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 17
Tabla R.7.1 Tabla R.7.2
Presentación de datos cuando se comparan Presentación de datos cuando se comparan
dos proporciones independientes dos proporciones apareadas
Característica B
SÍ NO Totales SÍ NO Total
Muestras A
1 x1 y1 n1 SÍ n11 n12
2 x2 y2 n2 NO n21 n22
Totales a1 a2 N Total n
a) Test: Sea E = Mín (a1; a2)Mín (n1; n2)/N. El test incondicionado consiste en
comparar:
N 1/n n si n1  n2
zexp =  ˆp1  ˆp2  c  ˆpqˆ , con c=  1 2 vs. z
n1n2 2 /n1n2 si n1  n2
siendo válido si E  14,9 (aunque cuando N  500, basta con que E  7,7).
Más conservador es el test condicionado clásico con la cpc de Yates que
se obtiene haciendo arriba c = N/2n1n2, el cual suele decirse (erróneamente)
que es válido si E > 5.
b) Intervalo de confianza para la diferencia de proporciones:
i) Método de Wald (clásico): Si x1, x2, y1, y2 son todos mayores que 5:
 ˆp qˆ ˆp qˆ 
p1  p2  ( ˆp1  ˆp2 )   z 1 1  2 2  c  con c como arriba
 n1 n2 
ii) Método de Agresti-Caffo (mejor que el anterior): Si h = z2 4 :

p1p2  1
x h x h
 2  z
 x1  h  y1  h    x2  h  y2  h 
n1  2h n2  2h n13 n23
(el método de Wald, para c = 0 y con los datos incrementados en z2 4 ).
c) Tamaño de muestra: Para detectar una diferencia  = p1p2:
i) Con información (sobre las pi):
2
 z 2 pq  z2  p1q1  p2 q2 
n   ,
  
 
con p = (p1+p2)/2, q = 1p, qi = 1pi y las p1 y p2 lo más cercanas posibles
a 0,5  /2, compatibles con la información que se posea sobre ellas y ta-
les que p1 p2 = .
ii) Sin información: haciendo pi = 0,5  /2 arriba:
2
1  z  z2  1   
2

n=  
2  
 
18 TESTS DE HOMOGENEIDAD CON DOS MUESTRAS

7.6 TEST DE COMPARACIÓN DE DOS PROPORCIONES (MUES-


TRAS APAREADAS) (H0: p1 = p2)
Si los n individuos de una muestra son clasificados según que presenten
(SÍ) o no (NO) una determinada característica tras la aplicación de un tratamien-
to A (entendido de modo genérico: no tiene porqué ser un tratamiento médico) y
lo mismo tras la aplicación de otro tratamiento B, los datos pueden presentarse
como en la Tabla R.7.2. Si p1 y p2 son las proporciones de respuestas SÍ a cada
tratamiento (en lo que sigue zx siempre en la Tabla 1):
a) Test de McNemar: Si n12+n21 > 10, comparar
n12  n21  0,5
zexp = vs. z.
n12  n21
b) Intervalo de confianza para la diferencia de proporciones:
i) Método de Wald (clásico): Si n12, n21 > 5:
  
 n  n21 
2
 
p1  p2   n12  n21    z  n12  n21   12  0,5 n
  n 

ii) Método de Agresti-Min (mejor que el anterior): Equivalente a aplicar el
anterior omitiendo el 0,5 e incrementando los datos en 0,5:
(n12  n21 )2
(n12  n21 )  z (n12  n21 +1) 
p1  p2  n2
n2
c) Tamaño de muestra: Para valores ,  y  =p1p2=p12p21:
i) Con información (sobre las pi): hacer (p12+p21) () lo máximo posible en:

  
2
n= z p12  p21  z2  p12  p21   2 

ii) Sin información: n =  z  


2

  z2  1   2 

7.7 COMPARACIONES MÚLTIPLES: Método de Bonferroni


Cuando deban hacerse K tests de hipótesis sobre los que se desea un error
global de , el nivel de error a utilizar en cada test individual debe ser de /K.
La Tabla 8 ayuda a obtener las cantidades teóricas t/K (f gl) y z/K (la de antes
en f = ).

18
TEST CHI-CUADRADO Y TABLAS 22 19

RESUMEN DEL CAPÍTULO VIII


TEST CHI-CUADRADO Y TABLAS 22
8.1 TESTS EN TABLAS rs DISTINTAS DE 22
a) Test de homogeneidad de varias muestras cualitativas (H0: La proporción
de individuos que caen en una determinada clase es la misma para todas las
poblaciones y esto vale para todas las clases  Todas las muestras provienen
de igual población).
Tabla R.8.1: Tabla de contingencia rs
Columnas
Oij Totales
1 2 ··· s
1 O11 O12 ··· O1s F1
Filas 2 O21 O22 ··· O2s F2
··· ··· ··· ··· ··· ···
r Or1 Or2 ··· Ors Fr
Totales C1 C2 ··· Cs T

i) Presentación de los datos: Dadas r muestras cuyos individuos se clasifi-


can en s clases como en la Tabla R.8.1 (muestras = filas; clases = colum-
nas), se define:
Oij = Nº de individuos de la muestra i que caen en la clase j
= Cantidades Observadas;
Fi = Total de la fila i = nº total de individuos de la muestra i = jOij;
Cj = Total de la columna j = nº total de individuos de la clase j =iOij;
T = Gran total = nº total de individuos = Fi = Cj =Oij.
ii) Realización del test: Calcular las Cantidades Esperadas Eij = FiCj/T
(cuyos totales de fila y de columna han de ser las Fi y Cj de antes) y en-
tonces, si ninguna Eij es inferior a 1 y no más del 20% de ellas son infe-
riores o iguales que 5, comparar
O  Eij 
2
Oij2
 
ij
 2
exp  T vs. 2 {gl = (r1)(sl)} de la Tabla 9,
i,j Eij i , j Eij

La cantidad experimental anterior se denomina estadístico chi-cuadrado


de Pearson (su segunda expresión es la más apropiada para el cálculo).
iii) Búsqueda de la significación (si ocurre): A través de los % por filas.
b) Test de independencia entre dos cualidades (H0: Los caracteres A y B son
independientes  no están asociados  no están relacionados).
Si en los T individuos de una muestra aleatoria se determinan dos caracte-
res cualitativos A y B, el primero dividido en r clases y el segundo en s cla-
ses, y se les clasifica en base a ello en una tabla como la Tabla R.8.1 (con “fi-
las” y “columnas” cambiadas por “clases del carácter A” y “clases del carác-
ter B” respectivamente) proceder como en el Resumen a) anterior. Ahora las
causas de la significación se pueden buscar por filas o columnas.
20 TEST CHI-CUADRADO Y TABLAS 22

8.2 TESTS EN TABLAS 22


Con la misma notación y objetivos de la sección anterior, para todo lo que
sigue se define E = Mín (F1 ; F2)Mín (C1; C2) / T = mínima cantidad esperada
de la tabla. La cantidad teórica para el test es siempre 2 {gl = l} de la Tabla 9.
a) Tests clásicos para cualquier tabla 22: (NO USAR)
i)Test chi-cuadrado de Pearson = test chi-cuadrado sin corrección por con-
tinuidad: Si E > 5, aplicar el estadístico del Resumen 8.1 que es igual a:
O O  O12O21   T
2

 P2 = 11 22
F1 F2C1C2
ii) Test chi-cuadrado de Yates = test chi-cuadrado con la corrección por
continuidad de Yates: Si E  20,7 (aunque si N  500 basta con E  8,8),
aplicar el estadístico del Resumen 8.1 con la cpc de Yates:
2
 T
 O

O  O O 
2
Oij  Eij  0,5  11 22 12 21 
 
2
Y2   T
Eij F1 F2C1C2
b) Test (óptimo) de homogeneidad en tablas 22: (SÍ USAR) Si E  14,9
(aunque cuando N  500, basta con que E  7,7):
O O22  O12O21  c 
2
1 si F1  F2
 2
exp =
11
 T , con c= 
F1 F2C1C2  2 si F1  F2
c) Test (óptimo) de independencia en tablas 22: (SÍ USAR) Si E  6,2 (aun-
que cuando N  500, basta con que E  3,9):
O O22  O12 O21  0,5 
2
11
 2
exp = T
F1 F2 C1C2
8.3 ASIGNACIÓN DE VALORES CUANTITATIVOS ARBITRARIOS
a) Los métodos basados en datos cuantitativos (como los tests de Student) son
preferibles a los basados en datos cualitativos (como el test 2), pues dan lu-
gar a tests más potentes.
b) Si una característica cualitativa es ordinal, es posible y preferible asignarle
valores numéricos a sus clases y analizar los nuevos datos por la técnica
cuantitativa apropiada (en lugar de por el test chi-cuadrado).
c) La asignación puede hacerse si el fenómeno estudiado hubiera podido medir-
se en una escala continua (de haber dispuesto de los instrumentos adecuados)
y si las clases obtenidas pueden considerarse como un agrupamiento de tal
escala por medio de otra más burda formada por sus valores redondeados.
8.4 MEDIDAS DE ASOCIACIÓN EN TABLAS 22
Con frecuencia los dos caracteres dicotómicos estudiados (E y FR) suelen
aludir a la presencia o no de una enfermedad o efecto indeseado (E o E ) y a la
presencia o no de un factor de riesgo (FR o FR ). En lo que sigue se asume que
la enfermedad se ubica en filas, el factor de riesgo en columnas y el SÍ en pri-
mer lugar, obteniendo así unos datos como los de la Tabla R.8.2.
a) Tipos de muestreo y tipos de estudio (epidemiológico): Para estudiar la
asociación entre E y FR los tipos de muestreo pueden ser dos y los tipos de

20
TEST CHI-CUADRADO Y TABLAS 22 21

estudio tres (en lo que sigue se utiliza el nombre que está subrayado):
Tabla R.8.2
Formato estándar para los estudios epidemiológicos
Factor de riesgo
Enfermedad SÍ = FR NO = FR Totales

SÍ = E O11 O12 F1
NO = E O21 O22 F2
Totales C1 C2 T
i) Muestreo de Tipo I (Estudio Transversal): Tomar T individuos al azar y
clasificarlos en base a E y FR.
ii) Muestreo de Tipo II (Preferible al de Tipo I si las Fi o las Cj se planifican
como iguales):
 Estudio Prospectivo, Longitudinal o de Seguimiento: Tomar C1 y C2 in-
dividuos al azar y clasificarlos en base a E.
 Estudio Retrospectivo o de Caso-Control: Tomar F1 y F2 individuos al
azar y clasificarlos en base a FR.
Desde un punto de vista estadístico, el diseño óptimo consiste en tomar
muestras de igual tamaño de los niveles de la característica cuya frecuencia
dista más de 0,5 (en general la enfermedad: estudio retrospectivo).
b) Test apropiado (H0: E y FR son independientes):
i) En el muestreo de Tipo I: Si E  6,2 (basta con E  3,9 si N  500):
O O22  O12 O21  0,5 
2
11
 2
exp = T
F1 F2 C1C2
ii) En el muestreo de Tipo II: Si E  14,9 (basta con E  7,7 si N  500):
O O22  O12O21  c 
2

 2
exp =
11
 T con:
F1 F2C1C2
1 si F1  F2 1 si C1  C2
Si Retrospectivo: c=  ; Si Prospectivo: c= 
 2 si F1  F2  2 si C1  C2
c) Medidas de asociación: Una medida de asociación es un número que indica
el grado de dependencia existente entre los dos caracteres E y FR estudiados,
pero la medida a usar depende del fin perseguido y su cálculo será lícito o no
en función del muestreo utilizado. El Cuadro R.8.1 las resume (pero él es
aplicable solo a datos en el formato de la Tabla R.8.2).
8.5 EVALUACIÓN DE UN MÉTODO DE DIAGNÓSTICO BINARIO
Si en la Tabla R.8.2 se entiende que FR alude a que un test diagnóstico ha
dado positivo (suceso D), se obtiene entonces la Tabla R.8.3. El objetivo es eva-
luar la bondad del test.
a) Tipos de muestreo: La tabla puede haberse obtenido de dos modos:
i) Muestreo de Tipo I: T individuos al azar se clasifican en base a su estado real
y al resultado del test (estudio transversal del Resumen 8.4).
ii) Muestreo de Tipo II: F1 enfermos y F2 sanos se clasifican en base al resulta-
do del test (estudio retrospectivo del Resumen 8.4).
22 TEST CHI-CUADRADO Y TABLAS 22

Tabla R.8.3
Resultados de un test diagnóstico en función del estado real del individuo
Resultado del test
+(D) (D)
Presencia de la SÍ (E) O11 O12 F1
enfermedad NO ( E ) O21 O22 F2
C1 C2 T
b) Evaluación de la calidad de un test: Se basa en los porcentajes de aciertos
SN y EP al diagnosticar a los enfermos y sanos respectivamente:
SN = Sensibilidad = % de enfermos diagnosticados positivamente;
FN = Falsos Negativos = % de enfermos diagnosticados negativamente;
EP = Especificidad = % de sanos diagnosticados negativamente;
FP = Falsos Positivos = % de sanos diagnosticados positivamente;
en donde SN+FN=EP+FP = 100 (FP y FN aluden a fallos en el diagnóstico).
Tales parámetros son proporciones binomiales que se estiman puntual-
mente (bajo cualquiera de los dos muestreos) por:
  O11 , FN
SN  = O12 , E  O  O21
P  22 , FP 
F1 F1 F2 F2
y por intervalo de confianza como en el Resumen 4.4.a). En base a ellos:
i) Si EP es alta: el test es útil para afirmar la enfermedad (conviene aplicarlo
a individuos sospechosos de poseerla).
ii) Si SN es alta: el test es útil para descartar la enfermedad (conviene apli-
carlo como procedimiento de rutina para el diagnóstico precoz de ella).
c) Evaluación de la utilidad clínica de un test: Se basa en los % de aciertos de
los diagnósticos positivo o negativo (los de interés para el enfermo):
VPP = Valor Predictivo Positivo = % de diagnósticos positivos que son correctos,
VPN = Valor Predictivo Negativo = % de los diagnósticos negativos que son correctos,
cuyos valores que dependen de SN, EP y de la prevalencia p (% de enfermos)
de la población a la que se esté aludiendo. Para estimarlos hay que contem-
plar dos situaciones:
i) Muestreo de Tipo I: Como son proporciones binomiales, se estiman por
intervalo de confianza como en el Resumen 4.4.a) y puntualmente por:
  O11 , VPN
VPP  = O22
C1 C2
ii) Muestreo de Tipo II: No se pueden estimar hasta conocer la prevalencia p
de la población de interés, en cuyo caso ( S y EP como en i)):

=
VPP
p  S
 =
, VPN
1  p   EP

p  SN 
 +  1  p   1  EP

 1  p   EP 
 + p  1  SN


En base a tales valores (y para la prevalencia asumida):
i) Si VPP es alto: el test es útil para afirmar la enfermedad.
ii) Si VPN es alto: el test es útil para descartar la enfermedad.

22
Cuadro R.8.1
Medidas de asociación epidemiológicas en tablas 22

(Asociación )
Definición (1) Valores Independencia Caso Estimación (2) Estudios en Intervalo de Confianza (aproximado)
posibles que es válida (z en la TABLA 1) (3)
(Asociación +)
1   < 0 O11O22  O12O21 Transversales O O O O
 = p1p2  =0 General δ̂ =   δ̂  z 11 3 12  21 3 22 en h = z2 / 4
C C Prospectivos C C2
0 <   +1 1 2 1

Diferencia de Berkson: La probabilidad de enfermar en los individuos con el FR aumenta en un 100 % (en términos absolutos) respecto de los sin el FR.

TEST CHI-CUADRADO Y TABLAS 22


 O21 O 
Clásica: R  Rˆ  exp   z  22  en h = 0,5.
 O11C1 O12C2 
O C
0R<1 General Rˆ = 11 2 Transversales
p1 O12C1 Prospectivos R̂  O21 O O21O22 
Mejor: R  1  z  22  z2  en h = z / 4
2
R= R=1 O21  O C O C O O C C 

p2 1  z
2 11 1 12 2 11 12 1 2
O11C1
1<R<
(4) Si  1 1 1 1 
ˆ
R̂  O Retrospectivos R  Oˆ  exp   z     en h = 0,5
p < 0,1  O11 O12 O21 O22 
Riesgo relativo (de FR para E): La probabilidad de enfermar es R veces mayor en los individuos con el FR que en los sin el FR.

p1 1  p2  0O<1
ˆ  exp   z 1 
O11O22 Transversales 1 1 1
O= O=1 General Ô = Prospectivos O O     en h = 0,5
p2 1  p1  O12O21 Retrospectivos 

O11 O12 O21 O22 
1<O

Razón del producto cruzado: La fracción de individuos que enferman frente a los que no, es O veces mayor en los individuos con el FR que en los sin el FR.

(1) p1 (p2) = % de enfermos en el grupo con (sin) el FR.


(2) Si alguna Oij = 0, efectuar la estimación para h = 0,5: ver la nota (3) que sigue.
(3) Cuando se indica “en h =” quiere decir que la fórmula se aplica no en base a los datos originales (Oij; Fi; Cj), sino en base a los datos incrementados (Oij+h; Fi +2h; Cj+2h).
(4) p = Prevalencia de la enfermedad (% de enfermos en la población).

23
RESUMEN DEL CAPÍTULO IX

REGRESIÓN LINEAL SIMPLE

9.1 INTRODUCCIÓN
a) Objetivos: Dadas dos variables cuantitativas x e y medidas en los mismos in-
dividuos, la técnica de regresión puede perseguir tres objetivos:
i) Estudiar si ambas variables están relacionadas o si son independientes.
ii) Estudiar el tipo de relación que las liga (si existe).

TEST CHI-CUADRADO Y TABLAS 22


iii) Predecir los valores de una de ellas a partir de los de la otra.
b) Relaciones deterministas y aleatorias: En las Ciencias Exactas la relación
entre dos variables es determinista (conocido el valor de una de ellas se co-
noce exactamente el de la otra), pero en las Ciencias de la Salud la relación es
aleatoria (conocido el valor de una variable se conoce el de la otra sólo de un
modo aproximado). Ello sucede por dos causas:
i) La variabilidad biológica de los individuos a estudiar.
ii) La variabilidad aleatoria de los métodos utilizados al medir las dos varia-
bles implicadas.
c) Sobre la existencia de regresión: Dadas n parejas de valores (xi; yi) obteni-
dos de una muestra, su representación por puntos en el plano cartesiano da
lugar a una nube de puntos. Si a ella se ajusta alguna curva, se dice que existe
regresión, a la curva se le llama línea de regresión y a la función que la re-
presenta se le llama función de regresión. A la variable ubicada en el eje
horizontal (usualmente x) se le llama variable independiente o controlada; a
la ubicada en el eje vertical (usualmente y) se le llama variable dependiente.
d) Tipos de regresión:
i) Regresión lineal simple (la de este capítulo): Si hay solo dos variables, x
e y, relacionadas entre sí mediante una línea recta.
ii) Regresión curvilínea: Si hay sólo dos variables, x e y, relacionadas entre
sí mediante una línea curva.

23
iii) Regresión múltiple: Si hay una variable objetivo y a relacionar con más
de una variable de apoyo x1, x2, …
e) Asociación y causalidad: La demostración estadística de que dos variables
están asociadas no constituye una prueba de que una de ellas sea causa de la
otra. Puede ocurrir:
i) Que x sea realmente la causa de y.
ii) Que ambas variables se influyan mutuamente.
iii) Que ambas variables dependan de una causa común (una tercera variable
z no contemplada).

24
REGRESIÓN LINEAL SIMPLE 25

9.2 MODELO DE REGRESIÓN LINEAL SIMPLE Y SUS CONSE-


CUENCIAS
a) Modelo: Para cada valor de x, la variable y sigue una distribución Normal de
media x = +x y de varianza 2 constante (independiente de x). A x =
+x se le llama recta de regresión poblacional, a  altura en el origen po-
blacional (altura en que corta la recta al eje vertical, es decir cuando x = 0), a
 pendiente poblacional (lo que aumenta la media de y cuando x aumenta en
una unidad) y a 2 varianza de regresión poblacional (variabilidad de y alre-
dedor de la recta de regresión). Las claves del modelo son pues: Normalidad,
linealidad y homogeneidad de varianzas.
Los parámetros poblacionales anteriores se estimarán por sus correspon-
dientes parámetros muestrales ̂ = a (altura en el origen muestral), ̂ = b
(pendiente muestral), ̂ 2 = s2 (varianza de regresión muestral) e ŷ = a+bx
(recta de regresión muestral), en donde el término “muestral” puede susti-
tuirse por “experimental” o por “estimada”.
b) Predicciones y residuales: ŷ = a+bx proporciona la predicción de y en ca-
da valor de x, siendo di = yi ŷi los residuos o residuales (o error de la pre-
dicción).
c) ¿Quién sobre quién?: Los parámetros anteriores se entiende que son ay·x, by·x
y s y2 x por haber sido obtenidos de la regresión de “y sobre x” (y en el eje ver-
tical; x en el horizontal). Los resultados no son los mismos (ax·y, bx·y y sx2 y ) si
en el eje horizontal se pone a la variable y y en el vertical la variable x (regre-
sión de “x sobre y”). Se realizará la regresión de “y sobre x” cuando el objeti-
vo sea predecir y a partir de x.
d) Tipos de muestreo: La obtención de las n parejas (xi; yi) pueden hacerse me-
diante dos tipos de muestreo (es preferible el segundo), siendo la clave que
los valores de yi deben obtenerse siempre al azar:
i) Muestreo de Tipo I: Tomar n individuos al azar y anotar sus valores de x
e y.
ii) Muestreo de Tipo II: Tomar n valores de x elegidos de antemano (que no
tienen porqué ser todos distintos) y obtener un valor de y al azar en cada
uno de ellos.
El muestreo de Tipo I permite hacer las dos regresiones; el de Tipo II
(que es preferible por controlar la variabilidad de los valores xi, que conviene
que sea grande) sólo la de “y sobre x”. La predicción puntual de x en este
último caso se hace por calibración lineal: x̂   y / b    a / b  . En todo ca-
so, las predicciones solo son válidas dentro del rango de muestreo (entre el
valor mínimo y el valor máximo de xi).
e) Comprobación del modelo: Sea la nube de puntos normal que se obtiene al
representar en el plano las n parejas de valores (xi, yi). Sea la nube de puntos
de residuales que se obtiene al representar di = yi ŷi (en el eje vertical) con-
tra ŷi (en el eje horizontal). Las tres condiciones del modelo de regresión se
pueden verificar del siguiente modo (el basado en los residuales es mejor):
i) Normalidad: No se verifica si la variable y es discreta o si el test de Nor-
malidad es significativo al aplicarlo a cada conjunto de observaciones y
en cada x (lo que requiere de un muestreo con observaciones repetidas).
ii) Linealidad: La nube de puntos normal ha de mostrar una tendencia ex-
clusivamente lineal. La de residuales ha de ser paralela al eje horizontal.
Cuando esto no es así, a veces un cambio de escala apropiado puede
convertir la curva en recta (linealización): cambiar x por log x, 1/x,
x , etc. y/o similarmente con y.
iii) Homogeneidad de varianzas: La nube de puntos normal ha de ser ovala-
da, sin mostrar tendencia a ser más ancha o más estrecha con el aumento
de x. La de residuales igual con el aumento de ŷ .
9.3 ESTIMACIÓN DE LOS PARÁMETROS DEL MODELO DE RE-
GRESIÓN LINEAL
Si (xi; yi), con i = 1, 2, ..., n, son n parejas de valores de (x; y) obtenidos por

TEST CHI-CUADRADO Y TABLAS 22


alguno de los tipos de muestreo anteriores, los estimadores a de  y b de  que
dan lugar a la recta de regresión estimada ŷ = a+bx se determinan por el princi-
pio de los mínimos cuadrados, es decir haciendo que la suma de los cuadrados
de las diferencias entre lo real (y) y lo estimado ( ŷ ) -(yi ŷ )2= (yiabxi)2-
sea lo más pequeña posible. El criterio ocasiona que tales estimadores y el esti-
mador s2 de 2 sean:
 xy  , a = y  bx y 2 1   xy   
b= s   yy   
 xx  n2  xx) 
con:
 Σxi 
2
2
(xx) = (xi x ) =  xi 
2

n
 Σyi 
2

(yy) = (yi y )2 =  yi2 


n
(xy) = (xi x )(yi y ) = xiyi 
 Σxi  Σyi 
n
en donde la segunda expresión es la definición, la tercera su método abreviado
de cálculo y la primera su símbolo corto para referencias.

23
9.4 INFERENCIAS EN REGRESIÓN LINEAL SIMPLE
En los dos casos que siguen, t se busca en la Tabla 3 con (n2) g1:
s2
a) Intervalo de confianza para la pendiente:   b  t .
 xx 
b) Test de independencia (H0:  = 0): Si la relación es lineal, comparar texp =

b
 xx  vs. t.
s2

26
CORRELACIÓN 27

RESUMEN DEL CAPÍTULO X


CORRELACIÓN
10.1 INTRODUCCIÓN
a) Objetivos: Dadas dos variables cuantitativas x e y cuyos valores (xi; yi) se
miden en los n individuos de una muestra, con i = 1,..., n, se trata de:
i) Medir la fuerza con ambas variables que están relacionadas: mediante el
coeficiente de correlación.
ii) Realizar el test de independencia entre ambas: mediante el contraste de
H0: “x e y son independientes” vs. H1: “x e y son dependientes”.
b) Muestreo válido:
i) Para medir la fuerza: de Tipo I (los valores xi e yi se eligen al azar).
ii) Para el test de independencia: de Tipo I o de Tipo II (los valores de xi o yi
están dados de antemano).
10.2 COEFICIENTE DE CORRELACIÓN LINEAL SIMPLE (O DE
PEARSON): CORRELACIÓN PARAMÉTRICA
a) Modelo, comprobación del modelo y valores de (xx), (xy) e (yy): Como en
los Resúmenes 9.2.a) y e) y 9.3.
b) Estimación: La fuerza con que las dos variables están ligadas se mide me-
diante el coeficiente de correlación poblacional (lineal simple) , el cual se
estima (en el muestreo I) por el coeficiente de correlación muestral ( ̂ = r):

r
 xy  .
 xx  yy 
c) Propiedades de  (lo que sigue es válido también para r):
i) 1    +1 es un número adimensional que no depende de las unidades
de medida ni del orden en que se enuncien las variables (xy=yx).
ii) 2 es la proporción de la variabilidad total de y que está explicada por su
regresión lineal en x (el resto, 12, es la parte no explicada que depende
de otras variables no contempladas en el problema).
iii) El valor absoluto  mide la fuerza de relación entre x e y (a más 
más fuerza), en tanto que el signo de  indica el sentido de la misma: po-
sitiva si  > 0 (a más x, más y), negativa si  < 0 (a más x, menos y) o nu-
la (es decir, x e y son independientes) si  = 0.
iv) Cuanto más aplastada es una nube de puntos respecto de una misma recta
de regresión, más grande es . Cuando tiene forma circular o es para-
lela a uno de los ejes entonces  = 0.
d) Test de independencia entre x e y (H0:  = 0): Cualquiera que sea el mues-
treo utilizado, comparar (test idéntico al del Resumen 9.4.b):
 n   r 2
texp = vs. t (n2 gl) de la Tabla 3
1 r2
e) ¿Regresión o correlación? Dadas dos variables (x, y) se utilizará la técnica
de correlación si el único objetivo es saber si ambas están relacionadas y con
qué fuerza. Se utilizará la técnica de regresión si lo que se desea es saber si
están relacionadas y efectuar predicciones de una variable a partir de la otra.
Es muy habitual simultanear ambos resultados.
28 CORRELACIÓN

10.3 COEFICIENTE DE CORRELACIÓN DE SPEARMAN: CORRE-


LACIÓN NO PARAMÉTRICA
a) Objetivo: Medir la asociación entre dos variables cuantitativas cualesquiera.
b) Modelo: Las dos variables pueden ser cualesquiera, pero la asociación entre
las mismas ha de ser monotónica (una variable siempre crece o siempre de-
crece con la otra), lo que puede comprobarse a través de la nube de puntos.
c) Estimación: La fuerza de la asociación la mide el coeficiente de correlación
poblacional de Spearman S, el cual se estima (en el muestreo I) por el coefi-
ciente de correlación muestral ̂ S = rS que se obtiene como sigue:
(1) Obtener una muestra de n parejas de valores (xi; yi).
(2) Ordenar de menor a mayor los valores de xi y asignarles rangos Ri como en
el Resumen 7.4.a).
(3) Proceder igual con los valores de yi asignándoles rangos Ri .
(4) Anotar las parejas (Ri; Ri ) correspondientes a las parejas (xi; yi) originales,
comprobando que Ri =  Ri = n(n+1)/2.
(5) Obtener el coeficiente de correlación lineal simple para las n parejas de ran-
gos, es decir, y con igual convenio que en el Resumen 9.3,

rS 
 RR 
 RR  RR 
Cuando no hay empates, la fórmula anterior se simplifica en la siguiente:
  Ri  Ri
2

rS = 1  6 
 n  1 n  n+1
d) Propiedades: Como en el Resumen 10.2.c), pero relativas a los rangos.
e) Test de independencia entre x e y (H0: S = 0): con cualquier muestreo:
i) Si n  30: Comparar rS con r de la Tabla 10 por el modo allí indicado.
ii) Si n > 30: Comparar con z de la Tabla 1 la cantidad zexp = rS n  1 .
10.4 TEST DE INDEPENDENCIA CON VARIABLES MIXTAS (H0: Los
valores de un individuo con respecto a una variable cuantitativa x son in-
dependientes de la clase a que este pertenece respecto de una cualidad C).
Sea x una variable cuantitativa cualquiera y C una cualidad con s clases. Si
se toma una muestra de n individuos se obtendrán n parejas de valores (x; C) a
partir de las cuales hay que contrastar H0. Los métodos para ello son:
a) Si C es una cualidad ordinal: Convertir la cualidad en cantidad (asignándo-
le a sus clases valores cuantitativos arbitrarios y por el método del Resumen
8.3) y aplicar a las parejas (xi; yi) así obtenidas los Resúmenes 10.2 o 10.3.
b) Si C es una cualidad no ordinal:
i) Si s = 2: Comparar los valores medios de x (1 y 2) en las dos clases de
C por el procedimiento de los Resúmenes 7.2.a), 7.3.a) o 7.4.b).
ii) Si s > 2: Comparar los valores medios de x (1, 2, ..., s) en las s clases de
C por el procedimiento del análisis de la varianza (no contemplado en es-
tos Resúmenes). Alternativamente, convertir la cantidad x en cualidad
(definiendo r intervalos de clase arbitrarios), formar la tabla contingencia
rs que ello produce y analizarla por la técnica de 2 del Resumen 8.1
(aunque ello conlleva una gran pérdida de potencia).

28
TABLAS 29

TABLAS DE BIOESTADÍSTICA
Pág.
Tabla 1 .... Distribución Normal típica (dos colas) ............................... 30
Tabla 2 .... 2.500 números aleatorios ..................................................... 31
Tabla 3 .... Distribución t de Student ...................................................... 32
Tabla 4 .... Límites de significación para el test de Normalidad de
D’Agostino ........................................................................... 33
Tabla 5 .... Distribución F de Snedecor .................................................. 34
Tabla 6 .... Límites de significación para el test de Wilcoxon
(dos muestras independientes) ............................................. 35
Tabla 7 .... Límites de significación para el test de Wilcoxon
(dos muestras apareadas) ...................................................... 36
Tabla 8 .... Distribución de Bonferroni .................................................. 37
Tabla 9 .... Distribución  .....................................................................
2
38
Tabla 10 .... Límites de significación para el coeficiente de correlación
de Spearman ......................................................................... 39

REFERENCIAS

D'Agostino, R.B. and Stephens, M.A. (Eds) (1986). Goodness-of-fit Techniques. Marcel
Dekker, Inc. New York.
Glasser, G.J. and Winter, R.E. (1961). Critical values of the coefficient of rank correla-
tion for testing the hypothesis of independence. Biometrika 48, 444-448.
Ríos, S. (1967). Métodos estadísticos. Ediciones del Castillo. Madrid.
Tukey, J.W. (1949). The simplest signed rank tests. Memorandum report nº 17 Statisti-
cal Research group. Princeton. New Jersey.
White, C. (1952). The use of ranks in a test of significance for comparing two treat-
ments. Biometrics 8, 33-40.
30 TABLAS

Tabla 1
Distribución Normal típica (dos colas)

/2 /2

 z 0  z

 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0  2,576 2,326 2,170 2,054 1,960 1,881 1,812 1,751 1,695
0,1 1,645 1,598 1,555 1,514 1,476 1,440 1,405 1,372 1,341 1,311
0,2 1,282 1,254 1,227 1,200 1,175 1,150 1,126 1,103 1,080 1,058
0,3 1,036 1,015 0,994 0,974 0,954 0,935 0,915 0,896 0,878 0,860
0,4 0,842 0,824 0,806 0,789 0,772 0,755 0,739 0,722 0,706 0,690
0,5 0,674 0,659 0,643 0,628 0,613 0,598 0,583 0,568 0,553 0,539
0,6 0,524 0,510 0,496 0,482 0,468 0,454 0,440 0,426 0,412 0,399
0,7 0,385 0,372 0,358 0,345 0,332 0,319 0,305 0,292 0,279 0,266
0,8 0,253 0,240 0,228 0,215 0,202 0,189 0,176 0,164 0,151 0,138
0,9 0,126 0,113 0,100 0,088 0,075 0,063 0,050 0,038 0,025 0,013

Tabla para los pequeños valores de 


 0,002 0,001 0,000 1 0,000 01 0,000 001 0,000 000 1
z 3,090 3,290 3,891 4,417 4,892 5,327

Nota: Para cada valor de  (en el caso de la tabla principal, la suma de la primera columna y de la
primera fila) en el interior de la tabla se da el valor z tal que a la izquierda de  z y a la
derecha de + z hay un área total de .

30
TABLAS 31
Tabla 2
2.500 números aleatorios
0347437386 3696473661 4698637162 3326168045 6011141095
9774246762 4281145720 4253323732 2707360751 2451798973
1676622766 5650267107 3290797853 1355385859 8897541410
1256859926 9696682731 0503729315 5712101421 8826498176
5559563564 3854824622 3162430990 0618443253 2383013030
1622779439 4954435482 1737932378 8735209643 8426349164
8442175331 5724550688 7704744767 2176335025 8392120676
6301637859 1695556719 9810507175 1286735807 4439523879
3321123429 7864560782 5242074438 1551001342 9966027954
5760863244 0947279654 4917460962 9052847727 0802734328
1818079246 4417165809 7983861962 0676500310 5523640505
2662389775 8416074499 8311463224 2014858845 1093728871
2342406474 8297777781 0745321408 3298940772 9385791075
5236281995 5092261197 0056763138 8022025353 8660420453
3785943512 8339500830 4234079688 5442068798 3585294839
7029171213 4033203826 1389510374 1776371304 0774211930
5662183735 9683508775 9712259347 7033240354 9777464480
9949572277 8842954572 1664361600 0443186679 9477242190
1608150472 3327143409 4559346849 1272073445 9927729514
3116933243 5027898719 2015370049 5285666044 3868881180
6834301370 5574307740 4422788426 0433460952 6807970657
7457256576 5929976860 7191386754 1358182476 1554559552
2742378653 4855906572 9657693610 9646924245 9760490491
0039682961 6637322030 7784570329 1045650426 1104966724
2994989424 6849691082 5375919330 3425205727 4048735192
1690826659 8362641112 6719007174 6047212968 0202370331
1127947506 0609197466 0294373402 7670903086 3845943038
3524101620 3332512638 7978450491 1692535616 0275509598
3823168638 4238970150 8775668141 4001749162 4851840832
3196259147 9644334913 3486825391 0052434885 2755268962
5667406714 6405719586 1105650968 7683203790 5716001166
1490844511 7573880590 5227411486 2298122208 0752749580
6805511800 3396027519 0760629355 5933824390 4937384459
2046787390 9751401402 0402333108 3954164936 4795931330
6419589779 1506159320 0190107506 4078788962 0267741733
0526937060 2235851513 9203515977 5956780683 5291057074
0797108823 0998429964 6171629915 0651291693 5805770951
6871868585 5487664754 7332081112 4495926316 2956242948
2699616553 5837788070 4210506742 3217558574 9444671694
1465526875 8759362241 2678630655 1308270150 1529393943
1753775871 7141615072 1241949626 4495273699 0296743083
9026592119 2352233312 9693021839 0702183607 2599327023
4123525599 3104496996 1047484588 1341438920 9717144917
6020508169 3199736868 3581330376 2430124860 1899107234
9125380590 9458284136 4537590309 9035572912 8262546560
3450577437 9880330091 0977931982 7494800404 4507316649
8522043943 7381539479 3362468628 0831544631 5394133847
0979137748 7382972221 0503272483 7289440560 3580399488
8875801814 2295754249 3932822249 0248077037 1604616787
9096237000 3900030690 5585783836 9437306932 9089007633
Nota: Los números pueden seleccionarse en cualquier orden (de izquierda a derecha, de arriba
abajo, ...) y comenzando por cualquier posición.
Ríos (1967)
32 TABLAS

Tabla 3
Distribución t de Student

/2 /2

t 0 t


g.l. 0,50 0,40 0,30 0,20 0,10 0,05 0,02 0,01 0,001

1 1,000 1,376 1,963 3,078 6,314 12,706 31,821 63,656 636,578


2 0,816 1,061 1,386 1,886 2,920 4,303 6,965 9,925 31,600
3 0,765 0,978 1,250 1,638 2,353 3,182 4,541 5,841 12,924
4 0,741 0,941 1,190 1,533 2,132 2,776 3,747 4,604 8,610
5 0,727 0,920 1,156 1,476 2,015 2,571 3,365 4,032 6,869
6 0,718 0,906 1,134 1,440 1,943 2,447 3,143 3,707 5,959
7 0,711 0,896 1,119 1,415 1,895 2,365 2,998 3,499 5,408
8 0,706 0,889 1,108 1,397 1,860 2,306 2,896 3,355 5,041
9 0,703 0,883 1,100 1,383 1,833 2,262 2,821 3,250 4,781
10 0,700 0,879 1,093 1,372 1,812 2,228 2,764 3,169 4,587
11 0,697 0,876 1,088 1,363 1,796 2,201 2,718 3,106 4,437
12 0,695 0,873 1,083 1,356 1,782 2,179 2,681 3,055 4,318
13 0,694 0,870 1,079 1,350 1,771 2,160 2,650 3,012 4,221
14 0,692 0,868 1,076 1,345 1,761 2,145 2,624 2,977 4,140
15 0,691 0,866 1,074 1,341 1,753 2,131 2,602 2,947 4,073
16 0,690 0,865 1,071 1,337 1,746 2,120 2,583 2,921 4,015
17 0,689 0,863 1,069 1,333 1,740 2,110 2,567 2,898 3,965
18 0,688 0,862 1,067 1,330 1,734 2,101 2,552 2,878 3,922
19 0,688 0,861 1,066 1,328 1,729 2,093 2,539 2,861 3,883
20 0,687 0,860 1,064 1,325 1,725 2,086 2,528 2,845 3,850
21 0,686 0,859 1,063 1,323 1,721 2,080 2,518 2,831 3,819
22 0,686 0,858 1,061 1,321 1,717 2,074 2,508 2,819 3,792
23 0,685 0,858 1,060 1,319 1,714 2,069 2,500 2,807 3,768
24 0,685 0,857 1,059 1,318 1,711 2,064 2,492 2,797 3,745
25 0,684 0,856 1,058 1,316 1,708 2,060 2,485 2,787 3,725
26 0,684 0,856 1,058 1,315 1,706 2,056 2,479 2,779 3,707
27 0,684 0,855 1,057 1,314 1,703 2,052 2,473 2,771 3,689
28 0,683 0,855 1,056 1,313 1,701 2,048 2,467 2,763 3,674
29 0,683 0,854 1,055 1,311 1,699 2,045 2,462 2,756 3,660
30 0,683 0,854 1,055 1,310 1,697 2,042 2,457 2,750 3,646
35 0,682 0,852 1,052 1,306 1,690 2,030 2,438 2,724 3,591
40 0,681 0,851 1,050 1,303 1,684 2,021 2,423 2,704 3,551
45 0,680 0,850 1,049 1,301 1,679 2,014 2,412 2,690 3,520
50 0,679 0,849 1,047 1,299 1,676 2,009 2,403 2,678 3,496
60 0,679 0,848 1,045 1,296 1,671 2,000 2,390 2,660 3,460
80 0,678 0,846 1,043 1,292 1,664 1,990 2,374 2,639 3,416
100 0,677 0,845 1,042 1,290 1,660 1,984 2,364 2,626 3,390
 0,674 0,842 1,036 1,282 1,645 1,960 2,326 2,576 3,290

Nota: Para cada valor de los gl (primera columna) y de  (primera fila), en el interior de la tabla
se da el valor t tal que a la izquierda de t y a la derecha de +t queda un área total de .

32
TABLAS 33
Tabla 4
Límites de significación para el test de Normalidad de D’Agostino
 0,20 0,10 0,05 0,02 0, 01
n
10 0,2632 - 0,2835 0,2573 - 0,2843 0,2513 - 0,2849 0,2436 - 0,2855 0,2379 - 0,2857
12 0,2653 - 0,2841 0,2598 - 0,2849 0,2544 - 0,2854 0,2473 - 0,2859 0,2420 - 0,2862
14 0,2669 - 0,2846 0,2618 - 0,2853 0,2568 - 0,2858 0,2503 - 0,2862 0,2455 - 0,2865
16 0,2681 - 0,2848 0,2634 - 0,2855 0,2587 - 0,2860 0,2527 - 0,2865 0,2482 - 0,2867
18 0,2690 - 0,2850 0,2646 - 0,2857 0,2603 - 0,2862 0,2547 - 0,2866 0,2505 - 0,2868
20 0,2699 - 0,2852 0,2657 - 0,2859 0,2617 - 0,2863 0,2564 - 0,2867 0,2525 - 0,2869
22 0,2705 - 0,2853 0,2667 - 0,2860 0,2629 - 0,2864 0,2579 - 0,2869 0,2542 - 0,2870
24 0,2711 - 0,2853 0,2675 - 0,2861 0,2639 - 0,2865 0,2591 - 0,2869 0,2557 - 0,2871
26 0,2717 - 0,2854 0,2682 - 0,2861 0,2647 - 0,2866 0,2603 - 0,2870 0,2570 - 0,2872
28 0,2721 - 0,2854 0,2688 - 0,2861 0,2655 - 0,2866 0,2612 - 0,2870 0,2581 - 0,2873
30 0,2725 - 0,2854 0,2693 - 0,2862 0,2662 - 0,2866 0,2622 - 0,2871 0,2592 - 0,2872
32 0,2729 - 0,2854 0,2698 - 0,2862 0,2668 - 0,2867 0,2630 - 0,2871 0,2600 - 0,2873
34 0,2732 - 0,2854 0,2703 - 0,2862 0,2674 - 0,2867 0,2636 - 0,2871 0,2609 - 0,2873
36 0,2735 - 0,2854 0,2707 - 0,2862 0,2679 - 0,2367 0,2643 - 0,2871 0,2617 - 0,2873
38 0,2738 - 0,2854 0,2710 - 0,2862 0,2683 - 0,2867 0,2649 - 0,2871 0,2623 - 0,2873
40 0,2740 - 0,2854 0,2714 - 0,2862 0,2688 - 0,2867 0,2655 - 0,2871 0,2630 - 0,2874
42 0,2743 - 0,2854 0,2717 - 0,2861 0,2691 - 0,2867 0,2659 - 0,2871 0,2636 - 0,2874
44 0,2745 - 0,2854 0,2720 - 0,2861 0,2695 - 0,2867 0,2664 - 0,2871 0,2641 - 0,2874
46 0,2747 - 0,2854 0,2722 - 0,2861 0,2698 - 0,2866 0,2668 - 0,2871 0,2646 - 0,2874
48 0,2749 - 0,2854 0,2725 - 0,2861 0,2702 - 0,2866 0,2672 - 0,2871 0,2651 - 0,2874
50 0,2751 - 0,2853 0,2727 - 0,2861 0,2705 - 0,2866 0,2676 - 0,2871 0,2655 - 0,2874
60 0,2757 - 0,2852 0,2737 - 0,2860 0,2717 - 0,2865 0,2692 - 0,2870 0,2673 - 0,2873
70 0,2763 - 0,2851 0,2744 - 0,2859 0,2726 - 0,2864 0,2704 - 0,2869 0,2687 - 0,2872
80 0,2768 - 0,2850 0,2750 - 0,2857 0,2734 - 0,2863 0,2713 - 0,2868 0,2698 - 0,2871
90 0,2771 - 0,2849 0,2756 - 0,2856 0,2741 - 0,2861 0,2721 - 0,2866 0,2707 - 0,2870
100 0,2774 - 0,2849 0,2759 - 0,2855 0,2745 - 0,2860 0,2727 - 0,2865 0,2714 - 0,2869
120 0,2779 - 0,2847 0,2765 - 0,2853 0,2752 - 0,2858 0,2737 - 0,2863 0,2725 - 0,2866
140 0,2782 - 0,2846 0,2770 - 0,2852 0,2758 - 0,2856 0,2744 - 0,2862 0,2734 - 0,2865
150 0,2784 - 0,2845 0,2772 - 0,2851 0,2761 - 0,2856 0,2747 - 0,2861 0,2737 - 0,2864
160 0,2785 - 0,2845 0,2774 - 0,2851 0,2763 - 0,2855 0,2750 - 0,2860 0,2741 - 0,2863
180 0,2787 - 0,2844 0,2777 - 0,2850 0,2767 - 0,2854 0,2755 - 0,2859 0,2745 - 0,2862
200 0,2789 - 0,2843 0,2779 - 0,2848 0,2770 - 0,2853 0,2759 - 0,2857 0,2751 - 0,2860
250 0,2793 - 0,2841 0,2784 - 0,2846 0,2776 - 0,2850 0,2767 - 0,2855 0,2760 - 0,2857
300 0,2796 - 0 2840 0,2788 - 0,2844 0,2781 - 0,2847 0,2772 - 0,2853 0,2766 - 0,2855
350 0,2798 - 0:2839 0,2791 - 0,2843 0,2784 - 0,2847 0,2776 - 0,2851 0,2771 - 0,2853
400 0,2799 - 0,2838 0,2793 - 0,2842 0,2787 - 0,2845 0,2780 - 0,2849 0,2775 - 0,2852
450 0,2801 - 0,2837 0,2795 - 0,2841 0,2789 - 0,2844 0,2782 - 0,2848 0,2778 - 0,2850
500 0,2802 - 0,2836 0,2796 - 0,2840 0,2791 - 0,2843 0,2785 - 0,2847 0,2780 - 0,2849
550 0,2803 - 0,2835 0,2797 - 0,2839 0,2792 - 0,2842 0,2787 - 0,2846 0,2782 - 0,2848
600 0,2804 - 0,2835 0,2799 - 0,2839 0,2794 - 0,2842 0,2788 - 0,2845 0,2784 - 0,2847
650 0,2804 - 0,2834 0,2799 - 0,2838 0,2795 - 0,2841 0,2790 - 0,2844 0,2786 - 0,2846
700 0,2805 - 0,2834 0,2800 - 0,2837 0,2796 - 0,2840 0,2791 - 0,2844 0,2787 - 0,2846
750 0,2806 - 0,2834 0,2801 - 0,2837 0,2797 - 0,2840 0,2792 - 0,2843 0,2789 - 0,2845
800 0,2806 - 0,2833 0,2802 - 0,2837 0,2798 - 0,2839 0,2793 - 0,2842 0,2790 - 0,2844
850 0,2807 - 0,2833 0,2802 - 0,2836 0,2799 - 0,2839 0,2794 - 0,2842 0,2791 - 0,2844
900 0,2807 - 0,2833 0,2803 - 0,2836 0,2799 - 0,2838 0,2795 - 0,2841 0,2792 - 0,2843
950 0,2807 - 0,2832 0,2803 - 0,2835 0,2800 - 0,2838 0,2796 - 0,2841 0,2793 - 0,2843
1000 0,2808 - 0,2832 0,2804 - 0,2835 0,2800 - 0,2838 0,2796 - 0,2840 0,2793 - 0,2842
1250 0,2809 - 0,2831 0,2806 - 0,2834 0,2803 - 0,2836 0,2799 - 0,2839 0,2797 - 0,2840
1500 0,2810 - 0,2830 0,2807 - 0,2833 0,2805 - 0,2835 0,2801 - 0,2837 0,2799 - 0,2839
1750 0,2811 - 0,2830 0,2808 - 0,2832 0,2806 - 0,2834 0,2803 - 0,2836 0,2801 - 0,2838
2000 0,2812 - 0,2829 0,2809 - 0,2831 0,2807 - 0,2833 0,2804 - 0,2835 0,2802 - 0,2837

Nota: Para cada tamaño de muestra n (primera columna) y para cada nivel de significación  (primera fila),
en el interior de la tabla se dan dos números (DI - DS) tales que si el estadístico Dexp de D’Agostino
verifica que Dexp  DI o Dexp  DS, entonces se rechaza la hipótesis nula de Normalidad.
D’Agostino and Stephens (1986).
34 TABLAS

Tabla 5: Distribución F de Snedecor 


(a)  = 10% Fα
v1
1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 
v2
1 39,86 49,50 53,59 55,83 57,24 58,20 58,91 59,44 59,86 60,19 60,71 61,22 61,74 62,00 62,26 62,53 62,79 63,06 63,33
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,41 9,42 9,44 9,45 9,46 9,47 9,47 9,48 9,40
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,22 5,20 5,18 5,18 5,17 5,16 5,15 5,14 5,13
4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,90 3,87 3,84 3,83 3,82 3,80 3,79 3,78 3,76
5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,27 3,24 3,21 3,19 3,17 3,16 3,14 3,12 3,10
6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,90 2,87 2,84 2,82 2,80 2,78 2,76 2,74 2,72
7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,67 2,63 2,59 2,58 2,56 2,54 2,51 2,49 2,47
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,50 2,46 2,42 2,40 2,38 2,36 2,34 2,32 2,29
9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,38 2,34 2,30 2,28 2,25 2,23 2,21 2,18 2,16
10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,28 2,24 2,20 2,18 2,16 2,13 2,11 2,08 2,06
11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27 2,25 2,21 2,17 2,12 2,10 2,08 2,05 2,03 2,00 1,97
12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,15 2,10 2,06 2,04 2,01 1,99 1,96 1,93 1,90
13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16 2,14 2,10 2,05 2,01 1,98 1,96 1,93 1,90 1,88 1,85
14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12 2,10 2,05 2,01 1,96 1,94 1,91 1,89 1,86 1,83 1,80
15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 2,02 1,97 1,92 1,90 1,87 1,85 1,82 1,79 1,76
16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06 2,03 1,99 1,94 1,89 1,87 1,84 1,81 1,78 1,75 1,72
17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03 2,00 1,96 1,91 1,86 1,84 1,81 1,78 1,75 1,72 1,69
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00 1,98 1,93 1,89 1,84 1,81 1,78 1,75 1,72 1,69 1,66
19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98 1,96 1,91 1,86 1,81 1,79 1,76 1,73 1,70 1,67 1,63
20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,89 1,84 1,79 1,77 1,74 1,71 1,68 1,64 1,61
21 2,96 2,57 2,36 2,23 2,14 2,08 2,02 1,98 1,95 1,92 1,87 1,83 1,78 1,75 1,72 1,69 1,66 1,62 1,59
22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93 1,90 1,86 1,81 1,76 1,73 1,70 1,67 1,64 1,60 1,57
23 2,94 2,55 2,34 2,21 2,11 2,05 1,99 1,95 1,92 1,89 1,84 1,80 1,74 1,72 1,69 1,66 1,62 1,59 1,55
24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91 1,88 1,83 1,78 1,73 1,70 1,67 1,64 1,61 1,57 1,53
25 2,92 2,53 2,32 2,18 2,09 2,02 1,97 1,93 1,89 1,87 1,82 1,77 1,72 1,69 1,66 1,63 1,59 1,56 1,52
26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88 1,86 1,81 1,76 1,71 1,68 1,65 1,61 1,58 1,54 1,50
27 2,90 2,51 2,30 2,17 2,07 2,00 1,95 1,91 1,87 1,85 1,80 1,75 1,70 1,67 1,64 1,60 1,57 1,53 1,49
28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87 1,84 1,79 1,74 1,69 1,66 1,63 1,59 1,56 1,52 1,48
29 2,89 2,50 2,28 2,15 2,06 1,99 1,93 1,89 1,86 1,83 1,78 1,73 1,68 1,65 1,62 1,58 1,55 1,51 1,47
30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,77 1,72 1,67 1,64 1,61 1,57 1,54 1,50 1,46
40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79 1,76 1,71 1,66 1,61 1,57 1,54 1,51 1,47 1,42 1,38
60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,66 1,60 1,54 1,51 1,48 1,44 1,40 1,35 1,29
120 2,75 2,35 2,13 1,99 1,90 1,82 1,77 1,72 1,68 1,65 1,60 1,55 1,48 1,45 1,41 1,37 1,32 1,26 1,19
 2,71 2,30 2,08 1,94 1,85 1,77 1,72 1,67 1,63 1,60 1,55 1,49 1,42 1,38 1,34 1,30 1,24 1,17 1,00

(b)  = 5%
v1
1 2 3 4 5 6 7 8 9 10 12 15 20 24 30 40 60 120 
v2
1 161,4 199,5 215,7 224,6 230,2 234,0 236,8 238,9 240,5 241,9 243,9 245,9 248,0 249,1 250,1 251,1 252,2 253,3 254,3
2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,41 19,43 19,45 19,45 19,46 19,47 19,48 19,49 19,50
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,70 8,66 8,64 8,62 8,59 8,57 8,55 8,53
4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,97 5,91 5,86 5,80 5,77 5,74 5,72 5,69 5,66 5,63
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,73 4,68 4,62 4,56 4,53 4,50 4,46 4,43 4,40 4,36
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,94 3,87 3,84 3,81 3,77 3,74 3,70 3,67
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,51 3,44 3,41 3,38 3,34 3,31 3,27 3,23
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,22 3,15 3,12 3,08 3,04 3,00 2,97 2,93
9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,01 2,94 2,90 2,86 2,83 2,79 2,75 2,71
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3:07 3,02 2,98 2,91 2,85 2,77 2,74 2,70 2,66 2,62 2,58 2,54
11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,72 2,65 2,61 2,57 2,53 2,49 2,45 2,40
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,54 2,51 2,47 2,43 2,38 2,34 2,30
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,60 2,53 2,46 2,42 2,38 2,34 2,30 2,25 2,21
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,53 2,46 2,39 2,35 2,31 2,27 2,22 2,18 2,13
15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,33 2,29 2,25 2,20 2,16 2,11 2,07
16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,42 2,35 2,28 2,24 2,19 2,15 2,11 2,06 2,01
17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,38 2,31 2,23 2,19 2,15 2,10 2,06 2,01 1,96
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,34 2,27 2,19 2,15 2,11 2,06 2,02 1,97 1,92
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,31 2,23 2,16 2,11 2,07 2,03 1,98 1,93 1,88
20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,12 2,08 2,04 1,99 1,95 1,90 1,84
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,25 2,18 2,10 2,05 2,01 1,96 1,92 1,87 1,81
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,23 2,15 2,07 2,03 1,98 1,94 1,89 1,84 1,78
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,20 2,13 2,05 2,00 1,96 1,91 1,86 1,81 1,76
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30 2,25 2,18 2,11 2,03 1,98 1,94 1,89 1,84 1,79 1,73
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,16 2,09 2,01 1,96 1,92 1,87 1,82 1,77 1,71
26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,15 2,07 1,99 1,95 1,90 1,85 1,80 1,75 1,69
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,13 2,06 1,97 1,93 1,88 1,84 1,79 1,73 1,67
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,12 2,04 1,96 1,91 1,87 1,82 1,77 1,71 1,65
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,10 2,03 1,94 1,90 1,85 1,81 1,75 1,70 1,64
30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,93 1,89 1,84 1,79 1,74 1,68 1,62
40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,00 1,92 1,84 1,79 1,74 1,69 1,64 1,58 1,51
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,75 1,70 1,65 1,59 1,53 1,47 1,39
120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,83 1,75 1,66 1,61 1,55 1,50 1,43 1,35 1,25
 3,84 3,00 2,60 2,37 2,21 2,10 2,01 1,94 1,88 1,83 1,75 1,67 1,57 1,52 1,46 1,39 1,32 1,22 1,00

Nota: Para cada valor de los primeros gl (v1 en la primera fila) y de los segundos gl (v2 en la prime-
ra columna), en el interior de la tabla se da el valor F que deja a su derecha un área de .

34
TABLAS 35
Tabla 6
Límites de significación para el test de Wilcoxon
(dos muestras independientes)
 
n1 , n2 n1 , n2
0,10 0,05 0,01 0,10 0,05 0,01
4, 4 11 - 25 10 - 26 - 7, 18 63 - 119 58 - 124 49 - 133
4, 5 12 - 28 11 - 29 - 7, 19 65 - 124 60 - 129 50 - 139
4, 6 13 - 31 12 - 32 10 - 34 7, 20 67 - 129 62 - 134 52 - 144
4, 7 14 - 34 13 - 35 10 - 38 7, 21 69 - 134 64 - 139 53 - 150
4, 8 15 - 37 14 - 38 11 - 41 7, 22 72 - 138 66 - 144 55 - 155
4, 9 16 - 40 14 - 42 11 - 45 7, 23 74 - 143 68 - 149 57 - 150
4, 10 17 - 43 15 - 45 12 - 48 8, 8 51 - 85 49 - 87 43 - 93
4, 11 18 - 46 16 - 48 12 - 52 8, 9 54 - 90 51 - 93 45 - 99
4, 12 19 - 49 17 - 51 13 - 55 8, 10 56 - 96 53 - 99 47 - 105
4, 13 20 - 52 18 - 54 13 - 59 8, 11 59 - 101 55 - 105 49 - 111
4, 14 21 - 55 19 - 57 14 - 62 8, 12 62 - 106 58 - 110 51 - 117
4, 15 22 - 58 20 - 60 15 - 65 8, 13 64 - 112 60 - 116 53 - 123
4, 16 24 - 60 21 - 63 15 - 69 8, 14 67 - 117 62 - 122 54 - 130
4, 17 25 - 63 21 - 67 16 - 72 8, 15 69 - 123 65 - 127 56 - 136
4, 18 26 - 66 22 - 70 16 - 76 8, 16 72 - 128 67 - 133 58 - 142
4, 19 27 - 69 23 - 73 17 - 79 8, 17 75 - 133 70 - 138 60 - 148
4, 20 28 - 72 24 - 76 18 - 82 8, 18 77 - 139 72 - 144 62 - 154
4, 21 29 - 75 25 - 79 18 - 86 8, 19 80 - 144 74 - 150 64 - 160
4, 22 30 - 78 26 - 82 19 - 89 8, 20 83 - 149 77 - 155 66 - 166
4, 23 31 - 81 27 - 85 19 - 93 8, 21 85 - 155 79 - 161 68 - 172
4, 24 32 - 84 27 - 89 20 - 96 8, 22 88 - 160 81 - 167 70 - 178
4, 25 33 - 87 28 - 92 20 - 100
4, 26 34 - 90 29 - 95 21 - 103 9, 9 66 - 105 62 - 109 56 - 115
5, 5 19 - 36 17 - 38 15 - 40 9, 10 69 - 111 65 - 115 58 - 122
5, 6 20 - 40 18 - 42 16 - 44 9, 11 72 - 117 68 - 121 61 - 128
5, 7 21 - 44 20 - 45 16 - 49 9, 12 75 - 123 71 - 127 63 - 135
5, 8 23 - 47 21 - 49 17 - 53 9, 13 78 - 129 73 - 134 65 - 142
5, 9 24 - 51 22 - 53 18 - 57 9, 14 81 - 135 76 - 140 67 - 149
5, 10 26 - 54 23 - 57 19 - 61 9, 15 84 - 141 79 - 146 69 - 156
5, 11 27 - 58 24 - 61 20 - 65 9, 16 87 - 147 82 - 152 72 - 162
5, 12 28 - 62 26 - 64 21 - 69 9, 17 90 - 153 84 - 159 74 - 169
5, 13 30 - 65 27 - 68 22 - 73 9, 18 93 - 159 87 - 165 76 - 176
5, 14 31 - 69 28 - 72 22 - 78 9, 19 96 - 165 90 - 171 78 - 183
5, 15 33 - 72 29 - 76 23 - 82 9, 20 99 - 171 93 - 177 81 - 189
5, 16 34 - 76 30 - 80 24 - 86 9, 21 102 - 177 95 - 184 83 - 196
5, 17 35 - 80 32 - 83 25 - 90 10, 10 82 - 128 78 - 132 71 - 139
5, 18 37 - 83 33 - 87 26 - 94 10, 11 86 - 134 81 - 139 73 - 147
5, 19 38 - 87 34 - 91 27 - 98 10, 12 89 - 141 84 - 146 76 - 154
5, 20 40 - 90 35 - 95 28 - 102 10, 13 92 - 148 88 - 152 79 - 161
5, 21 41 - 94 37 - 98 29 - 106 10, 14 96 - 154 91 - 159 81 - 169
5, 22 43 - 97 38 - 102 29 - 111 10, 15 99 - 161 94 - 166 84 - 176
5, 23 44 - 101 39 - 106 30 - 115 10, 16 103 - 167 97 - 173 86 - 184
5, 24 45 - 105 40 - 110 31 - 119 10, 17 106 - 174 100 - 180 89 - 191
5, 25 47 - 108 42 - 113 32 - 123 10, 18 110 - 180 103 - 187 92 - 198
6, 6 28 - 50 26 - 52 23 - 55 10, 19 113 - 187 107 - 193 94 - 206
6, 7 29 - 55 27 - 57 24 - 60 10, 20 117 - 193 110 - 200 97 - 213
6, 8 31 - 59 29 - 61 25 - 65 11, 11 100 - 153 96 - 157 87 - 166
6, 9 33 - 63 31 - 65 26 - 70 11, 12 104 - 160 99 - 165 90 - 174
6, 10 35 - 67 32 - 70 27 - 75 11, 13 108 - 167 103 - 172 93 - 182
6, 11 37 - 71 34 - 74 28 - 80 11, 14 112 - 174 106 - 180 96 - 190
6, 12 38 - 76 35 - 79 30 - 84 11, 15 116 - 181 110 - 187 99 - 198
6, 13 40 - 80 37 - 83 31 - 89 11, 16 120 - 188 113 - 195 102 - 206
6, 14 42 - 84 38 - 88 32 - 94 11, 17 123 - 196 117 - 202 105 - 214
6, 15 44 - 88 40 - 92 33 - 99 11, 18 127 - 203 121 - 209 108 - 222
6, 16 46 - 92 42 - 96 34 - 104 11, 19 131 - 210 124 - 217 111 - 230
6, 17 47 - 97 43 - 101 36 - 108
6, 18 49 - 101 45 - 105 37 - 113 12, 12 120 - 180 115 - 185 105 - 195
6, 19 51 - 105 46 - 110 38 - 118 12, 13 125 - 187 119 - 193 109 - 203
6, 20 53 - 109 48 - 114 39 - 123 12, 14 129 - 195 123 - 201 112 - 212
6, 21 55 - 113 50 - 118 40 - 128 12, 15 133 - 203 127 - 209 115 - 221
6, 22 57 - 117 51 - 123 42 - 132 12, 16 138 - 210 131 - 217 119 - 229
6, 23 58 - 122 53 - 127 43 - 137 12, 17 142 - 218 135 - 225 122 - 238
6, 24 60 - 126 54 - 132 44 - 142 12, 18 146 - 226 139 - 233 125 - 247
7, 7 39 - 66 36 - 69 32 - 73 13, 13 142 - 209 136 - 215 125 - 226
7, 8 41 - 71 38 - 74 34 - 78 13, 14 147 - 217 141 - 223 129 - 235
7, 9 43 - 76 40 - 79 35 - 84 13, 15 152 - 225 145 - 232 133 - 244
7, 10 45 - 81 42 - 84 37 - 89 13, 16 156 - 234 150 - 240 136 - 254
7, 11 47 - 86 44 - 89 38 - 95 13, 17 161 - 242 154 - 249 140 - 263
7, 12 49 - 91 46 - 94 40 - 100 14, 14 166 - 240 160 - 246 147 - 259
7, 13 52 - 95 48 - 99 41 - 106 14, 15 171 - 249 164 - 256 151 - 269
7, 14 54 - 100 50 - 104 43 - 111 14, 16 176 - 258 169 - 265 155 - 279
7, 15 56 - 105 52 - 109 44 - 117
7, 16 58 - 110 54 - 114 46 - 122 15, 15 191 - 274 184 - 281 171 - 294
7, 17 61 - 114 56 - 119 47 - 128
Nota: Para cada pareja de tamaños de muestra n1 (primera columna) y n2 (segunda columna), y para cada ni-
vel de significación  (primera fila), en el interior de la tabla se dan dos números (RI - RS) tales que si
la suma de los rangos Rexp de la muestra de menor tamaño verifica que Rexp  RI o Rexp  RS, entonces
se rechaza la hipótesis nula de homogeneidad de ambas muestras. La falta de límites se indica con un
guión (-). White (1952).
36 TABLAS

Tabla 7
Límites de significación para el test de Wilcoxon
(dos muestras apareadas)

 0,10 0,05 0,01


n

5 0 - 15 - -
6 2 - 19 0 - 21 -
7 3 - 25 2 - 26 -
8 5 - 31 3 - 33 0 - 36
9 8 - 37 5 - 40 1 - 44

10 10 - 45 8 - 47 3 - 52
11 13 - 53 10 - 56 5 - 61
12 17 - 61 13 - 65 7 - 71
13 21 - 70 17 - 74 9 - 82
14 25 - 80 21 - 84 12 - 93

15 30 - 90 25 - 95 15 - 105
16 35 - 101 29 - 107 19 - 117
17 41 - 112 34 - 119 23 - 130
18 47 - 124 40 - 131 27 - 144
19 53 - 137 46 - 144 32 - 158

20 60 - 150 52 - 158 37 - 173


21 67 - 164 58 - 173 42 - 189
22 75 - 178 66 - 187 48 - 205
23 83 - 193 73 - 203 54 - 222
24 91 - 209 81 - 219 61 - 239

25 100 - 225 89 - 236 68 - 257

Nota: Para cada valor del número n de parejas de datos (primera columna) y para cada nivel de
significación  (primera fila), en el interior de la tabla se dan dos números (RI - RS) tales
que si la suma de los rangos positivos R(+) verifica que R(+)  RI o R(+)  RS, entonces se
rechaza la hipótesis nula de homogeneidad de ambas muestras. El test puede hacerse tam-
bién con la suma de los rangos negativos R(). La falta de límites se indica con un guión
(-).
Tukey (1949).

36
TABLAS 37
Tabla 8: Distribución de Bonferroni
K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50
f
02 2,92 4,30 5,34 6,21 6,96 7,65 8,28 8,86 9,41 9,92 12,19 14,09 15,76 17,28 18,67 19,96 21,18 22,33
03 2,35 3,18 3,74 4,18 4,54 4,86 5,14 5,39 5,63 5,84 6,74 7,45 8,05 8,58 9,04 9,46 9,85 10,21
04 2,13 2,78 3,19 3,50 3,75 3,96 4,15 4,31 4,47 4,60 5,17 5,60 5,95 6,25 6,52 6,76 6,97 7,17
05 2,02 2,57 2,91 3,16 3,36 3,53 3,68 3,81 3,93 4,03 4,46 4,77 5,03 5,25 5,44 5,60 5,76 5,89
06 1,94 2,45 2,75 2,97 3,14 3,29 3,41 3,52 3,62 3,71 4,06 4,32 4,52 4,70 4,85 4,98 5,10 5,21
07 1,89 2,36 2,64 2,84 3,00 3,13 3,24 3,34 3,42 3,50 3,81 4,03 4,21 4,36 4,48 4,59 4,69 4,79
08 1,86 2,31 2,57 2,75 2,90 3,02 3,12 3,21 3,28 3,36 3,63 3,83 3,99 4,12 4,23 4,33 4,42 4,50
09 1,83 2,26 2,51 2,69 2,82 2,93 3,03 3,11 3,18 3,25 3,51 3,69 3,83 3,95 4,06 4,15 4,23 4,30
10 1,81 2,23 2,47 2,63 2,76 2,87 2,96 3,04 3,11 3,17 3,41 3,58 3,72 3,83 3,92 4,00 4,08 4,14
11 1,80 2,20 2,43 2,59 2,72 2,82 2,91 2,98 3,05 3,11 3,33 3,50 3,62 3,73 3,82 3,89 3,96 4,02
12 1,78 2,18 2,40 2,56 2,68 2,78 2,86 2,93 3,00 3,05 3,27 3,43 3,55 3,65 3,73 3,81 3,87 3,93
13 1,77 2,16 2,38 2,53 2,65 2,75 2,83 2,90 2,96 3,01 3,22 3,37 3,49 3,58 3,66 3,73 3,80 3,85
14 1,76 2,14 2,36 2,51 2,62 2,72 2,80 2,86 2,92 2,98 3,18 3,33 3,44 3,53 3,61 3,67 3,73 3,79 =10%
15 1,75 2,13 2,34 2,49 2,60 2,69 2,77 2,84 2,89 2,95 3,15 3,29 3,39 3,48 3,56 3,62 3,68 3,73
16 1,75 2,12 2,33 2,47 2,58 2,67 2,75 2,81 2,87 2,92 3,12 3,25 3,36 3,44 3,52 3,58 3,64 3,69
17 1,74 2,11 2,32 2,46 2,57 2,65 2,73 2,79 2,85 2,90 3,09 3,22 3,33 3,41 3,48 3,54 3,60 3,65
18 1,73 2,10 2,30 2,45 2,55 2,64 2,71 2,77 2,83 2,88 3,07 3,20 3,30 3,38 3,45 3,51 3,56 3,61
19 1,73 2,09 2,29 2,43 2,54 2,63 2,70 2,76 2,81 2,86 3,04 3,17 3,27 3,35 3,42 3,48 3,53 3,58
20 1,72 2,09 2,29 2,42 2,53 2,61 2,68 2,74 2,80 2,85 3,03 3,15 3,25 3,33 3,40 3,46 3,51 3,55
24 1,71 2,06 2,26 2,39 2,49 2,57 2,64 2,70 2,75 2,80 2,97 3,09 3,18 3,26 3,32 3,38 3,42 3,47
30 1,70 2,04 2,23 2,36 2,46 2,54 2,60 2,66 2,71 2,75 2,92 3,03 3,12 3,19 3,25 3,30 3,35 3,39
40 1,68 2,02 2,20 2,33 2,42 2,50 2,56 2,62 2,66 2,70 2,86 2,97 3,05 3,12 3,18 3,23 3,27 3,31
60 1,67 2,00 2,18 2,30 2,39 2,46 2,52 2,58 2,62 2,66 2,81 2,91 2,99 3,06 3,11 3,16 3,20 3,23
120 1,66 1,98 2,15 2,27 2,36 2,43 2,49 2,54 2,58 2,62 2,76 2,86 2,93 3,00 3,05 3,09 3,13 3,16
 1,64 1,96 2,13 2,24 2,33 2,39 2,45 2,50 2,54 2,58 2,71 2,81 2,88 2,94 2,98 3,02 3,06 3,09

K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50
f
02 4,30 6,21 7,65 8,86 9,92 10,89 11,77 12,59 13,36 14,09 17,28 19,96 22,33 24,47 26,43 28,26 29,97 31,60
03 3,18 4,18 4,86 5,39 5,84 6,23 6,58 6,90 7,18 7,45 8,58 9,46 10,21 10,87 11,45 11,98 12,47 12,92
04 2,78 3,50 3,96 4,31 4,60 4,85 5,07 5,26 5,44 5,60 6,25 6,76 7,17 7,53 7,84 8,12 8,38 8,61
05 2,57 3,16 3,53 3,81 4,03 4,22 4,38 4,53 4,66 4,77 5,25 5,60 5,89 6,14 6,35 6,54 6,71 6,87
06 2,45 2,97 3,29 3,52 3,71 3,86 4,00 4,12 4,22 4,32 4,70 4,98 5,21 5,40 5,56 5,71 5,84 5,96
07 2,36 2,84 3,13 3,34 3,50 3,64 3,75 3,86 3,95 4,03 4,36 4,59 4,79 4,94 5,08 5,20 5,31 5,41
08 2,31 2,75 3,02 3,21 3,36 3,48 3,58 3,68 3,76 3,83 4,12 4,33 4,50 4,64 4,76 4,86 4,96 5,04
09 2,26 2,69 2,93 3,11 3,25 3,36 3,46 3,55 3,62 3,69 3,95 4,15 4,30 4,42 4,53 4,62 4,71 4,78
10 2,23 2,63 2,87 3,04 3,17 3,28 3,37 3,45 3,52 3,58 3,83 4,00 4,14 4,26 4,36 4,44 4,52 4,59
11 2,20 2,59 2,82 2,98 3,11 3,21 3,29 3,37 3,44 3,50 3,73 3,89 4,02 4,13 4,22 4,30 4,37 4,44
12 2,18 2,56 2,78 2,93 3,05 3,15 3,24 3,31 3,37 3,43 3,65 3,81 3,93 4,03 4,12 4,19 4,26 4,32
13 2,16 2,53 2,75 2,90 3,01 3,11 3,19 3,26 3,32 3,37 3,58 3,73 3,85 3,95 4,03 4,10 4,16 4,22
14 2,14 2,51 2,72 2,86 2,98 3,07 3,15 3,21 3,27 3,33 3,53 3,67 3,79 3,88 3,96 4,03 4,09 4,14  = 5%
15 2,13 2,49 2,69 2,84 2,95 3,04 3,11 3,18 3,23 3,29 3,48 3,62 3,73 3,82 3,90 3,96 4,02 4,07
16 2,12 2,47 2,67 2,81 2,92 3,01 3,08 3,15 3,20 3,25 3,44 3,58 3,69 3,77 3,85 3,91 3,96 4,01
17 2,11 2,46 2,65 2,79 2,90 2,98 3,06 3,12 3,17 3,22 3,41 3,54 3,65 3,73 3,80 3,86 3,92 3,97
18 2,10 2,45 2,64 2,77 2,88 2,96 3,03 3,09 3,15 3,20 3,38 3,51 3,61 3,69 3,76 3,82 3,87 3,92
19 2,09 2,43 2,63 2,76 2,86 2,94 3,01 3,07 3,13 3,17 3,35 3,48 3,58 3,66 3,73 3,79 3,84 3,88
20 2,09 2,42 2,61 2,74 2,85 2,93 3,00 3,06 3,11 3,15 3,33 3,46 3,55 3,63 3,70 3,75 3,80 3,85
24 2,06 2,39 2,57 2,70 2,80 2,88 2,94 3,00 3,05 3,09 3,26 3,38 3,47 3,54 3,60 3,66 3,70 3,75
30 2,04 2,36 2,54 2,66 2,75 2,82 2,89 2,94 2,99 3,03 3,19 3,30 3,39 3,45 3,51 3,56 3,61 3,65
40 2,02 2,33 2,50 2,62 2,70 2,78 2,84 2,89 2,93 2,97 3,12 3,23 3,31 3,37 3,43 3,47 3,51 3,55
60 2,00 2,30 2,46 2,58 2,66 2,73 2,79 2,83 2,88 2,91 3,06 3,16 3,23 3,29 3,34 3,39 3,43 3,46
120 1,98 2,27 2,43 2,54 2,62 2,68 2,74 2,78 2,82 2,86 3,00 3,09 3,16 3,22 3,26 3,31 3,34 3,37
 1,96 2,24 2,39 2,50 2,58 2,64 2,69 2,73 2,77 2,81 2,94 3,02 3,09 3,14 3,19 3,23 3,26 3,29
K 1 2 3 4 5 6 7 8 9 10 15 20 25 30 35 40 45 50
f
02 9,92 14,09 17,28 19,96 22,33 24,47 26,43 28,26 29,97 31,60 38,71 44,70 49,99 54,76 59,16 63,26 67,06 70,71
03 5,84 7,45 8,58 9,46 10,21 10,87 11,45 11,98 12,47 12,92 14,82 16,33 17,60 18,71 19,71 20,60 21,44 22,20
04 4,60 5,60 6,25 6,76 7,17 7,53 7,84 8,12 8,38 8,61 9,57 10,31 10,92 11,44 11,90 12,31 12,68 13,04
05 4,03 4,77 5,25 5,60 5,89 6,14 6,35 6,54 6,71 6,87 7,50 7,98 8,36 8,69 8,98 9,23 9,47 9,68
06 3,71 4,32 4,70 4,98 5,21 5,40 5,56 5,71 5,84 5,96 6,43 6,79 7,07 7,32 7,52 7,71 7,87 8,02
07 3,50 4,03 4,36 4,59 4,79 4,94 5,08 5,20 5,31 5,41 5,80 6,08 6,31 6,50 6,67 6,81 6,95 7,06
08 3,36 3,83 4,12 4,33 4,50 4,64 4,76 4,86 4,96 5,04 5,37 5,62 5,81 5,97 6,11 6,23 6,34 6,44
09 3,25 3,69 3,95 4,15 4,30 4,42 4,53 4,62 4,71 4,78 5,08 5,29 5,46 5,60 5,72 5,83 5,93 6,01
10 3,17 3,58 3,83 4,00 4,14 4,26 4,36 4,44 4,52 4,59 4,85 5,05 5,20 5,33 5,44 5,53 5,62 5,69
11 3,11 3,50 3,73 3,89 4,02 4,13 4,22 4,30 4,37 4,44 4,68 4,86 5,00 5,12 5,22 5,31 5,38 5,45
12 3,05 3,43 3,65 3,81 3,93 4,03 4,12 4,19 4,26 4,32 4,55 4,72 4,85 4,96 5,05 5,13 5,20 5,26
13 3,01 3,37 3,58 3,73 3,85 3,95 4,03 4,10 4,16 4,22 4,44 4,60 4,72 4,82 4,91 4,98 5,05 5,11
14 2,98 3,33 3,53 3,67 3,79 3,88 3,96 4,03 4,09 4,14 4,35 4,50 4,62 4,71 4,79 4,86 4,93 4,98  = 1%
15 2,95 3,29 3,48 3,62 3,73 3,82 3,90 3,96 4,02 4,07 4,27 4,42 4,53 4,62 4,70 4,77 4,83 4,88
16 2,92 3,25 3,44 3,58 3,69 3,77 3,85 3,91 3,96 4,01 4,21 4,35 4,45 4,54 4,62 4,68 4,74 4,79
17 2,90 3,22 3,41 3,54 3,65 3,73 3,80 3,86 3,92 3,97 4,15 4,29 4,39 4,48 4,55 4,61 4,66 4,71
18 2,88 3,20 3,38 3,51 3,61 3,69 3,76 3,82 3,87 3,92 4,10 4,23 4,33 4,42 4,49 4,55 4,60 4,65
19 2,86 3,17 3,35 3,48 3,58 3,66 3,73 3,79 3,84 3,88 4,06 4,19 4,28 4,36 4,43 4,49 4,54 4,59
20 2,85 3,15 3,33 3,46 3,55 3,63 3,70 3,75 3,80 3,85 4,02 4,15 4,24 4,32 4,39 4,44 4,49 4,54
24 2,80 3,09 3,26 3,38 3,47 3,54 3,60 3,66 3,70 3,75 3,91 4,02 4,11 4,18 4,24 4,29 4,34 4,38
30 2,75 3,03 3,19 3,30 3,39 3,45 3,51 3,56 3,61 3,65 3,80 3,90 3,98 4,05 4,11 4,15 4,20 4,23
40 2,70 2,97 3,12 3,23 3,31 3,37 3,43 3,47 3,51 3,55 3,69 3,79 3,86 3,92 3,98 4,02 4,06 4,09
60 2,66 2,91 3,06 3,16 3,23 3,29 3,34 3,39 3,43 3,46 3,59 3,68 3,75 3,81 3,85 3,89 3,93 3,96
120 2,62 2,86 3,00 3,09 3,16 3,22 3,26 3,31 3,34 3,37 3,49 3,58 3,64 3,69 3,74 3,78 3,81 3,84
 2,58 2,81 2,94 3,02 3,09 3,14 3,19 3,23 3,26 3,29 3,40 3,48 3,54 3,59 3,63 3,66 3,69 3,72
Nota: Para cada nivel de significación  (a la derecha de cada tabla), grados de libertad f (primera
columna) y número K de comparaciones (primera fila), en el interior de la tabla se da el va-
lor t/K de una distribución t de Student (con f gl) tal que a la izquierda de  t/K y a la de-
recha de + t/K queda un área total de /K. Cuando f = , t/K es el valor z/K de la Tabla 1.
38 BIOESTADÍSTICA para las Ciencias de la Salud (+)

Tabla 9
Distribución 2

χ α2


0,200 0,100 0,050 0,025 0,010 0,005 0,001
gl
1 1,642 2,706 3,842 5,024 6,637 7,905 10,808
2 3,219 4,604 5,995 7,379 9,220 10,589 13,690
3 4,642 6,252 7,817 9,356 11,325 12,819 16,291
4 5,989 7,782 9,492 11,150 13,280 14,824 18,431
5 7,291 9,237 11,073 12,838 15,087 16,762 20,750
6 8,559 10,646 12,596 14,459 16,810 18,549 22,676'
7 9,804 12,020 14,070 16,020 18,470 20,270 24,526
8 11,031 13,363 15,512 17,546 20,082 21,938 26,317
9 12,243 14,686 16,925 19,031 21,654 23,563 28,059
10 13,443 15,990 18,311 20,495 23,194 25,154 29,762
11 14,633 17,278 19,681 21,930 24,754 26,714 31,430
12 15,813 18,551 21,030 23,349 26,246 28,249 33,069
13 16,986 19,814 22,367 24,745 27,717 29,878 34,681
14 18,152 21,067 23,691 26,132 29,169 31,376 36,271
15 19,312 22,310 25,000 27,498 30,605 32,856 37,840
16 20,466 23,546 26,301 28,858 32,027 34,321 39,391
17 21,616 24,771 27,593 30,201 33,435 35,771 40,925
18 22,761 25,992 28,877 31,538 34,831 37,208 42,443
19 23,902 27,206 30,148 32,867 36,216 38,632 43,947
20 25,039 28,415 31,416 34,181 37,591 40,046 45,439
21 26,173 29,619 32,678 35,493 38,957 41,449 46,918
22 27,304 30,817 33,933 36,792 40,314 42,843 48,386
23 28,431 32,012 35,178 38,089 41,662 44,228 49,844
24 29,556 33,199 36,421 39,380 43,003 45,604 51,292
25 30,678 34,384 37,660 40,659 44,337 46,973 52,730
26 31,796 35,566 38,894 41,938 45,665 48,334 54,160
27 32,913 36,745 40,119 43,206 46,986 49,688 55,582
28 34,028 37,920 41,344 44,475 48,300 51,036 56,997
29 35,140 39,092 42,565 45,738 49,610 52,377 58,404
30 36,251 40,261 43,782 46,992 50,914 53,713 59,804

Notas: 1) Para cada valor de los gl (primera columna) y de  (primera fila), en el interior de la
tabla se da el valor 2 que deja a su derecha un área de .
2) Cuando ocurre que gl = f > 30, para   0,20 puede utilizarse la siguiente aproxima-
3
   
ción (z2 en la Tabla 1): 2  f    z2 
 f  f 

38
39
Tabla 10
Límites de significación para el coeficiente de correlación de Spearman

 0,10 0,05 0,01 0,001


n
5 0,9000 1,0000 -- --
6 0,8286 0,8857 1,0000 --
7 0,7143 0,7857 0,9286 1,0000
8 0,6429 0,7381 0,8810 0,9762
9 0,6000 0,6833 0,8333 0,9333
10 0,5636 0,6485 0,7939 0,9030
11 0,5294 0,6194 0,7724 0,8875
12 0,4973 0,5910 0,7509 0,8720
13 0,4748 0,5658 0,7294 0,8565
14 0,4562 0,5436 0,7080 0,8410
15 0,4396 0,5238 0,6865 0,8255
16 0,4247 0,5061 0,6650 0,8100
17 0,4112 0,4900 0,6440 0,7945
18 0,3989 0,4754 0,6247 0,7790
19 0,3877 0,4620 0,6071 0,7635
20 0,3774 0,4496 0,5909 0,7480
21 0,3678 0,4383 0,5760 0,7325
22 0,3589 0,4277 0,5621 0,7170
23 0,3507 0,4179 0,5492 0,7015
24 0,3430 0,4087 0,5371 0,6861
25 0,3358 0,4001 0,5258 0,6717
26 0,3290 0,3920 0,5152 0,6581
27 0,3226 0,3844 0,5052 0,6453
28 0,3166 0,3772 0,4957 0,6333
29 0,3108 0,3704 0,4868 0,6219
30 0,3054 0,3640 0,4783 0,6110

Nota: Para cada número n de parejas de datos (primera columna) y para cada nivel de significa-
ción  (primera fila), en el interior de la tabla se da un valor r tal que si el coeficiente de
correlación de Spearman rS verifica que rS  r, entonces se rechaza la hipótesis nula de
independencia.
Las casillas con -- indican que para esos valores de n y  el test no puede dar significativo.
Glasser and Winter (1961).

También podría gustarte