Está en la página 1de 36

A. MARTÍN ANDRÉS J. de D. LUNA del CASTILLO

RESÚMENES de

BIOESTADÍSTICA

(6ª edición)

   

(Asociación)

       

Medida

Valores

posibles

Independencia

(Asociación+)

Caso

 

Estimación

Estudios en que es válida

     

ˆ

 

0 R < 1

R =

(

O

C

/

)(

O

C

)

 
 

11

2

12

1

Transversales

 

General

ˆ

(O

11 + 0,5)(C +1)

2

Prospectivos

R

 

R = 1

R

=

1 < R <

 

(O

12 + 0,5)(C +1)

1

 
   

ˆ

 

Si P(E)<0,1

 

R >

O ˆ o Oˆ

 

Retrospectivos

Riesgo relativo (de FR para E): La probabilidad de enfermar es R veces mayor en los

EDICIONES NORMA-CAPITEL (2006)

RESÚMENES de

BIOESTADÍSTICA

(6ª edición)

Estos Resúmenes han sido extraídos del libro publicado en esta misma Editorial

50 ± 10 horas de BIOESTADÍSTICA (1995)

A. Martín Andrés y J. D. Luna del Castillo.

© Antonio Martín Andrés Juan de Dios Luna del Castillo

© EDICIONES CAPITEL, S.L. Európolis, Bruselas V-16B. 28230 Las Rozas (Madrid). Teléfono 91-6377414. e-mail (editor): rpa@norma-capitel.com. e-mail (autor): amartina@ugr.es.

Reservados los derechos de edición, adaptación o reproducción para todos los países. No está permitida la reproducción total o parcial de este libro, ni su tratamiento infor- mático, ni la transmisión de ninguna forma o por cualquier medio, ya sea electrónico, mecánico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escri- to de los titulares del Copyright.

ISBN: 84-8451-025-7 Depósito legal: M-45.612-2006

3

RESUMEN DEL CAPÍTULO I

LA ESTADÍSTICA EN LAS CIENCIAS DE LA SALUD

1.1 NECESIDAD

Las Ciencias de la Salud son experimentales y se basan en el método induc- tivo (extensión, al todo, de las conclusiones obtenidas en una parte). El único

modo de validar tales inducciones es por el Método Estadístico. Las demás ra- zones que siguen son reflejo de esta mayor razón:

a) La variabilidad biológica de los individuos objeto de estudio en las Cien- cias de la Salud origina que sus datos sean impredecibles y que el modo de controlarlos sea a través del Método Estadístico.

b) La naturaleza cada vez más cuantitativa de las Ciencias de la Salud re- quiere del Método Estadístico para analizar y poner orden en los datos.

c) La investigación en el campo de las Ciencias de la Salud requiere de la Es- tadística en sus etapas de diseño, recopilación de datos y análisis de los resul- tados.

d) El volumen de la información que recibe el profesional de la Salud re- quiere de conocimientos estadísticos que le permitan leer crítica y compren- sivamente los resultados científicos ajenos.

e) La naturaleza del trabajo clínico es en esencia de tipo probabilístico o es- tadístico, disciplinas que dan rigor y objetividad a los clásicos procesos sub- jetivos de diagnóstico, pronóstico y tratamiento.

f) La perspectiva comunitaria de las Ciencias de la Salud requiere del uso de la Estadística para poder extrapolar las conclusiones desde la parte estudiada de la población a su globalidad.

1.2 DEFINICIÓN DE ESTADÍSTICA

No existe una definición internacionalmente aceptada, pero para nuestros propósitos basta con esta: “Es el conjunto de métodos necesarios para recoger, clasificar, representar y resumir datos, así como para hacer inferencias (extraer consecuencias) científicas a partir de ellos”. De ahí que conste de dos partes:

a) Estadística Descriptiva, cuyo fin es la recogida, clasificación, representa- ción y resumen de los datos.

b) Inferencia Estadística, cuyo fin es extender las conclusiones obtenidas en una parte de la población de interés (la muestra) a toda ella.

1.3 CONSIDERACIONES FINALES

a) Es importante estar familiarizado con el lenguaje estadístico.

b) El Método Estadístico es un método riguroso para el análisis de datos. Su va- lidez está condicionada por la verificación de ciertas hipótesis que no pueden ser violadas.

c) Es importante la planificación adecuada de la experiencia. Una planificación incorrecta puede hacer desaprovechable toda la experiencia o una gran parte de ella.

d) La Estadística Descriptiva no tiene valor inferencial alguno. Ella sólo descri- be lo que hay, no permitiendo extraer conclusiones ciertas sobre nada.

4 LA ESTADÍSTICA EN LAS CIENCIAS DE LA SALUD

1.4 CONTENIDOS DE ESTOS RESÚMENES El Cuadro R.1.1 presenta esquemáticamente los contenidos y el Resumen del Capítulo que los contiene.

Descriptiva Estadística Herramientas II Intervalos de confianza y de Aceptación Probabilidad Tipos y familias de
Descriptiva
Estadística
Herramientas
II
Intervalos de confianza
y de Aceptación
Probabilidad
Tipos y familias
de datos
Inferencial
¿Cuánto vale una característica en
una población o individuo?
III
III
IV y partes del VI y XI
Test de Hipótesis
¿Es cierta esta hipótesis?
Generalidades: V
Hipótesis que implican una característica en:
Hipótesis que implican dos
características
(Problemas de Asociación)
1 población
2 poblaciones
3 o más poblaciones
VI
VII
IX
Ambas no
Ambas
Ensayos Clínicos
numéricas
numéricas
Una numérica
y otra no
VIII
IX
X y XI
XI

5

RESUMEN DEL CAPÍTULO II

ESTADÍSTICA DESCRIPTIVA

2.1 TIPOS DE DATOS

a) Cuantitativos: Se expresan numéricamente. i) Discretos: Toman valores numéricos aislados.

ii) Continuos: Toman cualquier valor (dentro de unos límites dados).

b) Cualitativos: No se expresan numéricamente.

i) Ordinales: Admiten una ordenación lógica y ascendente. (Nominales en

otro caso).

ii) Dicotómicos: Solo aceptan dos posibilidades.

2.2 PRESENTACIÓN TABULAR DE LOS DATOS

a) Se les agrupa en clases (si son discretos o cualitativos) o en intervalos de cla- se de igual longitud (si son continuos o discretos con muchos valores posi- bles). La primera y la última clase pueden ser excepción.

b) A cada clase se le anota la frecuencia absoluta (f i ), o número de datos en la clase, y la frecuencia relativa (h i = f i /n, con n el número total de datos). Su- cederá que Σf i = n y Σh i = 1. Multiplicando h i por 100, 1.000, etc se obtienen los %, 0 / 00 , etc.

c) Los intervalos de clase vienen definidos por dos números, el límite inferior (L I ) y el límite superior (L S ); la diferencia de ellos es la longitud de clase y la semisuma es la marca de clase.

2.3 PRESENTACIÓN GRÁFICA DE LOS DATOS

a) Histograma: Sobre cada punto (o intervalo) de las abscisas, se levanta una barra (o rectángulo) de tanta altura como frecuencia haya.

b) Polígono de frecuencias: Se unen por una poligonal los puntos del plano que tienen por abscisa la clase o marca de clase y por ordenada la frecuencia.

c) Pictograma: Se define una figura-motivo y se la repite o se la amplía de mo- do proporcional a la frecuencia de la clase, obteniendo así un pictograma “de repetición” (o de “amplificación”).

d) Diagrama de sectores: En un círculo, se asigna a cada clase un sector de área proporcional a la frecuencia de la clase. El ángulo que lo delimita es 360×h i (en grados).

2.4 SÍNTESIS DE DATOS

a) Medidas de posición: Describen cómo se encuentra el resto de la muestra con respecto a ellas.

i) Moda: la clase con mas frecuencia absoluta (si nominal) o relativa (resto de los casos).

ii) Mediana: divide a la muestra ordenada (de menor a mayor) en dos partes

iguales.

iii) Percentil: El percentil p i deja a su izquierda un "i%” de la muestra orde-

nada de menor a mayor (i=1, 2,

, 99).

iv) Cuartil: c 1 =p 25 , c 2 =p 50 , c 3 =p 75 .

6

ESTADÍSTICA DESCRIPTIVA

v) Decil: d 1 =p 10 , d 2 =p 20 ,

vi) Media aritmética:

Datos no agrupados:

Datos agrupados:

, d 9 =p 90 .

Σ x i x =
Σ
x
i
x =

n

Σ f x Σ

n

, con Σf i = n

vii) Media ponderada:

Σ w x i i x = p Σ w i
Σ w x
i
i
x
=
p
Σ w
i

, con w i los pesos de ponderación.

b) Medidas de dispersión: Describen cómo de variables o dispersos son los da- tos. i) Recorrido, rango o amplitud: Es la diferencia entre los valores más gran- de y más pequeño de la muestra.

ii) Desviación media: d m

= Σ⏐x x /n

i

iii) Varianza: En lo que sigue, la primera fórmula es la definición y la segun- da es la apropiada para el cálculo:

Datos no agrupados:

Datos agrupados:

s

2

s

=

     

2

2

2

Σ (x

i

-

x)

 

1

 

2

(

Σ

x )

i

 

=

 

=

Σ

x

-

 

1

 

1

 

 

i

 

n

-

 

n

-

n

     

2

2

 

Σ f (x

i

-

i

x)

 

=

1

Σ

f x

2

-

(

Σ

f x )

ii

 

n

-

1

n

-

1

i

i

n

con Σf i = n

iv) Desviación típica: la raíz cuadrada (s) de la varianza. v) Rango intercuartílico: c 3 c 1

vi) Coeficiente de variación: CV = (s/ x )×100%.

,

7

RESUMEN DEL CAPÍTULO III

DISTRIBUCIONES DE PROBABILIDAD

3.1 DEFINICIONES

a) Fenómeno aleatorio: Aquel fenómeno cuyo resultado es impredecible.

b) Probabilidad (de un resultado dado de un fenómeno aleatorio): Es el límite

de la frecuencia relativa del mismo cuando el número de experiencias (repeti- ciones del fenómeno) tiende hacia infinito. La existencia de dicho límite se sustenta en la ley de azar (o de estabilización de las frecuencias relativas).

c) Variable aleatoria: es el resultado numérico de un fenómeno aleatorio. Son:

i) Discretas: se identifican por la función de probabilidad (regla que asocia a cada valor de la variable, su probabilidad).

ii) Continuas: se identifican por la función de densidad (que indica cómo de

probable es que la v.a. caiga en los alrededores del punto), cuya repre- sentación gráfica es la curva de densidad. En general a ambas funciones se les llama distribución de probabilidad.

d) Parámetros poblacionales: Por contraposición a los parámetros muestrales (que, como la media, varianza, etc, describen las muestras) se definen de igual modo los parámetros poblacionales (que describen las poblaciones o las

v.a.). Los paralelos a los parámetros muestrales x , s 2 , s y h = son los po-

blacionales μ, σ 2 , σ y p.

3.2 DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS

La mayoría de la v.a. de la Naturaleza siguen alguna de las siguientes:

a) Distribución Normal:

i) Definición: xN(μ; σ) si su curva de densidad tiene forma de campana con centro de simetría en μ (media) y dispersión σ (desviación típica).

ii) Tipificación: z = (x−μ)/σ → N(0; 1) llamada Normal típica.

iii) Tabla 2: Para cada α da un z α de una N(0; 1) con P(z α z+z α ) = 1−α.

iv) Teorema Central del Límite: Si x es una v.a. cualquiera de media μ y des-

viación típica σ, y si x es la media de una muestra de tamaño n30, x se

x es la media de una muestra de tamaño n ≥ 30, x se distribuye aproximadamente

distribuye aproximadamente como una Normal: x N(μ;σ/ n ), con σ/ n el error estándar. Si x es Normal, lo anterior se verifica exactamen- te para cualquier valor de n.

se verifica exactamen- te para cualquier valor de n. b) Distribución Binomial: i) Definición: Si de

b) Distribución Binomial:

i) Definición: Si de una población de tamaño (N) infinito, cuyos individuos ve- rifican una cierta característica dicotómica con probabilidad p, se extrae una muestra de tamaño n, el número x de individuos, de entre los n, que verifi- can la característica sigue una distribución Binomial (lo que se expresa

abreviadamente diciendo que xB(n; p)). Cuando N≠∞, x sigue aproxima- damente una Binomial si N > 40 y n/N (fracción de muestreo) 0,10.

ii) Media y Varianza: Son np y npq respectivamente.

iii) Propiedad: Si n es suficientemente grande se aproxima a la Normal.

c) Distribución de Poisson:

i) Identificación: Son distribuciones de Poisson: i) Una Binomial con n grande

y p pequeño; ii) El número de partículas por unidad de medio (si un gran número de partículas están repartidas al azar en una gran cantidad de me- dio); iii) El número de sucesos que ocurren por unidad de tiempo (si estos suceden al azar e independientemente entre sí).

ii) Media y Varianza: λ en ambos casos.

iii) Propiedad: Si λ es suficientemente grande se aproxima a la Normal.

8

RESUMEN DEL CAPÍTULO IV

INTERVALOS DE CONFIANZA Y DE ACEPTACIÓN

4.1 MUESTREO ALEATORIO

Las muestras deben tomarse al azar, de modo que todo individuo de la po- blación tenga igual probabilidad de ser seleccionado y que la selección de uno de ellos no condicione la selección de otro. El azar puede imitarse mediante da- dos, bolas en urna, etc, pero lo mejor es hacerlo a través de una Tabla de Núme- ros Aleatorios como la Tabla 5.

4.2 ESTIMACIÓN

Los parámetros poblacionales no suelen ser conocidos. Se les determina a

través de muestras aleatorias. La Teoría de la Estimación es la parte de la Infe- rencia Estadística que sirve para determinar el valor de los parámetros pobla- cionales en base al de los parámetros muestrales. La estimación puede ser:

a) Por punto: Si se asigna al parámetro desconocido (ω) un único valor ( ωˆ ) que será su valor aproximado y que depende de la muestra. Se dice que ωˆ es un estimador de ω. Cuando se haya obtenido la muestra y calculado ωˆ , se dice que ωˆ es una estimación de ω. Usualmente ωˆ es el parámetro muestral

homónimo del parámetro poblacional ω a estimar (así,

μ=ˆ x, σˆ = s y p=hˆ ).

2

2

b) Por intervalo: Si se asigna al parámetro desconocido (ω) un intervalo de va- lores, (a; b), entre los cuales está ω con una cierta confianza 1−α. Así, si P(a≤ω≤b) = 1−α, (a; b) es el intervalo de confianza, α es el error del interva- lo y 1−α la confianza del intervalo.

4.3 INTERVALO DE CONFIANZA PARA UNA MEDIA μ

, x n es una muestra

a) Intervalo con v.a. Normales: Si xN(μ; σ) y x 1 , x 2 ,

aleatoria de ella, con media x y desviación s:

α
α

s/

, aleatoria de ella, con media x y desviación s: α s/ i) Si σ 2

i) Si σ 2 es conocida: μ ∈ x ±z

ii) Siσ 2 es desconocida: μ ∈ x ±t α s/ n , con t α en la Tabla 6 con (n1) g.l. y

σ/ n , con z en la Tabla 2.

α

n el llamado error estándar.

b) Intervalo con v.a. no Normales: Si, en las condiciones de antes, x es no

Normal, lo que sigue vale aproximadamente:

i) Si σ 2 es conocida y n30: μ ∈ x ±z

α
α

σ/ n , con z en la Tabla 2.

α

ii) Si σ 2 es desconocida y n60: μ ∈ x ±z α s/ n , con z α en la Tabla 2. En ambos casos, si la v.a. x es discreta (y saltando de 1 en 1), a las expre-

siones anteriores hay que añadirles el término ±1/(2n) como corrección por continuidad.

c) Tamaño de muestra: Si xN(μ; σ) y se desea obtener un tamaño de mues-

tra n tal que la media x

i) Si σ ii) Si σ

2

de esa muestra verifique que

x −μ⏐≤d, entonces:

2

es conocida: n = (z α σ/d) 2 , con z α en la Tabla 2.

es desconocida pero se conoce un valor máximo para ella: n =

{z α ×(Máx σ) / d} 2 , con z α en la Tabla 2.

iii) Si σ 2 es desconocida pero hay una muestra piloto: n = (t α s/d) 2 , con t α en

la Tabla 6 con ( nl) g.l., nel tamaño de la muestra piloto y s 2 su va-

rianza.

iv) En otro caso: Hacer d=Kσ y n = (z α /K) 2 , con z α en la Tabla 2.

Los casos ii) e iii) requieren comprobar que la muestra del tamaño n aconsejado verifica las especificaciones. Si el n resultante es grande (60),

INTERVALOS DE CONFIANZA Y DE ACEPTACIÓN

9

las fórmulas anteriores también valen, aproximadamente, si x es no Normal.

4.4 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN Si xB(n; p):

a) Intervalo: Si x es una observación de ella, =x/n, =1y son x, nx>5:

p

2 2 z z ⎛ x ± 0,5 ⎞ α α (x ± 0,5) +
2
2
z
z
x
±
0,5 ⎞
α
α
(x
±
0,5)
+
±
z
+± (x
0,5)
1 -
α
2
4
⎜ ⎝
n
⎟ ⎠
2
n
+ z
α

expresión que se puede simplificar en esta otra si, además, son x, nx>20:

b)

p

∈±

z

α

pq ˆ ˆ n
pq ˆ ˆ
n

+

1

2n

=

⎧ x(n - x) ⎫ x ± ⎨ z + 0,5 ⎬ α n ⎩
x(n
-
x)
x
±
z
+
0,5
α
n
n

con z α siempre en la Tabla 2. La expresión primera es siempre más exacta que la segunda.

Tamaño de muestra: Si se desea obtener un tamaño de muestra n tal que la

proporción en ella verifique que p⏐≤d, entonces:

i) Con información: Si en base a una información previa -bibliográfica o de muestra piloto- se conoce que p(p 1 ;p 2 ), n = (z α /d) pq, con p el valor de dicho intervalo que esté más cercano a 0,5 y q=1p. ii) Sin información: n = (z α /2d) 2 . con z α siempre en la Tabla 2. En el primer caso hace falta comprobar que la muestra del tamaño n aconsejado verifica las especificaciones.

2

4.5 GENERALIDADES SOBRE LOS INTERVALOS DE CONFIANZA

Las siguientes observaciones son válidas para todos los intervalos de con-

fianza:

a) Los intervalos de confianza construidos son de dos colas -es decir del tipo ω∈ (ω 1 ; ω 2 )- y con una confianza de 1−α (o con un error de α). Cuando se

desee un intervalo de confianza de una cola, obtener el extremo que interese (ω 1 o ω 2 ) al error 2α. El intervalo será ω≤ω 2 o ω≥ω 1 .

b) Las fórmulas de tamaño de muestra son válidas para un intervalo de confian-

za de dos colas al error α. Cuando se le desee de una cola, cambiar α por 2α.

c) En ciertos casos del tamaño de muestra se alude a que al final hay que comprobar que la muestra del tamaño aconsejado verifica las especificacio- nes. El modo de hacerlo pasa por determinar el intervalo de confianza ω ∈

) a partir de dicha muestra; deberá ocurrir que ⏐ ωˆ −ω 1 ⏐≤ d y

(ω 1 ; ω 2

ωˆ −ω 2 ⏐≤ d, con

ωˆ igual a x o según el caso.

4.6 INTERVALOS DE ACEPTACIÓN

, x n es una muestra aleatoria de una v.a. continua de parámetros

desconocidos:

a) Variables Normales: x x ± Ks, con x y s la media y desviación típica de la muestra y K en la Tabla 9.

b) Variables cualesquiera: ordenar la muestra de menor a mayor y proceder

como se indica en la Tabla 10. En ambos casos el intervalo obtenido contiene al menos al 100π% de la pobla-

ción con una confianza de (1−α).

Si x 1 , x 2 ,

10

RESUMEN DEL CAPÍTULO V

CONCEPTO GENERAL DE TEST DE HIPÓTESIS

5.1 OBJETIVO

Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cuál de dos hipótesis -H 0 (hipótesis nula) o H 1 (hipótesis alternativa)- debe aceptarse en base al resultado obtenido en una muestra.

5.2 TIPOS

a) Test bilateral o de dos colas: Si H 1 es la negación de H 0 .

b) Test unilateral o de una cola: Si H 1 es una parte de la negación de H 0 .

5.3 ELECCIONES PREVIAS

Antes de realizar un test, el investigador debe decidir cuatro cosas:

a) H 0 : Hipótesis formada por una igualdad o afirmación positiva.

b) H 1 : Es la hipótesis que se quiere demostrar fuera de toda duda. Podrá ser una

parte de la negación de H 0 si la otra parte implica una conclusión equivalente

a la que proporciona H 0 .

c) α: Es un valor tanto más pequeño cuantas más garantías se precisen de que una decisión por H 1 sea correcta. Usualmente α=5% .

d) Estadístico de contraste: Es la v.a. (dependiente de los valores de la muestra

y que comprime toda la información relevante de ella) que se va a utilizar pa- ra realizar el test.

5.4 MÉTODO

Para tomar la decisión debe obtenerse un conjunto de valores del estadístico de contraste (intervalo) cuya probabilidad (bajo H 0 ) sea α. El intervalo -que será de dos colas en los test bilaterales y de una cola (con la desigualdad en el mismo sentido que la de H 1 ) en los unilaterales- es llamado región de aceptación, y lo de fuera de él región crítica o de rechazo. Obtenida la muestra, si el valor que toma en ella el estadístico de contraste está en la región de aceptación se acepta H 0 ; si está fuera, se acepta H 1 . En el primer caso se dice que el test (o el resulta- do) es estadísticamente no significativo; en el segundo se dice que es test (o el resultado) es estadísticamente significativo (ambos al error α).

5.5 ERRORES

Toda decisión por H 1 viene acompañada de una posibilidad de error llama- da error α, de Tipo I o nivel de significación:

α = P(decidir H 1 es cierta H 0 ). Toda decisión por H 0 viene acompañada de una posibilidad de error llama- da error β o de Tipo II: β = P(decidir H 0 es cierta H 1 ).

En particular:

a) El error α está controlado, pues se fija de antemano. Por ello las decisiones por H 1 son siempre fiables.

b) El error β no está controlado de antemano y puede ser grande. Por ello las

decisiones por H 0 no son de fiar.

CONCEPTO GENERAL DE TEST DE HIPÓTESIS

11

c) El error α es un único número, pero el error β depende de la alternativa que

se considere.

d) El error β disminuye conforme aumenta α, conforme H 1 se aleja de H 0 y con- forme aumenta el tamaño de la muestra (si todo lo demás permanece fijo).

5.6 POTENCIA DE UN TEST

Se llama potencia θ a la capacidad que tiene un test para detectar las hipó- tesis alternativas, es decir:

θ = 1−β = P(decidir H 1 es cierta H 1 ) Como es función de la hipótesis alternativa, en el caso de tests acerca de pará- metros su representación gráfica da la curva de potencia. Un test es tanto mejor cuanto más potente sea.

5.7 VALOR P

a) Al mínimo error α al cual un resultado es significativo se le llama valor P o nivel crítico P o nivel mínimo de significación.

b) P es también la probabilidad de obtener un resultado tan extraño o más que el obtenido cuando H 0 es cierta, midiendo por tanto las evidencias que hay en contra de H 0 (pero no mide cuánto de falsa es H 0 ).

c) En un test de una cola (en el sentido favorable) P suele ser la mitad de su va- lor en el test de dos colas.

d) Fijado un valor de α: si P ≤ α se decide H 1 ; si P ≥ α se decide H 0 .

e) Las conclusiones de un test suelen expresarse así: H 0 (P>tal) o H 1 (P<cual).

5.8 TAMAÑO DE MUESTRA Determinando el tamaño de muestra n de antemano las conclusiones por H 0

también son fiables (las conclusiones por H 1 siempre lo son). Para determinar n hace falta especificar:

a) El error α del test;

b) La primera alternativa de interés, es decir la primera H 1 (digamos ω 1 ) que

se desea diferenciar de H

=

⏐ω 1 −ω 0

0

(digamos ω ), o la mínima diferencia de interés δ

0

. Si el test es para H 0 ≡ω=ω 0 , la primera alternativa de interés será

ω 0 ±δ para H 1

c) El error β (o la potencia θ) para tal alternativa.

El n obtenido garantiza que el test realizado con tal muestra (al error α) da- rá significativo el (1−β)×100% de las veces en que la verdadera hipótesis H 1 se diferencie de H 0 en la cantidad δ especificada (o más veces si la diferencia es mayor, o menos veces si es menor).

5.9 INTERVALOS DE CONFIANZA TRAS UN TEST DE HIPÓTESIS

a) Tras realizar un test de hipótesis acerca de parámetros es conveniente dar un intervalo de confianza para el parámetro implicado, tanto si se concluye H 0 (para así matizar la posible magnitud del error de tal conclusión) como si se concluye H 1 (para así indicar cuánto de falsa es H 0 ).

b) Cuando el test es de dos colas, el intervalo será de dos colas (al error α si se concluyó H 1 ; al error 2β si se concluyó H 0 ).

c) Cuando el test es de una cola, el intervalo será de una cola (al error α y con la desigualdad en el sentido que indica H 1 si se concluyó H 1 ; al error β y con la desigualdad en el sentido contrario al que indica H 1 si se concluyó H 0 ).

ω 1 = ω 0 +δ para H 1 ≡ω>ω 0 , ω 1 = ω 0 −δ para H 1 ≡ω<ω 0 o ω 1 = ω≠ω 0 .

12 CONCEPTO GENERAL DE TEST DE HIPÓTESIS

5.10 REGLAS PARA TOMAR LA DECISIÓN

a) Si n fue determinado de antemano:

i) Si P≤α se concluye H 1 (la decisión es fiable); ii) Si P>α se concluye H 0 (la decisión es fiable).

b) Si n no se determinó de antemano, pero se conocen los errores α y β y la mínima diferencia de interés δ (o la primera alternativa de interés ω 1 a la hipótesis nula ω 0 ):

i) Si P≤α se concluye H 1 (la decisión es fiable).

ii) Si P>α se concluye H 0 ≡ω=ω 0 provisionalmente. El intervalo de confian- za ω ∈ (ω I ; ω S ) construido en base a lo indicado en el Resumen 5.9b) y c) permite tomar la decisión final: si la primera alternativa de interés ω 1 =

≡ω<ω 0 ), ω 1 = ω 0 +δ (para H 1 ≡ω>ω 0 ) o alguna de las ω 1 =

ω 0 ±δ (para H 1 ≡ ω≠ω 0 ) pertenece al intervalo, la conclusión por H 0 no es fiable (y debe ampliarse la muestra y repetir el test); en otro caso la con- clusión por H 0 es fiable (y el problema finaliza).

ω 0 −δ (para H 1

c) En otro caso (Regla Automática de Decisión para el caso de α=5%):

i) Si P5%: Se concluye H 1 ; ii) Si P>15% o 20% (depende de n): Se concluye H 0 ; iii) En otro caso: Se concluye H 0 , indicando que hay indicios de significa- ción y que conviene ampliar la muestra y repetir el test.

13

RESUMEN DEL CAPÍTULO VI

TESTS CON UNA MUESTRA

6.1 CRITERIOS GENERALES PARA TODOS LOS TESTS DE HIPÓ- TESIS

Salvo indicación expresa de lo contrario, todos los tests de hipótesis se ba-

sarán en los siguientes criterios:

a) El criterio de test (dos colas): Calcular una cantidad experimental (C exp ) a partir de los datos y una cantidad teórica (C α ) a partir de las tablas para un error α dado. Entonces:

Si C exp < C α se decide H 0 (al error α); Si C exp C α se decide H 1 (con error α)

b) Obtención del valor P (dos colas): Localizar en la Tabla teórica dos valores C tales que C α < C exp < C α (con α ′ < α ′′ ); en tal caso α ′ < P <α ′′ . La deci- sión se toma en función de P y en el modo indicado en el Resumen 5.10.

c) Test de una cola: Comprobar si lo experimental es conforme con H 1 y:

i) ii) Si SÍ es conforme con H 1 : Actuar como en a) pero en base a 2α u obtener

Si NO es conforme con

H 1 : Decidir H 0 sin más.

el valor de P como b) y dividirlo por 2: α′ / 2 < P < α′′ / 2 .

d) Tamaño de la muestra: Las fórmulas de tamaño de muestra que se verán sirven para determinar el mínimo tamaño de muestra preciso para que un test de dos colas al error α dé significativo el (1−β)×100% de las veces en que la

verdadera hipótesis H 1 se diferencie de H 0 en la cantidad δ que se especifique

(o más veces si la diferencia es mayor, o menos veces si es menor). En todo caso, cuando el test es de una cola hay que cambiar en la fórmula

α por 2α.

6.2 TEST DE HIPÓTESIS PARA UNA PROPORCIÓN (H 0 p=p 0 )

a) 1p 0 , comparar z exp = (xnp

b) Tamaño de la muestra: Para detectar alternativas p

Si xB(n; p), con p desconocido:

Test: Si x es una observación de ella y ocurre que np 0 >5 y nq 0 >5, con q 0 =

0

⏐−0,5) /

np q 0 0
np q
0
0

con una z

α

de la Tabla 2.

1 -con p 1 p 0 = δ- n =

{(z α

p q 0 0
p q
0
0

+z 2β

p q 1 1
p q
1
1

)/δ} 2 con q 1 = 1p 1 , las z en la Tabla 2 y:

i) En tests de una cola: p 1 =p 0 −δ para H 1 p<p 0 ; p 1 =p 0 +δ para H 1 p>p 0 ;

ii) En tests de dos colas: p 1 el valor más cercano a 0,5 de entre los p 0 ±δ.

6.3 TEST PARA LA MEDIA DE UNA NORMAL (H 0 ≡μ=μ 0 )

Si xN(μ; σ), con μ desconocida:

x 1

, x 2 ,

es conocida: z

a) Test: Si

2

,

x n es una muestra aleatoria de x de media x y varianza s 2 :

= x −μ ⏐ / (σ/

media x y varianza s 2 : = ⏐ x −μ ⏐ / ( σ /

n ) vs. z

α

de la Tabla 2.

/ (s/ n ) vs. t α (n1 g.l.) de la Tabla 6.

1 con ⏐μ 1 −μ 0 =δ:

i) ii) Si σ 2 es desconocida: t exp =x −μ 0

Si σ

exp

0

b) Tamaño de la muestra: Para detectar alternativas μ

Siσ 2 es conocida: n = {(z

i) ii) Si σ 2 es desconocida, pero se sabe el máximo valor que puede tomar: n =

{(z α +z 2β )×(Máx σ) / δ}

2

α

+z 2β

, con las z en la Tabla 2.

)σ/δ} 2 con las z en la Tabla 2.

14

TESTS CON UNA MUESTRA

iii) rianza s 2 : n = {(t α +t 2β )s/δ}

iv) {(z α +z 2β )/K} 2 , con las z de la Tabla 2.

Si σ

Si σ

2

es desconocida, pero hay una muestra piloto de tamaño ny va-

2

con las t en la Tabla 6 con ( n1) g.l.

es desconocida y no hay muestra piloto: Haciendo δ = Kσ, n =

2

6.4 TEST DE HIPÓTESIS PARA LA MEDIA DE UNA VARIABLE

CUALQUIERA (H 0 ≡μ=μ 0 )

Si x es una variable cualquiera de media μ desconocida y varianza σ 2 , el

6.3 es válido aproximadamente, con las siguientes matizaciones:

Cuando σ 2 es conocida: Si n30.

Cuando σ 2 es desconocida: Si n60 (pero las cantidades t se miran también

en la Tabla 2).

Si la variable es discreta y saltando de 1 en 1: Al numerador de las canti- dades experimentales hay que restarles 1/(2n), con lo que quedan así:

a)

Resumen

b)

c)

x −μ 0 ⏐−1/(2n).

6.5

a) Un método de medida se dice que es insesgado si en promedio mide lo que realmente hay. Será sesgado en otro caso.

b) Un método de medida se dice que es preciso si tiene poca variabilidad (va- rianza). Será impreciso en otro caso.

c) Un método de medida se dice que es exacto si es insesgado y preciso.

6.6 TEST DE NORMALIDAD DE D’AGOSTINO (H 0 “La muestra provie- ne de una v.a. Normal”)

, x n es una muestra aleatoria ordenada de menor a mayor, com-

parar con una D α de la Tabla 11 (por el modo allí indicado) la cantidad:

MÉTODOS DE MEDIDA

Si x 1 , x 2 ,

D exp = {Σix i (n+1)(Σx i )/2)} / {n

n ⎡Σx

2

(Σx )

i

2

/n⎤ ⎦

 

-

i

}

Si el test da significativo, la comprobación de la causa de la no-Normalidad se hace calculando F n (x i ) = {nº de observaciones menores o iguales que x i }/n, representando en le plano las parejas (x i ; F n (x i )) y comparando la curva obtenida con las curvas más usuales.

6.7 RECHAZO DE OBSERVACIONES EXTREMAS (H 0 “La observa- ción x S debe aceptarse”)

, x n es una muestra aleatoria de una v.a. x Normal y x es su

será aquella que más diste de x , es decir

x S = Máx i

media, la observación sospechosa x

Σx -(Σx ) /n con una t α de

la Tabla 13 por el modo allí se indicado. Si el test da significativo (con valor P=P 1 ) rechazar la observación. Con las n1 observaciones restantes puede intentarse rechazar otra observación (valor

P 2 ), pero ahora el valor P para la segunda es P = P 1 +P 2 .

Si x 1 , x 2 ,

x x . Comparar t exp = x x /

i

S

S

2

i

i

2

15

RESUMEN DEL CAPÍTULO VII

TESTS DE HOMOGENEIDAD CON DOS MUESTRAS

7.1 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE

VARIABLES NORMALES (H 0 ≡μ 1 =μ 2 )

a) Test para muestras independientes: Si las muestras -de tamaños n 1 y n 2 ,

1 y

y

i) Si F exp <F 0,10 (Varianzas iguales: σ 1 =σ 2 =σ) (Test de Student): Comparar con una t α (n 1 +n 2 2) de la Tabla 6 la cantidad:

medias

y μ 2 y varianzas

x

1

2

σ

2

1

x y varianzas

y

2

s

1

2

y

s

2

- provienen de variables de medias μ

s

2

1

/ s

2

2

, con

s

2

1

s

2

2

2

σ

2

desconocidas, obtener F exp =

compararla con F 0,10 [n 1 1; n 2 1] de la Tabla 8; entonces:

t

exp

=

x − x 1 2 n + n 2 1 2 s n n 1
x
x
1
2
n
+ n
2
1
2
s
n
n 1
2

, con

s

2

=

(n

2

112

1)s

+−

(n

1)s

2

2

nn2

1

+

2

ii) Si F exp F 0,10 (Varianzas distintas: σ 1 ≠σ 2 ) (Test de Welch): Comparar con una t α (f) de la Tabla 6 la cantidad:

t exp

=

x − x 1 2 A + B
x
x
1
2
A
+
B

2

, con A=

s

1

n

1

, B=

s

2

2

n

2

y f

=

(A

+ B)

2

A

2

B

2

+

n

1

1n

2

1

b) Test para muestras apareadas (Test de Student): Dadas dos v.a. (x 1 ; x 2 ) y n parejas de datos (x 1i ; x 2i ) de las mismas, con i=1, 2, …, n, obtener sus dife- rencias d i = x 1i x 2i y la media ( d ) y desviación (s d ) de las mismas. Si d

la media de x i , comparar con una t α (n1) de la Tabla

N(μ d =μ 1 −μ 2 ; σ d ), con μ 6 la cantidad t exp = d /

i

s 2 d
s
2
d

/ n .

c) Intervalo de confianza para la diferencia de medias: La siguiente expre- sión es válida para los tres casos citados en a) y b), con la misma notación, condiciones y alusiones de entonces:

μ 1 −μ 2 (numerador de la t exp sin valor absoluto) ± t α ×(denominador de la t exp )

d) Tamaño de muestra: Con igual notación que en a) y b), para detectar una

= δ (en lo que sigue, z x en la Tabla 2; t x en la Tabla 6 con

diferencia ⏐μ 1 −μ 2

f g.l.):

i) Muestras independientes (Varianzas iguales): n 1 =n 2 =n, con:

n =

z

+

α

z

2

β

δ

2

2

σ

2

,

n =

t

t

+

α

2

β

δ

2

2s

2

,

n = 2

z

α

+

z

2

β

× ⎜

K

2

la primera expresión cuando σ (o su máximo) es conocida, la segunda

cuando hay una muestra piloto de tamaños

(con

ny varianza común s

i

2

f=

nn2′ + ′ −

1

2

), y la tercera cuando δ = Kσ.

ii) Muestras independientes (Varianzas distintas): Si r = σ 2 /σ 1 (o s 2 /s 1 ):

16

TESTS CON DOS MUESTRAS

n =

1

⎛ ++⎞

22

⎛⎞

⎜⎟

⎝⎠ δ

tt

αβ

zz

α

β

222

(r

1)

, n =

11

+

zz

α

2

β

δ

K

(r

+

1)s

, n =(r+1)

11

2

2

la primera expresión cuando σ 1 (o su máximo) es conocida, la segunda

=

(1+r 2 ) / {(1/(

cuando hay una muestra piloto de tamaños

n1)+ r 2 / ( n1)}), la tercera cuando δ = Kσ 1 . Obtenido

ny varianzas

i

s

i

2

(con

f

1

2

n 1 , entonces n 2 = rn 1 . iii) Muestras apareadas:

n =

z

+

α

z

2

β

δ

2

σ

2

d

,

n =

t

t

+

α

2

β

δ

2

s

2

d

,

n =

z

+

α

z

2

β

K

2

la primera expresión cuando σ d (o su máximo) es conocido, la segunda

=

cuando hay una muestra piloto de tamaño ny varianza

2

s

d

(con

f

n′ −1), la tercera cuando ⏐μ 1 −μ 2 = Kσ d .

7.2 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE

VARIABLES CUALESQUIERA (H 0 ≡μ 1 =μ 2 ) Si, en las condiciones y notación del Resumen 7.1, las variables implicadas (x o d) no son Normales, gran parte de lo indicado allí es aproximadamente vá- lido si las muestras son grandes (mayores que 30 o 60 según lo no Normal que sea la variable). Las reglas aconsejadas son las siguientes:

a) Test para muestras independientes: Comparar con una z α de la Tabla 2 la

2 cantidad z exp = − x / s 2 /n + s /n .
2
cantidad z exp =
− x
/
s
2 /n
+ s
/n
.
x 1
2
11
22

b) Test para muestras apareadas: Comparar con una z α de la Tabla 2 la canti-

2 dad z exp = d / s / n . d
2
dad z exp =
d
/ s
/ n .
d

c) Intervalo de confianza para la diferencia de medias: Con la notación de a) y b):

μ 1 −μ 2 (numerador de la z exp sin valor absoluto) ± z α ×(denominador de la z exp )

d) Tamaño de muestra: Es válido lo indicado en el Resumen 7.1.d) -con las t miradas también en la Tabla 2- si el n final predicho es superior a 30 o 60.

e) Variables discretas: En los casos a), b) y c), si la variable implicada es dis- creta y saltando de 1 en 1, conviene efectuar una corrección por continuidad consistente en sumar al radio del intervalo de confianza la cantidad ±c o res- tar al numerador de la z exp la cantidad c, con:

i) Muestras independientes: c = 1/ {2 Máx (n 1 ; n 2 )}. ii) Muestras apareadas: c = 1/(2n).

7.3 TESTS NO PARAMÉTRICOS (TEST DE WILCOXON) PARA

COMPARAR DOS MUESTRAS DE VARIABLES CUALESQUIERA (H 0 La primera población no tiende a dar valores más altos o más bajos que la segunda)

a) Asignación de rangos: En lo que sigue se hablará de “asignar rangos a una

muestra ordenada”. Por tal se entiende al proceso de, dada una muestra or-

x n ), asignar el rango 1 al elemento x 1 ,

, el rango n al elemento x n . Cuando haya varios

elementos x i consecutivos iguales (empates) a cada uno de ellos se le asigna

denada de menor a mayor (x 1 x 2

el rango 2 al elemento x 2 ,

TESTS CON DOS MUESTRAS

17

el rango promedio que tendrían si fueran distintos; por ejemplo, si x r = x r+1 = = x s , a cada elemento se le asigna el rango promedio (r+s)/2.

b) Muestras independientes (Test de Wilcoxon): Dadas dos muestras inde- pendientes de tamaños n 1 y n 2 (n 1 n 2 por convenio), unir las dos muestras en una sola, ordenarla de menor a mayor, asignarle rangos a sus elementos y calcular las sumas de rangos (R 1 y R 2 ) de los elementos de cada una de las muestras. Deberá suceder que R 1 +R 2 = (n 1 +n 2 )×(n 1 +n 2 +1)/2. Llamar por R exp a la suma de rangos (R 1 ) de la muestra de menor tamaño y entonces:

i) Si n 1 +n 2 30: Comparar R exp con una R α de la Tabla 14 por el modo allí

indicado.

ii) Si n 1 +n 2 >30: Comparar z exp = {R exp E(R)⏐−0,5} /

z e x p = { ⏐ R e x p − E(R) ⏐− 0,5} /

V(R) con una z α de

la Tabla 2, en donde E(R) = (n 1 +n 2 +1)n 1 /2 y V(R) = (n 1 +n 2 +1)n 1 n 2 /12 si

no hay empates, en tanto que cuando haya r grupos de t 1 , t 2 , cada uno:

, t r empates

V(R)=

(n

{

)

(n

++

n

12

n

12

)

2

-

1

}

Σ

-T

i

12(n

1

+

n )(n

21

+

n

2

-

1)

×

n n

1

2

, con T i =(t i 1)t i (t i +1)=

t i 3

- t

i

c) Muestras apareadas (Test de Wilcoxon): Dadas n' parejas de datos, obtener

las n' diferencias entre ellas, rechazar las que sean cero, ordenar el resto (n) de menor a mayor valor de sus valores absolutos, asignarles rangos y calcular las sumas de rangos -R(+) y R()- de las diferencias positivas y negativas. Deberá suceder que R(+)+R() = n(n+1)/2. Entonces:

i) Si n25: Comparar R(+) -o R(), es lo mismo- con una R α de la Tabla 15 por el modo allí indicado.

ii) Si n>25: Comparar la cantidad z exp = {R(+)E(R)⏐−0,5} / V(R) con una z α de la Tabla 2, en donde E(R) = n(n+1)/4 y V(R) = n(n+1)(2n+1) / 24 cuando no hay empates, en tanto que cuando haya r grupos de t 1 , t 2 ,

,

t r empates cada uno, V(R) = {2n(n+1)(2n+1)−ΣT i }/48 con T i = (t i 1)t i (t i +

T i }/48 con T i = (t i − 1)t i (t i + 1)

1) =

t

3

i

- t

i

.

7.4 TESTS DE COMPARACIÓN DE DOS PROPORCIONES (MUES-

TRAS INDEPENDIENTES) (H 0 p 1 =p 2 ) Si x i B(n i ; p i ), con i=1, 2, son independientes, y si de cada una de ellas se obtiene una muestra en el formato de la Tabla R.7.1, entonces, llamando por

(en lo que sigue las cantidades z x siem-

pre en la Tabla 2, pues se utiliza la aproximación de la Binomial a la Normal):

a) Test: Si E = Mín (a 1 ; a 2 )×Mín (n 1 ; n 2 )/N > 5, comparar

pˆ =x i /n i , pˆ =a 1 /N,

i

qˆ =1

i

i

y q1pˆ = - ˆ

1 pˆ - pˆ 1 2 - 2 × M áx (n ; n )
1
-
1
2
- 2
×
M áx (n ; n
)
z
=
1
2
vs. z α
exp
n +n
pqˆ ˆ
1
2
n
×
n
1
2

b) Intervalo de confianza para la diferencia de proporciones: Si x 1 , x 2 , y 1 , y 2 son todos mayores que 5:

p

1

- p

2

(

1

-

2

) ±

⎪ ⎨

z

α

pqˆˆ pqˆˆ 11 2 2 + n n 1 2
pqˆˆ
pqˆˆ
11
2
2
+
n
n 1
2

+

1

2

× M

áx (n ; n

12

)

⎫ ⎪

⎭ ⎪

c) Tamaño de muestra: Para detectar una diferencia δ = p 1 p 2 :

18

TESTS CON DOS MUESTRAS

i) Con información:

2 ⎛ n= ⎜ ⎜ z 2pq + z p q + p q ⎞
2
n= ⎜ ⎜
z
2pq
+
z
p q
+
p q
α
2
β
11
2
2
δ
⎠ ⎟

,

con p = (p 1 +p 2 )/2, q = 1p, q i = 1p i y las p 1 y p 2 lo más cercanas posibles a 0,5±δ/2, compatibles con la información que se posea sobre ellas y tales

que p 1 p 2 = δ.

ii) Sin información: Cuando no hay información previa sobre las p i , la fórmula

anterior se convierte en n = {z α +z 2β

2 1- δ
2
1- δ

} 2 /

2δ .

2

Tabla R.7.1 Presentación de datos cuando se comparan dos proporciones independientes.

Característica Muestras
Característica
Muestras

NO

Totales

1 x

 

1

y

1

n

1

2 x

2

y

2

n

2

Totales

a 1

a 2

N

Tabla R.7.2 Presentación de datos cuando se comparan dos proporciones apareadas.

B SÍ NO Total A SÍ n n 11 12 NO n n 21 22
B
NO
Total
A
n
n
11
12
NO
n
n
21
22
Total
n

7.5 TEST DE COMPARACIÓN DE DOS PROPORCIONES (MUES-

TRAS APAREADAS) (H 0 p 1 =p 2 ) Si los n individuos de una muestra son clasificados según que presenten

(SÍ) o no (NO) una determinada característica tras la aplicación de un tratamien- to A (entendido de modo genérico: no tiene porqué ser un tratamiento médico) y lo mismo tras la aplicación de otro tratamiento B, los datos pueden presentarse como en la Tabla R.7.2. Si p 1 y p 2 son las proporciones de respuestas SÍ a cada tratamiento (en lo que sigue z x siempre en la Tabla 2):

a) Test de McNemar: Si n 12 +n 21 > 10, comparar z exp = {n 12 n 21 ⏐−1} /

b) Intervalo de confianza para la diferencia de proporciones: Si n 12 , n 21 > 5:

n + n 12 21
n
+ n
12
21

vs. z α .

p

1

−∈⎢ p

2

(n

12

n

21

)

±

⎪ ⎨

⎩ ⎪

z

α

2 − n ) (n 12 21 (n + n ) − 12 21 n
2
n
)
(n 12
21
(n
+
n
)
12
21
n

+

0,5

⎫⎤

⎭⎦ ⎪ ⎥

⎪ ⎬

/

n

c) Tamaño de muestra: Para detectar una diferencia p 1 p 2 = δ:

2 , en donde

) es la proporción de individuos que responden SÍ y NO (o NO y

SÍ) a los tratamientos A y B respectivamente, y con p 12 +p 21 sustituido por

lo máximo que pueda valer (sus sumandos lo más próximos posibles a

0,5 ± δ/2) compatible con la información y con que p

ii) Sin información: Cuando no hay información previa sobre las p ij , la fór-

i) Con información: n = {(z

α

p + p 12 21
p
+ p
12
21

+z

2β

p + p −δ 2 12 21
p
+ p
−δ
2
12
21

) / δ}

p 12 (o p 21

1 p 2 = δ.

2

.

mula anterior se convierte n = {(z α +z 2β

1- δ 2
1- δ
2

) / δ}

7.6 GENERALIDADES VÁLIDAS PARA TODO EL RESUMEN AC-

TUAL

a) Muestras: Dos muestras son independientes cuando cada individuo de las mismas proporciona una única observación. Son apareadas, relacionadas o

TESTS CON DOS MUESTRAS

19

dependientes cuando cada individuo proporciona dos observaciones (los da- tos se obtienen por parejas). Cuando la asociación entre esas parejas de datos es positiva, el muestreo apareado es preferible.

b) Test: Las comprobaciones previas a un test de una cola (H 1 ≡μ 1 <μ 2 o H 1

p 1 <p 2 por ejemplo) son las lógicas (

x

1

< x

2

o

1

<

2

).

c) Intervalos de confianza: Todos están construidos como de dos colas. Para una cola cambiar α por 2α y conservar sólo el extremo apropiado.

d) Tamaños de muestra: En las fórmulas para n debe entenderse que:

i) El tamaño pronosticado n alude al tamaño de cada una de las dos mues- tras (n = n 1 = n 2 ), salvo indicación expresa de lo contrario. ii) Aluden a un test de dos colas: Cuando sea de una cola cambiar α por 2α.

1 −μ 2 o de

a diferenciar del valor 0. Si el test es de una cola, lo anterior es

iii) La mínima diferencia importante δ alude al primer valor de ⏐μ

p 1 p 2

válido sin el valor absoluto.

7.7 COMPARACIONES MÚLTIPLES

a) Método de Bonferroni: Cuando deban hacerse K tests de hipótesis sobre los que se desea un error global de α, el nivel de error a utilizar en cada test indi- vidual debe ser de α/K. La Tabla 19 ayuda a obtener las cantidades teóricas t α/K (f g.l.).

b) Método de Newman-Keuls: Al realizar K tests de hipótesis a un error global de α, en el primer paso hacer previsiones para los K tests (error α/K con el método de a), en el segundo paso hacer previsiones para los K' tests que die- ron no significativos en el primero (error α/K' con el método de a)), etc.

20

RESUMEN DEL CAPÍTULO VIII

ENSAYOS CLÍNICOS

8.1 CONCEPTO DE ENSAYO CLÍNICO

Un Ensayo Clínico es un diseño experimentalmente planificado para verifi- car la eficacia de un tratamiento en humanos a través de la comparación de los resultados obtenidos en dos grupos de pacientes que reciben, uno el tratamiento problema, y otro un tratamiento alternativo (nuevo o clásico) o ningún trata- miento, ambos grupos tomados, tratados y seguidos durante igual período de tiempo y obtenidos por la partición al azar en dos de un grupo inicial único. Se rigen por un protocolo.

8.2 OBJETIVO

El objetivo de un EC es que los dos grupos de individuos sean comparables

en todo, excepto en el tratamiento. Las diferencias entre ambos pueden deberse:

a)

Al azar de la toma de muestras: lo controla el método estadístico.

b)

A diferencias existentes entre los dos grupos de individuos (distintas del tra- tamiento y previas a su aplicación): lo controla el diseño del EC.

c)

A diferencia ocurrida en la manipulación y evaluación de los grupos en el curso de la investigación (simultáneas o posteriores a la aplicación de los tra- tamientos): lo controla el tipo de EC.

d)

A diferencias entre los efectos de los dos tratamientos: su determinación, si existe, es el objetivo del EC. Las causas b) y c) producen un sesgo o error sistemático de los datos