A. MARTÍN ANDRÉS J. de D.

LUNA del CASTILLO

RESÚMENES de

BIOESTADÍSTICA
(6ª edición)

Medida

Valores posibles

(Asociación-) Independencia (Asociación+)

Caso

Estimación
ˆ = (O C ) / (O C ) R 11 2 12 1

Estudios en que es válida

0≤R<1 R R=1 1<R<∞ General

ˆ ′ = (O11 + 0,5)(C 2 +1) R (O12 + 0,5)(C1 +1)

Transversales Prospectivos

ˆ oO ˆ′ ˆ O Retrospectivos R Si P(E)<0,1 Riesgo relativo (de FR para E): La probabilidad de enfermar es R veces mayor en los ...

EDICIONES NORMA-CAPITEL (2004)

RESÚMENES de

BIOESTADÍSTICA
(6ª edición)

Estos Resúmenes han sido extraídos del libro publicado en esta misma Editorial

50 ± 10 horas de BIOESTADÍSTICA (1995)
A. Martín Andrés y J. D. Luna del Castillo.

© Antonio Martín Andrés Juan de Dios Luna del Castillo © EDICIONES NORMA-CAPITEL La Chopera, 32. 28230 Las Rozas (Madrid) Reservados los derechos de edición, adaptación o reproducción para todos los países. No está permitida la reproducción total o parcial de este libro, ni su tratamiento informático, ni la transmisión de ninguna forma o por cualquier medio, ya sea electrónico, mecánico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escrito de los titulares del Copyright. ISBN: 84-8451-020-4 Depósito legal:

.

b) La naturaleza cada vez más cuantitativa de las Ciencias de la Salud requiere del Método Estadístico para analizar y poner orden en los datos. . cuyo fin es extender las conclusiones obtenidas en una parte de la población de interés (la muestra) a toda ella. e) La naturaleza del trabajo clínico es en esencia de tipo probabilístico o estadístico. El único modo de validar tales inducciones es por el Método Estadístico. d) El volumen de la información que recibe el profesional de la Salud requiere de conocimientos estadísticos que le permitan leer crítica y comprensivamente los resultados científicos ajenos. d) La Estadística Descriptiva no tiene valor inferencial alguno. representación y resumen de los datos. Las demás razones que siguen son reflejo de esta mayor razón: a) La variabilidad biológica de los individuos objeto de estudio en las Ciencias de la Salud origina que sus datos sean impredecibles y que el modo de controlarlos sea a través del Método Estadístico. clasificar. Su validez está condicionada por la verificación de ciertas hipótesis que no pueden ser violadas.2 DEFINICIÓN DE ESTADÍSTICA No existe una definición internacionalmente aceptada. recopilación de datos y análisis de los resultados. pero para nuestros propósitos basta con esta: “Es el conjunto de métodos necesarios para recoger. Ella sólo describe lo que hay. así como para hacer inferencias (extraer consecuencias) científicas a partir de ellos”. representar y resumir datos. c) Es importante la planificación adecuada de la experiencia. b) El Método Estadístico es un método riguroso para el análisis de datos. no permitiendo extraer conclusiones ciertas sobre nada. cuyo fin es la recogida. f) La perspectiva comunitaria de las Ciencias de la Salud requiere del uso de la Estadística para poder extrapolar las conclusiones desde la parte estudiada de la población a su globalidad. 1. 1. clasificación.1 NECESIDAD Las Ciencias de la Salud son experimentales y se basan en el método inductivo (extensión. disciplinas que dan rigor y objetividad a los clásicos procesos subjetivos de diagnóstico. pronóstico y tratamiento.3 RESUMEN DEL CAPÍTULO I LA ESTADÍSTICA EN LAS CIENCIAS DE LA SALUD 1. de las conclusiones obtenidas en una parte). De ahí que conste de dos partes: a) Estadística Descriptiva. Una planificación incorrecta puede hacer desaprovechable toda la experiencia o una gran parte de ella. al todo.3 CONSIDERACIONES FINALES a) Es importante estar familiarizado con el lenguaje estadístico. c) La investigación en el campo de las Ciencias de la Salud requiere de la Estadística en sus etapas de diseño. b) Inferencia Estadística.

1 presenta esquemáticamente los contenidos y el Resumen del Capítulo que los contiene.1.4 LA ESTADÍSTICA EN LAS CIENCIAS DE LA SALUD 1.4 CONTENIDOS DE ESTOS RESÚMENES El Cuadro R. Descriptiva II Estadística Herramientas Intervalos de confianza y de Aceptación ¿Cuánto vale una característica en una población o individuo? IV y partes del VI y XI Probabilidad Inferencial III Tipos y familias de datos III Test de Hipótesis ¿Es cierta esta hipótesis? Generalidades: V Hipótesis que implican una característica en: Hipótesis que implican dos características (Problemas de Asociación) 1 población VI 2 poblaciones VII 3 o más poblaciones IX Ensayos Clínicos VIII Ambas no numéricas IX Ambas numéricas X y XI Una numérica y otra no XI .

La primera y la última clase pueden ser excepción. . 0/00. etc. c) Pictograma: Se define una figura-motivo y se la repite o se la amplía de modo proporcional a la frecuencia de la clase.3 PRESENTACIÓN GRÁFICA DE LOS DATOS a) Histograma: Sobre cada punto (o intervalo) de las abscisas.2 PRESENTACIÓN TABULAR DE LOS DATOS a) Se les agrupa en clases (si son discretos o cualitativos) o en intervalos de clase de igual longitud (si son continuos o discretos con muchos valores posibles). i) Moda: la clase con mas frecuencia absoluta (si nominal) o relativa (resto de los casos). se levanta una barra (o rectángulo) de tanta altura como frecuencia haya. Sucederá que Σfi = n y Σhi = 1. i) Ordinales: Admiten una ordenación lógica y ascendente. ii) Dicotómicos: Solo aceptan dos posibilidades.. d) Diagrama de sectores: En un círculo. iv) Cuartil: c1=p25. El ángulo que lo delimita es 360×hi (en grados).. 2. b) Polígono de frecuencias: Se unen por una poligonal los puntos del plano que tienen por abscisa la clase o marca de clase y por ordenada la frecuencia. c) Los intervalos de clase vienen definidos por dos números. 2. Multiplicando hi por 100. o número de datos en la clase. iii) Percentil: El percentil pi deja a su izquierda un "i%” de la muestra ordenada de menor a mayor (i=1.4 SÍNTESIS DE DATOS a) Medidas de posición: Describen cómo se encuentra el resto de la muestra con respecto a ellas. (Nominales en otro caso). se asigna a cada clase un sector de área proporcional a la frecuencia de la clase. . b) Cualitativos: No se expresan numéricamente. 99).5 RESUMEN DEL CAPÍTULO II ESTADÍSTICA DESCRIPTIVA 2. 2. con n el número total de datos).1 TIPOS DE DATOS a) Cuantitativos: Se expresan numéricamente. 1. y la frecuencia relativa (hi = fi/n. b) A cada clase se le anota la frecuencia absoluta (fi). el límite inferior (LI) y el límite superior (LS).. 2. la diferencia de ellos es la longitud de clase y la semisuma es la marca de clase. ii) Mediana: divide a la muestra ordenada (de menor a mayor) en dos partes iguales. i) Discretos: Toman valores numéricos aislados. etc se obtienen los %. c3=p75.000. c2=p50. ii) Continuos: Toman cualquier valor (dentro de unos límites dados). obteniendo así un pictograma “de repetición” (o de “amplificación”)..

. . d2=p20.x) 2 1 ⎧ 2 ( Σx i ) 2 ⎫ • Datos no agrupados: s 2 = = ⎨ Σx i ⎬ n -1 n -1 ⎩ n ⎭ • Datos agrupados: s 2 = Σf i x i . v) Rango intercuartílico: c3−c1 vi) Coeficiente de variación: CV = (s/ x )×100%. Σw i b) Medidas de dispersión: Describen cómo de variables o dispersos son los datos. vi) Media aritmética: Σx i • Datos no agrupados: x= n • Datos agrupados: vii) Media ponderada: x p = x = Σw i x i . con wi los pesos de ponderación. ii) Desviación media: dm = Σ⏐xi− x ⏐/n iii) Varianza: En lo que sigue.. rango o amplitud: Es la diferencia entre los valores más grande y más pequeño de la muestra. .x) 2 1 ⎧ ( Σf i x i ) 2 ⎫ 2 = Σ f x ⎨ i i ⎬. con Σfi = n n Σf i (x i . d9=p90.6 ESTADÍSTICA DESCRIPTIVA v) Decil: d1=p10.. n -1 n -1⎩ n ⎭ con Σfi = n iv) Desviación típica: la raíz cuadrada (s) de la varianza. la primera fórmula es la definición y la segunda es la apropiada para el cálculo: Σ(x i . i) Recorrido.

su probabilidad). RESUMEN DEL CAPÍTULO III . ii) Media y Varianza: Son np y npq respectivamente. La existencia de dicho límite se sustenta en la ley de azar (o de estabilización de las frecuencias relativas). se extrae una muestra de tamaño n. que verifican la característica sigue una distribución Binomial (lo que se expresa abreviadamente diciendo que x→B(n.10. y si x es la media de una muestra de tamaño n≥30.a. de entre los n. x sigue aproximadamente una Binomial si N > 40 y n/N (fracción de muestreo) ≤ 0. σ y p. ii) El número de partículas por unidad de medio (si un gran número de partículas están repartidas al azar en una gran cantidad de medio). varianza.1 DEFINICIONES a) Fenómeno aleatorio: Aquel fenómeno cuyo resultado es impredecible. ii) Media y Varianza: λ en ambos casos. de la Naturaleza siguen alguna de las siguientes: a) Distribución Normal: i) Definición: x→N(µ. lo anterior se verifica exactamente para cualquier valor de n. describen las muestras) se definen de igual modo los parámetros poblacionales (que describen las poblaciones o las ˆ son los pov.σ/ n ). En general a ambas funciones se les llama distribución de probabilidad.2 DISTRIBUCIONES DE PROBABILIDAD TEÓRICAS La mayoría de la v.a. cualquiera de media µ y desviación típica σ.a. p)). como la media. Son: i) Discretas: se identifican por la función de probabilidad (regla que asocia a cada valor de la variable. con σ/ n el error estándar. el número x de individuos. c) Variable aleatoria: es el resultado numérico de un fenómeno aleatorio. s2. 1) con P(−zα≤z≤+zα) = 1−α. cuyos individuos verifican una cierta característica dicotómica con probabilidad p. b) Probabilidad (de un resultado dado de un fenómeno aleatorio): Es el límite de la frecuencia relativa del mismo cuando el número de experiencias (repeticiones del fenómeno) tiende hacia infinito. cuya representación gráfica es la curva de densidad.). etc. 1) llamada Normal típica. iii) Propiedad: Si n es suficientemente grande se aproxima a la Normal. Cuando N≠∞. c) Distribución de Poisson: i) Identificación: Son distribuciones de Poisson: i) Una Binomial con n grande y p pequeño. iii) Tabla 2: Para cada α da un zα de una N(0. 3. caiga en los alrededores del punto). σ) si su curva de densidad tiene forma de campana con centro de simetría en µ (media) y dispersión σ (desviación típica). ii) Tipificación: z = (x−µ)/σ → N(0. iii) El número de sucesos que ocurren por unidad de tiempo (si estos suceden al azar e independientemente entre sí). iii) Propiedad: Si λ es suficientemente grande se aproxima a la Normal. b) Distribución Binomial: i) Definición: Si de una población de tamaño (N) infinito.a. σ2. Los paralelos a los parámetros muestrales x . ii) Continuas: se identifican por la función de densidad (que indica cómo de probable es que la v. iv) Teorema Central del Límite: Si x es una v. d) Parámetros poblacionales: Por contraposición a los parámetros muestrales (que. x se distribuye aproximadamente como una Normal: x →N(µ. s y h = p blacionales µ. Si x es Normal.7 DISTRIBUCIONES DE PROBABILIDAD 3.

Usualmente ω dice que ω ˆ ). Normales: Si x→N(µ. Cuando se haya obtenido la muestra y calculado ω ˆ es el parámetro muestral ˆ es una estimación de ω. si la v. 4. Se les determina a través de muestras aleatorias. con media x y desviación s: i) Si σ2 es conocida: µ ∈ x ±zασ/ n . Los casos ii) e iii) requieren comprobar que la muestra del tamaño n aconsejado verifica las especificaciones.2 ESTIMACIÓN Los parámetros poblacionales no suelen ser conocidos. bolas en urna. 4. entonces: i) Si σ2 es conocida: n = (zασ/d)2. α es el error del intervalo y 1−α la confianza del intervalo. con tα en la Tabla 6 con ( n ′ −l) g. c) Tamaño de muestra: Si x→N(µ. en las condiciones de antes. x es no Normal. pero lo mejor es hacerlo a través de una Tabla de Números Aleatorios como la Tabla 5. (a. b) Intervalo con v. Si el n resultante es grande (≥60). etc.. con zα en la Tabla 2. a las expresiones anteriores hay que añadirles el término ±1/(2n) como corrección por continuidad. ˆ = x. entre los cuales está ω con una cierta confianza 1−α.. con zα en la Tabla 2. n ′ el tamaño de la muestra piloto y s2 su varianza. ii) Si σ2 es desconocida pero se conoce un valor máximo para ella: n = {zα×(Máx σ) / d}2.a. El azar puede imitarse mediante dados. σ) y x1. µ b) Por intervalo: Si se asigna al parámetro desconocido (ω) un intervalo de valores.l. de modo que todo individuo de la población tenga igual probabilidad de ser seleccionado y que la selección de uno de ellos no condicione la selección de otro. σ) y se desea obtener un tamaño de muestra n tal que la media x de esa muestra verifique que ⏐ x −µ⏐≤d. si P(a≤ω≤b) = 1−α. b).1 MUESTREO ALEATORIO Las muestras deben tomarse al azar. Se dice que ω ˆ . con zα en la Tabla 2. x es discreta (y saltando de 1 en 1). σ ˆ 2 = s 2 y p=h homónimo del parámetro poblacional ψ a estimar (así. b) es el intervalo de confianza. con zα en la Tabla 2. ii) Si σ2 es desconocida y n≥60: µ ∈ x ±zαs/ n . con zα en la Tabla 2. xn es una muestra aleatoria de ella. La Teoría de la Estimación es la parte de la Inferencia Estadística que sirve para determinar el valor de los parámetros poblacionales en base al de los parámetros muestrales. RESUMEN DEL CAPÍTULO IV . con zα en la Tabla 2.. no Normales: Si. Así. lo que sigue vale aproximadamente: i) Si σ2 es conocida y n≥30: µ ∈ x ±zασ/ n . (a. x2.3 INTERVALO DE CONFIANZA PARA UNA MEDIA µ a) Intervalo con v. y s/ n el llamado error estándar.8 INTERVALOS DE CONFIANZA Y DE ACEPTACIÓN 4. ii) Siσ2 es desconocida: µ ∈ x ±tαs/ n .l.a. iii) Si σ2 es desconocida pero hay una muestra piloto: n = (tαs/d)2.a. se un estimador de ω. En ambos casos. . La estimación puede ser: ˆ) a) Por punto: Si se asigna al parámetro desconocido (ω) un único valor ( ω ˆ es que será su valor aproximado y que depende de la muestra. con tα en la Tabla 6 con (n−1) g. iv) En otro caso: Hacer d=Kσ y n = (zα/K)2..

p): ˆ =x/n. Cuando se desee un intervalo de confianza de una cola.INTERVALOS DE CONFIANZA Y DE ACEPTACIÓN 9 las fórmulas anteriores también valen. p 2 2 z z ⎛ x ± 0.x) x ± ⎨zα + 0..6 INTERVALOS DE ACEPTACIÓN Si x1. En ambos casos el intervalo obtenido contiene al menos al 100π% de la población con una confianza de (1−α).. n−x>5: a) Intervalo: Si x es una observación de ella. ii) Sin información: n = (zα/2d)2. cambiar α por 2α. q=1−p y zα en la Tabla 2. Cuando se le desee de una cola.y con una confianza de 1−α (o con un error de α). b) Variables cualesquiera: ordenar la muestra de menor a mayor y proceder como se indica en la Tabla 10.p2). son x. ω2) a partir de dicha muestra.5.5⎬ n ⎧ ˆˆ pq 1 ⎫ ⎩ ⎭ ˆ ± ⎨z α p∈p + ⎬= n 2n n ⎩ ⎭ con zα siempre en la Tabla 2. b) Tamaño de muestra: Si se desea obtener un tamaño de muestra n tal que la ˆ en ella verifique que ⏐ p ˆ −p⏐≤d.5 GENERALIDADES SOBRE LOS INTERVALOS DE CONFIANZA Las siguientes observaciones son válidas para todos los intervalos de confianza: a) Los intervalos de confianza construidos son de dos colas -es decir del tipo ω ∈ (ω1. con p el valor de dicho intervalo que esté más cercano a 0. además. entonces: proporción p i) Con información: Si en base a una información previa -bibliográfica o de muestra piloto. ˆ −ω2⏐≤ d. n−x>20: ⎧ ⎫ x(n .5) ⎜1 ⎟ 2 4 n ⎠ ⎝ p∈ 2 n + zα expresión que se puede simplificar en esta otra si. En el primer caso hace falta comprobar que la muestra del tamaño n aconsejado verifica las especificaciones. La expresión primera es siempre más exacta que la segunda. con ω ˆ igual a x o p ⏐ω 4. b) Las fórmulas de tamaño de muestra son válidas para un intervalo de confianza de dos colas al error α. ω2). 4. continua de parámetros desconocidos: a) Variables Normales: x ∈ x ± Ks.. El modo de hacerlo pasa por determinar el intervalo de confianza ω ∈ ˆ −ω1⏐≤ d y (ω1. xn es una muestra aleatoria de una v. con zα siempre en la Tabla 2. deberá ocurrir que ⏐ ω ˆ según el caso. c) En ciertos casos del tamaño de muestra se alude a que al final hay que comprobar que la muestra del tamaño aconsejado verifica las especificaciones.se conoce que p∈(p1.a. si x es no Normal. El intervalo será ω≤ω2 o ω≥ω1.5 ⎞ (x ± 0. con x y s la media y desviación típica de la muestra y K en la Tabla 9. aproximadamente.5) + α ± z α α + (x ± 0.4 INTERVALO DE CONFIANZA PARA UNA PROPORCIÓN Si x→B(n. . 4. n = (zα/d)2pq. obtener el extremo que interese (ω1 o ω2) al error 2α. q ˆ =1− p ˆ y son x. . x2.

de Tipo I o nivel de significación: α = P(decidir H1⏐es cierta H0). si el valor que toma en ella el estadístico de contraste está en la región de aceptación se acepta H0. Por ello las decisiones por H1 son siempre fiables. En particular: a) El error α está controlado. se acepta H1. Por ello las decisiones por H0 no son de fiar. y lo de fuera de él región crítica o de rechazo.3 ELECCIONES PREVIAS Antes de realizar un test. el investigador debe decidir cuatro cosas: a) H0: Hipótesis formada por una igualdad o afirmación positiva. Obtenida la muestra.a.5 ERRORES Toda decisión por H1 viene acompañada de una posibilidad de error llamada error α. b) H1: Es la hipótesis que se quiere demostrar fuera de toda duda.2 TIPOS a) Test bilateral o de dos colas: Si H1 es la negación de H0. El intervalo -que será de dos colas en los test bilaterales y de una cola (con la desigualdad en el mismo sentido que la de H1) en los unilaterales. 5.1 OBJETIVO Un test o contraste de hipótesis es un conjunto de reglas tendentes a decidir cuál de dos hipótesis -H0 (hipótesis nula) o H1 (hipótesis alternativa). (dependiente de los valores de la muestra y que comprime toda la información relevante de ella) que se va a utilizar para realizar el test. Podrá ser una parte de la negación de H0 si la otra parte implica una conclusión equivalente a la que proporciona H0.10 RESUMEN DEL CAPÍTULO V CONCEPTO GENERAL DE TEST DE HIPÓTESIS 5. d) Estadístico de contraste: Es la v.es llamado región de aceptación. c) α: Es un valor tanto más pequeño cuantas más garantías se precisen de que una decisión por H1 sea correcta. 5. En el primer caso se dice que el test (o el resultado) es estadísticamente no significativo. . en el segundo se dice que es test (o el resultado) es estadísticamente significativo (ambos al error α). pues se fija de antemano. 5.4 MÉTODO Para tomar la decisión debe obtenerse un conjunto de valores del estadístico de contraste (intervalo) cuya probabilidad (bajo H0) sea α.debe aceptarse en base al resultado obtenido en una muestra. 5. Toda decisión por H0 viene acompañada de una posibilidad de error llamada error β o de Tipo II: β = P(decidir H0⏐es cierta H1). b) Test unilateral o de una cola: Si H1 es una parte de la negación de H0. b) El error β no está controlado de antemano y puede ser grande. Usualmente α=5% . si está fuera.

es decir la primera H1 (digamos ω1) que se desea diferenciar de H0 (digamos ω0). d) Fijado un valor de α: si P ≤ α se decide H1. b) La primera alternativa de interés. Si el test es para H0 ≡ ω=ω0. c) En un test de una cola (en el sentido favorable) P suele ser la mitad de su valor en el test de dos colas.9 INTERVALOS DE CONFIANZA TRAS UN TEST DE HIPÓTESIS a) Tras realizar un test de hipótesis acerca de parámetros es conveniente dar un intervalo de confianza para el parámetro implicado. midiendo por tanto las evidencias que hay en contra de H0 (pero no mide cuánto de falsa es H0). o la mínima diferencia de interés δ = ⏐ω1−ω0⏐. b) Cuando el test es de dos colas. c) Cuando el test es de una cola. 5. la primera alternativa de interés será ω1 = ω0+δ para H1 ≡ ω>ω0. al error β y con la desigualdad en el sentido contrario al que indica H1 si se concluyó H0). . c) El error β (o la potencia θ) para tal alternativa. o menos veces si es menor). El n obtenido garantiza que el test realizado con tal muestra (al error α) dará significativo el (1−β)×100% de las veces en que la verdadera hipótesis H1 se diferencie de H0 en la cantidad δ especificada (o más veces si la diferencia es mayor. e) Las conclusiones de un test suelen expresarse así: H0 (P>tal) o H1 (P<cual). en el caso de tests acerca de parámetros su representación gráfica da la curva de potencia. si P ≥ α se decide H0.6 POTENCIA DE UN TEST Se llama potencia θ a la capacidad que tiene un test para detectar las hipótesis alternativas. 5. Para determinar n hace falta especificar: a) El error α del test. 5. conforme H1 se aleja de H0 y conforme aumenta el tamaño de la muestra (si todo lo demás permanece fijo). el intervalo será de dos colas (al error α si se concluyó H1. al error 2β si se concluyó H0). d) El error β disminuye conforme aumenta α.8 TAMAÑO DE MUESTRA Determinando el tamaño de muestra n de antemano las conclusiones por H0 también son fiables (las conclusiones por H1 siempre lo son). tanto si se concluye H0 (para así matizar la posible magnitud del error de tal conclusión) como si se concluye H1 (para así indicar cuánto de falsa es H0). ω1 = ω0−δ para H1 ≡ ω<ω0 o ω1 = ω0±δ para H1 ≡ ω≠ω0. Un test es tanto mejor cuanto más potente sea. 5. es decir: θ = 1−β = P(decidir H1⏐es cierta H1) Como es función de la hipótesis alternativa. el intervalo será de una cola (al error α y con la desigualdad en el sentido que indica H1 si se concluyó H1. pero el error β depende de la alternativa que se considere.7 VALOR P a) Al mínimo error α al cual un resultado es significativo se le llama valor P o nivel crítico P o nivel mínimo de significación. b) P es también la probabilidad de obtener un resultado tan extraño o más que el obtenido cuando H0 es cierta.CONCEPTO GENERAL DE TEST DE HIPÓTESIS 11 c) El error α es un único número.

12 CONCEPTO GENERAL DE TEST DE HIPÓTESIS 5. El intervalo de confianza ω ∈ (ωI. pero se conocen los errores α y β y la mínima diferencia de interés δ (o la primera alternativa de interés ω1 a la hipótesis nula ω0): i) Si P≤α se concluye H1 (la decisión es fiable). indicando que hay indicios de significación y que conviene ampliar la muestra y repetir el test.10 REGLAS PARA TOMAR LA DECISIÓN a) Si n fue determinado de antemano: i) Si P≤α se concluye H1 (la decisión es fiable). c) En otro caso (Regla Automática de Decisión para el caso de α=5%): i) Si P≤5%: Se concluye H1. la conclusión por H0 no es fiable (y debe ampliarse la muestra y repetir el test). iii) En otro caso: Se concluye H0. ii) Si P>α se concluye H0 (la decisión es fiable).9b) y c) permite tomar la decisión final: si la primera alternativa de interés ω1 = ω0−δ (para H1 ≡ ω<ω0). ii) Si P>15% o 20% (depende de n): Se concluye H0. b) Si n no se determinó de antemano. . ωS) construido en base a lo indicado en el Resumen 5. en otro caso la conclusión por H0 es fiable (y el problema finaliza). ii) Si P>α se concluye H0 ≡ ω=ω0 provisionalmente. ω1 = ω0+δ (para H1 ≡ ω>ω0) o alguna de las ω1 = ω0±δ (para H1 ≡ ω≠ω0) pertenece al intervalo.

zα de la Tabla 2.) de la Tabla 6.1 CRITERIOS GENERALES PARA TODOS LOS TESTS DE HIPÓTESIS Salvo indicación expresa de lo contrario. tα(n−1 g. Entonces: Si Cexp < Cα se decide H0 (al error α). d) Tamaño de la muestra: Las fórmulas de tamaño de muestra que se verán sirven para determinar el mínimo tamaño de muestra preciso para que un test de dos colas al error α dé significativo el (1−β)×100% de las veces en que la verdadera hipótesis H1 se diferencie de H0 en la cantidad δ que se especifique (o más veces si la diferencia es mayor.13 RESUMEN DEL CAPÍTULO VI TESTS CON UNA MUESTRA 6. La decisión se toma en función de P y en el modo indicado en el Resumen 5.5 de entre los p0±δ. Si Cexp ≥ Cα se decide H1 (con error α) b) Obtención del valor P (dos colas): Localizar en la Tabla teórica dos valores C tales que Cα′′ < Cexp < Cα′ (con α′ < α′′ ).5) / np0 q 0 con una zα de la Tabla 2. p1=p0+δ para H1≡p>p0.. en tal caso α′ < P < α′′ . con µ desconocida: a) Test: Si x1. pero se sabe el máximo valor que puede tomar: n = {(zα+z2β)×(Máx σ) / δ}2. comparar zexp = (⏐x−np0⏐−0. En todo caso. b) Tamaño de la muestra: Para detectar alternativas µ1 con ⏐µ1−µ0⏐=δ: i) Siσ2 es conocida: n = {(zα+z2β)σ/δ}2 con las z en la Tabla 2. o menos veces si es menor).l. ii) Si σ2 es desconocida.. ii) Si SÍ es conforme con H1: Actuar como en a) pero en base a 2α u obtener el valor de P como b) y dividirlo por 2: α′ / 2 < P < α′′ / 2 .2 TEST DE HIPÓTESIS PARA UNA PROPORCIÓN (H0 ≡ p=p0) Si x→B(n. 6.10. x2. 6. ii) Si σ2 es desconocida: texp =⏐ x −µ0⏐/ (s/ n ) vs. p).3 TEST PARA LA MEDIA DE UNA NORMAL (H0 ≡ µ=µ0) Si x→N(µ.n0= {(zα p0 q 0 +z2β p1q1 )/δ}2 con q1 = 1−p1. todos los tests de hipótesis se basarán en los siguientes criterios: a) El criterio de test (dos colas): Calcular una cantidad experimental (Cexp) a partir de los datos y una cantidad teórica (Cα) a partir de las tablas para un error α dado. b) Tamaño de la muestra: Para detectar alternativas p1 -con ⏐p1−p0⏐= δ. c) Test de una cola: Comprobar si lo experimental es conforme con H1 y: i) Si NO es conforme con H1: Decidir H0 sin más. las z en la Tabla 2 y: i) En tests de una cola: p1=p0−δ para H1≡p<p0.. σ). con las z en la Tabla 2. . con p desconocido: a) Test: Si x es una observación de ella y ocurre que np0>5 y nq0>5. con q0 = 1−p0. ii) En tests de dos colas: p1 el valor más cercano a 0. xn es una muestra aleatoria de x de media x y varianza s2: i) Si σ2 es conocida: zexp = ⏐ x −µ0⏐ / (σ/ n ) vs. . cuando el test es de una cola hay que cambiar en la fórmula α por 2α.

. Comparar texp = ⏐xS− x ⏐ / Σx i2 -(Σx i ) 2 / n con una tα de la Tabla 13 por el modo allí se indicado.a.7 RECHAZO DE OBSERVACIONES EXTREMAS (H0 ≡ “La observación xS debe aceptarse”) Si x1.3 es válido aproximadamente.l. . x2. 6. Normal”) Si x1.5 MÉTODOS DE MEDIDA a) Un método de medida se dice que es insesgado si en promedio mide lo que realmente hay. pero ahora el valor P para la segunda es P = P1+P2.. representando en le plano las parejas (xi. pero hay una muestra piloto de tamaño n′ y varianza s2: n = {(tα+t2β)s/δ}2 con las t en la Tabla 6 con ( n ′ −1) g. Será impreciso en otro caso. x Normal y x es su media.. 6..4 TEST DE HIPÓTESIS PARA LA MEDIA DE UNA VARIABLE CUALQUIERA (H0 ≡ µ=µ0) Si x es una variable cualquiera de media µ desconocida y varianza σ2. xn es una muestra aleatoria de una v..a.14 TESTS CON UNA MUESTRA iii) Si σ2 es desconocida. Fn(xi)) y comparando la curva obtenida con las curvas más usuales. comparar con una Dα de la Tabla 11 (por el modo allí indicado) la cantidad: 2 2 Dexp = {Σixi−(n+1)(Σxi)/2)} / {n n ⎡ ⎣ Σx i . es decir xS = Máxi ⏐xi− x ⏐.. Si el test da significativo (con valor P=P1) rechazar la observación.6 TEST DE NORMALIDAD DE D’AGOSTINO (H0 ≡ “La muestra proviene de una v. el Resumen 6. con lo que quedan así: ⏐ x −µ0⏐−1/(2n). Será sesgado en otro caso. la observación sospechosa xS será aquella que más diste de x . la comprobación de la causa de la no-Normalidad se hace calculando Fn(xi) = {nº de observaciones menores o iguales que xi}/n. Con las n−1 observaciones restantes puede intentarse rechazar otra observación (valor P2).. b) Cuando σ2 es desconocida: Si n≥60 (pero las cantidades t se miran también en la Tabla 2). . c) Un método de medida se dice que es exacto si es insesgado y preciso. b) Un método de medida se dice que es preciso si tiene poca variabilidad (varianza). con las z de la Tabla 2. c) Si la variable es discreta y saltando de 1 en 1: Al numerador de las cantidades experimentales hay que restarles 1/(2n). x2. 6. 6. iv) Si σ2 es desconocida y no hay muestra piloto: Haciendo δ = Kσ.( Σx i ) / n ⎤ ⎦} Si el test da significativo. con las siguientes matizaciones: a) Cuando σ2 es conocida: Si n≥30. n = {(zα+z2β)/K}2. xn es una muestra aleatoria ordenada de menor a mayor.

con la misma notación. 6 la cantidad texp = ⏐ d ⏐/ s d c) Intervalo de confianza para la diferencia de medias: La siguiente expresión es válida para los tres casos citados en a) y b). con s 2 = 1 t exp = n n 2 + − n + n2 1 2 s2 1 n 1n 2 ii) Si Fexp≥F0. n. ….provienen de variables de medias µ1 y 2 2 2 2 2 µ2 y varianzas σ1 y σ2 desconocidas. σd). 2. la segunda 2 cuando hay una muestra piloto de tamaños n ′ i y varianza común s (con ′ + n′2 − 2 ). f ′ = n1 ii) Muestras independientes (Varianzas distintas): Si r = σ2/σ1 (o s2/s1): . para detectar una diferencia ⏐µ1−µ2⏐= δ (en lo que sigue. entonces: i) Si Fexp<F0. n = 2 × ⎜ δ ⎝ ⎠ ⎝ K ⎠ ⎝ δ ⎠ la primera expresión cuando σ (o su máximo) es conocida.15 RESUMEN DEL CAPÍTULO VII TESTS DE HOMOGENEIDAD CON DOS MUESTRAS 7. n2−1] de la Tabla 8. x2) y n parejas de datos (x1i. con: 2 2 2 ⎛ z α + z 2β ⎞ ⎛ t α + t 2β ⎞ 2 ⎛ z α + z 2β ⎞ 2 n=⎜ ⎟ 2σ . con s1 ≥ s 2 y compararla con F0. 2 medias x1 y x 2 y varianzas s1 y s2 2 .l.): i) Muestras independientes (Varianzas iguales): n1=n2=n. obtener sus diferencias di = x1i−x2i y la media ( d ) y desviación (sd) de las mismas. con A= 1 . B= 2 y f = t exp = 1 A2 B2 n1 n2 A+B + n1 − 1 n 2 − 1 b) Test para muestras apareadas (Test de Student): Dadas dos v. zx en la Tabla 2. x2i) de las mismas.a. con µi la media de xi. comparar con una tα(n−1) de la Tabla 2 /n .1 TESTS PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE VARIABLES NORMALES (H0 ≡µ1=µ2) a) Test para muestras independientes: Si las muestras -de tamaños n1 y n2.10 [n1−1. con i=1. Si d → N(µd=µ1−µ2.10 (Varianzas distintas: σ1≠σ2) (Test de Welch): Comparar con una tα(f) de la Tabla 6 la cantidad: x − x2 s2 s2 (A + B) 2 .10 (Varianzas iguales: σ1=σ2=σ) (Test de Student): Comparar con una tα(n1+n2−2) de la Tabla 6 la cantidad: 2 x1 − x 2 (n − 1)s1 + (n 2 − 1)s 2 2 . y la tercera cuando δ = Kσ. tx en la Tabla 6 con f ′ g. (x1. condiciones y alusiones de entonces: µ1−µ2∈(numerador de la texp sin valor absoluto) ± tα×(denominador de la texp) d) Tamaño de muestra: Con igual notación que en a) y b). n = ⎜ ⎟ ⎟ 2s . obtener Fexp = s1 / s2 2 .

b) Test para muestras apareadas: Comparar con una zα de la Tabla 2 la canti2 /n ..1. el rango n al elemento xn.3 TESTS NO PARAMÉTRICOS (TEST DE WILCOXON) PARA COMPARAR DOS MUESTRAS DE VARIABLES CUALESQUIERA (H0 ≡ La primera población no tiende a dar valores más altos o más bajos que la segunda) a) Asignación de rangos: En lo que sigue se hablará de “asignar rangos a una muestra ordenada”. la tercera cuando δ = Kσ1. n1 =(r+1) ⎜ ⎟ δ ⎝ ⎠ ⎝ δ ⎠ ⎝ K ⎠ la primera expresión cuando σ1 (o su máximo) es conocida. dada una muestra ordenada de menor a mayor (x1≤x2≤ . Las reglas aconsejadas son las siguientes: a) Test para muestras independientes: Comparar con una zα de la Tabla 2 la 2 cantidad zexp = x1 − x 2 / s1 / n1 + s 2 2 / n2 . dad zexp = d / s d c) Intervalo de confianza para la diferencia de medias: Con la notación de a) y b): µ1−µ2∈(numerador de la zexp sin valor absoluto) ± tα×(denominador de la zexp) d) Tamaño de muestra: Es válido lo indicado en el Resumen 7. n = ⎜ ⎟ sd . gran parte de lo indicado allí es aproximadamente válido si las muestras son grandes (mayores que 30 o 60 según lo no Normal que sea la variable).d) -con las t miradas también en la Tabla 2. en las condiciones y notación del Resumen 7.. la segunda 2 (con f ′ = cuando hay una muestra piloto de tamaño n′ y varianza s d ′ n −1).. la segunda 2 ′ cuando hay una muestra piloto de tamaños n ′ i y varianzas s i (con f = 2 2 ′ ′ (1+r ) / {(1/( n1 −1)+ r / ( n 2 −1)}). iii) Muestras apareadas: 2 2 2 ⎛ z α + z 2β ⎞ 2 ⎛ t α + t 2β ⎞ 2 ⎛ z α + z 2β ⎞ n=⎜ ⎟ σd . la tercera cuando ⏐µ1−µ2⏐= Kσd. asignar el rango 1 al elemento x1. Por tal se entiende al proceso de.1. ii) Muestras apareadas: c = 1/(2n). entonces n2 = rn1. el rango 2 al elemento x2. las variables implicadas (x o d) no son Normales. conviene efectuar una corrección por continuidad consistente en sumar al radio del intervalo de confianza la cantidad ±c o restar al numerador de la zexp la cantidad c.. ≤xn). n = ⎜ ⎟ δ ⎝ ⎠ ⎝ δ ⎠ ⎝ K ⎠ la primera expresión cuando σd (o su máximo) es conocido. 7. n1 = ⎜ ⎟ (r + 1)s1 . e) Variables discretas: En los casos a). Obtenido n1.2 TESTS NO PARAMÉTRICOS PARA COMPARAR DOS MEDIAS DE VARIABLES CUALESQUIERA (H0 ≡µ1=µ2) Si. Cuando haya varios elementos xi consecutivos iguales (empates) a cada uno de ellos se le asigna . si la variable implicada es discreta y saltando de 1 en 1. 2 2 7.16 2 TESTS CON DOS MUESTRAS ⎛ z α + z 2β ⎞ ⎛ t α + t 2β ⎞ ⎛ z α + z 2β ⎞ 2 2 n1 = ⎜ ⎟ (r + 1)σ1 . con: i) Muestras independientes: c = 1/ {2 Máx (n1. b) y c)..si el n final predicho es superior a 30 o 60. n2)}. .

1. n2)/N > 5.. p ˆ i =1− p ˆi y q ˆ =1. Llamar por Rexp a la suma de rangos (R1) de la muestra de menor tamaño y entonces: i) Si n1+n2≤30: Comparar Rexp con una Rα de la Tabla 14 por el modo allí indicado.1) c) Muestras apareadas (Test de Wilcoxon): Dadas n' parejas de datos. unir las dos muestras en una sola. = xs. en tanto que cuando haya r grupos de t1. y2 son todos mayores que 5: ⎧ ⎫ ˆq ˆ p ˆ q ˆ p 1 ⎪ ⎪ ˆ1 . zα n1 +n 2 ˆ ˆ pq n1 × n 2 b) Intervalo de confianza para la diferencia de proporciones: Si x1. a2)×Mín (n1..TESTS CON DOS MUESTRAS 17 el rango promedio que tendrían si fueran distintos. . t2. V(R) = {2n(n+1)(2n+1)−ΣTi}/48 con Ti = (ti−1)ti(ti+ 1) = t 3 i . Deberá suceder que R1+R2 = (n1+n2)×(n1+n2+1)/2. en tanto que cuando haya r grupos de t1. rechazar las que sean cero.ti 12(n1 + n 2 )(n1 + n 2 . t2.ti . b) Muestras independientes (Test de Wilcoxon): Dadas dos muestras independientes de tamaños n1 y n2 (n1≤n2 por convenio). es lo mismo.5} / V(R) con una zα de la Tabla 2. x2. .ΣTi V(R)= × n1n 2 . en donde E(R) = (n1+n2+1)n1/2 y V(R) = (n1+n2+1)n1n2/12 si no hay empates. y1.p2 ∈ ( p ⎬ n n áx (n . asignarle rangos a sus elementos y calcular las sumas de rangos (R1 y R2) de los elementos de cada una de las muestras. llamando por ˆ i =xi/ni. con Ti=(ti−1)ti(ti+1)= t 3 i ..con una Rα de la Tabla 15 por el modo allí indicado. pi).1} .. si xr = xr+1 = . pues se utiliza la aproximación de la Binomial a la Normal): a) Test: Si E = Mín (a1. obtener las n' diferencias entre ellas. tr empates cada uno: (n1 + n 2 ) {(n1 + n 2 )2 . con i=1. en donde E(R) = n(n+1)/4 y V(R) = n(n+1)(2n+1) / 24 cuando no hay empates. son independientes. comparar 1 ˆ1 . tr empates cada uno. asignarles rangos y calcular las sumas de rangos -R(+) y R(−). n 2 ) zexp = vs. ii) Si n>25: Comparar la cantidad zexp = {⏐R(+)−E(R)⏐−0.. q p pre en la Tabla 2. n ) × 2 M ⎪ ⎪ 1 2 1 2 ⎭ ⎩ c) Tamaño de muestra: Para detectar una diferencia δ = ⏐p1−p2⏐: . Deberá suceder que R(+)+R(−) = n(n+1)/2. ordenarla de menor a mayor. y si de cada una de ellas se obtiene una muestra en el formato de la Tabla R. a cada elemento se le asigna el rango promedio (r+s)/2.7..p ˆ2 p 2 × Máx (n1.5} / V(R) con una zα de la Tabla 2.de las diferencias positivas y negativas.p ˆ (en lo que sigue las cantidades zx siemˆ =a1/N. 7. ordenar el resto (n) de menor a mayor valor de sus valores absolutos. por ejemplo...4 TESTS DE COMPARACIÓN DE DOS PROPORCIONES (MUESTRAS INDEPENDIENTES) (H0 ≡ p1=p2) Si xi→B(ni. ii) Si n1+n2>30: Comparar zexp = {⏐Rexp−E(R)⏐−0. entonces. Entonces: i) Si n≤25: Comparar R(+) -o R(−).p ˆ 2 ) ± ⎨ zα 1 1 + 2 2 + p1 . 2.

Tabla R. los datos pueden presentarse como en la Tabla R. 2 Característica SÍ Muestras 1 2 Totales NO Totales A B SÍ SÍ NO Total NO Total x1 x2 a1 y1 y2 a2 n1 n2 N n11 n21 n12 n22 n 7.5 ± δ/2) compatible con la información y con que ⏐p1−p2⏐= δ. comparar zexp = {⏐n12−n21⏐−1} / n12 + n 21 vs. y con p12+p21 sustituido por lo máximo que pueda valer (sus sumandos lo más próximos posibles a 0.1 Presentación de datos cuando se comparan dos proporciones independientes. qi = 1−pi y las p1 y p2 lo más cercanas posibles a 0.7.18 TESTS CON DOS MUESTRAS i) Con información: ⎛ z 2pq + z2β p1q1 + p2q 2 ⎞ n= ⎜ α ⎟ .5 TEST DE COMPARACIÓN DE DOS PROPORCIONES (MUESTRAS APAREADAS) (H0 ≡ p1=p2) Si los n individuos de una muestra son clasificados según que presenten (SÍ) o no (NO) una determinada característica tras la aplicación de un tratamiento A (entendido de modo genérico: no tiene porqué ser un tratamiento médico) y lo mismo tras la aplicación de otro tratamiento B.7. 7. ⎜ ⎟ δ ⎝ ⎠ con p = (p1+p2).5⎬⎥ / n p1 − p 2 ∈ ⎢(n12 − n 21 ) ± ⎨z α (n12 + n 21 ) − 12 n ⎢ ⎪ ⎪⎥ ⎩ ⎭ ⎣ ⎦ c) Tamaño de muestra: Para detectar una diferencia ⏐p1−p2⏐= δ: i) Con información: n = {(zα p12 + p21 +z2β p12 + p21 − δ2 ) / δ}2. la fórmula anterior se convierte n = {(zα+z2β 1 . en donde p12 (o p21) es la proporción de individuos que responden SÍ y NO (o NO y SÍ) a los tratamientos A y B respectivamente.δ2 }2 / 2δ2.5±δ/2. q = 1−p. relacionadas o .2 Presentación de datos cuando se comparan dos proporciones apareadas. Tabla R.δ2 ) / δ}2. n21 > 5: ⎡ ⎧ ⎫⎤ (n − n 21 ) 2 ⎪ ⎪ + 0. la fórmula anterior se convierte en n = {zα+z2β 1 . Si p1 y p2 son las proporciones de respuestas SÍ a cada tratamiento (en lo que sigue zx siempre en la Tabla 2): a) Test de McNemar: Si n12+n21 > 10.6 GENERALIDADES VÁLIDAS PARA TODO EL RESUMEN ACTUAL a) Muestras: Dos muestras son independientes cuando cada individuo de las mismas proporciona una única observación. compatibles con la información que se posea sobre ellas y tales que ⏐p1− p2⏐ = δ. b) Intervalo de confianza para la diferencia de proporciones: Si n12. Son apareadas. zα.7. ii) Sin información: Cuando no hay información previa sobre las pi.2. ii) Sin información: Cuando no hay información previa sobre las pij.

p1<p2 por ejemplo) son las lógicas ( x1 < x 2 o p c) Intervalos de confianza: Todos están construidos como de dos colas. Cuando la asociación entre esas parejas de datos es positiva. .TESTS CON DOS MUESTRAS 19 dependientes cuando cada individuo proporciona dos observaciones (los datos se obtienen por parejas). en el segundo paso hacer previsiones para los K' tests que dieron no significativos en el primero (error α/K' con el método de a)).l. lo anterior es válido sin el valor absoluto. b) Test: Las comprobaciones previas a un test de una cola (H1 ≡ µ1<µ2 o H1 ≡ ˆ1 < p ˆ 2 ). ii) Aluden a un test de dos colas: Cuando sea de una cola cambiar α por 2α.).7 COMPARACIONES MÚLTIPLES a) Método de Bonferroni: Cuando deban hacerse K tests de hipótesis sobre los que se desea un error global de α. en el primer paso hacer previsiones para los K tests (error α/K con el método de a). 7. iii) La mínima diferencia importante δ alude al primer valor de ⏐µ1−µ2⏐ o de ⏐p1−p2⏐ a diferenciar del valor 0. La Tabla 19 ayuda a obtener las cantidades teóricas tα/K (f g. salvo indicación expresa de lo contrario. d) Tamaños de muestra: En las fórmulas para n debe entenderse que: i) El tamaño pronosticado n alude al tamaño de cada una de las dos muestras (n = n1 = n2). Para una cola cambiar α por 2α y conservar sólo el extremo apropiado. el nivel de error a utilizar en cada test individual debe ser de α/K. el muestreo apareado es preferible. b) Método de Newman-Keuls: Al realizar K tests de hipótesis a un error global de α. etc. Si el test es de una cola.

uno el tratamiento problema. tratados y seguidos durante igual período de tiempo y obtenidos por la partición al azar en dos de un grupo inicial único. c) Un estudio es aleatorizado si. Se haga de un modo u otro. 8. y otro un tratamiento alternativo (nuevo o clásico) o ningún tratamiento. debe indicarse al final la ficha técnica de las muestras utilizadas (incluyendo en ella toda la información pertinente sobre la distribución en cada muestra de todos los posibles factores de riesgo).3 TIPOS DE ENSAYOS CLÍNICOS a) Grupo Control: El que no recibe tratamiento alguno.2 OBJETIVO El objetivo de un EC es que los dos grupos de individuos sean comparables en todo. Un EC debe ser concurrente. b) A diferencias existentes entre los dos grupos de individuos (distintas del tratamiento y previas a su aplicación): lo controla el diseño del EC. Las diferencias entre ambos pueden deberse: a) Al azar de la toma de muestras: lo controla el método estadístico. El grupo Control no concurrente puede ser histórico o literario. ambos grupos tomados. excepto en el tratamiento.4 TIPOS DE ESTUDIOS CLÍNICOS Y CONDICIONES PARA QUE SEAN UN ENSAYO CLÍNICO a) Un estudio es experimental cuando el tratamiento está controlado. Un EC debe ser aleatorizado. d) A diferencias entre los efectos de los dos tratamientos: su determinación. Las causas b) y c) producen un sesgo o error sistemático de los datos. la asignación del tratamiento se hace al azar por un mecanismo de sorteo. 8. c) Técnica de simple ciego: El enfermo no conoce qué tratamiento recibe. es el objetivo del EC. . 8.20 RESUMEN DEL CAPÍTULO VIII ENSAYOS CLÍNICOS 8. tratan y siguen durante el mismo período de tiempo.1 CONCEPTO DE ENSAYO CLÍNICO Un Ensayo Clínico es un diseño experimentalmente planificado para verificar la eficacia de un tratamiento en humanos a través de la comparación de los resultados obtenidos en dos grupos de pacientes que reciben. si existe. c) A diferencia ocurrida en la manipulación y evaluación de los grupos en el curso de la investigación (simultáneas o posteriores a la aplicación de los tratamientos): lo controla el tipo de EC. En otro caso el estudio es no concurrente. ni el médico ni el comité que monitoriza el EC (incluyendo al bioestadístico) conocen qué tratamiento se está aplicando. En otro caso es no aleatorizado. e) Técnica de triple ciego: Ni el enfermo. b) Un estudio es concurrente cuando los dos grupos de individuos se toman. Un EC debe ser controlado. b) Grupo Placebo: El que recibe un tratamiento ficticio (aplicado con los mismos “ritos” que el tratamiento problema). siendo controlado. es decir cuando es el investigador quien decide qué tratamiento se da a cada enfermo. Se rigen por un protocolo. d) Técnica de doble ciego: Ni el enfermo ni el médico conocen qué tratamiento se está aplicando. En caso contrario (tratamiento no controlado) el estudio es observacional.

del error α. b) Diseño cruzado (en muestras apareadas): Si la mitad de los individuos reciben los tratamientos en un orden y la otra mitad en el orden contrario. 8. si uno de los tratamientos es un control) a doble ciegas y con diseño cruzado. Requieren del consentimiento informado del paciente. Los divide en cuatro tipos (según sus objetivos): de Fase I (estudios. tener introducido el orden de aplicación de los tratamientos en unos sobres opacos numerados y cerrados. en ensayos doble ciego. de la razón de asignación. Cada clase en que se divide un factor de riesgo se llama nivel. 8. muerte. del 13-5-93) entiende por tal a toda evaluación experimentar de una sustancia o medicamento en el ser humano. tener relevancia clínica.9 LOS ENSAYOS CLÍNICOS EN ESPAÑA: FASES DE UN ENSAYO La legislación española (B.6a). de Fase IV (estudios con medicamentos ya comercializados para valorar nuevos aspectos de los mismos). El orden de importancia es el de escritura. Si el EC es multicéntrico conviene estratificar por Centros.7 EL ENSAYO CLÍNICO IDEAL a) Con respecto al tipo y diseño: Aleatorizado (con placebo. de Fase III (estudios en enfermos para evaluar la eficacia y seguridad del tratamiento frente a otros alternativos y en condiciones de uso habituales). poder ser observada con independencia del tratamiento. del tipo de respuesta. del conocimiento acerca de ciertos parámetros poblacionales y de que haya una o más medidas de la respuesta. Es preferible tener una lista aleatoria ya construida de antemano o. . de la hipótesis a probar. de la mínima diferencia δ a detectar.5 TIPOS DE DISEÑOS a) Diseño en muestras independientes o apareadas: Ver el Resumen 7. etc) o una medida indirecta (presión sanguínea. ser elegida antes de comenzar la recolección de los datos y ser lo más informativa posible.6 MÉTODOS DE ASIGNACIÓN ALEATORIA DEL TRATAMIENTO La aleatorización debe realizarse mediante una Tabla de Números Aleatorios como la Tabla 5. b) Hipótesis a contratar: Casi siempre el test es de una cola (excepto si los dos tratamientos son nuevos o los dos son clásicos). de Fase II (estudios en enfermos para evaluar la eficacia del producto y ampliar la información sobre su seguridad y dosificación). estar libre de errores de medida. de si el test es de una o de dos colas.E. seguridad y dosificación del producto.ENSAYOS CLÍNICOS 21 8. c) Medida de la respuesta: Puede ser un suceso clínico (curación. d) Tamaño de muestra: Ahora es imprescindible determinarlo para evitar rechazar tratamientos que pudieran ser efectivos. 8. nivel de colesterol. Cada conjunción de niveles de los factores considerados se llama estrato. para evaluar el efecto.8 LA ÉTICA EN LOS ENSAYOS CLÍNICOS Son éticamente admisibles por ser el único mecanismo científico válido para comprobar la eficacia de un tratamiento. Depende del diseño. generalmente en individuos sanos. c) Diseño estratificado: Si se aparea parcialmente en base a una estratificación en uno o más factores de riesgo. del error β. etc) y ha de ser fácil de diagnosticar u observar.O. 8.

comparar 2 Mín (F1. Cj = Total de la columna j = nº de individuos de la clase j =ΣiOij. Dadas r muestras cuyos individuos se clasifican en s clases como en la Tabla R.=l} de Tabla 7. si ninguna Eij es inferior a 1 y no mas del 20% de ellas son inferiores o iguales que 5. j 2 Oij ij 2 − T con χα {g.1 Tabla de contingencia r×s Columnas Oij 1 2 O12 O22 ··· Or2 C2 ··· ··· ··· ··· ··· ··· s O1s O2s ··· Ors Cs F1 F2 ··· Fr T Totales 1 Filas 2 ··· r Totales O11 O21 ··· Or1 C1 b) Test en Tablas 2×2: Si Mín (E1 . χexp = ⎝ α F1F2C1C2 Si la cantidad Mín (F1. E2) / T > 5. a) Test en Tablas r×s distintas de 2×2: Calcular las cantidades esperadas Eij = Fi×Cj/T (cuyos totales de fila y de columna han de ser las Fi y Cj de antes) y entonces. comparar (la segunda expresión de las dos que siguen es la más apropiada para el cálculo) χ 2 exp = ∑ i.l.9. F2 ) ⎞ ⎛ ⎜ O11O 22 − O12O 21 − ⎟ 2 2 ⎠ × T con χ 2 {g. T = Gran total = nº total de individuos considerados = ΣFi = ΣCj =ΣΣOij. Fi = Total de la fila i = nº de individuos de la muestra i = ΣjOij. j (O ij − E ij ) 2 E ij = ∑E i.l. . E2)×Mín (C1.22 RESUMEN DEL CAPÍTULO IX EL TEST χ 2 Y SUS APLICACIONES 9. F2)/2 se cambia por T/2 se obtiene la clásica χ2 Y (chi-cuadrado de Yates).1 TEST DE HOMOGENEIDAD DE VARIAS MUESTRAS CUALITATIVAS (H0 ≡ La proporción de individuos que caen en una determinada clase es la misma para todas las poblaciones y esto vale para todas las clases ≡ Todas las muestras provienen de igual población). se define: Oij = Nº de individuos de la muestra i que caen en la clase j. Tabla R.9.=(r−1)×(s−l)} de Tabla 7.1 (muestras = filas. clases = columnas).

de las tablas partidas de2 . Si la partición se hizo “a posteriori” (por la regla de a)). SÍ ≡ FR O11 O21 C1 NO ≡ FR O12 O22 C2 Factor de riesgo Enfermedad SÍ ≡ E NO ≡ E Totales Totales F1 F2 T a) Tipos de muestreo: Para estudiar la asociación entre E y FR los tipos de .5 ) F1F2C1C 2 2 ×T 9. Si en los T individuos de una muestra aleatoria se determinan dos caracteres cualitativos A y B. se declarará como no significativo un resultado con P>10% si a) lo previó como tal.. N 2 exp χ = ( O11O22 − O12O21 ) 2 9. b) Caso de Tablas 2×2: En las particiones no se realiza c.1. sobre todo.1 -cambiando “filas” y “columnas” por “clases del carácter A” y “clases del carácter B” respectivamente.proceder como en el Resumen 9. se declarará significativo un resultado con P<1% si a) lo previó como significativo.3 PARTICIÓN DE TABLAS Cuando se concluye H1. y se les clasifica en base a ello en una tabla como la Tabla R.c.9. d) Significación de las subtablas: Si la partición se hizo “a priori” (no por la regla de a)).2.2 TEST DE INDEPENDENCIA PARA VARIABLES CUALITATIVAS: TABLAS DE CONTINGENCIA (H0 ≡ Los caracteres A y B son independientes).l.9.4 TIPOS DE MUESTREO EN TABLAS 2×2. la búsqueda de las causas de la significación se efectúa mediante la partición de la tabla inicial en otras subtablas que se obtienen colapsando (juntando) las filas o columnas apropiadas: a) Sugerencias sobre los colapsos: Se obtienen a través de los porcentajes de observaciones por filas o por columnas y.9. los dos caracteres dicotómicos estudiados (E y FR) suelen aludir a la presencia o no de una enfermedad o efecto indeseado (E y E ) y a la presencia o no de un factor de riesgo (FR y FR ). a través de la contribu2 ción de cada casilla a la χexp total: residuales (Oij−Eij)2 / Eij. De igual modo con las χexp dad es ahora solo aproximada.p. de modo que el 2 en una tabla 2×2 (sea cual sea su origen) es: valor de χexp ×T F1F2C1C 2 c) Comprobación de la partición: La suma de los g. TEST APROPIADO Y MEDIDAS DE ASOCIACIÓN Con frecuencia. En lo que sigue se supone que la enfermedad se ubica en filas.2 Formato estándar para los estudios epidemiológicos. obteniendo así unos datos como los de la Tabla R.EL TEST χ2 Y SUS APLICACIONES 23 9. Tabla R. pero la igualbe ser los g. las significaciones se obtienen del modo usual. de la tabla original.l. salvo que en las Tablas 2×2: χ 2 exp = (O 11 O 22 − O12O 21 − 0. el primero dividido en r clases y el segundo en s clases.

24 EL TEST χ2 Y SUS APLICACIONES muestreo pueden ser dos.9. c = Mín (C1. c) La asignación puede hacerse si el fenómeno estudiado hubiera podido medirse en una escala continua de haber dispuesto de los instrumentos adecuados. ii) Muestreo de Tipo II (Preferible al de Tipo I si las Fi o las Cj se planifican como iguales): • Estudio Prospectivo. b) Si una característica cualitativa es ordinal es posible y preferible asignarle valores numéricos a sus clases y analizar los nuevos datos por la técnica apropiada. En todos los casos c = T/2 da la clásica c. • Estudio Retrospectivo o de Caso-Control: Tomar F1 y F2 individuos al azar y clasificarlos en base a FR. lo que da lugar a tres tipos de estudio: i) Muestreo de Tipo I (Estudio Transversal): Tomar T individuos al azar y clasificarlos en base a E y a FR. SN = Sensibilidad = FN = Falsos Negativos = % de enfermos diagnosticados negativamente. c) Medidas de asociación: Una medida de asociación es un número que indica el grado de dependencia existente entre los dos caracteres E y FR estudiados. 9. En lo que sigue se entiende que: p = Prevalencia = % de enfermos en la población estudiada a) Sin considerar la prevalencia: Se define % de enfermos diagnosticados positivamente. comparar 2 × T con χα {g.1 las resume (pero él es aplicable solo a datos en el formato de la Tabla R.5 ASIGNACIÓN DE VALORES CUANTITATIVOS ARBITRARIOS a) Los métodos basados en datos cuantitativos son preferibles a los basados en datos cualitativos (como el método χ2). b) Test apropiado: Si Mín (E1 .2 se entiende que FR alude a que un test diagnóstico ha dado positivo (suceso T).2. Longitudinal o de Seguimiento: Tomar C1 y C2 individuos al azar y clasificarlos en base a E.l. E2)×Mín (C1. lo que puede hacerse de dos modos (aunque es preferible el segundo). pero la medida a usar depende del fin perseguido y del muestreo utilizado.p.9. en donde SN+FN = EP+FP = 100. C2)/2 en los prospectivos y c = Mín (F1. .=l} de Tabla 7 F1F2C1C2 con c = 0. Desde un punto de vista estadístico el diseño óptimo consiste en tomar muestras de igual tamaño de los niveles de la característica más infrecuente (en general la enfermedad: estudio retrospectivo). y si las clases obtenidas pueden considerarse como un agrupamiento de tal escala por medio de otra más burda formada por sus valores redondeados.5 en los transversales. 2 exp χ = (O 11 O 22 − O12O 21 − c ) 2 9.c. el objetivo entonces es evaluar la bondad del test diagnóstico. E2) > 5. de Yates.7 EVALUACIÓN DE UN MÉTODO DE DIAGNÓSTICO Si en la Tabla R. % de sanos diagnosticados negativamente. El Cuadro R.9. F2) en los retrospectivos. EP = Especificad = FP = Falsos Positivos = % de sanos diagnosticados positivamente.

y a efectos de evaluar la ganancia obtenida en el diagnóstico por el hecho de utilizar el test.9.p) × EP + p × (1 . tales valores se pueden estimar por: p × SΝ (1 .2 provienen de un estudio transversal. FN = 12 . VPN = 22 p C1 C2 T También.2 -cambiando FR por T. ii) Si VPN es alto. el test es útil para confirmar la enfermedad.EP) (1 .a). el test es útil para descartar la enfermedad (conviene aplicarlo como procedimiento de rutina para el diagnóstico precoz de la enfermedad). el test es útil para descartar la enfermedad. VPN = p × SN + (1 .p) × EP VPP = . Entonces: SN = O11 O O O .EL TEST χ2 Y SUS APLICACIONES 25 Para estimar tales valores se toman F1 enfermos y F2 sanos y se anota en cuántos de ellos el test da positivo (O11 y O21 respectivamente). el test es útil para confirmar la enfermedad (conviene aplicarlo a individuos sospechosos de poseerla).9. entonces: F O O ˆ = 1 . se definen: Ganancia del Positivo = VPP − p GP = Ganancia del Negativo = VPN − (1−p) GN = Las conclusiones (para la prevalencia asumida) son: i) Si VPP es alto.9.y dando lugar así a un estudio retrospectivo.SN) con SΝ y EP como en a). VPP = 11 . cantidad que depende de la prevalencia que se asuma.4.2 provienen de un estudio retrospectivo. ii) Si SN es alta. Cuando los datos de la Tabla R. Las conclusiones son: i) Si EP es alta. . E P = 22 . b) Considerando la prevalencia: Los porcentajes de aciertos en los diagnósticos positivos (Valor Predictivo Positivo) o negativos (Valor Predictivo Negativo) serán: VPP = % de enfermos entre los diagnosticados positivamente % de sanos entre los diagnosticados negativamente VPN = Si los datos de la Tabla R. expresando los datos en una tabla como la Tabla R.p) × (1 . FP = 21 F1 F1 F2 F2 cantidades a las que es posible aplicarle los resultados del Resumen 4.

26 EL TEST χ2 Y SUS APLICACIONES .

5 O12 + 0.1 Medidas de asociación epidemiológicas en tablas 2×2 Medida (Asociación-) Valores Independencia posibles (Asociación+) Caso Estimación ˆ = (O C ) / (O C ) R 11 2 12 1 Estudios en que es válida Intervalo de Confianza (aproximado) (zα en la TABLA 2) ⎧ ˆ ′ × exp ⎪ R ∈R ⎨± z α ⎪ ⎩ ⎧ ⎪ 1 1 1 1 + − − O11 + 0.5) 11 22 ˆ O + 0.5) 12 21 cero Razón del producto cruzado: La fracción de individuos que enferman frente a los que no.5 O + 0. 0≤O<1 O=1 1<O≤∞ General ˆ = (O O ) / (O O ) O 11 22 12 21 Si P(E)<0. . O - RFR P(FR) ≤RFR<0 General 1 . es O veces mayor en los que individuos con el FR que en los sin el FR.Cuadro R.5 O 22 + 0.5 O + 0.5 C1 +1 C 2 +1 ⎫ ⎪ ⎬ ⎪ ⎭ ⎫ ⎪ ⎬ ⎪ ⎭ 0≤R<1 R R=1 1<R<∞ General ˆ ′ = (O11 + 0.5)(O + 0.5 O + 0.1 Retrospectivos ⎧ ˆ ) × exp ⎪ R FR ∈1 − (1 − R ⎨ ± zα FR ⎪ ⎩ + 1 O 22 - T F1F2 ⎫ ⎪ ⎬ ⎪ ⎭ Riesgo atribuible (al FR): Una fracción RFR de los enfermos podrían no haberlo sido si ninguno hubiera estado sometido al factor de riesgo.5 O 21 + 0.O12 O21 O22 F1 Transversales ⎧ ˆ ) × exp ⎪ R FR ∈1 − (1 − R ⎨ ± zα FR ⎪ ⎩ ⎫ ˆ FR (O11 + O 22) ⎪ O 21 + R ⎬ TO12 ⎪ ⎭ 1 O12 RFR = 0 0<RFR≤+1 Si P(E)<0.5 O12 + 0.5 Transversales ⎧ ⎫ 1 1 1 1 ⎪ ˆ ′ × exp ⎪ + + + Prospectivos O ∈ O Si alguna ⎨± z α ⎬ (O + 0.5)(C1 +1) ˆ R ˆ oO ˆ′ O Transversales Prospectivos ⎪ ⎩ Riesgo relativo (de FR para E): La probabilidad de enfermar es R veces mayor en los individuos con el FR que en los sin el FR.5 ′ O = ⎪ ⎪ Retrospectivos 11 12 21 22 Oij vale ⎩ ⎭ (O + 0.5)(O + 0.5)(C 2 +1) R (O12 + 0.P(FR) ˆ = O11O 22 − O12 O 21 R FR F1C2 ˆ R FR O11O22 .9.1 ˆ ′ ×exp ⎨± z Retrospectivos R ∈ O α 1 1 1 1 + + + O11 + 0.

.

yi) pueden hacerse bajo dos tipos de muestreo: i) Muestreo de Tipo I: Tomar n individuos al azar y anotar sus valores x e y. son n parejas de valores de (x. ii) Estudiar el tipo de relación que las liga (si existe). relacionadas entre sí mediante una línea recta. b) Relaciones deterministas y aleatorias: En las Ciencias Exactas la relación entre dos variables puede ser exacta: conocido el valor de una de ellas se conoce exactamente el de la otra. y) obtenidos por alguno de los tipos de muestreo anteriores: a) Cálculos intermedios: En lo que sigue la segunda expresión es la definición. iii) Predecir los valores de una de ellas a través de los de la otra. a α altura en el origen poblacional (altura en que corta la recta al eje vertical.. c) Sobre la existencia de regresión: Dadas n parejas de valores (xi. En Estadística la relación es aleatoria: conocido el valor de una variable se conoce el de la otra sólo de un modo aproximado. 2.27 RESUMEN DEL CAPÍTULO X REGRESIÓN LINEAL 10. la variable y sigue una distribución Normal de media α+βx y de varianza σ2 (independiente de x).a.1 CONCEPTO DE REGRESIÓN a) Objetivo: Dadas dos v. 10. ii) Muestreo de Tipo II: Tomar n valores de x elegidos de antemano y obtener un valor de y al azar en cada uno de tales x. b) Tipos de muestreo: La consecución de las n parejas (xi. cuantitativas x e y medidas en los mismos individuos. Puede ocurrir: i) Que x sea realmente causa de y. con i = 1. ii) Que ambas variables se influyan mutuamente. 10. a la curva se le llama línea de regresión y a la función que la representa se le llama función de regresión. iii) Que ambas variables dependan de una causa común (una tercera variable z no contemplada).. es decir cuando x=0) y a β pendiente poblacional (lo que aumenta y cuando x aumenta en una unidad). A yPOB = E(y⏐x) = α+βx se le llama recta de regresión poblacional. ii) Por la variabilidad aleatoria de los métodos de medida. Ello sucede en las Ciencias de la Salud por dos motivos: i) Por la variabilidad biológica de los objetos muestrales. d) Regresión lineal simple: Aquí solo nos ocupamos del caso en que contamos con solo dos variables. e) Asociación y causalidad: La demostración estadística de que dos variables están asociadas no constituye una prueba de que una de ellas sea causa de la otra. n. . . A la variable ubicada en el eje horizontal (usualmente x) se le llama variable independiente. su representación por puntos en el plano cartesiano da lugar a una nube de puntos. yi).3 ESTIMACIÓN DE LOS PARÁMETROS Si (xi.2 MODELO Y MUESTREO EN REGRESIÓN LINEAL SIMPLE a) Modelo: Para cada valor de x. x e y. yi) obtenidos de una muestra. Si a ella se ajusta alguna curva.. se dice que existe regresión. la técnica de regresión persigue tres objetivos: i) Estudiar si ambas variables están relacionadas o son independientes. a la ubicada en el eje vertical (usualmente y) se le llama variable dependiente.

Los resultados no son los mismos (ax·y. etc y/o similarmente con y. by·x y s2 y i x por haber sido obtenidos de la regresión de “y sobre x”. sin mostrar tendencia a ser más ancha o estrecha con el aumento de x. La de ˆ.1. Cuando esto no es así. iii) Homogeneidad de varianzas: La nube de puntos ha de ser ovalada. a = y − bx c) Estimación de la varianza de regresión (σ2): Mide la variabilidad de los puntos alrededor de la recta de regresión: 1 1 ⎧ ( xy )2 ⎫ ˆ i )2 = s2 = (yi − y ⎨(yy) − ⎬ ∑ n−2 n−2⎩ ( xx) ⎭ ˆ i los residuos o residuales y sea la d) Comprobación del modelo: Sean yi− y ˆ i (en el eje nube de puntos de residuales que se obtiene al representar yi− y ˆ i (en el eje horizontal): vertical) contra y i) Normalidad: No se verifica si la variable y es discreta o si el test de D’Agostino es significativo al aplicarlo a cada conjunto de observaciones y en cada x (lo que requiere de observaciones repetidas). ii) El muestreo de Tipo II permite elegir el rango de interés de las x y. La de residuales ha de ser paralela al eje horizontal.28 REGRESIÓN LINEAL la tercera su método de cálculo abreviado y la primera su símbolo corto para referencias: = Σ x i2 − (Σxi)2/n (xx) = Σ(xi− x )2 (yy) = Σ(yi− y )2 = Σ yi2 − (Σyi)2/n (xy) = Σ(xi− x )(yi− y ) = Σxiyi − (Σxi)(Σyi)/n b) Estimación de la recta de regresión (yPOB=α+βx): Se determina bajo el principio de que Σ(yi−a−bxi)2 sea lo más pequeño posible -principio de los mínimos cuadrados. salvo indicación expresa de lo contrario.obteniendo así la recta de regresión muestral (o estiˆ = a+bx. el de Tipo II sólo la de “y sobre x”. residuales igual con el aumento de y e) ¿Quién sobre quién?: Los parámetros anteriores se entiende que son ay·x.: a) Sobre la pendiente: i) Intervalo de confianza: β∈ b±tαs/ (xx). . tomándolo amplio. la cantidad tα aludida implícita (en el test) o explícitamente (en los intervalos) se busca en la Tabla 6 con (n−2) g. El muestreo de Tipo I permite hacer ambas. 10. bx·y y s2 x i y ) si en el eje horizontal se pone a la variable y y en el vertical a x (regresión de “x sobre y”).4 INFERENCIAS CON RECTAS DE REGRESIÓN En lo que sigue. con y ˆ la predicción. 1/x. x . ii) Linealidad: La nube de puntos ha de mostrar una tendencia exclusivamente lineal. b la pendiente muestral (o estimada) y: b = (xy) / (xx). a veces un cambio de escala apropiado puede convertir la curva en recta (linealización): cambiar x por log x. hace más fiables las conclusiones. Se hace la regresión de “y sobre x” cuando el objetivo es predecir y a partir de x. a la altura en el origen muestral (o mada) y estimada). f) Precauciones y consejos: i) No pueden hacerse inferencias fuera del rango de muestreo de x (el intervalo de valores entre el menor y el mayor valor de x obtenidos).

comparar con una tα(f= n−3. Si dS=⏐yS−a−bxS⏐. iii) Una predicción del x0 que dio un cierto y0 (calibración lineal): t 2 s2 b(y0 − y) t s ⎛ 1 ⎞ (y − y) 2 x 0 ∈ x+ ± α c ⎜1 + ⎟ + 0 . ii) Test (H0 ≡ α=α0): texp = ⏐a−α0⏐/ s2 {1/ n +x 2 /(xx) } . n − 2) × s 2 n−2 . iii) Test de independencia (H0 ≡ β=0): texp = ⏐b⏐ (xx) /s. la sospechosa (xS. 2 y 7 respectivamente. z y χ2 como en ii)): b(y − y ¡ A) s 2 × Fα/2 (2. con c = b 2 − α c c (xx) (xx) ⎝ n⎠ Cambiando y0 por y0 y el 1 por l/m. Si se disponen de medias y′ de m observaciones en igual x. conteniendo al menos a un 100π% de las observaciones. z y χ2 en Tablas 8.5 con Fα en la Tabla 8. n−2]}0. aunque generalmente se la puede localizar hace máxima la residual ⏐yi− y a través de la nube de puntos. cambiar y por y′ y z1−π por z1−π/ m . Cambiando z1−π por z1−π / m se obtiene el intervalo para la media de m valores de y en igual x. yi). cambiar ¡A por ± A . y si b≥0 (F. K=n) de la Tabla 16 la cantidad 2 2 2 2 ⎤ t exp = (n − 3)dS / ⎡ ⎣(n − 2)s {1 −1/n − (x S − x) /(xx)} − dS ⎦ c = b2 − . ii) Test (H0 ≡ α+βx0=h0): texp = ⏐a+bx0−h0⏐/ s2 {1/ n +( x 0 − x)2 /(xx) } . yS) es aquella que ˆ i ⏐. e) Rechazo de observaciones extremas (H0 ≡ La observación xS debe aceptarse): De entre todas las parejas (xi. b) Sobre la altura: i) Intervalo: α ∈ a±tα s2 {1/ n +x 2 /(xx) } .REGRESIÓN LINEAL 29 ii) Tets (H0 ≡ β=β0): texp = ⏐b−β0⏐× (xx) /s. iv) Muchas predicciones de los valores de “x” que ocasionaron los valores de “y” (calibración lineal): Al error α. n − 2) ⎢ + ⎬ ⎥ + z1−π 2 χ1−α / 2 (n − 2) ⎪ (xx) ⎦ ⎣n ⎪ ⎩ ⎭ con F. n − 2) c (y − y ¡ A) 2 x ∈ x+ ± + con c c n (xx) 2 × Fα/2 (2. A=z1−π s 2 (xx) χ1−α / 2 (n − 2) Cuando b≤0. tα = {2Fα[2. c) Sobre la media de “y” en un valor dado x0 de x: i) Intervalo: α + β x 0 ∈ a+bx 0 ± t α s2 {1/ n +( x 0 − x)2 /(xx) } Para muchos intervalos. ii) Muchas predicciones (intervalo de aceptación) de “y” en diversos “x”: Al error α y conteniendo al menos a un 100π% de las observaciones ⎧ ⎫ ⎡ 1 (x − x) 2 ⎤ n−2 ⎪ ⎪ y ∈ (a + bx) ± s ⎨ 2Fα/2 (2. se obtiene un intervalo para el x0 que produjo la media y0 de m observaciones. d) Sobre valores pronosticados: i) Una predicción de “y” en x0: y0∈ (a+bx0)±tα s2 {1 + 1/ n +( x 0 − x)2 /(xx) } Cambiando el 1 del interior de la raíz por l/m se obtiene un intervalo para la media y0 de m observaciones de y en igual x0.

b) Modelo.iii)): t exp = 2 (n − 2)rxy 2 1 − rxy vs. más grande es ⏐ρ⏐ (cuando es paralela a uno de los ejes entonces ρ=0). yi)..1 COEFICIENTE DE CORRELACIÓN LINEAL SIMPLE (O DE PEARSON) a) Objetivo: Dadas dos v. en tanto que el signo de ρ indica el tipo de la misma: positiva si ρ>0 (a más x más y). con i =1. d) Propiedades: Lo que sigue es válido también para r: i) ρ es un número adimensional que no depende de las unidades de medida ni del orden en que se enuncien las variables (ρxy=ρyx). obtener los coeficientes de correlación lineal rxy. zi) en cada uno de los n individuos de una muestra. el cual se estima (bajo el muestreo I) por el coeficiente de correlación muestral r = (xy)/ (xx)(yy)..a) y b) y 10..) de la Tabla 6 11.a. negativa si ρ<0 (a más x menos y) o nula (es decir. se trata de medir la fuerza con que ambas están ligadas a través de los resultados (xi.a. c) Estimación: La fuerza con que las dos variables están ligadas se mide mediante el coeficiente de correlación poblacional ρ. obtenidos en n individuos. iv) El valor absoluto ⏐ρ⏐ mide la fuerza de relación entre x e y (a más ⏐ρ⏐ más fuerza).a y d). ii) ρ2 es la proporción de la variabilidad total de y que está explicada por su regresión lineal en x.2 COEFICIENTE DE CORRELACIÓN PARCIAL a) Objetivo: La correlación ρxy entre dos variables x e y puede ser debida a su común relación con una tercera variable z no contemplada hasta ahora. rxz y ryz y entonces: rxy − rxz ryz ˆ xy i z = rxy i z = ρ 2 2 (1 − rxz )(1 − ryz ) . cálculos intermedios y comprobación del modelo: Como en Resúmenes 10. yi.. iii) −1 ≤ ρ ≤ +1.l. n. 2. e) Test de independencia: H0 ≡ ρ=0 (independientes) vs. x e y son independientes) si ρ=0. v) Cuanto más aplastada es una nube de puntos y cuanto mayor sea la pendiente de la recta de regresión. el grado de asociación entre x e y para valores constantes de z).30 RESUMEN DEL CAPÍTULO XI CORRELACIÓN 11. tipos de muestreo. H1 ≡ ρ≠0 (dependientes): Comparar (test idéntico al del Resumen 12. cuantitativas x e y.4. tα(n−2 g. El coeficiente de correlación parcial ρxy·z mide el grado de asociación entre x e y que no es un reflejo de la asociación de ambas con z (es decir.3. b) Estimación: Obtener n ternas de valores (xi.2.

(4) Anotar las parejas (Ri.2. yi) así obtenidas el Resumen 11. la fórmula se puede simplificar en la siguiente: 2 ( R i − R ′i ) ∑ rS = 1 − 6 × (n − 1)n(n+1) d) Propiedades: Como en el Resumen 11.3 COEFICIENTE DE CORRELACIÓN DE SPEARMAN a) Objetivo: Medir la asociación entre dos variables cuantitativas cualesquiera (verifique o no el modelo de regresión lineal). . convertir la cantidad x en cualidad (definiendo r intervalos de clase arbitrarios).1 o el 11.3. b) Condiciones: La asociación ha de ser monotónica (una variable siempre crece o siempre decrece con la otra). e) Test de independencia: (H0 ≡ ρS=0 vs.1. (2) Ordenar de menor a mayor los valores de x y asignarles rangos Ri como en el Resumen 7. .3. µ2. b) Si C es una cualidad no ordinal: i) Si r=2: Comparar los valores medios de x (µ1 y µ2) en las dos clases de C por el procedimiento de los Resúmenes 7. rS = rS = (RR ′) / (RR)(R ′R ′)..2 (aunque ello conlleva una gran pérdida de potencia). comprobando que ΣRi = i i i Σ R′ = n(n+1)/2. yi). Sea x una variable cuantitativa cualquiera y C una cualidad con s clases. R ′ ) correspondientes a las (x . El método para ello depende del caso: a) Si C es una cualidad ordinal: Convertir la cualidad en cantidad asignándole a sus clases valores cuantitativos arbitrarios y por el método del Resumen 9. el cual se estima (bajo el muestreo I) por el coeficiente de correlación muestral rS determinado a través de los siguientes pasos: (1) Obtener una muestra de n parejas de valores (xi. formar la tabla contingencia r×s que ello produce y analizarla por la técnica de χ2 del Resumen 9. 7. y aplicar a las parejas (xi.b) o 7.. Si se toma una muestra de n individuos se obtendrán n parejas de valores (x.3. 11. C) a partir de las cuales hay que contrastar H0. ii) Si n>30: Comparar zexp = ⏐rS⏐× n − 1 con una zα de la Tabla 2. es decir.a).3.4 TEST DE INDEPENDENCIA CON VARIABLES MIXTAS (H0 ≡ Los valores que toma un individuo con respecto a una variable cuantitativa x son independientes de la clase a que este pertenece respecto de una cualidad C). y ) originales. ii) Si r>2: Comparar los valores medios de x (µ1. Alternativamente. pero relativas a los rangos. y con igual convenio que en el Resumen 10. H1 ≡ ρS≠0): Con cualquier muestreo: i) Si n≤30: Comparar ⏐rS⏐ con rα de la Tabla 22 en el modo allí indicado. t α (n − 3) de la Tabla 6 11.CORRELACIÓN 31 c) Test de independencia: Comparar t exp = 2 (n − 3)rxy iz 2 1 − rxy iz vs. Cuando no hay empates.a). (5) Obtener el coeficiente de correlación lineal simple para i las n parejas de rangos. µs) en las s clases de C por el procedimiento del análisis de la varianza (no contemplado en estos Resúmenes). Es un método no paramétrico.d).a).b) según proceda.. (3) Proceder igual con las y asignando rangos R ′ i .1.6. c) Estimación: La fuerza de la asociación la mide el coeficiente de correlación poblacional (de Spearman) ρS.

Sign up to vote on this title
UsefulNot useful