Está en la página 1de 20

Unidad 3B.

La lectura crítica de un estudio de cohortes


Eduardo Ortega Páez: Pediatra. UGC de Maracena. Distrito Granada-Metropolitano. Granada.
España.

1. ¿Qué son los estudios de cohortes?


Una cohorte es un grupo de individuos que comparten una o varias características (generalmente
el factor de exposición en estudio) y son observados durante un periodo de tiempo para comprobar
que les ocurre. En ocasiones el término cohorte se refiere a una comunidad geográfica, a personas
con una determinada exposición o a una generación.

Aunque nos vamos a centrar en el papel de los estudios de cohortes para valorar el riesgo, este tipo
de diseño se puede emplear en estudios que evalúen el pronóstico, el curso clínico de una
enfermedad y el efecto de un tratamiento que se use dentro de la práctica habitual, entre otros.

La característica que define el estudio de cohortes es que la población de estudio se elige de acuerdo
con la exposición. Se compara dos grupos uno expuesto al factor de riesgo (FR) y otro no expuesto.
Los grupos son seguidos en el tiempo para valorar si presentan diferencias en el resultado de interés
y así evaluar una posible relación causa-efecto.

1
Los estudios de cohortes tienen un diseño observacional (el investigador observa, no asigna una
intervención o exposición), analítico (sirve para contrastar hipótesis; se valora una posible relación
causa-efecto) y longitudinal, (se sigue en el tiempo).

Ventajas y limitaciones de los estudios de cohortes


Ventajas:

• Permiten el cálculo de la incidencia de la enfermedad, al conocer el número de casos nuevos


producidos durante todo el tiempo de estudio (incidencia acumulada) o en diferentes
momentos según grupos (densidad o tasa de incidencia). Permiten calcular el riesgo relativo.
• Aseguran una adecuada secuencia temporal al preceder la exposición al efecto.
• En los estudios prospectivos se minimizan los errores de medición de la exposición.
• Permiten evaluar los efectos de los FR sobre varias enfermedades.

Desventajas:

• No son eficientes para el estudio de enfermedades poco frecuentes o con un periodo de


latencia largo.
• El seguimiento puede ser difícil, que si se producen pérdidas pueden ocasionar sesgos.
• Si son prospectivos suelen ser de larga duración.
• Suelen requerir un elevado número de participantes lo que supone un alto coste.
• Durante un tiempo que puede ser importante, no se disponen de resultados.

2
¿CÓMO SE CLASIFICAN LOS ESTUDIOS DE COHORTES?
Según la direccionalidad entre el inicio del estudio y el desarrollo de la enfermedad de interés se
pueden clasificar en:

• Estudio de cohortes anterógrados (prospectivos). Direccionalidad hacia delante, lo primero


es la exposición, luego la observación y por último la enfermedad. Se forman los grupos en
función de la exposición o no exposición a un posible factor de riesgo y se los sigue durante
un tiempo para determinar la aparición del resultado de interés en cada grupo. La recogida
de la información sobre la exposición y el desarrollo de los resultados es prospectivo. Los
estudios prospectivos puros son infrecuentes, hay que conocer el momento exacto de la
exposición. Tiene la ventaja de que conocemos la exposición desde el inicio, pero hay que
esperar a que se presente la exposición para que los individuos sean incluidos en el estudio,
suelen ser emparejados y se dan en el ámbito clínico con más frecuencia. Un ejemplo sería
la exposición a un determinado medicamento y valorar los efectos adversos.
• En el estudio retrógrado (retrospectivo) de cohortes, tanto la exposición como la
enfermedad ya han ocurrido cuando se realiza el estudio. La identificación de las cohortes
expuesta y no expuesta se realiza en una fecha previa determinada (por ejemplo, el inicio de
una exposición laboral) y alejada en el tiempo de la enfermedad de estudio, para que hubiera
habido tiempo para su desarrollo. Las cohortes se identificarán a partir de registros previos
y se siguen hasta el momento presente. Son relativamente frecuentes, baratos y fáciles, pero
más sensibles a los sesgos. Se necesita un buen sistema de información para recogida de
datos.
• Algunos estudios pueden ser mixtos (ambipectivos). Se recogen datos de forma anterógrada
y retrógrada en una misma cohorte. Es la situación más frecuente, ya que lo normal es que
el factor de riesgo ya se haya presentado a la hora de seleccionar la cohorte expuesta. Es
típico en estudios de exposiciones ambientales.

Según de donde proceda el grupo de comparación:

a. Cohorte interna si procede de una única cohorte general.


b. Cohorte externa donde los sujetos que no han estado expuestos al factor de estudio
proceden de otra población. Es frecuente en los estudios que tenemos un factor de riesgo
con varios niveles de exposición y la población general como una cohorte de comparación
externa.

Según el momento de inclusión de los individuos en el estudio:

• Se habla de cohorte fija cuando solo se incluyen los individuos que cumplen los criterios de
inclusión en la fecha de inicio del estudio.
• La cohorte dinámica consta de individuos que se van incluyendo a medida que progresa el
estudio.
• Es más probable un sesgo de selección en una cohorte fija, ya que los individuos con un
mayor grado de exposición pueden haber desarrollado la enfermedad y por tanto quedarían
excluidos de la cohorte inicial. En una cohorte dinámica pueden incluirse los sujetos en un
mismo momento de su historia de exposición.

3
Según su temporalidad. Concurrentes si la medición de la exposición y resultado es a la vez, histórica
si la exposición se mide una vez que ha ocurrido el resultado y mixta una combinación de los dos.

SESGOS EN LOS ESTUDIOS DE COHORTES


Los sesgos se definen como errores sistemáticos que se introducen en un estudio y que dan como
resultado una estimación incorrecta (sesgada) del parámetro o efecto de interés. La ausencia de
errores sistemáticos confiere validez interna a un estudio.

Los sesgos pueden deberse a la forma en que se selecciona los sujetos de estudio (sesgos de
selección) o a la manera en que se recoge la información (sesgo de información).

Cuando se interpreta un estudio, debe explorarse la existencia de sesgos como una explicación
alternativa a los resultados observados. Para ello hay que tener en cuenta el tipo de estudio y las
características específicas de su diseño y si los sesgos son de selección o de información. También
habrá que valorar su posible efecto sobre los resultados observados. Existen tres tipos de sesgos
en los estudios de cohortes, de selección, información y confusión.

Sesgo de selección
Se da cuando la población de estudio o muestra no es representativa de la población de referencia.

Tipos de sesgos de selección

En general no se verá afectada la validez interna (no se afecta la estimación entre la exposición y
enfermedad), pero en cambio sí afectaran a la validez externa (generalización de los resultados).

• Selección de las cohortes. Los estudios analíticos se basan en que el grupo de estudio y el
de referencia son comparables en las variables pronósticas o predictoras de la respuesta de
forma que solo difieren en la presencia o no del factor de estudio (principio de
comparabilidad). La direccionalidad del sesgo es impredecible, puede subestimar o
sobreestimar la verdadera asociación (efecto).
• Pérdidas de seguimiento: cuando las personas que se pierden durante el seguimiento
difieren de las que no abandonan por variables relacionadas con la exposición y el resultado,
se produce un sesgo en los resultados. La introducción de este sesgo dependerá de los
motivos de las pérdidas, más que de su número. Se puede sospechar cuando existen
diferencias significativas entre las pérdidas del grupo expuesto y el no expuesto, aunque no
lo garantiza. La direccionalidad es hacia la nulidad (subestimación de la verdadera
asociación) si afecta a la exposición o sobrestimación del efecto si afecta al resultado e
impredecible si afecta a los dos.
• Supervivencia selectiva se produce en los estudios en los que se incluyen casos prevalentes.
Si la letalidad de la enfermedad depende de la exposición, los casos representarán a los que
tengan menores niveles de exposición. Además, los casos prevalentes pueden haber
modificado sus hábitos. La direccionalidad es hacia la nulidad.
• Sesgo de detección: cuando el procedimiento utilizado para identificar la presencia de la
respuesta varía o se modifica según la presencia o ausencia del factor de estudio. La
direccionalidad del sesgo es impredecible.

4
• Participación de voluntarios o efecto de autoselección o del “trabajador sano” Suelen ser
personas más sanas que los no voluntarios, por lo que es probable que la enfermedad se
presente con menor frecuencia, existiendo una infravaloración de la relación entre la
exposición y el efecto.
• La no participación. Cuando el motivo de la no participación o exclusión está relacionada
con la exposición o el resultado. Generalmente no afecta a la validez interna. Si el motivo
está relacionado con la exposición se verá alterada la proporción de expuestos no afectando
a la la validez interna y la direccionalidad del sesgo en general es hacia la nulidad al no
participar los más expuestos. Si el motivo está relacionado con el resultado la direccionalidad
puede ser hacia la nulidad si a aceptan los más sanos y hacia la sobreestimación si aceptan
los más enfermos. Si afecta tanto a la exposición como al resultado la direccionalidad es
impredecible afectando a la validez interna.

Estrategias para disminuir el sesgo de selección

• Selección de las cohortes. Utilizar criterios de inclusión y exclusión exhaustivos y


aleatorización en la selección de las cohortes.
• Pérdidas de seguimiento.
o Fase de diseño. Excluir a los individuos que tienen probabilidad de que se puedan
perder durante el seguimiento (aquellos que piensan cambiar de domicilio y los que
tienen dificultad para el seguimiento). Obtener información para el futuro
seguimiento (dirección, teléfono, familiares), esto permite contactar con ellos si se
perdieran posteriormente.
o Fase de seguimiento. Contactar de forma periódica con los sujetos.
• Supervivencia selectiva. Detectar los casos prevalentes o subclínicos de la enfermedad de
estudio, esto obliga a realizar pruebas y estudios complementarios.
• Sesgo de detección. Utilizar medidas estandarizadas para detectar la enfermedad.
• Sopesar bien la participación de voluntarios y de los trabajadores más sanos.
• La no participación. Recoger de la mayor cantidad de variables posibles para detectar si
existen diferencias significativas entre la expuestos y no expuestos para saber su
direccionalidad.

Sesgo de información
Se producen cuando la información sobre el factor de estudio o la variable respuesta se recogen de
forma errónea o de forma diferente, de manera sistemática, entre los dos grupos. Pueden causar
sesgo de información el empleo de instrumentos de medida inadecuados, la utilización de
definiciones poco válidas o precisas de las variables, los errores introducidos por los encuestadores,
el personal que recoge la información o los propios participantes (como ocurre en el sesgo de
memoria).

El sesgo de información conduce a una mala clasificación de los sujetos respecto al factor de estudio.
Dependiendo de si el error es independiente o no de la condición de expuesto/ no expuesto
respecto a la de enfermo/ no enfermo se diferencian dos tipos de errores de clasificación.

5
Error de clasificación no diferencial

Aparece cuando la proporción de sujetos clasificados erróneamente es similar en cada uno de los
grupos de estudio, por ejemplo, por el empleo de una técnica poco sensible. Todos los estudios
tienen algo de mala clasificación, es imposible emplear un proceso de medición cuya sensibilidad y
especificidad sea del 100%. Estos errores producen una infraestimación de la verdadera diferencia
o asociación que también dependerá de la prevalencia de la exposición. Este hecho puede ser
importante cuando se realiza un ajuste por factores de confusión ya que, si la prevalencia de la
exposición es diferente en cada una de las categorías por las que se estratifica, el efecto del error
de medida será diferente en cada una de ellas.

Otra posible consecuencia del error de medición de una variable es que al ajustar la estimación por
dichas variables, pueda quedar un efecto de confusión residual. En la interpretación de un estudio
que no ha observado un efecto, debe tenerse en cuenta la posibilidad de que se haya introducido
un sesgo de clasificación no diferencial

Error de clasificación diferencial

Cuando la medición de la exposición o enfermedad se hacen de forma diferente en cada grupo de


estudio, bien sea porque se realizan exámenes más frecuentes o por interpretación diferentes de
las pruebas. La dirección del sesgo es impredecible, pudiendo infra o sobreestimar la magnitud de
la asociación o diferencia. Ejemplos frecuentes que se dan más frecuente en las cohortes
retrospectivas son el sesgo del entrevistador y el de memoria. También puede cuando la cohorte
control es la población general

Los individuos con un determinado problema de salud recuerdan su historia de exposición de forma
distinta a como la recuerdan aquellos que no tiene dicho problema. Este tipo de sesgo se produce
más en estudios de cohortes retrospectivos, también puede aparecer si el investigador conoce la
hipótesis del estudio y la condición del individuo pues puede recoger los datos o interpretarlos en
función del grupo al que pertenezca el individuo.

Para evitarlo se pueden emplear criterios exhaustivos y estandarizados para medir la exposición y
enfermedad, técnicas de enmascaramiento en el seguimiento de las cohortes.

Sesgo de confusión
Concepto

Una variable es confusora cuando su presencia distorsiona la verdadera asociación entre la variable
independiente o predictora y la dependiente o resultado.

Esta distorsión es impredecible. Puede sobreestimar el efecto, poner de manifiesto un efecto que
en verdad no lo hay (asociación espuria) e infraestimar el efecto.

Es el resultado de la relación intrínseca de las variables que comportan la base de datos del estudio,
de tal forma que una misma variable puede ser confusora en un estudio y en otro no, por ejemplo,
la edad. No es por lo tanto un término estadístico si no metodológico.

6
Para que una variable se comporte como confusora tiene que cumplir tres condiciones que son
necesarias y suficientes:

• Presentar asociación con la variable resultado. Esta asociación deber ser independiente del
factor de exposición, es decir, debe presentarse tanto en sujetos expuestos como no
expuestos.
• Estar asociada a la variable de exposición y no ser predictora de la misma.
• No ser un eslabón intermedio entre la exposición y el resultado. Ejemplo, si estudiamos la
relación de la obesidad y el infarto de miocardio, la dislipemia no se comportaría como
confusora, ya que la obesidad podría ser la causa de la dislipemia y sería una variable intermedia.

Identificación

El investigador debe recoger en el estudio además de las variables de exposición y las variables
resultado, las covariables que pudieran afectar a la relación entre ellas. Deben considerarse
potenciales factores de confusión las variables por las que difieran los grupos que se comparan y
que son pronósticas de la respuesta, otras veces el investigador tiene sospechas por estudios previos
recogidos en la bibliografía o por los conocimientos científicos. Pero no siempre es posible
sospecharlo.

En general se dice que hay confusión cuando existen diferencias clínicamente relevantes entre las
estimaciones brutas (sin tener en cuenta el factor de confusión) y las ajustadas (eliminando la actuación
de la variable de confusión) del efecto de interés. El nivel está fijado por acuerdo en más del 10%.

Sirva este ejemplo reformado de Hulley y Cummings en el que se estudia la relación entre consumo
de café e infarto de miocardio, donde se plantea que el hábito tabáquico pude ser un factor de
confusión. Veamos si se cumplen las condiciones de factor confundente observando la tabla
estratificada.

Reconocimiento de la confusión. Aguayo Canela M. Confusión e interacción (1): Qué son, qué suponen y cómo
manejarlas en el análisis estratificado. Disponible en:
http://www.fabis.org/html/archivos/docuweb/Confu_Inter_1r.pdf

7
• El hábito tabáquico está relacionado con la exposición (consumo de café) independiente de
la presencia de infarto de miocardio. Podemos ver el hábito de fumar no se distribuye de
igual forma entre los que consumen café. Así entre los fumadores hay un 24% de bebedores
de café (120/500) y entre los no fumadores hay 76% (380/500), claramente diferentes.
• El hábito tabáquico se relaciona con el infarto de miocardio. Existe mayor proporción de
infarto entre los que fuman (95% = 38/40) que entre los que no fuman (20% = 2/10),
independientemente que consuman café.
• El fumar no es un eslabón intermedio en la cadena, no es plausible que el efecto nulo del
consumo de alcohol sobre el infarto se puede producir por el hábito de fumar.

Una vez comprobada que el hábito de fumar puede comportarse como factor confundente veamos
si lo hace en realidad. En la primera tabla tetracórica vemos como existe 4 veces mayor riesgo de
presentar infarto en los bebedores de café respecto a los no bebedores (OR cruda = 4,26). Sin
embargo, si ajustamos por la variable fumador en la segunda tabla, vemos como la OR de los
estratos son iguales (OR = 1) interpretada como que fuman igual los que beben como los que no
beben café, y esta OR es diferente de la OR cruda, siendo el cambio de >10%. Además, la OR cruda
(4,26) es distinta a O ponderada (1). En conclusión, el tabaco es una variable de confusión, por
consiguente los resultados deben de darse ajustados.

Prevención y control de la confusión

Fase de diseño:

• Aleatorización. Teóricamente al aleatorizar al azar los sujetos de estudio se reparten de igual


forma los factores de confusión conocidos y lo no conocidos entre los grupos de estudio. Es
más eficiente cuanto mayor tamaño muestral tengamos y no es una garantía absoluta de
control total de la confusión, pudiendo quedar una confusión residual. Es el mejor método.
• Restricción. Se trata de incluir en el estudio solamente aquellos sujetos que estén en una
categoría de la variable de confusión. En el ejemplo anterior de estudio entre la asociación
de consumo de café e infarto de miocardio, podemos incluir solamente los no fumadores
para estimar el infarto de miocardio, con esto rompemos la distribución no homogénea del
factor de confusión. Tiene varios problemas, anula la variable y no es posible incluirla en el
estudio, es poco eficiente (se necesita un tamaño muestral amplio), puede que el estudio
pierda potencia y pude dar problemas de validez externa porque los resultados pueden no
ser comparables con la población diana.
• Emparejamiento. Es un tipo de restricción en la que cada sujeto del grupo expuesto se
empareja con uno o más sujetos del grupo no expuesto que se encuentran en la misma
categoría del factor de confusión. En el ejemplo anterior entre los consumidores de café e
infarto, podemos emparejar a un fumador que consuma café con otro también fumador que
no consuma café, así el efecto del tabaco queda anulado. Tiene algunas ventajas puede
incrementar la precisión al equilibrar el número de casos y controles en cada uno de los
estratos, facilitar la selección de los controles y eliminar el efecto de variables difíciles de
medir. Como inconvenientes puede ser lento, caro y menos eficiente que incrementar el
número de individuos, dar lugar efectos adversos sobre la fase de análisis, la variable queda
anulada y no es posible su evaluación como predictora, no se puede utilizar por factores
desconocidos y requiere un análisis estadístico especial que suele ser más complejo.

Fase de análisis:
8
• Estratificación. Se realizan estimaciones de la asociación en los subgrupos y si estas difieren
de la estimación global o cruda podemos existe confusión, lo que obliga a presentar los
resultados “controlados” por dicha variable. Se pueden considerar pocas variables y pocos
estratos, esto hace que sea un método poco eficiente y menos completo para controlar la
confusión.
• Análisis multivariante. Es el más eficiente. Consiste en introducir múltiples variables
independientes o predictoras y una variable resultado, cualquier estimación producida por
el modelo se puede considerar ajustada por las demás variables, eliminando el efecto que
pudieran causar estas sobre la variable resultado, quedando solo el efecto del factor de
estudio sobre la variable resultado. Para ajustar un modelo por variables de confusión basta
con incluir en el modelo dicha variable. La técnica viene dada por el tipo de medida de la
variable dependiente. Para las variables continuas se emplea la regresión lineal múltiple,
para variables categóricas la regresión logística múltiple, para variables dependientes de
tiempo la regresión de Cox, para variables de conteo (número de sucesos) se emplea la
regresión de Poisson.

MODIFICACIÓN DEL EFECTO


Llamamos modificación del efecto o interacción, cuando la asociación entre la exposición y el efecto
es distinta según las categorías de una tercera variable, la variable modificadora. Los valores
globales o brutos de la asociación no son válidos, debiendo de describirse los resultados según las
diferentes categorías.

A diferencia del fenómeno de confusión, la modificación del efecto se evalúa estadísticamente, y


puede decirse que existe cuando las estimaciones de cada una de las categorías presentan una
diferencia estadísticamente significativa.

Cuando una variable se comporta como un factor de confusión, el interés reside en controlar su
efecto. En cambio, cuando se produce una modificación del efecto esta refleja una característica de
la relación entre el factor de estudio y la variable de respuesta que debe ser descrita, pero no
controlada.

Identificación de la interacción o modificación del efecto


Las técnicas empleadas para evaluar si hay modificación del efecto son las mismas que para el ajuste
de los factores de confusión.

Análisis estratificado

Sirva este ejemplo ficticio, en el que se estudia la asociación entre el hábito de fumar y el infarto de
miocardio. Vemos que la OR cruda global de asociación entre ambas variables es de 3,98. Sin
embargo sospechamos que la edad se relaciona con la exposición y que su presencia puede cambiar
esta relación. Para ello estratificamos la exposición por la edad y observamos que los menores de
<45 años tienen una OR distinta (OR = 1,52) que los menores de 45 años (OR = 6,35). Para comprobar
si estas diferencias interestratos son estadísticamente significativas habitualmente se utilizan dos
técnicas, la prueba de homogeneidad de Mantel-Haenszel o la de Wald, bajo la hipótesis nula de
igualdad de los estratos. En nuestro caso es significativa (p <0,05). Además, la OR cruda (3,98) es
prácticamente igual a la ponderada por estratos (4,04). Conclusión: existe modificación del efecto.

9
La interpretación sería que en los mayores de 45 años existe mayor riesgo de infarto que en los
menores de 45 años, la variable edad se comporta como modificadora del efecto. Esto obliga a
presentar los resultados por estratos y no la medida cruda global. La dirección de la interacción
puede ser aumentando la relación o disminuyendo e incluso invirtiéndola.

Reconocimiento de la interacción. Aguayo Canel M. Confusión e interacción: qué son, qué suponen y cómo manejarlas
en el análisis estratificado. Disponible en: http://www.fabis.org/html/archivos/docuweb/Confu_Inter_1r.pdf

Análisis multivariante

Debe incluirse en el modelo no solo la variable que potencialmente puede producir dicho efecto
sino también un término que refleje la interacción entre esta variable y el factor de estudio. Puede
decirse que existe modificación del efecto cuando el coeficiente de regresión del término de
interacción es estadísticamente significativo (diferente de 0).

ESTRATEGIA DE ANÁLISIS EN LOS ESTUDIOS DE COHORTES


Los resultados en los estudios de cohortes se pueden expresar de diferentes formas. De menor a
mayor complejidad:

Los resultados en los estudios de cohortes se pueden expresar de diferentes formas. De menor a
mayor complejidad:

1. Estimación de las medidas de frecuencia de la enfermedad.


2. Estimación de las diferencias de la presencia de enfermedad entre la cohorte expuesta y no
expuesta mediante pruebas de significación o de hipótesis.
3. Estimación de las medidas de asociación o riesgo. Valoran la magnitud de la asociación entre
el factor de riesgo y el efecto.

10
4. Estimación de las medidas de impacto. Describen el posible impacto potencial en la
población que pudiera tener la eliminación del factor de riesgo en cuestión sobre el
desarrollo de la enfermedad.

Medidas de frecuencia
Proporción

Cociente en el que el numerador está incluido en el denominador. Se considera estimación de una


probabilidad de que un suceso ocurra cuando se calcula en una muestra representativa de una
población. Son valores estáticos de un evento que ocurre en un contexto y tiempo determinado.

Razón

Es un cociente en el que el numerador no está incluido en el denominador.

Odds

Cuando en una razón el numerador representa la probabilidad de que ocurra un suceso y el


denominador la probabilidad de que no ocurra.

Ejemplo: tenemos en una baraja de 40 cartas, cuatro palos (espadas, bastos, copas, oros) con 10
cartas cada uno.

Queremos conocer la probabilidad de llevar 3 cartas con el palo de espadas:

Ahora queremos conocer la probabilidad de llevar 3 cartas con el palo de espadas frente a no llevarlas.

Podemos comprobar que P = odds / 1 + odds = 0,081 / 1 + 0,081 = 0,075.

Observamos algo importante, que la probabilidad es mayor que la odds, puesto que el denominador
de la odds siempre es menor y si factor de estudio es de muy baja prevalencia la odds se iguala
prácticamente a la probabilidad. Ejemplo: si en 1000 sujetos existe un cáncer de laringe, la
probabilidad de padecer cáncer de laringe es 1 / 100 = 0,01 y la odds de padecer cáncer de laringe
sería: 1 / 1000 - 1 = 1 / 999 = 0,0101, el error seria despreciable.

Tasa

Expresa la magnitud de un parámetro por unidad de cambio de otro.

11
• Absolutas. Cambio de una magnitud A por el cambio de otra magnitud B. Ejemplo. La
potencia es el trabajo por unidad de tiempo.
• Relativas. Cambio de una magnitud relativa A por el cambio de otra magnitud B. Ejemplo:
tasa media de nacimientos en un año. Estas tasas son la importantes en epidemiología.

Prevalencia

Proporción de individuos de una población que presentan la enfermedad. Es un valor que se toma
en un momento dado, de especial relevancia en los estudios transversales.

Incidencia

Número de casos nuevos de una enfermedad que se desarrollan en una población de riesgo durante
un periodo determinado. Se deben excluir los casos prevalentes (los que presentan la enfermedad
al iniciar el estudio) y aquellos que por otras causas no estén en riesgo de padecer la enfermedad
(ejemplo: inmunizado).

• Incidencia acumulada (IA): es la proporción de individuos sanos que a lo largo de un periodo


determinado desarrolla la enfermedad. Es un concepto dinámico. Es sinónimo de riesgo.
Estima la probabilidad o riesgo de que un individuo desarrolle la enfermedad. Es una
proporción, no una tasa, se debe referir el periodo de observación. Si el periodo es muy
largo, es una medida hipotética porque el individuo puede desarrollar otra enfermedad.

• Densidad de incidencia (DI): el número de nuevos casos que ocurren por unidad de tiempo-
población de riesgo. Es una tasa. Es una medida de la aparición de la enfermedad en un
punto en el tiempo. Se emplea cuando el tiempo de seguimiento no es el mismo para todos
los individuos. El uso del denominador es válido sólo bajo tres asunciones:
o El riesgo de contraer enfermedad es constante todo el periodo.
o La tasa de incidencia de los que se pierden es la misma de los que continúan en el
estudio.
o El denominador debe ser apropiado para la historia natural de la enfermedad.

Pruebas de significación
Se trata de conocer si la asociación entre el factor de estudio y la enfermedad es significativa con
un nivel de confianza determinado, generalmente el 95%. La hipótesis nula suele ser la ausencia de
asociación y la alternativa la presencia de asociación. Decimos que existe una asociación
estadísticamente significativa cuando rechazamos hipótesis nula de igualdad con una probabilidad
de equivocarnos menor del 0,05 (p <0,05). Al tratarse de dos variables dicotómicas (toman el valor
sí/no) el test habitual es el de χ2 o el exacto de Fisher.

12
Medidas de asociación
En los estudios analíticos, no solo interesa saber la existencia de asociación entre el factor de estudio
y la variable respuesta (pruebas de significación), sino también conocer la magnitud de dicha
asociación. En el análisis simple para este cálculo se suele emplear una tabla de 2 × 2.

Existen dos medidas de asociación, el riesgo relativo y la odds ratio.

Riesgo relativo (RR)

Estima la magnitud de una asociación e indica el número de veces que es más probable que la
enfermedad se desarrolle en el grupo expuesto (Ie) en relación con el grupo no expuesto (Ine).

Es la razón entre incidencia acumulada en el grupo expuesto y la incidencia acumulada en el grupo


no expuesto. También se denomina razón de incidencias o de riesgos. Que en el ejemplo anterior
sería:

Interpretación. Su valor varía entre el 0 y el infinito:

• Al ser un cociente, la unidad expresaría la igualdad entre el numerador y denominador.


Luego un RR de 1 indica que no existe relación entre el factor de estudio y la enfermedad.
• Un RR > de 1 indica que el riesgo en los expuestos es mayor que en los no expuestos. El factor
de estudio se comporta como factor de riesgo, mayor cuanto más se aleje de la unidad. La
interpretación sería cuantas veces (en tanto por uno) está a riesgo de presentar la

13
enfermedad en el grupo expuesto respecto al no expuesto. Por ejemplo, un RR de 3, significa
que el riesgo de enfermar es 3 veces más en los expuestos que en los no expuestos. No existe
consenso en valorar la magnitud, depende el riesgo basal. Schoenbach sugiere la siguiente
clasificación:
o RR: 1-1,3: Fuerza de asociación débil.
o RR: 1,4-1,7: Fuerza de asociación moderado.
o RR: 1,8-2,9: Fuerza de asociación modesto.
o RR: 3-8: Fuerza de asociación fuerte.
o Para valores de RR <1 se toma el recíproco. Por ejemplo, el recíproco de 0,5 es 2,0,
que corresponde a una asociación “moderada”.
• Un RR <1 indica que el riesgo en los sujetos expuestos se menor que en los no expuestos. El
factor de estudio se comporta como protector, tanto mayor cuanto más se aleje a de la
unidad. Un RR de 0,25 indicaría que el riesgo de enfermar entre los expuestos es cuatro veces
menor que entre los no expuestos.

Cuanto mayor o menor sea el valor de 1, mayor será la fuerza de asociación entre el factor de estudio
y la enfermedad.

El RR obtenido en un estudio es una estimación puntual y debemos calcular su intervalo de confianza


(IC). Si el IC del 95% no incluye la unidad (RR = 1), decimos que existe una asociación
estadísticamente significativa entre el factor de estudio y el desenlace al 0,05 (p <0,05). Si el IC 99%
no incluye la unidad decimos que es significativo al 0,01 (p <0,01).

En los estudios de cohortes el RR es la medida de asociación de elección ya que se estima


directamente, porque se conoce la incidencia de la enfermedad en los individuos expuestos y no
expuestos a un factor.

14
Odds ratio (OR)

Odds: es el cociente entre la probabilidad de que ocurra un suceso y la probabilidad de que no


ocurra. Ej. Si la probabilidad de que ocurra el suceso es 0,85. La odds = 0,85 / 1 - 0,85 = 5,66.

Odds ratio (OR). Es el cociente entre la odds de expuestos y la odds de no expuestos. Dicho de otra
manera, la probabilidad de estar expuestos frente a no estar expuestos en el grupo de enfermos
frente a la probabilidad de estar expuestos a no estar expuestos en el grupo de no enfermos.

La interpretación es similar al RR. Valores iguales a 1 indican no efecto, mayores a 1 indica aumento
del efecto y menores de 1 efecto protector. Igualmente hay que expresarlo en Intervalos de
confianza y lo dicho para el RR es totalmente aplicable a la OR. Una OR de 4 se expresaría la
probabilidad de que ocurra el suceso en los expuestos es 4 veces mayor que en los no expuestos.

La OR aventaja al RR en que su resultado es independiente de si se expresa en términos de riesgo


de contraer la enfermedad o no contraerla.

La OR es una buena estimación del RR cuando el riesgo basal (frecuencia del resultado de interés en
la población de estudio), es bajo (menor del 10%).

Cuanto mayor es el riesgo basal, más exagera la magnitud del efecto en relación con el RR,
sobrestimando el efecto si la OR >1, o subestimando el efecto si la OR <1.

La diferencia entre la OR y el RR dependen tanto del riesgo basal como de la magnitud del efecto.

La OR siempre se puede utilizar, pero es más propia de los estudios de casos y controles (CC) donde
no es posible calcular la incidencia de la enfermedad.

Cuando en el análisis se quieren controlar la influencia de factores de confusión se utilizan técnicas


multivariantes, que según la variable dependiente son:

• Variable dependiente cualitativa. Se utiliza la regresión logística. El modelo ofrece los


resultados en OR ajustadas.
• Variable dependiente, tiempo hasta que ocurra el evento (supervivencia). Se utiliza modelos
de riesgos proporcionales o de Cox. El resultado que ofrece es el cociente de riesgos
proporcionales ajustados (HR: Hazard ratio), cuya interpretación es similar al RR.
• Variable dependiente, tasa de cambio. Se utiliza la Regresión de Poisson. Estima
probabilidades por el método de máxima verosimilitud.

Medidas de impacto absolutas


Las medidas de impacto miden el impacto potencial sobre la salud de la población que tendría la
eliminación del factor de riesgo. Mientras las medidas de asociación ofrecen la magnitud de la
asociación entre el factor de riesgo y el resultado con una posible relación causal, las medidas de
impacto ofrecen la magnitud del daño de la exposición sobre el evento aportando una posible
actuación en salud pública.

15
Las medidas de impacto potencial absolutas miden el exceso de riesgo en las personas expuestas en
la población de referencia. Su aplicación es de gran interés para la planificación sanitaria, ya que nos
pueden dar una idea de lo que se podría obtener en beneficio de salud si se eliminara el factor de
riesgo. Dependiendo de la población a la que haga referencia tenemos:

Riesgo atribuible en los expuestos (RAE)

También llamado riesgo atribuible o diferencias de riesgo. Cuando la población de referencia es la


expuesta. Es la diferencia entre la Incidencia acumulada de los expuestos (Ie) y la incidencia
acumulada de los no expuestos (Io). RAE = Ie - Io. Representa la cantidad de incidencia de
enfermedad que puede ser debida al factor de riesgo. También puede expresarse en función del RR,
RAE = Io × (RR - 1). Si el RR = 1 (no efecto) el RAE = 0 (no efecto) y si el RR <1 (efecto protector), el
RAE toma valores negativos. Esto quiere decir el RAE depende del RR y de la frecuencia de la
enfermedad. Mientras que el RR no distingue de frecuencia de enfermedad (puede darse un RR
idéntico en enfermedades poco frecuentes que en frecuentes), el RAE si lo hace mediante la
incidencia de la enfermedad, así a igualdad de RR la RAE será mayor cuando mayor sea la incidencia
de la enfermedad.

Interpretación: al ser una diferencia el valor 0 se toma como que hay efecto nulo, valores menores
de 0 suponen que el factor es protector y superiores a 0 que el factor es de riesgo. Se interpreta
como la cantidad de enfermedad que nos ahorramos en los pacientes expuestos. Por ejemplo: RAE
8,4%, se interpreta como, si suprimimos el factor de riesgo por cada 100 personas expuestas al
factor de riesgo en 8 evitaríamos la enfermedad.

Riesgo atribuible poblacional (RAP)

Cuando la población de referencia es la población general. Sería la diferencia entre la Incidencia


acumulada en la población general (Ip) y la incidencia acumulada en los no expuestos (Io). RAP = Ip
- Io. Lo habitual es que Ip no sea conocida, entonces se puede estimar a partir del RAE y la proporción
de expuestos en la población diana del estudio (Pe), RAP = RAE × Pe. La interpretación sería la
cantidad de incidencia de enfermedad que puede ser evitada en la población general suprimiendo
la exposición. Un RAP de de 0,04, significa si suprimimos el factor de exposición por cada 100
personas en 4 evitaríamos que se produjera la enfermedad.

Medidas de impacto Relativas


Las medidas de impacto potencial relativas miden el porcentaje de riesgo que es debido a la
exposición. Según a la población que estén referenciadas, distinguimos:

Fracción atribuible en los expuestos (FAE)

También llamada fracción etiológica o porcentaje de riesgo atribuible. Cuando la población de


referencia son los expuestos. Nos indica el porcentaje de incidencia de enfermedad que evitaríamos
en los expuestos, una vez eliminado el factor de Riesgo. FAE = Ie-Io/Ie. También puede expresarse
en función del RR, FAE = RR-1/RR.

• La interpretación. Valores negativos suponen que el factor de exposición es protector y


positivos que es de riesgo, si el intervalo de confianza del 95% incluye el valor cero nos indica

16
ausencia de efecto. Una FAE = 37% significa que: si suprimimos el factor de riesgo en los
expuestos, evitaríamos por término medio 37% de incidencia de enfermedad.
• En el caso de que el factor sea protector hablamos de la fracción prevenible en los expuestos
(FPE), y se expresa en función del RR, FPE = 1 – RR.
• Fracción atribuible poblacional (FAP). También llamada fracción etiológica poblacional o
porcentaje de riesgo atribuible proporcional poblacional. Cuando la población de referencia
es la población general (Ip). FAP = Ip – Io / Ip. Como la incidencia en la población general no
es conocida normalmente, se puede estimar a partir de la proporción de casos expuestos
(Pce). FAP = FAE × Pce.
o La interpretación. Los valores y el intervalo de confianza son idénticos a la FAE. Una
FAP de 15%, significa que si suprimimos el factor de riesgo en la población general
evitamos un 15% de incidencia de enfermedad.
o En el caso de que el factor sea protector hablamos de la fracción prevenible
poblacional (FPE). En función del RR y si los casos no son representativos de la
población general se estima por la población de expuestos de la población de estudio
FPE = Pe (1 - RR).
• Limitaciones. Una de las limitaciones de las Medidas de impacto potencial es en la propia
interpretación, esperar la eliminación de un factor de riesgo completamente es poco
realista. Otra limitación es que la suma de varias varias FAP de varios factores de riesgo
pueden sumar más del 100%, lógicamente esto no puede tener ningún sentido biológico.

Número de impacto potencial


Número de impacto absolutos

Número de impacto en los expuestos (NIE). Equivale al número necesario para dañar (NND), por
tanto, es el inverso de la reducción absoluta de riesgos o de la diferencia de riesgos entre expuestos
y no expuestos (RAE). Representa el número medio de personas que tienen que exponerse al factor
de riesgo para que se produzca un nuevo caso de enfermedad en comparación con las personas no
expuestas. Un NIE de 20 significa que, por término medio por cada 20 expuestos al factor de riesgo,
se producirá un caso de enfermedad atribuible al factor de riesgo estudiado. Cuanto menor sea el
NIE mayor daño describe.

Número de impacto poblacional (NIP). Nos habla de la estimación del efecto de la exposición en
toda la población, equivale al inverso del RAP. Un NIP de 3000 quiere decir que por término medio
por cada 3000 sujetos de la población se producirá un caso de enfermedad debida a la exposición.

Número de impacto relativos

Número de impacto en los casos expuestos (NICE). Nos dice el número medio de enfermos
expuestos entre los que un caso es atribuible al factor de riesgo. Es el inverso de la FAE. Un NICE de

17
7, quiere decir que, por término medio, por cada 7 enfermos expuestos al factor de riesgo, se
producirá un caso de enfermedad debida a la exposición.

Número de impacto en los casos (NIC). Nos habla del número medio de enfermos entre los que un
caso es atribuible al factor de riesgo. Un NIC de 20, significa que por término medio por cada 20
personas enfermas se producirá un caso con enfermedad atribuible al factor de riesgo. Es el inverso
de la FAP.

Características

• Son útiles: muestran las medidas de impacto en números enteros y son fácilmente
entendibles para los clínicos.
• Ayudan a la toma de decisiones.
• Aportan una información adicional riesgo/beneficio.
• Los resultados deben de mostrarse con la estimación puntual y los IC 95. Si las medidas de
impacto no son significativas los IC 95 pueden ser negativos y positivos a la vez; esta
circunstancia es de difícil interpretación. Se aconseja no usar en esta situación, al igual que
los NNT.

Cálculo de los intervalos de confianza

Simplemente cambiando el intervalo de confianza inferior por el superior de la medida de impacto


y el intervalo superior por el inferior.

BIBLIOGRAFÍA RECOMENDADA
• Abraira V. Estimación: intervalos de confianza. SEMERGEN. 2002;28:84-5.
• Aguayo Canela M. Confusión e interacción (2): su abordaje en el análisis multivariante. En:
Fundación Andaluza Beturia para la Investigación en Salud [en línea]. Disponible en:
http://www.fabis.org/html/archivos/docuweb/Confu_Inter_2r.pdf
• Aguayo Canela M. Confusión e interacción: qué son, qué suponen y cómo manejarlas en el
análisis estratificado. En: Fundación Andaluza Beturia para la Investigación en Salud [en
línea]. Disponible en: http://www.fabis.org/html/archivos/docuweb/Confu_Inter_1r.pdf
• Argimón Pallás JM, Jiménez Villa J (eds.). Confusión y modificación del efecto. Métodos de
investigación clínica y epidemiológica. Madrid: Elsevier; 2013. p. 228-92.
• Buñuel Álvarez JC, Ruiz-Canela Cáceres J. Cómo elaborar una pregunta clínica. Evid Pediatr.
2005;1:10:1-7.
• De Irala J, Martínez-González MA y Guillén Grima F¿Qué es una variable modificadora del
efecto? Med Clin (Barc). 2001;117:297-302.
• De Irala J, Martínez-González MA, Guillén Grima F. ¿Qué es una variable de confusión? Med
Clin (Barc). 2001;117:377-85.

18
• Departamento de Estadística, Universidad Carlos III de Madrid. Bioestadistica (55-10536).
Estudios de cohortes. En: Universidad Carlos III de Madrid [en línea]. Disponible en:
http://halweb.uc3m.es/esp/Personal/personas/amalonso/esp/bstat-tema5.pdf
• Departamento de Estadística, Universidad Carlos III de Madrid. Bioestadistica (55-10536).
introducción a la causalidad. En: Universidad Carlos III de Madrid [en línea]. Disponible en:
http://halweb.uc3m.es/esp/Personal/personas/amalonso/esp/bstat-tema1c.pdf
• Hernández-Ávila M, Garrido FM, Salazar-Martínez E. Sesgos en estudios epidemiológicos.
Salud Pública de México. 2000;42:438-46.
• Lazcano-Ponce E, Esteve Fernández, Salazar-Martínez E, Hernández-Avila M. Estudios de
cohorte. Metodología, sesgos y aplicación. Salud Pública de México. 2000;41:230-41.
• Llorca J, Fariñas-Álvarez D, Delgado-Rodríguez M. Fracción atribuible poblacional: cálculo e
interpretación. Gac Sanit. 2001;15:61-7.
• Molina Arias M, Ochoa Sangrador C. Errores en epidemiología. Errores sistemáticos. Factores
de confusión y modificación del efecto. Evid Pediatr. 2016;12:16.
• Molina Arias M, Ochoa Sangrador C. Estudios observacionales (II). Estudios de cohortes. Evid
Pediatr. 2014;10:14.
• Molina Arias M. ¿Qué significa realmente el valor de p? Rev Pediatr Aten Primaria.
2017;19:377-81.
• Molina Arias M. El significado de los intervalos de confianza. Rev Pediatr Aten Primaria.
2013;15:91-4.
• Moreno-Altamirano A, López-Moreno S, Corcho-Berdugo A. Principales medidas en
epidemiología. Salud Pública de México. 2000;42:337-48.
• Nieto Garcia J, Peruga Urrea A. Riesgo atribuible: sus formas usos e interpretación. Gac Sanit.
1990;4:112-7.
• Ochoa Sangrador C. Evaluación de la importancia de los resultados de estudios clínicos.
Importancia clínica frente a significación estadística. Evid Pediatr. 2010;6:40.
• Ortega Páez E, Molina Arias M. Medidas de impacto potencial en epidemiología (1). Medidas
de impacto absolutas. Evid Pediatr. 2017;13:62.
• Pita Fernández S, Valdés Cañedo FA. Determinación de factores pronósticos. Cad Aten
Primaria. 1997;4:2629. Actualización 18/01/2001.
• Pita Fernández S, Vila Alonso MT, Carpente Montero J. Determinación de factores de riesgo.
PUnidad de Epidemiología Clínica y Bioestadística. Complexo Hospitalario Universitario de A
Coruña (España). Cad Aten Primaria. 1997;4:7578. Actualización 19/10/2002.
• Schoenbach VJ. Understanding the Fundamentals of epidemiology, an evolving text. En:
Epidemiology [en línea]. Disponible en:
http://www.epidemiolog.net/evolving/FundamentalsOfEpidemiology.pdf
• Solís Sánchez G, Orejas Rodríguez-Arango G. Epidemiología y metodología científica aplicada
a la pediatría (VI): confusión e interacción. An Esp Pediatr 1999;51:91-96.

ENLACES RECOMENDADOS
• Bibliotreca Cochane Plus. Disponible en: http://www.cochrane.org/evidence
• Buscadores y recursos útiles de Pediatría. Disponible en:
http://portal.guiasalud.es/recursos/pediatria/index.html
• Calculadora de tamaño muestral Granmo. Disponible en:
https://www.imim.cat/ofertadeserveis/software-public/granmo/

19
• Calculadora epidemiológica. Sociedad Vasca de Medicina del Trabajo. Disponible en:
http://www.semst.org/archsubidos/20161216_f8da_Calculadora-Epidemiologia-
SVMST.xlsx
• Elaboración de Guías de Práctica Clínica en el Sistema Nacional de Salud. Actualización del
Manual Metodológico. Guía Salud. Disponible en:
http://portal.guiasalud.es/emanuales/elaboracion_2/?capitulo=4
• Evidencias en Pediatría. Disponible en: https://evidenciasenpediatria.es/
• Guía Salud. Disponible en: http://portal.guiasalud.es/web/guest/home
• Open Epi. Calculadora epidemiológica online. Disponible en:
http://www.openepi.com/TwobyTwo/TwobyTwo.htm
• PubMed. Disponible en: https://www.ncbi.nlm.nih.gov/pubmed/
• Trip Database. Disponible en: https://www.tripdatabase.com/

20

También podría gustarte