Está en la página 1de 29

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD DE LAS CIENCIAS DE LA SALUD


“HUGO CHÁVEZ FRÍAS”
PROGRAMA NACIONAL DE FORMACIÓN
EN FISIOTERAPIA “PNFFT”.

Informe de Epidemiología

Docente: Bachiller:
Cesar Mendoza Luzmary Bastidas L.
Isaac Mora
Orlimar Sarmiento
Daniela Veliz

3° año de fisioterapia
Sección: 1

BARINAS, MARZO DE 2021


Estudio experimental

El estudio experimental es un ensayo epidemiológico, analítico, prospectivo,


caracterizado por la manipulación artificial del factor de estudio por el investigador
y por la aleatorización (o randomización) de los casos o sujetos en dos grupos,
llamados «grupo control» («grupo de control») y «grupo experimental» (o «grupo
de experimentación»).

Ensayo clínico

Un ensayo clínico es una evaluación experimental de un producto, sustancia,


medicamento, técnica diagnóstica o terapéutica que, en su aplicación a seres
humanos, pretende valorar su eficacia y seguridad. Los estudios de prometedores
tratamientos nuevos o experimentales en pacientes se conocen como ensayos
clínicos. Un ensayo clínico se realiza sólo cuando hay razones para creer que el
tratamiento que se está estudiando puede ser beneficioso para el paciente. Los
tratamientos usados en los ensayos clínicos con frecuencia demuestran tener
beneficios reales. Los investigadores realizan estudios sobre nuevos tratamientos
para conocer la utilidad del nuevo tratamiento, el mecanismo de acción del nuevo
tratamiento, si la efectividad es mayor que otros tratamientos ya disponibles, los
efectos secundarios del nuevo tratamiento y si son mayores o menores que el
tratamiento convencional, si supera los beneficios a los efectos secundarios y en
qué pacientes el nuevo tratamiento es más útil.

Ventajas

• Mayor control de las posibles alteraciones en los resultados del estudio, ya


que la aleatorización difumina la acción de las variables de confusión.
• Proporcionan la evidencia más sólida en la que basar inferencias causales.

• Pueden ser el único diseño posible para una pregunta o hipótesis de


investigación.

• A veces proporcionan una respuesta más rápida y barata a una pregunta o


hipótesis de investigación que un estudio observacional.1

Desventajas

• Suelen ser costosos y requieren de mucho tiempo.

• Muchas preguntas de investigación no se pueden responder


adecuadamente mediante un ensayo clínico por problemas éticos porque se
sospecha que el tratamiento es peligroso o beneficioso para la salud o por
problemas de escasa factibilidad en caso de sucesos raros.

• En general, solo miden la eficacia de la intervención.

• Tienden a responder a preguntas muy específicas sobre un solo factor de


riesgo o intervención.

• La aleatorización puede ser imposible cuando se estudian exposiciones del


medio ambiente o de comportamiento humano.

• Limitada generalización de los resultados debido a la rigurosa selección en


la inclusión de los sujetos en el estudio.1

ESTUDIOS ANALÍTICOS

Los estudios analíticos o explicativos buscan contestar por qué sucede un


determinado fenómeno, cuál es la causa o factor de riesgo asociado, o cuál es el
efecto de esa causa o factor de riesgo. En general, estos diseños buscan la
asociación o correlación entre variables. Usualmente un cambio en la magnitud de
una de ellas está relacionada con un cambio en la otra variable, que puede ser un
aumento o una disminución.

Los estudios analíticos son aquellos que reúnen condiciones adecuadas para
evaluar hipótesis y responder al por qué de los fenómenos de salud y enfermedad.
En función de la actitud que adopta el investigador, los estudios analíticos se
clasifican en dos grandes grupos:

 Estudios Observacionales.
 Estudios Experimentales.

Estudios analíticos observacionales

Los estudios observacionales son todos aquellos en los que el investigador no


controla la asignación de la exposición, limitándose a analizar factores cuya
presencia o ausencia en los individuos se ha producido por un motivo
independiente a la investigación. Se clasifican en estudios de cohortes, de casos y
controles y transversales. Estos últimos ya hemos visto algunos ejemplos en el
tema anterior.

El error aleatorio nace del hecho que se trabaja con muestras de individuos, y no
con toda la población. Procede, pues, de la variabilidad inherente al muestreo.

Así, el error aleatorio depende del tamaño de la muestra: cuando éste aumenta, el
error disminuye. Este tipo de error está muy relacionado con el concepto de
precisión o fiabilidad. La estadística permite cuantificar el error aleatorio.
Error aleatorio (azar)

El error aleatorio se asocia a las variaciones explicadas por el azar que está
inherentemente involucrado en cada proceso de investigación, por lo que no
puede eliminarse. Esto significa que influye en los resultados incluso cuando se
han controlado debidamente los sesgos y compromete la confiabilidad de la
investigación. Los factores que se asocian al error por azar en los resultados son
esencialmente tres: el grado de variabilidad individual e interindividual, el tamaño
muestral y la magnitud de las diferencias (a medida que la diferencia hallada en la
comparación sea mayor, la probabilidad de que ésta se deba al azar será menor).

El error aleatorio produce observaciones desviadas del verdadero valor en


cualquier sentido. Es impredecible, pero puede disminuirse al incrementar el
tamaño muestral y al realizar un análisis estadístico eficiente. Ello implica que la
estadística controla el error aleatorio indicando la probabilidad de que ocurra el
azar]. En función de esto, una adecuada estimación del tamaño muestral
contrarrestará el efecto del azar en el estudio. A propósito de esta idea, cabe
indicar que el tamaño muestral de un estudio no sería indicador de la validez
interna del mismo. O sea, no se asocia directamente al nivel de sesgo que tenga
la investigación. La estimación del error aleatorio se realiza mediante dos
procedimientos: las pruebas de contraste de hipótesis (valor p) y los intervalos de
confianza.

Prueba de significación

Las pruebas de significación estadística sirven para comparar variables entre


distintas muestras. Si la distribución de la muestra es normal se aplican los
llamados tests paramétricos. Si la distribución no puede asumirse normal se
aplican las pruebas no paramétricas. Hay que tener siempre en cuenta que los
tests paramétricos son más potentes y dan más información que los no
paramétricos, por lo que, si pueden usarse, se prefieren. El uso indiscriminado de
muestras de distribución fuera de la normalidad conlleva el peligro de obtener
conclusiones erróneas.

En general, con pocos datos, es preferible, si no es difícil ni conlleva un alto coste


de tiempo y dinero, realizar más determinaciones para poder aplicar pruebas
paramétricas al lograr una distribución normal. El teorema del límite nos dice que
si el tamaño de la muestra es suficiente, la distribución siempre tiende a ser
normal, lo que juega a nuestro favor. También hay que tener presente que la
mayoría de las veces no hay suficiente tiempo y dinero para realizar un número
elevado de pruebas para calcular la variancia de la población (Ec. 1.1), por lo que
se recurre a la variancia de la muestra (Ec. 1.2)

σ2 =(Σ(xi-µ)2)/N (Ec.1.1)
s2 = [Σ(xi-x)2]/n-1 (Ec. 1.2)

xi: valor puntual o media de un conjunto pequeño de datos (muestra).


µ: media de un conjunto infinito de datos (población) o valor aceptado como
verdadero.
x: media de un conjunto finito de datos de la muestra.

Es muy importante tener en cuenta que en las pruebas de significación estadística


siempre se plantea la hipótesis nula "H0" (no hay diferencias significativas entre los
estadísticos de las muestras comparadas), y la hipótesis alternativa "H 1" (hay
diferencias significativas). Se obtiene mucha mayor información cuando se puede
rechazar la hipótesis nula, lo que quiere decir que los estadísticos de las muestras
que se comparan son diferentes entre sí con una probabilidad mayor del 95%. Si
no se puede rechazar la hipótesis nula (p > 0,05) se pierde mucha información
porque no se puede decir que sean iguales, ni que sean diferentes porque la
probabilidad es menor del 95%.
Para analizar la dispersión se usa el concepto de "cuadrados medios (CM)". El
cuadrado medio es la suma de los cuadrados de las diferencias de los valores
individuales con respecto a un valor central (generalmente la media), partido por
los grados de libertad que tiene esa muestra. Elevar al cuadrado cada diferencia
tiene la ventaja de que hacemos positivas todas las diferencias, porque en
realidad lo que queremos valorar es la distancia de los valores al valor central, sin
importarnos si están por arriba o por debajo. El dividir por los grados de libertad,
sencillamente nos permite comparar sumatorios de cuadrados "SC" entre grupos
con distinto tamaño de muestra. Sería absurdo decir que una muestra con 50
valores tiene más dispersión que otra de 5 valores porque tiene un SC mayor,
evidentemente la suma de 50 diferencias será mayor que la suma de 5, a no ser
que las diferencias en la muestra con 5 valores sean muy grandes. Si
recapitulamos un poco podemos imaginar la variancia como un cuadrado medio
(Ec. 1.3)

s2 = [Σ(xi-x)2]/n-1 (Ec. 1.3)

Brevemente se exponen en la siguiente tabla métodos estadísticos que se pueden


aplicar para comparar distintos tipos de variables.
Para comprobar si la relación entre variables en una muestra es significativa, es
decir, es poco probable que dicha relación se explique por fluctuaciones aleatorias
del muestreo, se realizan las pruebas de significación estadística.

II) Pruebas de significación

II.A) Pruebas paramétricas

1. Prueba t de Student

Con esta prueba se pretende averiguar si dos muestras que tienen medias
iguales, provienen de la misma población.

Hipótesis nula "H0" → µ1 = µ2;

Hipótesis alternativa "H1" → µ1 ≠ µ2

La prueba permite comparar la media con su valor verdadero o bien las medias de
dos poblaciones. Se basa en los límites de confianza "LC" para el promedio x de n
mediciones repetidas (Ec. 2.1). A partir de dicha ecuación tenemos:

µ= x ± t(s/√n) (Ec. 2.1) → x - µ = ± t s/√n (Ec. 2.2)

s/√n: error estándar "EE" o desviación estándar "DE" de la distribución muestral de


medias. Como las medias son √n veces más probables que los resultados
aislados, la DE de las medias es √n veces menor que la DE de resultados
aislados, siendo n el número de determinaciones con las que se calcula la media.
t: "t de student" (tabla 2). Es un parámetro tabulado que depende de los grados de
libertad de la muestra (n-1) "gl" y del intervalo de confianza que se quiera
(generalmente 95%).

Si x - µ obtenida en la muestra a comparar es menor que la calculada para un


cierto nivel de probabilidad, no se rechaza la hipótesis nula de que x y µ sean
iguales; es decir, sus diferencias son debidas a errores aleatorios y no existe un
error sistemático significativo.

Intervalos de confianza (IC)

Para decidir sobre la efectividad de una intervención en un estudio, no basta con


aceptar el estimador puntual (point estimate) del resultado del estudio, pues como
recordará, si Ud. repite 100 veces el mismo experimento, las 100 veces obtendrá
resultados similares, pero no iguales. En términos clínicos simples el IC de un
estimador puntual es el intervalo dentro del cual caerá el estimador puntual la
mayoría de las veces que se repita el experimento. Por convención el más 95
Donis J. Tipos de estudios 2013; 2(2): 76-99. Avan Biomed. utilizado es el
Intervalo de Confianza del 95 %, es decir, el intervalo dentro del cual estará el
resultado 95 veces de cada 100 experimentos. El IC es por tanto la forma de
establecer la precisión del resultado (estimador puntual). Siempre debe fijarse en
la amplitud del intervalo: los intervalos más estrechos nos dan mayor precisión, los
intervalos demasiado amplios nos dejan más incómodos, asi debe tener presente
además que mientras más amplitud se evidencie en los IC, menor precisión existe
en los resultados y viceversa. Pues son resultados poco precisos. Es así como
para un mismo resultado de RR, nuestra seguridad (precisión) en la interpretación
depende del IC, además de dar alguna idea de la relevancia clínica del resultado
más allá de la significación estadística de este estos .IC reflejan la precisión de un
resultado de un estudio y el rango de valores para la variable, tal como para la
proporción, RR, OR, que tienen una probabilidad especificada por el intervalo de
contener el valor verdadero de la población entera, de donde la muestra ha sido
extraída. Aunque el 95% de IC son los más comúnmente usados, otros tal como
90 % y el 99% pueden también ser utilizados (39). Para una RR o OR al 95 % el
cual no incluye a la unidad, permite decir que la diferencia es significativa a un
nivel de significación del 0,05 o al 5%,

Cómo interpretar correctamente los intervalos de confianza y los niveles de


confianza

Un intervalo de confianza es un rango de valores que es probable que contenga


un parámetro de población desconocido. Si dibuja una muestra aleatoria muchas
veces, un cierto porcentaje de los intervalos de confianza contendrá la media
poblacional. Este porcentaje es el nivel de confianza.

Lo más frecuente es que usemos los intervalos de confianza para acotar la media
o la desviación estándar, pero también se pueden obtener intervalos de confianza
para los coeficientes de regresión, las proporciones, las tasas de ocurrencia
(Poisson), y para las diferencias entre las poblaciones.
Sesgo de Selección

Este sesgo hace referencia a cualquier error que se deriva del proceso de
identificación de la población a estudiar. La distorsión resulta de la forma en que
los sujetos han sido seleccionados. Estos sesgos se pueden cometer: a. Al
seleccionar el grupo control. b. Al seleccionar el espacio muestral donde se
realizará el estudio. c. Por pérdidas en el seguimiento. d. Por la presencia de una
supervivencia selectiva. Los sesgos de selección pueden presentarse también en
los estudios de casos y controles, cuando el procedimiento utilizado para
identificar el status de enfermedad (sesgo diagnóstico) varía o se modifica con el
status exposición. Este sesgo se llama "sesgo de detección". Los sesgos de
selección son un problema fundamental en los estudios de casos y controles y en
los estudios de cohortes retrospectivos donde la exposición y el resultado final ya
han ocurrido en el momento que los individuos son seleccionados para el estudio.
Los sesgos de selección son poco probables en los estudios de cohortes
prospectivos porque la exposición se determina antes de la presencia de
enfermedad de interés. En todos los casos, cuando el sesgo de selección ocurre,
el resultado produce una relación entre exposición y enfermedad que es diferente
entre los individuos que entraron en el estudio que entre los que pudiendo haber
sido elegidos para participar, no fueron elegidos. La evitación de los sesgos de
selección depende en gran medida de que el investigador conozca las fuentes de
sesgo potenciales. En los estudios de casos y controles para evitar sesgos de
selección, se recomienda al menos teóricamente, ya que desde el punto de vista
práctico es muy costoso, utilizar dos grupos control. Uno de ellos una muestra
poblacional, lo que posibilita el detectar el posible sesgo de selección al hacer
estimaciones del efecto por separado. Si obtenemos la misma estimación del
efecto en los controles poblacionales que con los otros controles podremos asumir
que no hay sesgos en la selección de los mismos. A pesar de todo siempre existe
la posibilidad remota de que las dos estimaciones tuviesen el mismo grado de
sesgo. Otra recomendación es utilizar muchas patologías como grupo control en
lugar de pocas patologías y comprobar que las frecuencias de exposición son
similares entre los diferentes grupos diagnosticados en los controles. En los
estudios de seguimiento se debe asegurar un seguimiento completo en ambos
grupos. Sesgo de información u observación Este sesgo incluye cualquier error
sistemático en la medida de información sobre la exposición a estudiar o los
resultados. Los sesgos de observación o información se derivan de las diferencias
sistemáticas en las que los datos sobre exposición o resultado final, se obtienen
de los diferentes grupos. El rehusar o no responder en un estudio puede introducir
sesgos si la tasa de respuesta está relacionada con el status de exposición. El
sesgo de información es por tanto una distorsión en la estimación del efecto por
errores de medición en la exposición o enfermedad o en la clasificación errónea de
los sujetos. Las fuentes de sesgo de información más frecuentes son: a.
Instrumento de medida no adecuado. b. Criterios diagnósticos incorrectos. c.
Omisiones. d. Imprecisiones en la información. e. Errores en la clasificación. f.
Errores introducidos por los cuestionarios o las encuestadoras. Los errores de
clasificación son una consecuencia directa del sesgo de información. Esta
clasificación puede ser "diferencial" si el error de clasificación es independiente
para ambos grupos o "no diferencial" si el error de clasificación es igual para
ambos grupos de estudio, produciéndose una dilución del efecto con una
subestimación del mismo.

Sesgos de información

El sesgo de información se refiere a los errores que se introducen durante la


medición de la exposición, de los eventos u otras covariables en la población en
estudio, que se presentan de manera diferencial entre los grupos que se
comparan, y que ocasionan una conclusión errónea respecto de la hipótesis que
se investiga. Una posible fuente de sesgo de medición puede ser cualquier factor
que influya de manera diferencial sobre la calidad de las mediciones que se
realizan en los grupos expuesto y no expuesto en el contexto de los estudios de
cohorte o entre los casos y controles en el contexto de los estudios de casos y
controles.

Es importante mencionar que aunque prácticamente no existen procedimientos


libres de error de medición, no todos los errores de medición son fuente de sesgo
de información. Es conveniente recordar que los errores de medición pueden ser
no diferenciales (aleatorios) cuando el grado de error del instrumento o técnica
empleada es el mismo para los grupos que se comparan y diferenciales (no
aleatorios) cuando el grado de error es diferente para los grupos estudiados, el
sesgo de información se refiere particularmente a este último tipo. Para
comprender mejor la diferencia entre ambos errores de medición se analiza el
siguiente ejemplo. En un estudio hipotético de casos y controles para evaluar la
asociación entre tabaquismo e infarto agudo del miocardio, los casos se
identificaron en las salas de urgencias, del Instituto Mexicano del Seguro Social al
momento de su ingreso y los controles fueron seleccionados al azar entre los
derechohabientes que son vecinos de cada caso. Suponga que, en un primer
escenario, la exposición al tabaco se evalúa determinando la presencia de un
marcador biológico de exposición que se mide en sangre. En este primer
escenario, puede existir cierto grado de error en las determinaciones del
biomarcador en sangre, sin embargo es posible suponer que el error es similar
para los dos grupos, por lo que se considera no diferencial o aleatorio. En
contraste, si la exposición al tabaco se hubiera evaluado mediante un cuestionario,
la calidad de la información dependería, en parte, de la memoria de los
participantes. Si los casos, dado que sufrieron el evento, tuvieran un estímulo
mayor para recordar o participar entonces la calidad de la información sería mejor
en este grupo que la que se podría obtener en el grupo control, situación que
introduciría un error diferencial o no aleatorio. En general, el impacto de este
último tipo de error es difícil de predecir ya que puede subestimar o sobrestimar la
asociación real, a diferencia del error aleatorio que en general tiende a subestimar
las asociaciones reales.

En el cuadro I se ofrece una clasificación general de las diferentes fuentes de error


de medición. Es importante hacer notar que durante el diseño de un estudio se
deben establecer todas aquellas características que se habrán de medir para
responder una pregunta de investigación. Una de las dificultades con las que se
topa el investigador en esta etapa se deriva de la brecha o diferencia que se
establece entre una entidad conceptual de una variable y su definición empírica
que es, finalmente, la forma en que será medida. Esta diferencia estriba en la
imposibilidad, la mayor parte de las ocasiones, de medir directamente la
característica de interés. Por ejemplo, la exposición involuntaria al humo del
tabaco podría ser definida teóricamente como "la exposición de las células del
tejido pulmonar a agentes carcinogénicos que resulta de la inhalación del humo
del tabaco proveniente de las emisiones de fumadores activos", en la práctica esta
definición teórica se tendría que medir mediante la utilización de algún indicador
cercano de dicha condición, tal como "tiempo que pasa el sujeto de estudio junto a
personas fumadoras". Estas definiciones empíricas son utilizadas y plasmadas por
los epidemiólogos y por investigadores de otras disciplinas, en los instrumentos de
medición que se elaboran ex profeso para un estudio y que pueden ser medidas
ya sea por un cuestionario o un biomarcador. En este último ejemplo, la exposición
involuntaria se podría también medir mediante la determinación de cotinina (un
metabolito de la nicotina) en la sangre de los sujetos en estudio. Mientras que las
estimaciones de exposición realizadas mediante un cuestionario estarán sujetas a
diferentes tipos de error como lo serían la memoria de los participantes y la
comprensión de las preguntas, en el caso del biomarcador, serán fuentes de error
los procedimientos utilizados para obtener la muestra, el transporte y conservación
de la misma, así como los diferentes procedimientos de laboratorio que se
necesiten utilizar para su medición.

Sesgos de confusión

Todos los resultados derivados de estudios observacionales están potencialmente


influenciados por este tipo de sesgo. El sesgo de confusión puede resultar en una
sobre o subestimación de la asociación real. Existe sesgo de confusión cuando
observamos una asociación no causal entre la exposición y el evento en estudio o
cuando no observamos una asociación real entre la exposición y el evento en
estudio por la acción de una tercera variable que no es controlada. Esta(s)
variable(s) se denomina(n) factor(es) de confusión o confusor(es). Los resultados
de un estudio estarán confundidos cuando los resultados obtenidos en la
población en estudio apoyan una conclusión falsa o espuria sobre la hipótesis en
evaluación, debido a la influencia de otras variables, que no fueron controladas
adecuadamente ya sea durante la fase de diseño o de análisis. En este contexto,
son fuente posible de sesgo de confusión cualquier variable asociada con la
exposición que, además, esté causalmente asociada con el evento en estudio y
que se encuentre distribuida de manera diferencial entre los grupos que se
comparan, ya sea entre expuestos y no expuestos en el contexto de los estudios
de cohorte o entre casos y controles en el ámbito de los estudios de casos y
controles.

En los estudios observacionales el sesgo de confusión se puede entender como


un problema de comparabilidad cuyo origen está ligado a la imposibilidad de
realizar una asignación aleatoria de la exposición en los sujetos de estudio. El
objetivo de la asignación al azar de los tratamientos (de la exposición) en los
estudios experimentales es lograr la formación de grupos homogéneos en lo que
se refiere a todas las características que puedan influir en el riesgo de desarrollar
el evento (edad, sexo, masa corporal u otras características que no se puedan
medir), lo que se busca lograr es que los grupos sean similares en todo excepto
en la exposición que se busca evaluar.

Analicemos el siguiente ejemplo, cuando Doll y Hill publicaron sus primeros


resultados derivados del seguimiento de cerca de 40 000 médicos y reportaron
que el cáncer de pulmón era considerablemente más frecuente en los
fumadores, las críticas no se hicieron esperar. Se argumentó que la asociación
observada por estos investigadores entre el tabaquismo y el cáncer de pulmón se
debía muy probablemente a la acción de una tercera variable, a una
susceptibilidad genética que predisponía tanto al cáncer de pulmón como al gusto
por el tabaco, con este argumento se descartaba el posible efecto carcinogénico
del humo de tabaco. La crítica anterior implica que el gusto por fumar no se da al
azar sino que coexiste un factor genético y que este factor es la verdadera causa
de cáncer de pulmón. Para poder separar el efecto del cigarrillo del de la
susceptibilidad genética tendríamos que realizar un experimento, se podrían
seleccionar 40 000 individuos y asignarlos aleatoriamente a dos tratamientos
experimentales: fumadores (expuesto) y no fumadores (no expuesto). Al
asignarlos al azar se puede suponer que la distribución del factor genético que
causa cáncer de pulmón en los grupos formados mediante la aleatorización será la
misma, es decir, si la aleatorización se realizó de manera correcta -en promedio-
el porcentaje de sujetos genéticamente susceptibles al cáncer de pulmón sería la
misma en ambos grupos, por lo tanto, si observáramos diferencias en la
ocurrencia de cáncer de pulmón entre los fumadores y no fumadores ésta no
podría ser atribuida al factor genético ya que éste afectaría de igual manera a los
dos grupos. Sin embargo, es claro que este tipo de experimento sería imposible de
realizar.

A diferencia de los estudios experimentales, en que los sujetos en estudio son


asignados al azar a los grupos experimentales y, por lo tanto, los posibles
confusores quedan igualmente distribuidos entre los grupos en contraste, en los
estudios observacionales los sujetos reciben la exposición por muy diferentes
motivos que dependen importantemente de patrones culturales y
socioeconómicos. Entonces ¿qué es una variable confusora o confusor? Se trata
de variables que están asociadas con el evento en estudio de manera causal, es
decir, son factores de riesgo para el evento en estudio, además esta asociación
debe ser por un mecanismo causal diferente al que actúa la exposición en estudio
y debe ser independiente de esta misma. Esto último quiere decir que el confusor
debe ser un factor de riesgo tanto para el grupo expuesto como para el no
expuesto. Los sesgos de confusión en estudios de cohorte ocurren principalmente
cuando los grupos expuesto y no expuesto no son comparables. Por ejemplo, si
fuera de interés evaluar en un estudio de cohorte el efecto del consumo de café
sobre el riesgo de infarto del miocardio y se establecieran dos grupos de
contraste, uno conformado por bebedores de café y otro por no bebedores de
café, se tendría que considerar el tabaquismo como un posible confusor ya que
está asociado con el consumo de café y es un factor de riesgo para infarto de
miocardio. En este estudio hipotético ignorar las diferencias en el consumo de
tabaco podría hacernos concluir que existe una falsa asociación positiva entre el
consumo de café y el riesgo de infarto del miocardio. En el contexto de los
estudios de casos y controles ocurre cuando hay diferencias entre casos y
controles en relación con una tercera variable, lo que puede ocurrir simplemente
por la existencia de confusión en la población fuente o ser generada por el mismo
proceso de selección.

¿Qué podemos hacer para prevenir la ocurrencia de sesgos de confusión? En


el cuadro V se listan los diferentes procedimientos tanto en la fase de diseño
como en la de análisis que nos permiten prevenir o corregir el efecto del sesgo de
confusión, como se puede deducir de los diferentes procedimientos utilizados, el
común denominador de todos es hacer los grupos de contraste lo más comparable
posible con relación a variables externas, el objetivo es lograr que la única
diferencia entre los grupos sea la característica en estudio.
Ensayos de campo: Tratan con sujetos que aún no han adquirido la enfermedad
o con aquéllos que estén en riesgo de adquirirla y estudian factores preventivos de
enfermedades como pueden ser la administración de vacunas o el seguimiento de
dietas.

Ventajas

 Son preventivos
 El investigador decide la exposición
 Menos posibilidad de sesgos debido a la selección aleatoria de los grupos.
 Repetibles y comparables con otras experiencias
Desventajas

 Son costosos
 Los casos deben ser incidentes
 Limitaciones de tipo ético y responsabilidad en la manipulación de la
exposición.
 Dificultades en la generalización debido a la selección y o a la propia rigidez
de la intervención.

Estudios de casos y controles

Los estudios de casos y controles son un tipo de estudios observacionales,


analíticos y retrospectivos en el tiempo, en los que se identifican dos grupos:

 Un grupo con un desenlace especificado (casos).


 Un grupo sin ese desenlace especificado (controles o grupo de referencia).

Un estudio de casos y controles es un estudio analítico observacional que


comienza con la identificación de un grupo de casos (individuos con una particular
enfermedad o condición) y un grupo de controles (individuos sin la enfermedad o
condición). Entonces, el nivel o prevalencia de la exposición a un factor se mide en
los dos grupos y se compara. Básicamente, si la prevalencia de la exposición es
mayor en casos que en controles, la exposición podría ser un factor de riesgo,
mientras que si es menor, la exposición podría ser un factor protector. Luego, los
investigadores comparan el grado en que cada persona estuvo expuesta
anteriormente a la variable de interés, por ejemplo, un factor de riesgo, un
tratamiento o una intervención.

Los estudios de casos y controles son útiles para estudiar afecciones raras y
afecciones con intervalos prolongados entre la exposición y el desenlace. Un
ejemplo sería el desarrollo de enfermedades crónicas (cáncer, enfermedades
cardiovasculares), aunque cada vez son más utilizados también en el estudio de
enfermedades transmisibles y en la evaluación de intervenciones y programas de
salud. En estos casos, un estudio prospectivo sería difícil. Aunque los estudios de
casos y controles pueden ser eficaces y económicos, no tienen la robustez de las
pruebas científicas de un estudio prospectivo.

¿Cómo determinar el tamaño de una muestra?

Todo estudio epidemiológico lleva implícito en la fase de diseño la determinación


(1-4)
del tamaño muestral necesario para la ejecución del mismo . El no realizar
dicho proceso, puede llevarnos a dos situaciones diferentes: primera que
realicemos el estudio sin el número adecuado de pacientes, con lo cual no
podremos ser precisos al estimar los parámetros y además no encontraremos
diferencias significativas cuando en la realidad sí existen. La segunda situación es
que podríamos estudiar un número innecesario de pacientes, lo cual lleva implícito
no solo la pérdida de tiempo e incremento de recursos innecesarios sino que
además la calidad del estudio, dado dicho incremento, puede verse afectada en
sentido negativo.
Para determinar el tamaño muestral de un estudio, debemos considerar diferentes
(5-7)
situaciones :
A. Estudios para determinar parámetros. Es decir pretendemos hacer
inferencias a valores poblacionales (proporciones, medias) a partir de una muestra
(Tabla 1).
B. Estudios para contraste de hipótesis. Es decir pretendemos comparar si las
medias o las proporciones de las muestras son diferentes.

Tabla 1. Elementos de la Inferencia Estadística

A. Estudios para determinar parámetros

Con estos estudios pretendemos hacer inferencias a valores poblacionales


(proporciones, medias) a partir de una muestra.

A.1. Estimar una proporción:

Si deseamos estimar una proporción, debemos saber:


a. El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado
da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96,
para una seguridad del 99% = 2.58.
b. La precisión que deseamos para nuestro estudio.
c. Una idea del valor aproximado del parámetro que queremos medir (en
este caso una proporción). Esta idea se puede obtener revisando la
literatura, por estudio pilotos previos. En caso de no tener dicha
información utilizaremos el valor p = 0.5 (50%).

Ejemplo: ¿A cuántas personas tendríamos que estudiar para conocer la


prevalencia de diabetes?

Seguridad = 95%; Precisión = 3%: Proporción esperada = asumamos que puede


ser próxima al 5%; si no tuviésemos ninguna idea de dicha proporción
utilizaríamos el valor p = 0,5 (50%) que maximiza el tamaño muestral:

Dónde:

 Za 2 = 1.962 (ya que la seguridad es del 95%)


 p = proporción esperada (en este caso 5% = 0.05)
 q = 1 – p (en este caso 1 – 0.05 = 0.95)
 d = precisión (en este caso deseamos un 3%)

Si la población es finita, es decir conocemos el total de la población y deseásemos


saber cuántos del total tendremos que estudiar la respuesta seria:
Dónde:

 N = Total de la población
 Za2 = 1.962 (si la seguridad es del 95%)
 p = proporción esperada (en este caso 5% = 0.05)
 q = 1 – p (en este caso 1-0.05 = 0.95)
 d = precisión (en este caso deseamos un 3%).

¿A cuántas personas tendría que estudiar de una población de 15.000 habitantes


para conocer la prevalencia de diabetes?

Seguridad = 95%; Precisión = 3%; proporción esperada = asumamos que puede


ser próxima al 5% ; si no tuviese ninguna idea de dicha proporción utilizaríamos el
valor p = 0.5 (50%) que maximiza el tamaño muestral.

Según diferentes seguridades el coeficiente de Za varía, así:


 Si la seguridad Za fuese del 90% el coeficiente sería 1.645
 Si la seguridad Za fuese del 95% el coeficiente sería 1.96
 Si la seguridad Za fuese del 97.5% el coeficiente sería 2.24
 Si la seguridad Za fuese del 99% el coeficiente sería 2.576

A.2. Estimar una media:

Si deseamos estimar una media: debemos saber:


 El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado
da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96; para
una seguridad del 99% = 2.58.
 La precisión con que se desea estimar el parámetro (2 * d es la amplitud
del intervalo de confianza).
 Una idea de la varianza S 2 de la distribución de la variable cuantitativa
que se supone existe en la población.

Ejemplo: Si deseamos conocer la media de la glucemia basal de una población,


con una seguridad del 95 % y una precisión de ± 3 mg/dl y tenemos información
por un estudio piloto o revisión bibliográfica que la varianza es de 250 mg/dl

Si la población es finita, como previamente se señaló, es decir conocemos el total


de la población y desearíamos saber cuantos del total tendríamos que estudiar, la
respuesta sería:

B. Estudios para contraste de hipótesis:


Estos estudios pretenden comparar si las medias o las proporciones de las
muestras son diferentes. Habitualmente el investigador pretende comparar dos
tratamientos. Para el cálculo del tamaño muestral se precisa conocer:

a. Magnitud de la diferencia a detectar que tenga interés clínicamente


relevante. Se pueden comparar dos proporciones o dos medias.
b. Tener una idea aproximada de los parámetros de la variable que se
estudia (bibliografía, estudios previos).
c. Seguridad del estudio (riesgo de cometer un error a)
d. Poder estadístico (1 - b) (riesgo de cometer un error b)
e. Definir si la hipótesis va a ser unilateral o bilateral.
 Bilateral: Cualquiera de los dos parámetros a comparar (medias o
proporciones) puede ser mayor o menor que el otro. No se
establece dirección.
 Unilateral: Cuando se considera que uno de los parámetros debe
ser mayor que el otro, indicando por tanto una dirección de las
diferencias.
La hipótesis bilateral es una hipótesis más conservadora y disminuye el riesgo de
cometer un error de tipo I (rechazar la H0 cuando en realidad es verdadera).
B1. Comparación de dos proporciones:

Donde:

 n = sujetos necesarios en cada una de las muestras


 Za = Valor Z correspondiente al riesgo deseado
 Zb = Valor Z correspondiente al riesgo deseado
 p1 = Valor de la proporción en el grupo de referencia, placebo, control o
tratamiento habitual.
 p2 = Valor de la proporción en el grupo del nuevo tratamiento,
intervención o técnica.
 p = Media de las dos proporciones p 1 y p2

(8)
Los valores Za según la seguridad y Zb según el poder se indican en la Tabla 2 .
B2. Comparación de dos medias:

Donde:

 n = sujetos necesarios en cada una de las muestras


 Za = Valor Z correspondiente al riesgo deseado
 Zb = Valor Z correspondiente al riesgo deseado
 S2 = Varianza de la variable cuantitativa que tiene el grupo control o de
referencia.
 d = Valor mínimo de la diferencia que se desea detectar (datos
cuantitativos)
(8)
Los valores Za según la seguridad y Zb según el poder se indican en la Tabla 2 .

Tabla 2. Valores de Za y Zb más frecuentemente


utilizados

Za

a Test unilateral Test bilateral

0.200 0.842 1.282


0.150 1.036 1.440
0.100 1.282 1.645
0.050 1.645 1.960
0.025 1.960 2.240
0.010 2.326 2.576

Potencia

b (1-b) Zb

0.01 0.99 2.326


0.05 0.95 1.645
0.10 0.90 1.282
0.15 0.85 1.036
0.20 0.80 0.842
0.25 0.75 0.674
0.30 0.70 0.524
0.35 0.65 0.385
0.40 0.60 0.253
0.45 0.55 0.126
0.50 0.50 0.000
Ejemplo de comparación de dos medias:

Deseamos utilizar un nuevo fármaco antidiabético y consideramos que seria


clínicamente eficaz si lograse un descenso de 15 mg/dl respecto al tto. Habitual
con el antidiabético estándar. Por estudios previos sabemos que la desviación
típica de la glucemia en pacientes que reciben el tratamiento habitual es de 16
mg/dl. Aceptamos un riesgo de 0.05 y deseamos un poder estadístico de 90%
para detectar diferencias si es que existen.

precisamos 20 pacientes en cada grupo.


Ejemplo de comparación de dos proporciones:

Deseamos evaluar si el Tratamiento T2 es mejor que el tratamiento T1 para el alivio


del dolor para lo que diseñamos un ensayo clínico. Sabemos por datos previos
que la eficacia del fármaco habitual está alrededor del 70% y consideramos
clínicamente relevante si el nuevo fármaco alivia el dolor en un 90%. Nuestro nivel
de riesgo lo fijamos en 0.05 y deseamos un poder estadístico de un 80%.

n = 48 pacientes. En cada grupo precisamos 48 pacientes.

También podría gustarte