Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Al igual que con cualquier test que usamos en la clínica, en los estudios clínicos que
se publican podemos tener falsos positivos o falsos negativos. Los primeros son
aquellos que nos dirían que el tratamiento A es mejor que el B cuando en realidad
son iguales. Estos errores se llaman de tipo I o alfa. Para disminuir este riesgo,
queremos estar seguros de que lo que encontramos en nuestro estudio es real, al
menos en el 95% de los casos (esto es lo que indica p<0.05 en los estudios).
Sin embargo, al intentar evitar un falso positivo, podemos tener falsos negativos
(aunque realmente hay diferencia entre los tratamientos A y B, nuestro estudio no
la revela, lo que se denomina error tipo II o beta). La única forma de disminuir dos
errores simultáneamente es aumentar el tamaño de la muestra estudiada. Cuando
el número de la muestra estudiada es pequeño (algo frecuente en estudios clínicos
en veterinaria) hay un alto riesgo de error tipo II, es decir, no poder detectar una
diferencia en la variable estudiada aunque realmente exista (falso negativo).
Otros factores que pueden interferir con los resultados son la falta de
imparcialidad. En un estudio sobre eficacia de un tratamiento, poner casos con
peor pronóstico en un mismo grupo, puede influir en el resultado del estudio. Este
riesgo se disminuye si el estudio es aleatorio (el investigador no decide qué
individuo va a cada grupo) o si ambos grupos son similares en factores que pueden
afectar al resultado (estadio clínico, pronóstico, etc).
El artículo Evaluación de la quimioterapia adyuvante basada en doxorrubicina
para el tratamiento del carcinoma mamario felino3, publicado en 2009, no
encontró (de acuerdo a las conclusiones del abstract) un beneficio clínico en el uso
de quimioterapia tras la cirugía en estos pacientes. Una lectura detallada del
artículo revela que la composición de los grupos podría influir en la evolución (el
grupo que evaluaba la quimioterapia tenía casos asociados a peor pronóstico –un
30% de ellos con metástasis, frente al 16% en el otro grupo-). El bajo número de
casos, como los autores comentan, puede hacer que no se detectaran diferencias
(lo que sería un error tipo II o beta). De hecho, el poder estadístico –habilidad para
detectar una diferencia cando realmente la hay- del trabajo es de solo un 12%. El
poder estadístico debería interpretarse en todos los trabajos para poder valorar la
fiabilidad de los hallazgos.