Está en la página 1de 69

Errores sistemáticos

(sesgos) y errores
aleatorios

Dra. Virginia Rodríguez Funes, FACS, MSP


UNICA FM-UES
Una propuesta de investigación cabe dentro
de uno de los dos objetivos siguientes:
1.Conocer la frecuencia con que aparece
una enfermedad o evento, o la descripción
de sus características (estudios
descriptivos). Aquí también caben los
estudios cualitativos.
2. Estimar el efecto de un factor de estudio
(una exposición o una intervención) sobre
una enfermedad o una variable de
respuesta (estudios analíticos).
En todos los casos, el investigador
trata de responder a la pregunta de
forma válida y precisa. En otras
palabras, el estudio se diseña para
evitar cualquier error en la respuesta al
objetivo planteado y acercarse a la
verdad.
Validez
La validez tiene que ver con que tan cerca
están los resultados del estudio realizado
con la verdad.
Para esto, se tiene que tener cuidado en
como se planifica un estudio conociendo
el como funciona la investigación.
Fisiología de la investigación
Lo importante para preveer y evitar
errores, se debe conocer como
funciona el proceso de investigación
El objetivo de la investigación es extraer
inferencias de los hallazgos del estudio
sobre la naturaleza del universo
exterior.
Hallazgos del
Verdad en el universo
estudio

Inferencia
Existen dos grupos de inferencias:
1. La inferencia No 1 alude a la validez interna,
que es el grado en que el investigador extrae
las conclusiones correctas sobre lo que
realmente ocurrió en el estudio
2. La inferencia No 2 alude a la validez externa
(o posibilidad de generalización) el grado en
el que se puede aplicar de forma adecuada
esas conclusiones a las personas y episodios
no incluidos en el estudio.
VALIDEZ VALIDEZ
EXTERNA INTERNA

Inf VERDAD EN Inf


VERDAD EN EL EL ESTUDIO HALLAZGOS
Extracción 2 1
UNIVERSO DEL ESTUDIO
de
conclusiones

Plan del Estudio real


Pregunta de estudio
Diseño e investigación
implement
acion D Imp
Validez interna
Se refiere al grado en que los
resultados de un estudio son válidos
(o sea que están libres de error) para
la población que ha sido estudiada. La
validez interna se ve afectada por:
a. Los errores sistemáticos
b. y los factores de confusión.
Validez externa

Se refiere al grado en que los resultados


de un estudio pueden ser generalizados
a otras poblaciones distintas a la
estudiada. La primera condición para que
unos resultados puedan ser
generalizados es que tengan validez
interna.
Control de
Control factores
de
de errores
confusión
sistemátic
os

Buen
diseño

Validez interna
Resultados cercanos a la verdad

Control de errores
Precisión
aleatorios

Validez externa Generalización universal


Inferencia Inferencia

Verdad en el Verdad en el Hallazgos del


Universo
E estudio
E estudio S
A y
y Plan del F Estudio real
Pregunta de
investigación
S estudio C

Muestra Participantes
Población Diana propuesta reales

Fenómenos de D Variables I Mediciones


interés propuestas reales

VALIDEZ VALIDEZ
EXTERNA INTERNA
Inferencia

Validez
Externa ERROR SOLUCION

Error Mejorar el diseño


Aleatorio Aumentar el tamaño
de la muestra
Aumentar la
precisión

Error Mejorar el diseño


Sistemático 7 estrategias para
aumentar la
exactitud

DISEÑO
¿Que es ERROR en investigación?

• Este se define como la diferencia entre el


verdadero valor de una medida y el valor
registrado.
• Hay muchas fuentes de error al recolectar
los datos de una investigacion
¿De que hay que cuidarse al
planificar un estudio?
• De los errores sistemáticos o
SESGOS
• De los factores de confusión y
Que son los que definen la validez, y
• De los errores aleatorios (definición
estadística)
Que definen la precisión.
Tipos de error

En cualquier estudio se debe


de minimizar dos errores
principalmente: el error
sistemático y el error
aleatorio.
Sesgo versus error aleatorio

Validez y No validez,
precisión si precisión

Validez y no
No Validez y
precisión
no precisión
Definición.
Son errores que se introducen en un
estudio y que dan como resultado
una estimación incorrecta (sesgada)
del parámetro o del efecto de interés.
Por lo tanto, la ausencia de errores
sistemáticos o sesgos confiere
validez interna a un estudio.
Es un error en el diseño del estudio, ya
sea en la selección de los sujetos
(sesgo de selección) o en la medición
de las variables (sesgo de información),
que conduce a una estimación
incorrecta o no válida del efecto o
parámetro que se estudia.
No solo hay que evaluar la existencia
o no de estos errores, sino
también, en caso de que existan, si
tienden a producir un resultado
falsamente positivo o negativo, y
valorar su magnitud y sus
implicaciones prácticas.
Una vez que aparece un sesgo no
puede eliminarse en el análisis, a
diferencia de lo que ocurre con los
factores de confusión. Por esta razon,
es fundamental prevenir su aparición
en la fase del diseño.
Sesgo de selección
El sesgo de selección puede aparecer al
elegir una muestra que no represente de
forma adecuada a la población de estudio
o al formar los grupos que se van a
comparar.
Ejemplos:
a. En un estudio descriptivo, tomar una
muestra de los primeros que llegan a la
consulta.
b. En un estudio analítico observacional:
de forma general, cuando se eligen como
controles personas con enfermedades
relacionadas positiva o negativamente
con la exposición, se está introduciendo
un sesgo de selección.
Ejemplo: un estudio de casos y controles
de cáncer de pulmón con tabaquismo, y
los controles se escogen entre los
ingresados en neumología pero sin
cáncer de pulmón.
c. También se pueden producir durante el
seguimiento de los participantes si la
probabilidad de desarrollar la enfermedad
entre los sujetos que se pierden es
diferente en cada uno de los grupos.
d. Otra situación que puede producir un
sesgo de selección es la existencia de
no respuestas, lo que suele ocurrir en
las encuestas transversales.
Ejemplo: en un estudio de prevalencia de
tabaquismo, los tabaquistas se niegan
a contestar la encuesta.
La única manera de asegurar que las
pérdidas durante el seguimiento o las no
respuestas no introducen un error
sistemático en los resultados es evitar que
se produzcan, o bien obtener información
suplementaria que permita evaluar si los
sujetos que se pierden o que no contestan
difieren de los que finalizan el estudio.
Sesgo de información
Se produce cuando las mediciones de las
variables de estudio son de mala calidad o son
sistemáticamente desiguales entre los sujetos
de cada grupo. Las principales fuentes de estos
errores son la aplicación de pruebas poco
sensibles y/o específicas para la medición de
las variables, la aplicación de criterios
diagnósticos incorrectos, o distintos en cada
grupo, e imprecisiones u omisiones en la
recogida de los datos.
Por ello, las variables deben medirse con
el instrumento adecuado, validado y
bien calibrado, y aplicarlo de la misma
forma en todos los participantes del
estudio.
También se puede incluir aquí el sesgo
de memoria, el cual es cuando en una
encuesta se hacen preguntas de
tiempo pasado y con detalles.
Otros sesgos
Dependiendo de los diseños, también
pueden haber otros sesgos.
A continuación mencionaremos los sesgos
incluidos dentro de los ensayos clínicos.
¿POR QUÉ CURAN LOS
MEDICAMENTOS?
• Efecto tiempo: curación espontánea
• Efecto paciente: cree en el medicamento
• Efecto médico: el médico está convencido de
la actividad del medicamento
• Grupo “favorable”: paciente susceptible a los
medicamentos
• Efecto placebo: la fé
• Medicamento activo
¿ COMO LLEGAR A LA ULTIMA
CONCLUSION SIN SER
PERTURBADOS POR LOS OTROS
EFECTOS?

¿COMO SUPRIMIR LOS 5


EFECTOS ANTERIORES?
Controlando el sesgo Efecto
paciente
Que el paciente no sepa que
medicamento se le esta administrando.
Ciego simple.
Controlando el sesgo del
Efecto medico
Ni el médico ni el paciente deben
saber cuál es el medicamento que
se esta utilizando.
Doble ciego.
Si esto no se puede lograr, se debe
hacer que la evaluación sea hecho
a ciegas.
Triple ciego: en la que además de
otras personas desconocen el
tratamiento que recibe cada sujeto,
ya sea el profesional estadístico
que analizará los resultados, o la
persona responsable de decidir si
se suspende un tratamiento por la
aparición de reacciones adversas o
hay una interrupción prematura del
ensayo.
Cuando estos métodos no pueden
llevarse a cabo, hay que realizar un
esfuerzo para que la variable /criterio
de evaluación a medir, sea una variable
objetiva.
Entre mas objetiva es la variable,
menos critico es el ciego.
Control del sesgo dado por el
Grupo favorable
A través de la Aleatorizacion o
distribucion de los grupos al azar.
Esto es tan importante como tener
grupo control y el doble ciego.
El anglicismo utilizado es
“randomización”.
Uso del grupo Control para
disminuir sesgos por efectos
Efecto tiempo o historia natural.

Grupo con ●
Curados
No curados
antibiótico

Grupo sin ●
Curados
No curados
antibiótico

Efecto placebo
Comparar Versus placebo.
Esto le da mas potencia al estudio, pero en
ocasiones es antiético por lo que se utilizará
el medicamento de referencia.
En esos casos hay que utilizar un intervalo de
confianza en el análisis y tener grandes
muestras para encontrar alguna diferencia.
Efecto Hawthorne

El efecto Hawthorne es una respuesta


inducida por el conocimiento de los
participantes de que están siendo
estudiados. La participación en un estudio
puede cambiar el comportamiento de los
individuos tanto del grupo de estudio
como del de control.
Efecto de Regresión a la Media
Se entiende por regresión a la media la tendencia
de los individuos que tienen un valor extremo de
una variable a presentar valores más cercanos
a la media de la distribución cuando esta
variable se mide por segunda vez. Un ejemplo
simple es la observación de que una persona
con una enfermedad o una molestia sin
importancia tiende a mejorar, mientras que
aquellos con un perfecto estado de salud
tienden a empeorar
• La regresión a la media es una fuente de
muchos errores en la interpretación de los
resultados de un estudio. Cuando los individuos
se seleccionan según una característica que
varía con el tiempo, el efecto que se halle en las
siguientes mediciones puede deberse a la
variabilidad de la medida y no al efecto de la
intervención. Cuando se dispone de un grupo de
comparación, este fenómeno no desaparece,
pero se controla, ya que es de suponer que
sucederá en ambos grupos por igual.
VARIABLES DE CONFUSION
Se trata de variables que pueden
distorsionar la relación entre el factor
de estudio y la variable de respuesta.
Por tanto, si no se han controlado, o
se ha hecho de forma inadecuada,
también puede obtenerse
estimaciones erróneas del resultado.
Los factores de confusión son variables
asociadas tanto al factor de estudio como
a la variable de respuesta, y no forman
parte de la cadena causal entre ellos.
Los estudios analíticos implican una
comparación entre grupos. La primera
regla para que esta comparación sea
válida es que los grupos sean similares en
relación con las características que
influyen sobre los resultados.
A menudo, estas variables se distribuyen
de modo desigual y es necesario corregir
estas diferencias.
El fenómeno de confusión aparece cuando la
asociación observada entre un factor de estudio
y la variable de respuesta puede ser total o
parcialmente explicada por una tercera variable
(factor de confusión), o por el contrario, cuando
una asociación real queda enmascarada por
este factor. Para que una variable se considere
de confusión debe ser un factor pronóstico de la
respuesta y estar asociada a la variable de
estudio. Además, no debe ser un paso
intermedio en la asociación entre el factor de
estudio y la respuesta.
Características para ser un
factor confusor
1. Debe estar asociado al factor de estudio
y a la variable de respuesta
2. La relación con la variable de respuesta
no es necesario que sea causal . Un
factor de confusión debe ser predictivo
de la respuesta (es decir, estar asociado
con ella), pero esta asociación no tiene
que ser necesariamente causal.
3. Debe ser un factor predictivo de la
respuesta, independientemente del factor
de estudio.

Lo ideal es preveer la existencia de un


factor confusor, pero a diferencia de los
sesgos, estos pueden ser “arreglados” en
el momento del análisis.
Lo importante es obtener una estimación
de la magnitud del efecto del factor de
estudio sobre la variable de respuesta
una vez se han controlado los efectos
de confusión (estimación ajustada).
El error aleatorio es la divergencia debida
al azar, de una observación realizada en
una muestra del verdadero valor que
existe dentro de la población total de
donde proviene la muestra, llevando a una
falta de precisión en la medida de la
asociación.
Ocurre tanto por el hecho de que se trabaja
con muestras de individuos, y no con
poblaciones enteras, como por la
variabilidad inherente al proceso de
medición de variables, ya sea por el
instrumento de medida que se utiliza, por
la propia variabilidad biológica o por la
debida al observador.
Fuentes de error aleatorio
• Muestreo (calculo del tamaño y la
selección)
• Variación biológica
• Error en la medición
Calculo del tamaño de muestra
Variables a considerar:
1. Nivel de significancia estadística requerida para
el resultado esperado
2. Proporción aceptable de perder el efecto real
3. Magnitud del efecto bajo investigación
4. Frecuencia de la enfermedad en la población
5. Tamaños relativos de los grupos a comparar
Error aleatorio y error
estadístico
Existe otro concepto dentro de las
definiciones de error que es el error
estadístico, donde en común con el error
aleatorio se encuentra el nivel de
significancia estadística cuando se realiza
un test de comprobación de hipótesis. Un
error aleatorio puede llevar a un error en
la inferencia estadística.
Contraste de hipótesis

La aplicación mas frecuente de la inferencia


estadística en investigación médica son
las llamadas pruebas de contraste de
hipótesis o de significancia estadística.
Valoran la variabilidad debida al azar de
forma diferente a la estimación de
parámetros.
Hipótesis
Hipotesis nula: que no existen diferencias
entre los dos grupos observados en
ambos grupos.
La prueba de significación estadística
intentará rechazar esta hipótesis. Si se
consigue, se aceptará la hipotesis
alternativa de que existen diferencias
entre ambos grupos.
ERROR 

• Error tipo I () o de primera especie:


Probabilidad de declarar una diferencia
estadística cuando en realidad no la hay.
Este riesgo viene de la naturaleza
Se puede ver como el nivel de significancia
estadístico necesario para detectar una
diferencia entre tratamientos que es
clinicamente significativo (0,05).
• La probabilidad de cometer este tipo
de error es la probabilidad de que, si
se concluye que existen diferencias
significativas, estas sean en realidad
debidas al azar. Si se hace un simil
entre una prueba estadística y una
diagnóstica, equivale a la
probabilidad de obtener un resultado
falso positivo.
• El 0.05% significa el porcentaje que nos
damos de equivocarnos (5%).
• Queremos tener un porcentaje de 95%
de exito de encontrar la verdad.

Chance de
equivocarnos
Exito de verdad 5%

95%
ERROR 
• Error tipo II () o de segunda especie:
Probabilidad de no detectar la diferencia que se
busca, cuando esta presente. Es el chance de
perder el efecto real.
E s el riesgo de aceptar la hipotesis nula Ho,
cuando Hi es verdadera. Para reducir el error 
podemos modificar el número de sujetos
incluidos en el estudio.
Se utiliza un valor de  inferior o igual a 0,20 .
El tener un error  equivale con el simil de la
prueba diagnóstica a tener un falso negativo.
¿Qué es poder?

Se define como 1- .
Es la probabilidad de detectar la
diferencia, o sea detectar la verdad.
Lo que se desea es tener un poder alto
en todo trabajo, por lo que se busca
tener errores alfa y beta pequeños.
TIPOS DE ERROR Y TEST DE HIPOTESIS

Realidad Hi = verdadera Ho = verdadera

Decisión:

Rechazo Ho 1- 

No rechazo Ho b 1-a

También podría gustarte