Está en la página 1de 2

Diversas pruebas estadísticas confirman la sospecha de valores discrepantes

("outliers") basados en el ordenamiento de los datos y en la verificación de los


valores extremos. Los tests de Dixon y de Grubbs son utilizados para este propósito
El filtro de Dixon es una herramienta estadística que permite eliminar valores
anómalos o aberrantes de una serie de datos. En el laboratorio clínico el filtro de
Dixon es útil para poder eliminar los datos aberrantes de una serie de resultados del
control de calidad interno, que nos permitirán posteriormente asignar la media y
desviación estándar que emplearemos para nuestro gráfico de Levy Jennings.
Para efectuar el filtro de Dixon es necesario contar con al menos 20 determinaciones
del control interno a analizar, obtenido en días diferentes, aunque siempre es
recomendable contar con un número de datos mayor debido a que al aplicar el filtro
de Dixon, tendremos que eliminar probablemente alguno de los valores extremos.
Los pasos para aplicar el filtro de Dixon son los siguientes:

1. Registrar los datos en excel o algún otro programa para analizar los datos.
2. Ordenar los datos de menor a mayor.
3. Aplicar las fórmulas del filtro de Dixon en ambos extremos de los datos (de forma
pareada).
4. Eliminar el valor extremo que según las formulas del filtro resulte aberrante.
5. Seguir aplicando las fórmulas de forma pareada hasta que no existan valores
aberrantes.

Posteriormente será necesario calcular la media y la desviación estándar de los


datos para aplicarlo en nuestro gráfico de Levy-Jennings.
La importancia de asignar nuestros propios valores de la media y la desviación
estándar para el gráfico de control de calidad, radica en poder detectar
adecuadamente los errores aleatorios y sistemáticos de nuestros sistemas
analíticos, ya que los valores descritos en la carta del fabricante suelen ser muy
grandes y permisivos para muchos de los errores generados en el laboratorio.

Prueba de Grubbs: La prueba se utiliza para probar los valores máximo o mínimo
de una serie de datos. Se calcula un estadístico g según sea el valor mínimo o el
máximo. Si un valor resulta atípico y se desea probar si otro también lo es, se debe
eliminar el atípico y recalcular el promedio y la desviación estándar antes de
recalcular el estadístico g.
El criterio de Chauvenet es un método para calcular si un dato experimental (a
partir de ahora llamado dato dudoso), de un conjunto de datos experimentales, es
probable que sea un valor atípico (outlier).

Para aplicar el Criterio de Chauvenet, primero se ha de calcular la media y


la desviación estándar (típica) de la información observada. Basándose en cuánto
difiere el valor dudoso de la media, se utiliza la función de distribución normal (o la
tabla de la misma) para determinar la probabilidad de que una dato dado sea del
valor del dato dudoso. Se multiplica esta probabilidad por el número de datos de la
muestra escogida. Si el resultado es inferior a 0,5; el dato dudoso se puede
descartar.

La supresión o eliminación de valor atípico es una práctica muy polémica y muy mal
vista entre muchos científicos y formadores en ciencias; y aunque el Criterio de
Chauvenet proporcione un método objetivo y cuantitativo para la eliminación de
datos, no hace que la práctica sea más científica o más metodológica, sobre todo
en pequeños conjuntos de datos, o donde no se puede suponer la distribución
normal. La eliminación de valores atípicos es más aceptable en áreas de práctica
en las que el modelo de proceso que se ha calculado y la distribución de mediciones
atípicas, se saben con certeza.

También podría gustarte