Documentos de Académico
Documentos de Profesional
Documentos de Cultura
5 Intervalos de Calibracion PDF
5 Intervalos de Calibracion PDF
1 INTRODUCCIÓN
La frecuencia de calibración de los instrumentos de medida, debe someterse a una revisión sistemática, sin
la cual el proceso de medición no es confiable.
Los costos que se generan por la calibración, son también un factor importante, y no deberían ser ignorados,
pues pueden inclusive, ser un factor limitante en la determinación del intervalo de calibración de un
instrumento. Existen casos en donde el intervalo de calibración de un instrumento, es definido, por medio de
exigencias de organismos reguladores o estipulaciones normativas.
La exactitud de un instrumento de medición puede afectarse por el tiempo, por su uso e incluso por su
almacenamiento; de esta forma, un aspecto importante relacionado con la confiabilidad en la operación de
un sistema de medición, es la determinación del intervalo entre calibraciones sucesivas del medidor o de los
instrumentos asociados al sistema de medición. Aunque el avance en las tecnologías de medición es
evidente, aún existen instituciones, que definen los períodos de calibración en torno a un tiempo fijo; aunque
esta metodología no es del todo errada, si genera un riesgo potencial, con respecto a la utilización
innecesaria de los recursos económicos de las empresas, causando en los responsables de la organización,
actitudes negativas, en torno a la metrología. A continuación se presenta un resumen de las prácticas
comunes.
2.1.1 Definición Común de Intervalos de Calibración, sin el Uso de una Técnica o Guía.
Como se mencionó anteriormente, aún muchas empresas determinan los períodos de calibración de sus
instrumentos de medida, mediante un sistema de común aplicación, el cual ha sido considerado, quizás, por
1/8
la falta de conocimiento con respecto a la existencia de técnicas o guías que permitan fijar dichos períodos.
De forma común, se ha visualizado que típicamente se hace de dos maneras:
Una definida y no siempre buena costumbre respecto a la asignación de un nuevo periodo de calibración, es
asignar un inamovible periodo de re-calibración anual. Este criterio tiene su origen en las condiciones que
deben cubrir los fabricantes de instrumentos. Por ejemplo en su momento SAMA (Scientific Apparatus
Makers Association)1 indica que las especificaciones declaradas por los fabricantes, deben mantenerse en el
instrumento al menos un año más, después de su fabricación 6; este criterio también se relaciona con el
mínimo periodo (un año) de garantía, proporcionado a la gran mayoría de elementos fabricados.
Como se hace evidente, y analizando lo descrito en la introducción, con respecto a los factores que inciden
en la determinación de los períodos de calibración, la práctica seleccionada, no permite tener información
suficiente y confiable acerca del desempeño metrológico del instrumento. Sin embargo, esta práctica podría
ser recomendada y aceptada, si se tiene plena confianza, en que el instrumento, conserva sus
características metrológicas, durante este intervalo de tiempo definido.
Se concluye entonces, que la recomendación de realizar la calibración cada año, coloca en riesgo, los
resultados de la medición, en donde se requiere la calibración del instrumento en un periodo de tiempo
menor, y malgasta los recursos económicos de la institución, cuando es posible realizar la calibración, en un
intervalo de tiempo mayor.
La obligación de un estado de derecho, es velar por la vida, honra y bienes de todos sus ciudadanos.
Teniendo en cuenta lo anterior, los gobiernos toman medidas en cuanto a la forma como debe garantizarse
el cumplimiento de este deber, y en particular, cuando existen instrumentos que de alguna manera, colocan
en riesgo cualquiera de estos derechos.
1
Esta asociación a la fecha de elaboración de este documento, está organizada como MCAA (Measurement Control & Automation
Association)
2/8
Instrumentos para planimetría;
Instrumentos para medición de volumen de objetos sólidos y líquidos;
Pesas, balanzas, máquinas de pesar, comprobadores de granos y cereales;
Instrumentos de medidas para gases;
Instrumentos para medir humedad de granos y cereales;
Instrumentos de medida para investigaciones científicas;
Contadores de energía eléctrica, agua y gases;
Jeringuillas médicas, termómetros y manómetros clínicos (esfigmomanómetros);
Instrumentos de medición para la determinación de masa, del volumen de la presión, de la temperatura,
de la densidad o del contenido, deben ser verificados, si son empleados en la fabricación o
comprobación de medicamentos o si son preparados de manera que puedan ser utilizados sin
preparación especial;
Instrumentos de medición que se utilizan para el auto control del estado de salud de las personas;
Instrumentos empleados en la práctica de la medicina, de la odontología, y para efectuar mediciones
para el reconocimiento o tratamiento médico de las personas.”
De acuerdo con el numeral 3.3 del mismo Titulo y Circular, los reglamentos técnicos de verificación son los
descritos en las normas técnicas colombianas obligatorias (NTCOO) o en su defecto, los correspondientes
en cada caso, a las recomendaciones de la Organización Internacional de Metrología Legal (OIML) o los que
emita la Superintendencia de industria y Comercio.
En el ámbito internacional, el documento, más utilizado es el OIML D 10 - ILAC G 24. El propósito de este
documento guía, es brindar a los usuarios herramientas estandarizadas que permitan determinar los
intervalos de calibración de los instrumentos de medida.
Este documento guía de 2007, fue desarrollado por la Organización Internacional de Metrología Legal
(OIML) en conjunto con el ILAC (International Laboratory Accreditation Cooperation) y corresponde a una
actualización de la guía OIML D10 versión 1984. En Colombia se conoce con el nombre de Norma Técnica
Colombiana, NTC 4057 pero se encuentra en versión del año 1996.
El documento OIML D10 en cuanto a la determinación del primer intervalo de calibración, indica que la base
utilizada para la selección del intervalo inicial de calibración, es tan sólo la denominada “intuición de
ingeniería”. Alguien con mucha experiencia en metrología y con conocimientos sobre el instrumento a ser
recalibrado, hace una estimación del tiempo, en que se espera que el mismo permanezca funcionando,
dentro de los niveles de tolerancia, luego de la calibración inicial.
Para fijar este período, se consideran, entre otros, los siguientes factores:
3/8
Las características metrológicas de los instrumentos de medida, están asociadas a condiciones
ambientales de operación; es importante comparar estas características con las que se encuentran en el
sitio de instalación del instrumento. En caso de estar fuera de estas condiciones, se debe indagar sobre
las correcciones que se deben ejecutar, o continuar la búsqueda de un instrumento más apropiado a la
condición de operación real.
Como es normal, algunos fabricantes tienden a ser muy optimistas en cuanto al desempeño del
instrumento; en caso de duda sobre lo que se ofrece, se debe buscar mayor información acerca del
mismo, con el fin de asegurar la calidad de las mediciones.
Muchos fabricantes de transmisores o transductores reportan sus datos de exactitud usando un factor
denominado BFSL (Best Fit Straight Line); esta es otra forma de cuantificar la linealidad. Se interpreta
como la máxima desviación de la salida del instrumento con respecto a la línea de referencia BFSL; esta
otra forma de reportar linealidad, ha llegado a ser muy popular en instrumentos usados para medir
presión. La línea de referencia BFSL esta localizada sobre la curva de salida del sensor, en la mitad de
su altura (Fig. 1). La forma de obtener esta línea BFSL, es a través de una regresión lineal.
Señal de salida
del sensor
Línea entre
zero y span
Línea BSFL
En este método, cada vez que un instrumento es calibrado rutinariamente, el intervalo subsiguiente es
extendido, en caso de que se verifique que está dentro de la tolerancia, o reducido en caso de que se
constate que está fuera de la tolerancia (Fig. 2).
Error
Esta respuesta en escalera rodante propicia un ajuste rápido de los intervalos de calibración y puede
implementarse fácilmente sin grandes esfuerzos. Cuando se mantienen y analizan los registros, es posible
identificar un problema incipiente indicando la necesidad de un ajuste, o un mantenimiento preventivo del
instrumento.
4/8
Una desventaja de los sistemas que tratan los instrumentos de forma individual puede ser la dificultad de
mantener la carga de trabajo de calibración constante y balanceada, dado que esto exige una planeación
detallada del programa de calibración.
Este método monitorea la tendencia central y la dispersión a partir de un gráfico de control de procesos. Se
escogen puntos de calibración representativos de la condición de operación del instrumento y los resultados
son graficados en función del tiempo. A partir de estas gráficas, se calculan tanto la dispersión como la
deriva de los resultados (Fig. 3).
Tiempo
T1 T 2 = T1 T3 = T2 T 4 > T3 T5 < T4
La deriva puede evaluarse como la deriva media dentro de una calibración, o en el caso de instrumentos
extremadamente estables, como la deriva a lo largo de varios intervalos de calibración.
A partir de estos resultados, puede calcularse el intervalo de calibración óptimo.
Al igual que con el método anterior, es difícil mantener una carga de trabajo de calibraciones balanceada. No
obstante, se permite una variación considerable de los intervalos de calibración en relación con el intervalo
previsto inicialmente; la confiabilidad puede ser calculada y el método proporciona un intervalo de calibración
eficiente (teóricamente). Además de esto, el cálculo de la dispersión indicará si los límites de especificación
del fabricante son razonables y el análisis de la deriva encontrada puede auxiliar en la identificación de las
causas de esta misma.
Su ventaja principal es que los intervalos son confiables y permiten verificar la validez de los límites de error
especificados, indicando en la mayoría de las veces las causas de las variaciones.
Esta es una variación de los métodos anteriores. El método básico permanece inalterado, pero el intervalo
de calibración se expresa en horas de uso, en lugar de un intervalo fijo en meses o años.
En este caso, debe dotarse al instrumento de un indicador de tiempo de operación, o poseer un monitoreo
externo, siendo enviado para la calibración cuando el número de horas de operación alcanza un
determinado valor (Fig. 4).
5/8
Error
Tolerancia de error del mensurando
Tiempo
La ventaja importante de este método es que el número de calibraciones realizadas y, por lo tanto, los
costos de calibración varían directamente con el tiempo que el instrumento permanece en uso.
Adicionalmente, existirá una verificación automática sobre el tiempo de uso del instrumento. Dentro de las
desventajas cabe destacar:
Este es una variación de los métodos 1 y 2, es particularmente indicado para instrumentos o sistemas de
medición complejos. En este caso, los parámetros críticos son verificados con frecuencia (una vez por día, o
aún con una frecuencia mayor) por medio de un patrón o un calibrador portátil especialmente construido
para verificar los parámetros seleccionados. En caso de que se identifique que el instrumento está midiendo
fuera de las tolerancias dadas por el calibrador, éste debe someterse a una calibración completa (Fig. 5).
Error
Tolerancia de e
Verificaciones Calibración del mensurand
Tie
T1 T2 < T1 T3 > T2
La gran ventaja de este método es que proporciona una disponibilidad máxima al usuario del instrumento. El
método es particularmente indicado para instrumentos que operan apartados geográficamente del
laboratorio de calibración, en este caso la calibración completa solamente es realizada cuando fuera
realmente necesaria.
6/8
Las dificultades se encuentran en la definición de los parámetros críticos para el proceso y, en función de
estos, en el diseño del calibrador. Sin embargo, el método ofrece una alta confiabilidad, dependiendo del
monitoreo del parámetro correcto y de las características del calibrador disponible.
Cuando existe un gran número de instrumentos o grupos de instrumentos a ser calibrados, los intervalos de
calibración pueden revisarse con el apoyo de métodos estadísticos que definirán intervalos de calibración
según determinados niveles de confianza pre-establecidos.
La gran ventaja de este método es que los instrumentos son agrupados, facilitando su control.
Tiempo
T T T T T
3 COMPARACIÓN ENTRE LOS MÉTODOS PROPUESTOS POR EL DOCUMENTO OIML D10 – ILAC G24.
A continuación, en la Tabla 1 se muestra la comparación entre los métodos propuestos por el documento
OIML D10-ILAC G24
Método 51
Método 2 Método 3 Método 4
Método 1 “otras
“Carta de “Tiempo “caja
“Escalera” aproximaciones
Control” de uso” negra”
estadísticas”
Confiabilidad medio alto medio alto medio
7/8
4 CONFIRMACIÓN METROLÓGICA SEGÚN ISO 10012:2003
Descritos los diferentes métodos conocidos para determinar los intervalos de calibración, ahora es
importante, indicar a los lectores, el porque y para que, éstos son útiles.
Son útiles porque permiten generar la confianza en las mediciones, porque racionalizan la inversión que
hacen las organizaciones en el control de las unidades de medida, y facilitan el diseño e implementación, de
la «confirmación metrológica2», la cual se encuentra establecida en la norma internacional ISO
10012:2003[2], como parte del programa de aseguramiento metrológico, el cual busca proporcionar
confianza, en que se cumplirán, los requisitos de la medición, establecidos en los contratos y/o en las
regulaciones vigentes.
5 CONCLUSIONES.
Determinar un intervalo de calibración, basado en la experiencia o en periodos fijos de tiempo, (por ejemplo
un año), es una práctica no recomendable, dado que puede colocar en riesgo la integridad de los resultados
de medición y afectar seriamente los recursos económicos de las organizaciones.
Independientemente del método utilizado, será siempre importante considerar, que existen dos criterios
básicos, y antagónicos, los cuales necesitan balancearse en cuanto a la decisión del intervalo de calibración
de cada instrumento de medición. Estos son:
El riesgo del instrumento de salir del rango de tolerancia permitido, durante su utilización, debería ser el
menor posible, y
Los costos anuales de calibración de los instrumentos, deberían minimizarse.
Queda claro también que la determinación del intervalo de calibración de un instrumento, exige un pleno
conocimiento de las características técnicas del mismo, de sus condiciones operacionales, de su
comportamiento a lo largo del tiempo y, principalmente, de los requisitos exigidos para la medición.
Con base a los factores mencionados anteriormente, queda claro que es difícil o casi imposible, definir una
lista con intervalos de calibración, que pueda ser utilizada de forma universal para todos los tipos de
instrumentos, y en las más diversas aplicaciones. De esta forma, es más coherente establecer orientaciones
a ser consideradas en la definición de los intervalos de calibración, y posteriormente reevaluar
sistemáticamente dichos intervalos, ajustándolos en base a los resultados obtenidos y en la experiencia
acumulada.
6 REFERENCIAS
[1] Metrólogos Asociados, Intervalos de Confirmación Metrológica, Guía Metas, febrero del año 2002
[2] NTC-ISO 10012. Sistemas de Gestión de la Medición. Requisitos para los procesos de medición y los
equipos de Medición (2003)
[3] OIML D 10 – ILAC G24. International document. Guidelines for the determination of recalibration intervals
of measuring equipment used in testing laboratories, 2007.
2
La confirmación metrológica esta compuesta por la calibración y verificación del equipo de medición.
8/8