Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CALIBRACIÓN
¿Qué es calibración?
La palabra «calibración» se puede
utilizar (correcta e incorrectamente) en
contextos distintos. En este texto
hablamos de la calibración metrológica
en el mundo de la tecnología de las
mediciones.
Formalmente, la calibración es la
comparación documentada entre el
dispositivo de medición que se va a
calibrar y un dispositivo de referencia
trazable.
El estándar de referencia también se
puede denominar «calibrador».
Lógicamente, la referencia tiene mejor
exactitud que el dispositivo que se va a calibrar. El dispositivo de referencia se
debe calibrar de modo que sea trazable. Más adelante hablaremos de esto último.
Con algunas cantidades, la referencia no es siempre un dispositivo, sino que
también puede ser por ejemplo una masa, una pieza mecánica, una referencia
física, o un líquido o un gas de referencia.
La definición formal anterior proviene de la BIPM (Bureau International des Poids
et Measures, es decir, la oficina internacional de pesos y medidas).
Ajuste
Al realizar una calibración y comparar dos dispositivos, se puede detectar que hay
cierta diferencia entre los dos. De este modo, es bastante lógico querer ajustar el
dispositivo bajo ensayo para que pueda medir correctamente. Este proceso se
denomina a menudo ajuste.
Formalmente, la calibración no incluye el ajuste, sino que se trata de un proceso
aparte. En el lenguaje cotidiano, la palabra «calibración» a veces incluye también
un posible ajuste. Pero, tal y como hemos mencionado, las fuentes más formales
consideran que el ajuste es un proceso aparte.
Certificado de calibración
La definición de calibración incluye la
palabra «documentada». Esto significa
que la comparación de la calibración se
debe registrar. Este documento suele
denominarse «certificado de
calibración».
Un certificado de calibración incluye el
resultado de la comparación y el resto
de información relevante de la
calibración, como el equipo utilizado,
las condiciones medioambientales, los
firmantes, la fecha de calibración, el
número de certificado, la incertidumbre
de la calibración, etc.
Trazabilidad
Se ha mencionado que el estándar de
referencia que se emplea en la
calibración debe ser trazable. Esta
trazabilidad significa que el estándar de
referencia también se debe haber calibrado con un estándar de nivel aún más alto.
La trazabilidad debe ser una cadena de calibraciones continua, de tal modo que la
calibración de mayor nivel se haya realizado en un centro de calibración nacional o
equivalente.
De este modo, tal vez te interese, por ejemplo, calibrar tu instrumento de medición
de procesos con un calibrador de procesos portátil. El calibrador de procesos
portátil que utilices debe haberse calibrado con un calibrador de referencia de
mejor exactitud. El calibrador de referencia se debe calibrar con un estándar de
nivel incluso superior o se debe enviar a un centro nacional o acreditado para su
calibración.
Los centros de calibración nacionales garantizarán que la trazabilidad de ese país
esté en el nivel adecuado utilizando las comparaciones de los laboratorios de
calibración internacionales o comparaciones internacionales.
Si la cadena de trazabilidad se interrumpe en algún momento, las mediciones
realizadas después no se pueden considerar fiables.
Incertidumbre de la calibración y de la medición
Cuando un instrumento se calibra con un dispositivo de nivel superior, el proceso
siempre incluye cierta incertidumbre. La incertidumbre es la cantidad de «duda»
del proceso de calibración, así que indica «lo bueno» que fue el proceso de
calibración. La incertidumbre puede estar compuesta por varias fuentes, como el
dispositivo bajo ensayo, el estándar de referencia, el método de calibración o las
condiciones medioambientales.
En el peor de los casos, si la incertidumbre del proceso de calibración es mayor
que el nivel de exactitud o tolerancia del dispositivo que se calibra, entonces la
calibración no tiene ningún tipo de sentido.
El objetivo es que la incertidumbre total de la calibración sea suficientemente
pequeña en comparación con el límite de tolerancia del dispositivo que se calibra.
La incertidumbre total de la calibración siempre se debe documentar en el
certificado de calibración.
Límite de tolerancia, fuera de tolerancia, aceptado/no aceptado
Al calibrar un instrumento, lo más frecuente es que haya un límite de
tolerancia (límite de aceptación) establecido por adelantado para la calibración.
Este es el error máximo permitido para la calibración. Si el error (diferencia entre el
dispositivo bajo ensayo y la referencia) de algún punto calibrado es mayor que el
límite de tolerancia, la calibración se considerará «no aceptada».
En caso de calibración no aceptada, deberá adoptar medidas de corrección para
poder aceptar la calibración. Lo más habitual es ajustar el dispositivo bajo ensayo
hasta que sea suficientemente exacto.
EJEMPLOS
Ejemplo de calibración
de balanzas
Por ejemplo:
para calibrar una
balanza utilizaremos
masas patrón de valor
conocido:
Depositando la masa sobre el plato de la balanza podremos ver el valor medido o
indicado por esta. El error de indicación de la balanza lo calculamos a partir de la
ecuación:
ei = valor medido – valor patrón
Esta operación la realizamos en distintos puntos del rango de medida de la
balanza, de forma que al final tendremos una tabla de resultados cuyo aspecto es
el siguiente:
Es importante destacar que el error de indicación tiene signo, puede ser positivo o
negativo. En el caso del ejemplo anterior, la balanza pesa menos de lo que
debería, por tanto, el error es negativo.
Otras formas de expresión del error de indicación, y que podemos encontrar en los
certificados de calibración, son: sesgo o desviación. Todas ellas son equivalentes.
También podemos expresar los resultados de la calibración a través de la
corrección, la cual es el valor que se debe sumar a la indicación bruta del equipo
para ser corregida. Algebraicamente, su valor se obtiene como:
C = valor patrón – valor medido
¡¡¡Alerta!!! - No confundir error de indicación con corrección del equipo. Ambos
tienen el mismo valor numérico, pero signo contrario.
Algunos ejemplos son la calibración de capacitores, inductores y resistores patrón
en puentes RLC, de pesas con el uso de doble platillo, y de manómetros de
mercurio contra columna de líquido mediante el equilibrio de fuerzas.
La sustitución simple (calibración de masas, AB), doble (calibración de masa
ABBA) y sucesivas. Las últimas son para calibrar básculas de gran alcance, por
ejemplo, de cinco toneladas).
¿Cómo evaluar un error?
Al hacer mediciones, las
medidas que se obtienen nunca
son exactamente iguales, aun
cuando se efectué por la misma
persona, sobre misma pieza,
con el mismo instrumento, el
mismo método y el mismo
ambiente, en sentido estricto, es
imposible hacer una medición
totalmente exacta por lo tanto
siempre se presentan errores al
hacer las mediciones. Los
errores pueden ser
despreciables o significativos
dependiendo de las
circunstancias en que se dé la medición.
Error absoluto
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida
Error absoluto = valor leído, valor convencionalmente verdadero correspondiente.
Error relativo.
Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica
por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto
puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser
por exceso o por defecto. no tiene unidades.
Cómo estimarlos:
1. Comparar con un estándar más exacto.
2. Determinar si es error constante o es proporcional.
3. Métodos de eliminación o reducción
4. Calibración cuidadosa de los instrumentos.
5. Revisión del equipo para asegurar una operación adecuada.
6. Aplicar factores de corrección después de encontrar un error instrumental.
7. Usar más de un método para medir un parámetro.
Errores Ambientales: Se deben a las condiciones externas que afectan la
operación del dispositivo.
Puede ser ocasionado:
Cambios en la temperatura.
Variaciones de humedad y presión.
Campos eléctricos y magnéticos parásitos.
Cómo estimarlos:
Vigilancia cuidadosa de cambios en las variables.
Métodos de eliminación o reducción
Sellar herméticamente el equipo y los componentes que se estén probando.
Mantener temperatura y humedad constantes mediante el
acondicionamiento de aire.
Resguardar los componentes y el equipo contra campos magnéticos
parásitos (blindaje).
Empleo de equipo que no se afecte mucho por cambios ambientales.
Error Aleatorio: se debe a efectos fortuitos no controlados por el operador del
instrumento de medición.
Las causas principales de errores aleatorios son:
Rozamientos internos
Acción externa combinada
Errores de apreciación de la indicación
Error de linealidad: Es cuando el resultado de la salida no presenta una línea
recta con respecto al valor de entrada. El error de no linealidad puede
ser corregido durante la calibración si el instrumento tiene un ajuste
de no linealidad.
Expresando en porcentaje: