Está en la página 1de 7

Universidad Politécnica Salesiana

Ingeniería Mecatrónica

Instrumentación

Integrantes: Ismael Criollo – Paúl Valdez

Actividad #5: Calibración de Instrumentos

I. Objetivos

 Investigar determinar el proceso básico de calibración y de instrumentos.

II. Introducción

La calibración de un instrumento involucra la comparación de la lectura del instrumento que se está


calibrando con la lectura generada por un instrumento de referencia (o patrón), bajo determinadas
condiciones. Otro aspecto de la calibración incluye la documentación de los desvíos registrados
entre el instrumento bajo investigación y el patrón de referencia; el cálculo de la incertidumbre
resultante y la creación del certificado de calibración conteniendo los datos obtenidos y la
trazabilidad. [1]

En una inspección con instrumentos de medición, la calibración debe ser un proceso previo,
realizado por profesionales competentes. Trabajar con equipos mal calibrados traerá problemas en
la producción; incluso, puede poner en riesgo la integridad de los usuarios y otros trabajadores. [2]
Un error recurrente es considerar que el término calibración se refiere a llevar un instrumento de
medición a un estado óptimo de utilización, siendo que esta práctica, en realidad, se denomina
ajuste. En cambio, la calibración es la comparación de los valores obtenidos por un instrumento de
medición contra los valores obtenidos por un equipo patrón, el que también ha sido comparado con
otro patrón de mayor jerarquía metrológica. [2]

III. Desarrollo
 Instrumento de Presión

Sensor LD301 HART (Pressure Transmitter)

El transmisor de presión diferencial LD 301 es adecuado para su aplicación en la ingeniería de


procesos. Además, el LD 301 es adecuado para la medición de flujo bidireccional. Los medios
permisibles son líquidos, vapores o gases, que son compatibles con los materiales húmedos del
medio. [3]

Fig. 1 LD301 HART [3]


Características técnicas
URL ≤ intervalo ≤ URL: ± 0.075% 0.025
Precisión de salida URL ≤ intervalo ≤ 0.1 URL: ± 0.0375 [1 + 0.1 URL / span]%
0.0085 URL ≤ intervalo ≤ 0.025 ± [0.0015 + 0.00465 URL / span]%
para los tipos de sensor 0, 1: ± 0.2% de URL / 12 años, a un cambio
Estabilidad
de temperatura de 20 ° C y hasta 100 kPa de presión estática
0.2 URL ≤ intervalo ≤ URL: ± (0.08% URL + 0.05% span)
Efecto de la temperatura por 20K
0.025 URL ≤span ≤ 0.2 URL: ± (0.06% URL + 0.015% span)
Efecto de presión estática a punto ± 0.05 % URL por 1.7 MPa
cero
corregible a ± 0.2% de la lectura por 3.5 MPa
Efecto de presión estática a la luz
desplazamiento cero hasta 250 Pa, que se puede calibrar en la
Efecto de posición de instalación
posición de instalación; sin efecto span
Efecto de la fuente de ≤ ± 0,005% del intervalo por voltio
alimentación
Tabla1. Características técnicas del sensor LD301

Los fabricantes de transmisores de presión mejoraron la precisión y la tecnología que se diseñó para
estos dispositivos de medición de presión inteligentes. Muchas herramientas de calibración
convencionales se han vuelto inapropiadas o simplemente incapaces de comprobar y calibrar los
transmisores de presión de alta precisión. Se requieren mejores soluciones para las pruebas. Para
verificar y documentar el rendimiento del equipo, así como para ajustar el transmisor inteligente de
presión HART, se requiere de una amplia variedad de herramientas. Este tipo de tareas se puede
ejecutar de una manera más simple con un calibrador habilitado con HART, como el Fluke 754, lo
que reduce la cantidad de herramientas que debe transportar. [3]

Para lograr la precisión que se necesita: para probar estos transmisores nuevos de alta precisión,
adapte el rango estándar de medición de presión cerca del dispositivo probado. Por ejemplo, use
un módulo de presión de 100 psi para calibrar y probar un transmisor cuyo rango es de 100 psi. Los
estándares de la industria sugieren que el estándar de medición debe ser de 4 a 10 veces más preciso
que el dispositivo que se prueba, por lo que se requiere de la mejor precisión. Fluke 754 usa los
módulos de presión serie 750P y tiene la funcionalidad HART incorporada que permite ajustes
inteligentes en los transmisores. También puede documentar el rendimiento del transmisor antes y
después del ajuste y del cálculo de errores, superados o no. [3]

Fig. 2 Calibración del transmisor inteligente de presión HART [3]


Herramientas de prueba:

 Calibrador de procesos documentador Fluke 754 con soporte HART

Fig. 3 Fluke 754 con soporte HART [3]

El calibrador de procesos documentador Fluke 754 con soporte HART cumple la función de varias
herramientas: suministra, simula y mide la presión, la temperatura y las señales eléctricas en un
resistente dispositivo manual. Se ha combinado la función de comunicación HART a fin de ofrecer
un calibrador de comunicación integrado. Esta herramienta resistente y fiable es ideal para calibrar,
mantener y solucionar los problemas del protocolo HART y de otros instrumentos de procesos. [3]

 Bomba de prueba neumática 700PTP-1

La 700PTP-1 es una bomba de presión portátil diseñada para generar un vacío de hasta -11,6 psi/-
0,8 bares o una presión de hasta 600 psi/40 bares. [3]

Fig. 4 Bomba de prueba neumática 700PTP-1 [3]

Para realizar la prueba:

1. Aísle el transmisor del proceso y su cableado. Si mide la señal de mA en el diodo de prueba,


deje intacto los cables. Observe que este método no ofrece la medición más precisa de mA.
2. Conecte las tomas de medición de mA del 754 al transmisor.
3. Conecte el cable del módulo de presión al 754 y la manguera de prueba del transmisor de
la bomba manual al transmisor.
4. Presione el botón HART del calibrador para ver la configuración del transmisor.
5. Una vez más, presione HART para que el calibrador ofrezca la combinación correcta de
medición/fuente para la prueba. Si durante la documentación de la calibración presiona “As-
Found”, ingrese la tolerancia de prueba y siga las instrucciones. Si la señal de mA medida en
los puntos de prueba se encuentra dentro del valor de tolerancia, la prueba se considera
completa. De lo contrario, se requiere un ajuste.
6. Seleccione “ajustar” para regular la presión del transmisor a cero, la señal de salida de mA
y el sensor de entrada.
7. Después del ajuste, seleccione “As-Left”, y documente la condición del transmisor; si la
prueba es superada, se considera completa. [3]
 Sensor de temperatura
PRT ST-300

Fig. 5 PRT ST-300 [4]

El ST-300 es un termómetro de resistencia de platino 1/10 DIN, que consiste en un elemento


resistivo de platino encerrado en una vaina de acero inoxidable, y cables de plomo para conectar
el sensor a un dispositivo de medición. [4]

Características técnicas
Incertidumbre de calibración: -50 a 70 ° C
Repetibilidad de medición: <0.01 ° C
<0.05 ° C por año (cuando se usa en entornos
No estabilidad (deriva a largo plazo):
sin condensación)
15 segundos.
Tiempo de estabilización:
<0.01 ° C (Típico, suponiendo una excitación
pulsada de 2.1 V DC);
Auto calentamiento:
0.09 ° C a 5 ° C (máximo, suponiendo una
excitación de entrada continua de 2.1 V DC)
-50 a 70 ° C, 0 a 100% de humedad relativa
Entorno operativo
Requisito de voltaje de entrada: 2.1 V DC
16 a 27 mV CC (suponiendo una excitación de
Rango de voltaje de salida: entrada de 2.1 V CC)

0.21 mA DC (máximo, suponiendo una


Drenaje de corriente: excitación de entrada continua de 2.1 V DC)

Dimensiones: longitud 65 mm, diámetro 3 mm.


Masa: 95 g
de 5m de cuatro conductores, blindado, cable
de par trenzado. Cable adicional disponible en
Cable múltiplos de 5m. Caucho de Santoprene(alta
resistencia al agua, alta estabilidad a los rayos
UV, flexibilidad en condiciones de frío).
Cables de cable flexible.
Tabla2. Características técnicas del sensor PRT ST-300
Curva Característica
La curva característica de nuestro sensor pertenece a la 1/10 Din:

Fig. 6 Curva característica de los sensores de la serie ST [4]

Proceso de calibración

Los termómetros PRT de la serie ST tienen dos tipos de calibraciones: caracterización y pruebas de
tolerancia. La calibración y modelación de dispositivos se realiza para verificar primeramente sus
Especificaciones Técnicas, verificar la instalación experimental de laboratorio y probar los mismos
en su total gama de trabajo, en condiciones análogas a las de explotación. Se sugiere una metodología
para realizar las observaciones, para el procesamiento de las tablas de datos y su resumen para la
obtención de las ecuaciones de trabajo, para incorporarlas al software (SW) del equipo. [4]

La calibración de un instrumento involucra la comparación de la lectura del instrumento que se está


calibrando con la lectura generada por un instrumento de referencia (o patrón), bajo determinadas
condiciones. Otro aspecto de la calibración incluye la documentación de los desvíos registrados entre
el instrumento bajo investigación y el patrón de referencia; el cálculo de la incertidumbre resultante
y la creación del certificado de calibración conteniendo los datos obtenidos y la trazabilidad. [4]

Como se pudo observar el sensor st-300 puede ser calibrado de 2 maneras distintas según el fabricante,
El tipo de calibración que se debe realizar viene determinado por el uso que recibirá la unidad bajo
prueba (UUT) y por la exactitud que requiera el usuario. La caracterización es el tipo de calibración
en la que se determina la resistencia de la unidad bajo prueba (UUT) a varios puntos de temperatura
y los datos se ajustan a una expresión matemática. Por su parte, las pruebas de tolerancia son una
calibración en la que se compara la resistencia de la UUT respecto a valores definidos a temperaturas
específicas. No se realiza ningún tipo de ajuste de los datos. [4]

Desarrollo

Según el fabricante el sensor st-300 puede ser calibrado mediante 2 procesos, cada uno de ellos
depende de la aplicación que tendrá el sensor
Caracterización

Paso 1: Colocación de la sonda

Todas las fuentes de temperatura tienen inestabilidades y gradientes que se traducen en errores de
calibración e incertidumbres. Para minimizar los efectos, las sondas deben colocarse tan cerca entre
sí como sea posible. Además, los elementos de detección deben estar en el mismo plano horizontal.
Si bien los elementos de detección tienen diferentes longitudes, basta con tener las partes inferiores
de las sondas al mismo nivel. La inmersión debe ser suficiente para que no ocurran pérdidas en el
vástago. [4]

Paso 2: Conexión al lector

Este paso es muy sencillo. Las conexiones deben ser firmes, y en la configuración correcta de 2, 3 ó
4 hilos. Si se está utilizando una configuración de 4 hilos, asegúrese de que las conexiones de corriente
y tensión sean correctas.

Fig. 7 Configuración para 2,3 y 4 hilos [4]

Paso 3: Medida de la sonda de referencia y determinación de la temperatura

Existen dos maneras de medir la sonda de referencia y determinar la temperatura.

El primer y mejor método se utiliza con lectores sofisticados diseñados para trabajar con
temperaturas. Se mide la resistencia y se calcula la temperatura a partir de coeficientes de calibración
que se introdujeron anteriormente en el lector. Una vez introducidos estos coeficientes de calibración,
los cálculos de temperatura se realizan internamente y el lector presenta sus datos en unidades de
temperatura. [4]

El segundo método se utiliza cuando el lector no permite el cálculo apropiado de la temperatura.


(Algunos lectores, particularmente los multímetros digitales (DMM), tienen incorporadas algunas de
las conversiones de temperatura más comunes, y no suelen permitir el uso de coeficientes únicos de
calibración, por lo que no pueden utilizarse para una calibración exacta de la temperatura.) En este
caso, la resistencia se mide y la temperatura se determina a partir de una tabla de calibración o de un
programa de ordenador o calculadora. Dado que debe calcularse la temperatura después de medir la
resistencia, el proceso es más lento y no proporciona datos inmediatos de temperatura en tiempo real.
[4]

Paso 4: Medida de las sondas a calibrar (UUT)

Las UUT son termómetros de resistencia similares a la sonda de referencia, y por lo tanto se miden
mediante el mismo procedimiento. Si se someten varias UUT a calibración, asegúrese de que cuando
se conecten o conmuten para activarlas, se permita tiempo suficiente para el autocalentamiento antes
de registrar los datos. Además, asegúrese de fijar el lector en el rango correcto para proporcionar la
corriente correcta de la fuente e impedir cambios de rango entre las medidas a diferentes temperaturas.
Las medidas se suelen realizar a partir de la temperatura más alta de calibración y luego se continúa
en sentido descendente. También se aumenta la precisión de la calibración usando un valor medio
(promedio) calculado a partir de varias medidas a la misma temperatura. [4]

Paso 5: Ajuste de la curva de calibración del termómetro

El ajuste de datos es sencillo en cuanto a su concepto, pero puede ser complicado en la práctica.
Esencialmente se trata de un proceso de resolver un conjunto de ecuaciones simultáneas que contienen
los datos de calibración para llegar a un conjunto de coeficientes únicos del PRT y de la calibración.
[4]

Método de pruebas de tolerancia

Las calibraciones PRT que incluyen pruebas de tolerancia se reservan para aplicaciones de poca
exactitud. Con este tipo de calibración, se compara la resistencia de la UUT con valores definidos a
temperaturas específicas. Los valores se definen mediante uno de los modelos comunes, como la
curva ASTM 1137 o IEC 60751. Las PRT calibradas de esta manera se suelen utilizar en aplicaciones
de estilo industrial donde el lector no puede aceptar coeficientes únicos, sino que está preprogramado
con una curva PRT común. La sonda debe comprobarse para verificar que sigue la curva de interés.
Existen clases de exactitud definidas para que las sondas se ajusten a ellas. Las dos clases de exactitud
más comunes son la clase A y la clase B. [4]

IV. Conclusiones

El tipo de calibración que se debe realizar viene determinado por el uso que recibirá la unidad bajo
prueba (UUT) y por la exactitud que requiera el usuario. La caracterización es el tipo de calibración
en la que se determina la resistencia de la unidad bajo prueba (UUT) a varios puntos de temperatura
y los datos se ajustan a una expresión matemática. Por su parte, las pruebas de tolerancia son una
calibración en la que se compara la resistencia de la UUT respecto a valores definidos a temperaturas
específicas. No se realiza ningún tipo de ajuste de los datos

V. Referencias

[1] S.A., T. (2019). Calibración instrumentos de medición | Testo Argentina S.A.[online] Testo.com.
Available at: https://www.testo.com/es-AR/servicios/calibracion.
[2] Emb.cl. (2019). Revista HSEC - Calibración de instrumentos de medición. [online] Available at:
http://www.emb.cl/hsec/articulo.mvc?xid=797&edi=35&xit=calibracion-de-instrumentos-de-
medicion.
[3] Fluke.com. (2019). Calibradores de presión. [online] Available at: https://www.fluke.com/es-
ec/productos/herramientas-de-calibracion/calibradores-de-presion.
[4] Apogee Instruments, Inc. (2019). ST-300-SS Platinum Resistance Thermometer (PRT). [online]
Available at: https://www.apogeeinstruments.com/st-300-ss-platinum-resistance-thermometer-
prt/#product-tab-description.

También podría gustarte