Está en la página 1de 11

3/8/22, 20:30 Tomo I Medición y Seguridad

Iniciar sesión

 Acerca de RHO Colecciones Prueba gratis Cómo comprar Promociones

Uso de cookies en este sitio web


Enter keywords, authors, DOI etc  Buscar
Estamos utilizando cookies para proporcionar estadísticas que nos ayuden a brindarle la mejor experiencia en nuestro sitio. Puedes saber más en nuestra Política
Historia
de Privacidad . Al continuar usando el sitio, usted acepta nuestro uso de cookies.

Métrica Calibración
Aceptar
Puntos de vista Escrito por:
HM Hashemian , BG Lipták

Tomo I Medición y Seguridad


1.8k+
Fecha de publicación impresa:  octubre 2016
Fecha de publicación online: noviembre 2016
En este capítulo ISBN impreso : 9781498727648
ISBN de libro electrónico: 9781315370330
Calibración ISBN de Adobe:
Servicios de calibración 10.1201/9781315370330-4
Introducción

Tipos de errores   Descargar Capítulo

Estándar de referencia
Sensores de presión o Resumen
D/P
Conductividad, DO, pH: http://www.thomasnet.com/products/conductivity-analyzers-1649300-
Datos encontrados y
dejados 1.html
Histéresis
Trazabilidad de      Añadir a favoritos   Citar  Recomendar a un amigo
calibración
Linealidad y
Amortiguación Calibración
Equipo de Calibración Servicios de calibración
Automatizado Conductividad, DO, pH: http://www.thomasnet.com/products/conductivity-analyzers-1649300-
Calibración de Sensores 1.html
de Temperatura
Intervalos de calibración Válvula de control: http://www.thomasnet.com/products/calibration-services-10021202-1.html
Calibración de Caudalímetro: http://www.thomasnet.com/products/calibrating-services-flowmeter-10021244-
Instrumentos Inteligentes 1.html
Evaluación de la precisión Servicios de gas: http://www.thomasnet.com/products/calibrating-services-gas-detector-96117320-
Calibración y 1.html
configuración de rango
Transductores I/P: http://www.thomasnet.com/products/transducers-currenttopression-ip-
abreviaturas voltagetopressione-p-96004957-1.html
Organización Presión, nivel, temperatura, carga, par, etc.: http://www.thomasnet.com/products/instrument-
calibrating-services-40379000-1.html
Bibliografía
Sensor de temperatura: http://www.thomasnet.com/products/temperature-calibrating-services-
84151471-1.html
Introducción
La calibración se refiere al acto de reducir el error en el equipo de medición en todo el rango del
sensor que se está calibrando. La precisión es el grado de cercanía de las mediciones a su valor real
(consulte las Figuras 1.1a y 1.1b ). El error total es la suma del error aleatorio (precisión) y el error
sistemático (sesgo). La calibración tiene como objetivo reducir este error total. Para ello, se utiliza un
“estándar de referencia”, que en sí mismo tiene algún error, pero es mucho más preciso que el
detector que se está calibrando. Por lo general, se espera una mayor precisión en un orden de
magnitud de la referencia que del detector, que se está calibrando.
El valor de un instrumento de proceso, como un sensor de flujo, temperatura o presión,
normalmente depende de su precisión y tiempo de respuesta. La precisión es un término cualitativo
que describe qué tan correctamente el instrumento puede medir el parámetro del proceso
(consulte el Capítulo 1.1 para una discusión detallada), y el tiempo de respuesta es el tiempo que le
toma a un instrumento, en respuesta a un cambio en su entrada, para mueva su salida al valor de

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 1/11
3/8/22, 20:30 Tomo I Medición y Seguridad
salida correspondiente. La precisión y el tiempo de respuesta son en gran medida independientes y,
por lo tanto, se identifican a través de procedimientos separados.
La precisión de un instrumento de proceso se establece a través de su calibración, y el tiempo de
respuesta es el tiempo que tarda un instrumento, en respuesta a un cambio en su entrada, para
mover su salida al valor de salida correspondiente. La calibración se realiza comparando la medida
del sensor con el “valor de referencia” detectado por un sensor superior y eliminando la diferencia.
Los diferentes tipos de errores se han discutido en relación con las Figuras 1.1ay 1.1by se resumen
aquí en la Figura 1.3a .

Fig. 1.3a Puede haber al menos cuatro tipos de errores en el % de salida (medida) de un sensor
cuando detecta el valor de una variable de proceso (% de entrada).

Tipos de errores
El objetivo de la calibración es minimizar los errores de cero y de intervalo . En la Figura 1.3b , la
calibración de un transmisor lineal se aproxima mediante una línea recta, que representa la
ecuación y = mx + b, donde y es la salida, x es la entrada, m es la pendiente de la línea y b es la
interceptar. La calibración de un instrumento puede cambiar debido a un cambio en el cero, un
cambio en el intervalo o un cambio tanto en el cero como en el intervalo.
Un cambio en cero también se conoce como error de sesgo , error sistemático o cambio de cero. Un
cambio de cero da como resultado un cambio en la lectura del instrumento (ya sea positivo o
negativo) en todos los puntos a lo largo de su rango ( Figura 1.3c ). Un cambio de cero puede
deberse a varias causas, como un cambio en la temperatura ambiente que afecte la calibración. Por
ejemplo, si un instrumento se calibra a temperatura ambiente y se usa a una temperatura
diferente, su salida puede incluir un error de sesgo (o cambio de cero) debido a la diferencia de
temperatura.

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 2/11
3/8/22, 20:30 Tomo I Medición y Seguridad

Fig. 1.3b Ilustración de cero y span. b = elevación cero; m = ganancia de un transmisor lineal; span =
el cambio en la entrada (x) a medida que viaja de 0% a 100%; rango = el cambio en la salida (y)
correspondiente a 0%–100% span; salida @ entrada = 0 se llama valor de rango inferior; salida @
entrada = 100% se llama valor de rango superior.

El cambio en el intervalo también se conoce como error de ganancia o cambio de intervalo. Un


cambio de rango significa un aumento o una disminución en la pendiente de la línea de salida del
instrumento para el mismo cambio de rango de entrada (consulte la Figura 1.3d ). Por lo general, los
errores de calibración que involucran solo el cambio de rango son menos comunes que los errores
de calibración debidos a los cambios de cero y de rango. En la Figura 1.3d , se muestran ambos
casos: cambio de tramo sin cambio de cero y cambio de tramo con cambio de cero. En los
transmisores de presión, alrededor del 40 % de los cambios de calibración se deben al cambio de
cero, alrededor del 30 % al cambio de rango y solo alrededor del 20 % solo al cambio de rango. * En
cuanto al 10% restante, los cambios de calibración se deben a otros efectos, como la no linealidad.

Fig. 1.3c Ilustración de un cambio de cero en la calibración de un instrumento.

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 3/11
3/8/22, 20:30 Tomo I Medición y Seguridad

Fig. 1.3d Ilustración de cambios de tramo.

Estándar de referencia
El requisito clave para obtener una calibración de alta precisión es tener un estándar de referencia
de alta calidad contra el cual se pueda calibrar el sensor. Para la calibración de la mayoría de las
variables, es fácil proporcionar dichos estándares de referencia (presión, presión diferencial, nivel,
la mayoría de los analizadores, etc.) mientras que para otras es difícil. Por ejemplo, la calibración (o
recalibración) de caudalímetros grandes para servicio de líquido o gas puede ser costosa y difícil.
Esto se debe a que la cantidad de instalaciones de calibración tan grandes es limitada y el envío del
detector de flujo requiere la disponibilidad e instalación de una unidad de respaldo.
Debido a este costo e inconveniente, a menudo sucede que los medidores de flujo grandes
permanecen en servicio durante muchos años sin recalibrarse.
Algunos usuarios toman medidas intermedias para paliar esta situación. Uno de estos enfoques es
instalar medidores de flujo de "abrazadera" en la tubería. Esto no se puede llamar calibración,
porque un medidor de flujo ultrasónico con abrazadera no califica para un estándar de referencia,
ya que su precisión es mucho peor que la del medidor de flujo en línea, ya sea magnético, de
turbina, Coriolis o casi cualquier otra parte. . Entonces, aunque esto no se puede llamar calibración,
es una forma de determinar si se necesita mantenimiento o reemplazo del medidor de flujo.
Otro paso intermedio hacia la recalibración es probar parte del sistema. Por ejemplo, en el caso de
un medidor de flujo magnético, algunos usuarios solo prueban la electrónica del circuito, pero no el
elemento de flujo. Lo hacen cambiando de la salida de milivoltios del medidor de flujo magnético a
una señal de milivoltios generada con precisión desde un simulador y verificando si el receptor
muestra correctamente la señal simulada o si hay un error, como un cambio de cero, en cuyo caso
el el receptor se recalibra. Esto también es un paso en la dirección correcta, pero de ninguna
manera reemplaza la recalibración, ya que no tiene en cuenta el sensor en sí, que suele ser la causa
de los errores de medición (recubrimiento del electrodo, falla del revestimiento, conexión a tierra,
etc.).
Sensores de presión o D/P
La calibración de los sensores de presión (incluidos los sensores de presión absoluta y diferencial)
se puede realizar mediante el uso de una fuente de presión constante, como un probador de peso
muerto (consulte la Figura 1.3e). Con un probador de peso muerto, se produce una presión
constante para el sensor, mientras que la salida del sensor se controla y ajusta para que la salida
eléctrica sea proporcional a la presión aplicada. Por ejemplo, un sensor de presión se puede calibrar
para producir una salida analógica electrónica en el rango de 4 a 20 mA (o una digital) para entradas
de presión que cubran todo el rango del sensor (0 % a 100 %). Para la mayoría de los sensores de
presión electrónicos analógicos, sin aplicar presión, la salida del transmisor se ajusta para producir
una señal de 4 mA. A continuación, el probador de peso muerto aplica una presión que
corresponde al 100 % del intervalo y la salida del sensor se ajusta a 20 mA. Estos ajustes a la salida
se realizan ajustando dos potenciómetros provistos en el sensor de presión. Estos dispositivos de

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 4/11
3/8/22, 20:30 Tomo I Medición y Seguridad
ajuste se conocen como el ceroy potenciómetros de rango. El siguiente paso en la calibración de un
transmisor de presión es aplicar presiones conocidas entre el 0 % y el 100 % del intervalo para
verificar la linealidad del transmisor y realizar los ajustes necesarios para obtener salidas de mA
precisas para todas las entradas.

Fig. 1.3e Esquema de un probador de peso muerto típico.

Los ajustes de cero y rango de un sensor de presión interactúan, lo que significa que cambiar uno
hará que cambie el otro, y viceversa. Por lo tanto, al calibrar un sensor de presión, el cero y el
intervalo a menudo se ajustan para producir la salida más precisa que se puede lograr para cada
presión de entrada. Debido a las no linealidades en algunos sensores de presión, las relaciones de
entrada/salida no pueden coincidir exactamente, sin importar qué tan bien estén sintonizados
juntos los ajustes de intervalo y cero. Por esa razón, en la mayoría de los sensores de presión,
también se proporciona un ajuste de linealidad (además de los potenciómetros de cero y rango)
para ayudar a lograr el mejor acuerdo entre la presión de entrada y la corriente de salida.
En lugar de un probador de peso muerto, también se puede usar una fuente de presión estable y
un manómetro de precisión como entrada. Los manómetros de precisión están disponibles en una
variedad de rangos de varios fabricantes (consulte el Capítulo 7.2 ). Los indicadores de presión
digitales de alta precisión también se pueden utilizar para la calibración. Como se verá más
adelante, también se encuentran disponibles equipos de calibración de sensores de presión
automatizados que utilizan tecnología digital para ofrecer precisión y comodidad.
Datos encontrados y dejados
La calibración de un instrumento puede cambiar con el tiempo. Por lo tanto, los instrumentos se
recalibran periódicamente. El procedimiento de calibración periódica generalmente implica dos
pasos: (1) determinar si se necesita calibración y (2) calibrar si es necesario. En el primer paso, las
señales de entrada conocidas (p. ej., 0%, 25%, 50%, 75% y 100% del intervalo) se aplican al
instrumento y su salida se registra en una hoja de datos. Los datos así generados se denominan
datos de calibración tal como se encuentran (consulte la Tabla 1.3a). Si los datos encontrados
muestran que la calibración del instrumento aún es aceptable, no se necesita calibración. De lo
contrario, el instrumento se calibra aplicando sistemáticamente una serie de señales de entrada y
haciendo ajustes de cero y de intervalo según sea necesario para que el sensor se encuentre dentro
de los límites o criterios de aceptación. Los datos de entrada/salida después de esta calibración se
denominan datos tal como quedaron , y la diferencia entre los datos tal como se encontraron y los
que se dejaron a menudo se denomina desviación de calibración o cambio de calibración.

Tabla 1.3a Ejemplo de datos de calibración de un instrumento

Señal de entrada (% del Salida deseada Datos encontrados Datos restantes


intervalo) (mA) (mA) (mA)

0 4.00 3.93 3.99

25 8.00 8.03 8.01

50 12.00 11.92 12.04

75 16.00 16.09 15.96

100 20.00 20.12 19.97

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 5/11
3/8/22, 20:30 Tomo I Medición y Seguridad
El criterio de aceptación para la calibración lo establece normalmente el usuario, en función de los
requisitos de precisión del instrumento y/o de las especificaciones del fabricante. Por lo general, los
fabricantes expresan la imprecisión (el error o la incertidumbre) de un instrumento en términos de
un porcentaje de rango en todo el rango del instrumento. Por ejemplo, los errores del sensor de
presión pueden ser tan bajos como aproximadamente el 0,05 % del intervalo en sensores de
precisión extremadamente alta o el 1 % del intervalo en sensores para aplicaciones generales.
El rendimiento de alta precisión solo se puede obtener si el sensor está correctamente calibrado, ya
que la precisión general depende tanto de la calidad del proceso de calibración como de la
capacidad del sensor para proporcionar una precisión particular. Una calibración confiable requiere
la disponibilidad de personal capacitado, procedimientos escritos y equipos de calibración precisos.
Obviamente, la precisión del manómetro del equipo de calibración debe ser mucho mejor que la del
equipo que se está calibrando, y el personal de calibración debe comprender el proceso de
calibración y tener cuidado al realizar la tarea de calibración, leer los datos de calibración y
documentar los resultados. Si un instrumento no está correctamente calibrado, no producirá
mediciones precisas y confiables, incluso si la calidad del instrumento en sí es alta.
Histéresis
La histéresis es un fenómeno que hace que la salida de un instrumento varíe, dependiendo de la
dirección de las señales de entrada aplicadas, es decir, si aumenta o disminuye ( Figura 1.3f ). Para
tener en cuenta la histéresis, los instrumentos a veces se calibran utilizando señales de entrada
tanto crecientes como decrecientes, y se promedian los resultados. Por ejemplo, un sensor de
presión puede calibrarse usando señales de entrada en esta secuencia: 0 %, 25 %, 50 %, 75 %, 100
%, 75 %, 50 %, 25 % y 0 % del intervalo.

Fig. 1.3f Ilustración de histéresis.

Normalmente, la especificación del fabricante de la precisión de un instrumento se obtiene


considerando la histéresis, la linealidad, la repetibilidad y otros factores que pueden afectar la
relación de entrada/salida del instrumento (consulte el Capítulo 2.3 para conocer las definiciones de
estos términos).
Trazabilidad de calibración
Para que sean válidas y aceptables, todas las calibraciones deben ser trazables a un estándar
nacional oa un fenómeno físico conocido. En los Estados Unidos, se espera que las calibraciones de
los equipos sean rastreables hasta el Instituto Nacional de Estándares y Tecnología (NIST), en
Gaithersburg, MD. Cada país tiene su propio laboratorio de calibración estándar para una variedad
de parámetros como presión, temperatura, voltaje, resistencia, peso, tiempo, etc. Los laboratorios
nacionales de patrones normalmente se encargan de la calibración de los patrones primarios. Un
estándar primario es un instrumento que se calibra en el laboratorio estándar nacional como el
NIST y se utiliza para calibrar otros equipos. Por ejemplo, el estándar principal para la calibración de
detectores de temperatura de resistencia (RTD) es un RTD de precisión al que se hace referencia
comotermorresistencia estándar de platino o SPRT . Cada laboratorio de calibración de RTD tiene
uno o más SPRT que se envían periódicamente al NIST para su calibración.
Para ser calibrado por un laboratorio estándar nacional como NIST, un estándar primario debe
estar en buenas condiciones de funcionamiento y cumplir con ciertos requisitos. De lo contrario, es
posible que NIST no lo calibre. Los laboratorios de patrones nacionales se encargan de ayudar a
mantener los patrones primarios y, por lo tanto, no calibran equipos de propósito común ni reparan
equipos que no estén en buen estado de funcionamiento.
Para proteger el equipo estándar primario, se puede usar un estándar secundario (también llamado
estándar de transferencia ). En este caso, el estándar primario se usa para calibrar el estándar
secundario, que luego se usa para la calibración de otros instrumentos. La ventaja de este enfoque
es que preserva la integridad y la precisión del patrón primario al minimizar su manejo y uso. La
desventaja es que, cada vez que se calibra un instrumento, la precisión que se puede reclamar está

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 6/11
3/8/22, 20:30 Tomo I Medición y Seguridad
por debajo de la precisión del estándar que se utiliza en su calibración. Por lo tanto, al pasar de un
estándar primario a un estándar secundario, se produce una pérdida de precisión.
Una regla común es que un instrumento debe calibrarse utilizando un estándar que sea al menos
cuatro veces más preciso que el instrumento que se está calibrando. Este requisito a veces es difícil
de cumplir, ya que los instrumentos se han vuelto tan precisos en los últimos años que es posible
que no se encuentre un estándar que pueda ser cuatro veces más preciso.
Linealidad y Amortiguación
Como se mencionó anteriormente, además del cero y el intervalo, algunos instrumentos también
tienen un ajuste de linealidad que se utiliza para producir la relación de entrada/salida más lineal en
todo el intervalo. Un ajuste de amortiguación también está disponible en algunos instrumentos.
Este ajuste no afecta la calibración de un instrumento, pero sí su tiempo de respuesta. El propósito
del ajuste de amortiguación es reducir el ruido en la señal de salida del instrumento cuando el
proceso es muy ruidoso. Esto se logra aumentando la amortiguación, lo que ralentiza la respuesta
dinámica del instrumento para que no sea sensible a entradas ruidosas o de alta frecuencia.
Equipo de Calibración Automatizado
Los recientes avances en electrónica y tecnologías informáticas han resultado en el desarrollo de
una variedad de equipos de prueba automatizados y calibraciones asistidas por computadora.
Salida Por ejemplo, la Figura 1.3g ilustra los componentes de un sistema automatizado de
calibración de sensores de presión. Consiste en una fuente de presión programable que está
controlada por una computadora y produce entradas de presión conocidas que se aplican al sensor
que se está calibrando. La salida del sensor es registrada por la misma computadora y produce el
registro de los datos encontrados .

Fig. 1.3g Principio de un sistema automatizado de calibración de sensores de presión.

El sensor se calibra utilizando señales de entrada crecientes y decrecientes, como se muestra en la


Figura 1.3h , y también se produce una curva de histéresis. A continuación, el software compara los
datos encontrados con los criterios de aceptación y determina automáticamente si es necesario
volver a calibrar el sensor. Si es así, el sistema proporciona las señales de entrada necesarias al
sensor bajo calibración y mantiene constante el valor de entrada hasta que se realizan
manualmente los ajustes de cero y de intervalo. Después de la calibración, el software produce un
informe y almacena los datos de calibración para tendencias, detección de fallas incipientes y otros
fines.
Calibración de Sensores de Temperatura
Los sensores de temperatura, como los RTD y los termopares, se pueden calibrar con un baño de
temperatura constante y un termómetro estándar. El tipo de baño de calibración utilizado depende
del rango de temperatura, los requisitos de precisión y la aplicación del sensor. Por ejemplo, para la
calibración de estándares de temperatura primarios y secundarios, se utilizan celdas de punto de
fusión o congelación. Estas celdas están hechas de materiales tales como estaño, zinc, plata y oro,
cuyas temperaturas de fusión o congelación están establecidas por la naturaleza y se conocen con
precisión. Estas celdas se denominan estándares intrínsecos . Estas celdas de punto fijo son
costosas, difíciles de mantener y normalmente se usan solo en laboratorios estándar.

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 7/11
3/8/22, 20:30 Tomo I Medición y Seguridad

Fig. 1.3h Resultados de la calibración de la calibración automática.

Para la calibración de sensores de temperatura promedio, rara vez se utilizan celdas de punto fijo.
La opción más probable para una celda de referencia es un baño de hielo, un baño de aceite o un
baño controlado por horno eléctrico. Como se muestra en la Figura 1.3i , el sensor a calibrar se
instala en un baño de temperatura junto con un sensor de referencia estándar. El sensor de
referencia se utiliza para medir la temperatura del baño. A continuación, se crea una tabla de datos
de la fuente de presión programable de la temperatura del baño frente a la salida del sensor que se
está calibrando. Este procedimiento se repite para varias temperaturas ampliamente espaciadas
que cubren el rango de temperatura del sensor.

Fig. 1.3i Configuración de calibración del sensor de temperatura.

Cada par de mediciones se denomina punto de calibración.El número de puntos de calibración


depende del tipo de sensor y del rango de temperatura. Para RTD, tres puntos de calibración
pueden ser suficientes, mientras que los termopares normalmente requieren un número mayor.
https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 8/11
3/8/22, 20:30 Tomo I Medición y Seguridad
Esto se debe a que la relación entre la temperatura y la resistencia de los RTD es cuadrática, pero la
salida del termopar se relaciona con la temperatura mediante un polinomio de orden superior.
Luego, los datos de calibración se ajustan a una ecuación de interpolación, y las constantes de la
ecuación se identifican y utilizan para producir una tabla de calibración para el sensor. La tabla de
calibración no debe extrapolarse mucho más allá de los puntos finales de calibración. Una buena
regla general es extrapolar la tabla de calibración por encima del punto de calibración más alto o
por debajo del punto de calibración más bajo en no más del 20 %. *
El equipo automatizado se usa a menudo en la calibración de sensores de temperatura. Estos
sistemas controlan y cambian automáticamente la temperatura del baño, registran la lectura tanto
del sensor de referencia como de los sensores que se están calibrando, ajustan los datos de
calibración a las ecuaciones de interpolación e imprimen una tabla de calibración y un informe o
certificación de los resultados. Usando un sistema de este tipo, se pueden calibrar varios sensores
simultáneamente con una excelente repetibilidad y consistencia.
Intervalos de calibración
Los instrumentos se calibran tradicionalmente una vez al año, o con mayor frecuencia, según la
antigüedad del sensor y los requisitos de precisión.
Para determinar el intervalo de calibración correcto para un instrumento, se requieren dos datos:
(1) el requisito de precisión del sensor y (2) la tasa de desviación del instrumento. Por ejemplo, si la
tasa de desviación de un transmisor de presión es del 0,25 % del intervalo por año y el requisito de
precisión es del 0,50 % del intervalo, entonces las calibraciones semestrales pueden ser suficientes.
El problema es que, por lo general, no se conocen las tasas de deriva de la mayoría de los
instrumentos. La investigación ha demostrado que los instrumentos como los sensores de
temperatura y presión no se desplazan unidireccionalmente hacia arriba o hacia abajo para brindar
la oportunidad de calcular una tasa de deriva objetiva. Más bien, estos y la mayoría de los otros
instrumentos se desplazan aleatoriamente dentro de una determinada banda. Por lo general, la
banda es la más grande al comienzo del ciclo de vida del instrumento,
Calibración de Instrumentos Inteligentes
Los instrumentos inteligentes, como los sensores de presión inteligentes, a menudo se pueden
calibrar de forma remota y sin necesidad de un ajuste manual de cero o de intervalo en la ubicación
del sensor. El cero se ajusta sumando o restando una señal de polarización en la salida del sensor
según sea necesario para compensar el cambio de cero. El intervalo se ajusta cambiando la
ganancia de la salida del sensor según sea necesario para compensar los cambios en el intervalo del
sensor.
La principal ventaja de la calibración remota de instrumentos inteligentes es el ahorro de tiempo.
Por ejemplo, para calibrar un sensor de presión convencional, se debe quitar su tapa para tener
acceso a los potenciómetros de cero y rango. Esta puede ser una tarea difícil y que requiere mucho
tiempo cuando el sensor de presión se instala en un entorno industrial hostil.
Evaluación de la precisión
La precisión de un instrumento se determina a partir de su precisión de calibración, los efectos
ambientales en la calibración y la tasa de desviación del instrumento. Inmediatamente después de
la calibración, la precisión de un instrumento se deriva de la precisión del estándar de calibración y
del proceso de calibración. A continuación, se deben determinar los efectos del medio ambiente en
la calibración. Por ejemplo, la calibración de un sensor de presión a menudo se cambia por
variaciones en la temperatura ambiente. En el caso de los sensores de presión diferencial, los
cambios en la presión estática del proceso también pueden cambiar la calibración. El fabricante
generalmente puede proporcionar datos sobre los efectos de la temperatura y la presión estática
en la precisión. Para una discusión detallada del efecto de la presión de operación y de prueba y las
diferencias de temperatura, vea el Capítulo 1.1. Los errores causados ​por estos efectos deben
combinarse con los errores de calibración para llegar al error total del sensor instalado.
A continuación, se debe tener en cuenta la deriva del instrumento para determinar el error total.
Normalmente, el error de deriva se suma a la suma del error de calibración y los errores debidos a
los efectos ambientales para calcular el error total. A continuación, se establece la imprecisión del
sensor en función de este error total. Una fórmula común para determinar el error total es

1.3(1)
error total = Raíz suma al cuadrado  (RSS)  de errores aleatorios

+ Suma de errores de sesgo

Por lo general, el error total puede ser un número como el 0,35 % del intervalo, del rango o del valor
real indicado, según el tipo de sensor utilizado. Este número, aunque indica el error total, se conoce
como la inexactitud o incertidumbre del instrumento.
Calibración y configuración de rango
La calibración y el ajuste del rango son los mismos en el caso de los transmisores analógicos. En
cuanto a los dispositivos inteligentes, la calibración y la configuración del rango son diferentes. Por
ejemplo, para los transmisores inteligentes (HART), la calibración se denomina ajuste para
distinguirla del rango. Para los dispositivos de bus de campo, el rango se denomina escala para

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 9/11
3/8/22, 20:30 Tomo I Medición y Seguridad
distinguirlo de la calibración. El rango se logra seleccionando valores de entrada en los que las
salidas son de 4 y 20 mA, mientras que la calibración se realiza para corregir la lectura del sensor
cuando es inexacta.
Por ejemplo, si un sensor de presión diferencial tiene un límite de rango inferior (LRL) de −200
pulgadas de agua y un límite de rango superior (URL) de +200 pulgadas de agua, y si se quiere
utilizar para medir una presión diferencial en el rango de 0 a 100 pulgadas de agua, entonces se
deben cambiar los ajustes de LRV y URV. Este ajuste "rango" (aumentaría) el valor del rango inferior
(LRV) a igual a 0 y bajaría el valor del rango superior (URV) a 100 pulgadas de agua. Tenga en cuenta
que esto es un rango y no una calibración. La calibración es cuando a presión diferencial cero, la
lectura del transmisor es de 1 pulgada de agua y se corrige para leer 0 pulgadas de agua.
abreviaturas
CIERVO
Transductor remoto direccionable en carretera
LRL
Límite de rango inferior
LRV
Valor de rango inferior
RSS
Raíz suma al cuadrado
SPRT
Termorresistencia estándar de platino
URL
Límite de rango superior
URV
Valor de rango superior
Organización
NIST
Instituto Nacional de Normas y Tecnología

*
EPRI Topical Report, On-line monitoring of instrument channel performance, TR-104965-R1 NRC
SER, Instituto de Investigación de Energía Eléctrica, Informe Final, Palo Alto, CA, septiembre de 2000.
*
Hashemian, HM et al., Envejecimiento de detectores de temperatura de resistencia de plantas
nucleares, número de informe NUREG/CR-5560, Comisión Reguladora Nuclear de EE. UU.,
Washington, DC, junio de 1990.

Bibliografía
Bucher, JL, Manual de calibración de calidad, 2007, https://www.isa.org/store/quality-calibration-
handbook-developing-and-managing-a-calibration-program/116457 .
Cable, M., Calibración: Guía de un técnico, 2005, https://www.isa.org/store/calibration-a-technicians-
guide/116177 .
NIST, Calibraciones, 2010, http://www.nist.gov/calibrations/flow_measurements.cfm .
Persson, P., calibración de equipos de medición, diciembre de 2014,
http://www.qualitymag.com/articles/92306-calibration-of-measuring-equipment .
Reithmayer, K., calibración de parámetros electroquímicos estándar en análisis de agua: valor de
pH, oxígeno disuelto (OD) y conductividad, 2011, http://www.globalw.com/support/calibration.html .
Skoog, DA, James Holler, F. y Crouch, SR, Principios del análisis instrumental. Acific Grove, CA:
Brooks Cole, 2007, ISBN 0-495-01201-7, http://www.worldcat.org/title/principles-of-instrumental-
analysis/oclc/456101774 .
ONUDI, Papel de la medición y calibración, 2006,
https://www.unido.org/fileadmin/user_media/Publications/Pub_free/Role_of_measurement_and_calibration
.
Departamento del Interior de EE. UU., Calibración de manómetros, noviembre de 2014,
http://www.usbr.gov/pmts/geotech/rock/EMpart_2/USBR1040.pdf .
Wright, JD, La estabilidad de calibración a largo plazo de boquillas de flujo crítico y medidor de flujo
laminar, Taller y simposio NCSL de 1998, NCSL, Albuquerque, NM, 1998, http://www.nist .
gov/calibrations/upload/ncsl_4e03.pdf.
Sí, TT, servicio de calibración de flujo de líquido de hidrocarburos, 2005,
http://www.nist.gov/calibrations/upload/sp250_1039-2.pdf .
https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 10/11
3/8/22, 20:30 Tomo I Medición y Seguridad

Capítulos relacionados
Presión y Sensores de vacío Densitómetros de Caudalímetro de
diferencial P... radiación correlación
cruzada...

Buscar más...

© Informa UK Limited, una empresa del Grupo Informa


Inicio | Acerca de RHO | Colecciones | Prueba gratuita | Como comprar | Promociones | Contáctenos | Ayuda y
preguntas frecuentes
Recursos para bibliotecarios | Política de privacidad | Galletas | Términos y condiciones

https://www.routledgehandbooks.com/doi/10.1201/9781315370330-4 11/11

También podría gustarte