Está en la página 1de 9

20 ASPECTOS QUE SE DEBEN TENER EN CUENTA

Las 20 consideraciones que se abordan en este artículo son las siguientes:

1. Clases de exactitud
2. Medio o fluido transmisor de la presión
3. Contaminación
4. Diferencia de altura
5. Prueba de fugas en los tubos de conexión
6. Efecto adiabático
7. Par
8. Posición de calibración/montaje
9. Generación de presión
10. Presurización/ejercitación del manómetro
11. Lectura del valor de presión (resolución)
12. Número de puntos de calibración
13. Histéresis (dirección de los puntos de calibración)
14. “Golpeteo” del manómetro
15. Número de ciclos de calibración (repetibilidad)
16. Ajuste/corrección
17. Documentación – certificado de calibración
18. Condiciones ambientales
19. Trazabilidad metrológica
20. Incertidumbre de la calibración (TUR/TAR)

¿Qué es la presión?

Antes de abordar cada uno de los aspectos a tener en cuenta cuando se calibran manómetros,
echemos un vistazo rápido a una serie de conceptos más básicos.

La presión es la fuerza perpendicular a la superficie dividida entre el área afectada. Por tanto,
la presión es igual a fuerza por unidad de área o p = F / A.

Existen muchas unidades de presión distintas que se utilizan en todo el mundo y en ocasiones
esto puede resultar muy confuso. La unidad de ingeniería correspondiente a la presión, según
el sistema SI, es el Pascal (Pa), que equivale a una fuerza de un Newton por metro cuadrado, 1
Pa = 1 N/m². Dado que el Pascal es una unidad muy pequeña, suele utilizarse con coeficientes,
como hecto, kilo y mega.

Tipos de presión

Existen diferentes tipos de presión: presión manométrica, absoluta, vacío, diferencial y


barométrica. La diferencia principal de estos tipos de presión es el punto de referencia
respecto al cual se compara la presión medida. Existen manómetros para todos estos tipos de
presión. Asimismo, existen manómetros compuestos, incluyendo una escala combinada tanto
para presión manométrica positiva como para presión manométrica negativa (vacío).

Manómetros

Cuando se habla de manómetros, es normal referirse a indicadores analógicos de presión


provistos de una aguja indicadora y una escala de presión. Estos dispositivos suelen fabricarse
conforme a las normas EN 837 ó ASME B40.100. A menudo este tipo de manómetros
analógicos se construyen con un tubo Bourdon, diafragma o cápsula. Tienen una estructura
mecánica que mueve la aguja indicadora a medida que aumenta la presión, lo que hace que la
aguja se desplace por la escala.

Los manómetros se dividen en diferentes clases de exactitud que determinan la exactitud del
manómetro, además de otras características. Normalmente, los rangos de presión disponibles
se dividen en pasos con coeficientes de 1, 1.6, 2.5, 4 y 6 que continúan hasta la década
siguiente (10, 16, 25, 40, 60), y así sucesivamente. Los diferentes diámetros de las escalas de
los manómetros suelen ser de 40, 50, 63, 80, 100, 115, 160 y 250 mm (1 ½, 2, 2 ½, 4, 4 ½, y 6
pulgadas).

Los manómetros de mayor exactitud suelen tener un diámetro mayor. Los conectores de
presión suelen ser machos de rosca paralela (G) según la norma ISO 228-1, o bien de rosca
cónica (NPT) según la norma ANSI/ASME B1.20.1.

Son también manómetros, pero digitales, aquellos que incluyen una indicación numérica de la
presión en lugar de un indicador analógico. Este artículo se centra en los manómetros
analógicos, aunque la mayoría de los principios son válidos para ambos.

Los manómetros se utilizan con frecuencia en todas las industrias y son instrumentos muy
habituales que requieren calibración. Como con cualquier dispositivo de medición de procesos,
deberían calibrarse periódicamente a fin de garantizar que sus mediciones sean correctas. El
hecho de que los manómetros sean instrumentos mecánicos añade el riesgo de desviación
debido al estrés mecánico.

Principio básico de la calibración

Si simplificamos al mínimo el principio de calibración de un manómetro, podemos afirmar que


cuando calibramos un manómetro, facilitamos una entrada de presión conocida con gran
exactitud y leemos la indicación en la escala del manómetro, y luego lo documentamos y
comparamos. La diferencia entre los valores es el error y este debería ser menor que la
exactitud requerida aplicable al manómetro.

20 aspectos que se deben tener en cuenta

1 - Clases de exactitud

Los manómetros están disponibles en distintas clases de exactitud. Las clases de exactitud se
especifican en las normas ASME B40.100 (clases de exactitud del 0,1 al 5% del rango de escala)
y EN 837 (clases de exactitud del 0,1 al 4% del rango de escala). La especificación de la clase de
exactitud suele expresarse como «% del rango de escala», lo que significa que si la clase de
exactitud es del 1 % y el rango de escala va de 0 a 100 psi, la exactitud es de ±1 psi. Se debe
conocer la clase de exactitud del manómetro que se va a calibrar, ya que evidentemente ello
determinará el nivel aceptable de exactitud, pero también tendrá otros efectos sobre el
procedimiento de calibración.

2 - Medio o fluido transmisor de la presión

Al calibrar manómetros, el medio transmisor de la presión más frecuente es un gas o líquido. El


gas más habitual es el aire normal, pero en algunas aplicaciones también pueden utilizarse
otros gases como el nitrógeno. Los líquidos más frecuentes son el agua o el aceite. El medio
transmisor de la presión durante la calibración depende del medio utilizado en el proceso al
cual está conectado el manómetro. El medio también depende del rango de presión. La
calibración de los manómetros de baja presión resulta más práctica realizarla con aire/gas,
pero a medida que aumenta el rango de presión, es más práctico y también más seguro utilizar
un líquido como medio transmisor.

3 - Contaminación

El manómetro, mientras permanece instalado en un proceso, utiliza un tipo determinado de


medio o fluido de presión, lo que debería tenerse en cuenta a la hora de seleccionar el medio
transmisor de la presión en la calibración. Durante la calibración, no se debería utilizar ningún
medio transmisor de la presión que pueda causar problemas cuando el manómetro se instale
de nuevo en el proceso. De la misma forma, puede ocurrir a la inversa, es decir, que el medio
transmisor del proceso puede resultar perjudicial para el equipo de calibración.

Puede existir suciedad dentro del manómetro que puede penetrar en el equipo de calibración
y causar daños. En la calibración de aquellos manómetros que operan con gas, es posible
emplear una trampa para la suciedad/humedad, pero en el caso de manómetros que operan
con líquido, debería limpiarse el manómetro antes de llevar a cabo la calibración.

Una de las situaciones más extremas se da cuando un manómetro es utilizado para medir
presión de oxígeno. Si durante la calibración entra aceite o grasa en el manómetro, éste se
volverá especialmente peligroso cuando se monte en el proceso y entre en contacto con
oxigeno puro a alta presión pudiendo causar una explosión.

4 - Diferencia de altura

Si el equipo de calibración y el manómetro objeto de la calibración se encuentran a diferentes


alturas, la presión hidrostática del medio transmisor de la presión en las tuberías puede dar
lugar a error. Esto no suele suceder cuando se utiliza gas como medio transmisor de la presión,
ya que el gas es ligero en comparación con el líquido. Pero cuando se utiliza líquido como
medio transmisor, el líquido presente en las tuberías tendrá un peso debido a la presión
hidrostática y puede dar lugar a error. La magnitud del error depende de la densidad del
líquido y la diferencia de altura, ya que la gravedad empuja el líquido dentro de la tubería. Si
no es posible lograr que el manómetro y el equipo de calibración estén a la misma altura, se
debería calcular el efecto de la diferencia de altura y tenerlo en cuenta durante la calibración.

He aquí un ejemplo del efecto de la presión hidrostática:

La presión hidrostática se calcula del modo siguiente:


Ph = r × g × h

Donde:
Ph = presión hidrostática
r = densidad del líquido (kg/m³)
g = gravedad local (m/s²)
h = diferencia de altura (m)

A modo de ejemplo, si el agua es el medio (densidad: 997,56 kg/m³), la gravedad local es de


9,8 m/s² y existe una diferencia de 1 metro entre el DUT y el equipo de referencia, esto dará
lugar a un error de 9,8 kPa (98 mbar ó 1,42 psi).

Es importante recordar que, en función de la presión a medir, el error causado por la


diferencia de altura puede ser significativo.
5 - Prueba de fugas en los tubos de conexión

Si durante la calibración existe alguna fuga en alguno de los tubos, pueden producirse errores
imprevisibles. Por tanto, antes de la calibración se debe realizar una prueba de fugas. La
prueba de fugas más sencilla consiste en presurizar el sistema y dejar que la presión se
estabilice durante un tiempo, y controlar que la presión no disminuya en exceso. Algunos
sistemas de calibración (controladores de presión) pueden mantener la presión incluso en caso
de fuga, si se dispone de un controlador que ajuste de manera dinámica la presión. En este
caso, es difícil detectar cualquier fuga, por lo que el controlador debe tener cerradas
totalmente sus válvulas para poder realizar una prueba de fugas en un sistema cerrado. El
efecto adiabático también debe tenerse en cuenta en sistemas cerrados, en especial cuando se
utiliza un gas como medio transmisor de la presión, tal como se explica en el siguiente
apartado.

6 - Efecto adiabático

En un sistema cerrado con un gas como medio transmisor de la presión, la temperatura del gas
afecta al volumen del gas, lo que a su vez tiene un efecto en la presión. Cuando la presión
aumenta rápidamente, la temperatura del gas también aumenta, y esta temperatura más
elevada hace que el gas se expanda, adquiera un volumen mayor y también una presión
mayor. Cuando la temperatura empieza a enfriarse, el volumen del gas es cada vez menor y
esto causará una pérdida de presión. Esta pérdida de presión puede parecer una fuga en el
sistema, pero en realidad se debe al efecto adiabático causado por el cambio en la
temperatura del gas. Cuanto más rápido cambia la presión, mayor es el efecto. El cambio de
presión causado por este efecto se verá reflejado gradualmente a medida que se estabilice la
temperatura. Por tanto, si se modifica la presión rápidamente, hay que dejar que se estabilice
la lectura de presión durante un tiempo antes de determinar que hay una fuga en el sistema.

7 - Par

En especial en el caso de manómetros sensibles al par, no hay que ejercer una fuerza excesiva
cuando se conecten los adaptadores de presión al manómetro, ya que este podría resultar
dañado. Se recomienda seguir las instrucciones del fabricante en relación con el par de apriete
permitido, así como emplear las herramientas y los adaptadores correctos y los sellos
apropiados.

8 - Posición de calibración/montaje

Dado que los manómetros analógicos son instrumentos mecánicos, su posición afectará a la
lectura. Por tanto, se recomienda calibrarlos en la misma posición en la que se utilizan en el
proceso. También se deberían tener en cuenta las especificaciones del fabricante en cuanto a
la posición de funcionamiento/montaje. Una especificación típica acerca de la
posición/montaje es que un cambio de 5 grados en la posición no debería modificar la
indicación del manómetro en más de la mitad (0,5 veces) de su clase de exactitud.

9 - Generación de presión

Para calibrar un manómetro, se deben tener los medios para poder aplicarle presión. Se puede
hacer de distintas formas: se puede emplear una bomba manual generadora de presión, una
botella con un regulador de presión o incluso una balanza de pesos muertos. Este último
proporcionará una presión con gran exactitud y no se necesitará un calibrador o referencia
para medir la presión, pero una balanza de pesos muertos es cara, no está diseñada para ser
un dispositivo móvil, requiere mucha atención durante el uso y requiere de un mayor
mantenimiento y limpieza que otros dispositivos. Es más habitual y práctico utilizar una bomba
manual de generación de presión y un dispositivo con una buena exactitud de medición
(calibrador) para medir la presión. Para generar la presión al manómetro a calibrar, también se
puede utilizar un controlador de presión.

10 - Presurización/ejercitación del manómetro

Debido a su estructura mecánica, un manómetro siempre tendrá cierta fricción durante su


movimiento, y puede modificar su comportamiento con el paso del tiempo, así que es
necesario ejercitarlo antes de la calibración. Este es especialmente el caso cuando no se ha
aplicado presión al manómetro durante tiempo. Para ejercitarlo, hay que generar la presión
máxima que es capaz de indicar el manómetro y mantenerla durante un minuto, luego hay que
despresurizarlo totalmente y mantenerlo despresurizado durante un minuto. Debería repetirse
este proceso 2 - 3 veces antes de iniciar el ciclo real de calibración.

11 - Lectura del valor de presión (resolución)

La escala de los manómetros presenta una legibilidad limitada. Tiene marcas o divisiones de
escala grandes y más pequeñas, pero resulta difícil leer con cierta exactitud el valor de presión
cuando la aguja indicadora se encuentra entre las divisiones de la escala. Es mucho más fácil
cuando la aguja se sitúa
exactamente en una división de la escala. Por consiguiente, se recomienda ajustar la presión
de entrada de forma que la aguja quede exactamente en una división, y luego registrar la
correspondiente presión de entrada aplicada. Si simplemente se suministra una determinada
presión de entrada exacta al valor teórico a realizar y luego se intenta leer la lectura en la
escala, dará lugar a errores debido a una inexactitud ya que se tiene una lectura limitada.
Asimismo, es importante mirar la indicación perpendicularmente a la división del manómetro.
Muchos manómetros con cierta exactitud incluyen un espejo reflectante a lo largo de la escala,
detrás de la aguja indicadora. Este espejo ayuda en la lectura, debiendo leer el valor de modo
que la reflexión de la aguja en el espejo se sitúe exactamente sobre sí misma. Entonces se
puede tener la certeza que se está mirando perpendicularmente, es decir, en línea recta al
manómetro.
El valor que muestra la aguja indicadora del manómetro situado a la izquierda de la imagen
resulta difícil de conocer con exactitud porque la aguja indicadora se encuentra entre
divisiones de la escala, mientras que el valor mostrado por la aguja indicadora del manómetro
de la derecha es fácil de leer porque la presión aplicada está ajustada de modo que la aguja se
sitúa exactamente sobre la división de la escala:

Para obtener una lectura con mayor exactitud es importante mirar al indicador
perpendicularmente/en línea recta.

Si el manómetro es digital, la resolución (precisión numérica de la lectura) es completamente


distinta. Podrá leer el indicador digital con la misma precisión numérica en todos los puntos de
su rango.

12 - Número de puntos de calibración

Las diferentes clases de exactitud de los manómetros determinarán los distintos puntos de
calibración a realizar. En el caso de los manómetros de mayor exactitud (por encima de 0,05%),
debería utilizarse un «procedimiento de calibración exhaustivo» y la calibración debería
efectuarse en 11 puntos de calibración en todo el rango (punto cero más saltos del 10%) con 3
ciclos de presión creciente y decreciente. Respecto a los manómetros de clase de exactitud
media (de 0,05 a 0,5%), se debería utilizar un «procedimiento de calibración estándar» con 11
puntos, pero menos ciclos. Los manómetros con menor exactitud (de clase igual o superior a
0,5%) deben calibrarse
conforme al «procedimiento de calibración básico» con 6 puntos de calibración (punto cero
más saltos del 20%) con presión creciente y decreciente. En la práctica, en ocasiones los
manómetros se calibran con menos puntos de calibración. Más adelante se abordará la
cuestión de la histéresis, pero para averiguarla, la calibración debería efectuarse con puntos de
presión crecientes y decrecientes. Evidentemente, el número de puntos y ciclos de calibración
depende también de la aplicación, la criticidad y el requisito de exactitud.
13 - Histéresis (dirección de los puntos de calibración)

Una vez más, debido a su estructura mecánica, un manómetro puede presentar cierta
histéresis. Esto significa que la indicación no es exactamente la misma cuando un punto de
presión se aborda con una presión creciente en comparación con una presión decreciente.
Para averiguar el valor de histéresis, el manómetro debe calibrarse con puntos de calibración
crecientes y decrecientes, es decir, aumentar primero la presión y luego disminuirla. Durante
esta acción, hay que asegurarse de que la presión se mueve únicamente en la dirección
deseada. Por ejemplo, cuando se calibre con presión creciente, hay que asegurarse de no
disminuir la presión en ningún punto durante el ajuste fino de la presión, ya que en este caso
se perdería la información sobre la histéresis, o mejor dicho no se correspondería con la
realidad. Si se excede el valor del punto objetivo con presión creciente, será necesario
retroceder y luego volver a aumentar la presión hasta alcanzar el valor del punto objetivo.

14 - “Golpeteo” del manómetro

En ocasiones un manómetro mecánico puede necesitar un golpe suave para asegurarse de que
no presenta ninguna fricción ni pérdida de flexibilidad, sobre todo si no se ha utilizado con
normalidad. Durante la calibración, una vez la presión de entrada esté estabilizada, se puede
golpear suavemente el manómetro para ver si la indicación varía. Evidentemente, estos golpes
deben ser suaves para no dañar el manómetro.

15 - Número de ciclos de calibración (repetibilidad)

Durante la calibración, los ciclos de calibración se llevan a cabo varias veces para determinar la
repetibilidad del manómetro que está siendo calibrado. Si dicho manómetro presenta una
repetibilidad deficiente, ofrecerá resultados distintos durante los diferentes ciclos de
calibración. Si se calibra realizando un único ciclo de calibración, se perderá la información
sobre
repetibilidad y parte de la verdad. Como se ha mencionado anteriormente, los manómetros
con mejor exactitud deberían calibrarse llevándose a cabo 3 ciclos de calibración. En la
práctica, la repetibilidad suele comprobarse como un tipo de prueba para determinados tipos
de instrumentos (marca/ modelo) y, una vez se conoce la repetibilidad típica, se lleva a cabo la
calibración real con tan solo un ciclo de calibración, teniendo en cuenta la repetibilidad típica.

16 - Ajuste/corrección

Si la calibración «As Found» (calibración previa a la reparación o ajuste) evidencia que el


manómetro no se ajusta a los requisitos de exactitud, debe hacerse algo. En la mayoría de los
casos, el manómetro debe ajustarse de modo que se sitúe dentro de los niveles de tolerancia
permitidos. Tras el ajuste, el manómetro debe calibrarse de nuevo («As Left» o calibración tras
la reparación o ajuste) a fin de verificar el estado en el que se ha dejado.

Si no se puede ajustar el manómetro en cuestión, puede calcularse un coeficiente de


corrección y este coeficiente deberá tenerse en cuenta en el uso normal. Por supuesto, esto
dificultará el uso.

Si el manómetro presenta un error importante, entonces es mejor repararlo o reemplazarlo y


no intentar ajustarlo, ya que lo más probable es que no permanezca estable en el futuro.

17 - Documentación – certificado de calibración


Un aspecto crucial de la calibración es, evidentemente, documentar los resultados de la
calibración en un certificado de calibración. El certificado debería documentar la presión
aplicada y la indicación del manómetro, así como un cálculo de error (diferencia entre la
presión aplicada y la indicación). Ciertamente, el certificado también debe contener otras
informaciones, conforme a las normas y reglamentaciones aplicables, incluida la incertidumbre
de la calibración.

Si se elabora un certificado de forma manual, significa que se escribe la indicación del


manómetro y la presión aplicada en un papel y luego se calcula el error de forma manual.
También se pueden emplear equipos que automatizan el proceso de calibración y elaboran la
documentación, realizan los cálculos automáticamente, y transfieren los resultados a un
software
de calibración instalado en un ordenador para guardarlos y/o imprimirlos.

Se puede obtener más información sobre qué es un calibrador-documentador en la siguiente


publicación del blog: ¿Qué es un calibrador-documentador y qué ventajas ofrece su
utilización?

18 - Condiciones ambientales

La mayoría de manómetros tienen un efecto de temperatura específico que debería tenerse


en cuenta. Es muy habitual calibrar el manómetro en una estancia a una temperatura normal,
pero el manómetro puede utilizarse a una temperatura distinta en el proceso. Esta diferencia
de temperatura puede causar diferencias en la exactitud del manómetro entre la calibración y
su uso en el proceso. En el certificado de calibración deberían registrarse las condiciones
ambientales (temperatura y humedad) observadas durante la calibración.

19 - Trazabilidad metrológica

Como en cualquier calibración, debe asegurarse que el patrón de referencia que se está
utilizando para medir la presión aplicada al manómetro tiene un certificado de calibración
válido y que su calibración es trazable conforme a las normas nacionales pertinentes
(trazabilidad metrológica).
20 - Incertidumbre de la calibración (TUR/TAR)

En cualquier calibración, debería conocer la incertidumbre total de las mediciones de la


calibración, de lo contrario el resultado no tendrá mucho valor. La sensibilización respecto a la
incertidumbre de la calibración parece ser cada vez mayor y, además, cada vez se tiene más en
cuenta en las normativas y reglamentaciones relevantes. En algunas áreas, se utiliza la TUR
(relación de incertidumbre de la prueba) o TAR (relación de exactitud de la prueba) en lugar
del cálculo de la incertidumbre. El propósito es garantizar que usted dispone de un calibrador
(o patrón de referencia) que es varias veces más exacto que el instrumento objeto de la
calibración, y si usted lo sabe, no deberá calcular la incertidumbre. Una de las relaciones más
utilizadas es 1:4, que significa que las especificaciones del calibrador son cuatro veces mejores
que las especificaciones del manómetro objeto de la calibración.

Cabe señalar que el uso de este método de la relación TUR/TAR no garantiza el conocimiento
de todos los componentes de incertidumbre de su proceso de calibración, y se desconoce cuán
buena es en realidad la calibración. Por tanto, el cálculo de la incertidumbre total de la
calibración es el método más recomendado.

Se puede obtener más información sobre ello, así como ver realmente la necesidad de conocer
la incertidumbre de las medidas mediante un enfoque práctico en la siguiente publicación del
blog: Incertidumbre de la calibración para no matemáticos.

También podría gustarte