Está en la página 1de 59

2. Sensores y Transductores.

Un sensor es un dispositivo capaz de detectar diferentes tipos de materiales, con el


objetivo de mandar una señal y permitir que continué un proceso, o bien detectar un
cambio; dependiendo del caso que éste sea. Es un dispositivo que a partir de la energía
del medio, proporciona una señal de salida que es función de la magnitud que se
pretende medir.

Dentro de la selección de un sensor, se deben considerar diferentes factores, tales


como: la forma de la carcasa, distancia operativa, datos eléctricos y conexiones.

De igual forma, existen otros dispositivos llamados transductores, que son


elementos que cambian señales, para la mejor medición de variables en un
determinado fenómeno.

Un transductor es el dispositivo que transforma una magnitud física (mecánica,


térmica, magnética, eléctrica, óptica, etc.) en otra magnitud, normalmente eléctrica.

Un sensor es un transductor que se utiliza para medir una variable física de interés.
Algunos de los sensores y transductores utilizados con más frecuencia son los
calibradores de tensión (utilizados para medir la fuerza y la presión), los termopares
(temperaturas), los velocímetros (velocidad).
Cualquier sensor o transductor necesita estar calibrado para ser útil como dispositivos
de medida. La calibración es el procedimiento mediante el cual se establece la relación
entre la variable medida y la señal de salida convertida.

Los transductores y los sensores pueden clasificarse en dos tipos básicos, dependiendo
de la forma de la señal convertida. Los dos tipos son:

- Transductores analógicos.

- Transductores digitales

Los transductores analógicos proporcionan una señal analógica continua, por ejemplo
voltaje o corriente eléctrica. Esta señal puede ser tomada como el valor de la variable
física que se mide.

Los transductores digitales producen una señal de salida digital, en la forma de un


conjunto de bits de estado en paralelo o formando una serie de pulsaciones que
pueden ser contadas. En una u otra forma, las señales digitales representan el valor de
la variable medida. Los transductores digitales suelen ofrecer la ventaja de ser más
compatibles con las computadoras digitales que los sensores analógicos en la
automatización y en el control de procesos.

Terminologías de funcionamiento.
Los siguientes términos se emplean para definir el funcionamiento de un sensor.

Exactitud
La exactitud es la cualidad o grado de un instrumento de medida de dar una
lectura próxima al verdadero valor de la magnitud medida. En otras palabras, es
el grado de conformidad de un valor indicado a un valor estándar aceptado o
valor ideal, considerando este valor ideal como si fuera el verdadero. El grado de
confiabilidad independiente es la desviación máxima entre la curva de calibración de
un instrumento y una curva característica especifica, posicionada de modo tal
que se reduce al mínimo dicha desviación máxima.
Precisión
La precisión de la medición debe ser tan alta como fuese posible. La precisión significa
que existe o no una pequeña variación aleatoria en la medición de la variable. La
dispersión en los valores de una serie de mediciones será mínima.
Rango de funcionamiento.

El sensor debe tener un amplio rango de funcionamiento y debe ser exacto y preciso
en todo el rango.

Velocidad de respuesta.

El transductor debe ser capaz de responder a los cambios de la variable detectada en


un tiempo mínimo. Lo ideal sería una respuesta instantánea.

Calibración.

El sensor debe ser fácil de calibrar. El tiempo y los procedimientos necesarios para
llevar a cabo el proceso de calibración deben ser mínimos. Además, el sensor no debe
necesitar una recalibración frecuente. El término desviación se aplica con frecuencia
para indicar la pérdida gradual de exactitud del sensor que se produce con el tiempo y
el uso, lo cual hace necesaria su recalibración.

Fiabilidad.
El sensor debe tener una alta fiabilidad. No debe estar sujeto a fallos frecuentes
durante el funcionamiento.

Distancia operativa.

Es la distancia característica más importante de un sensor. Depende básicamente del


diámetro del sensor (bobina o condensador). Una influencia adicional tienen las
dimensiones y la composición del material, como también la temperatura ambiente.
Con los sensores magnéticos se debe tener en cuenta además la alineación y la fuerza
del campo magnético.

Histéresis.
La histéresis es la diferencia máxima que se observa en los valores indicados por el
índice o la pluma del instrumento o la señal de salida para el mismo valor
cualquiera del campo de medida, cuando la variable recorre toda la escala en los
dos sentidos, ascendente y descendente. Se expresa en porcentaje del margen de la
medida.
Los sensores se pueden clasificar desde algunos puntos de vista:
Clasificación de los sensores según la energía.
Los sensores pueden ser:

 Activos.- Emiten energía a partir de la transformación realizada. Dentro de este


tipo de sensores podemos citar a las termocuplas, cristales piezoeléctricos, etc.

 Pasivos.- Reciben energía para realizar la transformación. En este grupo están


los termistores (su resistencia varía en función de la temperatura), micrófonos
de condensador, los fotodiodos, etc.

Clasificación de los sensores según el principio de funcionamiento.


Dentro de esta categoría los sensores se pueden clasificar en:

 Sensores primarios.
 Sensores resistivos.
 Sensores de reactancia variable y electromagnética.
 Sensores generadores.
 Sensores digitales
Clasificación de los sensores según la magnitud a medir.

Esta clasificación está directamente relacionada con el fenómeno o estímulo físico que
se desea medir. Los sensores pueden ser de:
2.1 Medición de Presión

Qué es la Presión?
La presión es una magnitud física estrechamente relacionada con la fuerza. Esta unidad
de medida nos muestra en qué proporción se proyecta una carga de fuerza tomando en
cuenta una superficie que forma un vector de ángulo recto con la misma. Para expresar
una cantidad de presión en un punto determinado se deben tomar en cuenta dos
magnitudes fundamentales cómo lo son la fuerza y el área, es por ello que la presión es
una magnitud derivada.
Las denominaciones de la presión dependerán del sistema de medidas en que se
exprese, pudiendo ser Newtons por Metro Cuadrado para el sistema internacional, o
Libras por Pulgada Cuadrada en el sistema inglés.
¿Conoces los tipos de presión?
Presión atmosférica: esta es la fuerza por unidad de superficie que ejerce el aire sobre la
superficie terrestre
Presión manometrica: esta se define como la diferencia entre la presión atmosférica y la
presión absoluta
Llegado a este punto, es indispensable puntualizar que cuando se trata de equipos de
medición de presión debemos tener definido qué tipo de presión es la que se va a medir;
ya que para cada tipo existe un instrumento especial.
Hasta aquí hemos estudiado los instrumentos para medir la presión atmosférica y la
presión manométrica; no obstante, la presión absoluta también se puede medir. Ésta es
la presión que ejerce un fluido y se mide en referencia al vacío cero absoluto.
La medida de la presión absoluta se origina porque la presión atmosférica es variable de
acuerdo a la altitud del nivel del mar. Aunado, podemos reconocer otra medida de
presión, a saber la Presión de Vacío.
A la Presión de Vacío se le conoce como aquella presión que es inferior a la presión de la
atmósfera. Sus valores de referencia van desde el cero absoluto al valor de la presión
atmosférica. Y para obtener tal medida, se utiliza como instrumento un vacuómetro.

¿Qué son los instrumentos de medición de presión?

Los instrumentos de medición de presión, son equipos que se utilizan para medir la
fuerza que es capaz de ejercer un fluido sobre una superficie, tomando como referencia
la presión atmosférica. Podemos hablar de una presión positiva o una presión negativa
(presión de vacío).
Además existen diversos tipos de presión que cada una determinada por el tipo de
instrumento que se deba usar para cada trabajo de las cuales hablaremos un poco más
adelante. Aunado a esto, podemos decir que la cantidad de instrumentos de medición de
la presión también es muy variada, cada uno de ellos están adaptados a un tipo de
presión especifica.
¿Cómo medir la Presión?
Para medir la presión es necesario saber la fuerza que ejerce un cuerpo o variable
atmosférica sobre una determinada superficie, para esto se emplean diversos
instrumentos de medición de presión. Todo dependerá de el tipo de presión que se
desee medir para emplear así la herramienta más útil.
TIPO DE SENSOR DE PRESIÓN.

a) Elementos primarios de medida directa: Miden la presión comparándola con la


ejercida por un líquido de densidad y altura conocidas. Su rango de medida va de 0.1 a
3 mcda. Medidas directa, de bajo costo. Ejemplo barómetro cubeta, manómetro de
tubo en U, manómetro de tubo inclinado, manómetro de toro pendular, manómetro
de campana.

b) Tubo Bourdon: Es un anillo casi completo, cerrado por un extremo, al aumentar la


presión en el interior del tubo, éste tiende a enderezarse y el movimiento es trasmitido
a la aguja indicadora, el rango de medida es 0.5 _ 6000 bar . Lectura de la medida es
directa, y entre las aplicaciones se usa en fluidos corrosivos, fluidos viscosos, altas
temperaturas, vapor de agua.

Figura : Manometro de Bourdon


c) tubo en Espiral : Se forma enrollando el tubo Bourdon en forma de espiral alrededor
de un eje común. Permite medir presiones en un rango de 0.5 _ 2500 bar. La lectura
de la medida es directa. Se utiliza en aplicaciones con fluidos corrosivos, fluidos
viscosos, altas temperaturas, vapor de agua.
d) Tipo Diafragma: Una o varias cápsulas circulares conectadas entre si, de forma que
al aplicar presión, cada cápsula se deforma y la suma de los pequeños desplazamientos
es amplificada por un juego de palancas. El rango de medida es de 50 mcda a 2 bar.
Lectura directa, aplicaciones en fluidos corrosivos, fluidos viscosos, altas temperaturas,
vapor de agua.

e) Capacitivo: Tienen una variación de capacitancia que se produce en un


condensador al desplazarse una de sus placas. Rango 0.05 – 5 a 0.5 – 600 bar . Se
utiliza en mediciones estáticas y dinámicas
f) Piezo – Eléctrico: son materiales cristalinos que al deformarse (por acción de una
presión) generan una señal eléctrica. Permiten medir presiones 0,1 a 600 bar.
Mediciones con poca sensibilidad

h) Sensor Resistivo: este sensor consiste en un elemento elástico que varía la


resistencia (ohmios) de un potenciómetro en función de la presión. El rango de
medida va de 0 - 0.1 a 300 bar. Mediciones con alta sensibilidad

i) Magnético de inductancia variable: Tienen un núcleo móvil que se desplaza dentro


de una bobina aumentando la inductancia en forma casi proporcional a la porción de
núcleo contenida dentro de la bobina. Rango de medida 0 - 0.1 a 300 bar . Mediciones
con alta sensibilidad.
j) Galgas Extensiométricos: Consiste de un hilo resistivo sometido a una tensión, se
basa en la variación de longitud y diámetro de este hilo, es decir, en la deformación de
la galga, producida por la presión y por tanto se mide el cambio de su resistencia.
Rango de medida de 0.5 a 600 bar. Permiten una medición directa, post
amplificación de la señal eléctrica.

Piezo Resistivo: Al igual que la galga extensiomátrica, varia su resistencia eléctrica por
efecto de la presión. Permite medir presiones entre 1 a 150 bar . Las aplicaciones más
importantes son en objetos pequeños, manos ortopédicas y robots.
L) Presostato: Estos aparatos permiten regular o controlar una presión o depresión en
los circuitos neumáticos o hidráulicos. Cuando la presión o la depresión alcanzan
el valor de reglaje , cambia el estado del contacto de NO/NC ( normalmente
abierto/normalmente cerrado).

Los presostatos se utilizan frecuentemente para:


 Controlar la puesta en marcha de grupos de compresores en
función de la presión del deposito.
 Asegurarse de la circulación de un fluido lubricante o refrigerador.
 Limitar la presión de ciertas máquinas – herramientas provistas de cilindros
hidráulicos.
 Detener el funcionamiento de una máquina en caso de baja de
presión.
2.2 MEDICION DE NIVEL Y DENSIDAD

La medición de nivel consiste en medir la altura a la que se encuentra la superficie


libre del líquido a partir de una línea de referencia. Existen básicamente dos métodos:
Métodos Directos

Estos consisten en medir directamente la superficie libre del líquido a partir de una línea
de referencia. Pueden ser:

Observación visual directa de la altura sobre una escala graduada:


medidor de vara, de tubo de vidrio, etc.
 Determinación de la posición de un flotador que descansa sobre la
superficie libre del líquido: flotador y cinta,
 flotador y eje, etc.
 Electrodos que hacen contacto con la superficie libre del líquido.
Métodos Indirectos

Estos consisten en medir otros efectos que cambian con el nivel del líquido. Entre ellos
están:
o Medición de presión hidrostática o presión diferencial.
o Medición de fuerza de empuje. Como en el de tubo de torsión.
o Medición de la radiación nuclear. Medidor radioactivo.
o Reflexión de ondas de radio, de radar o sónicas desde la superficie libre
del líquido. Medidor ultrasónico.
o Medición de la capacitancia eléctrica.

Transmisores de nivel en líquidos

Desplazamiento (flotador)

Presión diferencial

Burbujeo

Radioactivo

Capacitivo

Ultrasonidos

Conductivímetro

Radar

Servoposicionador
Nivel tubular

Consiste en un tubo de vidrio con sus extremos conectador a bloques metálicos y


cerrados por prensaestopas que están unidos al depósito generalmente mediante tres
válvulas, dos de cierre de seguridad en los extremos del tubo para impedir el escape del
líquido en caso de rotura del cristal y una de purga.
El líquido sube por el tubo hasta igualar al nivel del depósito

Limitaciones:

No soportan mucha presión (máx. 7 bar)

No soportan mucha temperatura

No son resistentes a los impactos

No se pueden usar líquidos que manchen el interior del tubo

Para presiones elevadas el cristal es grueso, de sección rectangular y está protegido por
una armadura metálica
Medidor de nivel de flotador

Consiste en un flotador ubicado en contacto con el fluido y conectado al exterior del


depósito indicando directamente el nivel sobre un escala graduada.

Distintos modelos:

De regleta: el contrapeso se mueve en sentido contrario al flotador por una regleta


calibrada
De unión magnética: el flotador hueco, que lleva en su interior un imán, se desplaza a lo
largo de un tubo guía vertical no magnético.

Es fácil instalar contactos a lo largo de la regleta para fijar alarmas de nivel.


Variante:

Interruptor de nivel tipo flotador

Consta de un flotador pendiente del techo del depósito por una barra a través de la cual
transmite su movimiento a un ampolla de mercurio (la hace bascular) con un interruptor.
Si el nivel alcanza al flotador lo empuja en sentido ascendente, ascendiendo si la fuerza
supera al peso del flotador.

Este movimiento es transmitido por la barra y el interruptor cambia de posición.

La ampolla es de acero inoxidable no magnético.

Señal del tipo todo-nada.

Ventajas:
Estos instrumentos tienen una precisión de 0.5%.

Son adecuados en la medida de niveles en depósitos abiertos y cerrados.

Son independientes del peso específico del fluido.

Inconvenientes:

El flotador es susceptible de agarrotamientos por eventuales depósitos de sólidos que el


líquido pueda contener.

Medidor de presión diferencial


Consiste en un diafragma en contacto con el fluido del depósito, que mide la presión
hidrostática en un punto del fondo del depósito.

Tanque abierto: el nivel del líquido es proporcional a la presión en el fondo. Se coloca un


medidor de presión.

Tanque cerrado: diferencia de presión ejercida por el líquido en el fondo y la presión que
tiene el depósito

El diafragma forma parte de un transmisor neumático, o electrónico de presión


diferencial.

Precisión ± 0.5% en los neumáticos, ± 0.2% - ± 0.3% en los electrónicos y de ± 0.15% en


los "smart sensors".
Material del diafragma debe ser adecuado como para resistir la corrosión del fluido, p.e.:
acero inoxidable 316, monel, tantalio, hastelloy B, etc.

Medidor de nivel por burbujeo

Se emplea un tubo sumergido en el


líquido a cuyo través se hace burbujear aire o gas mediante un rotámetro con un
regulador de caudal incorporado hasta producir una corriente continua de burbujas.

La presión requerida para producir el flujo continuo de burbujas es una medida de la


columna de líquido (i.e. La presión del gas en la tubería equivale a la presión hidrostática
ejercida por la columna de líquido equivale al nivel del deposito.
Sistema muy ventajoso en aplicaciones con líquidos corrosivos o con materiales en
suspensión (el fluido no penetra en el medidor, ni en la tubería de conexión).

No se recomienda su empleo cuando el fluido de purga perjudica al líquido y para fluidos


altamente viscosos donde las burbujas formadas del gas de purga presentan el riesgo de
no separarse rápidamente del tubo.
Medidor radioactivo

Consiste en un emisor de rayos X, montado a un costado del depósito y con un detector


(el cual incluye un contador) que transforma la radiación recibida en una señal eléctrica
CC.

Como la transmisión de los rayos es inversamente proporcional a la masa del fluido en el


depósito, la radiación captada por el receptor es inversamente proporcional al nivel del
fluido ya que el material absorbe parte de a energía emitida.
La potencia emisora de la fuente decrece con el tiempo, por lo que hay que recalibrar
estos instrumentos.
Su aplicación se ve limitada por las dificultades técnicas y administrativas que conlleva el
manejo de fuentes radioactivas (recurrir a la normativa local sobre protecciones en
cuanto a elementos radioactivos).

La precisión en la medida es de ± 0.5 a ± 2%, y el instrumento puede emplearse para


todo tipo de líquidos ya que no está en contacto con el proceso.

La lectura viene influida por el aire o los gases disueltos en el líquido.

El sistema se emplea en caso de medida de nivel en depósitos de acceso difícil o


peligroso. Son óptimos para medir fluidos con alta Temperatura, líquidos muy corrosivos
reactores de polímeros porque no existe contacto

Medidor capacitivo

Se basa en medir la variación de


capacitancia de un condensador cuando va variando el medio dieléctrico entre sus
placas.
Con el depósito metálico e introduciendo una sonda metálica sin contacto entre ambos,
se forma un condensador.

Al variar el nivel de líquido varía proporcionalmente la capacidad.


Si el depósito no es metálico se introducen dos sondas.

En fluidos no conductores se emplea un electrodo normal y la capacidad total del sistema


se compone de la del líquido, la del gas superior y la de las conexiones superiores.

En fluidos conductores el electrodo está aislado

Usualmente con teflón interviniendo las capacidades adicionales entre el material


aislante y el electrodo en la zona del líquido y del gas. La precisión de los transductores

de capacidad es de ±1 %.

Se caracterizan por no tener partes móviles, son ligeros, presentan una buena resistencia
a la corrosión y son de fácil limpieza.

Tiene el inconveniente de que la temperatura puede afectar las constantes dieléctricas


(0,1 % de aumento de la constante dieléctrica/_C) y de que los posibles contaminantes
contenidos en el líquido puedan adherirse al electrodo variando su capacidad y falseando
la lectura, en particular en el caso de líquidos conductores.
También se usan como interruptores de nivel.

Medidor por ultrasonidos

Se basa en la emisión de un impulso ultrasónico a una superficie reflectante y la


recepción del eco del mismo en un receptor.

El retado en la captación del eco depende del nivel del depósito.

Los sensores trabajan a una frecuencia de unos 20 Khz Estas ondas atraviesan con cierto
amortiguamiento o reflexión el medio ambiente de gases o vapores y se reflejan en la
superficie del sólido o del líquido.
La precisión de estos instrumentos está en el intervalo de ± 1 a 3 %.

El tiempo depende de la temperatura, por lo que hay que compensar las medidas.

Hay que evitar que existan obstáculos (por ej. espumas) en el recorrido de las ondas,
aunque algunos medidores compensan los ecos fijos debidos al perfil del depósito
(mediante software).

Medidor de tipo conductivímetro

Consta de una sonda con uno, dos o más electrodos. Cuando estos entran en contacto
con el líquido conductor se cierra un circuito eléctrico, que a través de la unidad
amplificadora conmuta un contacto.

Se usa como interruptores de nivel en recipientes de líquidos conductores que no sean ni


muy viscoso ni corrosivos, aunque también se usa para medidas continuas.

El líquido debe ser lo suficientemente conductor como para excitar el circuito


electrónico. La impedancia mínima es del orden de los 20 MO/cm, y la tensión de
alimentación es alterna para evitar fenómenos de oxidación en las sondas por causa del
fenómeno de la electrólisis.

Cuando el líquido moja los electrodos se cierra el circuito electrónico y circula una
corriente segura del orden de los 2 mA; el relé electrónico dispone de un temporizador
de retardo que impide su enclavamiento ante una ola del nivel del líquido o ante
cualquier perturbación momentánea o bien en su lugar se disponen dos electrodos poco
separados enclavados eléctricamente en el circuito.

El instrumento se emplea como alarma o control de nivel alto y bajo, utiliza relés
eléctricos para líquidos con buena conductividad y relés electrónicos para líquidos con
baja conductividad.

Conviene que la sensibilidad del aparato sea ajustable para detectar la presencia de
espuma en caso necesario.
De fabricante:

Estos interruptores de límite se utilizan

para monitoreo de nivel y control de bombas de líquidos conductivos. Los instrumentos


operan bajo el principio conductivo. Se aplica un bajo voltaje a.c. entre la pared
conductiva del tanque o el electrodo a tierra (electrodo más largo) y un electrodo de
punto de interrupción. Si el medio conductivo toca los electrodos, una corriente alterna
insignificante fluye a través de los electrodos y el medio conductivo al relé del electrodo.

Los electrodos suspendidos se adecúan idealmente para la instalación cuando el espacio


es escaso.

Para control min. /máx. dos electrodos de punto de interrupción se deben conectar al
relé.

Sistemas de radar

No necesitan ningún contacto con el líquido, ni incorporan


ningún elemento que se mueva, por lo que su aplicación es ideal en productos muy
viscosos (incluso asfaltos), o en sistemas en movimiento (como barcos).

Rango de medida: hasta 40m.

Precisión: 2mm.
Servoposicionador

Gran precisión: 1mm con alta repetibilidad y sensibilidad.


Mide de forma continua la tensión de un hilo del que pende un contrapeso (en forma de
disco).

El sistema está en equilibrio cuando el contrapeso tiene un ligero contacto con el líquido.
Al cambiar el nivel del líquido, varia la tensión del hilo lo que es detectado por un
servoposicionador. Éste tiende a restituir el equilibrio de tensiones subiendo o bajando el
contrapeso.

Hay versiones de estos equipos para tanques

Atmosféricos, esferas de GLP a presión, y de acero inoxidable para la industria


alimenticia.

Medidores de nivel en sólidos

Problema de definir el nivel. No tiene por qué existir una superficie horizontal

Distinto carga que descarga

Se pueden usar algunos de los de líquidos y otros específicos.

Tipos:
Palpador

Paletas rotativas

Vibratorio

Membrana sensitiva

Varilla flexible

Peso

Ultrasonidos

Radar

Medidor por palpador

Análogo al “sondeo”

Miden bajo demanda del operador o de un temporizador.

Constan de un cable de medición o cinta de acero con un peso en su extremo, movido


por un motor.

Al chocar el peso con la superficie del material se anula la rigidez del cable, lo que
conmuta la dirección de giro del motor ascendiendo el peso.

Durante el descenso se mide el cable desenrollado, lo que nos indica el nivel.

El peso debe tener una sección suficiente para que no se hunda en el material.

Se usa para materiales sólido con granulometría hasta 3mm.

Paletas rotativas
Un motor hace girar unas paletas (a bajas rpm ) a través de un
resorte.

Al entrar en contacto el material con las paletas, éstas se paran, pero el motor continúa
girando hasta que el muelle asociado al motor se expande al máximo y toca un final de
carrera que da un contacto eléctrico.

Cuando el nivel disminuye, el resorte recupera su posición el motor arranca y el contacto


cambia de posición.

Intensidad del motor proporcional a la longitud de paleta en contacto con el sólido.

Estos instrumentos tienen una precisión de unos 25 mm y se emplean preferentemente


como detectores de nivel de materiales granulares y carbón.

Pueden trabajar con materiales de muy diversa densidad y existen modelos a prueba de
explosión.

Vibratorio

Se compone de una sonda en forma de diapasón que vibra a unos

80Hz impulsado piezoeléctricamente.

Cuando el material cubre el diapasón las vibraciones se amortiguan, lo que produce una
señal que activa un relé.

La instalación suele ser lateral y roscada a la altura del nivel, pero también podemos
encontrar sondas verticales.
El interruptor de vibración se puede utilizar en medios polvorientos y materiales
granulares. El medio a ser medido debe tener una densidad de por lo menos 0,05
kg/dm3.
Membrana sensitiva

Consta de una membrana acoplada a la pared del recipiente en el punto en el que se


quiere detectar el nivel.

Cuando el material llega a la altura del interruptor, presiona la membrana y actúa sobre
el interruptor.

Se usa con sólidos de granulometría media y pequeña.


El material del diafragma puede ser de tela, goma, neopreno o fibra de vidrio.

Este sensor tiene la ventaja de ser de bajo costo, con una precisión de ± 50 mm.

Varilla flexible
Consiste en una varilla de acero conectada a un diafragma de latón donde está contenido
un interruptor. Cuando los sólidos presionan la varilla, el interruptor se cierra y actúa
sobre una alarma.

El conjunto de la unidad está sellado herméticamente pudiendo construirse a prueba de


explosión.

El aparato se emplea como alarma de alto nivel estando dispuesto en la parte superior
del estanque. .

El instrumento se emplea en estanques abiertos como alarmas de nivel alto, tiene una
precisión de ± 25 mm, se utiliza para materiales tales como carbón y puede trabajar
hasta temperaturas máximas de 300 _C.

Medidor de nivel de sondeo electromecánico (de peso)


Consiste en un pequeño peso móvil sostenido por un cable desde la parte superior del
silo mediante poleas.

Un motor y un programador situados en el exterior establecen un ciclo de trabajo del


peso
Éste baja suavemente en el interior de la tolva hasta que choca contra el lecho de
sólidos.

En este instante, el cable se afloja, y un detector adecuado invierte el sentido del


movimiento del peso con lo que éste asciende hasta la parte superior de la tolva, donde
se para, repitiéndose el ciclo nuevamente.

Un indicador exterior señala el punto donde el peso ha invertido su movimiento


indicando así el nivel en aquel momento.

El instrumento se caracteriza por su sencillez, puede emplearse en el control de nivel,


pero debe ser muy robusto mecánicamente para evitar una posible rotura del conjunto
dentro de la tolva lo que podría dar lugar a la posible rotura de los mecanismos de
vaciado
3.1. Medidores de Flujo.

El fluido entra en el medidor y hace girar un rotor a una velocidad que es proporcional a
la del fluido, y por tanto al caudal instantáneo.
La velocidad de giro del rotor se mide por conexión mecánica (un sensor registra el
número de vueltas) o por pulsos electrónicos generados por cada giro. Son los más
precisos (Precisión 0.15 - 1 %). Son aplicables a gases y líquidos limpios de baja
viscosidad.
Problemas: Pérdida de carga y partes móviles

2.4 Medidores de Temperatura.

A Menudo la temperatura se define como aquella propiedad que miden los


termómetros. También se introduce la temperatura basándose en alguna propiedad
termométrica, por ejemplo la expansión de un líquido, un gas, la resistencia de un
conductor, la tensión eléctrica generada por un par termoeléctrico (termocupla), etc. En
la práctica existen numerosos tipos de sensores de temperatura o termómetros que,
según la aplicación especifica, pueden ser los más adecuados. En la tabla siguiente se
indican algunos tipos de termómetros y sensores de temperatura usuales junto a algunas
de sus características más notables.
Termopares / termocuplas: son sensores activos. Usan el efecto Seebeck: circula una
corriente cuando dos hilos de metales distintos se unen y se calienta uno de los extremos
- Se puede medir el voltaje, que es proporcional a la diferencia de temperaturas.
- Señal de salida muy baja: milivoltios. Necesita acondicionamiento de la señal.
- Sensibilidad baja: microvoltios por grado
- Aguantan altas temperaturas (p.e. calderas).
- Bastante lineales

Pirómetros ópticos
_ Se basan en el hecho de comparar visualmente la luminosidad del objeto radiante con
el filamento de una lámpara incandescente.
_ Para ello se superponen ambas ondas luminosas y se varía la corriente eléctrica de la
lámpara hasta que deja de ser apreciable a la vista.
_ La variación de la corriente nos da un valor de la Tª, pero hay que calibrar la
luminosidad de la lámpara previamente.
_ Trabajan en la banda de ondas visibles: 0,45 micras (violeta)-0,75 micras (rojo).
_ Fueron los primeros aparatos de pirometría, todavía se usan pero no son elementos
convencionales.

Termómetros de vidrio: Indican la Tª como diferencia entre el coeficiente de dilatación


del vidrio y del líquido empleado. Los más comunes son:
- Mercurio: (-37º C, 315ºC),
- Mercurio con gas inerte (N2): (-37ºC, 510ºC),
- Alcohol: hasta -62ºC
- Precisión 1% del rango.
Termómetros de Bulbo: La variación de temperatura produce la expansión o contracción
del fluido lo que deforma el recinto que lo contiene. La deformación es apreciada por un
muelle Bourdon y transmitida a un indicador o transmisor
– Rango: (-40ºC a +425ºC)
– Precisión: 1%
2.5 MEDICION DE OTRAS VARIABLES

Sensores de desplazamiento, posición y proximidad.

Los sensores de desplazamiento miden la magnitud que se desplaza un objeto; los


sensores de posición determinan la posición de un objeto en relación a un punto de
referencia. Los sensores de proximidad son una modalidad de sensor de posición y
determinan en que momento un objeto se mueve dentro de una distancia crítica del
sensor.

Los sensores de desplazamiento y de posición se pueden clasificar en dos tipos


básicos: sensores de contacto, en los cuales, el objeto que se mide está en contacto
mecánico con el sensor, y sensores sin contactos, en los que no hay contacto físico entre
el objeto y el sensor.
 Sensores de posición electromecánicos.

Un interruptor de límite de carrera, es un sensor de posición electromecánico que


consiste de un cuerpo y una cabeza de operación. El cuerpo del interruptor incluye
contactos eléctricos para energizar o para desenergizar un circuito. La cabeza de
operación incorpora un cierto tipo de brazo, palanca o pulsador, designado como
actuador. El interruptor de límite de carrera estándar es un dispositivo mecánico que
utiliza el contacto físico para detectar la presencia de un objeto (Target). Cuando el
objeto entra en contacto con el actuador, el actuador se gira de su posición normal a la
posición de funcionamiento. Esta operación mecánica activa los contactos eléctricos
dentro del cuerpo del interruptor, dejando el pasar el flujo de corriente o cortando el

paso de corriente.
 Sensores de desplazamiento por medio de potenciómetros.

Los potenciómetros son unas resistencias especiales que están formadas por una parte
fija con la resistencia y una móvil en contacto con la misma que, al desplazarse, hace
variar la resistencia entre las tomas. En otras palabras un potenciómetro es un resistor al
que se le puede variar el valor de su resistencia. De esta manera, indirectamente, se
puede controlar la intensidad de corriente que hay por una línea si se conecta en
paralelo, o la diferencia de potencial de hacerlo en serie.
Consiguen variar la resistencia que ofrecen en función de un mayor o menor giro manual
de su parte móvil. Suelen disponer de unos mandos giratorios que facilitan la operación,
o bien unas muescas para introducir un destornillador adecuado.

Normalmente, los potenciómetros se utilizan en circuitos con poca corriente, para


potenciar la corriente, pues no disipan apenas potencia, en cambio en los reostatos, que
son de mayor tamaño, circula más corriente y disipan más potencia.
 Sensores de proximidad magnéticos.
Los sensores de proximidad magnéticos o reed, reaccionan frente a campo magnéticos
generados por imanes permanentes o electroimanes instalados en dispositivos
móviles. Al aproximarse un campo magnético se cierra los contactos , dando paso al
flujo de corriente que genera la señal en el sensor

Una de la aplicaciones más común es como detectores de posición en los cilindros


neumáticos. Puesto que estos incorporan imanes permanentes en el embolo,
induciendo un cambio de estado en el sensor.
 Sensores de proximidad inductivos.
Los sensores de proximidad inductivos se utilizan para detectar la presencia de piezas
metálicas en un rango de distancia que va de 1 mm a 30 mm, hasta 75 mm.

Trabajan mediante la inducción de corrientes parasitas o corrientes de Eddy en piezas


metálicas. Dichas corrientes provocan un cambio en la amplitud del campo magnético
generado por el sensor, esta reducción del campo magnético genera una señal
eléctrica que se aprovecha para indicar la presencia de un objeto metálico en las
cercanías del sensor.

Como interruptores de finales de carrera, tiene ventajas respecto a los sensores


electromecánicos, tales como: ausencia de contacto con el objeto a detectar, robustez
mecánica, resistencia a ambientes agresivos y de altas temperatura.

Ejemplos de distintas formas y tamaños de sensores inductivos.


 Sensores de proximidad capacitivos.

La función del detector capacitivo consiste en señalar un cambio de estado, basado en la


variación del estímulo de un campo eléctrico. Los sensores capacitivos detectan objetos
metálicos, o no metálicos, midiendo el cambio en la capacitancia, la cual depende de la
constante dieléctrica del material a detectar, su masa, tamaño, y distancia hasta la
superficie sensible del detector.

La detección de materiales metálicos o no metálicos esta en el rango de distancia de 1


mm a 30 mm. Pero la sensibilidad del sensor se ve afectada por el tipo de material y por
el grado de humedad ambiental.

Las aplicaciones típicas son, la detección de materiales no metálicos como vidrio,


cerámica, plásticos , madera, aceite, agua, cartón, papel, gomas, etc.
 Sensores de proximidad ópticos.

Un sensor fotoeléctrico es otro tipo de dispositivo de detección de posición. Los sensores


fotoeléctricos, similares a los que están mostrados abajo, utilizan un haz luminoso
modulado que puede ser interrumpido o reflejado por un objeto.

El control consiste en un emisor (fuente generadora de luz), un receptor para detectar la


luz emitida, y la asociación electrónica que evalúa y amplifica la señal causando un
cambio de estado en el sensor fotoeléctrico.

Sensor Fotoeléctrico de Barrera.

En los detectores de barrera, el objeto se interpone entre el emisor del haz


luminoso y el receptor. Si la luz no llega al receptor se produce la acción de
conmutación.
Sensor Fotoeléctrico de Retroreflexión ( Réflex).

Los detectores se denominan réflex, cuando el emisor del haz de luz y el receptor,
están en la misma ubicación y el elemento contrario es un reflector.

Sensor Fotoeléctrico Reflectivo Difuso.

En los detectores difusos, el objeto a detectar realiza la función de reflector . El


emisor y receptor están en el mismo espacio. Estos sensores no permiten que la
distancia de conmutación sea aumentada.
Sensores de proximidad ultrasónicos.

Los sensores de proximidad ultrasónicos usan un transductor para enviar y recibir


señales de sonido de alta frecuencia.

Cuando un objeto entra al haz de la onda de sonido, el sonido es reflejado de regreso


al sensor, haciendo que se conmute una señal de salida.

Sensores de Velocidad y Movimiento.

Los sensores tacométricos, se encargan de medir la velocidad angular. Estos miden la


frecuencia de impulsos de cualquier tipo de señal, que generalmente es de tipo fotónica
por su fácil manejo ante la oposición al paso de luz.

Consiste en el conjunto de un circulo con ranuras por las cuales un led y un fototransistor
se encargan de medir la frecuencia a causa de cada pulso de luz que capta,
determinando así la velocidad angular proporcional a una salida en tensión. posee un
disco con 60 aberturas sensando una frecuencia máxima de 10KHz.
Tacogenerador: proporciona una tensión proporcional a la velocidad de giro del eje.
Utiliza un interruptor llamado “reed switch”, que utiliza fuerzas magnéticas para
activarse o no dependiendo si un objeto magnético se encuentra físicamente cercano al
interruptor.
Permiten medir la velocidad de giro de una rueda dentada, se dispone de uno de los
dientes magnetizados de forma que cada vez que éste diente pase junto al interruptor
será accionado por la fuerza magnética. Así por cada vuelta descrita por la rueda, el
interruptor se activa y en su salida se obtiene un pulso de corriente. Midiendo estos
pulsos de corriente (número de vueltas) por unidad de tiempo se determina la velocidad.

2.6 PROCEDIMIENTO PARA LA CALIBRACIÓN

Procedimiento para la calibración de instrumentos y sensores


Calibración se define como un “curso de acción para configurar cualquier instrumento
para la prestación de resultado de la muestra en un rango aceptable”. O “Comparar las
mediciones de dos dispositivos, en el que uno se establece por una máquina y el otro, se
hace siguiendo el método similar cómo es posible por la segunda pieza de equipo.”
El procedimiento de calibración se utiliza para un número de entradas para cubrir toda la
gama de medición de serie del instrumento/sensor. El procedimiento de calibración para
diferentes instrumentos y sensores es el mismo.
• En la calibración, la exactitud de la medición que se utiliza en el sistema de medición es
reconocido en toda la gama de medición de los instrumentos o los sensores usados en el
sistema.
• También el entorno donde se utiliza el instrumento calibrado y que fue calibrado debe
ser por igual.
• Instrumento que se utiliza como estándar en este procedimiento tiene exactitud
superior heredado en comparación con el instrumento del proceso que podría ser
calibrado. Si se especifica el tipo de instrumento, puede obtenerse mayor precisión que
no es conveniente para la medida del proceso normal.
• Para la calibración, el instrumento con mayor exactitud e instrumento de tipo null se
utiliza generalmente. Como característica del instrumento cambia después de un período
de tiempo, la calibración del instrumento es repetitiva en dado intervalos. Factores como
el cambio de temperatura, desgaste, suciedad, polvo, sustancias químicas y humo en el
ambiente de trabajo son responsables de traer los cambios en las características del
instrumento.
• Conocimiento de un profesional es necesaria para determinar la tasa de frecuencia en
qué instrumento calibre, como la determinación de la frecuencia depende de numerosos
factores. La frecuencia que es esencial para la calibración es fuertemente afectada por la
del instrumento tipo, frecuencia de uso y las condiciones de entorno que prevalece. Con
la participación de varios factores, la frecuencia requiere re calibración es imposible
determinar teóricamente. Así que hay que experimentar prácticamente para averiguar la
tasa para los cambios.
• Es necesario un manual o guía del usuario en el que todos los pasos se mencionan
cuando es un instrumento de calibración. La acción que ha de tenerse depende de la
naturaleza del error y la participación del tipo de instrumento.

• Es imprescindible para acceder a la frecuencia de calibración y el sistema reconocido


oportunamente para comprobar si el sistema funciona de manera eficiente y eficaz.
Como pasa el tiempo, si se dispone de método de calibración es eficaz y barato como sea
aprobado, entonces tal sustituto.
• El uso de instrumento en el procedimiento de calibración está reservado para él y no
puede utilizarse para fines adicionales. El proceso de calibración sólo funciona
eficientemente y efectivamente cuando su control total se asigna a una sola persona.
Los instrumentos llamados “inteligentes” cada vez son más comunes en la industria de
procesos. La mayoría de los instrumentos que se fabrican hoy son inteligentes. Estos
nuevos instrumentos plantean nuevos retos en cuanto a su calibración y configuración.
Pero ¿qué son esos instrumentos inteligentes y cuál es la mejor forma de configurarlos
y calibrarlos?
Beamex acaba de presentar una herramienta nueva y revolucionaria: el Calibrador
avanzado de campo y comunicador Beamex MC6, una gran ayuda para superar esos
retos.
¿Qué es un transmisor “inteligente”?
Un transmisor de procesos es un equipo que detecta un parámetro físico (presión,
temperatura, etc.) y genera una señal de salida proporcional a la entrada medida. El
adjetivo “inteligente” es más un término de márketing que una característica técnica.
No hay ninguna definición técnica comúnmente aceptada para lo que supone
“inteligente” en la práctica.
Por norma general, para que un instrumento sea considerado inteligente tiene que
utilizar un microprocesador y un protocolo de comunicaciones que permita leer los
valores de medición del transmisor y configurarlo. Un transmisor inteligente con
microprocesador tiene una memoria que puede realizar cálculos, emitir diagnósticos,
etc. Además, un transmisor inteligente moderno suele superar a un transmisor
convencional más antiguo en lo que respecta a la estabilidad y exactitud de las
mediciones. En cualquier caso, para los ingenieros que tienen que configurar y calibrar el
transmisor, el protocolo digital de comunicaciones es la gran diferencia con los
transmisores convencionales. Los ingenieros ya no pueden simplemente medir la señal
analógica de salida, sino que necesitan comunicarse con el transmisor y leer la señal
digital. Esto representa un reto totalmente nuevo: ¿cómo se lee la señal digital emitida?
Lo opuesto a un transmisor inteligente sería un transmisor que emitiera una señal de
salida totalmente analógica (o incluso neumática).
Protocolos de los transmisores inteligentes
Hay diversos protocolos digitales para los transmisores considerados inteligentes.
Algunos son exclusivos del fabricante, pero esos están perdiendo aceptación a favor de
los protocolos basados en estándares abiertos, pues ofrecen mayor interoperabilidad.
La mayoría de los protocolos se basan en estándares abiertos. El protocolo de
transmisores más común actualmente es el protocolo HART (Transductor Remoto
Direccionable de Alta Velocidad). Un transmisor HART contiene tanto una señal
analógica mA convencional como una señal digital, superpuesta a la señal analógica.
Como también posee la señal analógica, es compatible con las instalaciones
convencionales. Últimamente el protocolo HART está ganando más adeptos por su
versión más reciente: el protocolo inalámbrico WirelessHART.
Los fieldbuses (buses de campo) tales como FOUNDATION Fieldbus y Profibus solamente
contienen una señal digital, ninguna analógica. FOUNDATION Fieldbus y Profibus cada
vez tienen más presencia en los mercados de transmisores de procesos.

Configuración
Una característica importante de un transmisor inteligente es que se puede configurar
mediante el protocolo digital. La configuración de un transmisor inteligente es la
definición de sus parámetros. Se trata de parámetros tales como la unidad de
ingeniería, el tipo de sensor, etc. La configuración tiene que llevarse a cabo mediante el
protocolo de comunicaciones. Así que, para poder configurarlo, hay que utilizar algún
tipo de equipo de configuración, conocido como “comunicador”, compatible con el
protocolo seleccionado.
Y es que no hay que olvidar que, aunque un comunicador sirva para configurar, no es un
estándar de referencia y, por tanto, no sirve para la calibración metrológica. La
configuración de los parámetros de un transmisor inteligente con un comunicador no es
equivalente a una calibración metrológica (aunque forme parte de la tarea de ajuste) y
no garantiza la exactitud. Para llevar a cabo una calibración metrológica de verdad, por
definición siempre hace falta un estándar (calibrador) de referencia trazable.

2.6.1 CONSIDERACIONES PREVIAS A LA CALIBRACION


Todo transmisor moderno presume de ser inteligente y de gran precisión, incluso a
veces los comerciales dicen que no hace falta calibrarlo porque es “inteligente”.
Entonces ¿para qué sirve calibrarlos? En primer lugar, el que un transmisor tenga un
protocolo de salida no implica que la calibración deje de ser fundamental. Hay
numerosos motivos para calibrar instrumentos antes de su primer uso y luego con
regularidad. Los motivos principales son los siguientes:
• Hasta los mejores instrumentos y sensores terminan desviándose con el tiempo, sobre
todo si se utilizan en condiciones de procesos muy exigentes. • Requisitos
reglamentarios, como sistemas de calidad, de seguridad, medioambientales,
estándares, normas, etc.
• Motivos económicos: cada medición tiene un efecto
económico directo.
• Motivos de seguridad: tanto la seguridad del empleado como la del cliente/paciente.
• Para lograr una calidad alta y constante del producto y para optimizar procesos. •
Motivos medioambientales.
2.6.2 ERRORES

Cualidades de los aparatos de medida


- Fidelidad:
Decimos que un aparato de medida es "fiel", cuando realizando diversas medidas de una
misma magnitud en las mismas condiciones, los resultados obtenidos son idénticos.
- Exactitud:
Un aparato de medida es exacto cuando la medida realizada con él nos da justamente el
valor de la magnitud física.
- Precisión:
Es la mínima variación de una magnitud física que un instrumento de medida puede
determinar.
- Sensibilidad:
Un aparato de medida es tanto mas sensible, cuanto mayor capacidad tiene para medir
unidades muy pequeñas, es decir, cuando aprecia menores variaciones en el valor de la
magnitud a medir.

Errores de medida
La precisión necesaria de una medida física depende, tanto de la naturaleza de la
magnitud a medir, como de su tamaño.
- Error absoluto: es la diferencia entre la medida exacta de una magnitud y la medida
obtenida experimentalmente.

- Error relativo: es el cociente del error absoluto ( ) entre el valor exacto de la magnitud
(M)

E = / M Su significado es el tanto por uno del error.


Los errores pueden ser: sistemáticos y accidentales.
Los sistemáticos son derivados, casi siempre, de una construcción defectuosa del aparato
de medida, y se evitan en cierto modo, realizando las medidas con aparatos diversos y
hallando la media aritmética de los resultados obtenidos.
Los errores accidentales dependen de las condiciones fisiológicas, y aun psíquicas, del
observador, así como de la iluminación de los aparatos y demás circunstancias de
ambiente que rodean al experimentador. Se disminuye el valor de este error realizando
numerosas medidas, por distintos observadores, y obteniendo la media aritmética de
ellas.
Cálculo del error de una medida.
Aunque hayamos definido error como diferencia entre la medida exacta de una
magnitud y el valor obtenido experimentalmente, se comprende que no podemos
conocer tal medida exacta ya que este es el objetivo ideal de nuestras experiencias. Por
ello, como la probabilidad de compensación de errores, crece con el número de medidas,
tomando como valor experimental la media aritmética de los valores encontrados,
repitiendo, cuantas más veces mejor, la medida de la magnitud.

El error de la media aritmética queda determinado por la fórmula de Gauss:

xi = valor de una medida;


xm= valor de la media aritmética de todas las medidas;
n = número de medidas.
Si en la experiencia está implicada la medida de una magnitud para la cual el error
relativo resulta elevado e imposible de disminuir, basta que se efectúen las restantes
medidas con una aproximación del mismo orden que aquélla.

Cifras significativas.
No existe un acuerdo unánime acerca de cuál sea el número de dígitos que debe usarse
para expresar el resultado de una medida, de manera que a la vista de ese resultado se
sepa la precisión con que se realizó la medida. A estos dígitos se les llama cifras
significativas, y el resultado de una medida debe darse escribiendo solamente estas
cifras significativas.
Al operar con valores que proceden de medidas realizadas con distinta precisión, esto es,
con valores que poseen distinto número de cifras significativas, el resultado no puede
tener más precisión (o más cifras significativas) que el menos preciso de dichos valores.
Fiabilidad de los datos disponibles
La principal diferencia entre los problemas académicos y los que aparecen en una
instalación real, radica en la calidad de los datos disponibles para solucionarlos.
Los datos obtenidos del laboratorio o de la planta pueden ser de mala calidad, poco
convincentes, o realmente antagónicos con la realidad. La calidad de los datos
dependerá de la exactitud del muestreo, del tipo de procedimiento analítico empleado,
de la habilidad de los técnicos en la operación de aparatos, y de otros muchos factores.
Ha de tener el ingeniero cierta habilidad para reconocer los datos dudosos, solicitar y
obtener datos fiables, y si es necesario, hacer estimaciones precisas en vez de emplear
datos incorrectos o insuficientes.
2.6.3 INCERTIDUMBRE

Incertidumbre, en metrología, es una cota superior del valor de la corrección residual de


la medida.

También puede expresarse como el valor de la semi-amplitud de un intervalo alrededor


del valor resultante de la medida, que se entiende como el valor convencionalmente
verdadero. El carácter convencional, y no real de tal valor, es consecuencia de que el
intervalo se entiende como una estimación adecuada de la zona de valores entre los que
se encuentra el valor verdadero del mensurando, y que en términos tanto teóricos como
prácticos es imposible de hallar con seguridad o absoluta certeza: teóricamente porque
se necesitaría una sucesión infinita de correcciones, y en términos prácticos por no ser
útil continuar con las correcciones una vez que la incertidumbre se ha reducido lo
suficiente como para no afectar técnicamente al objeto al que va a servir la medida.

El Vocabulario Internacional de Metrología (VIM) define la incertidumbre de medida


como un parámetro, asociado al resultado de una medición, que caracteriza la dispersión
de los valores que razonablemente podrían ser atribuidos al mensurando.

Existen muchas formas de expresar la incertidumbre de medida o conceptos derivados o


asociados: incertidumbre típica, incertidumbre expandida, incertidumbre de calibración -
calibración-, incertidumbre máxima, incertidumbre de uso, etc.

Como concepto metrológico, es del mismo ámbito, pero diferente a los de tolerancia y
precisión.

Para la determinación del valor de las magnitudes fundamentales (obtenido


experimentalmente) en unidades del SI, se aplica la incertidumbre típica, revisada
periódicamente.

Incertidumbre, Tolerancia y Precisión son términos que aparecen frecuentemente


relacionados y no siempre resulta fácil diferenciarlos, en muchas ocasiones se utilizan
indistintamente de forma incorrecta.
Sin embargo, siguiendo los principios y definiciones de la Metrología estos tres conceptos
se diferencian claramente. En este artículo corto se definirán cada uno de ellos, se
analizaran sus origenes y se comentaran cuales son sus principales diferencias. Para ello
se ha consultado el texto "Fundamentos de Metrología", de Ángel Mª Sánchez Pérez,
Mayo de 1999. Monografías del Departamento de Físcia Aplicada, Escuela Técnica
Superior de Ingenieros Industriales, Universidad Politécnica de Madrid.
Sobre el origen de la incertidumbre de medidas
El término incertidumbre siempre aparece asociado a la medida de magnitudes. Medir
una cantidad de magnitud es compararla con otra de su misma clase que se adopta como
unidad, siempre se mide comparando la magnitud a medir, mensurando, con otra
cantidad de referencia de la misma clase, ya sea haciendo intervenir directamente
patrones en el proceso y empleando un instrumento comparador (método de medida
diferencial o por comparación), o aplicando exclusivamente un instrumento de medida
sobre el mensurando ( método de medida directa).
Cuando se realiza la medición siempre están presentes el mensurando (lo que se quiere
medir), el instrumento de medida (lo que mide), el operador (el que mide) y el resto del
universo, que de alguna forma física está influyendo en la medida realizada. No podemos
considerar que cuando se realiza una medida, el sistema formado por el mensurando-
instrumento de medida-operador, está aislado de su entorno, sino que el entorno actúa
a través de las magnitudes de influencia, de manera que aquellas medidas que ignoran
las influencias significativas carecen de sentido metrológico.
Las magnitudes de influencia son aquellas magnitudes que no constituyen el objeto
directo de la medida pero que están presentes durante la medición y la perturban.
Se considerarán aquellas magnitudes de influencia como significativas cuando se
encuentren en el orden de magnitud de la precisión con la que se mide el mensurando.
Para que el resultado de una medición sea representativo, es necesario establecer unas
condiciones de referencia que especifiquen los valores de las magnitudes de influencia,
determinen que se trabaja con instrumentos adecuados, que el mensurando está
suficientemente bien definido y que se utiliza un modo operativo apropiado. Se dice que
las magnitudes de influencia se encuentran bajo control cuando se emplean los medios
necesarios para que sus valores se sitúen en un cierto intervalo alrededor del valor de
referencia. A pesar de que las magnitudes de influencia se encuentren bajo control, es
inevitable la variabilidad de las mismas que se traducen en una cierta dispersión de las
medidas cuando se reiteran sucesivas mediciones del mensurando, siempre que la
división de escala del instrumento sea lo suficientemente pequeña, que el instrumento
posea la sensibilidad adecuada.
La medida de cualquier magnitud posee naturaleza aleatoria al existir siempre una
variabilidad inevitable que confiere dicho carácter a las indicaciones del instrumento
cuando se realizan sucesivas mediciones del mensurando, siempre en las mismas
condiciones de referencia. El orden de significación de la variabilidad, para un
determinado nivel de control de las magnitudes de influencia, depende esencialmente
del grado de definición del mensurando y de la sensibilidad del instrumento de medida
empleado. Puesto que el resultado de medir un mensurando es una variable aleatoria, el
mensurando debe caracterizarse en la forma habitual empleada con las variables
aleatorias, utilizando un parámetro de centrado y otro de dispersión. Ese parámetro de
dispersión como veremos más adelante será la precisión.
A veces no es posible efectuar las medidas con las magnitudes de influencia controladas
en el entorno de los valores de referencia. En este caso hay que aplicar correcciones a los
valores indicados o brutos para que el resultado de la medición corresponda al que se
habría obtenido si se hubiese trabajado con aquellas magnitudes en sus valores de
referencia. La introducción de correcciones incrementa la complejidad de las medidas
pues no siempre se conoce la relación funcional que existe entre el resultado de la
medida y los valores de las mganitudes de influencia. Además de las correcciones
indicadas, la exigencia de la trazabilidad impone la utilización de instrumentos calibrados
lo que determina la incorporación de las correcciones de calibración.
La calibración del instrumento se efectúa midiendo patrones de referencia al objeto de
comprobar si las indicaciones de la escala se ajustan a los valores de las correspondientes
unidades del SI.
De todos los razonamientos anteriores se observa que no es posible obtener valores
exactos como resultado de las medidas. La única forma de conseguirlo sería la de
introducir exactamente todas las correcciones necesarias en el tiempo y en el espacio, lo
cual no es posible debido a la imperfección de los medios y del conocimiento, y por otro
lado los medios necesarios para obtener una medida exacta no se justificarían desde el
punto de vista práctico de la metrología industrial. De ahí que se origine un bucle al
admitir que toda medida debe ser corregida (al menos con la corrección de calibración
del instrumento de medida), lo que obliga a medir nuevas magnitudes que, a su vez,
habrán de ser corregidas hasta alcanzar los niveles metrológicos más elevados, no puede
agotarse en la práctica y debe cortarse en algún punto, lo que supone dejar sin corregir
algo que debiera haberse corregido, es decir, una corrección residual.
La correción residual es desconocida pero existe la posiblidad de acotarla. De ahí una
primera definición de incertidumbre:
La incertidumbre de la medida es una cota superior del valor de la corrección residual.
El valor verdadero de un mensurando es el valor que mejor caracteriza dicho
mensurando pero no tiene existencia física real. En la práctica es suficiente con
aproximarse convenientemente al valor verdadero. El valor obtenido cuando se decide
interrumpir la aplicación de sucesivas correcciones suele denominarse valor
convencionalmente verdadero o valor resultante de la medida, el mejor valor que puede
obtenerse con los medios disponibles. Se dará un nueva defición:
La incertidumbre de la medida es el valor de la semiamplitud de un intervalo alrededor
del valor resultante de la medida (valor convencionalmente verdadero). Dicho intervalo
representa una estimación adecuado de una zona de valores entre los cuales es "casi
seguro" que se encuentre el valor verdadero del mensurando.
Así pues, el resultado de la medida se expresa mediante: x ± U

La defición de incertidumbre que incorpora el Vocabulario Internacional de Metrología


(VIM):
La incertidumbre de medida es un parámetro, asociado al resultado de una medición,
que caracteriza la dispersión de los valores que razonablemente podrían ser atribuidos al
mensurando.
Cuanto menor sea la incertidumbre de la medida, mejor ésta. El valor de la
incertidumbre es el primer índice de la calidad de una medida, que es tanto mayor
cuanto menor es aquella.
2.7 Criterios de selección Instrumentos de medición.
A TENER EN CUENTA PARA SELECCIONAR

Según la aplicación y condiciones de trabajo podemos definir cual es el adecuado.


FLUIDO, PRECISIÓN, TEMPERATURA, ESCALA Y ROSCA.
En condiciones de vibración recomendamos con baño de glicerina, en caso extremo con
Mecanismo de absorción Mecánica o mixto. Para temperatura superior a 60ºc
recomendamos secos (Sin glicerina).
La rosca la define la instalación y en caso de no depender de ello podemos seleccionar
varias medidas.
Diámetro 40, 52 o 63 tenemos 1/8" - 1/4"
Diámetro 100, 160, 200 o 250 tenemos 1/2"
Para definir en función del fluido es necesario consultar, básicamente todos ellos
aceptan AIRE, AGUA, ACEITE (no excesivamente denso).
Motivos de fallo y cómo prevenir las averías en el proceso

1. Vibraciones mecánicas: Movimientos y oscilaciones periódicos que producen


deformaciones.
2. Pulsación: Aumento y disminución rítmica de presión o caudal.
3. Temperatura: Grado de calor o frío medido en una escala determinada.
4. Sobrepresión: Por presión superior al límite causando daños en el elemento sensible.
Se debe distinguir entre picos
de sobrepresión puntuales y una sobrepresión continua.
5. Corrosión: Destrucción gradual del material causada por ataques químicos.
6. Obturación: Limitar o impedir la medición debido a sustancias ajenas que se adhieren
a los conductos del fluido.
7. Uso inadecuado: Mal manejo o instalación en aplicaciones inadecuadas

¿Que debes saber para seleccionar correctamente un instrumento?


Para seleccionar correctamente un instrumento, debes conocer los datos de tus procesos
o aplicación donde deseas instalar el equipo.
Generalmente los usuarios no toman estos datos en cuenta, al final les cuenta más y
pierden tiempo por una alta rotación de sus instrumentos.
La configuración para elegir el instrumento siempre estará basada por las características
del proceso donde se utilizará.
¿Cuál es el instrumento más fácil de seleccionar?
Es muy probable que pensaras en un Manómetro, ¡cierto!!
De ser así, revisa los datos más abajo sobre los manómetros y fíjate en los motivos de
fallas más comunes, las normas y precisión.

Los mejores instrumentos de medición carecen de estabilidad absoluta, es decir: se


desvían y pierden su capacidad de dar mediciones precisas. Por esta razón es necesaria la
calibración.
Generalmente su estabilidad en la medición se ve afectada por el medio ambiente y el
tiempo en servicio.
Con las calibraciones periódicas se busca tener mediciones confiables, asegurar la
calidad, cumplir con normas de seguridad y ambientales.

Puntos clave que debes considerar


Con el fin de cumplir normas internacionales y las mejores prácticas dentro de la
industria es importante considerar lo siguiente:
•Decisión multidisciplinaria
•Definición individual
•Recomendaciones del fabricante
•Normas aplicables y procedimientos específicos
•Comportamiento previo del instrumento
•Impacto de la decisión de no cumplir con la calibración
•Nivel de uso
•Exactitud requerida

Trazabilidad
Las calibraciones tienen que ser trazables. La trazabilidad es la declaración en la que se
especifica con qué patrón se ha comparado un instrumento determinado a través de una
cadena continua de comparaciones a patrones nacionales y/o internacionales.
Calibración Una señal medida desconocida se compara con una señal de referencia
conocida.

Resolución, es el mínimo intervalo legible entre dos lecturas.


Sensibilidad, es la mínima variación en la entrada que puede detectarse en la salida. Es
necesaria una buena resolución para detectar la sensibilidad.
Histéresis, La desviación en la salida en cualquier punto dentro del intervalo del sensor
del instrumento, primero acercándose a este punto con valores crecientes y luego con
valores decrecientes.

Repetibilidad, es la capacidad que tiene un instrumento de dar la misma salida a lo largo


de entradas repetidas del mismo valor durante un periodo de tiempo. La repetibilidad a
menudo se expresa como la desviación estándar.

Estabilidad, También conocida como “desplazamiento”, se expresa como el porcentaje


de cambio en la salida calibrada de un instrumento a lo largo de un periodo especificado
(generalmente se expresa a 90 días o a 1 año), bajo condiciones normales de
funcionamiento. La estabilidad suele expresarse como un valor típico.
2.8 Acondicionamiento de Señal.

La señal de salida de un sistema de medición en general se debe procesar


de una forma adecuada para la siguiente etapa de la operación. La señal puede
ser por ejemplo demasiado pequeña, y sería necesario amplificarla; podría
contener interferencias que eliminar; ser no lineal y requerir su linealización;
ser análoga y requerir su digitalización; ser digital y convertirla en análoga; ser
un cambio de voltaje y convertirla a un cambio de corriente de magnitud
adecuada, etc. A todas estas modificaciones se les designa por lo
general con el término “ Acondicionamiento de Señales”.
Los sistemas de instrumentos se pueden clasificar en dos clases
principales: analógicos y digitales.

Los sistemas analógicos tratan en forma análoga la información de


mediciones, se pueden definir como una función continua. Las señales
analógicas son producto de la conversión de una forma de onda física en una señal
eléctrica. Son un “analogo” que representa las ondas de sonido originales,
por lo tanto, son variables y variantes en forma continua.

Los circuitos electrónicos más antiguos son analógicos, la información que


transportan reproduce la información codificada en modo de voltajes,
frecuencias e intensidades.

Los sistemas digitales manejan la información en forma digital. Una cantidad


digital puede consistir en un número de pulsos discretos y discontinuos
cuya relación de tiempo contiene información referente a la magnitud o
naturaleza de la cantidad. La información se transfiere mediante trenes de pulsos
que representan números binarios. Las posibilidades son 0 y
1, y denotan dos estados posibles: SI(1) o NO(0), encendido(1) o apagado(0), pasaje o
no de corriente, abierto(1) o cerrado(0)...

Estos dígitos, convertidos en una corriente de pulsos electrónicos, pueden


almacenarse (grabarse) o transmitirse.
Las señales de cualquier circuito o comunicación electrónica son susceptibles de ser
variadas de forma no deseada de diversas maneras mediante el ruido, lo que ocurre
siempre en mayor o menor medida.
La gran desventaja respecto a las señales digitales, es que en las señales
analógicas, cualquier variación en la información es de difícil recuperación, y esta
pérdida afecta en gran medida al correcto funcionamiento y rendimiento de el
dispositivo analógico.

Acondicionamiento de señales.

Los siguientes son algunos de los procesos que se pueden presentar en el


acondicionamiento de una señal.

a) Protección para evitar el daño al siguiente elemento.


b) Convertir una señal en tipo de señal adecuada. Sería el caso cuando es
necesarios convertir una señal a un voltaje de corriente directa, a una corriente
o presión.
c) Obtener un nivel adecuado de la señal. En muchos casos es
necesario amplificar una señal para que esta pueda ser leída.
d) Eliminación o reducción de ruido. La forma más común es utilizando filtros.
e) Manipulación de la señal. Por ejemplo, convertir una variable en una
función lineal.

También podría gustarte