Está en la página 1de 2

La sensibilidad

La sensibilidad de un instrumento es la señal de entrada más pequeña que resulta


en una señal de salida detectable. La diferencia es que en algunos casos se habla
de menor variación de los valores reales que pueden ser detectados o
indicados. Unos expresan esta característica sobre los valores de entrada y otros
sobre los valores de salida. En la práctica el resultado es el mismo salvo que el
instrumento sea defectuoso o no este correctamente diseñado, es la magnitud
más pequeña que puede medir el instrumento.
Están los coeficientes de sensibilidad, el coeficiente de expansión térmica lineal es
su coeficiente de sensibilidad. En resumen, cuando tiene fuentes de incertidumbre
que se encuentran en diferentes unidades de medida u orden de magnitud, debe
utilizar coeficientes de sensibilidad.

Identificar la función de medición o la ecuación

El primer paso para calcular un coeficiente de sensibilidad es determinar la función


o ecuación que representa su proceso de medición. Elija la variable en su
ecuación que requiere un coeficiente de sensibilidad. Si más de una variable
necesita un coeficiente de sensibilidad, sólo evalúe una variable a la vez. Ahora
que tiene los datos, es hora de calcular su coeficiente de sensibilidad.

Este será su coeficiente de sensibilidad para la variable de entrada x . Los pasos


anteriores definen un procedimiento práctico para el cálculo de los coeficientes de
sensibilidad. Cabe mencionar que si se conoce la función matemática que define
al sistema de medición, los coeficientes de sensibilidad se pueden calcular
médiate las derivadas parciales de dicha función con respecto a cada magnitud de
entrada del modelo. Ejemplo de cálculo de coeficientes de sensibilidad.

Transductor de presión con una salida de 4 a 20 mA

Calculamos la diferencia de cada uno, debe tener una diferencia de 100 psi y una
diferencia de 16 mA, respectivamente. Dividiendo la diferencia de la señal de
salida, por la diferencia de presión, debe tener un coeficiente de sensibilidad
de0,16 mA por psi.
La incertidumbre

La Incertidumbre, en metrología, es una cota superior del valor de la corrección


residual de la medida. También puede expresarse como el valor de la semi-
amplitud de un intervalo alrededor del valor resultante de la medida, que se
entiende como el valor convencionalmente verdadero. El Vocabulario Internacional
de Metrología define la incertidumbre de medida como un parámetro, asociado al
resultado de una medición, que caracteriza la dispersión de los valores que
razonablemente podrían ser atribuidos al mensurando. Para la determinación del
valor de las magnitudes fundamentales en unidades del SI, se aplica la
incertidumbre típica, revisada periódicamente.
Incertidumbre de acuerdo a la GUM

De la misma manera que la utilización casi universal del Sistema Internacional de


Unidades ha dado coherencia a todas las mediciones científicas y tecnológicas, un
consenso internacional sobre la evaluación y expresión de la incertidumbre de
medida permitiría dar significado a una gran variedad de resultados de medida en
los campos de la ciencia, la ingeniería, el comercio, la industria y la
reglamentación, para que fueran fácilmente entendidos e interpretados
adecuadamente. En esta era del mercado global, es imprescindible que el método
de evaluación y expresión de la incertidumbre sea uniforme en todo el mundo, de
manera que las mediciones realizadas en diferentes países puedan ser
comparadas fácilmente.

El método ideal para evaluar y expresar la incertidumbre del resultado de


una medición debe ser

Además, en muchas aplicaciones industriales y comerciales, así como en las


áreas de la salud y de la seguridad, a menudo es necesario proporcionar un
intervalo en torno al resultado de la medición, en el que se espera encontrar la
mayor parte de valores de la distribución que pueden ser razonablemente
atribuidos a la magnitud objeto de la medición.

También podría gustarte