Está en la página 1de 6

1.

1 TERMINOLOGIA DE LA
INSTRUMENTACIÓN

Las mediciones y los instrumentos se


describen con ayuda de varios símbolos,
convenciones y términos. Se debe uno
familiarizar con los más comunes de esos
términos y símbolos antes de estudiarlos
detalles del funcionamiento de los
instrumentos y técnicas de medición.
Esta obra da comienzo presentando algunos de los conceptos más generales
relacionados con las mediciones. Estos conceptos en particular son parte del
vocabulario que se emplea para describir todas las etapas del trabajo de
mediciones.
Las mediciones juegan un papel importante en la validación de las leyes de la
ciencia. También son esenciales para estudiar, desarrollar y vigilar muchos
dispositivos y procesos. Sin embargo, el proceso mismo de medición implica
muchos pasos antes de producir un conjunto útil de información, como el diseño
de un dispositivo eficiente de medición, el manejo inteligente del aparato de
medición, el registro de los datos de un modo claro y completo, cálculo de la
exactitud de la medición y las magnitudes de posibles errores implícitos.

1.1.1 CAMPO

Campo de medida

Es el conjunto de valores dentro de los límites superior e inferior de medida, en los


cuales el instrumento es capaz de trabajar en forma confiable.

Por ejemplo, un termómetro de mercurio con


rango de 0 a 50 grados Celsius. Espectro o
conjunto de valores de la variable de medida que
están comprendidas dentro de los límites superior
e inferior de la capacidad de medida o de
transmisión del instrumento. Viene expresado
estableciendo los dos valores extremos.

INSTRUMENTACIÓN Y CONTROL
1.1.2 RANGO

Rango: conjunto de valores de la variable que puede ser medido por un


instrumento. Límite superior e inferior. Ej.: 50ºc-150ºc

La región entre los límites dentro de la cual se mide, recibe o transmite una
cantidad, expresada por el conjunto valor más bajo y valor más alto. Rango cero
elevado: un rango en el que el valor cero de la variable o señal es mayor que el
valor más bajo del rango. Rango de cero suprimido: un rango en el que el valor
cero de la variable o señal es menor que el valor más bajo del rango. Span: la
diferencia algebraica entre el valor más alto y más bajo del rango. Rangeabilidad:
cociente entre el valor de medida superior e inferior del instrumento.

1.1.3 EXACTITUD

Cualidad de un instrumento de medida por la que tiende a dar lecturas próximas al


verdadero valor de la magnitud medida. 

En ingeniería, ciencia, industria y estadística, se


denomina exactitud a la capacidad de un
instrumento de acercarse al valor de la magnitud
real. La exactitud es diferente de la precisión.

La exactitud depende de los errores


sistemáticos que intervienen en la medición,
denotando la proximidad de una medida al
verdadero valor y, en consecuencia, la validez
de la medida.1 2

Suponiendo varias mediciones, no estamos midiendo el error de cada una, sino la


distancia a la que se encuentra la medida real de la media de las mediciones
(cuán calibrado está el aparato de medición).

Esta cualidad también se encuentra en instrumentos generadores de magnitudes


físicas, siendo en este caso la capacidad del instrumento de acercarse a la
magnitud física real. Exactitud es la cercanía del valor experimental obtenido, con
el valor exacto de dicha medida. El valor exacto de una magnitud física es un
concepto utópico, ya que es imposible conocerlo sin incertidumbre alguna.

Por ejemplo, si leemos la velocidad del velocímetro de un auto, esta tiene una
precisión de 3 cifras significativas y una exactitud de 5 km/h.

INSTRUMENTACIÓN Y CONTROL
1.1.4 PRECISIÓN

Tolerancia de medida o de transmisión del instrumento. Intervalo donde es


admisible que se situé la magnitud de la medida.

Precisión se refiere a la dispersión del conjunto de


valores obtenidos de mediciones repetidas de una
magnitud. Cuanto menor es la dispersión mayor la
precisión. Una medida común de la variabilidad es
la desviación estándar de las mediciones y la
precisión se puede estimar como una función de
ella. Es importante resaltar que la automatización
de diferentes pruebas o técnicas puede producir
un aumento de la precisión. Esto se debe a que
con dicha automatización, lo que logramos es una
disminución de los errores manuales o su
corrección inmediata. No hay que confundir
resolución con precisión.

1.1.5 REPETIBILIDAD

Es la capacidad de reproducción de las


posiciones de la pluma o del índice o de la señal
de salida del instrumento, al medir
repetidamente valores idénticos de la variable
en las mismas condiciones de servicio y en el
mismo sentido de variación, recorriendo todo el
campo. La repetibilidad es sinónimo de
precisión. A mayor repetibilidad, es decir, a un
menor valor numérico (por ejemplo, si un
instrumento es 0.05% y en otro es 0.005%, este
segundo tendrá más repetibilidad), los valores
de la indicación o señal de salida estarán más
concentrados, es decir, habrá menos dispersión
y una mayor precisión.

INSTRUMENTACIÓN Y CONTROL
1.1.6 HISTÉRISIS

Diferencia máxima que se observa para el


mismo valor cualquiera del campo de
medida, cuando la variable recorre toda la
escala en los dos sentidos, ascendente y
descendente. Se expresa % del alcance de la
medida.

1.1.7 SUPRESIÓN CERO


Es la cantidad de desfase
que hay por debajo del
valor inferior del rango.
Cantidad con que el valor
inferior del campo supera
el valor cero de la
variable. Puede
expresarse en la unidad
variable o medida en
porcentaje de alcance.
Supresión de cero
es la cantidad con que el valor inferior del campo supera el valor cero de la
variable. Puede expresarse en unidades de la variable medida o en % del alcance.
Por ejemplo, 20 oc en el campo 20 oc a 60 oc del instrumento, o sea (20/40) x
100= 50%

INSTRUMENTACIÓN Y CONTROL
1.1.8 RESOLUCIÓN

Es la menor diferencia de valor que el instrumento puede distinguir. En los


instrumentos analógicos interviene el operador según donde observe la posición
de la aguja, su error de paralaje en la lectura efectuada y la distancia entre los
valores marcados en la escala.

Por ejemplo, en un indicador de nivel de 0% a 100% graduado cada 1% de la


escala, con la aguja indicadora, que el observador considera en la mitad entre las
divisiones 52% y 53%, y que afirma que es capaz de discriminar valores del 0.5%,
podrá considerarse la resolución como (0.5/100) = 0.05%.
En los instrumentos digitales, la resolución es el cambio de valor de la variable que
ocasiona que el dígito menos significativo se modifique. 

La resolución de un sensor es el menor cambio en la magnitud de entrada que se


aprecia en la magnitud de salida. Sin embargo, la precisión es el máximo error
esperado en la medida.
La resolución puede ser de menor valor que la precisión.
Por ejemplo, si al medir una distancia la resolución es de 0,01 mm, pero la
precisión es de 1 mm, entonces pueden apreciarse variaciones en la distancia
medida de 0,01 mm, pero no puede asegurarse que haya un error de medición
menor a 1 mm.
En la mayoría de los casos este exceso de resolución conlleva a un exceso
innecesario en el coste del sistema. No obstante, en estos sistemas, si el error en
la medida sigue una distribución normal o similar, lo cual es frecuente en errores
accidentales, es decir, no sistemáticos, la repetitividad podría ser de un valor
inferior a la precisión.
Sin embargo, la precisión no puede ser de un valor inferior a la resolución, pues no
puede asegurarse que el error en la medida sea menor a la mínima variación en la
magnitud de entrada que puede observarse en la magnitud de salida.

INSTRUMENTACIÓN Y CONTROL
INSTRUMENTACIÓN Y CONTROL

También podría gustarte