Está en la página 1de 7

1.

Mediciones físicas

El resultado de la medición de una magnitud física es un número que depende de lo que se


mide, del procedimiento de medida, del instrumental usado en la misma, del observador y
otros factores menores. Para que el número atribuido a una cantidad física tenga sentido,
debe ir acompañado explícita o implícitamente del procedimiento empleado y de las
características de los instrumentos utilizados en la medición.

El proceso de medida de una cantidad física depende de las definiciones operacionales de


otras magnitudes físicas y éstas a su vez de la estructura alcanzada por las teorías físicas. Así,
por ejemplo, la longitud de una barra de hierro depende de los valores de varias cantidades
físicas como la temperatura, velocidad con respecto al observador, aceleración de la gravedad,
etc. Por lo tanto, la definición del proceso de medida de una longitud debe contener
necesariamente los procedimientos para mantener constantes todos los parámetros físicos
que influyen en el valor de la magnitud considerada; y estos procedimientos resultan del
conocimiento de varias leyes físicas. Consecuentemente los procedimientos de medida se
perfeccionan a medida que la física progresa y, en cada momento solamente pueden aplicarse
definiciones operacionales aproximadas, aplicables en casos simplificados.

De una misma magnitud física se pueden dar, por lo general varias definiciones operacionales.
Por ejemplo; un intervalo de tiempo puede medirse por el ángulo barrido de la Tierra en su
rotación, por un determinado número de oscilaciones de un péndulo, por el correspondiente
número de vibraciones de un cristal de cuarzo, por la distancia recorrida por un rayo de luz.
Mediante las diferentes definiciones operacionales, basadas en leyes distintas de una misma
magnitud física, se obtienen en cada caso resultados aproximadamente iguales.

Por lo expresado surge que los procedimientos de medida de las magnitudes físicas son
evolutivos y que dependen del grado de desarrollo de la Física y de la precisión de los
instrumentos de medida existentes.

2. Calibración

Al calibrar un sistema de medición se establece la relación entre la entrada y salida del


sistema. La calibración es el acto de aplicar un valor conocido a la entrada del sistema de
medición con el propósito de observar la salida del sistema. El valor conocido es denominado
"standard”.
En una calibración el valor conocido de entrada debe ser una variable independiente
controlada, mientras que el valor de salida es la variable dependiente.

2.1 Calibración estática

Es la forma más común de calibración, se procede aplicando un valor conocido a la entrada del
sistema bajo calibración y registrando la salida. El término estático proviene de que la variable
de entrada permanece constante durante la medición y no es afectada por el tiempo.

2.2 Calibración dinámica

La variable depende del tiempo, puede variar en magnitud y frecuencia. En la calibración


dinámica se determina la relación de comportamiento de una entrada variable conocida y el
sistema de medición de salida. Usualmente estas calibraciones poseen una señal sinusoidal.

1
2.3 Calibración secuencial

Una calibración secuencial se aplica variando progresivamente el valor de entrada dentro de


un rango deseado. Puede ser incrementando o disminuyendo el valor de la entrada.

2.4 Calibración aleatoria (Random)

En este método la calibración se realiza utilizando valores de entrada conocidos de forma


aleatoria y dentro de un rango determinado. Este método se asemeja más a las situaciones de
medición y tiende a minimizar el impacto de interferencias. Se asegura de este modo que el
valor de entrada de medición sea independiente del siguiente. La secuencia de calibración es
una técnica efectiva de identificar y cuantificar los errores del sistema de medición.

3. Precisión (Accuracy)

La precisión de un sistema puede estimarse en la calibración. Cuando el valor de entrada es


exactamente conocido se lo denomina valor verdadero.

La precisión (A) está relacionada con el error absoluto. El error absoluto (ε) se define como la
diferencia entre el valor verdadero y el valor indicado por el sistema de medición.

ε = Valor verdadero - Valor indicado (3.1)

(3.2)

Por definición la precisión puede ser determinada únicamente cuando el valor verdadero es
conocido durante la calibración.
Una forma alternativa es generar una curva de calibración mediante un gráfico de desviación,
como se muestra en la Figura 3.1. Esta curva se genera graficando la diferencia entre el valor
verdadero (y') y el valor indicado (y) en función del valor indicado. Curvas de desviación son
útiles cuando las diferencias entre valor indicado y verdadero son muy pequeños para sugerir
posibles tendencias en la calibración directa.

Figura 3.1 Gráfico de desviación, curva de calibración de un sensor de temperatura.

2
4. Errores

Según el origen donde se produce el error de una medición, puede hacerse una primera
clasificación de los errores como:

 Errores del operador o por el método de medición


El operador puede introducir errores en la medición debido a: falta de agudeza visual,
descuido cansancio, alteraciones emocionales, etc. Para reducir este tipo de errores es
necesario entrenar al operador.
El procedimiento o método de medición puede introducir errores generados por: Uso
de instrumentos no calibrados, fuerza indebida en las mediciones, instrumento
inadecuado, error de sujeción del instrumento, etc.

 Errores causados por el medio ambiente


El ambiente donde se efectúa la medición produce errores generados comúnmente
por: Temperatura, humedad, polvo, etc.

 Errores causados por el instrumento

Histéresis
ERRORES
Lineales
DEL
Sensibilidad
INSTRUMENTO
Cero

Estos errores son parte del instrumento de medición, conociéndolos se puede calcular el error
total del instrumento de medición.

Tabla 4.1 Especificaciones técnicas de un transductor de presión.

Los errores pueden acotarse directamente con las unidades correspondientes o porcentual-
mente respecto el rango del instrumento (rO). Esto se denomina FSO (Full-Scale Output).

(4.1)

3
4.1 Error de histéresis

Se analizan las diferencias entre la secuencia ascendente y descendente de calibración. El error


de histéresis del sistema queda determina por:

(4.2)

(4.3)

4.2 Error lineal

Muchos instrumentos son diseñados para obtener relaciones lineales entre valores estáticos
de entrada y sus valores de salida. Entonces la curva estática de calibración tendrá la forma:

(4.4)

Donde la curva YL(X) proporciona el valor de salida, sin embargo los valores reales se alejan de
la linealidad por lo que se define el error lineal como:

(4.5)

(4.6)

4.3 Error de sensibilidad

La dispersión en los datos medidos durante la calibración afecta la pendiente de calibración. Si


fijamos el cero entonces la dispersión de datos conduce a errores de precisión en la pendiente
de calibración. El error de sensibilidad (eK) es una medición estática del error de precisión en la
estimación de la pendiente de calibración. La sensibilidad estática de un dispositivo es
dependiente de la temperatura, por lo que generalmente se especifica su dependencia.

4.4 Error de cero

Si el cruce por cero no está fijo pero la sensibilidad es constante, entonces la deriva del cero
introduce una translación vertical de la curva de calibración Figura 4.1d. Esta translación es
conocida como el error cero (ez) del sistema de medición.
El error cero puede usualmente ser reducido periódicamente ajustando el valor de salida de la
medición a cero en condiciones de entrada también nulas. Sin embargo, variaciones al azar en
el error de cero son comunes, particularmente con equipos digitales sujetos a variaciones de
temperaturas.

4.5 Error total del instrumento

Conociendo los tipos de errores del sistema de medición se puede calcular el error total del
instrumento. Este error es a menudo mal llamado como precisión del instrumento. El cálculo
se realiza como la raíz cuadrada de la suma de los errores al cuadrado. Para M errores

4
conocidos, el error del instrumento (eI) se estima como:

(4.7)

Figura 4.1 Ejemplos de distintos tipos de errores.

5. Repetibilidad

La habilidad de un sistema de medición para indicar igual valor en mediciones distintas pero
con el mismo valor de entrada se denomina repetibilidad. Es basada en una medición
estadística llamada desviación standard (Sx). Generalmente se expresa en términos del máximo
error esperado como porcentaje del rango de salida.

(5.1)

La repetibilidad del instrumento refleja únicamente el error en condiciones controladas de


calibración, no incluye errores adicionales introducidos durante la medición debidos a

5
variaciones en la variable medida o debidos al procedimiento.

6. Reproducibilidad

Este término es empleado en ensayos separados de repetibilidad. Los fabricantes piden que
sus instrumentos tengan reproducibilidad basada en múltiples ensayos de repetibilidad
realizados en diferentes laboratorios a una única unidad.

7. Ejercicios

1) Se selecciona un transductor de presión como el indicado en la tabla 3.1, se desea medir


una presión nominal de 500cmH2O. La temperatura ambiental se espera que varíe entre 18 y
25ºC. Estimar la magnitud del error total generada por el instrumento.

2) Buscar la ficha técnica de algún instrumento de medición que contenga algunos de los
errores mencionados anteriormente y calcule el error total del instrumento (Simular la
medición del valor medio del rango de medición y trabajar con la temperatura media
especificada).

Bibliografía

Theory and design for mechanical measurements 2da Ed., Figliola, Beasley, Jhon Wiley and
Sons.
Teoría de errores de mediciones 2da Ed., Cernuschi, Greco, EUDEBA.
Theory and Application of Mechanical Engineering measurements, Mark Moore, Lancaster.
Metrología 2da Ed. C. Gonzáles, R. Zeleny, Mc Graw Hill

También podría gustarte