Está en la página 1de 2

La calibración es el conjunto de operaciones que establecen la relación entre lo que involucra la comparación de la

lectura del instrumento que se está calibrando con la lectura generada por un instrumento de referencia (o patrón), bajo
determinadas condiciones.}

Verificar: Comprobar que un aparato, instalación, etc., funciona correctamente

se denomina EXACTITUD a la capacidad de un instrumento de acercarse al valor de la magnitud real.

Alcance: De un instrumento de medida se define su ALCANCE, como la mayor medida que se puede obtener.

EL SESGO examina la diferencia entre la medición promedio observada y un valor de referencia.

El sesgo indica cuál es la exactitud del sistema de medición cuando se compara con un valor de referencia.

REPETIBILIDAD: Grado de concordancia entre resultados de sucesivas mediciones del mismo mensurando.

ESTABILIDAD: Aptitud de un instrumento de medida para conservar constantes sus características metrológicas a lo
largo del tiempo.

LA HISTÉRESIS es la tendencia de un material a conservar una de sus propiedades, en ausencia del estímulo que la ha
generado. Algunos instrumentos presentan un fenómeno de descompensación que existe cuando se hace una
comparación entre la variación de una misma medida tanto a nivel descenderte como ascendente, que en realidad
debería de tener el mismo recorrido. Se expresa en porcentaje, por ejemplo si un manómetro de 0-100% la presión real
es de 18 psig y la lectura en el indicador marca 18.2 psig al ir del cero al 100% de la variable y cuando se encuentra la
variable en 18 al desplazarse del cien al 0% el valor indicado es 17.7 la histéresis se calcularía así: (18.2 – 17.7/100 –0) x
100 =+- 0.5 %

DERIVA: Variación lenta de una característica metrológica de un instrumento de medida.

LA RESOLUCIÓN es la mínima variación de la magnitud medida que da lugar a una variación perceptible de la indicación
correspondiente.

DISCRIMINACIÓN, es la máxima variación del valor de la magnitud medida que no causa variación detectable de la
indicación correspondiente.

EL ERROR de medición se define como la diferencia entre el valor medido y el "valor verdadero" para cuantificar la
imperfección del método e instrumento de medida empleado.

existe siempre la posibilidad de confundir una incertidumbre con esa diferencia, se sugiere (Burns y otros, 1973) que
cuando se trate de evaluar la calidad del resultado de una medida se utilice el término incertidumbre en lugar del
término error.

El error de medida tiene dos componentes, el error sistemático y el error aleatorio.

Considerando todas las correcciones necesarias, su valor final es de 317,518 m con una incertidumbre muy pequeña,
casi despreciable, digamos por debajo de la décima de milímetro. Por tanto, la longitud 317,518 m se considerará como
el valor de referencia de la distancia en cuestión.
Así pues, el error de medida para el resultado de una medición individual es igual a la suma del error sistemático y el
error aleatorio. En el caso de la primera medida, el error de medida es por tanto de (-0,002 – 0,001) = -0,003 m.

ZM. Son aquellas donde la sensibilidad del instrumento es nula lo que hace que no cambie su indicación y señal de salida

INTERVALO: Porción de tiempo o de espacio que hay entre dos hechos o dos cosas, generalmente de la misma
naturaleza.

El proceso de medición debe diseñarse para impedir resultados erróneos y debe asegurar la rápida detección de
deficiencias y la oportunidad de acciones correctivas.

La reproducibilidad tiene que ver con la réplica de una prueba en manos de la comunidad científica de una rama
determinada.

También podría gustarte