Está en la página 1de 2

INTRODUCCION

En todo proceso industrial, por muy sencillo que sea, es siempre necesario el uso de
instrumentos de medición y control que permitan entre otras cosas mantener los parámetros
de calidad de los productos generados por el proceso, supervisar la operación del proceso,
recopilar información referente a los volúmenes de producción y cantidad de materia prima
consumida, determinar condiciones inseguras de operación, etc.

Aun cuando los avances tecnológicos permiten la elaboración de instrumentos cada vez
más exactos, versátiles y fáciles de usar, es también cierto que la selección y aplicación
adecuada de los instrumentos depende de una gran cantidad de factores

El proceso de medición se puede definir intuitivamente como la acción de comparar una


característica cuantitativa de un objeto o proceso, con un patrón estándar previamente
determinado, a través del uso de un instrumento de medición diseñado a tal fin.

Todo proceso de medición define operacionalmente una magnitud física y da como


resultado el valor de dicha magnitud. El valor es un número real y representa el número de
veces que la unidad está contenida en la cantidad de magnitud medida.

La sensibilidad Es la capacidad de un instrumento de medida para apreciar cambios en la


magnitud que se mide, de tal forma que lo más sensibles son capaces de detectar cambios
más pequeños. Un instrumento de medida es más sensible que otro cuando es más preciso.

La precisión es la proximidad entre las indicaciones o valores medidos de un mismo


mensurando, obtenidos en mediciones repetidas, bajo condiciones especificadas. La
precisión de una medida suele expresarse numéricamente mediante medidas de dispersión
tales como la desviación típica o la varianza. Por ello, cuanto más estrecha sea la
distribución de resultados, menor será la desviación típica de la misma y mayor la precisión
de la medida. Depende pues únicamente de la distribución de los resultados y no está
relacionada con el valor convencionalmente “verdadero” de la medición.

La exactitud viene definida como la proximidad entre el valor medido y el valor


“verdadero” del mensurando. Así pues, una medición es más exacta cuanto más pequeño
es el error de medida.
Considerando mediciones individuales, la más próxima al valor verdadero será la más
exacta. Sin embargo, tras una serie de mediciones repetidas, será la distancia desde el valor
medio de la distribución de valores observados, habitualmente el resultado, hasta el valor
“verdadero”; es decir el sesgo (valor estimado del error sistemático), la que caracterizará la
exactitud de la medición. La dispersión de la distribución de los valores, estimada por su
desviación típica, caracterizará, como dijimos antes, la precisión.

Belletti, S., Godino, M. E. & Blesio, G. (2016). Mediciones 2do año. Rosario, Argentina.
Universidad Nacional de Rosario.

Prieto, E. (2012, febrero). …Exactitud no es lo mismo que Precisión? E-medida, v.1, pp.1-
4.

Fernández, J. L. & Coronado, G. (2015). Instrumentos de medida. Febrero 15, 2020, de


FISICALAB. Sitio web: https://www.fisicalab.com/apartado/medidas-precision.

También podría gustarte