Está en la página 1de 7

Precisión y exactitud

Significan lo mismos los conceptos de exactitud y precisión? Según las


definiciones recogidas en la RAE:
Precisión:
Del lat. praecisio, -ōnis ‘corte’, ‘concisión’.
1. f. Cualidad de preciso.

Exactitud:
1. f. Cualidad de exacto.
Estos dos términos que a menudo se usan indistintamente, pero que en
realidad tienen un significado distinto, especialmente cuando se aplican a
cuestiones científicas, técnicas o de ingeniería.
La exactitud se refiere a cuán cerca se está del resultado correcto y mejora con
herramientas calibradas correctamente. La precisión, por otro lado, se refiere a
la consistencia con la que se obtiene el mismo resultado aplicando el mismo
método, y se alcanza con herramientas más sofisticadas.

En los campos de la ciencia, la ingeniería y la estadística, la exactitud de un


sistema de medición es el grado de cercanía de las mediciones de una cantidad
al valor verdadero de esa cantidad. La precisión de un sistema de medición,
relacionada con la reproducibilidad y repetibilidad, es el grado en el que las
mediciones repetidas en condiciones inalteradas muestran los mismos
resultados. Aunque las dos palabras puedan ser sinónimos en el uso coloquial,
son deliberadamente contrastadas para el método científico.

Un sistema de medición puede ser exacto, pero no preciso; preciso, pero


no exacto; o ni uno, ni el otro. Por ejemplo, si un experimento contiene un error
sistemático, aumentar el tamaño de la muestra suele incrementar la precisión,
pero no mejora la exactitud. El resultado sería una cadena consistente pero
inexacta de resultados del experimento defectuoso. Eliminar el error sistemático
mejora la exactitud, pero no cambia la precisión.

Un sistema de medición se considera válido si es preciso y exacto. Los


términos relacionados incluyen sesgo (efectos no aleatorios o dirigidos causados
por un factor o factores no relacionados con la variable independiente) y error
(variabilidad aleatoria).
De acuerdo con la norma ISO 5725-1, el término general “exactitud” se utiliza
para describir la cercanía de una medición al valor verdadero. Cuando el término
se aplica a conjuntos de mediciones del mismo mensurando, implica una
componente de error aleatorio y una componente de error sistemático. En este
caso, la fidelidad es la cercanía de la media de un conjunto de resultados de
medición al valor real (verdadero) y la precisión es la cercanía de acuerdo entre
un conjunto de resultados.

En el lenguaje general, los términos “precisión” y “exactitud” se utilizan con


frecuencia de forma intercambiable, como si fueran sinónimos estrictos.
En el lenguaje especializado de la metrología, en cambio, los científicos
distinguen claramente entre exactitud (en inglés, accuracy)
y precisión (en inglés, precision). La exactitud indica, referida a una sola
medición, el grado de aproximación entre un valor medido y el valor real
que se pretende medir; y referida a una serie de mediciones, el grado de
aproximación entre la media de los valores medidos y el valor real que se
pretende medir. La precisión, por su parte, indica, referida a una sola
medición, el número de cifras decimales utilizadas para expresar lo
medido; y referida a una serie de mediciones, el grado de agrupamiento o
repetibilidad de los valores medidos.
Un instrumento inexacto nos ofrecerá resultados sesgados, pero tal vez
muy precisos; un instrumento impreciso, en cambio, nos ofrecerá
resultados ambiguos o difusos, pero tal vez exactos. Entenderemos la
diferencia más claramente con dos ejemplos prácticos. Si pesamos un
objeto de 23,398502 g con dos balanzas y obtenemos un resultado de 23,4
g con una de ellas, y un resultado de 20,704621344012 g con la otra, la
primera de estas balanzas es mucho más exacta, pero también mucho
más imprecisa, que la segunda. Si pesamos cinco veces un objeto de 23
kg con dos balanzas y obtenemos con una de ellas valores de 19, 20, 22,
27 y 29 kg, y valores de 30, 30, 30, 30 y 30 kg con la otra, la primera de
estas balanzas es mucho más exacta, pero también mucho más imprecisa,
que la segunda.
Tipos de Errores de Medición
Los errores de medición pueden clasificarse en errores aleatorios o
accidentales y errores sistemáticos:

Error aleatorio o accidental : Los errores aleatorios son aquellos que se


dan cuando se hacen medidas consecutivas de un mismo objeto o
fenómeno, obteniendo valores diferentes en cada caso.

Error sistemático: A diferencia de los errores aleatorios, los errores


sistemáticos dependen directamente del sistema que se está empleando
para realizar la medición. Por este motivo, son errores constantes. Si se
emplean instrumentos descalibrados, estos arrojarán medidas erróneas.
El error se va a presentar incluso si se repite el proceso de medición.

Clasificación de errores en cuanto a su origen


Tendiendo al origen donde se producen el error, puede hacerse una
clasificación general de estos en errores causados por el instrumento de
medición (errores humanos) y causados por el medio ambiente en que se
hace la medición.

• Errores por el instrumento o equipo de medición


Las causas de errores atribuibles al instrumento, pueden deberse a
defectos de fabricación (dado que es imposible construir aparatos
perfectos). Estos pueden ser deformaciones, falta de linealidad,
imperfecciones mecánicas, falta de paralelismo.
El error instrumental tiene valores máximos permisibles, establecidos
en normas o información técnica de fabricantes de instrumentos, y puede
determinarse mediante calibración.

• Errores del operador o por el método de medición


Las causas del error aleatorio se deben al operador, falta de agudeza
visual, descuido, cansancio, alteraciones emocionales. Para reducir este
tipo de errores es necesario adiestrar al operador, otro tipo de error son
debidos al método o procedimiento con que se efectúa medición, el
principal es falta de un método definido y documentado.

• Error por el uso de instrumentos no calibrados


Los instrumentos no calibrados o cuya fecha de calibración esta
vencida, así como instrumentos sospechosos de presentar alguna
anormalidad en su funcionamiento no deben utilizar para realizar
mediciones hasta que no sean calibrados y autorizados para su uso. Para
efectuar mediciones de gran exactitud es necesario corregir las lecturas
obtenidas con un instrumento o equipo de medición, en función del error
instrumental determinado mediante calibración.

• Error por condiciones ambientales


Entre las causas de errores se encuentran las condiciones ambientales
en que se hace medición; entre las principales
destacan temperatura, humedad, polvo, vibraciones o interferencias
electromagnéticas extrañas, etc

• Error de paralaje
Cuando una escala y su línea índice no se encuentran en el mismo
plano, es posible cometer un error de lectura debido al paralaje, como es
mostrado abajo. Las direcciones de visión (a) y (c) producirán este error,
mientras que la lectura correcta es la vista desde la dirección (b).

Este error ocurre debido a posición incorrecta del operador con


respecto a escala graduada del instrumento de medición, cual está en un
plano diferente, es más común de lo que se cree. El error de paralaje es
más común de lo que se cree, en una muestra de 50 personas que usan
calibradores con vernier dispersión fue de 0.04 mm. Este defecto se
corrige mirando perpendicularmente el plano de medición a partir del punto
de lectura.

Estudios de R&R

• Repetitividad de medida (repetitividad). Precisión de medida bajo


un conjunto de condiciones de repetitividad.
Condición de repetitividad de una medición (condición de repetitividad).
Condición de medición, dentro de un conjunto de condiciones que incluye
el mismo procedimiento de medida, los mismos operadores, el mismo
sistema de medida, las mismas condiciones de operación y el mismo lugar,
así como mediciones repetidas del mismo objeto o de un objeto similar en
un periodo corto de tiempo.

Reproducibilidad de medida (reproducibilidad). Precisión de medida


bajo un conjunto de condiciones de reproducibilidad.
Condición de reproducibilidad de una medición (condición de
reproducibilidad). Condición de medición, dentro de un conjunto de
condiciones que incluye diferentes lugares, operadores, sistemas de
medida y mediciones repetidas de los mismos objetos u objetos similares.
Para un correcto estudio de R&R es aconsejable revisar la norma ISO-
5725-2.

Trazabilidad metrológica
Propiedad de un resultado de medida por la cual el resultado puede
relacionarse con una referencia mediante una cadena ininterrumpida y
documentada de calibraciones, cada una de las cuales contribuye a la
incertidumbre de medida. La trazabilidad actualmente, puede
demostrarse a través de certificados de calibración, emitidos por
laboratorios acreditados en otro país por la entidad acreditadora de ese
país que este incluida en los acuerdos de reconocimiento mutuo (MRA) de
organizaciones internacionales o regionales tales como ILAC
(Internacional Laboratory Accreditation Cooperation). Especialmente útil
cuando se adquiere equipo nuevo de otro país.

Incertidumbre de ensayo
Al hacer mediciones, las medidas que se obtienen nunca son
exactamente iguales, aun cuando se efectué por la misma persona,
sobre misma pieza, con el mismo instrumento, el mismo método y el
mismo ambiente, en sentido estricto, es imposible hacer una medición
totalmente exacta por lo tanto siempre se presentan errores al hacer las
mediciones. Los errores pueden ser despreciables o significativos
dependiendo de las circunstancias en que se dé la medición.
En una serie de lecturas sobre una misma dimensión constante:

Inexactitud o Incertidumbre = valor máximo – valor mínimo

Hemos visto las diferencias entre dos conceptos muy relacionados entre
si: la incertidumbre y la precisión. La precisión es un componente muy
importante de la incertidumbre, sin embargo la incertidumbre incluye otras
fuentes de error que permiten afirmar que el valor considerado verdadero
está dentro del intervalo de valores asociado a verificar la trazabilidad del
método. Es aquí, por tanto, donde vemos otra diferencia muy importante
entre incertidumbre y precisión: incertidumbre y trazabilidad están muy
relacionados entre si, no así la precisión.

Error absoluto = valor leído – valor convencionalmente verdadero


correspondiente.

Error absoluto. Es la diferencia entre el valor de la medida y el valor


tomado como exacto. Puede ser positivo o negativo, según si la medida
es superior al valor real o inferior (la resta sale positiva o negativa). Tiene
unidades, las mismas que las de la medida.
Error relativo. Es el cociente (la división) entre el error absoluto y el valor
exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error.
Al igual que el error absoluto puede ser positivo o negativo (según lo sea
el error absoluto) porque puede ser por exceso o por defecto. no tiene
unidades.

Cálculo de incertidumbres
La incertidumbre se calcula de forma diferente dependiendo de si el valor
de la magnitud se observa directamente en un instrumento de medida
(medida directa) o si se obtiene manipulando matemáticamente una o
varias medidas directas (medida indirecta).

También podría gustarte