Está en la página 1de 14

ERRORES Y

CALIBRACIÓN

ALUMNO: Dolores Elena Trujillo


Luna
GRUPO: PIW23
MAESTRO: Matías Torres Nahum
MATERIA: Metrología

¿Qué es un error para la metrología?


En el contexto de la metrología, aparece con frecuencia el término "error". Es un
término que suele generar ciertas dudas en su aplicación, y que puede
confundirse fácilmente con otros conceptos como la incertidumbre (de la que
hablaré más adelante en otro artículo).
En una medición, el error de medida o (simplemente) error es la diferencia que
existe entre el valor medido y el valor de referencia. Es decir, que, si estamos
comparando la indicación de un termómetro con la de un patrón, el error estará
dado por la diferencia algebraica entre uno y otro:
error = valor medido - valor de referencia
Si, por ejemplo, el termómetro a calibrar nos indica 25,3 °C y el patrón (nuestra
referencia, nuestra "mejor" versión del valor verdadero) nos marca 25,22 °C el
error será de:
error = 25,3°C - 25,22 °C = 0,08 °C
Que el error sea positivo en signo nos dice que nuestro instrumento está midiendo
"de más". Si, en cambio, nuestro termómetro nos indica 24,9 °C y el patrón 25,22
°C, el error será de:
error = 24,9 °C - 25,22 °C = -0,32 °C
El signo negativo indica, en este caso, que el instrumento mide "de menos" con
respecto a lo que debería.
Aquí lo estaríamos expresando en términos absolutos (en la misma unidad con la
que venimos trabajando, °C en este caso). El error también se puede expresar de
manera porcentual, tomando como referencia al (valga la redundancia) valor de
referencia. En el primer ejemplo, el error porcentual sería:
error (%) = (error / valor de referencia) * 100% = (0,08 °C / 25,22 °C) * 100% ≈
0,32%
En muchos casos las exactitudes de los instrumentos están expresadas de
manera porcentual, por lo que este último cálculo nos permite evaluar mejor el
comportamiento del instrumento bajo este criterio.
En función del origen y el
comportamiento de los errores, estos
se pueden clasificar en errores
sistemáticos y errores aleatorios.
Los errores sistemáticos, son esos
errores que aparecen en sucesivas
medidas de manera predecible.
Pueden ser constantes o pueden
tener un comportamiento que puede
estimarse con cierta seguridad. En cambio, los errores aleatorios tienen un
comportamiento impredecible. Está claro que estos últimos son los más
perjudiciales, ya que no sabemos cuándo y cómo van a aparecer.
Al error se lo puede tratar mediante lo que se conoce como corrección. La
corrección no es más que el valor del error con signo cambiado. Por ejemplo, si el
error es de 0,08 °C, la corrección será de -0,08 °C. Lo podemos ver como "el valor
que hay que aplicar para que el instrumento mida como debería medir". En
muchos certificados de calibración o informes de ensayo aparece la corrección en
vez del error. Hay que identificar a cuál se hace mención. También es habitual que
aparezca el término desvío. En ese caso, se comporta como un sinónimo de error.
Por último, al valor estimado de un error sistemático (que podemos predecir con
cierto grado de confianza) se lo suele denominar sesgo de medida.

¿Qué es calibración?
La palabra «calibración» se puede
utilizar (correcta e incorrectamente) en
contextos distintos. En este texto
hablamos de la calibración metrológica
en el mundo de la tecnología de las
mediciones.
Formalmente, la calibración es la
comparación documentada entre el
dispositivo de medición que se va a
calibrar y un dispositivo de referencia
trazable.
El estándar de referencia también se
puede denominar «calibrador».
Lógicamente, la referencia tiene mejor
exactitud que el dispositivo que se va a calibrar. El dispositivo de referencia se
debe calibrar de modo que sea trazable. Más adelante hablaremos de esto último.
Con algunas cantidades, la referencia no es siempre un dispositivo, sino que
también puede ser por ejemplo una masa, una pieza mecánica, una referencia
física, o un líquido o un gas de referencia.
La definición formal anterior proviene de la BIPM (Bureau International des Poids
et Measures, es decir, la oficina internacional de pesos y medidas).
Ajuste
Al realizar una calibración y comparar dos dispositivos, se puede detectar que hay
cierta diferencia entre los dos. De este modo, es bastante lógico querer ajustar el
dispositivo bajo ensayo para que pueda medir correctamente. Este proceso se
denomina a menudo ajuste.
Formalmente, la calibración no incluye el ajuste, sino que se trata de un proceso
aparte. En el lenguaje cotidiano, la palabra «calibración» a veces incluye también
un posible ajuste. Pero, tal y como hemos mencionado, las fuentes más formales
consideran que el ajuste es un proceso aparte.
Certificado de calibración
La definición de calibración incluye la
palabra «documentada». Esto significa
que la comparación de la calibración se
debe registrar. Este documento suele
denominarse «certificado de
calibración».
Un certificado de calibración incluye el
resultado de la comparación y el resto
de información relevante de la
calibración, como el equipo utilizado,
las condiciones medioambientales, los
firmantes, la fecha de calibración, el
número de certificado, la incertidumbre
de la calibración, etc.
Trazabilidad
Se ha mencionado que el estándar de
referencia que se emplea en la
calibración debe ser trazable. Esta
trazabilidad significa que el estándar de
referencia también se debe haber calibrado con un estándar de nivel aún más alto.
La trazabilidad debe ser una cadena de calibraciones continua, de tal modo que la
calibración de mayor nivel se haya realizado en un centro de calibración nacional o
equivalente.
De este modo, tal vez te interese, por ejemplo, calibrar tu instrumento de medición
de procesos con un calibrador de procesos portátil. El calibrador de procesos
portátil que utilices debe haberse calibrado con un calibrador de referencia de
mejor exactitud. El calibrador de referencia se debe calibrar con un estándar de
nivel incluso superior o se debe enviar a un centro nacional o acreditado para su
calibración.
Los centros de calibración nacionales garantizarán que la trazabilidad de ese país
esté en el nivel adecuado utilizando las comparaciones de los laboratorios de
calibración internacionales o comparaciones internacionales.
Si la cadena de trazabilidad se interrumpe en algún momento, las mediciones
realizadas después no se pueden considerar fiables.
Incertidumbre de la calibración y de la medición
Cuando un instrumento se calibra con un dispositivo de nivel superior, el proceso
siempre incluye cierta incertidumbre. La incertidumbre es la cantidad de «duda»
del proceso de calibración, así que indica «lo bueno» que fue el proceso de
calibración. La incertidumbre puede estar compuesta por varias fuentes, como el
dispositivo bajo ensayo, el estándar de referencia, el método de calibración o las
condiciones medioambientales.
En el peor de los casos, si la incertidumbre del proceso de calibración es mayor
que el nivel de exactitud o tolerancia del dispositivo que se calibra, entonces la
calibración no tiene ningún tipo de sentido.
El objetivo es que la incertidumbre total de la calibración sea suficientemente
pequeña en comparación con el límite de tolerancia del dispositivo que se calibra.
La incertidumbre total de la calibración siempre se debe documentar en el
certificado de calibración.
Límite de tolerancia, fuera de tolerancia, aceptado/no aceptado
Al calibrar un instrumento, lo más frecuente es que haya un límite de
tolerancia (límite de aceptación) establecido por adelantado para la calibración.
Este es el error máximo permitido para la calibración. Si el error (diferencia entre el
dispositivo bajo ensayo y la referencia) de algún punto calibrado es mayor que el
límite de tolerancia, la calibración se considerará «no aceptada».
En caso de calibración no aceptada, deberá adoptar medidas de corrección para
poder aceptar la calibración. Lo más habitual es ajustar el dispositivo bajo ensayo
hasta que sea suficientemente exacto.

¿Por qué hay que calibrar?


En este punto, tal vez te
preguntes por qué hay que
calibrar algo o cuáles son las
razones para calibrar.
En las condiciones de procesos industriales hay diversos motivos para la
calibración. Algunos ejemplos de los motivos más habituales son estos:

• La exactitud de todas las mediciones se deteriora con el tiempo


• El cumplimiento normativo estipula un calibrado con regularidad
• El sistema de calidad requiere la calibración
• Dinero: la transferencia de dinero depende del resultado de la medición
• Calidad de los productos producidos
• Seguridad: de los clientes y de los empleados
• Razones medioambientales
Calibración encontrada y dejada
En el ámbito de la calibración se emplean los términos «encontrada» y «dejada».
El término «encontrada» se refiere a la primera calibración que se efectúa tal
como se encontró el instrumento. Si se detectan errores y se efectúa un ajuste,
después de este se realiza otra calibración que se denomina calibración «dejada»,
es decir, tal como se dejó el instrumento. Para resumir el proceso: calibración
«encontrada»; ajuste en caso necesario; y calibración «dejada».
La calibración de los instrumentos de proceso consiste en comparar y documentar
la medición de un dispositivo respecto a un estándar de referencia trazable. Es
importante calibrar para poder confiar en la validez de las mediciones. La validez
de las mediciones es importante por muchas razones, entre ellas la seguridad y la
calidad. Para conseguir los resultados y la fiabilidad de mayor nivel, asegúrate que
la incertidumbre de la calibración sea suficientemente pequeña. O bien, utiliza un
calibrador que tenga una especificación de exactitud varias veces mejor que el
dispositivo bajo ensayo. Por último, las tolerancias y la frecuencia de las
calibraciones se deben fijar de conformidad con varios factores, como la criticidad
de los instrumentos.

EJEMPLOS
Ejemplo de calibración
de balanzas
Por ejemplo:
para calibrar una
balanza utilizaremos
masas patrón de valor
conocido:
Depositando la masa sobre el plato de la balanza podremos ver el valor medido o
indicado por esta. El error de indicación de la balanza lo calculamos a partir de la
ecuación:
ei = valor medido – valor patrón
Esta operación la realizamos en distintos puntos del rango de medida de la
balanza, de forma que al final tendremos una tabla de resultados cuyo aspecto es
el siguiente:

Es importante destacar que el error de indicación tiene signo, puede ser positivo o
negativo. En el caso del ejemplo anterior, la balanza pesa menos de lo que
debería, por tanto, el error es negativo.
Otras formas de expresión del error de indicación, y que podemos encontrar en los
certificados de calibración, son: sesgo o desviación. Todas ellas son equivalentes.
También podemos expresar los resultados de la calibración a través de la
corrección, la cual es el valor que se debe sumar a la indicación bruta del equipo
para ser corregida. Algebraicamente, su valor se obtiene como:
C = valor patrón – valor medido
¡¡¡Alerta!!! - No confundir error de indicación con corrección del equipo. Ambos
tienen el mismo valor numérico, pero signo contrario.
Algunos ejemplos son la calibración de capacitores, inductores y resistores patrón
en puentes RLC, de pesas con el uso de doble platillo, y de manómetros de
mercurio contra columna de líquido mediante el equilibrio de fuerzas.
La sustitución simple (calibración de masas, AB), doble (calibración de masa
ABBA) y sucesivas. Las últimas son para calibrar básculas de gran alcance, por
ejemplo, de cinco toneladas).
¿Cómo evaluar un error?
Al hacer mediciones, las
medidas que se obtienen nunca
son exactamente iguales, aun
cuando se efectué por la misma
persona, sobre misma pieza,
con el mismo instrumento, el
mismo método y el mismo
ambiente, en sentido estricto, es
imposible hacer una medición
totalmente exacta por lo tanto
siempre se presentan errores al
hacer las mediciones. Los
errores pueden ser
despreciables o significativos
dependiendo de las
circunstancias en que se dé la medición.
Error absoluto
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la
resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida
Error absoluto = valor leído, valor convencionalmente verdadero correspondiente.
Error relativo.
Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica
por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto
puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser
por exceso o por defecto. no tiene unidades.

¿Qué es un error en ingeniería?


Error
Es definido como la diferencia algebraica entre el valor leído o transmitido por el
instrumento y el valor convencionalmente verdadero (tomado de un patrón) de la
variable medida. Si el proceso está en condiciones de régimen permanente
(estado estable) se denomina error estático. En condiciones dinámicas el error
puede cambiar (error dinámico).
Tipos de Error:
 Errores humanos.
 Errores del sistema:  Errores del instrumento, Errores ambientales.
 Errores aleatorios.
 Error de linealidad.
 Error estático (ee).
 Error de escala.
 Desvió puede ser: Desvió del cero, Desvió de span. 
 Histéresis 
Errores humanos: Es aquel en el que NO es posible estimar sus valores
matemáticamente
Pueden ser ocasionados por:
 Equivocación en la lectura.
 Cálculos erróneos.
 Selección inadecuada del instrumento.
 Ajuste incorrecto u olvido de ajuste de cero.
 No tener en cuenta los efectos de carga.
 Métodos de eliminación o reducción
 Atención cuidadosa a los detalles cuando se efectúan mediciones y
cálculos.
 Conciencia de las limitaciones del instrumento.
 Emplear dos o más observadores para tomar datos críticos.
 Tomar al menos tres lecturas para reducir la ocurrencia posible de los
errores grandes.
 Motivación adecuada acerca de la importancia de los resultados correctos.
Errores del sistema
Errores del Instrumento:  se debe a defectos de fabricación del Instrumento
Pueden ser ocasionados por:
o Fricción en cojinetes.
o No linealidad de componentes.
o Errores de calibración.
o Instrumental defectuoso.
o Pérdidas durante la transmisión.

Cómo estimarlos:
1. Comparar con un estándar más exacto.
2. Determinar si es error constante o es proporcional.
3. Métodos de eliminación o reducción
4. Calibración cuidadosa de los instrumentos.
5. Revisión del equipo para asegurar una operación adecuada.
6. Aplicar factores de corrección después de encontrar un error instrumental.
7. Usar más de un método para medir un parámetro.
Errores Ambientales: Se deben a las condiciones externas que afectan la
operación del dispositivo.
 Puede ser ocasionado:
 Cambios en la temperatura.
 Variaciones de humedad y presión.
 Campos eléctricos y magnéticos parásitos.
Cómo estimarlos:
Vigilancia cuidadosa de cambios en las variables.
Métodos de eliminación o reducción
Sellar herméticamente el equipo y los componentes que se estén probando.
Mantener temperatura y humedad constantes mediante el
acondicionamiento de aire.
Resguardar los componentes y el equipo contra campos magnéticos
parásitos (blindaje).
Empleo de equipo que no se afecte mucho por cambios ambientales.
Error Aleatorio: se debe a efectos fortuitos no controlados por el operador del
instrumento de medición.
Las causas principales de errores aleatorios son:
 Rozamientos internos       
 Acción externa combinada
 Errores de apreciación de la indicación
Error de linealidad: Es cuando el resultado de la salida no presenta una línea
recta con respecto al valor de entrada. El error de no linealidad puede
ser corregido durante la calibración si el instrumento tiene un ajuste
de no linealidad.

Es definido como la diferencia algebraica entre el valor leído o transmitido por el


instrumento y el valor convencionalmente verdadero (tomado de un patrón) de la
variable medida. Si el proceso está en condiciones de régimen permanente
(estado estable) se denomina error estático. En condiciones dinámicas el error
puede cambiar (error dinámico).
Tipos de Error:
 Errores humanos.
 Errores del sistema:  Errores del instrumento, Errores ambientales.
 Errores aleatorios.
 Error de linealidad.
 Error estático (ee).
 Error de escala.
 Desvió puede ser: Desvió del cero, Desvió de span. 
 Histéresis
 Errores humanos: Es aquel en el que NO es posible estimar sus valores
matemáticamente
 Pueden ser ocasionados por:
1. Equivocación en la lectura.
2. Cálculos erróneos.
3. Selección inadecuada del instrumento.
4. Ajuste incorrecto u olvido de ajuste de cero.
5. No tener en cuenta los efectos de carga.
Métodos de eliminación o reducción
1. Atención cuidadosa a los detalles cuando se efectúan mediciones y
cálculos.
2. Conciencia de las limitaciones del instrumento.
3. Emplear dos o más observadores para tomar datos críticos.
4. Tomar al menos tres lecturas para reducir la ocurrencia posible de los
errores grandes.
5. Motivación adecuada acerca de la importancia de los resultados correctos.

Errores del sistema:


Errores del Instrumento:  se debe a defectos de fabricación del Instrumento
Pueden ser ocasionados por:
1. Fricción en cojinetes.
2. No linealidad de componentes.
3. Errores de calibración.
4. Instrumental defectuoso.
5. Pérdidas durante la transmisión.
Cómo estimarlos:
1.Comparar con un estándar más exacto.
2.Determinar si es error constante o es proporcional.
Métodos de eliminación o reducción
1. Calibración cuidadosa de los instrumentos.
2. Revisión del equipo para asegurar una operación adecuada.
3. Aplicar factores de corrección después de encontrar un error instrumental.
4. Usar más de un método para medir un parámetro.

Errores Ambientales: Se deben a las condiciones externas que afectan la


operación del dispositivo.
Puede ser ocasionado:
1. Cambios en la temperatura.
2. Variaciones de humedad y presión.
3. Campos eléctricos y magnéticos parásitos.
 Cómo estimarlos:
 Vigilancia cuidadosa de cambios en las variables.
Métodos de eliminación o reducción
1. Sellar herméticamente el equipo y los componentes que se estén probando.
2. Mantener temperatura y humedad constantes mediante el
acondicionamiento de aire.
3. Resguardar los componentes y el equipo contra campos magnéticos
parásitos (blindaje).
4. Empleo de equipo que no se afecte mucho por cambios ambientales.
Error Aleatorio: se debe a efectos fortuitos no controlados por el operador del
instrumento de medición.  
Las causas principales de errores aleatorios son:
1. Rozamientos internos       
2. Acción externa combinada
3. Errores de apreciación de la indicación
Para una medida, VL, el error aleatorio viene dado por la siguiente expresión
CB1: 

Dónde:   VL* es la media de todas las mediciones

Error de linealidad: Es cuando el resultado de la salida no presenta una línea


recta con respecto al valor de entrada. El error de no linealidad puede
ser corregido durante la calibración si el instrumento tiene un ajuste
de no linealidad. Generalmente se recomienda tomar 5 puntos, a continuación, se
muestra un ejemplo (ver figura CB4).
Error estático (ee): viene dado por la siguiente expresión CB2: 

Expresando en porcentaje:

Apreciación: Mínima variación que puede ser leída por un instrumento.

Error de escala: corresponde al mínimo valor que puede discriminar el


instrumento de medida, se represente mediante la siguiente expresión CB5:
Desvío: Es una variación en la señal de salida que se presenta en un período de
tiempo determinado mientras se mantienen constantes la variable medida y todas
las condiciones (magnitudes de influencia) tomada en un intervalo de tiempo (1
mes, 1 año, otros)

También podría gustarte