Está en la página 1de 12

Mediciones y Ensayos Industriales I -1

I - MEDIDAS Y ERRORES
I-1 Magnitudes y patrones:

Magnitud es todo lo que se puede medir. Medir significa comparar.

Cuando medimos cualquier magnitud como, por ejemplo, una longitud o la intensidad de
una corriente eléctrica, en realidad estamos comparando esa magnitud con alguna otra, que
consideramos arbitrariamente como patrón. Al determinar una masa desconocida en la balanza, lo
que hacemos es comparar esa masa con masas patrones (las "pesas" de la balanza). Estas pesas, a
su vez, han sido comparadas (o calibradas) con algún patrón secundario. Al seguir la cadena de
comparaciones se llega hasta la comparación con el kilogramo patrón, patrón universal de masa que
se conserva en la Oficina Internacional de Pesas y Medidas en Sèvres, cerca de París, adoptado
mediante convenios internacionales.
La unidad de masa métrica se definió como la masa de un decímetro cúbico de agua a una
temperatura de máxima densidad. La representación material de esta unidad es el Kilogramo.
La libra (lb), establecida por la Weights and Measures Act, de 1963, se define como .45359237 kg
exactamente.
La unidad métrica de longitud, el metro, se definió como la 1/104 parte del cuadrante
meridiano que pasa a través de París.
La yarda se define como .9144 metros y una pulgada es 25.4 mm, ya que los patrones de
unidades inglesas para medición se basan en patrones métricos.
La unidad de volumen es una cantidad derivada y no se representa por medio de un patrón
internacional.
Existen patrones para otras magnitudes, denominadas fundamentales, tales como el tiempo,
la longitud y la temperatura. Diferentes sistemas de unidades reconocen diferentes magnitudes
fundamentales. El Sistema Internacional de Unidades, vigente en la mayoría de los países, considera
sólo siete magnitudes fundamentales, a partir de las cuales se pueden derivar todas las restantes
magnitudes. Las magnitudes fundamentales del Sistema Internacional de Unidades aparecen en la
tabla siguiente:

MAGNITUD PATRON SIMBOLO

longitud metro m
masa kilogramo kg
tiempo segundo s
temperatura Kelvin K
cantidad de sustancia mol mol
intensidad de la corriente Ampere A
intensidad de la luz bujía o candela b - cd

Un patrón de medición es, entonces, una representación física de una unidad de medición.
Una unidad se realiza con referencia a un patrón físico arbitrario o a un fenómeno natural que
incluye constantes físicas y atómicas. Además de unidades fundamentales y derivadas de medición,
hay diferentes tipos de patrones de medición, clasificados por su función y aplicación en las
siguientes categorías:
a) patrones internacionales
b) patrones primarios
c) patrones secundarios
d) patrones de trabajo
Mediciones y Ensayos Industriales I -2

Los patrones internacionales se definen por acuerdos internacionales. Representan ciertas


unidades de medida con la mayor exactitud que permite la tecnología de producción y medición.
Los patrones internacionales se evalúan y verifican periódicamente con mediciones absolutas en
términos de unidades fundamentales.
Los patrones primarios (básicos) se encuentran en los laboratorios de patrones nacionales en
diferentes partes del mundo. Los patrones primarios representan unidades fundamentales y algunas
de las unidades mecánicas y eléctricas derivadas, se calibran independientemente por medio de
mediciones absolutas en cada uno de los laboratorios nacionales.
Los patrones secundarios son los patrones básicos de referencia que se usan en los
laboratorios industriales de medición. Estos patrones se conservan en la industria particular
interesada y se verifican localmente con otros patrones de referencia en el área. La responsabilidad
del mantenimiento y calibración de los patrones secundarios depende del laboratorio industrial.
Los patrones de trabajo son las herramientas principales en un laboratorio de mediciones.
Se utilizan para verificar y calibrar la exactitud y comportamiento de las mediciones efectuadas en
las aplicaciones industriales.

I-2 Errores de medición

Antes de realizar una medición con un grupo de instrumentos dados, es importante


determinar qué tipos de errores pueden presentarse, para saber si se está dentro de nuestros
requerimientos de exactitud.
El estudio a fondo de la teoría de errores excede los alcances de este artículo y por lo tanto
no se efectuará. Si bien no es fácil realizar una clasificación estricta, en los párrafos siguientes se
presentará la clasificación clásica de los errores.
Según la misma, los errores se pueden clasificar en errores groseros, errores sistemáticos y
errores aleatorios (al azar).

I-2-1 Errores groseros


Consisten en equivocaciones en las lecturas y registros de los datos. En general se originan
en la fatiga del observador, en el error al transcribir los valores medidos a las planillas de los
protocolos de ensayos, a la desconexión fortuita de alguna parte del circuito de medición, etcétera.
Estos errores se caracterizan por su gran magnitud, y pueden detectarse fácilmente al comparar
varias mediciones de la misma magnitud. Por ello se aconseja siempre realizar al menos 3 (tres)
mediciones repetidas.

I-2-2 Errores sistemáticos


Se llaman así porque se repiten sistemáticamente en el mismo valor y sentido en todas las
mediciones que se efectúan en iguales condiciones.
Las causas de estos errores están perfectamente determinadas y pueden ser corregidas
mediante ecuaciones matemáticas que eliminen el error. En algunos casos pueden emplearse
distintos artificios que hacen que la perturbación se autoelimine.
En virtud de las causas que originan este tipo de error, es conveniente realizar una subdivisión de
los errores sistemáticos:

2-A - Errores que introducen los instrumentos o errores de ajuste.


2-B - Errores debidos a la conexión de los instrumentos o errores de método.
2-C - Errores por causas externas o errores por efecto de las magnitudes de influencia.
2-D - Errores por la modalidad del observador o ecuación personal.

A continuación se analizarán cada uno de ellos:


Mediciones y Ensayos Industriales I -3

2-A Errores de ajuste:


Estos errores son debidos a las imperfecciones en el diseño y construcción de los
instrumentos. Mediante la calibración durante la construcción, se logra que para determinadas
lecturas se haga coincidir las indicaciones del instrumento con valores obtenidos con un
instrumento patrón local.
Sin embargo, por limitaciones técnicas y económicas, no se efectúa ese proceso en todas las
divisiones de la escala. Esto origina ciertos desajustes en algunos valores de la escala, que se
mantienen constantes a lo largo del tiempo.
Estos errores repetitivos pueden ser medidos en módulo y signo a través del contraste, que
es un ensayo consistente en comparar simultáneamente la indicación del instrumento con la
indicación de un instrumento patrón de la más alta calidad metrológica (cuya indicación representa
el valor verdadero convencional). O midiendo la misma magnitud con instrumentos diferentes.
Un error típico es el corrimiento del cero del instrumento, denominado error de entrada: el
instrumento no marca cero cuando la magnitud medida es nula. Ese valor ficticio se añadirá o
restará posteriormente al de la magnitud medida, introduciendo un error que puede ser significativo.
El error de entrada se puede eliminar ajustando correctamente el cero del instrumento antes de
efectuar la medición.

2-B Errores de método:


Los errores de método se originan en el principio de funcionamiento de los instrumentos de
medición. Hay que considerar que el hecho de conectar un instrumento en un circuito, siempre
origina algún tipo de perturbación en el mismo. Por ejemplo, en los instrumentos analógicos
aparecen los errores de consumo, fase, etcétera.
Para corregir estos errores deben determinarse las características eléctricas de los
instrumentos (resistencia, inductancia y capacidad). En algunos casos es posible el uso de sistemas
de compensación, de forma tal de autoeliminar el efecto perturbador. Por ejemplo, en el caso de
medidores eléctricos compensados, que poseen un arrollamiento auxiliar que contrarresta la
medición del consumo propio.

2-C Errores por efecto de las magnitudes de influencia:


El medio externo en que se instala un instrumento influye en el resultado de la medición.
Una causa perturbadora muy común es la temperatura, y en mucha menor medida, la humedad y la
presión atmosférica.
La forma de eliminar estos errores es mediante el uso de las ecuaciones físicas
correspondientes, que en los instrumentos de precisión, vienen indicadas en la chapa que contiene la
escala del mismo.
En algunos casos, los instrumentos disponen de artificios constructivos que compensan la
acción del medio externo. Por ejemplo, la instalación de resortes arrollados en sentidos contrarios,
de manera que la dilatación térmica de uno de ellos se contrarresta por la acción opuesta del otro.
Por otra parte, la mejora tecnológica de las aleaciones utilizadas ha reducido mucho los efectos
debidos a la acción de la temperatura ambiente.
Un error bastante común, donde la causa perturbadora es la temperatura, se relaciona con el
uso de los termómetros de mercurio y alcohol. Los termómetros ordinarios de laboratorio vienen
calibrados para inmersión total. Para que midan correctamente se deben introducir completamente
en el sistema cuya temperatura se desea medir y esperar hasta que se alcance el equilibrio. No
obstante, es posible utilizarlos con buena aproximación en inmersión parcial, pero en ese caso hay
que añadir a la lectura To que marca el termómetro la fracción

δT = 0,00016 . ∆T . (∆L)
Mediciones y Ensayos Industriales I -4

donde L es la longitud de la columna de mercurio o alcohol que sobresale del sistema, expresada
en unidades de la escala del termómetro, y T = T2 - T1 la diferencia entre la temperatura T2 leída
en la escala y la temperatura T1 del cuerpo del termómetro, medida con otro termómetro en el punto
medio de la parte que sobresale. El no llevar a cabo esta corrección puede conducir a un error
sistemático de varios grados, tanto mayor cuanto mayor sea la parte del termómetro que queda fuera
del sistema objeto de medición.

2-D Errores por la modalidad del observador:


Cada observador tiene una forma característica de apreciar los fenómenos, y en particular,
de efectuar lecturas en las mediciones. Lo curioso que nos muestra la experiencia, es que cada
observador repite su modalidad en forma sistemática. De allí que se denomine a esta característica
ecuación personal.
Por ejemplo, al medir tiempos un determinado observador registra los mismos con adelanto
o retraso con respecto a otro observador.

I-2-3 Errores aleatorios:


Es un hecho conocido que al repetir una medición utilizando el mismo proceso de medición
(el mismo instrumento, operador, excitación, método, etc.) no se logra el mismo resultado.
En este caso, los errores sistemáticos se mantienen constantes, y las diferencias obtenidas se
deben a efectos fortuitos, denominados errores aleatorios (mal llamados accidentales).
Por ello, una característica general de los errores aleatorios es que no se repiten siempre en el
mismo valor y sentido.
En virtud de las causas que originan este tipo de error, es conveniente realizar una
subdivisión de los errores aleatorios:

3-A - Rozamientos internos.


3-B - Acción externa combinada.
3-C - Errores de apreciación de la indicación.
3-D - Errores de truncamiento.

A continuación se analizarán cada uno de ellos:

3-A Rozamientos internos:


En los instrumentos analógicos se produce una falta de repetitibilidad en la respuesta, debido
fundamentalmente a rozamientos internos en el sistema móvil. Asimismo, los falsos contactos
también dan lugar a la aparición de este tipo de error.

3-B Acción externa combinada:


Muchas veces la compleja superposición de los efectos de las distintas magnitudes de
influencia no permiten el conocimiento exacto de la ley matemática de variación del conjunto, por
ser de difícil separación. De esta manera, no puede predecirse el error ni realizarse las correcciones
debidas, convirtiéndose en un error aleatorio.

3-C Errores de apreciación de la indicación:


En muchas mediciones, el resultado se obtiene por la observación de un índice (o aguja) en
una escala, originándose así errores de apreciación. Estos a su vez tienen dos causas diferentes que
pasamos a explicar:
Mediciones y Ensayos Industriales I -5

3-C-1 Error de paralaje:


Se origina en la falta de perpendicularidad entre el rayo visual del observador y la escala
respectiva. Esta incertidumbre se puede reducir con la colocación de un espejo en la parte posterior
del índice. Así la perpendicularidad del rayo visual se logrará cuando el observador no vea la
imagen del mismo en el espejo.

3-C-2 Error del límite separador del ojo:


El ojo humano normal puede discriminar entre dos posiciones separadas a más de 0,1 mm,
cuando se observa desde una distancia de 300 mm. Por lo tanto, si dos puntos están separados a
menos de esa distancia no podrá distinguirlos.
La magnitud de este error es típicamente subjetiva, pues hay personas que tienen una visión
mejor o peor que la normal.
Para disminuir este tipo de error se puede recurrir al uso de lentes de aumento en las
lecturas.

3-D Errores de truncamiento:


En los instrumentos provistos con una indicación digital, la representación de la magnitud
medida está limitada a un número reducido de dígitos.
Por lo tanto, en tales instrumentos no pueden apreciarse unidades menores que la del último dígito
del visor (o display), lo que da lugar a un error por el truncamiento de los valores no representados.
La magnitud máxima de este tipo de error dependerá del tipo de redondeo que tenga el instrumento
digital, siendo el 50 % del valor del último dígito representado para el caso de redondeo simétrico y
el 100 % para el caso del redondeo asimétrico.

I-3 Instrumentos:

Todo objeto, equipo o aparato que pueda ser utilizado para efectuar una medición es un
instrumento de medición. Puede ser algo tan sencillo como una regla graduada, que permite medir
distancias del orden de 1 milímetro, hasta algo tan complejo como un difractómetro de rayos X, que
puede utilizarse para medir distancias del orden de 1 Angstrom (10-10m).
Con independencia de su complejidad y del tipo de magnitud que mida, cualquier
instrumento se caracteriza por poseer alguna escala graduada (digital, de aguja, de cursor
deslizante) que permite establecer la proporcionalidad entre la magnitud que deseamos medir y el
correspondiente patrón.
El instrumento será más sensible o preciso en la medida que su escala sea capaz de detectar
variaciones cada vez más pequeñas de la magnitud medida. El instrumento será más o menos
exacto según sus valores estén en mayor o menor correspondencia con los establecidos por el patrón
correspondiente.
Un instrumento puede ser muy sensible y a la vez poco exacto, al no estar su escala
calibrada correctamente con relación al patrón.
Mediciones y Ensayos Industriales I -6

La falta de exactitud en una medición se relaciona a los errores sistemáticos.


La precisión de un instrumento usualmente se asocia al valor de la menor división de su
escala. Así, una regla graduada en milímetros es más precisa que otra graduada en centímetros, y
reduciendo el tamaño de la menor división de la escala tendremos instrumentos cada vez más
precisos. Sin embargo, este proceso no puede continuar indefinidamente, y el hecho de que la
menor división de la escala tiene que ser necesariamente una magnitud finita, conduce al concepto
de error de apreciación. En principio, se entiende por apreciación de un instrumento el valor de la
menor división de su escala.
Además del error sistemático y del error de apreciación existe otro tipo de error, causado
esencialmente por el operador que realiza la medición al interaccionar con el instrumento, el cual es
incapaz de controlar todos los factores que pueden afectar el resultado de la medición (variaciones
locales de temperatura, corrientes de aire, errores visuales, ubicación imperfecta del instrumento,
fluctuaciones de voltaje en la línea, presencia de campos magnéticos). Estos errores se denominan
errores accidentales,

I-4 Error absoluto, relativo y porcentual de una medición:

En general los resultados de las mediciones no son exactos. Por más cuidado que se tenga en
todo el proceso de la medición, es imposible expresar el resultado de la misma como exacto. Aún
los patrones tienen error. El error absoluto es un índice del resultado de la contribución de todos los
errores de medición presentes; sistemáticos, de apreciación y accidentales. Considere la medición
de una magnitud M cualquiera, causa de la presencia de los errores de medición, sólo es posible
aseverar que el valor de esa magnitud se encuentra en un cierto intervalo (A1, A2).

Otra forma de representar esta situación es tomar el valor medio del intervalo (A1, A2) como
𝐴 +𝐴
valor más probable 𝐴 = 1 2 2 , y la mitad de ese intervalo como una medida del error cometido en
𝐴2 − 𝐴1
la medición 𝛿𝐴 = . Entonces, el valor medido de la magnitud M se designa como
2
M = A  A

donde A se denomina error absoluto de la medición.


Ejemplo: L = 2.54  0.02 m significa que tenemos certeza de que la longitud medida se encuentra
entre 2.52 y 2.56 m (y ésto es todo lo que podemos afirmar respecto a la magnitud medida).
Cuando una magnitud se mide directamente con un instrumento bien calibrado y sin errores
accidentales, se acostumbra asignar al error absoluto el valor de la apreciación del instrumento.
Con más precisión se llama error absoluto (Ea) a la diferencia entre el valor medido (Vm) y el valor
verdadero (Vv) de la respectiva magnitud:

Ea= Vm – Vv

El valor verdadero es casi imposible de conocer. En la práctica puede tomarse como tal al hallado a
través de un muestreo estadístico de un gran número de mediciones, que se adopta como valor
verdadero convencional (Vvc), y el error correspondiente es el error absoluto convencional (Eac):

Eac= Vm – Vvc

De las fórmulas anteriores se desprende que el error absoluto será positivo cuando se mida en
exceso y negativo cuando se lo haga en defecto.
Mediciones y Ensayos Industriales I -7

De aquí en más, por simplicidad, tomaremos como valor verdadero al valor verdadero
convencional.
El concepto de error absoluto no nos da una idea clara de la bondad de la medición
efectuada. Por ejemplo, es muy distinto cometer un error de 10 V al medir 13200 V, que al medir
220 V.
La medición de laboratorio depende de varios elementos concurrentes:
 el objeto, lo que se mide.
 el procedimiento de medida
 el instrumental utilizado
 el observador
 otros factores del medio (laboratorio)
La cantidad medida a causa de la influencia de estos factores, sufre fluctuaciones.
Queremos obtener el “valor verdadero” de la medición, vemos que esta pretensión carece de
sentido. Decimos entonces que encontramos el “valor representativo” o “valor más probable”.
“A0”
También debemos dar una indicación del intervalo de incertezas o límites de los posibles
errores de medición. Para ello indicamos el valor representativo seguido del valor del radio del
intervalo que incluye a todas las incertezas experimentales.
Por ejemplo: para la medición del ancho de la hoja A4 el intervalo resultó ser [209; 211] mm
entonces lo expresaremos (210  1) mm.
La cifra 1 es el radio del intervalo de incertezas y se la denomina incerteza o error
absoluto. “A” se expresa en las dimensiones de la magnitud correspondiente.
Si queremos saber cuán significativa es la incerteza frente al valor representativo que se ha medido,
podemos definir incerteza o error relativo. “A”.
error absoluto 𝛅𝐀
Error relativo = valor repres entativo => 𝛆𝐀 = 𝐀
𝟎
El error relativo se suele expresar en términos porcentuales, y siempre es adimensional:

𝛅𝐀
𝛆𝐀% = . 𝟏𝟎𝟎
𝐀𝟎

El error relativo representa la fracción de imprecisión cometida en la medición, y resulta útil


para comparar mediciones llevadas a cabo sobre diferentes magnitudes. Por ejemplo, usualmente un
error porcentual del 1% (equivale a medir 100 m con un error de 1 m) es un error aceptable para
mediciones que no requieran gran precisión. Si se desea disminuir este valor, será necesario hacer
un esfuerzo mayor para lograr el resultado, y el esfuerzo será cada vez mayor mientras menor sea el
error deseado. Los valores más comunes del error porcentual en el laboratorio pueden oscilar entre
0.1 y 5%.

I-5 Cifras significativas:

De acuerdo a las consideraciones anteriores sobre el error absoluto, se concluye


inmediatamente que carece de sentido escribir mas cifras después del punto decimal que las
estrictamente necesarias para indicar el valor de una magnitud. Por ejemplo, si se midió una
densidad con un error de 0.0032 g/cm3, no tiene sentido escribir más allá de 3 ó 4 cifras después del
punto decimal:

= 0.987643 (incorrecto)


= 0.9876 (correcto)

En el primer caso, las dos últimas cifras (43) sobran, pues el resultado de la medición sólo permite
afirmar que el valor de la densidad se encuentra en el intervalo
Mediciones y Ensayos Industriales I -8

 = 0.9876  0.0032

es decir, que su valor real se encuentra entre 0.9843 y 0.9907.

Excepto en el caso de mediciones de alta precisión, se acepta comúnmente utilizar una sola
cifra significativa para el error absoluto, redondeando por aproximación. Igualmente se aproxima el
valor de la magnitud medida.
En nuestro ejemplo, 0.0032 >> 0.03 y el valor a reportar será
 = 0.988  0.003
En los libros de texto muchas veces se omite este tipo de notación, y el error absoluto se indica
solamente especificando el número de cifras significativas con que se expresa la magnitud. Es decir,
si se reporta una densidad con el valor de  = 0.98, se sobreentiende que la misma se midió con un
error absoluto no mayor de 0.01. Sin embargo, si se reporta el valor 0.980, esto indica que el error
fue 10 veces menor, (0.001).

I-6 Reducción del error accidental:

Supongamos que tenemos un instrumento de medición con muy buena apreciación, pero que
diversos factores externos (errores accidentales) alteran las lecturas en un valor superior al de la
menor división de su escala. Entonces, al repetir una medición, obtendremos diferentes valores de
la magnitud medida, con una dispersión superior a la indicada por la menor división de la escala.
¿Que valor se debe asignar entonces a la magnitud medida?

Sean x1, x2, x3,.... xN los valores obtenidos al realizar N mediciones sucesivas de la magnitud
x, todos ellos diferentes, (aunque pudiera haber valores repetidos). Es posible demostrar que el
"mejor valor", que más se acerca al verdadero valor de x, viene dado por el promedio aritmético de
los N valores,
N
1
X= . Xi
N
i=1
y que el error absoluto asociado a este valor promedio viene dado por la expresión
σ
δX =
N
donde  es la desviación típica o desviación standard del conjunto de N valores,

N
1
σ= . (X − Xi )2
N−1
i=1

La desviación típica representa la probabilidad de que, al realizar una nueva medición, el


valor medido se encuentre dentro del intervalo x   el 68% de las veces. La probabilidad aumenta
al 95% para el intervalo x  2 . De la misma forma, el error absoluto x expresa que el valor de la
magnitud medida se encuentra en el intervalo x  x con un 68% de probabilidad.
Si N es suficientemente grande, el valor de s se hace independiente de N, y el error absoluto
decrece cuando N aumenta. De aquí que llevando a cabo un número suficiente de mediciones es
posible reducir el error accidental a valores despreciables, y disminuir el error absoluto hasta el
límite impuesto por el error de apreciación, pero nunca mas allá. Es decir, aplicando los criterios
Mediciones y Ensayos Industriales I -9

estadísticos es posible eliminar totalmente los errores accidentales, pero el error de apreciación
permanecerá inalterable y deberá ser añadido al error absoluto. Los criterios estadísticos tampoco
tienen efecto alguno sobre los errores sistemáticos.

I-7 Propagación del error:

Considere el caso de una medición indirecta, donde el valor deseado de la magnitud no se


obtiene directamente a partir de algún instrumento, sino que se evalúa a través de una fórmula o
expresión analítica. Por ejemplo, el volumen de un cilindro se expresa por la relación
D 2
V=π. .h
2
donde D es el diámetro del cilindro y h su altura. Si el diámetro se midió con un error absoluto D y
la altura con un error h, ¿qué valor habrá que asignar al valor de V calculado?

Para calcular V, consideremos los errores D y h como si fueran incrementos


diferenciales dD y dh de la función volumen V = V(D,h). ¿Cuánto varía V cuando D y h varían en
un dD y un dh respectivamente? La respuesta la da el cálculo diferencial. El volumen V varía en un
diferencial dV que viene dado por
∂V ∂V
dV = dD + dh
∂D h ∂h V
En este caso particular, al calcular las derivadas parciales se obtiene
π
dV = 2Dh dD + |D|dh
2
donde se introduce el valor absoluto de cada derivada para garantizar que, de todas las posibles
combinaciones de signos en 2Dh D y D h, se tome el mayor valor. Esto garantiza que el valor
calculado Vo se encuentra efectivamente en el intervalo (Vo+dV; Vo-dV) . En este caso dV = V se
denomina error absoluto máximo. El resultado anterior se generaliza inmediatamente cuando hay
más de dos variables involucradas en el cálculo del error.

Un análisis más profundo del problema, que considera una función arbitraria F = F(x,y,z) y
toma en cuenta la probabilidad de que los errores por exceso de una magnitud puedan cancelar los
errores por defecto de otra, debido a la diferencia casual de signos, conduce al concepto de error
absoluto probable. El error absoluto probable siempre resulta ser algo menor que el error absoluto
máximo, y se calcula por la expresión
2 2 2
∂F ∂F ∂F
δF = δx 2 + δy 2 + δz 2
∂x ∂y ∂z
Mediciones y Ensayos Industriales I - 10

I-8 Definición de algunos conceptos relacionados con la medición industrial:

- Campo de medida o rango: Es el espectro o conjunto de valores de la magnitud o variable


medida dentro de los límites superior e inferior de la capacidad de medida del instrumento.

- Alcance: es la diferencia algebraica entre los valores superior e inferior del campo de medida.

- F.S.O. (“Full Scale Output”): corresponde al valor de fondo de escala, y es la diferencia entre
las tensiones de salida del instrumento, correspondientes a los valores límites del campo de
medición.

- Error: es la diferencia algebraica entre el valor leído o trasmitido por el instrumento y el valor
real de la variable medida.

- Constante de proporcionalidad: es la relación que existe entre el valor de salida y el


correspondiente valor de la magnitud de entrada.

- Linealidad: es la aproximación de la curva de calibración a una recta especificada.

- Error de linealidad: es el desplazamiento de la constante de proporcionalidad entre el valor de


entrada y el de salida. Éste se expresa en porcentaje del valor máximo de salida.

- Precisión: se conoce también como tolerancia de la medición, y corresponde al margen


máximo entre el valor medido y el real; se expresa en porcentaje del valor del fondo de escala.
Define los límites de los errores cuando el instrumento se emplea en condiciones normales.

- Resolución: es la magnitud de los cambios de la señal al ir variando la medida a lo largo del


campo de medición.

- Zona muerta: es el campo de valores de la variable que no hace variar la indicación o la señal
del instrumento.

- Velocidad de respuesta: corresponde a la rapidez con la que la magnitud de salida responde a


las variaciones de la magnitud de entrada.

- Estabilidad: es la capacidad que tiene un instrumento de mantener un mismo comportamiento


(constancia de la relación entrada-salida) para todas las condiciones de funcionamiento, durante
toda la vida útil del instrumento.

- Sensibilidad: Es la relación entre el incremento de recorrido del índice o aguja y el


consiguiente incremento de la magnitud a medir, o bien, el valor mínimo en que se tiene que
modificar la variable para apreciar un cambio en el instrumento.

- Repetitividad: es el margen de tolerancia que abarca los valores de la misma medición.


Normalmente se expresa en fracciones de la precisión. Dicho en otros términos, la capacidad del
instrumento de reproducir las mismas posiciones de la aguja o dial al medir valores idénticos de
la variable en las condiciones de servicio.

- Fiabilidad: es la capacidad del instrumento para seguir midiendo los mismos valores en las
mismas condiciones con el paso del tiempo.
Mediciones y Ensayos Industriales I - 11

- Histéresis: es la diferencia máxima que se observa en los valores medidos de la variable,


cuando el índice recorre la escala en ambos sentidos.

Un aspecto importante es la determinación de la linealidad de los instrumentos, la cual se


determina en forma porcentual.
El procedimiento de determinación de la linealidad se ilustra a continuación:
Para trazar la curva característica entrada-salida de los instrumentos se efectúan una serie de
mediciones para determinar los valores de salida correspondientes a los distintos valores de la
magnitud física de entrada. Para eso se construye un gráfico de coordenadas donde se ubicarán los
puntos correspondientes a los datos medidos. Luego se trazará la recta que más se aproxime a
dichos puntos. Esta curva se denomina recta optimal.
Luego se trazan dos rectas equidistantes de la recta optimal (y paralelas a ésta) de manera que
abarquen todos los puntos del diagrama.

Después, trazar una recta paralela al eje de las ordenadas, indicando por V1 y V2 los puntos
de intersección entre dicha recta y las dos paralelas. Esta situación se ilustra en la siguiente figura:

SALI DA

RECTA OPTIMAL

V2

V1

0
MAGNITUD FISICA

De acuerdo a lo anterior, la linealidad puede ser expresada como:

1 |V2 − V1|
Lin. % = ± . . 100
2 Valor F. S. O

Donde el valor F.S.O corresponde al valor de fondo de escala, es decir la diferencia entre las
tensiones de salida correspondientes a los valores límites del campo de medición.
Mediciones y Ensayos Industriales I - 12

I-9 Ejercitación y preguntas de control:

1. Enumere los tipos o clases de error que Ud. conoce


2. ¿Cuáles son las principales características del error de apreciación?
3. ¿Cuál es el origen de los errores accidentales?
4. ¿Cuándo es precisa una medición? ¿Cuándo es exacta?
Si al adquirir un instrumento de medida nos garantizan que es exacto, puede afirmar que el
instrumento es preciso?. Si nos garantizan que es preciso, puede afirmar que es exacto?.
Fundamente sus respuestas
5. Diga que factores contribuyen al error sistemático
6. ¿Que diferencia hay entre equivocación y error de medición?
7. ¿Qué tipos de error incluye el error absoluto? ¿Cuál es el significado de este concepto?
8. ¿Qué significado tiene el error porcentual?
9. ¿Cómo se calcula la desviación típica? ¿Cuál es su significado?
10. De los tipos de errores que Ud. conoce, diga cuales pueden eliminarse y cuales no, y de que
forma.
11. Explique en que consiste la propagación del error
12. ¿Cómo puede expresarse la linealidad de un instrumento?
13. Diga cual es el criterio a seguir para expresar el resultado numérico de una medición a)
expresando el error absoluto en forma explícita, b) sin expresar el error absoluto en forma
explícita.
14. La medida del espesor de una hoja de papel es 1,25 ± 0,02 mm. a) explique el significado de
cada uno de los términos de la expresión; b) cual son los errores relativo y porcentual
cometidos.
15. Expresar correctamente los siguientes resultados de medidas y calcular los errores relativos
de cada una de ellas:
3,1678 ± 0,127
4529 ± 321
35,817 ± 0,2401
7 ± 0,0055
16. Se mide 10 veces la temperatura de un líquido contenido en un recipiente. Las
determinaciones en º C son: 44,6; 44,1; 44,3; 44,7; 44,9; 45,0; 45,1; 44,2; 44,4; 44,8. Hallar
el valor más probable y el grado de tolerancia.

BIBLIOGRAFIA

Errores y mediciones, Ed. Científico Técnica,1983


A. GONZALES ARIAS, Mediciones y errores en el laboratorio. http://www.geocities.
com/fisgeo2000/laboratorio/mediciones.doc
D. C. BAIRD, Experimentación, Prentice Hall, Mexico, 1991.
J. A. BALSEIRO, Mediciones Físicas, Hachette, 1956

También podría gustarte