Está en la página 1de 16

La metrología como ciencia

Metrología: Es la ciencia de las mediciones. Deriva del griego “metrón”


medida y “logos” lógica. Sus elementos clave son:

 El establecimiento de estándares de medición que sean


internacionalmente aceptados y definidos
 El uso de equipo de medición para correlacionar la extensión que los
datos del producto y proceso están conforme a especificaciones
 La calibración regular de equipos de medición, rastreables a
estándares internacionales establecidos

“La Metrología es la ciencia de la medida”. Las medidas y la metrología son


esenciales y prácticamente para todas las facetas del desarrollo del hombre
debido a que son utilizadas en actividades que van desde el control de la
producción, la medida de la calidad del medio ambiente, la evaluación de la
salud, seguridad y los ensayos relativos a la calidad de los materiales,
alimentos y otros productos, hasta la garantía de un comercio justo y la
protección de los consumidores.

La metrología tiene varios campos: metrología legal, metrología industrial y


metrología científica son divisiones que se ha aceptado en el mundo
encargadas en cubrir todos los aspectos técnicos y prácticos de las
mediciones.
1.2 Importancia y necesidades de las mediciones

La metrología es decisiva en el comercio internacional debido a que


proporciona los medios técnicos necesarios para asegurar medidas
correctas, mediante la implementación de un sistema armonizado de
medición compuesto por el Sistema Internacional de Unidades (SI), la
exactitud de los instrumentos de medidas cumpliendo con normas
internacionales (como las recomendaciones de la OIML) y los métodos y
procedimientos validados: la medición entra en prácticamente todas las
operaciones comerciantes, desde el comercio del producto a granel (como
los minerales, el petróleo y el gas natural) hasta la venta minorista de
productos al público en el mercado.

La realidad es que existen sin fin de ejemplo que podremos citar y los
cuales demuestran la importancia que tiene la metrología, alguno de ellos
son los siguientes:

1. El precio de los productos comercializados se deriva de la cantidad que


está involucrada en ellos, la cual normalmente se determina por medición.
Los precios correctos obviamente dependerán de mediciones correctas.
Para lograr estas mediciones es necesario verificar y calibrar los
instrumentos de medidas. En ambos casos, el comportamiento de un equipo
de medida se compara con el de instrumento de medida con mayor
exactitud, conocido como patrón de medida.

2. La tarea de asegurar la verificación de instrumentos de medida y la


vigilancia de su uso en el comercio recae en los Servicios Nacionales de
Metrología.

3. Además de la cantidad, la calidad de los productos y su conformidad con


las normas son conceptos esenciales en el comercio internacional. El control
de la calidad y la conformidad requiere de muchos casos mediciones los
resultados de las medidas deben ser indudable si se espera confianza en los
resultados del ensayo y en la aceptación de los certificados. Los laboratorios
de calibración debe cerciorarse de que sus mediciones y el equipo de
ensayo son debidamente calibrados. La mayoría de los
procesos de producción modernos se caracterizan por el ensamblaje de la
mayoría de sus partes y componentes comprados en el mercado
internacional. Esto implica de manera directa la aplicación de sistemas de
medida uniformes, fiables que garanticen el intercambio de las dimensiones
mecánicas y la compatibilidad de las especificaciones eléctricas.
Por tal motivo es tarea de los institutos nacionales de metrología mantener
los patrones nacionales de manera que el equipo de medición pueda
referirse a estos patrones.
La instrumentación es una de las llaves de la tecnología que esta envuelta
en toda manufactura industrializada. Hoy en día es inimaginable la industria
moderna sin una compleja interacción de numerosos sistemas envueltos por
diferentes instrumentos de medición.
Pero el conocimiento y entendimiento del funcionamiento de estos
instrumentos no basta para obtener la calidad total de nuestro producto,
existe la necesidad de realizar mediciones adecuadas para poder controlar
y/o corregir nuestro producto final. La medición es la herramienta que
usamos para obtener la información proporcionada por los instrumentos,
que nos proveen los datos del comportamiento de nuestros sistemas para
poder tomar decisiones. Pero, ¿que serian de estas mediciones sin la
metrología?. La metrología, es la ciencia que estudia las mediciones y en la
cual se incluyen todos los aspectos teóricos y prácticos de estas, que nos
ayudan a describir numéricamente el comportamiento del sistema.

El costo de producción de trabajo, es uno de los elementos más importantes


en la estructura de los costos de producción para una empresa bajo
condiciones de competencia perfecta.

Toda empresa debe organizar de algún modo el proceso productivo para


resolver adecuadamente los problemas económicos fundamentales.

Desafortunamente algunas veces solo consideramos el mantenimiento


preventivo y correctivo del instrumento como parte fundamental en el
proceso, olvidamos analizar los factores metrológicos que pueden existir en
el sistema, por ejemplo los factores ambientales, humanos, calibraciones,
fuentes de errores dinámicos y estáticos en los equipos, la confirmación
metrológica, métodos de medición adecuados, etc., pudiéramos mencionar
un sin número de efectos que pudieran provocar cambios en el producto
final. Si la metrología fuera considerada como parte importante de nuestros
procesos de producción, los costos de producción algunas veces pudieran
reducirse y no optar por la compra de equipo que algunas veces son
innecesarios.
1.3 Sistema de unidades y patrones

El Sistema Internacional de Unidades (SI)


El Sistema Internacional de Unidades (SI) tiene su origen en el
sistema métrico, sistema de medición adoptado con la firma de la
Convención del Metro en 1875.
Para 1960, la Conferencia General de Pesos y medidas (C.G.P.M)
como autoridad suprema para la época adoptó el nombre de Sistema
Internacional de Unidades (SI). El SI está hoy en día en uso en más de
100 países. Está formado por siete unidades básicas y varias
unidades derivadas. Las unidades básicas son:
• El metro (m) para la magnitud longitud
• El kilogramo (kg) para la magnitud masa
• El segundo (s) para la magnitud tiempo
• El amperio (A) para la corriente eléctrica
• El Kelvin (k) para la temperatura termodinámica
• El mol (mol) para la cantidad de sustancia
• La candela (cd) para la intensidad luminosa.
A partir de este conjunto coherente de unidades de medición se
establecen otras unidades derivadas, mediante las cuales se miden
muy diversas magnitudes tales como velocidad, aceleración, fuerza,
presión, energía, tensión y resistencia eléctrica, entre otras.

¿Qué es un patrón de medida?


Un patrón puede ser un instrumento de medida, una medida
materializada, un material de referencia o un sistema de medida
destinado a definir, realizar o reproducir una unidad o varios valores
de magnitud, para que sirvan de referencia.
Por ejemplo, la unidad de magnitud "masa", en su forma
materializada, es un cilindro de metal de 1kg, y un bloque calibrador
representa ciertos valores de magnitud "longitud".
La jerarquía de los patrones comienza desde el patrón internacional
en el vértice y va descendiendo hasta el patrón de trabajo. Las
definiciones de estos términos, según se citan en el Vocabulario
Internacional de Términos Básicos y generales en Metrología se
indican a continuación:
• Patrón Primario.

Patrón que es designado o ampliamente reconocido como poseedor


de las más altas cualidades metrológicas y cuyo valor se acepta sin
referirse a otros patrones de la misma magnitud.

• Patrón Nacional

Patrón reconocido por la legislación nacional para servir de base, en


un país, en la asignación de valores a otros patrones de la magnitud
afectada.
• Patrón Internacional

Patrón reconocido por un acuerdo internacional para servir de base


internacionalmente en la asignación de valores a otros patrones de la
magnitud afectada.
La custodia del patrón internacional corresponde a la Oficina
Internacional de Pesos y Medidas (BIPM) en Sévres, cerca de París. El
patrón más antiguo en uso es el prototipo del Kilogramo.
• Patrón Secundario

Patrón cuyo valor se asigna por la comparación con un patrón


primario de la misma magnitud, normalmente los patrones primarios
son utilizados para calibrar patrones secundarios.
• Patrón de Trabajo

Patrón que se utiliza corrientemente para calibrar o controlar medidas


materializadas, instrumentos de medición o materiales de referencia.
• Patrón de referencia

Patrón en general, de la más alta calidad metrológica disponible en


un lugar dado o en una organización determinada, de la cual se
derivan las mediciones efectuadas en dicho lugar. Los laboratorios de
calibración mantienen los patrones de referncia para calibrar sus
patrones de trabajo.
• Patrón de transferencia
Patrón utilizado como intermediario para comparar patrones. Las
resistencias se utilizan como patrones de transferencia para comparar
patrones de voltaje. Las pesas se utilizan para comparar balanzas.
• Patrón viajero

Patrón, algunas veces de construcción especial, diseñado para el


transporte entre distintos emplazamientos utilizado para la
intercomparación de patrones. Un patrón de frecuencia de cesio
accionado por acumulador portátil puede utilizarse como patrón de
fuerza viajero.

1.4 Conceptos de medida precisión y exactitud

Medida: Medir consiste en obtener la magnitud (valor numérico) de


algún objeto físico, mediante su comparación con otro de la misma
naturaleza que tomamos como patrón. Esta comparación con un
patrón, que constituye el acto de medir, está sujeta a una
incertidumbre, que puede tener diversos orígenes. Nunca lograremos
obtener el verdadero valor de la magnitud, siempre vamos a obtener
un valor aproximado de la misma y necesitamos pues indicar lo
buena que es esta aproximación. Por ello junto con el valor de la
magnitud medida se debe adjuntar una estimación de la
incertidumbre o error al objeto de saber cuan fiable son los resultados
que obtenemos.

Precisión: se refiere a la dispersión del conjunto de valores


obtenidos de mediciones repetidas de una magnitud. Cuanto menor
es la dispersión mayor la precisión. Una medida común de la
variabilidad es la desviación estándar de las mediciones y la precisión
se puede estimar como una función de ella.

Exactitud: se refiere a que tan cerca del valor real se encuentra el


valor medido. En términos estadísticos, la exactitud está relacionada
con el sesgo de una estimación. Cuanto menor es el sesgo más
exacta es una estimación.
Cuando expresamos la exactitud de un resultado se expresa
mediante el error absoluto que es la diferencia entre el valor
experimental y el valor verdadero.

1.5 Sensibilidad e incertidumbre

Sensibilidad: Es la relación entre el desplazamiento de la marca en


un aparato de medida y la variación de la magnitud, observada en
dicho aparato y la variación de la magnitud de medida que ha
provocado dicho desplazamiento.

Incertidumbre: Es un parámetro asociado al resultado de una


medida que caracteriza la dispersión de los valores que pueden
atribuirse razonablemente a dicha medición; En metrología, es una
cota superior del valor de la corrección residual de la medida.
También se puede expresar como el valor de la semi-amplitud de un
intervalo alrededor del valor resultante de la medida, que se entiende
como el valor convencionalmente verdadero.

El Vocabulario Internacional de Metrología (VIM) define la


incertidumbre de medida como un parámetro, asociado al resultado
de una medición, que caracteriza la dispersión de los valores que
razonablemente podrían ser atribuidos al mensurando. Existen
muchas formas de expresar la incertidumbre de medida o
conceptos derivados o asociados: incertidumbre típica, incertidumbre
expandida, incertidumbre de calibración -calibración-, incertidumbre
máxima, incertidumbre de uso, etc. Como concepto
metrológico, es del mismo ámbito, pero diferente a los de tolerancia y
precisión.
Para la determinación del valor de las magnitudes fundamentales
(obtenido experimentalmente) en unidades del SI, se aplica la
incertidumbre típica, revisada periódicamente.

¿Es posible realizar una calibración sin evaluar su


incertidumbre?
Según el Vocabulario internacional de términos metrológicos (VIM), el
resultado de medición es “el valor atribuido al mensurando, obtenido
por medición”, y el resultado no está completo si no incluye
información sobre la incertidumbre de medida. Además, la norma
UNE-EN ISO/IEC 17025:2006 - Requisitos generales para la
competencia de los laboratorios de ensayo y calibración indica
claramente (5.10.4.1) que los certificados de calibración deben incluir
la incertidumbre de medición. Así pues, para que un informe o
certificado pueda ser llamado de calibración es indispensable
acompañar los resultados de las mediciones de su respectiva
incertidumbre.

¿Cómo estimo la incertidumbre asociada a mis mediciones?


La incertidumbre de medición comprende, en general, muchas
componentes; algunas de ellas pueden evaluarse a partir de la
distribución estadística de los resultados de series de medidas, y
pueden caracterizarse por desviaciones típicas experimentales; otras
componentes, que también pueden ser caracterizadas por
desviaciones típicas, se evalúan a partir de la asunción de
determinadas distribuciones de probabilidad basadas en la
experiencia o en otras informaciones. Las etapas a seguir para
evaluar y expresar la incertidumbre del resultado de una medición,
tal como se presentan en la Guía para la expresión de la
incertidumbre de medida, pueden resumirse como sigue:
1. Expresar matemáticamente la relación existente entre el
mensurando Y y las magnitudes de entrada Xi de las que depende el
mensurando, en la forma Y = f(X1, X2,…, XN), incluyendo
correcciones y factores de corrección, que pueden contribuir
significativamente a la incertidumbre del resultado.
2. Determinar los valores estimados xi de las magnitudes de entrada
Xi, a partir del análisis estadístico de series de observaciones, o por
otros métodos.
3. Evaluar las incertidumbres típicas u (xi) de cada valor estimado xi
bien por análisis estadístico de series de observaciones (evaluación
de tipo A), bien por otros medios (evaluación de tipo B).
4. Evaluar, si es el caso, las covarianzas asociadas a todas las
estimaciones de entrada que estén correlacionadas.
5. Calcular el resultado de medición; esto es, la estimación y del
mensurando Y, a partir de la relación funcional f utilizando para las
magnitudes de entrada Xi las estimaciones xi obtenidas en el paso 2.
6. Determinar la incertidumbre típica combinada uc (y) del resultado
de medida y, a partir de las incertidumbres típicas y covarianzas
asociadas a las estimaciones de entrada.
7. Si debe obtenerse una incertidumbre expandida U, multiplicar la
incertidumbre típica combinada uc (y) por un factor de cobertura k,
normalmente comprendido entre los valores 2 y 3,
Página 3 de 5
para obtener U = k?uc (y). Seleccionar k considerando el nivel de
confianza (normalmente 95%) requerido para el intervalo y-UCI+U.
8. Documentar el resultado de medición y, junto con su incertidumbre
típica combinada uc (y), o su incertidumbre expandida U, describir
cómo han sido obtenidos los valores de y, y de uc (y) o U.

¿Qué fuentes de incertidumbre es necesario considerar en


una medición?
En una medición existen numerosas fuentes posibles de
incertidumbre, entre ellas:
A. definición incompleta del mensurando,
B. realización imperfecta de la definición del mensurando,
C. muestra no representativa del mensurando (la muestra analizada
puede no representar al mensurando definido),
D. conocimiento incompleto de los efectos de las condiciones
ambientales sobre la medición, o medición imperfecta de dichas
condiciones ambientales,
E. lectura sesgada de instrumentos analógicos, por parte del personal
técnico,
F. resolución finita del instrumento de medida o umbral de
discriminación,
G. valores inexactos de los patrones de medida o de los materiales de
referencia,
H. valores inexactos de constantes y otros parámetros tomados de
fuentes externas y utilizados en el algoritmo de tratamiento de los
datos,
I. aproximaciones e hipótesis establecidas en el
método/procedimiento de medida,
J. variaciones en las observaciones repetidas del mensurando, en
condiciones aparentemente idénticas.

1.6 Sensibilidad e incertidumbre

Sensibilidad: es la relación entre el desplazamiento de la marca en


un aparato de medida y la variación de la magnitud, observada en
dicho aparato y la variación de la magnitud de medida que ha
provocado dicho desplazamiento. Es la relación que existe entre la
variación del instrumento y la del efecto medido.Es la magnitud más
pequeña que puede medir el instrumento.
Incertidumbre: Es una parámetro asociado al resultado de una
medición que caracteriza la dispersión de los valores que pueden
atribuirse razonablemente a dicha medicion; en metrología, es una
cota superior del valor de la corrección residual de la medida.

También se puede expresar como el valor de la semi-amplitud de un


intervalo alrededor del valor resultante de la medida, que se entiende
como el valor convencionalmente verdadero.
El Vocabulario Internacional de Metrología (VIM) define la
incertidumbre de medida como un parámetro, asociado al resultado
de una medición, que caracteriza la dispersión de los valores que
razonablemente podrían ser atribuidos al mensurando.

Existen muchas formas de expresar la incertidumbre de medida o


conceptos derivados o asociados: incertidumbre típica, incertidumbre
expandida, incertidumbre de calibración -calibración-, incertidumbre
máxima, incertidumbre de uso, etc. Como concepto
metrológico, es del mismo ámbito, pero diferente a los de tolerancia y
precisión.
Para la determinación del valor de las magnitudes fundamentales
(obtenido experimentalmente) en unidades del SI, se aplica la
incertidumbre típica, revisada periódicamente.

¿Es posible realizar una calibración sin evaluar su


incertidumbre?

Según el Vocabulario internacional de términos metrológicos (VIM), el


resultado de medición es “el valor atribuido al mensurando, obtenido
por medición”, y el resultado no está completo si no incluye
información sobre la incertidumbre de medida. Además, la norma
UNE-EN ISO/IEC 17025:2006 - Requisitos generales para la
competencia de los laboratorios de ensayo y calibración indica
claramente (5.10.4.1) que los certificados de calibración deben incluir
la incertidumbre de medición. Así pues, para que un informe o
certificado pueda ser llamado de calibración es indispensable
acompañar los resultados de las mediciones de su respectiva
incertidumbre.

¿Cómo estimo la incertidumbre asociada a mis mediciones?

La incertidumbre de medición comprende, en general, muchas


componentes; algunas de ellas pueden evaluarse a partir de la
distribución estadística de los resultados de series de medidas, y
pueden caracterizarse por desviaciones típicas experimentales; otras
componentes, que también pueden ser caracterizadas por
desviaciones típicas, se evalúan a partir de la asunción de
determinadas distribuciones de probabilidad basadas en la
experiencia o en otras informaciones. Las etapas a seguir para
evaluar y expresar la incertidumbre del resultado de una medición,
tal como se presentan en la Guía para la expresión de la
incertidumbre de medida, pueden resumirse como sigue:

1. Expresar matemáticamente la relación existente entre el


mensurando Y y las magnitudes de entrada Xi de las que depende el
mensurando, en la forma Y = f(X1, X2,…, XN), incluyendo
correcciones y factores de corrección, que pueden contribuir
significativamente a la incertidumbre del resultado.
2. Determinar los valores estimados xi de las magnitudes de entrada
Xi, a partir del análisis estadístico de series de observaciones, o por
otros métodos.
3. Evaluar las incertidumbres típicas u (xi) de cada valor estimado xi
bien por análisis estadístico de series de observaciones (evaluación
de tipo A), bien por otros medios (evaluación de tipo B).
4. Evaluar, si es el caso, las covarianzas asociadas a todas las
estimaciones de entrada que estén correlacionadas.
5. Calcular el resultado de medición; esto es, la estimación y del
mensurando Y, a partir de la relación funcional f utilizando para las
magnitudes de entrada Xi las estimaciones xi obtenidas en el paso 2.
6. Determinar la incertidumbre típica combinada uc (y) del resultado
de medida y, a partir de las incertidumbres típicas y covarianzas
asociadas a las estimaciones de entrada.
7. Si debe obtenerse una incertidumbre expandida U, multiplicar la
incertidumbre típica combinada uc (y) por un factor de cobertura k,
normalmente comprendido entre los valores 2 y 3, para obtener U =
k?uc (y). Seleccionar k considerando el nivel de confianza
(normalmente 95%) requerido para el intervalo y-UCI+U.
8. Documentar el resultado de medición y, junto con su incertidumbre
típica combinada uc (y), o su incertidumbre expandida U, describir
cómo han sido obtenidos los valores de y, y de uc (y) o U.

¿Qué fuentes de incertidumbre es necesario considerar en


una medición?

En una medición existen numerosas fuentes posibles de


incertidumbre, entre ellas:
A. definición incompleta del mensurando,
B. realización imperfecta de la definición del mensurando,
C. muestra no representativa del mensurando (la muestra analizada
puede no representar al mensurando definido),
D. conocimiento incompleto de los efectos de las condiciones
ambientales sobre la medición, o medición imperfecta de dichas
condiciones ambientales,
E. lectura sesgada de instrumentos analógicos, por parte del personal
técnico,
F. resolución finita del instrumento de medida o umbral de
discriminación,
G. valores inexactos de los patrones de medida o de los materiales de
referencia,
H. valores inexactos de constantes y otros parámetros tomados de
fuentes externas y utilizados en el algoritmo de tratamiento de los
datos,
I. aproximaciones e hipótesis establecidas en el
método/procedimiento de medida,
J. variaciones en las observaciones repetidas del mensurando, en
condiciones aparentemente idénticas.
1.7 Errores en la medición

Clasificación de los errores

Mediciones repetidas de una magnitud dada con el método, por el


mismo observador e instrumento y en circunstancias análogas, no
conducen siempre al mismo resultado. Esto muestra que cada una
de ellas está afectada de un error que depende de los agentes que
concurren a la medición, a saber:

1. El método de medida empleada.


2. El observador.
3. El instrumento.
4. y las condiciones del ambiente en que se desarrolla la
experiencia.

Atendiendo a su naturaleza y a las causas que los producen estos


errores pueden clasificarse en tres categorías:

• Errores groseros o fallas.


• Errores sistemáticos constantes.
• Errores accidentales, casuales y fortuitos.

Errores groseros o fallas

Caracteriza a los errores groseros, el hecho de que su magnitud


excede la que puede preverse teniendo en cuenta los medios con que
opera. Estos errores provienen
generalmente de la distracción del observador, y para ellos no existe
teoría.
El cuidado con que trabaja el observador contribuye a disminuir la
frecuencia de estos errores los cuales es necesario precaverse
mediante oportunas operaciones de control.

Errores sistemáticos

Estos errores son llamados así en razón de que su característica es


que se repiten exactamente y en el mismo sentido, para todas las
mediciones que se hagan en iguales condiciones, de tal manera que
las causas perturbadoras que conducen muchas veces a estos
errores, pueden ser expresadas en fórmulas matemáticas.
Consecuente con ello, al ser determinados en valor y signo, en
general es posible desafectarlos del resultado de, la medición, es
decir que los valores medidos pueden ser "corregidos" o "reducidos”.

No en todos los casos esto es aceptable, en razón de que la aplicación


de la formula puede crear incertidumbre en los valores corregidos de
una manera exagerada, como luego puede verse en la segunda parte
de este tema. Otras veces es
posible eliminar la causa que origina este error, no por un tratamiento
matemático sino mediante un artificio que logre que esta
perturbación sé "auto elimine" y por lo tanto no quede incluida en el
resultado final de la medición. Se considera que este
procedimiento es más adecuado que la eliminación del error
mediante la "corrección" antes mencionada.
Finalmente puede existir una causa de origen sistemático que el
observador por su poca experiencia, estudio u otra circunstancia, no
lo descubra en el análisis previo a la medición y por lo tanto el mismo
quedará incluido en el resultado final.

Ante la duda es preferible buscar otro método de medida.


En virtud de las distintas causas que involucra este tipo de error, es
conveniente para su estudio efectuar una subdivisión del mismo
comprendiendo:

1) Errores en los instrumentos o aparatos (errores de aparatos.

2) Errores debidos al método de medida (errores de método).

3) Errores debidos a las condiciones externas o del medio


ambiente.

4) Errores debidos al observador (ecuación personal.

Errores sistemáticos debidos a los instrumentos y


componentes de medida

Si bien hemos introducido los errores que cometen estos


instrumentos en la clasificación de los sistemáticos, en un sentido
estricto, no debe olvidarse que también en estos aparatos existen
causas de otro origen, que producen errores adicionales superpuestos
con los primeros.

En general la magnitud de los efectos. Sistemáticos (orden de


grandor) frente a los restantes y en particular a los que corresponden
a los instrumentos indicadores, justifica en cierto modo su inclusión
en este capítulo.

Los errores sistemáticos en estos instrumentos son consecuencia de


la falta de ajuste e imperfección en la calibración de los mismos,
mientras que los restantes, denominados accidentales son debidos a
las variaciones en el tiempo de la magnitud calibrada (inestabilidad),
a su diseño constructivo, a los errores cometidos en el propio
contraste y a los patrones utilizados.

Para un estudio racional del problema es interesante efectuar una


subdivisión de los instrumentos que constituyen este capítulo, dada
sus propias características, diseño y sistema de lectura, en dos
categorías, definidas: los primeros se han de referir a mediciones
efectuadas mediante la posición de un índice en su escala -sistema
de deflexión o instrumento indicador- los segundos son aquellos en
que la medición es realizada, en el preciso momento de un equilibrio,
como son los denominados métodos de cero, -tales como los
potenciómetros, puentes, etc., con sus correspondientes partes
componentes; resistencias, inductancias, capacidades, divisores de
tensión, etc.

Instrumentos Indicadores

Como ya hemos dicho, en estos instrumentos y en particular en los


indicadores, gran parte de los errores cometidos son por causas
sistemáticas, pero también se superponen a estas, otras de carácter
accidental que perturban la posición del índice, por lo que también
han de ser tomadas en cuenta al establecer el error total que comete
el instrumento indicador.
En consecuencia, es conveniente separar estas fuentes de error por
que corresponden a efectos secundarios distintos a saber.

a) Los errores sistemáticos son causados por:

1. Imperfección en el trazado de la escala.


2. Modificación de los parámetros que contribuyen a la, formación
del par motor y del antagónico (instrumentos de rotación pura.
3. Efectos, secundarios exteriores cuya ley causal es conocida,
(estos han de ser estudiados en tema aparte.

b) los errores de característica accidental, cuya ley de variación es


desconocida, causan efectos de incertidumbre en la posición, del
índice, como consecuencia principalmente de los rozamientos, en los
apoyos de su sistema móvil (sistema mecánico de pivotes); de la
histéresis elástica de la suspensión, etc. y han de caracterizar 'la no
repetibilidad de las lecturas, es decir que bajo la misma excitación
(constancia de par motor), las indicaciones del instrumento no serán
iguales; esto afectaran la llamada "precisión" del instrumento como
luego hemos, de ver al estudiar los errores accidentales por ser una
característica inherente a ellos.

• rozamientos en los apoyos de su sistema móvil.


• histéresis elástica de la suspensión.