Está en la página 1de 75

Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento

No Automatico

Capitulo I.

Introducción a la Metrología

Temario:

1. Caracterización de la Metrología
2. El marco Legal LFMN
3. Conceptos Básicos
4. El lenguaje de las mediciones, Sistema Internacional de Unidades
5. Definición clásica de “Masa”
6. Equipos para medir masa
7. Teoría de Errores
8. Introducción al calculo de la Incertidumbre de Medición
9. Referencias
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

1.-Caracterizacion de la Metrología
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Introducción:

A través de la historia se comprueba que el progreso de los pueblos siempre estuvo


relacionado con su progreso en las mediciones. La Metrología es la ciencia de las
mediciones y éstas son una parte permanente e integrada de nuestro diario vivir que a
menudo perdemos de vista. En la metrología se entrelazan la tradición y el cambio; los
sistemas de medición reflejan las tradiciones de los pueblos pero al mismo tiempo estamos
permanentemente buscando nuevos patrones y formas de medir como parte de nuestro
progreso y evolución.

Es por medio de diferentes aparatos e instrumentos de medición que se realizan pruebas y


ensayos que permiten determinar la conformidad con las normas existentes de un producto
o servicio; en cierta medida, esto permite asegurar la calidad de los productos y servicios que se
ofrecen a los consumidores.

Las mediciones correctas tienen una importancia fundamental para los gobiernos, para las
empresas y para la población en general, ayudando a ordenar y facilitar las transacciones
comerciales. A menudo las cantidades y las características de un producto son resultado de
un contrato entre el cliente (consumidor) y el proveedor (fabricante); las
mediciones facilitan este proceso y por ende inciden en la calidad de vida de la población,
protegiendo al consumidor, ayudando a preservar el medio ambiente y contribuyendo a
usar racionalmente los recursos naturales.

Actualmente, con la dinamización del comercio a nivel mundial, la Metrología adquiere


mayor importancia y se hace más énfasis en la relación que existe entre ella y la calidad,
entre las mediciones y el control de la calidad, la calibración, la acreditación de laboratorios,
la trazabilidad y la certificación. La Metrología es el núcleo central básico que permite el
ordenamiento de estas funciones y su operación coherente las ordena con el objetivo final de
mejorar y garantizar la calidad de productos y servicios.

La percepción inicial de metrología deriva de su etimología: del griego metros medida y logos
tratado. Concepto que debe ser casi tan antiguo como el ser humano: “tengo nada”, “tengo
algo”, “tengo mucho”; expresiones que reflejan una comparación muy primitiva pero que
perdura en la raza humana bajo muchos aspectos, al punto que actualmente podemos decir
que metrología es la ciencia de las mediciones y que medir es comparar con algo (unidad)
que se toma como base de comparación.

Las ocasiones de medir las tuvo el humano primitivo con las nociones de: cerca-lejos, rápido-
lento, liviano-pesado, claro-obscuro, duro-suave, frío- caliente, silencio-ruido. Originalmente
estas percepciones fueron individuales pero con el correr de las experiencias y la vida en
común surgieron las comparaciones entre las personas y en el transcurso de los
milenios se han desarrollado bases de comparación generalmente aceptadas.

Con esos antecedentes y después de una buena cantidad de milenios, es fácil pensar en las
bases para comparar las apreciaciones personales - dicho en buena lengua romance: en las
medidas y sus unidades.

El procedimiento de cómo medir para obtener resultados reproducibles también es


importante y de hecho existen instrucciones precisas sobre cómo hacer la acción, qué
unidades emplear y qué patrón utilizar.

En el mundo real la forma de medir obedece al diagrama siguiente:

- decidimos qué mediremos,


Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
- seleccionamos la unidad acorde a la medida,
- seleccionamos el instrumento de medición (calibrado),
- aplicamos el procedimiento acordado.

Pero que es la metrología?

No existe una definición clara y completa de la Metrología, con la que al menos los metrólogos
se encuentren satisfechos, fuera de la clásica que la define como “ciencia de la medición”. Sin
duda ello es debido a que, estando latente en prácticamente todas las facetas de la vida diaria,
casi nadie es consciente de ello. En un intento de definición lo más completa posible,
proponemos la siguiente: “La Metrología es la ciencia que tiene por objeto el estudio de las
propiedades medibles, las escalas de medida, los sistemas de unidades, los métodos y
técnicas de medición, así como la evolución de lo anterior, la valoración de la calidad de las
mediciones y su mejora constante, facilitando el progreso científico, el desarrollo tecnológico, el
bienestar social y la calidad de vida”.
La Metrología comprende pues todos los aspectos, tanto teóricos como prácticos, que se
refieren a las mediciones, cualesquiera que sean sus incertidumbres, y en cualesquiera de los
campos de la ciencia y de la tecnología en que tengan lugar. Cubre tres actividades principales:
• La definición de las unidades de medida internacionalmente aceptadas.
• La realización de las unidades de medida por métodos científicos.
• El establecimiento de las cadenas de trazabilidad, determinando y documentando el valor
y exactitud de una medición y diseminando dicho conocimiento.
2.2 (2.2)
Metrología, f
Ciencia de las mediciones (2.1) y sus aplicaciones

NOTA La metrología incluye todos los aspectos teóricos y prácticos de las mediciones,
cualesquiera que sean su incertidumbre de medida (2.26) y su campo de aplicación.

CARACTERIZACIÓN DE LA METROLOGÍA

Por conveniencia, se hace a menudo una distinción entre los diversos campos de aplicación de
la metrología; suelen distinguirse como Metrología Científica, Metrología Legal y Metrología
Industrial.

Metrología científica

Es el conjunto de acciones que persiguen el desarrollo de patrones primarios de medición para


las unidades de base y derivadas del Sistema Internacional de Unidades, SI.

Metrología industrial

La función de la metrología industrial reside en la calibración, control y mantenimiento


adecuados de todos los equipos de medición empleados en producción, inspección y pruebas.
Esto con la finalidad de que pueda garantizarse que los productos están de conformidad con
normas. El equipo se controla con frecuencias establecidas y de forma que se conozca la
incertidumbre de las mediciones.
La calibración debe hacerse contra equipos certificados, con relación válida conocida a
patrones, por ejemplo los patrones nacionales de referencia.
Metrología legal

Según la Organización Internacional de Metrología Legal (OIML) es la totalidad de los


procedimientos legislativos, administrativos y técnicos establecidos por, o por referencia a,
autoridades públicas y puestas en vigor por su cuenta con la finalidad de especificar y
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
asegurar, de forma regulatoria o contractual, la calidad y credibilidad apropiadas de las
mediciones relacionadas con los controles oficiales, el comercio, la salud, la seguridad y el
ambiente.

¿Qué importancia tiene la Metrología para la sociedad?


Las mediciones juegan un importante papel en la vida diaria de las personas. Se encuentran en
cualquiera de las actividades, desde la estimación a simple vista de una distancia, hasta un
proceso de control o la investigación básica.
La Metrología es probablemente la ciencia más antigua del mundo y el conocimiento sobre su
aplicación es una necesidad fundamental en la práctica de todas las profesiones con sustrato
científico ya que la medición permite conocer de forma cuantitativa, las propiedades físicas y
químicas de los objetos. El progreso en la ciencia siempre ha estado íntimamente ligado a los
avances en la capacidad de medición. Las mediciones son un medio para describir los
fenómenos naturales en forma cuantitativa. Como se explica a continuación” la Ciencia
comienza donde empieza la medición, no siendo posible la ciencia exacta en ausencia de
mediciones”. Las mediciones suponen un costo equivalente a más del 1% del PIB combinado,
con un retorno económico equivalente de entre el 2% y el 7% del PIB. Ya sea café, petróleo y
sus derivados., electricidad o calor, todo se compra y se vende tras efectuar procesos de
medición y ello afecta a nuestras economías privadas. Los radares (cinemómetros) de las
fuerzas de seguridad, con sus consecuencias económicas y penales, también son objeto de
medición. Horas de sol, tallas de ropa, porcentaje de alcohol, peso de las cartas, temperatura
de locales, presión de neumáticos, etc. Es prácticamente imposible describir cualquier cosa sin
referirse a la metrología. El comercio, el mercado y las leyes que los regulan dependen de la
metrología y del empleo de unidades comunes.

Metrología y Calidad

La relación entre metrología y calidad ha sido completamente reconocida en décadas


recientes. A nivel conceptual, esta relación puede apreciarse, por ejemplo en el ciclo de
Demming para Mejora Continua, que no es más que una versión generalizada del método
científico.
En este ciclo, que es aplicable a cualquier rama de la actividad humana, la medición entra
como una herramienta indispensable para el conocimiento y control, y estos, finalmente,
redundan en una mejor forma de hacer las cosas, esto es Calidad.

Planear

Lo que no se mide,

No se puede mejorar
Hacer CALIDAD
E. W. Demming

Ajustar

Verificar MEDICION
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

De ahí la importancia de la metrología como soporte a todos los esquemas de normalización y


certificación, que responden a la exigencia creciente de ofrecer garantía de Calidad y de hacer
esta Calidad consistente y demostrable ante usuarios y consumidores de la sociedad en
general.
A nivel industrial y comercial, esta importancia ha quedado establecida formalmente por los
diferentes sistemas de Calidad que predominan a nivel internacional, como la serie de normas
ISO 9000 e ISO14000, por mencionar algunos ejemplos.

Actualmente, uno de los factores que primordiales que permiten el desarrollo de los Manuales
de Calidad dentro de los laboratorios, fue el cambio de la Guía ISO/IEC 25 por la norma NMX-
EC-17025- IMNC-2000 (Actualmente se aplica la versión 2006)y la norma ISO 9001:1994 a la
norma ISO 9001:2000 (Actualmente se aplica la versión 2008). Estos cambios en las normas
permiten una mayor coherencia en el desarrollo de los Manuales de Calidad, así como una
mejor interpretación sobre los puntos comunes que contienen estas normas.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

2.-El Marco Legal LFMN


Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Normas y normalización
La vida civilizada implica una serie de reglamentaciones, costumbres, y leyes que nos permiten
vivir en comunidad, con un comportamiento honesto y de respeto hacia nuestros semejantes, y
facilitan el orden, la eficiencia y las interrelaciones. Algunos ejemplos son: la hora oficial, la
circulación de los vehículos por la derecha, el comportamiento comercial, los sistemas
monetarios de cada país, etcétera.
Al conjunto de este tipo de reglamentaciones se le puede llamar, en cierta forma,
normalización. Sin embargo, lo que en particular nos interesa es la normalización de productos
y procesos en la industria.

Básicamente, la normalización es comunicación, entre productor, consumidor o usuario basada


en términos técnicos, definiciones, símbolos, métodos de prueba y procedimientos. Es,
además, una disciplina que se basa en resultados ciertos adquiridos por medio de la ciencia, la
técnica y la experiencia, fruto de un balance técnico-económico del momento.
La normalización técnica fue considerada, hasta hace algunos años, como efecto de la
industrialización y el desarrollo. En la actualidad se dice que es la causa o elemento motor en
que se apoyan la industrialización y el desarrollo económico. En síntesis, es una actividad
primordial en la evolución económica de cualquier país.

Normalización

La normalización es la actividad que fija las bases para el presente y el futuro, esto con el
propósito de establecer un orden para el beneficio y con el concurso de todos los interesados.
En resumen, la normalización es, el proceso de elaboración y aplicación de normas; son
herramientas de organización y dirección.
La Asociación Estadounidense para Pruebas de Materiales (ASTM, por sus siglas en inglés)
define la normalización como el proceso de formular y aplicar reglas para una aproximación
ordenada a una actividad específica para el beneficio y con la cooperación de todos los
involucrados.

Norma

La norma es la misma solución que se adopta para resolver un problema repetitivo, es una
referencia respecto a la cual se juzgará un producto o una función y, en esencia, es el
resultado de una elección colectiva y razonada. Prácticamente, norma es un documento
resultado del trabajo de numerosas personas durante mucho tiempo y normalización es la
actividad conducente a la elaboración, aplicación y mejoramiento de normas.

Ley Federal sobre Metrología y Normalización

La última reforma de la LFMN fue el 28 de Julio de 2006.

La reforma se realizó para actualizar la referencia a las secretarías de estado que modificaron
sus nombres y actividades en el 2000, siendo la primera la Secretaria de Economía, antes
denominada Secretaría de Comercio y Fomento Industrial.

Los artículos que se modificaron en la reforma del 28 de julio de 2006 son:


Artículo 1°, Artículo 32, Artículo 37 párrafo II, Artículo 59 párrafo I.

Ninguna de las modificaciones afecta las actividades de metrología, normalización, verificación,


certificación, ensayo o calibración.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

La LFMN fue elaborada con los siguientes Objetivos:

I Metrología:

* Establecer el Sistema General de Unidades de Medida,


* Precisar los conceptos fundamentales sobre Metrología,
* Establecer los requisitos para la fabricación, importación, reparación, venta, verificación y uso
de los instrumentos para medir y los patrones de medida,
* Establecer la obligatoriedad de la medición en transacciones comerciales y de indicar el
contenido neto en los productos envasados,
* Instituir el Sistema Nacional de Calibración,
* Crear el CENAM como organismo de alto nivel técnico en la materia, y
* Regular en lo general, en las demás materias relativas a la Metrología.

II En materia de normalización, certificación, acreditación y verificación

* Fomentar la transparencia y eficiencia en la elaboración y observancia de normas oficiales


mexicanas y normas mexicanas;
* Instituir la Comisión Nacional de Normalización para que coadyuve en las actividades que
sobre normalización corresponde realizar a las distintas dependencias de la administración
pública federal;
* Establecer un procedimiento uniforme para la elaboración de normas oficiales mexicanas por
las dependencias de la administración pública federal;
* Promover la concurrencia de los sectores público, privado, científico y de consumidores en la
elaboración y observancia de normas oficiales mexicanas y normas mexicanas;
* Coordinar las actividades de normalización, certificación, verificación y laboratorios de prueba
de las dependencias de administración pública federal;
* Establecer el sistema nacional de acreditamiento de organismos de normalización y de
certificación, unidades de verificación y de laboratorios de prueba y de calibración; y
* En general, divulgar las acciones de normalización y demás actividades relacionadas con la
materia.

La LFMN está compuesta de 6 Títulos que a su vez se dividen de la siguiente manera:

Título Primero –

Capítulo Único “Disposiciones Generales”, el cual, en los primeros 4 capítulos, establece el


alcance de la LFMN, su objeto, las definiciones y la representación de la Secretaria en eventos
o asuntos relativos a la Metrología;

Título Segundo “Metrología” –

Capítulo I “Del Sistema General de Unidades de Medida”, el cual en los artículos 5o a 9º


establece la obligatoriedad del uso del SGUM (SI) y de la conservación de los prototipos de las
unidades de medida existentes en México;
Capítulo II “De los Instrumentos de Medir”, el cual establece en los artículos 10 a 14 las reglas
para la verificación de prototipos de los instrumentos de medir y medidas asociadas;

Capítulo III “De la Medición Obligatoria de las Transacciones”, el cual contiene en los artículos
15 al 23 las reglas de verificación de los instrumentos usados en transacciones comerciales y
para la constatación de los productos empacados o envasados y sobre las etiquetas que
identifican dichos productos;

Capítulo IV “Del Sistema Nacional de Calibración”, el cual del artículo 24 al 28 establece las
reglas para la institución, participantes, acreditación de los laboratorios de calibración y la
emisión de los resultados de las calibraciones;
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Capítulo V “Del Centro Nacional de Metrología”, el cual contiene en los artículo 29 a 37 las
directrices para la operación, formación, atribuciones, responsabilidades y patrimonio.

Título Tercero “Normalización” –

Capítulo I “Disposiciones Generales”, el cual contiene en los artículos 38 al 39 lo que


corresponde a la secretaría y a las dependencias competentes en materia de normalización;

Capítulo II “De las Normas Oficiales Mexicanas y de las Normas Mexicanas”,

Sección I “De las Normas Oficiales Mexicanas” la cual contiene del artículo 40 al 51 la finalidad,
el contenido, los participantes, la forma de elaborar los anteproyectos y la forma de ponerlos en
consulta, la manifestación de impacto regulatorio, las disposiciones para la elaboración y
modificación de las NOM´s, el procedimiento para los Proyectos de NOM, las directrices para la
emisión de normas de emergencia, la forma de solicitar una desviación a la NOM por cambios
tecnológicos , la comunicación de las dependencias con los fabricantes o usuarios, y el proceso
de revisión y cancelación,

Sección II “De las Normas Mexicanas” , la cual contiene del artículo 51-A al 51-B las reglas
para la elaboración de las NMX´s

Capítulo III “De la Observancia de las Normas”, donde del artículo 52 a 57 establece quienes
deben cumplir con las NOM, de la forma de cumplir y de la observancia de las NMX´s y su
contenido, la jerarquía de cumplimiento y las reglas sobre el sistema que deben mantener los
productores, fabricantes, y prestadores de servicio, así como las actividades en caso de
incumplimiento con las normas.

Capitulo IV “De la Comisión de Normalización”, en este capítulo se establece en los artículos


58 a 61-A las reglas para la institución, integración, las funciones, la forma de sesionar y la
integración del Programa Nacional de Normalización.

Capítulo V “De los Comités Consultivos de Normalización”, este capítulo consta de los artículos
62 hasta el 64 y en ellos se establece el objetivo y alcance de dichos órganos, la organización,
y la forma de aprobación de las NOM.

Capítulo VI “De los Organismos Nacionales de Normalización”, con los artículos 65 a 67


establece los requisitos para operar como ONN, sus obligaciones y las instituciones que
pueden establecer Comités de Normalización para emitir normas de referencia en ausencia de
normas mexicanas adecuadas o vigentes al tema en cuestión.

Título Cuarto “De la Acreditación y Determinación de Cumplimiento”;

Capítulo I “De la Acreditación y Aprobación”, en los artículos 68 a 72 establece las reglas para
la evaluación de la conformidad por las personas, organismos o dependencias competentes, la
forma en que las entidades de acreditación integran los Comités de Evaluación, la aprobación,
de las personas acreditadas, por las dependencias competentes, los requisitos para operar
como entidad de acreditación y la forma de verificar el cumplimiento con los requisitos de la
entidad de acreditación autorizada.

Capítulo II “De los Procedimientos de Evaluación de la Conformidad”, en los artículos 73 a 75 la


LFMN establece los requisitos para establecer los procedimientos de evaluación de la
conformidad (PEC´s), las personas designadas para la evaluación de la conformidad (EC) y la
obligación del contraste de los artículos de joyería, orfebrería y la certificación del contenido
Ley del metal.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Capítulo III “De las Contraseñas y Marcas Oficiales”, en los artículos 76 a 78 establece las
personas que pueden establecer las características de las contraseñas que denoten la
evaluación de la conformidad respecto a NOM o NMX, la obligatoriedad de su uso y la
autorización para el uso de emblemas que denoten la acreditación y aprobación de los agentes
de la evaluación de la conformidad (AEC).

Capítulo IV “De los Organismos de Certificación”; en los artículos 79 y 80 establece los


requisitos que deben cumplir los AEC denominados OC para ser aprobados por las
dependencias competentes.

Capítulo V “De los Laboratorios de Pruebas”; en los artículos 81 y 83 se establecen, el objeto


del SINALP y el uso de su emblema oficial, la forma de emitir los resultados de las pruebas que
realiza, además de la validez de dichos informes.

Capítulo VI “De las Unidades de Verificación”, en los artículos 84 a 87, establece los
lineamientos para la operación de las unidades de verificación, el reconocimiento de los
dictámenes que emiten, la solicitud de apoyo por parte de las dependencias, y la forma de
informar los resultados de las verificaciones.

Capítulo VII “De los Acuerdos de Reconocimiento Mutuo”; en los artículos 87-A y 87-B se
establecen las reglas para concertar acuerdos con instituciones extranjeras o internacionales
para el reconocimiento mutuo de los resultados de la evaluación de la conformidad y la forma
que deben ajustarse los convenios.

Título Quinto “De la Verificación”

Capítulo Único “Verificación y Vigilancia” en los artículos 88 a 109 establece la obligación de


proporcionar a las dependencias competentes la información que soliciten para la evaluación
de la conformidad, además establece la forma de realizar la verificación, haciendo uso
obligatorio de laboratorios acreditados o en su caso preferentemente acreditados, la
elaboración de un acta detallada con los resultados obtenidos y la definición de verificación, así
como la forma en que se realizarán las visitas y la obligación de recibirlas por los productores o
sus partes, la obligación de elaborar un acta circunstanciada de la visita y su contenido, la
forma que el visitado puede hacer observaciones al acta, la forma de recolección o selección
de las muestras y su identificación para evitar sustituciones y la cantidad que debe tener la
muestra, el contenido de las actas resultantes de las comprobaciones y el lapso par a emitir los
informes de dicha actividad, la forma de proceder cuando existan deficiencias, y las
condiciones para la comercialización.

Título Sexto “De los Incentivos, Sanciones y Recursos”;

Capítulo I “Del Premio Nacional de Calidad” ; los artículos 110 y 111 establecen la institución
del premio y que en el Reglamento de esta Ley se establece el procedimiento para la selección
de los acreedores al premio.

Capítulo II “De las Sanciones”; los artículos 112 a 120 establecen las sanciones, su aplicación,
el cumplimiento de la garantía de audiencia, la suspensión de la acreditación y/o aprobación, y
la cancelación. Capítulo III “Del Recurso de Revisión y de las Reclamaciones”; los artículos 121
y 122 establecen los tiempos y formas para interponer el recurso de revisión por las partes
afectas y las contestaciones por las entidades de acreditación y los AEC acreditados y
aprobados.

Esto en forma general es el contenido de la Ley Federal sobre Metrología y Normalización.

Tomado del Tríptico LFMN realizado por el Evaluador Líder: Maximino Celis Cid
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

¿Qué diferencia existe entre calibración y verificación?

La calibración, según el Vocabulario internacional de términos metrológicos (VIM) es el


conjunto de operaciones que establecen, en condiciones especificadas, la relación entre los
valores de una magnitud indicados por un instrumento de medida o un sistema de medida, o
los valores representados por una medida materializada o por un material de referencia, y los
valores correspondientes de esa magnitud realizados por patrones.
La calibración determina las características metrológicas del instrumento o del material de
referencia y se realiza mediante comparación directa con patrones de medida o materiales de
referencia certificados. La calibración da lugar a un Certificado de Calibración y, en la mayoría
de los casos, se fija una etiqueta al instrumento calibrado.
La verificación, por su parte, consiste en revisar, inspeccionar, ensayar, comprobar, supervisar,
o realizar cualquier otra función análoga, que establezca y documente que los elementos,
procesos, servicios o documentos están conformes con los requisitos especificados.
En cierto modo, puede decirse que la verificación es una calibración “relativa” ya que no se
está tan interesado en el resultado final como en saber si, a partir de ese resultado, se cumplen
o no unos requisitos especificados. Para pronunciarse al respecto, debe tenerse en cuenta la
incertidumbre asociada al resultado (véase UNE-EN ISO 14253-1:1999).

¿Hay alguna diferencia entre ‘exactitud’ y ‘precisión’?

Si, existe una gran diferencia.

Aunque en el lenguaje de calle, ambos términos son sinónimos, sin embargo,


metrológicamente, los términos exactitud y precisión, aunque relacionados entre sí, no deben
intercambiarse, ya que la diferencia entre ambos es significativa.
El Vocabulario Internacional de términos fundamentales y generales de Metrología (VIM) define
el término exactitud como el grado de concordancia entre el resultado de una medición y un
valor verdadero del mensurando, haciendo hincapié en que a) el término exactitud es
cualitativo y b) que no se utilice el término exactitud en lugar de precisión. Sin embargo, este
último término no aparece definido en el VIM, por lo que tomamos su definición y ligazón con el
término exactitud de la norma UNE 82009-1, equivalente a la ISO 5725-1.En esta norma, el
término exactitud engloba a la veracidad y a la precisión, pudiendo escribirse:

EXACTITUD = VERACIDAD + PRECISIÓN

La veracidad, definida como el grado de coincidencia entre el valor medio obtenido de una gran
serie de resultados y un valor aceptado como referencia, viene expresada usualmente en
términos de sesgo, definiéndose este como la diferencia entre el valor medio obtenido y un
valor aceptado como referencia (por ejemplo, un valor convencionalmente verdadero del
mensurando). El sesgo es pues el error sistemático total, por oposición al error aleatorio,
pudiendo existir uno o más errores sistemáticos contribuyendo al sesgo. A mayor error
sistemático respecto al valor aceptado como referencia, mayor sesgo, y viceversa.
Por su parte, la precisión se define como el grado de coincidencia existente entre los resultados
independientes de una medición, obtenidos en condiciones estipuladas, ya sea de repetibilidad,
de reproducibilidad o intermedias.

Así pues, la precisión depende únicamente de la distribución de los resultados, no estando


relacionada con el valor verdadero o especificado. La precisión se expresa generalmente a
partir de la desviación típica de los resultados. A mayor desviación típica menor precisión.

¿Qué relación existe entre ‘exactitud’, ‘precisión’ e ‘incertidumbre’?

Cuando expresamos el resultado de una medición en la forma debida; es decir, añadiendo al


resultado la incertidumbre asociada al mismo, por ejemplo, 5,47 mm ± 0,02 mm, lo que
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
estamos indicando es el nivel de confianza existente, normalmente un 95%, de que el
verdadero valor del mensurando se encuentre dentro del intervalo ± 0,02 mm.

Es la diferencia entre el resultado y el valor convencionalmente verdadero o de referencia, la


que nos informa del sesgo o error sistemático total existente. Si dicho error es corregible,
entonces cuanto más precisa haya sido la medición (menor dispersión se haya observado en
los resultados), menor incertidumbre asociada obtendremos, aunque también existirán
contribuciones a la incertidumbre procedentes de las propias correcciones efectuadas. No hay
que olvidar que para la estimación de la incertidumbre, se parte de la hipótesis de que todos los
errores sistemáticos conocidos han sido corregidos previamente.

Si el error sistemático no es corregible, entonces la incertidumbre aumentará, ya que habrá que


combinar la desviación típica que caracteriza la precisión, con el propio error sistemático, a fin
de obtener una incertidumbre que englobe todas las contribuciones. En resumen, siempre
ocurre que a mayor precisión, menor incertidumbre, pero si la medición no es exacta y hay
errores sistemáticos sin cancelar, a igual precisión, la incertidumbre será tanto mayor cuanto
mayor sean dichos errores, siempre que actuemos como indica la Guía para la expresión de la
incertidumbre y los tengamos en cuenta en la estimación de U.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

3.-Conceptos Básicos
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Pero Como podemos definir “Que es medir”

Medición

Conjunto de operaciones que tienen por objetivo determinar el valor de una magnitud.

2.1 (2.1)
Medición, f
Medida, f
Proceso que consiste en obtener experimentalmente uno o varios valores (1.19) que
pueden atribuirse razonablemente a una magnitud (1.1)

NOTA 1 Las mediciones no son de aplicación a las propiedades cualitativas.

NOTA 2 Escala de tiempo.

NOTA 3 Una medición supone una descripción de la magnitud compatible con el uso preciso
de un resultado de medida (2.9), un procedimiento de medida (2.9) y un sistema de medida (3.2)
calibrado conforme a un procedimiento de medida especificado, incluyendo las condiciones de medida.

Beneficios de medir bien

- Aumenta la confianza de los clientes


- Permite asegurar la confianza del producto disminuyendo los costos de no calidad.
- Apoya objetivamente las decisiones de mejora.
- Aumenta la eficiencia en el uso de los recursos.
- Facilita la comparación en caso de controversia.
- Ayuda a mantener el negocio.

Reflexiones sobre medición

- Se empieza a conocer un concepto cuando se cuantifica.


- La naturaleza nos impide conocer con certeza el valor verdadero de una magnitud. Esto es
siempre nos quedamos con incertidumbre.
- La incertidumbre se estima, no es una cuantificación exacta.
- El resultado de una medición contiene al menos dos cantidades:
1 El valor considerado como más cercano al verdadero y,
2 La estimación de la incertidumbre sobre ese valor.
- Mientras mas larga sea la cadena de comparaciones la incertidumbre será mas grande.
- El nivel de incertidumbre adecuado depende de las necesidades del cliente.
- El resultado de una medición depende de todo el sistema.
Calidad

- La totalidad de rasgos y características de un producto o servicio dirigidos a satisfacer


las necesidades establecidas o implícitas.

Incertidumbre

NMX-Z-55- SCFI- 1995


Parámetro asociado al resultado de una medición que caracteriza la dispersión de los valores
que podrían razonablemente ser atribuidos al mesurando.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

NMX-Z-55-IMNC -2009
2.26 (3.9)
Incertidumbre de medida, f
Incertidumbre, f
Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un
mensurando (2.3), a partir de la información que se utiliza.

NOTA 1 La incertidumbre de medida incluye componentes procedentes de efectos


sistemáticos, tales como componentes asociadas a correcciones (2.53) y a valores asignados a
patrones, así como la incertidumbre debida a la definición (2.27). Algunas veces no se corrigen los
efectos sistemáticos estimados y en su lugar se tratan como componentes de incertidumbre.

NOTA 2 El parámetro puede ser, por ejemplo, una desviación típica, en cuyo caso se
denomina incertidumbre típica de medida (2.30) (o un múltiplo de ella), o una semiamplitud con una
probabilidad de cobertura (2.37) determinada.

NOTA 3 En general, la incertidumbre de medida incluye numerosas componentes. Algunas


pueden calcularse mediante una evaluación tipo A de la incertidumbre de medida (2.28), a partir de la
distribución estadística de los valores que proceden de las series de mediciones y pueden caracterizarse
por desviaciones típicas. Las otras componentes, que pueden calcularse mediante una evaluación tipo B
de la incertidumbre de medida (2.29), pueden caracterizarse también por desviaciones típicas,
evaluadas a partir de funciones de densidad de probabilidad basadas en la experiencia u otra información.

NOTA 4 En general, para una información dada, se sobrentiende que la incertidumbre de


medida está asociada a un valor determinado atribuido al mensurando. Por tanto, una modificación de
este valor supone una modificación de la incertidumbre asociada.

Declaración de la ignorancia Física


. Kessel (PTB)

Fuentes de incertidumbre

- Mesurando definido de manera incompleta.


- Realización imperfecta del mesurando.
- Muestreo sesgado.
- Magnitudes de influencia no consideradas.
- Incertidumbre en las mediciones de las magnitudes de influencia.
- Resolución finita de la indicación del instrumento.
- Incertidumbre de los patrones o materiales de referencia.
- Incertidumbre de otros datos usados.
- Aproximaciones en el método de medición.
- Variaciones no controladas.

Trazabilidad

Propiedad del resultado de una medición o de un patrón, tal que esta pueda ser
relacionada a referencias determinadas, generalmente patrones nacionales o
internacionales, por medio de una cadena ininterrumpida de comparaciones teniendo
todas incertidumbres determinadas.

2.41 (6.10)
Trazabilidad metrológica, f
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Propiedad de un resultado de medida (2.9) por la cual el resultado puede relacionarse


con una referencia mediante una cadena ininterrumpida y documentada de calibraciones
(2.39), cada una de las cuales contribuye a la incertidumbre de medida (2.26)

NOTA 1 En esta definición, la referencia puede ser la definición de una unidad de medida
(1.9), mediante una realización práctica, un procedimiento de medida (2.6) que incluya la unidad de
medida cuando se trate de una magnitud (1.1) no ordinal, o un patrón (5.1).

NOTA 2 La trazabilidad metrológica requiere una jerarquía de calibración (2.40)


establecida.

NOTA 3 La especificación de la referencia debe incluir la fecha en la cual se utilizo dicha


referencia, junto con cualquier otra información metrológica relevante sobre la referencia, tal como la
fecha en que se haya realizado la primera calibración en la jerarquía.

Estrictamente hablando, (la trazabilidad) no es una propiedad de un instrumento


o de un laboratorio, más bien es el resultado de un proceso que involucra
instrumentos y laboratorios.
C. Enrich (NIST)

Ventajas de la trazabilidad

- Propicia la armonización objetiva de las mediciones como elementos de


comparación.
- Reduce los riesgos de conflicto entre clientes y proveedores.
- Tiene impacto en los costos.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Cadena de
trazabilidad.

CENAM
Patrón Nacional
BIPM

Patrón de referencia

Patrones Patrón de trabajo


Nacionales

De otros

Países

LABORATORIO Patrón de referencia


SECUNDARIO

Patrón de trabajo

Patrón de referencia
ORGANIZACION
Patrón de trabajo
Instrumento de medición
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

4.-El lenguaje de las mediciones, Sistema


Internacional de Unidades
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

QUÉ SE MIDE Y CÓMO

La Ley Federal de Metrología y Normalización (LFMN), establece en el,

ARTÍCULO 5º.- En los Estados Unidos Mexicanos el Sistema General de Unidades de Medida
es el único legal y de uso obligatorio.
El Sistema General de Unidades de Medida se integra, entre otras, con las unidades básicas
del Sistema Internacional de Unidades: de longitud, el metro; de masa, el kilogramo; de tiempo,
el segundo; de temperatura termodinámica, el kelvin; de intensidad de corriente eléctrica, el
ampere; de intensidad luminosa, la candela; y de cantidad de sustancia, el mol, así como con
las suplementarias, las derivadas de las unidades base y los múltiplos y submúltiplos de todas
ellas, que apruebe la Conferencia General de
Pesas y Medidas y se prevean en normas oficiales mexicanas. También se integra con las no
comprendidas en el sistema internacional que acepte el mencionado organismo y se incluyan
en dichos ordenamientos.

El lenguaje de las mediciones.

(Sistema Internacional de Unidades)

Las unidades del Sistema Internacional de Unidades, SI, son establecidas por la Conferencia
General de Pesas y Medidas (CGPM) bajo cuya autoridad funciona la Oficina Internacional de
Pesas y Medidas (BIPM - Bureau International des Poids et Mesures) con sede en Francia. En
los párrafos siguientes, las definiciones internacionales de las unidades son las publicadas por
el BIPM, actualizadas al mes de enero del 2000.
La CGPM decidió establecer el SI, basado en siete unidades bien definidas. Estas son las
llamadas unidades de base que se listan en la tabla 1.
Originalmente, las medidas de base o fundamentales se llamaban así por ser consideradas
independientes entre sí y permitir, a su vez, la definición de otras unidades. Los patrones
correspondientes eran medidas materializadas que se conservaban en lugares acordados y
bajo condiciones determinadas. Los avances científicos y técnicos así como la disponibilidad
de instrumentos de mayor exactitud han dado por resultado que, con excepción del kilogramo,
las unidades de base se definan actualmente de diferente forma, con base en experimentos
físicos. En rigor, se podría argumentar que en algunos casos las unidades básicas no son
estrictamente independientes entre sí. Por ejemplo, el metro ya no se define contra el antiguo
metro prototipo - una barra de iridio-platino - y la definición actual involucra el concepto de
segundo, otra unidad de base. En igual forma, la candela, unidad de base de la intensidad
luminosa, se define en términos del hertz (s-1) y del watt (m2.kg.s3), ambas unidades derivadas,
1
y del estereorradián , una unidad derivada adimensional.
Sin embargo, se considera que el SI, entendido como el conjunto de unidades básicas y de
unidades derivadas, es un sistema coherente por las razones siguientes:
- las unidades básicas están definidas en términos de constantes físicas (Tabla 1), con la
única excepción del kilogramo, definido en términos de un prototipo,
- - cada magnitud se expresa en términos de una única unidad, obtenida por
multiplicación o división de las unidades de base y de las unidades derivadas adimensionales, -
los múltiplos y submúltiplos se obtienen por medio de multiplicación con una potencia exacta de
diez,
- - las unidades derivadas se pueden expresar estrictamente en términos de las
unidades básicas en sí, es decir, no conllevan factores numéricos.
Los trabajos de definición y refinamiento de las unidades del SI persiguen en todo momento
que las unidades sean coherentes con las ya existentes.
Como vimos anteriormente, de estas unidades de base se deriva un gran número de unidades;
algunas de las que están consideradas como unidades derivadas en el SI se listan en la Tabla 2.
1
En algunos países se emplea el término esterradían.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

De las unidades derivadas quizás resulte conveniente destacar dos, que anteriormente se
conocían como unidades “complementarias”, y que son las empleadas para medir los ángulos
planos, en el caso del radián (rad) y los ángulos sólidos, en el caso del estereorradián (sr).
También se les conoce como unidades no-dimensiónales o adimensionales. El neper y el bel,
cuyo uso es aceptado pero que no forman parte integral del SI, son también adimensionales.

En el SI se establece además una serie de reglas y convenciones que tienen que ver con el
uso de unidades mixtas, la forma de seleccionar e identificar los prefijos, el uso de múltiplos y
submúltiplos, la ortografía, el uso de mayúsculas y minúsculas, de singular y plural, el
agrupamiento de dígitos, el redondeo de valores, etc
Estas reglas no son aún totalmente de aplicación universal; en algunos países de América, por
ejemplo, se sigue usando el punto y no la coma para señalar la separación de los decimales.
En todo caso, es importante conocer estas reglas y se recomienda la consulta de algunas de
las referencias dadas.

Adicionalmente, existen unidades que, sin ser del SI, están aceptadas para su uso
concomitante y son conocidas como unidades adicionales (tabla 3)

Algunas de ellas se utilizan en forma temporal en tanto su uso es substituido por las aceptadas,
otras únicamente en campos especializados, por ejemplo el quilate (ct) en joyería. Otras
unidades, cuyo uso no está aceptado con el SI, se siguen utilizando en algunos contextos y en
algunos países, por ejemplo la dina y el stokes.

Si ahora vemos la estructura jerárquica de los patrones, notamos que podemos describirla
como una pirámide en cuyo vértice tenemos el conjunto de patrones que corresponden a las
unidades de base del SI de las que ya hemos hablado.

La segunda posición corresponde al conjunto de patrones nacionales.

En el siguiente nivel se localizan los patrones de referencia, conjunto que sirve para preparar
los patrones de trabajo a nivel operativo.

El conjunto de patrones del nivel operativo (patrones de trabajo) constituye la base de la


pirámide.

La cadena de instituciones encargadas de operar el SI está encabezada por el BIPM, le siguen


los Laboratorios Nacionales de Metrología, a continuación están los Laboratorios de
Calibración y por último los Laboratorios de Trabajo.

Los laboratorios nacionales de metrología, custodian los patrones nacionales y tienen la


responsabilidad de diseminar las unidades SI a los laboratorios acreditados de calibración de
sus respectivos países.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

UNIDADES SI DE BASE

Son 7 unidades sobre las que se fundamenta el sistema y de cuya combinación se obtienen
todas las unidades derivadas. La magnitud correspondiente, el nombre de la unidad y su
símbolo se indican en la Tabla 1.

Definiciones útiles

Unidades SI base
-Unidades de medida de las magnitudes de base del Sistema Internacional de Unidades.

Magnitud
-Atributo de un fenómeno, cuerpo o sustancia que es susceptible a ser distinguido
cualitativamente y determinado cuantitativamente.

Sistema coherente de unidades (de medida)


-Sistema de unidades compuesto por un sistema de unidades de base y de unidades derivadas
compatibles.

Magnitudes de base
-Son magnitudes que dentro de un “sistema de magnitudes” se aceptan por convención, como
independientes unas de otras.

Unidades Suplementarias
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
-Son unidades que se definen geométricamente y pueden tener el carácter de unidad de base
o de unidad derivada. (Estas unidades son el radián y el esteradián).

Unidades derivadas
-Son unidades que se forman combinando entre si las unidades de base, o bien, combinando
las unidades de base, con las unidades suplementarias según expresiones algebraicas que
relacionan las magnitudes correspondientes de acuerdo a leyes simples de la física.

EJEMPLOS DE UNIDADES SI DERIVADAS


EXPRESADAS EN TÉRMINOS DE LAS
UNIDADES BASE
Estas unidades se forman por combinaciones simples de las unidades del SI de base
de acuerdo con las leyes de la física.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

UNIDADES QUE NO PERTENECEN AL SI, PERO QUE SE ACEPTAN PARA UTILIZARSE


CON EL MISMO
Este tipo de unidades no pertenece al Sistema Internacional de Unidades, pero por su uso
extendido se considera que es preferible mantenerlas.
En la tabla siguiente se indican sus equivalencias con las unidades del SI.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Tabla3. Unidades que no pertenecen al SI, pero que se aceptan


para utilizarse con el mismo

a) Aunque esta unidad debería escribirse con minúscula, el símbolo alterno “L” para litro fue
aceptado por la CGPM para evitar posibles confusiones entre la letra “l” y el número “1”; no se
acepta la letra cursiva como símbolo.
b) También se consideran unidades adicionales: el electrovolt (eV), la unidad de masa atómica
unificada (u) y la unidad astronómica (ua).

Los laboratorios de calibración aseguran que los equipos de medición así como los patrones de
referencia y de trabajo estén acordes con los patrones nacionales.

Los laboratorios de ensayos, en el nivel de trabajo, son los encargados de evaluar la


conformidad de productos que van a ser certificados. Para sus trabajos, utilizan patrones de
referencia, que son calibrados contra los patrones nacionales del estrato anterior.

Finalmente, encontramos las organizaciones o instituciones que utilizan los patrones de


trabajo, empleados por la industria y otros sectores, los cuales suelen ser calibrados contra
patrones de referencia y éstos a su vez contra patrones nacionales.

Un concepto importante en la metrología es el de la llamada trazabilidad . Por ello se entiende


la propiedad de una medición o del valor de un patrón, de estar relacionado a referencias
establecidas, generalmente patrones nacionales o internacionales, por medio de una cadena
continua de comparaciones, todas ellas con incertidumbres establecidas. La posibilidad de
determinar la trazabilidad de cualquier medición descansa en el concepto y las acciones de
calibración y en la estructura jerárquica de los patrones de la que ya hablamos.

Para los metrólogos, se entiende por calibración:


un conjunto de operaciones que establece, bajo condiciones específicas, la relación entre los
valores indicados por un instrumento de medición, sistema de medición, valores representados
por una medida materializada o un material de referencia y los valores correspondientes a las
magnitudes establecidas por los patrones. Algunos, indebidamente, le llaman calibración a un
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
proceso de comprobación o verificación que permite asegurar que entre los valores
indicados por un aparato o un sistema de medición y los valores conocidos correspondientes a
una magnitud medida, los desvíos sean inferiores a los errores máximos tolerados.

2.39 (6.11)
Calibración, f
Operación que bajo condiciones especificadas establece, en una primera etapa, una
relación entre los valores (1.19) y sus incertidumbres de medida (2.26) asociadas
obtenidas a partir de los patrones de medida (5.1), y las correspondientes indicaciones
(4.1) con sus incertidumbres asociadas y, en una segunda etapa, utiliza esta información
para establecer una relación que permita obtener un resultado de medida (2.9) a partir de
una indicación

NOTA 1 Una calibración puede expresarse mediante una declaración, una función de
calibración, un diagrama de calib ración (5.30), una curva de calibración (4.31) o una tabla de calibración.
En algunos casos, puede consistir en una corrección aditiva o multiplicativa de la indicación con su
incertidumbre correspondiente.

NOTA 2 Conviene no confundir la calibración con el ajuste de un sistema de medida (3.11),


a menudo llamado incorrectamente “autocalibración”, ni con una verificación (2.44) de la calibración.

NOTA 3 Frecuentemente se interpreta que únicamente la primera etapa de esta definición


corresponde a la calibración.

2.40
Jerarquía de calibración, f
Secuencia de calibraciones (2.39) desde una referencia hasta el sistema de medida
(2.18) final, en la cual el resultado de cada calibración depende del resultado de la
calibración precedente

NOTA 1 La incertidumbre de medida (2.26) va aumentando necesariamente a lo largo de la


secuencia de calibraciones.

NOTA 2 Los elementos de una jerarquía de calibración son patrones (5.19) y sistemas de
medida utilizados según procedimiento de medida (2.6).

NOTA 3 En esta definición, la referencia puede ser la definición de una unidad de medida
(1.9), a través de una realización practica, un procedimiento de medida o un patrón.

NOTA 4 La comparación entre dos patrones de medida puede considerarse como una
calibración si esta se utiliza para comprobar y, si procede, corregir el valor (1.19) y la incertidumbre
atribuida a uno de los patrones.

Por otra parte, los metrólogos suelen tomar en consideración las principales causas de error en
las mediciones, causas que pueden ser o no conocidas y controlables y que pueden deberse a
factores del medio ambiente en el que se llevan a cabo las mediciones, a defectos de
construcción o de calibración de los aparatos empleados, a fallas del operador o a la propia
interpretación de los datos, o a factores aleatorios.

PREFIJOS DEL SI
En la actualidad existen 20 prefijos, debido al gran número de ellos se dificulta su utilización; en
un tiempo estuvieron sujetos a desaparecer para substituirlos por potencias positivas y
negativas de base 10. Los prefijos no contribuyen a la coherencia del SI pero se ha visto la
necesidad de su empleo para facilitar la expresión de cantidades muy diferentes.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Tabla 4. Prefijos del SI

LA GRAMATICA DEL SI

REGLAS DE ESCRITURA DE LOS SÍMBOLOS DE LAS UNIDADES Y LOS PREFIJOS


La conformación de un lenguaje contiene reglas para su escritura que evitan confusiones y
facilitan la comunicación. Lo mismo sucede en el lenguaje de las medidas.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
El Sistema Internacional de Unidades (SI) tiene sus propias reglas de escritura que permiten
una comunicación unívoca.
Por ejemplo, abreviar indiscriminadamente o escribir con mayúscula el nombre de las unidades
es muy común en el medio y son faltas que podrían causar ambigüedad. En este capítulo se
presentan las reglas que apoyan el uso del Sistema Internacional (SI), en documentos escritos.
El cuidado que se ponga en aplicar estas reglas ayuda a incrementar la credibilidad y seriedad
en la presentación de resultados en los ambientes técnico y científico.

No. Descripción Escribir No escribir

1 El uso de unidades que no pertenecen al SI


debe limitarse a aquellas que han sido
aprobadas por la Conferencia General Pesas
y Medidas.
2 Los símbolos de las unidades deben m m
escribirse en caracteres romanos rectos, no Pa Pa
en caracteres oblicuos ni con letras cursivas.
3 El símbolo de las unidades debe escribirse metro m Mtr
con minúscula a excepción hecha de las que segundo s Seg
se derivan de nombres propios. No utilizar ampere A Amp.
abreviaturas. pascal Pa pa

4 En los símbolos, la substitución de una 5 km para indicar 5 Km porque


minúscula por una mayúscula no debe 5 kilómetros significa 5 kelvin
hacerse ya que puede cambiar el significado. metro

5 En la expresión de una magnitud, los 253 m 253m


símbolos de las unidades se escriben 5 ºC 5ºC
después del valor numérico completo, dejando 5º 5º
un espacio entre el valor numérico y el
símbolo. Solamente en el caso del uso de los
símbolos del grado, minuto y segundo de
ángulo plano, no se dejará espacio entre
estos símbolos y el valor numérico.
6 Contrariamente a lo que se hace para las 50 mm 50 mm.
abreviaciones de las palabras, los símbolos 50 kg 50 kgs
de las unidades se escriben sin punto final y
no deben pluralizarse para no utilizar la letra s
que por otra parte representa al segundo. En
el primer caso existe una excepción: se
pondrá punto si el símbolo finaliza una frase o
una oración.
7 Cuando la escritura del símbolo de una unidad segundo o s seg.
no pareciese correcta, no debe substituirse ampere o A Amp.
este símbolo por sus abreviaciones aún si kilogramo o kg Kgr
estas pareciesen lógicas. Se debe recordar la litros por minuto o LPM
escritura correcta del símbolo o escribir con L/min RPS ó RPM
todas las letras el nombre de la unidad o del s-1 o min-1 KPH
múltiplo a que se refiera. km/h

8 Cuando haya confusión con el símbolo l de 11 L 11 l


litro y la cifra 1, se puede escribir el símbolo L,
aceptada para representar a esta unidad por
la Conferencia General de Pesas y Medidas.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

9 Las unidades no se deben representar por sus cincuenta cincuenta km


símbolos cuando se escribe con letras su kilómetros
valor numérico.
10 Las unidades de las magnitudes derivadas momento de una momento de una
deben elegirse tomando en consideración fuerza: fuerza:
principalmente las unidades de las newton metro newton
magnitudes componentes de su definición. energía cinética: metro=joule
joule energía cinética:
newton metro

11 No deben agregarse letras al símbolo de las presión 10 kPa man.


unidades como medio de información sobre la manométrica 10 kPa abs.
naturaleza de la magnitud considerada. Las de10 kPa 120 Vac
expresiones MWe para “megawatts presión absoluta
eléctrico”,Vac para “volts corriente alterna” y de 10 kPa
kJt para “kilojoules térmico” deben evitarse. tensión en
Por esta razón no deben hacerse corriente alterna:
construcciones SI equivalentes al de las 120 V
abreviaciones“psia” y “psig” para distinguir
entre presión absoluta y presión manométrica;
en este caso, la palabra presión es la que
debe ser calificada apropiadamente.

12 El signo de multiplicación para indicar el N • m, N m, para mN que se


producto de dos o mas unidades debe ser de designar: confunde
preferencia un punto. Este punto puede newton metro con milinewton
suprimirse cuando la falta de separación de o
los símbolos de las unidades que intervengan m • N, para
en el producto no se preste a confusión designar:
metro newton

13 Cuando se escribe el producto de los m.s se dice metro metro por segundo
símbolos éste se expresa nombrando segundo kilogramo por
simplemente a estos símbolos. kg.m se dice metro
kilogramo metro

14 Cuando una magnitud es el producto de viscosidad Pa-s


2
varias magnitudes y entre estas no existe dinámica (): A-m
ningún cociente, el símbolo de la unidad de Pa•s
esta magnitud se forma por el producto del momento
símbolo de las unidades componentes. magnético (m):
2
A•m
3
15 Para no repetir el símbolo de una unidad que 1 dm 1 dm•dm•dm
interviene muchas veces en un producto, se 1 dm3 = (0,1 m)3 1 dm3 = 0,1 m3
utiliza el exponente conveniente. En el caso = 0,001 m3
de un múltiplo o de un submúltiplo, el
exponente se aplica también al prefijo.
-1
16 Para expresar el cociente de dos símbolos, m/s m.s m÷s
puede usarse entre ellos una línea inclinada o
una línea horizontal o bien afectar al símbolo
del denominador con un exponente negativo,
en cuyo caso la expresión se convierte en un
producto
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

17 Cuando una magnitud es el cociente de otras, km/h o kilómetro kilómetro entre


se expresa el nombre de la unidad de esa por hora hora
magnitud intercalando la palabra “por” entre el
nombre de la unidad del dividendo y el
nombre de la unidad del divisor.

18 En la expresión de un cociente no debe ser m/s2 m/s/s


usada mas de una línea inclinada. J/mol K J/mol/K

19 Cuando se trata del símbolo de una magnitud kV/m kV/mm


que sea el cociente de dos unidades, J/kg J/g
solamente se debe utilizar un prefijo y este
debe ser colocado en el numerador. Es
preferible en forma general, no usar múltiplos
o submúltiplos en el denominador
20 En las expresiones complicadas debe J/(mol.K) o bien J/mol•K
utilizarse paréntesis o exponentes negativos. J.mol-1.K-1 J/mol/K

21 Los nombres completos de las unidades y los m/s metro/s


símbolos de ellos no deben usarse
combinados en una sola expresión.

22 Si el nombre de una unidad figura muchas aceleración: aceleración: metro


veces en el denominador como factor de un metro por por segundo por
producto, se puede en lugar de repetirlo, segundo segundo
emplear según el caso, uno de los adjetivos cuadrado m/s.s
2
“cuadrado”, “cubo”, etc. m/s

23 En la escritura de los múltiplos y submúltiplos microfarad micro farad


de las unidades, el nombre del prefijo no debe
estar separado del nombre de la unidad.

24 Debe evitarse el uso de unidades de kilogramo por kilogramo por


diferentes sistemas. metro cúbico. galón

25 Celsius es el único nombre de unidad que se El newton es la el Newton es la


escribe siempre con mayúscula, los demás unidad SI unidad SI de
siempre deben escribirse con minúscula, de fuerza. fuerza
exceptuando cuando sea principio de una El grado Celsius El grado celsius es
frase. es una la unidad
unidad de de temperatura
temperatura.
Pascal es el
nombre dado a
la unidad SI de
presión

26 El plural de los nombres de las unidades se 10 newtons 10 N’s ó 10


forma siguiendo las reglas para la escritura 50 gramos Newton
del lenguaje. 50 gramo

27 Sin embargo, se recomienda los plurales Singular Plural


irregulares para los siguientes casos. Lux lux luxes
Hertz hertz hertzes
siemens siemens
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

28 Para escribir un producto con el nombre newton metro o watt-hora


completo de las unidades que intervienen, newton-metro
debe dejarse un espacio o un guión entre el exceptuando:
nombre de ellas. watthora

29 Los prefijos deberán ser usados con las 18,4 Gm 18 400 000 000 m
unidades SI para indicar orden de magnitud
ya que proporcionan convenientes substitutos
de las potencias de 10.

30 Se recomienda el uso de prefijos escalonados micro (µ), mili (m) preferir 0,1 kg a
de mil en mil. kilo (k), mega (M) 1hg

31 Los prefijos hecto, deca, deci y centi se dam2, dl, cm3 daK, cs, ccd
recomiendan únicamente en las magnitudes
de longitud, área y volumen. Sin embargo,
excepciones de ello pueden considerarse en
ciertos campos de aplicación como el de la
industria de la construcción, el de la madera,
etc.

32 No deben usarse prefijos repetidos en una PF µµF


sola expresión. Gg Mkg

33 Los prefijos que se utilicen para formar los Mg ( megagramo)


múltiplos y submúltiplos de las unidades, µs
deben ser antepuestos a las unidades básicas (microsegundo)
o derivadas del SI. Exceptuando la unidad mK (milikelvin)
básica, el kilogramo que ya contiene en si un
prefijo; en este caso el prefijo requerido debe
ser antepuesto al gramo.

34 El símbolo del prefijo no debe estar separado cm c m o c.m


del símbolo de la unidad ni por un espacio, ni
por cualquier signo tipográfico.

35 En las expresiones de magnitudes de la 15 mm de 5 mm de longitud x


misma naturaleza, los prefijos no deben ser longitud x 10 0,01m de altura
mezclados a menos que el valor numérico de mm de altura 5mm de diámetro
las magnitudes justifique una diferencia. 5 mm de diámetro x
por 10 10 000 mm de
m de longitud longitud

36 Solamente en los casos siguientes se admite megohm megaohm


la contracción del nombre del prefijo al kilohm kiloohm
anteponerse al nombre de la unidad hectárea hectaárea

37 Los prefijos giga (109) y tera (1012) deben ser 1 teraohm 1 billón de ohm
usados cuando se preste a confusión el
término “billón” que en unos países
representa un millar de millones y en otros un
millón de millones, por tanto el término billón
así como trillón, etc. no se recomienda en la
literatura técnica.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

38 Los valores numéricos serán expresados, 1,75 m 1 3/4 m


cuando así correspondan, en decimales y 0,5 kg 1/2 kg
nunca en fracciones. El decimal será
precedido de un cero cuando el número sea
menor que la unidad.

39 Se recomienda generalmente que los prefijos 9 Gg 9 000 000 kg


sean seleccionados de tal manera que los 1,23 nA 0, 001 23 mA
valores numéricos que le antecedan se sitúen
entre 0,1 y 1 000.
40 Otras recomendaciones cuyas reglas 20 mm x 30 mm x 20 x 30 x 40 mm
especificas no se indican pero que es 40 mm
conveniente observar 200 nm a 300 nm 200 a 300 nm
0 V a 50 V 0 - 50 V
(35,4 ± 0,1) m 35,4 ± 0,1 m
35,4 m ± 0,1 m 35,4 m ± 0,1
incertidumbre Ur = 3 ppm
relativa: 25 cc
Ur = 3 x 10 -6
25 cm3
TW Tohm
MW Mohm

Reglas adicionales de escritura

Regla Enunciado Ejemplo


El signo decimal debe ser una coma sobre
Signo decimal la línea (,). Si la magnitud de un número 70,250
es menor que la unidad, el signo decimal 0,468
debe ser precedido por un cero *

Los números deben ser impresos


Números generalmente en tipo romano (recto); para 943,056
facilitar la lectura con varios dígitos, estos 7 801 234,539
deben ser separados en grupos, 0,542
preferentemente de tres, contando del
signo decimal a la derecha y a la
izquierda. Los grupos deben ser
separados por un pequeño espacio, nunca
por una coma, un punto u otro medio.

Reglas para la escritura del signo decimal y los números.

Reglas Fecha Ejemplos

Se utilizan dos o cuatro 9 de julio de 1996 1996-07-09 ó 96-07-09


caracteres para el año, dos
para el mes y dos para el día, 12 de noviembre de 1997 1997-11-12 ó 97-11-12
en ese orden.
3 de enero de 2000 2000-01-03
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Reglas para la escritura de fechas por medio de dígitos


*NOTA: La Norma Oficial Mexicana NOM-008-SCFI-1993 establece como separador decimal la
coma. La Norma Internacional ISO-31 parte 0:1992 reconoce que en el idioma inglés se usa
frecuentemente el punto pero de conformidad con la decisión del Consejo de la ISO, se acepta
exclusivamente la coma como separador decimal en todos los documentos ISO.
El BIPM en su publicación “Le Système International d’Unites” 7ª edición 1998 en la parte
correspondiente a su prefacio manifiesta que por decisión del CIPM aprobada en 1997 se
acepta el punto decimal pero únicamente en los textos en idioma ingles. Debido a esto la
tendencia en los círculos técnicos y científicos en México, de usar el punto como separador
decimal, requiere previamente el cambio de la NOM-008-SCFI-1993 que por otra parte, debe
ser congruente con la normatividad que establecen los organismos internacionales.

Reglas Ejemplo correcto Ejemplo incorrecto

Se debe utilizar el sistema de 20 h 00 8 PM


24 horas con dos dígitos para
la hora, dos dígitos para los 09 h 30 9:30 hrs
minutos y dos dígitos para los
12 h 40 min 30 12 h 40’ 30 “
segundos. En los intermedios
se indica el símbolo de la
unidad

Reglas para expresar el horario del día

Correcto Incorrecto
watt vatio
ampere amperio
volt voltio
Ohm ohmio
vóltmetro Voltímetro
ampérmetro amperímetro
Castellanizar los nombres propios de las unidades
es contrario al carácter universal del SI

Se recomienda No se recomienda
tensión eléctrica, diferencia de potencial, voltaje
fuerza electromotriz, potencial eléctrico
corriente eléctrica amperaje
frecuencia Ciclaje
distancia en kilómetros kilometraje
potencia, flujo energético wattaje
Evitar confundir magnitudes con unidades mal expresadas

Se recomienda No se recomienda
alcance rango
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

patrón, nivel, modelo. prototipo, usual, común, estándar


norma, referencia, primario, normalizado
verificar, inspeccionar checar
Interruptor switch
cuadrante, escala dial
calibre, calibrador gauge
indicador electrónico, pantalla display
Utilización de términos no adecuados o incorrectamente traducidos

Los cambios que vienen

La NMX-Z-55-IMNC-2009, nos indica,

1 Magnitudes y unidades

1.1 (1.1)
Magnitud, f
Propiedad de un fenómeno, cuerpo o sustancia, que puede expresarse cuantitativamente
mediante un número y una referencia
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

NOTA 1 El concepto genérico de magnitud puede divisarse en varios niveles de conceptos


específicos, como muestra la tabla siguiente. La mitad izquierda de la Tabla 1 presenta conceptos
específicos de “magnitud”, mientras que la mitad derecha presenta conceptos genéricos para magnitudes
individuales.

Tabla 1 –Magnitudes

Concepto especifico Concepto genérico

radio, r Radio del círculo A, o


longitud, l
longitud de Longitud de onda de la radiación
onda, D del sodio, D O (D; Na)

energía energía cinética de la partícula i


cinética, T en un sistema dado,
energía, E
calor de vaporización de la
calor, Q
muestra i de agua,

carga eléctrica, Q carga eléctrica del protón, e

valor de la resistencia eléctrica i


resistencia eléctrica, R
en un circuito dado,
concentración: cantidad de
concentración de cantidad de
sustancia de etanol en muestra i
sustancia del constituyente B,
de vino,
concentración: numero de
concentración de cantidad de
eritrocitos en la muestra i de
sustancia del constituyente B,
sangre,

dureza Rockwell C (carga de 150 dureza Rockwell C de la muestra


kg), HRC (150 kg) 1 de hacer, HRCi(150 kg)

NOTA 2 La referencia puede ser una unidad de medida (1.9), un procedimiento de medida
(2.6) un material de referencia (5.13) o una combinación de ellos.

NOTA 3 Las series de normas internacionales ISO 80000 e IEC 8000 Magnitudes y
Unidades, establecen los símbolos de las magnitudes. Estos símbolos se escriben en caracteres itálicos.
Un símbolo dado puede referirse a magnitudes diferentes.

NOTA 4 El formato referido por la IUPAC/FCC para la designación de las magnitudes en


laboratorio médicos es “Sistema-Componentes; naturaleza de la magnitud”.

EJEMPLO “plasma (sangre) – los sólidos; concentración de cantidad de sustancia igual a


143 mmol/l en una persona determinada en un instante dado”.

NOTA 5 Una magnitud, tal como se define aquí, es una magnitud escalar,. Sin embargo, un
vector o un tensor, cuyas componentes sean magnitudes, también se considera como una magnitud.

NOTA 6 El concepto de “magnitud” puede dividirse, de forma genérica, en “magnitud física”,


“magnitud química” y “magnitud biológica”, o bien en magnitud de base (1.4) y magnitud derivada (1.5).

1.2 (1.1 nota 2)


Naturaleza de una magnitud, f
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Naturaleza, f
Propiedad común a magnitudes (1.1) mutuamente comparables

NOTA 1 La clasificación de las magnitudes según su naturaleza es en cierta medida


arbitraria.

EJEMPLO 1 Las magnitudes diámetro, circunferencias y longitud de onda se consideran


generalmente magnitudes de una misma naturaleza denominada longitud.

EJEMPLO 2 Las magnitudes calor, energía cinética y energía potencial se consideran


generalmente magnitudes de una misma naturaleza denominada energía.

NOTA 2 Las magnitudes de la misma naturaleza en un sistema de magnitudes (1.3) dado


tienen la misma dimensión (1.7). Sin embargo las magnitudes de la misma dimensión no son
necesariamente de la misma naturaleza.

EJEMPLO Por convenio, las magnitudes momento de una fuerza y energía no se


consideran de la misma naturaleza, aunque tengan la misma dimensión. Análogamente sucede
con la capacidad térmica y la entropía, y con la permeabilidad relativa y la fracción de masa.

1.3 (1.2)
Sistema de magnitudes, m
Conjunto de magnitudes (1.1) relacionadas entre sí mediante ecuaciones no
contradictorias
NOTA Las magnitudes ordinales (1.26), tales como la dureza Rockwell C, generalmente
no se consideran parte de un sistema de magnitudes, porque están enlazadas a otras magnitudes
solamente por relaciones empíricas.

1.4 (1.3)
Sistema de base, f
Magnitud básica
Magnitud (1.1) de un subconjunto elegido por convenio, dentro de un sistema de
magnitudes (1.3) dado, de tal manera que ninguna magnitud del subconjunto pueda ser
expresada en función de las otras

NOTA 1 El subconjunto mencionado en la definición se denomina “conjunto de magnitudes


de base” o “conjunto de magnitudes básicas”.

EJEMPLO El conjunto de magnitudes de base del Sistema Internacional de Magnitudes


(ISQ) de acuerdo con 1.6.

NOTA 2 Las magnitudes básicas se consideran independientes entre si, dado que una
magnitud básica no puede expresarse mediante un producto de potencias de otras magnitudes básicas.

NOTA 3 La magnitud “numero de entidades” puede considerarse como una magnitud básica
dentro de cualquier sistema de magnitudes.

1.5 (1.4)
Magnitud derivada, f
Magnitud (1), dentro de un sistema de magnitudes (1.3) definida en función de las
magnitudes de base (1.4) de ese sistema

EJEMPLO En un sistema de magnitudes que tenga como magnitudes básicas la longitud y


la masa, la densidad de masa es una magnitud derivada definida como el cociente entre una
masa y un volumen (longitud elevada al cubo).

1.6
Sistema internacional de magnitudes, m
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

ISQ
Sistema de magnitudes (1.3) basado en las siete magnitudes básicas (1.4): longitud,
masa, tiempo corriente eléctrica, temperatura termodinámica, cantidad de sustancia e
intensidad luminosa

NOTA 1 Este sistema de magnitudes esta publicado en las series de normas internacionales
ISO 80000 e IEC 8000, Magnitudes y Unidades.

NOTA 2 El Sistema Internacional de Unidades (SI) está basado en el ISQ; véase en 1.16.

1.7 (1.5)
Dimensión de una magnitud, f
Dimensión, f
Expresión de la dependencia de una magnitud (1.1) en términos de la magnitudes de
base (1.4) dentro de un sistema de magnitudes (1.3), como el producto de potencias de
factores correspondientes a dichas magnitudes de base (1.4), omitiendo cualquier factor
numérico

EJEMPLO 1 En el ISQ, la dimensión de la magnitud fuerza es dim F = LMT²

EJEMPLO 2 En el mismo sistema de magnitudes, dim es la dimensión de la


concentración de masa del constituyente B y también la dimensión de la densidad de masa .

EJEMPLO 3 El periodo T de un péndulo de longitud I, donde la aceleración local de la gravedad


es g, es
o

Donde

En consecuencia, dim C(g) = .

NOTA 1 Una potencia de un factor es dicho factor elevado a un exponente. Cada factor
expresa la dimensión de una magnitud de base.

NOTA 2 Por convenio, el símbolo de la dimensión de una magnitud de base es una letra
mayúscula en caracteres romanos (rectos) sencillos². Por convenio, el símbolo de la dimensión de una
magnitud derivada (1.5) es el producto de potencias de las dimensiones de las magnitudes de base
conforme a la definición de la magnitud derivada. La dimensión de la magnitud Q se expresa como dim .

NOTA 3 Para establecer la dimensión de una magnitud, no se tiene en cuenta el carácter


escalar, vectorial y tensorial de la misma.

NOTA 4 En un sistema de magnitudes determinado.

- Las magnitudes de la misma naturaleza (1.2) tienen la misma dimensión,

- Las magnitudes de dimensiones diferentes son siempre de naturaleza diferente, y

- Las magnitudes que tienen la misma dimensión no tienen por qué ser de la misma
naturaleza.

NOTA 5 En el Sistema Internacional de Magnitudes (ISQ) (1.6), los símbolos


correspondientes a las dimensiones de las magnitudes básicas. Véase en la Tabla 2.

Tabla 2 – Magnitudes básicas


Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Magnitud básica Dimensión


Longitud L
Masa M
Tiempo T
Corriente eléctrica I
Temperatura termodinámica θ
Cantidad de sustancia N
Intensidad luminosa J

Por lo tanto, la dimensión de una magnitud se expresa por dim


, donde los exponentes, denominados exponentes
dimensionales, pueden ser positivos, negativos o nulos.

1.8 (1.6)
Magnitud de dimensión uno, f
Magnitud adimensional, f
Magnitud (1.1) para la cual son nulos todos los exponentes de los factores
correspondientes a las magnitudes básicas (1.4) que intervienen en su dimensión (1.7)

NOTA 1 Por razones históricas, es común utilizar el término “magnitud dimensional”. Esto
deriva de que en la representación simbólica de la dimensión de dicha magnitud, todos los exponentes
son nulos. La representación simbólica de la dimensión de la “magnitud de dimensión uno” es 1, por
convenio véase [1].

NOTA 2 Las unidades de medida (1.9) y los valores de las magnitudes adimencionales son
números, pero estas magnitudes aportan más información que un número.

NOTA 3 Algunas magnitudes adimencionales se definen como cocientes de dos magnitudes


de la misma naturaleza.

EJEMPLOS Ángulo plano, ángulo sólido, índice de refracción, permeabilidad relativa,


fracción en masa, coeficiente de razonamiento, número de Mach.

NOTA 4 Los números de entidades son magnitudes adimencionales.

1.9 (1.7)
Unidad de medida, f
Unidad, f
Magnitud (1.1) escalar real, definida y adoptada por convenio, con la que se puede
comparar cualquier otra magnitud de la misma naturaleza (1.2) para expresar la relación
entre ambas mediante un número

NOTA 1 Las unidades se expresan mediante nombres y símbolos, asignados por convenio.

NOTA 2 Las unidades de las magnitudes que tiene la misma dimensión (1.7) pueden
designarse por el mismo nombre y el mismo símbolo, aunque no sean de la misma naturaleza. Por
ejemplo, se emplea el nombre “joule por kelvin” y el símbolo J/K para designar a la vez una unidad de
capacidad térmica y una unidad de entropía, aunque estas magnitudes no sean consideradas en general
de la misma naturaleza. Sin embargo, en ciertos casos, se utilizan nombres especiales exclusivamente
para magnitudes de una naturaleza específica. Por ejemplo la unidad segundo a la potencia menos uno
(1/s) se denomina hertz (HZ) para las frecuencias y becquerel (Bq) para las actividades de radionucleidos.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
NOTA 3 Las unidades de las magnitudes de dimensión uno (1.28) son números. En ciertos
casos se les da nombres especiales; por ejemplo radián, estereorradián y decibel, o se expresan
mediante cocientes como el milimol por mol, igual a , o el microgramo por kilogramo, igual a .

NOTA 4 Para una magnitud dada, el nombre abreciado “unidad” se combina frecuentemente con el
nombre de la magnitud, por ejemplo “unidad de masa”.

1.10 (1.13)
Unidad de base, f
Unidad básica
Unidad de medida (1.9) adoptada por convenio para una magnitud de base (1.4).

NOTA 1 en todo sistema coherente de unidades (1.14), hay una sola unidad básica para
cada magnitud de base.

EJEMPLO En el SI, el metro es la unidad de base de longitud. En el sistema CGS, el


centímetro es la unidad de base de longitud.

NOTA 2 Una unidad de base puede también utilizarse para una magnitud derivada (1.5) de
la misma dimensión (1.7).

EJEMPLO La cantidad de precipitación de agua de lluvia, definida como un volumen por


unidad de superficie, utiliza el metro como unidad derivada coherente en el SI.

NOTA 3 Para el número de entidades, se puede considerar el número uno, de símbolo 1,


como una unidad básica en cualquier sistema de unidades (1.13)

1.11 (1.14)
Unidad derivada, f
Unidad de medida de una magnitud derivada, f
Unidad de medida (1.9) para una magnitud derivada (1.5)

EJEMPLOS El metro por segundo, de símbolo m/s, y el centímetro por segundo, de símbolo
cm/s, son unidades derivadas de la velocidad en el SI. El kilometro por hora, de símbolo KM/H, es una
unidad de velocidad fuera del SI por cuyo uso es aceptado con el SI. El nudo, igual a una milla marina por
hora, es una unidad de velocidad fuera del SI.

1.12 (1.10)
Unidad derivada coherente, f
Unidad derivada (1.11) que, para un sistema de magnitudes (1.3) y un conjunto de
unidades básicas 81.10) dados, es producto de potencias de unidades de base, sin otro
factor de proporcionalidad que el número uno.
NOTA 1 La potencia de una unidad de base es una unidad elevada a un exponente.

NOTA 2 La coherencia se determina exclusivamente respecto a un sistema particular de


magnitudes y a un conjunto determinado de unidades básicas.

EJEMPLO Si el metro, el segundo y el mol. Son unidades de base, el metro por segundo es la
unidad derivada coherente de velocidad cuando ésta se define mediante la ecuación entre
magnitudes , y el mol por metro cubico en la unidad derivada coherente de
concentración de cantidad de sustancia, cuando dichas concentración se define mediante la
ecuación entre magnitudes . El kilometro por hora y el nudo, dados como ejemplos de
unidades derivadas en 1.11, no son unidades derivadas coherentes del SI.

NOTA 3 Una unidad derivada pueden ser coherentes respecto a un sistema de magnitudes,
pero no respecto a otro.

EJEMPLO El centímetro por segundo es la unidad derivada coherente de velocidad en el


sistema de unidades CGS, pero no es una unidad derivada coherente en el SI.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
NOTA 4 En todo sistema de unidades, la unidad derivada coherente de toda magnitud
derivada de dimensión uno es el número uno, de símbolo 1. El nombre y el símbolo de la unidad de
medida (1.09) uno generalmente se omiten.

1.13 (1.9)
Sistema de Unidades, m
Conjunto de unidades de base (1.10) y unidades derivadas (1.11), sus múltiplos (1.17)
y submúltiplos (1.18), definidos conforme a reglas dadas, para un sistema de
magnitudes (1.3) dado

1.14 (1.11)
Sistema coherente de unidades, m
Sistema de unidades (1.13) basado en un sistema de magnitudes (1.3) determinado, en
el que la unidad de medida (1.9) de cada magnitud derivada (1.5) es una unidad
derivada coherente (1.12)

EJEMPLO El conjunto de unidades SI y las relaciones entre ellas.

NOTA 1 Un sistema de unidades solo puede ser coherente respecto a un sistema de


magnitudes y a las unidades de base (1.10) adoptadas.

NOTA 2 Para un sistema coherente de unidades, las ecuaciones entre valores numéricos
(1.25) tienen la misma forma, incluyendo los factores numéricos, que las correspondientes ecuaciones
entre magnitudes (1.22).

1.15 (1.15)
Unidad cura del sistema, f
Unidad de medida (1.9), que no pertenece a un sistema de unidades (1.13) dado.

EJEMPLO 1 El electrónvolt (aproximadamente 1.602 18 x J) es una unidad de energía


fuera del sistema SI.

EJEMPLO 2 El día, la hora y el minuto son unidades de tiempo fuera del sistema SI.

1.16 (1.12)
Sistema internacional de unidades, m
Sistema SI, m
SI
Sistema de unidades (1.13) basado en el sistema internacional de magnitudes (1.6),
con nombres y símbolos de las unidades, y con una serie de prefijos con sus nombres y
símbolos, así como reglas para su utilización adoptado por la Conferencia General de
Pesas y Medidas (CGPM)

NOTA 1 El SI está basado en las siete magnitudes básicas (1.4) del ISQ. Los nombres y
símbolos de las unidades básicas (1.10) se prestan en la Tabla 3:

Tabla 3 – Unidades básicas

Magnitud básica Unidad básica


Nombre Nombre Símbolo
longitud Metro m
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

masa Kilogramo kg
tiempo Segundo s
corriente eléctrica Ampere A
temperatura termodinámica Kelvin K
cantidad de sustancia Mol mol
intensidad luminosa candela cd

NOTA 2 Las unidades básicas y las unidades derivadas coherentes del SI forman un
conjunto coherente, denominado “conjunto de unidades SI coherentes”.

NOTA 3 Una descripción explicación completa del Sistema Internacional de Unidades puede
encontrarse en la última edición del folleto sobre el SI, publicado por la Oficina Internacional de Pesas y
Medidas (BIPM) y disponible en la página en internet del BIPM.

NOTA 4 En álgebra de magnitudes (1.21), la magnitud “numero de entidades” se considera


frecuentemente como magnitud básica, con unidad básica uno, símbolo 1.

NOTA 5 Los prefijos SI para los múltiplos y submúltiplo de las unidades. Véase Tabla 4:

Tabla 4 – Prefijos SI para múltiplos y submúltiplos

Prefijo
Factor
Nombre Símbolo
yotta Y
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

zetta Z
exa E
peta P
yera T
giga G
mega M
kilo k
hecto h
deca da
deci d
centi c
mili m
micro µ
nano n
pico p
remto f
atto a
zepto z
yocto y

1.17 (1.16)
Múltiplo de una unidad, m
Unidad de medida (1.9) obtenida multiplicando una unidad de medida dada por un
número entero mayor que uno

EJEMPLO 1 El kilometro es un múltiplo decimal del metro

EJEMPLO 2 La hora es un múltiplo de decimal del segundo

NOTA 1 Los prefijos SI para los múltiplos decimales de las unidades básicas y de las
unidades derivadas del SI se hallan en la Nota 5 de 1.16.

NOTA 2 Los prefijos SI representan estrictamente potencias de 10 y conviene no utilizarlos


para potencias de 2, Por ejemplo, conviene no utilizar 1 kilobit para representar 1024 bits ( bits), que es
1 kibibit. Véase Tabla 5.

Prefijo
Factor
Nombre Símbolo
yoby Yi
zebi Zi
exbi Ei
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

pebi Pi
tebi Ti
gigi Gi
mebi Mi
kiby Ki

[Fuente: IEC 80000-13]

1.18 (1.17)
Submúltiplo de una unidad, m
Unidad de medida (1.9) obtenida al dividir una unidad de medida dada por un número
entero mayor que uno

EJEMPLO 1 El milímetro es un submúltiplo decimal del metro.

EJEMPLO 2 Para el ángulo plano, el segundo es un submúltiplo no decimal del minuto

NOTA Los prefijos SI para los submúltiplos decimales de las unidades básicas (1.10) y de
las unidades derivadas (1.11) del SI se hallan en la Nota 5 de 1.16.

1.19 (1.18)
Valor de una magnitud, m
Valor, m
Conjunto formado por un número y una referencia, que sustituye la expresión cuantitativa de una
magnitud (1.1)

EJEMPLO 1 Longitud de una varilla determinada: 5,34 m ó 534 cm,

EJEMPLO 2 Masa de un cuerpo determinado: 0.152 kg ó 152 g

EJEMPLO 3 Curvatura de un arco determinado: 112

EJEMPLO 4 Temperatura Celsius de una muestra determinada -5 ºC

EJEMPLO 5 Impedancia eléctrica de un elemento de un circuito determinado a una frecuencia


dada, donde j es la unidad imaginaria: (7 + 3 j) Ω

EJEMPLO 6 Índice de refracción de una muestra dada de vidrio: 1,32

EJEMPLO 7 Dureza Rockwell C de una muestra dada (con carga de 150 kg):43.5 HRC (150 kg)

Ejemplo 8 Fracción de masa de cadmio en una muestra dada de cobre:3 µg/kg ó 3 x

EJEMPLO 9 Molalidad de en una muestra determinada de agua: 1,75 µmol/kg

EJEMPLO 10 Concentración arbitraria de cantidad de masa de lutropina en una muestra dada de


plasma (patrón internacional 80/552 de la OMS): 5,0 UI/I

NOTA 1 Según el tipo de referencias, el valor de una magnitud puede ser:

— El producto de un numero y una unidad de medida (1.9) (véase los Ejemplos 1, 2, 3,


4, 5, 8, y 9); la unidad uno generalmente no se indica para las magnitudes adimencionales
(véase Ejemplos 6 y 8),

— Un numero y la referencia a un procedimiento de medida (2.6) (véase Ejemplo 7), o


Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
— Un número y un material de referencia (5.13) (véase Ejemplo 10).

NOTA 2 El numero puede ser complejo (véase Ejemplo 5),

NOTA 3 El valor de una magnitud puede representarse de varias maneras (véase Ejemplo 1,
5 y 8),

NOTA 4 En el caso de las magnitudes vectoriales o tensoriales, cada componente tiene un


valor.

EJEMPLO 11 Fuerza que actúa sobre una partícula determinada, por ejemplo en coordenadas
cartesianas ( ; ; ) = (-31.5; 43.2; 17,0) N.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

5.-Definición clásica de “masa”

Definición de MASA

Una definición sencilla de “masa”

La masa de un cuerpo se manifiesta de dos maneras; una es en el cambio de


estado de movimiento (inercia) y la otra es en la atracción entre los cuerpos.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Supongamos un túnel al vacío, con un plano que sirva de pista, con la cara superior
perfectamente lubricada de forma que, al colocar un objeto sobre esa superficie y al
desplazarlo, no exista fricción entre la superficie y el objeto. Entonces, si el objeto está en
reposo y lo ponemos en movimiento, el esfuerzo necesario para moverlo sería
una manifestación de la masa del objeto.

En el mismo túnel y en las mismas condiciones, si retiramos la pista, el objeto cae atraído
por el planeta Tierra y ésta sería la otra manifestación de la masa del objeto.

En ambos casos, tanto la medida del esfuerzo para mover el objeto como la medida de la
caída serían la medida de la masa del objeto.

Dicho de otra forma, la masa es la cantidad de materia contenida en un volumen determinado


mientras que el peso es el resultado de la atracción de la Tierra sobre esa masa.

Es claro que una balanza analítica de laboratorio no requiere del mismo grado de exactitud que
i i i i
una balanza controladora de vehículos de carga. La exactitud de los patrones de masa puede
definirse conforme a las categorías E , F , M con i valores que van usualmente de un
miligramo a 50 kilogramos. A las masas con alta exactitud les corresponde la categoría
Ei , a las masas de exactitud fina les corresponde la categoría F y a las de exactitud media
les corresponde la categoría M.

Una definición técnica

La masa es la magnitud que cuantifica la cantidad de materia de un cuerpo. La unidad de


masa, en el Sistema Internacional de Unidades es el kilogramo (kg). No debe confundirse con
el peso, que es una fuerza.
El concepto de masa surge de la confluencia de dos leyes, la ley Gravitación Universal de
Newton y la 2ª Ley de Newton (o 2º "Principio"): según la ley de la Gravitación de Newton, la
atracción entre dos cuerpos es proporcional al producto de dos constantes, denominadas
"masa gravitatoria", una de cada uno de ellos, siendo así la masa gravitatoria una propiedad
de la materia en virtud de la cual dos cuerpos se atraen; por la 2ª ley (o principio) de Newton, la
fuerza aplicada sobre un cuerpo es directamente proporcional a la aceleración que sufre,
denominándose a la constante de propocionalidad "masa inercial" del cuerpo.
No es obvio que la masa inercial y la masa gravitatoria coincidan. Sin embargo todos los
experimentos muestran que sí. Para la física clásica esta identidad era accidental. Ya Newton,
para quien peso e inercia eran propiedades independientes de la materia, propuso que ambas
cualidades son proporcionales a la cantidad de materia, a la cual denominó "masa". Sin
embargo para Einstein, la coincidencia de masa inercial y masa gravitacional, fue un dato
crucial y uno de los puntos de partida para su teoría de la Relatividad y por tanto para la
comprensión de la naturaleza. Según Einstein esa identidad significa que "la misma cualidad de
un cuerpo se manifiesta de acuerdo con las circunstancias como inercia o como peso". Esto
llevó a Einstein a enunciar el "principio de equivalencia": las leyes de la naturaleza deben
expresarse de modo que sea imposible distinguir entre un campo gravitatorio uniforme y un
sistema referencial acelerado. Así pues, "masa inercial" y "masa gravitatoria" son
indistinguibles y, consecuentemente, cabe un único concepto de "masa" como sinónimo de
"cantidad de materia" según formuló Newton.
Por tanto, en palabras de D.M. MacMaster, la masa es la expresión de la cantidad de materia
de un cuerpo, revelada por su peso o por la cantidad de fuerza necesaria para producir en un
cuerpo cierta cantidad de movimiento en un tiempo dado * MacMasters, D.M. (1964), Gran
Enciclopedia del Mundo, Bilbao: Durvan, S.A. de Ediciones. B1.-1.021-1964. .
En la física clásica, la masa es una constante del cuerpo. En física relativista es función de la
velocidad que el cuerpo posee respecto al observador. Además, la física relativista demuestra
la relación de la masa con la energía y queda probada por las reacciones nucleares, por
ejemplo por la explosión de un arma nuclear, quedando patente la masa como una magnitud
que trasciende a la masa inercial y a la masa gravitacional.
Es un concepto central en la química, la física y disciplinas afines.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico


Masa inercial
La masa BB inercial viene determinada por la Segunda y Tercera Ley de Newton. Dados dos
cuerpos, A y B, con masas inerciales mA (conocida) y mB (que se desea determinar), en la
hipótesis dice que las masas son constantes y que ambos cuerpos están aislados de otras
influencias físicas, de forma que la única fuerza presente sobre A es la que ejerce B,
denominada FAB, y la única fuerza presente sobre B es la que ejerce A, denominada FBA, de
acuerdo con la Segunda Ley de Newton:

donde aA y aB son las aceleraciones de A y B, respectivamente. Es necesario que estas


aceleraciones no sean nulas, es decir, que las fuerzas entre los dos objetos no sean iguales a
cero. Una forma de lograrlo es, por ejemplo, hacer colisionar los dos cuerpos y efectuar las
mediciones durante el choque.
La Tercera Ley de Newton afirma que las dos fuerzas son iguales y opuestas:

.
Sustituyendo en las ecuaciones anteriores, se obtiene la masa de B como

.
Así, el medir aA y aB permite determinar mB en relación con mA, que era lo buscado. El requisito
de que aB sea distinto de cero hace que esta ecuación quede bien definida.
En el razonamiento anterior se ha supuesto que las masas de A y B son constantes. Se trata
de una suposición fundamental, conocida como la conservación de la masa, y se basa en la
hipótesis de que la materia no puede ser creada ni destruida, sólo transformada (dividida o
recombinada). Sin embargo, a veces es útil considerar la variación de la masa del cuerpo en el
tiempo; por ejemplo, la masa de un cohete decrece durante su lanzamiento. Esta aproximación
se hace ignorando la materia que entra y sale del sistema. En el caso del cohete, esta materia
se corresponde con el combustible que es expulsado; la masa conjunta del cohete y del
combustible es constante.

Masa gravitacional
Considérense dos cuerpos A y B con masas gravitacionales MA y MB, separados por una
distancia |rAB|. La Ley de la Gravitación de Newton dice que la magnitud de la fuerza
gravitatoria que cada cuerpo ejerce sobre el otro es

donde G es la constante de gravitación universal. La sentencia anterior se puede reformular de


la siguiente manera: dada la aceleración g de una masa de referencia en un campo
gravitacional (como el campo gravitatorio de la Tierra), la fuerza de la gravedad en un objeto
con masa gravitacional M es de la magnitud

Esta es la base según la cual las masas se determinan en las balanzas. En las balanzas de
baño, por ejemplo, la fuerza |F| es proporcional al desplazamiento del muelle debajo de la
plataforma de pesado (Ley de Hooke), y la escala está calibrada para tener en cuenta g de
forma que se pueda leer la masa M.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Equivalencia de la masa inercial y la masa gravitatoria


Se demuestra experimentalmente que la masa inercial y la masa gravitacional son iguales —
con un grado de precisión muy alto—. Estos experimentos son esencialmente pruebas del
fenómeno ya observado por Galileo de que los objetos caen con una aceleración independiente
de sus masas (en ausencia de factores externos como el rozamiento).
Supóngase un objeto con masas inercial y gravitacional m y M, respectivamente. Si la
gravedad es la única fuerza que actúa sobre el cuerpo, la combinación de la segunda ley de
Newton y la ley de la gravedad proporciona su aceleración como

Por tanto, todos los objetos situados en el mismo campo gravitatorio caen con la misma
aceleración si y sólo si la proporción entre masa gravitacional e inercial es igual a una
constante. Por definición, se puede tomar esta proporción como 1.

Consecuencias de la Relatividad

En la teoría especial de la relatividad la "masa" se refiere a la masa inercial de un objeto


medida en el sistema de referencia en el que está en reposo (conocido como "sistema de
reposo"). El método anterior para obtener la masa inercial sigue siendo válido, siempre que la
velocidad del objeto sea mucho menor que la velocidad de la luz, de forma que la mecánica
clásica siga siendo válida.
Históricamente, se ha usado el término "masa" para describir a la magnitud E/c², (que se
denominaba "masa relativista") y a m, que se denominaba "masa en reposo". Los físicos no
recomiendan seguir esta terminología, porque no es necesario tener dos términos para la
energía de una partícula y porque crea confusión cuando se habla de partículas "sin masa". En
este artículo, siempre se hace referencia a la "masa en reposo".
En la mecánica relativista, la masa de una partícula libre está relacionada con su energía y su
momento según la siguiente ecuación:

Que se puede reordenar de la siguiente manera:

El límite clásico se corresponde con la situación en la que el momento p es mucho menor que
mc, en cuyo caso se puede desarrollar la raíz cuadrada en una serie de Taylor:

El término principal, que es el mayor, es la energía en reposo de la partícula. Si la masa es


distinta de cero, una partícula siempre tiene como mínimo esta cantidad de energía,
independientemente de su momentum. La energía en reposo, normalmente, es inaccesible,
pero puede liberarse dividiendo o combinando partículas, como en la fusión y fisión nucleares.
El segundo término es la energía cinética clásica, que se demuestra usando la definición
clásica de momento cinético:
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

y sustituyendo para obtener:

La relación relativista entre energía, masa y momento también se cumple para partículas que
no tienen masa (que es un concepto mal definido en términos de mecánica clásica). Cuando m
= 0, la relación se simplifica en

donde p es el momento relativista.


Esta ecuación define la mecánica de las partículas sin masa como el fotón, que son las
partículas de la luz.
Masa Convencional
Según el documento D28 "Conventional value of the result of weighing in air" de la
Organización Internacional de Metrología Legal (OIML), la masa convencional de un cuerpo es
igual a la masa de un patrón de densidad igual a 8000 kg/m3 que equilibra en el aire a dicho
cuerpo en condiciones convencionalmente escogidas: temperatura del aire igual a 20 ºC y
3
densidad del aire igual a 0,0012 g/cm
Esta definición es fundamental para un comercio internacional sin controversias sobre pesajes
realizados bajo distintas condiciones de densidad del aire y densidad de los objetos. Si se
pretendiera que las balanzas midan masa, sería necesario contar con patrones de masa de la
misma densidad que los objetos cuya masa interese determinar, lo que no es práctico y es la
razón por la que se definió la Masa Convencional, la cual es la magnitud que miden las
balanzas con mayor exactitud que masa.

Para calcular el valor convencional de la masa de un cuerpo

1 − ρ 0 
 ρ 
mc = m 
1 − ρ 0 
 ρ c 

En donde:
mc es la masa convencional de la pesa
m es la masa de la pesa
ρ0 es la densidad convencional del aire (1,2 kg/m3)
ρ es la densidad de la pesa
ρc es el valor de la densidad de referencia (8 000 kg/m3)

En la recomendación OIML R111 (NOM-038) pueden encontrarse los diferentes límites de


tolerancia para la exactitud de distintas masas patrón en las categorías Ei , Fi y Mi . La
calidad de la medición está caracterizada por la incertidumbre de la misma.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

6.-Equipos para medir masa

Equipos de medición

La balanza es el instrumento más antiguamente conocido que se utiliza para medir la


masa. Mientras no se cambie la definición del kilogramo sólo podemos comparar masa y no
podremos medirla en forma directa .La técnica contemporánea permite la construcción de
innumerables tipos y capacidades del artefacto, adecuados para los usos específicos que se
desee, ya sea en laboratorios, industrias, comercios, agencias estatales, etc. Los
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
requerimientos básicos de las balanzas son que sean estables, exactas, sensibles y que
puedan ser calibradas.

Pero que es una balanza?

La balanza (del latín: bis, dos, lanx, plato) es una palanca de primer género de brazos iguales
que mediante el establecimiento de una situación de equilibrio entre los pesos de dos cuerpos
permite medir masas. Al igual que una romana, es un instrumento de medición que permite
medir la masa de un objeto.
Para realizar las mediciones se utilizan patrones de masa cuyo grado de exactitud depende de
la precisión del instrumento. Al igual que en una romana, pero a diferencia de una báscula o un
dinamómetro, los resultados de las mediciones no varían con la magnitud de la aceleración de
la gravedad.
El rango de medida y exactitud de una balanza puede variar desde varios kilogramos (con
divisiones en gramos), en balanzas industriales y comerciales; hasta unos gramos (con
divisiones en miligramos) en balanzas de laboratorio.

Historia

Una de las más antiguas representaciones de una balanza: Anubis pesando el corazón en el
juicio de Osiris, pintado sobre papiro.

Balanza para pesar tabaco.

La balanza ya aparece representada en el Antiguo Egipto en numerosos bajorrelieves y


papiros. En el Libro de los muertos, que data del segundo milenio a. C., aparece la balanza de
platillos, colgados de los extremos del brazo, suspendido de un soporte central, para comparar
el peso del corazón del difunto, símbolo de sus actos, con el de la pluma de la diosa Maat,
símbolo de la Justicia y Orden Universal.

Entre las balanzas que se hallan en el Museo de Nápoles, descubiertas en Pompeya, se


observan de cuatro diferentes clases:
• de dos platillos, con un peso que puede correr por uno de los brazos,
• de un platillo, pendiendo del brazo de palanca un peso móvil,
• de ganchos, sin platillos, que se conoce con el nombre de romana. En Roma se
popularizó esta balanza. Sus dos brazos tienen distinta longitud y el objeto que se quiere pesar
se cuelga del más corto. A lo largo del brazo largo se desliza un peso o pilón, hasta que los
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
brazos quedan en equilibrio. Las marcas situadas en el brazo del pilón indican el peso del
objeto. Al utilizar el principio de la palanca, tiene la ventaja que el pilón puede ser de mucho
menor masa que el objeto a medir;
• la balanza para líquidos a modo de cacerola de mango prolongado que hace las veces
de brazo de romana.
Las pesas suelen llevar grabado algún número o escala numérica; y están fabricadas
generalmente de alguno de los siguientes materiales: bronce, plomo, piedra e incluso barro
cocido. Cuando no llevan señal de ninguna clase, denuncian mayor antigüedad pues hasta el
imperio de Octavio Augusto no se estableció en Roma ni en sus provincias la magistratura
encargada de señalar y vigilar la medida de los pesos, aunque anteriormente algunas pesas sí
estuvieron señaladas.
Uso de la balanza

Balanza para pesar los alimentos en una panadería.

Las balanzas se utilizan para pesar los alimentos que se venden a granel, al peso: carne,
pescado, frutas, etc. Con igual finalidad puede utilizarse en los hogares para pesar los
alimentos que componen una receta. También se emplean en los laboratorios para pesar
pequeñas cantidades de masa de reactivos para realizar análisis químicos o biológicos. Estas
balanzas destacan por su gran exactitud. Muchas aplicaciones han quedado obsoletas debido
a la aparición de las básculas electrónicas.

Funcionamiento

Consideremos una barra AB homogénea y rígida de cuyos extremos se hallan suspendidos dos
cuerpos, A y B, de masas respectivas y , a los que corresponden unos pesos y
resultado de la acción del campo gravitatorio terrestre sobre ellos. Si la barra se encuentra
apoyada en su punto medio, O (apoyo que permite el giro de barra en torno a un eje horizontal
que pase por O), la segunda condición de equilibrio, que expresa que el momento dinámico es
nulo, tomando momentos en O, se escribe en la forma

de donde, al ser OA = OB, se sigue la igualdad de los pesos de los dos cuerpos
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

para el caso que la aceleración de la gravedad no varía bajo un platillo de la balanza, con
relación a la del otro platillo de la misma, se cumplirá que: de estos la igualdad de las masas ya
que

de modo que con la balanza, aunque se comparan pesos, se equilibran y miden masas.
Pero si se construyese una balaza de tamaño suficiente como para que un platillo se ubicase
en una zona donde la aceleración de la gravedad fuese distinta a la de la zona del otro platillo,
entónces la balanza ya no mediría masas sino pesos.

Balanza analítica

La balanza analítica es un instrumento utilizado en el laboratorio, que sirve para medir la masa.
Su característica más importante es que poseen muy poca incertidumbre, lo que las hace
ideales para utilizarse en mediciones muy exactas.
Las balanzas analíticas generalmente son digitales, y algunas pueden desplegar la información
en distintos sistemas de unidades. Por ejemplo, se puede mostrar la masa de una sustancia en
gramos, con una resolución de 0,000 01 g (0,01 mg)

En metrología de masa de alta exactitud, se determina la masa en balanzas llamadas


comparadoras. La balanza comparadora para un patrón nacional debe ser de intervalo
limitado y con buena sensibilidad (por ejemplo, de un microgramo). Antes se hablaba de
balanzas simples, de brazos iguales o desiguales, con o sin peso deslizante, las de
combinación incluyendo las básculas, las romanas y las automáticas con múltiples
posiciones de equilibrio; actualmente se emplean también celdas de carga que envían
señales eléctricas para determinar el peso. En vista de todas las posibles combinaciones que se
dan, la tendencia actual es a hablar de instrumentos para pesar sin entrar en distinciones
entre por ejemplo, balanzas y básculas.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

7.-Teoria de Errores

Introducción

En todos los sectores de la actividad técnica, económica, social y científica es necesaria la


utilización de los más modernos instrumentos de medición para obtener resultados exactos y
seguros, siendo estos a su vez, factores obligatorios para la obtención de una alta
productividad.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Las mediciones de carácter práctico requieren hoy de una sensibilidad y exactitud sin
precedentes para un amplísimo rango de propiedades de materiales o sistemas y de
características de señales.

Si definimos a la Metrología como:

"La disciplina científica que se dedica a las mediciones. La metrología abarca tanto los
aspectos teóricos como los aspectos prácticos de las mediciones, sea cual fuere el nivel
de exactitud, o el campo de la ciencia o de la tecnología en el que ocurren."

Todas las ciencias experimentales se fundamentan en la experiencia, y ésta a su vez en la


determinación cuantitativa de las magnitudes pertinentes. En definitiva, todas las ciencias
precisan de la medida, bien directa, bien indirecta de magnitudes físicas. Medir implica
generalmente comparar la magnitud objeto de la medida con un patrón. El resultado de la
medida se expresa con un número y una unidad, dependiendo esta última del patrón que se
haya escogido.
Las medidas nunca permiten obtener el “verdadero valor” de la magnitud que se mide. Esto
es debido a multitud de razones. Las más evidentes son las imperfecciones, inevitables en un
cierto grado, de los aparatos y de nuestros sentidos. El “verdadero valor” de una magnitud no
es accesible en la realidad y por ello resulta más propio hablar de estimaciones, medidas o
aproximaciones del valor de una magnitud. Independientemente de estas consideraciones, en
el ámbito de la Física se sabe que no tiene sentido hablar del valor de una magnitud, sino
sólo de la probabilidad de obtener uno u otro valor en una determinada medida de esta
magnitud. Esto no es el resultado de las imperfecciones de los aparatos, sino de la propia
esencia de la naturaleza. Este carácter probabilístico de las magnitudes se hace patente a nivel
microscópico.
La consecuencia de las consideraciones anteriores, es que toda medida es incierta o está
dotada de un cierto grado de incertidumbre. Es esencial estimar ésta incertidumbre, primero
porque el conocimiento de la incertidumbre aumenta la información que proporciona la medida,
y segundo, porque este conocimiento permite manejar las medidas con la prudencia que dicta
el conocimiento de la confianza que nos merecen.
Cuando se exprese el resultado de una medida es pues necesario especificar tres
elementos: número, unidad e incertidumbre. La ausencia de alguna de ellas elimina o limita
la información que proporciona.

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede
determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido. Ejemplos
de magnitudes son la longitud, la masa, la potencia, la velocidad, etc.
A la magnitud de un objeto específico que estamos interesados en medir, la llamamos
mesurando. Por ejemplo, si estamos interesado en medir la longitud de una barra, esa
longitud específica será el mesurando

Para establecer el valor de un mesurando tenemos que usar instrumentos de medición y un


método de medición. Asimismo es necesario definir unidades de medición. Por ejemplo, si
deseamos medir el largo de una mesa, el instrumento de medición será una regla. Si hemos
elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla a usar
deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá en
determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.

En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual
de este término. Coloquialmente, es usual el empleo del término error como análogo o
equivalente a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue,
está más bien asociado al concepto de incertidumbre en la determinación del resultado
de una medición. Más precisamente, lo que procuramos en toda medición es conocer las
cotas (o límites probabilísticos) de estas incertidumbres. Gráficamente, buscamos establecer
un intervalo (como el de la figura 1.1)
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

x − ∆x ≤ x ≤ x + ∆x
Donde con cierta probabilidad, podamos decir que se encuentra el mejor valor de la magnitud
x. Este mejor valor x medio es el más representativo de nuestra medición y al semiancho x lo
denominamos la incertidumbre o error absoluto de la medición.

Figura 1.1-Intervalo asociado al resultado de una medición. Notamos que, en lugar de


dar un único número, definimos un intervalo. Al valor representativo del centro del
intervalo ( x ) lo llamamos el mejor valor de la medición. El semiancho del intervalo (x
de la magnitud en cuestión) se denomina la incertidumbre o error absoluto de la
medición.

En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición, el observador (u observadores) que realizan la medición. Asimismo, el
mismo proceso de medición introduce errores o incertidumbres. Por ejemplo, cuando usamos
un termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o
viceversa), de modo que el resultado de la medición es un valor modificado del original debido
a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no ser
significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad de
calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en
cuestión es de una pequeña fracción del mililitro.

Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de
incertidumbres al momento de medir. Los instrumentos tienen una precisión finita, por lo
que, para un dado instrumento, siempre existe una variación mínima de la magnitud que
puede detectar. Esta mínima cantidad se denomina la apreciación nominal del instrumento.
Por ejemplo, con una regla graduada en milímetros, no podemos detectar variaciones
menores que una fracción del milímetro.

A su vez, las magnitudes a medir no están definidas con infinita exactitud. Imaginemos que
queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más
precisos empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más
allá, finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es
claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que
mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el
concepto de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta
limitación intrínseca la denominamos incertidumbre intrínseca o falta de definición de la
magnitud en cuestión.

Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una
fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados
(similares, pero en general distintos). En este caso, de nuevo, estamos frente a una
manifestación de una incertidumbre intrínseca asociada a esta magnitud “número de
partículas emitidas en 5 s”, más que al error de los instrumentos o del observador.

Conceptos básicos
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Instrumento de medida: dispositivo empleado para determinar el valor o la magnitud de una
cantidad o variable.
Exactitud: la cercanía con la cual la lectura de un instrumento de medida se aproxima al valor
verdadero de la variable medida.
Precisión: una medida de la repetibilidad de las mediciones. Dado un valor fijo de una variable,
la precisión es la medida del grado con el cual, mediciones sucesivas difieren una de la otra.
Incertidumbre: grado de exactitud, seguridad o confianza con que fue hecha la medición.
Error: la desviación del valor verdadero al valor medido.

Otra fuente de error que se origina en los instrumentos además de las precisiones es la
exactitud de los mismos. Como quedo establecido, la precisión de un instrumento o un método
de medición está asociada a la sensibilidad o menor variación de la magnitud que se pueda
detectar con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una
apreciación nominal de 10 cm) es más exacto que una regla graduada en milímetros; o que un
cronómetro es más exacto que un reloj común, etc.

La exactitud de un instrumento o método de medición está asociada a la calidad de la


calibración del mismo. Imaginemos que el cronómetro que usamos es capaz de determinar la
centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera
común no lo hace. En este caso decimos que el cronómetro es todavía más preciso
que el reloj común, pero menos exacto. La exactitud es una medida de la calidad de la
calibración de nuestro instrumento respecto de patrones de medida aceptados
internacionalmente. En general los instrumentos vienen calibrados, pero dentro de ciertos
limites. Es deseable que la calibración de un instrumento sea tan buena como la
apreciación del mismo. La Figura 1.2 ilustra de modo esquemático estos dos conceptos.

Figura 1.2. Esta figura ilustra de modo esquemático los conceptos de precisión
y exactitud. Los centros de los círculos indican la posición del “verdadero valor” del
mesurando y las cruces los valores de varias determinaciones del centro. La
dispersión de los puntos da una idea de la precisión, mientras que su centro efectivo
(centroide) está asociado a la exactitud. a) es una determinación precisa pero
inexacta, mientras d) es más exacta pero imprecisa; b) es una determinación más
exacta y más precisa; c) es menos precisa que a).
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Decimos que conocemos el valor de una magnitud dada, en la medida en que conocemos sus
errores. En ciencia consideramos que la medición de una magnitud con un cierto error no
significa que se haya cometido una equivocación o que se haya realizado una mala
medición. Con la indicación del error de medición expresamos, en forma cuantitativa y lo más
exacto posible, las limitaciones que nuestro proceso de medición introduce en la
determinación de la magnitud medida.

¡Es imprescindible en ciencia e ingeniería especificar los errores de


medición!
Clasificación de los errores

Errores

El significado de la palabra ``error'' no es muy preciso, puesto que con frecuencia autores
diferentes lo emplean con sentidos diferentes. En un sentido amplio puede considerarse el
error como una estimación o cuantificación de la incertidumbre de una medida. Cuanto más
incierta sea una medida, tanto mayor será el error que lleva aparejado.

Existen varias formas de clasificar y expresar los errores de medición. Según su origen los
errores pueden clasificarse del siguiente modo:

I. Errores introducidos por el instrumento:

I.1 Error de apreciación, σap


Si el instrumento está correctamente calibrado la incertidumbre que tendremos al realizar una
medición estará asociada a la mínima división de su escala o a la mínima división que
podemos resolver con algún método de medición. Nótese que no decimos que el error de
apreciación es la mínima división del instrumento, sino la mínima división que es discernible
por el observador. La mínima cantidad que puede medirse con un dado instrumento la
denominamos apreciación nominal. El error de apreciación puede ser mayor o menor que
la apreciación nominal, dependiendo de la habilidad (o falta de ella) del observador. Así, es
posible que un observador entrenado pueda apreciar con una regla común fracciones del
milímetro mientras que otro observador, con la misma regla pero con dificultades de visión sólo
pueda apreciar 2 mm.

I.2 Error de exactitud, σexac

Representa el error absoluto con el que el instrumento en cuestión ha sido calibrado.

II. Error de interacción; σint

Esta incertidumbre proviene de la interacción del método de medición con el objeto a medir. Su
determinación depende de la medición que se realiza y su valor se estima de un análisis
cuidadoso del método usado.

III. Falta de definición del objeto sujeto a medición

Como se dijo antes, las magnitudes a medir no están definidas con infinita exactitud. Con def
designamos la incertidumbre asociada con la falta de definición del objeto a medir y representa
su incertidumbre intrínseca.

En general, en un experimento, todas estas fuentes de incertidumbres estarán presentes, de


modo que resulta útil definir el error nominal de una medición nom, como:
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

2 2 2 2 2
σnom = σap +σdef +σint +σexac (1.1)

Este procedimiento de sumar los cuadrados de los errores es un resultado de la estadística, y


proviene de suponer que todas las distintas fuentes de error son independientes una de otras.

1.4 – Errores de los Instrumentos de Medición

La cualidad de un instrumento de dar indicaciones próximas al valor verdadero del mensurando


y que, por tanto, refleja la cercanía a cero de sus errores, se denomina exactitud del mismo.
Los errores de los instrumentos de medición tienen tres componentes básicos:
a) Un error sistemático
b) Un error aleatorio.
c) Un error ilegitimo o espurio.

a) Errores sistemáticos:
Como su nombre indica, no son debidos al azar o a causas no controlables. Pueden surgir de
emplear un método inadecuado, un instrumento defectuoso o bien por usarlo en condiciones
para las que no estaba previsto su uso.
Se originan por las imperfecciones de los métodos de medición. Por ejemplo, pensemos en un
reloj que atrasa o adelanta, o en una regla dilatada, el error de paralaje, etc. Los errores
introducidos por estos instrumentos o métodos imperfectos afectarán nuestros resultados
siempre en un mismo sentido. El valor de σexac sería un ejemplo de error sistemático pero no
son lo mismo, ni los errores de exactitud son los únicos responsables de los errores
sistemáticos. Imaginemos por ejemplo el caso de una balanza bien calibrada que se usa para
conocer el peso de las personas en los centros comerciales u otros negocios, como es usual
que las personas (en público) se pesen vestidas, los valores registrados con estas balanzas
tendrán un error sistemático por el peso de la vestimenta. La única manera de detectarlos y
corregirlos es comparar nuestras mediciones con otros métodos alternativos y realizar una
análisis crítico y cuidadoso del procedimiento empleado. También es aconsejable intercalar en
el proceso de medición patrones confiables que permitan calibrar el instrumento durante la
medición.
Por ejemplo, emplear una regla metálica a una temperatura muy alta, puede introducir un error
sistemático si la dilatación del material hace que su longitud sea mayor que la nominal. En este
caso, todas las medidas pecarán (sistemáticamente) por defecto. El error podría evitarse
eligiendo un material de coeficiente de dilatación bajo o controlando la temperatura a la que se
mide.
Medir temperaturas con un termómetro graduado en grados Fahrenheit, suponiendo por
equivocación que está graduado en grados Celsius, introduce también un error sistemático en
la medida. El error se evita en este caso recabando información sobre la escala del
termómetro.
Los errores sistemáticos no son objeto de la teoría de errores. Realmente son equivocaciones
que pueden y deben evitarse, empleando métodos e instrumentos de medida correctos y
adecuados a los fines que se deseen obtener.
Se denomina corrección al valor que debe sumarse algebraicamente al resultado sin corregir
de una medición para compensar el error sistemático y es numéricamente igual a este error
pero de signo contrario. En dependencia del nivel de exactitud requerida en la medición, esta
corrección se realiza o no, lo cual es determinado por el usuario del instrumento.

b) Errores estadísticos o aleatorios:

Estos son los que llamaremos simplemente errores en el sentido técnico de la palabra. Son
incertidumbres debidas a numerosas causas incontrolables e imprevisibles que dan lugar a
resultados distintos cuando se repite la medida en condiciones idénticas.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
Los errores accidentales, o errores propiamente dichos, parecen fruto del azar, y por ello
reciben el nombre de errores aleatorios. Pueden ser debidos a la acumulación de muchas
incertidumbres sistemáticas incontrolables o bien pueden provenir de variaciones
intrínsecamente aleatorias a nivel microscópico. En ambos casos el resultado es que las
medidas de una magnitud siguen una distribución de probabilidad, que puede analizarse por
medios estadísticos. Aunque la presencia de los errores accidentales no pueda evitarse, sí
puede estimarse su magnitud por medio de estos métodos estadísticos.
Son los que se producen al azar. En general son debidos a causas múltiples y fortuitas.
Ocurren cuando, por ejemplo, nos equivocamos en contar el número de divisiones de una
regla, o si estamos mal ubicados frente al indicador de una balanza. Estos errores pueden
cometerse con igual probabilidad por defecto como por exceso. Por tanto, midiendo varias
veces y promediando el resultado, es posible reducirlos considerablemente. Es a este tipo de
errores a los que comúnmente hace referencia la teoría estadística de errores de medición que
formularemos más adelante. A estos errores lo designaremos con σest.

c) Errores ilegítimos o espurios:

Supongamos que deseamos calcular el volumen de un objeto esférico y para ello


determinamos su diámetro. Si al introducir el valor del diámetro en la fórmula, nos equivocamos
en el número introducido, o lo hacemos usando unidades incorrectas, o bien usamos una
expresión equivocada del volumen, claramente habremos cometido un error. Esta vez este
error está más asociado al concepto convencional de equivocación. A este tipo de errores los
designamos como ilegítimos o espurios. A este tipo de errores no se aplica la teoría
estadística de errores y el modo de evitarlo consiste en una evaluación cuidadosa de
los procedimientos realizados en la medición Un ejemplo de este tipo de error es el que se
cometió en el Mars Climate Explorer a fines de 1999, al pasar de pulgadas a cm se cometió un
error que costo el fracaso de dicha misión a Marte.

Cuando se desea combinar los errores sistemáticos con los estadísticos, la prescripción usual
es sumar los cuadrados de los errores absolutos y luego tomar la raíz cuadrada de este
resultado, como lo indica la Ec. (1.2). Si estamos midiendo una magnitud Z, el error final o
combinado o efectivo de Z, ∆Z, vendrá dado por:

2 2 2 2 2 2 2
∆Z = σ est + σ nom = σ est + σ ap + σ def + σ int + σ exac (1.2)

Es el valor de la incertidumbre combinada (Ec. 1.2).

Existe otro error que esta definido para restringir el uso de los instrumentos de medición, y es
conocido como:

Error máximo permisible (e.m.p.)


De un instrumento de medición es el valor extremo del error permitido por especificaciones,
reglamentos, etc. para un instrumento de medición dado. Este error es normalmente reportado
por el fabricante en la documentación técnica del instrumento, muchas veces como precisión.

En Resumen

En cualquier proceso de medición interactúan una serie de componentes que determinan su


resultado. Para la valoración objetiva de este resultado es necesario enfocar el proceso de
medición como un sistema.
Al igual que en los instrumentos, el resultado de una medición se verá afectado por los errores
sistemáticos y aleatorios.
El error sistemático proviene de efectos reconocidos de una magnitud influyente (efectos
sistemáticos), los cuales pueden ser cuantificados y estimarse una corrección o factor de
corrección que permite disminuir éste. Según el VIM error sistemático es la media que puede
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
resultar de un infinito número de mediciones de la misma magnitud a medir llevadas a cabo
bajo condiciones de repetibilidad, menos el valor verdadero de dicha magnitud.
El error aleatorio no puede compensarse mediante correcciones, pero puede reducirse
aumentando el número de mediciones. Según el VIM error aleatorio es el resultado de una
medición menos la media que pudiera resultar de un infinito número de mediciones repetidas
de la misma magnitud a medir llevadas a cabo bajo condiciones de repetibilidad.
La valoración de la medición desde el punto de sistema permite analizar la interacción que
tienen entre si los siguientes componentes:
1. El objeto de medición (lo que se quiere medir)
2. Instrumentales
3. De método
4. Debido a agentes externos
5. Del observador
6. Matemáticos
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

8.-Introduccion al cálculo de la
Incertidumbre de la medición

Incertidumbre de Medición (Resumen)


(Guide for the expression of the uncertainty (GUM) ISO 1993)
Guía para Estimar la Incertidumbre de la Medición, W. Schmid y R. Lazos, Centro
Nacional de Metrología. 2000
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

PRESENTACIÓN
La incertidumbre de medición (frecuentemente denominada en forma abreviada
“incertidumbre”) es un parámetro que constituye un indicador comparativo de la calidad de la
medición, a la vez que permite la obtención de un intervalo de confianza aproximado para el
valor verdadero del mensurando. Al tener en cuenta en su cálculo las contribuciones de las
componentes de incertidumbre debidas a los errores tanto sistemáticos como aleatorios,
permite un enfoque unificado para el estudio de la importancia relativa de cada una de dichas
contribuciones, a diferencia de lo que ocurría antaño, al tener que realizar el “tratamiento
estadístico” y la “propagación del error” por separado, sin que se pudieran integrar ambos
enfoques. En este trabajo se exponen los elementos conceptuales en los que se basa dicho
cálculo, así como se realizan los cálculos y la interpretación de los resultados.

INTRODUCCION
Cada vez es más utilizado y exigido que la expresión de los resultados de medición incluyan,
además de la estimación apropiada del valor del mensurando, la indicación de un intervalo de
confianza aproximado para dicho valor. Este intervalo deberá contemplar, en su cálculo, en la
medida de lo posible, la incidencia de todas las componentes de error (tanto aleatorias como
sistemáticas) que se estime influyen significativamente en el resultado de la medición.
Además, se tiende a exigir también la estimación de la incertidumbre correspondiente al
ensayo.
Por ejemplo, la norma ISO-IEC 17025, referente a los requerimientos generales que debe
cumplir un laboratorio de calibración o ensayo para poder acreditar su competencia técnica,
exige, en su punto 5.4.6 la estimación de la incertidumbre de la medición, a la vez que
establece pautas para el rigor con el que se debería efectuar dicha estimación en función de la
naturaleza del ensayo y los requerimientos del cliente.
Para poder desarrollar el concepto de incertidumbre de medición (o, en forma abreviada,
“incertidumbre”, como suele llamarse,), es necesario realizar algunas puntualizaciones sobre
algunos términos de uso corriente en el área de la Metrología, que tienen un significado preciso
y no deben ser confundidos.

En primer lugar, no deben ser confundidos los términos error e incertidumbre.


Error
El término error (de medición) se define como “resultado de una medición menos un valor
verdadero del mensurando”. Este valor, que siempre es desconocido, ya que si no lo fuera se
podría corregir el resultado experimental para obtener el valor verdadero, puede ser positivo,
negativo o incluso nulo. En contraste, normalmente las expresiones de incertidumbre conducen
a valores positivos.
En general, si se realizan repeticiones de la misma medición, aún en condiciones idénticas (o
sea, en condiciones de repetibilidad: mismo analista, mismos instrumentos de medición,
mismas condiciones ambientales, etc.), se obtendrán resultados distintos (y por lo tanto,
errores distintos). Sin embargo, si las condiciones son absolutamente idénticas, a todas las
repeticiones del ensayo corresponde la misma incertidumbre. Nótese además que el
significado actual de error difiere totalmente del que tenía en el pasado: el “error” del ensayo
era una cantidad que indicaba el grado de certeza o confianza en el resultado; en tal sentido,
tenía un significado similar al actual de incertidumbre.

Incertidumbre
La incertidumbre es un “parámetro asociado al resultado de una medición que caracteriza la
dispersión de los valores que podrían ser razonablemente atribuidos al mensurando”. Esta
Guía (comúnmente llamada “GUM”), desarrolla pormenorizadamente todos los conceptos y
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
aspectos a tener en cuenta en el cálculo de incertidumbres, y es la “referencia obligada” sobre
el tema.
La incertidumbre puede ser expresada mediante cualquier parámetro que respete el criterio
establecido precedentemente. Así, por ejemplo, puede ser un múltiplo de la desviación
estándar asociada a la medición, o la mitad de la amplitud de un intervalo de confianza
aproximado para el valor del mensurando. Por ende, cuando se exprese un valor de
incertidumbre debe indicarse claramente el criterio utilizado.
La incertidumbre es un parámetro que permite comparar, junto a otros indicadores, la calidad
de distintas mediciones: un resultado que tenga asociado una incertidumbre menor que otro es,
en cierto modo mejor. Pero para poder hacer una comparación más acabada habría que tener
en cuenta por ejemplo, la exactitud, la precisión, el costo del ensayo, etc.

Por otra parte, no se debe confundir el término estimación con apreciación.


El término estimación tiene dos acepciones definidas :
a) Referida a procesos: Proceso que tiene por finalidad atribuir, a partir de observaciones en
una muestra, valores numéricos a los parámetros de una distribución elegida como modelo
estadístico de la población, de la cual fue tomada.
b) Como valor estimado: Valor de un estimador obtenido como resultado de una estimación.
En cambio, en nuestro medio, el término apreciación es utilizado como sinónimo de estimación,
por parte de un analista, de la indicación proporcionada por un instrumento analógico. Por
ejemplo, al utilizar una bureta graduada, la estimación del gasto que indica la bureta es la
apreciación del gasto. En cambio, antiguamente se hablaba de la estimación de la bureta como
sinónimo de resolución o a veces del escalón de la bureta:

Resolución (de un dispositivo indicador): la diferencia más pequeña entre las indicaciones
de un dispositivo indicador que puede ser distinguido significativamente

Escalón: diferencia entre los valores correspondientes a dos marcas sucesivas de la escala

El Mensurando
El propósito de una medición es determinar el valor de una magnitud, llamada el mensurando,
que de acuerdo al VIM, es el atributo sujeto a medición de un fenómeno, cuerpo o sustancia
que puede ser distinguido cualitativamente y determinado cuantitativamente. La definición del
mensurando es vital para obtener buenos resultados de la medición. En no pocas ocasiones se
mide algo distinto al propósito original. La imperfección natural de la realización de las
mediciones, hace imposible conocer con certeza absoluta el valor verdadero de una
magnitud: Toda medición lleva implícita una incertidumbre, que de acuerdo al VIM, es un
parámetro que caracteriza la dispersión de los valores que pueden ser atribuidos
razonablemente al mensurando. Una definición completa del mensurando incluye
especificaciones sobre las magnitudes de entrada relevantes.
En este resumen el término “magnitud de entrada” se usa para denotar también magnitudes
de influencia.

El resultado de una medición incluye la mejor estimación del valor del mensurando y una
estimación de la incertidumbre sobre ese valor. La incertidumbre se compone de
contribuciones de diversas fuentes, algunas de ellas descritas por las magnitudes de entrada
respectivas. Algunas contribuciones son inevitables por la definición de propio mensurando,
mientras otras pueden depender del principio de medición, del método y del procedimiento
seleccionados para la medición. Por ejemplo, en la medición de la longitud de una barra, la
temperatura es una magnitud de entrada que afecta directamente al mensurando por
expansión o contracción térmica del material. Otra magnitud de entrada es la fuerza de
contacto, presente cuando se usan instrumentos que requieren contacto mecánico como los
tornillos micrométricos, calibradores vernier, etc.
También pueden influir en el resultado de la medición, y por lo tanto en la incertidumbre,
algunos atributos no cuantificables en cuyo caso es siempre recomendable reducir en lo
posible sus efectos, preferentemente haciendo uso de criterios de aceptación en las
actividades tendientes a reducir tales efectos.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Modelo físico

Pretender estudiar el proceso de medición de manera exacta y completa está usualmente fuera
de las actividades rutinarias del metrólogo, más aún, es el propósito de la investigación
científica, cuya solución pocas veces se vislumbra. Por lo tanto, es necesaria la simplificación
del fenómeno o de la situación real conservando las características más relevantes para el
propósito pretendido, mediante la construcción de un modelo para la medición.
Un modelo físico de la medición consiste en el conjunto de suposiciones sobre el propio
mensurando y las variables físicas o químicas relevantes para la medición. Estas
suposiciones usualmente incluyen:
a) relaciones fenomenológicas entre variables;
b) consideraciones sobre el fenómeno como conservación de cantidades, comportamiento
temporal, comportamiento espacial, simetrías;
c) consideraciones sobre propiedades de la sustancia como homogeneidad e isotropía.
Una medición física, por simple que sea, tiene asociado un modelo que sólo
aproxima el proceso real.
Por ejemplo, la medición de viscosidad con viscosímetros capilares usa un modelo que
supone un capilar con longitud infinita, de diámetro constante y que la temperatura es
absolutamente uniforme y constante en todos los puntos del viscosímetro.
Modelo matemático

El modelo físico se representa por un modelo descrito con lenguaje matemático. El modelo
matemático supone aproximaciones originadas por la representación imperfecta o limitada de
las relaciones entre las variables involucradas. Considerando a la medición como un proceso,
se identifican magnitudes de entrada denotadas por el conjunto
{X i }

expresión en la cual el índice i toma valores entre 1 y el número de magnitudes de entrada


N.
La relación entre las magnitudes de entrada y el mensurando Y como la magnitud de salida se
representa como una función

{Xi}) = f(X1, X2, ... , XN)


Y = f({ (4.1)

representada por una tabla de valores correspondientes, una gráfica o una ecuación, en cuyo
caso y para los fines de este documento se hará referencia a una relación funcional. Por
ejemplo, la viscosidad es proporcional al tiempo de flujo por un viscosímetro capilar como
relación funcional, en contraste al desconocimiento de su relación funcional con la temperatura.
Aunque para el propósito de este trabajo se considerará Y como un escalar, puede aplicarse el
mismo formalismo para elementos matemáticos más complejos como vectores o matrices.
En este trabajo se denota con xi al mejor estimado de las magnitudes de entrada Xi.

Los valores de las magnitudes de entrada pueden ser resultados de mediciones recientes
realizadas por el usuario o tomados de fuentes como certificados, literatura, manuales, etc. El
mejor estimado del valor del mensurando es el resultado de calcular el valor de la función f
evaluada en el mejor estimado de cada magnitud de entrada,
y = f (x 1, x2 ,...xN) (4.2)

En algunas ocasiones se toma el mejor estimado de Y como el promedio de varios valores yj del
mensurando obtenidos a partir de diversos conjuntos de valores {Xi}j de las magnitudes de
entrada.

Antiguamente, para evaluar la incidencia de las distintas fuentes de error sobre el resultado de
la medición se procedía de acuerdo con dos criterios complementarios:
a) Criterio estadístico: básicamente mediante el cálculo de la desviación estándar. Solamente
evaluaba la incidencia de los errores aleatorios
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

b) Criterio de propagación de errores: Una vez establecido el modelo matemático (“la fórmula
de cálculo”) que vincula el valor del mensurando con el de los valores de las magnitudes de
entrada (aquellas magnitudes que sin ser el mensurando “aparecen en la fórmula de
cálculo”, como por ejemplo, la masa y el volumen, al medir indirectamente la densidad de
un cuerpo a partir de los valores medidos para estas dos magnitudes), se calculaba el
“error” correspondiente al mensurando en función de los “errores” asignados a cada una de
la magnitudes de entrada, mediante una “fórmula de propagación de errores”. Este criterio
permitía evaluar solamente la incidencia de las componentes sistemáticas de error y no la
aleatoria.

Los resultados obtenidos aplicando ambos criterios no se podían “mezclar” de alguna forma
consistente para obtener un parámetro que tuviera en cuenta tanto la influencia de los errores
sistemáticos como la de los aleatorios.
El cálculo del valor de la incertidumbre comprende en general varias componentes (cada una
de ellas asociada a su vez a una componente de error). Así, por ejemplo, en general se habla
de una “componente aleatoria” de incertidumbre asociada al “error aleatorio”, y el cálculo de la
incertidumbre en una pesada tendrá una componente asociada al error de falta de linealidad de
la balanza empleada.
El cálculo siempre debe tener en cuenta tanto las componentes aleatorias como sistemáticas.
De esta forma, la incertidumbre permite considerar unificadamente la influencia tanto de errores
sistemáticos como aleatorios.
Se debe acotar también que el carácter de “aleatoria” o “sistemática” de una componente de
error no está vinculado con la naturaleza del error considerado, sino por el contexto
experimental en el que se lo maneja; una misma componente de error puede ser “aleatoria”
en un contexto y “sistemática” en otro, por ejemplo, en la preparación de un patrón secundario
de NaOH para valorar HCl, influyen varias fuentes de error, entre ellos: en la pureza del NaOH,
en la pesada (por ejemplo, error por falta de linealidad, error aleatorio debido a la falta de
fidelidad, error debido a la posición de la colocación de la carga en el platillo, error en la
calibración de la balanza), error de enrase del matraz que contiene la solución y error de
calibración del matraz. Una vez preparado el patrón, el mismo tiene una normalidad estimada,
afectada de un error proveniente de las fuentes de error indicadas, entre otras; ese error es fijo
(“sistemático”) y se va a “propagar” en forma constante a todas las valoraciones en las que
intervenga. Entre los mencionados errores se encuentran el de falta de fidelidad de la balanza y
el de enrase; estos errores serían aleatorios, al considerar la repetición de la preparación del
patrón, ya que es probable que cada vez que se haga una nueva preparación estos errores
varíen; no sucede lo mismo con el error de calibración del matraz, por ejemplo: mientras no se
repita la calibración, dicho error es fijo.
En resumen, si se prepara sólo una vez el patrón de NaOH y con él se realizan 5 repeticiones
de valoración de una misma solución de HCl, las componentes de error por falta de fidelidad de
la balanza y enrase del matraz son aleatorias en este contexto experimental. Pero si para
cada valoración del HCl se preparara el patrón de NaOH (es decir, se preparan 5 soluciones
distintas), entonces las componentes citadas serán aleatorias, porque probablemente varían de
repetición en repetición. Se puede decir entonces, en lenguaje un poco más técnico desde el
punto estadístico, que el efecto de la normalidad del NaOH sobre los resultados de valoración
del HCl ha sido aleatorizado.
Es decir, que puede decirse groseramente que un error es “sistemático” si es fijo en el contexto
experimental y “aleatorio” en caso contrario.

Razonando de la misma manera, para estimar la incertidumbre, entonces, se deberá tener en


cuenta la variabilidad total del proceso de estimación, esto es, aquella que resultaría de
aleatorizar (muy hipotéticamente) todos los factores que afecten el resultado de la medición.
En ese caso extremo, todas las componentes de error serían “aleatorias”, y contribuirían a la
dispersión total de los valores experimentales, y por ser “aleatorias”, a cada una de ellas se le
puede asignar una distribución estadística que explique razonablemente su comportamiento,
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
desde el punto de vista estadístico, es decir, que aún las componentes “sistemáticas” (en el
contexto experimental real) tienen asignadas una distribución de probabilidad.

Siguiendo con el ejemplo citado, si se prepara sólo una vez el patrón de NaOH, se tiene una
dispersión de los valores de normalidad calculada para el HCl, debido principalmente al error
de determinación del punto final y la de apreciación del gasto; pero si en su lugar se preparan
las 5 soluciones de NaOH (es decir, se aleatoriza el efecto de concentración de NaOH) y
luego se hacen las valoraciones, se tendrá una dispersión de los valores de normalidad del HCl
mayor, porque, además de los dos errores en la valoración del HCl influyen los aleatorios en la
preparación del NaOH.

Para que el método de evaluación y expresión de la incertidumbre sea aceptable, debe ser:
• Universal: debe ser aplicable a todo tipo de medición y a todo tipo de magnitudes de
entrada.
• Internamente consistente: la estimación del valor de la incertidumbre debe obtenerse
directamente de las componentes que contribuyen a ella, y ser independiente de la
forma en que se agrupen dichas componentes, y de la forma en que las mismas se
descompongan en otras componentes.
• Transferible: es decir, la estimación de la incertidumbre correspondiente a una
magnitud debe poder ser utilizada directamente como componente en la evaluación de
la incertidumbre de otra medición.

Identificación de las fuentes de incertidumbre

Una vez determinados el mensurando, el principio, el método y el procedimiento


de medición, se identifican las posibles fuentes de incertidumbre. Éstas provienen de los
diversos factores involucrados en la medición, por ejemplo,
 los resultados de la calibración del instrumento; la incertidumbre del patrón o del material
de referencia;
 la repetibilidad de las lecturas;
 la reproducibilidad de las mediciones por cambio de observadores, instrumentos
uotros elementos;
 características del propio instrumento, como resolución, histéresis, deriva, etc,
 variaciones de las condiciones ambientales;
 la definición del propio mensurando;
 el modelo particular de la medición;
 variación en las magnitudes de influencia;

No es recomendable desechar alguna de las fuentes de incertidumbre por la suposición de que


es poco significativa sin una cuantificación previa de su contribución, comparada con las
demás, apoyada en mediciones. Es preferible la inclusión de un exceso de fuentes que ignorar
algunas entre las cuales pudiera descartarse alguna importante. No obstante, siempre estarán
presentes efectos que la experiencia, conocimientos y actitud crítica del metrólogo
permitirán calificar como irrelevantes después de las debidas consideraciones. Por ejemplo, en
la calibración de termómetros de mercurio en vidrio aparece una pequeña contribución de la
temperatura ambiente, pero se considera despreciable aquella contribución debida a la
radiación electromagnética en el ambiente .

Cuantificación

En la literatura se distinguen dos métodos principales para cuantificar las fuentes de


incertidumbre: El Método de Evaluación Tipo A está basado en un análisis estadístico
de una serie de mediciones,

- INCERTIDUMBRE TIPO A: método de evaluación de la incertidumbre mediante análisis


estadístico de observaciones (generalmente utilizando la desviación estándar) obtenidas
en el curso de la actual medición.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

Mientras el Método de Evaluación Tipo B comprende todas las demás maneras de


2
estimar la incertidumbre.
- INCERTIDUMBRE TIPO B: método de evaluación de la incertidumbre por medios distintos
al análisis estadístico de observaciones u obtenidas a partir de valores “históricos”.
Cabe mencionar que esta clasificación no significa que exista alguna diferencia en la
naturaleza de los componentes que resultan de cada uno de los dos tipos de evaluación,
puesto que ambos tipos están basados en distribuciones de probabilidad. La única diferencia
es que en las evaluaciones tipo A se estima esta distribución basándose en mediciones
repetidas obtenidas del mismo proceso de medición mientras en el caso de tipo B se supone
una distribución con base en experiencia o información externa al metrólogo. En la práctica
esta clasificación no tiene consecuencia alguna en las etapas para obtener una estimación de
la incertidumbre combinada.
La clasificación de una componente de incertidumbre en tipo A o tipo B se basa en la forma de
evaluación de la misma y no en la naturaleza de los errores asociados (en cuanto a su
clasificación en aleatorios y sistemáticos).
Es un error muy frecuente considerar como sinónimo a “evaluación tipo A” y “componente
aleatoria”.
Lo mismo sucede con “evaluación tipo B” y “componente sistemática”.
La componente aleatoria de la incertidumbre puede tener una evaluación tipo A cuando se
dispone de una cantidad suficiente de repeticiones como para calcular la desviación estándar
muestral correspondiente a los valores de las actuales repeticiones, o tener una evaluación
tipo B, cuando se recurre a valores históricos

Evaluación tipo A
La incertidumbre de una magnitud de entrada Xi obtenida a partir de
observaciones repetidas bajo condiciones de repetibilidad, se estima con base en la
dispersión de los resultados individuales.
Si Xi se determina por n mediciones independientes, resultando en valores
q1 , q2 , ... , qn , el mejor estimado xi para el valor de Xi es la media de los resultados
individuales:
n
1
xi = q = * ∑ q j (6.1)
n j =1
La dispersión de los resultados de la medición q1 , q2 , ... , qn para la magnitud de entrada Xi
se expresa por su desviación estándar experimental:

1 n
s(q ) = ∑
n − 1 j =1
(q j − q ) 2 (6.2)

La incertidumbre estándar u(xi) de Xi se obtiene finalmente mediante el cálculo de la


desviación estándar experimental de la media:
s(q )
u ( x i ) = s(q ) = (6.3)
n
Así que resulta para la incertidumbre estándar de Xi:
n
1 1
u(xi ) = * * ∑(qk − q) 2 (6.4)
n n − 1 k =1
Para una medición que se realiza por un método bien caracterizado y bajo condiciones
controladas, es razonable suponer que la distribución (dispersión) de los qj no cambia, o sea se
mantiene prácticamente igual para mediciones realizadas en diferentes días, por distintos
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
metrólogos, etc. (esto es, la medición está bajo control estadístico). En este caso este
componente de la incertidumbre puede ser más confiablemente estimada con la desviación
estándar sp obtenida de un solo experimento anterior, que con la desviación estándar
experimental s(q) obtenida por un número n de mediciones, casi siempre pequeño, según la ec. (6.2).
La incertidumbre estándar de la media se estima en este caso por:
s p
u(xi ) = (6.5)
n
Cabe mencionar que n es el número de mediciones repetidas para evaluar x i = q
según la ec. (6.1), mientras sp se determinó por un número distinto (y grande) de mediciones

No se puede dar una recomendación general para el número ideal de las repeticiones n, ya que
éste depende de las condiciones y exigencias (meta para la incertidumbre) de cada medición
específica. Hay que considerar que:

 Aumentar el número de repeticiones resulta en una reducción de la incertidumbre tipo


1
A, la cual es proporcional a
n
 Un número grande de repeticiones aumenta el tiempo de medición, que puede ser
contraproducente, si las condiciones ambientales u otras magnitudes de entrada no se
mantienen constantes en este tiempo.
 En pocos casos se recomienda o se requiere n mayor de 10. Porejemplo cuando se
caracterizan instrumentos o patrones, o se hacen mediciones o calibraciones de alta
exactitud.
 Para determinar el impacto que tiene n en la incertidumbre expandida hay que estimarsu
influencia en el número de grados efectivos de libertad.

Otras fuentes de incertidumbre que se evalúan con este método son la reproducibilidad y las
obtenidas al hacer una regresión lineal.

Evaluación tipo B
Las fuentes de incertidumbre tipo B son cuantificadas usando información externa u obtenida
por experiencia. Estas fuentes de información pueden ser: - Certificados de calibración.
- Manuales del instrumento de medición, especificaciones del instrumento.
- Normas o literatura.
- Valores de mediciones anteriores.
- Conocimiento sobre las características o el comportamiento del sistema de medición

Distribuciones de probabilidad
La cuantificación de una fuente de incertidumbre incluye la asignación de un valor y
la determinación de la distribución a la cual se refiere este valor. Las distribuciones
que aparecen más frecuentemente son:

a) Distribución normal
Los resultados de una medición repetida afectada por una o más magnitudes de influencia
que varían aleatoriamente, generalmente siguen en buena aproximación una distribución
normal. También la incertidumbre indicada en certificados de calibración se refiere
generalmente a una distribución normal.

b) Distribución rectangular:
En una distribución rectangular cada valor en un intervalo dado tiene la misma
probabilidad, o sea la función de densidad de probabilidad es constante en este
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
intervalo. Ejemplos típicos son la resolución de un instrumento digital o la información técnica
sobre tolerancias de un instrumento. En general, cuando exclusivamente hay conocimiento de
los límites superior e inferior del intervalo de variabilidad de la magnitud de entrada, lo
más conservador es suponer una distribución rectangular.

c) Distribución triangular:
Si además del conocimiento de los límites superior e inferior hay evidencia de que la
probabilidad es más alta para valores en el centro del intervalo y se reduce hacía los límites,
puede ser más adecuado basar la estimación de la incertidumbre en una distribución
triangular.

Por ejemplo, en un baño termostático, que se utiliza para medir la densidad de un líquido,
la temperatura puede tener una ligera deriva. Si se mide la temperatura antes y después de la
medición de la densidad (resultando en T1 y T2), se pude suponer para el momento de la
medición de la densidad una temperatura de (T1+T2)/2 con una distribución triangular
entre T1 y T2 .

d) Otras distribuciones
Pueden encontrarse también distribuciones como la U, en la cual los extremos del intervalo
presentan los valores con probabilidad máxima, típicamente cuando hay
comportamientos oscilatorios subyacentes. También se encuentran distribuciones
triangulares con el valor máximo en un extremo como en las asociadas a “errores de coseno”.

Reducción

Antes de comparar y combinar contribuciones de la incertidumbre que tienen distribuciones


diferentes, es necesario representar los valores de las incertidumbres originales
como incertidumbres estándar. Para ello se determina la desviación estándar de la
distribución asignada a cada fuente.

a) Distribución normal:
La desviación estándar experimental de la media calculada a partir de los resultados de una
medición repetida según la ec. (6.4) ya representa la incertidumbre estándar. Cuando se
dispone de valores de una incertidumbre expandida U, como los presentados por ejemplo en
certificados de calibración, se divide U entre el factor de cobertura k, obtenido ya sea
directamente o a partir de un nivel de confianza dado:

U
uxi = (7.1)
k
b) Distribución rectangular:
Si la magnitud de entrada Xi tiene una distribución rectangular con el límite superior a+ y el
límite inferior a- , el mejor estimado para el valor de Xi está dado por:

a+ + a−
xi = (7.2)
2

y la incertidumbre estándar se calcula por:


Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

a+ − a−
u ( xi ) = (7.3)
12
o por
a/2
u ( xi ) = (7.4)
3
Una aplicación típica es la resolución de un instrumento digital. También la incertidumbre
relacionada con e número finito de cifras significativas de datos tomados de la literatura puede
ser tratada con esta distribución (siempre y cuando no haya indicios que la incertidumbre en
realidad es mayor que la incertidumbre relacionada con la última cifra significativa). Si se aplica
a la resolución o a datos tomados de la literatura, a corresponde al último dígito significativo o
a la última cifra significativa respectivamente.

c) Distribución triangular:
Como en una distribución rectangular, para una magnitud de entrada Xi que tiene una
distribución triangular con los límites a+ y a- , el mejor estimado para el valor de Xi
está dado por:

a+ + a−
xi = (7.6)
2
La incertidumbre estándar se calcula en este caso por:

a+ − a− a/2
u ( xi ) = = (7.7)
24 6
con a definido por la ec. (7.5).

Combinación

El resultado de la combinación de las contribuciones de todas las fuentes es la incertidumbre


estándar combinada uc(y), la cual contiene toda la información esencial sobre la incertidumbre
del mensurando Y.
La contribución ui(y) de cada fuente a la incertidumbre combinada depende de la incertidumbre
estándar u(xi) de la propia fuente y del impacto de la fuente sobre el mensurando. Es posible
encontrar que una pequeña variación de alguna de las magnitudes de influencia tenga un
impacto importante en el mensurando, y viceversa. Se determina ui(y) por el producto de u(xi) y
su coeficiente de sensibilidad ci (o factor de sensibilidad):

u i ( y) = ci * u ( xi ) (8.1)

Coeficiente de sensibilidad
El coeficiente de sensibilidad describe, qué tan sensible es el mensurando con respecto
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico
a variaciones de la magnitud de entrada correspondiente (ver Anexo B). Para su
determinación existen dos métodos:

a) Determinación a partir de una relación funcional


Si el modelo matemático para el mensurando Y = f(X1 , X2 , ... , XN) describe la influencia de
la magnitud de entrada Xi suficientemente bien mediante una relación funcional, el
coeficiente de sensibilidad ci se calcula por la derivada parcial de f con respecto a Xi :

∂ f ( X 1 ,...., X N )
ci = (8.2)
∂X i X 1 = X 1 ,..., X N = X N
b) Otros métodos de determinación:
Si la influencia de la magnitud de entrada Xi en el mensurando Y no está representada por una
relación funcional, se determina el coeficiente de sensibilidad ci por una estimación del
impacto de una variación de Xi en Y según:

∆Y
C i = (8.3)
∆X i
Esto es, manteniendo constantes las demás magnitudes de entrada, se determina el cambio
de Y producido por un cambio en Xi por una medición o a partir de la información
disponible (como una gráfica o una tabla).

Propagación de la incertidumbre para magnitudes de entrada no correlacionadas


En el caso de magnitudes de entrada no correlacionadas, la incertidumbre combinada uc(y) se
calcula por la suma geométrica de las contribuciones particulares:

N
u ( y ) = ∑ u i2 ( y )
2
c (8.4)
i =1
Considerando (8.1) y (8.2) resulta finalmente

2
 ∂f 
N 2 N
uc ( y ) = ∑ [c i − u ( xi ) ] = ∑
i =1  ∂X i
* u ( xi )  (8.5)
i =1 
La regla presentada en ec. (8.5) es llamada ley de propagación de incertidumbre. Note que
la última expresión en esta ecuación se aplica cuando se dispone de la relación funcional entre
Y y {Xi}.
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

2
 ∂f  N
uc ( y) = ∑ *u(xi )
i=1  ∂Xi 
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

9.-Referencias
Curso Metrologia Basica y Calibración de Instrumentos para Pesar de Funcionamiento
No Automatico

* Ley Federal de Metrología y Normalización.-2006

*NOM-008-SCFI-2002 Sistema General de Unidades de Medida

*NMX-Z-55-IMNC-2009-Vocabulario Internacional de Metrologia.

*División de Masa y Densidad, CENAM – Curso: Fundamentos de la Metrología de Masa-


Qro, México,
Mayo de 1998.

*Organisation Internationale de Métrologie Légale – Recommandation Internationale 76-1,2 –


Instruments de pesage à fonctionnement non automatique. France, 1992

*Secretaría de Comercio y Fomento Industrial – NOM-010- SCFI-1994 – “Instrumentos de


medición.- Instrumentos para pesar de funcionamiento no automático, requisitos
técnicos y metrológicos. México, 1994

*Secretaría de Comercio y Fomento Industrial, Dirección General de Normas – NMX-CH-9-


1994-SCFI Instrumentos de medición – Instrumentos para pesar de funcionamiento no
automático- Métodos de prueba- México, 1994

*Organisation Internationale de Métrologie Légale – Recommandation Internationale 47 –


Standard weights for testing of high capacity weighing machines. France, 1979

*SCT Reglamento sobre el peso, dimensiones y capacidad de los vehículos de autotransporte


que transitan en los caminos y puentes de jurisdicción federal 1996

*Mark T. Clarkson, Terry Collins and Barrie Morgan OIML bolletin volumen XLIII Number 2 April
2002

*BIPM, IEC, IFCC, ISO, IUPAC, IUPAP, OIML “Guide to the expression of Uncertainty on
measurement”

*OIML– Recommandation Internationale 76-1,2 –Instruments de pesage à fonctionnement non


automatique. France, 1992

*Wolfang Wöger -Remarks on the En – Criterion Used in Measurement Comparison, PTB


Mitteilingen 109 1/99, Internationale Zusammenarbeit

*Guia técnica de trazabilidad e incertidumbre en la magnitud de masa (Calibración de


instrumentos para pesar de funcionamiento no automático)-ema-cenam-2008

*WIKIPEDIA www.wikipedia.org

También podría gustarte