Está en la página 1de 5

Incertidumbre, Tolerancia y Precisin son trminos que aparecen frecuentemente relacionados y no siempre resulta fcil diferenciarlos, en muchas ocasiones

se utilizan indistintamente de forma incorrecta. Sin embargo, siguiendo los principios y definiciones de la Metrologa estos tres conceptos se diferencian claramente. En este artculo corto se definirn cada uno de ellos, se analizaran sus origenes y se comentaran cuales son sus principales diferencias. Para ello se ha consultado el texto "Fundamentos de Metrologa", de ngel M Snchez Prez, Mayo de 1999. Monografas del Departamento de Fscia Aplicada, Escuela Tcnica Superior de Ingenieros Industriales, Universidad Politcnica de Madrid.

Sobre el origen de la incertidumbre de medidas El trmino incertidumbre siempre aparece asociado a la medida de magnitudes. Medir una cantidad de magnitud es compararla con otra de su misma clase que se adopta como unidad, siempre se mide comparando la magnitud a medir, mensurando, con otra cantidad de referencia de la misma clase, ya sea haciendo intervenir directamente patrones en el proceso y empleando un instrumento comparador (mtodo de medida diferencial o por comparacin), o aplicando exclusivamente un instrumento de medida sobre el mensurando ( mtodo de medida directa). Cuando se realiza la medicin siempre estn presentes el mensurando (lo que se quiere medir), el instrumento de medida (lo que mide), el operador (el que mide) y el resto del universo, que de alguna forma fsica est influyendo en la medida realizada. No podemos considerar que cuando se realiza una medida, el sistema formado por el mensurando-instrumento de medida-operador, est aislado de su entorno, sino que el entorno acta a travs de las magnitudes de influencia, de manera que aquellas medidas que ignoran las influencias significativas carecen de sentido metrolgico. Las magnitudes de influencia son aquellas magnitudes que no constituyen el objeto directo de la medida pero que estn presentes durante la medicin y la perturban. Se considerarn aquellas magnitudes de influencia como significativas cuando se encuentren en el orden de magnitud de la precisin con la que se mide el mensurando. Para que el resultado de una medicin sea representativo, es necesario establecer unas condiciones de referencia que especifiquen los valores de las magnitudes de influencia, determinen que se trabaja con instrumentos adecuados, que el mensurando est suficientemente bien definido y que se utiliza un modo operativo apropiado. Se dice que las magnitudes de influencia se encuentran bajo control cuando se emplean los medios necesarios para que sus valores se siten en un cierto intervalo alrededor del valor de referencia. A pesar de que las magnitudes de influencia se encuentren bajo control, es inevitable la variabilidad de las mismas que se traducen en una cierta dispersin de las medidas cuando se reiteran sucesivas mediciones del mensurando, siempre que la divisin de escala del instrumento sea lo suficientemente pequea, que el instrumento posea la sensibilidad adecuada. La medida de cualquier magnitud posee naturaleza aleatoria al existir siempre una variabilidad inevitable que confiere dicho carcter a las indicaciones del instrumento cuando se realizan sucesivas mediciones del mensurando, siempre en las mismas condiciones de referencia. El orden de significacin de la variabilidad, para un determinado nivel de control de las magnitudes de influencia, depende esencialmente del grado de definicin del mensurando y de la sensibilidad del instrumento de medida empleado. Puesto que el resultado de medir un mensurando es una variable aleatoria, el mensurando debe caracterizarse en la forma habitual empleada con las variables aleatorias, utilizando un parmetro de centrado y otro de dispersin. Ese parmetro de dispersin como veremos ms adelante ser la precisin. A veces no es posible efectuar las medidas con las magnitudes de influencia controladas en el entorno de los valores de referencia. En este caso hay que aplicar correcciones a los valores indicados o brutos para que el resultado de la medicin corresponda al que se habra obtenido si se hubiese trabajado con aquellas magnitudes en sus valores de referencia. La introduccin de correcciones incrementa la complejidad de las

medidas pues no siempre se conoce la relacin funcional que existe entre el resultado de la medida y los valores de las mganitudes de influencia. Adems de las correcciones indicadas, la exigencia de la trazabilidad impone la utilizacin de instrumentos calibrados lo que determina la incorporacin de las correcciones de calibracin. La calibracin del instrumento se efecta midiendo patrones de referencia al objeto de comprobar si las indicaciones de la escala se ajustan a los valores de las correspondientes unidades del SI. De todos los razonamientos anteriores se observa que no es posible obtener valores exactos como resultado de las medidas. La nica forma de conseguirlo sera la de introducir exactamente todas las correcciones necesarias en el tiempo y en el espacio, lo cual no es posible debido a la imperfeccin de los medios y del conocimiento, y por otro lado los medios necesarios para obtener una medida exacta no se justificaran desde el punto de vista prctico de la metrologa industrial. De ah que se origine un bucle al admitir que toda medida debe ser corregida (al menos con la correccin de calibracin del instrumento de medida), lo que obliga a medir nuevas magnitudes que, a su vez, habrn de ser corregidas hasta alcanzar los niveles metrolgicos ms elevados, no puede agotarse en la prctica y debe cortarse en algn punto, lo que supone dejar sin corregir algo que debiera haberse corregido, es decir, una correccin residual. La correcin residual es desconocida pero existe la posiblidad de acotarla. De ah una primera definicin de incertidumbre: La incertidumbre de la medida es una cota superior del valor de la correccin residual. El valor verdadero de un mensurando es el valor que mejor caracteriza dicho mensurando pero no tiene existencia fsica real. En la prctica es suficiente con aproximarse convenientemente al valor verdadero. El valor obtenido cuando se decide interrumpir la aplicacin de sucesivas correcciones suele denominarse valor convencionalmente verdadero o valor resultante de la medida, el mejor valor que puede obtenerse con los medios disponibles. Se dar un nueva deficin: La incertidumbre de la medida es el valor de la semiamplitud de un intervalo alrededor del valor resultante de la medida (valor convencionalmente verdadero). Dicho intervalo representa una estimacin adecuado de una zona de valores entre los cuales es "casi seguro" que se encuentre el valor verdadero del mensurando. As pues, el resultado de la medida se expresa mediante: x U La deficin de incertidumbre que incorpora el Vocabulario Internacional de Metrologa (VIM): La incertidumbre de medida es un parmetro, asociado al resultado de una medicin, que caracteriza la dispersin de los valores que razonablemente podran ser atribuidos al mensurando. Cuanto menor sea la incertidumbre de la medida, mejor sta. El valor de la incertidumbre es el primer ndice de la calidad de una medida, que es tanto mayor cuanto menor es aquella. Intervalo de tolerancia e incertidumbre de medida Las magnitudes significativas de los productos industriales, de los trabajos topogrficos, de los trabajos cartogrficos, de los proyectos de ortofotografas.... se especifican mediante tolerancias, que son los intervalos de los valores admisibles para la magnitud en cuestin en cada caso. Las tolerancias surgen en el diseo industrial de cualquier elemento, o en los pliegos de condiciones tcnicas de los trabajos topogrficos y cartogrficos, determinando el rechazo o aceptacin de los producidos con valores fuera del intervalo de tolerancia. Desde el punto de vista de la produccin industrial, la especificacin mediante tolerancias es compatible con el principio de intercambiabilidad que constituye la base de la produccin en serie. El diseo se efecta de forma que las tolerancias especificadas aseguren la intercambiabilidad de elementos anlogos en conjuntos

ms complejos sin alterar la funcionalidad de los mismos. Desde un planteamiento clsico, no es necesario que para ello se establezcan unos valores "exactos" para las magnitudes crticas, sino que es suficiente que dichos valores vengan obligados a pertenecer a un intervalo de tolerancia, de mayor o menor valor segn la aplicacin y el grado de responsabilidad correspondiente. Tolerancia de una magnitud es el intervalo de valores en el que debe encontrarse dicha magnitud para que se acepte como vlidad. Cada vez que hay que decidir si el valor concreto de una magnitud est dentro de tolerancia, es preciso medir, y si la medida de comprobacin no se asegura con la calidad necesaria (incertidumbre) aquella decisin puede ser errnea. Cuando el intervalo de incertidumbre est contenido en el intervalo de tolerancia, se est en condiciones de afirmar, casi con seguridad, que el valor verdadero del mensurando es admisible. Cuando los intervalos de incertidumbre y de tolerancia son disjuntos, hay seguridad casi total en rechazar el mensurando. Cuando los intervalos de incertidumbre y de tolerancia se solapan en parte, es decir, cuando poseen una parte comn y otra no comn, la determinacin de aceptacin o rechazo es dudosa. En la prctica se opta por un criterio de seguridad que consiste en rechazar cualquier mensurando en situacin dudosa, lo que resulta adecuado siempre que el intervalo de incertidumbre sea varias veces inferior al de tolerancia. Esto equivale a definir como intervalo de decisin para los valores medidos el correspondiente a: T - 2U (tolerancia efectiva), limitando el valor del cociente de ambos intervalos (tolerancia e incertidumbre). En medidas dimensionales, suele ser frecuente considerar admisible: 3 T / 2U 10 En la relacin anterior, valores mayores que diez exigiran medios de medida muy costosos, y la reduccin del lmite inferior por debajo de tres supondra un rechazo importante de elementos correctos. Cuantificacin de la incertidumbre. Relacin entre incertidumbre y precisin. Durante mucho tiempo se ha empleado la expresin "error de medida" para cuantificar la imperfeccin del mtodo e instrumento de medida utilizados. Adems, se clasificaban los errores en sistemticos y aleatorios, determinando el error de medida como combinacin lineal o cuadrtica de ambos. Esta divisin no siempre resulta fcil de establecer, y a veces no es posible, debido a la escasa base conceptual que la soporta, lo que favoreci que proliferasen las "recetas" para calcular los lmites mximos de error, con el grave inconveniente de no disponer de criterios uniformes para enjuiciar resultados de mediciones que, obtenidos con mtodos e instrumentos anlogos, eran efectuados por diferentes observadores. En 1980 el Comit Internacional de Pesas y Medidas (CIPM) emiti las siguientes recomendaciones sobre la incertidumbre: Dependiendo del mtodo empleado para su determinacin numrica, las componentes de la incertidumbre de medida pueden agruparse en dos categoras: y y a) las que se estiman mediante procedimientos estadsticos sobre los valores obtenidos al reiterar medidas de un mensurando, a las que se propone denominar de tipo A. b) las que se aprecian por otros mtodos, a las que se denominan de tipo B.

Ambos tipos de componentes deben cuantificarse mediante varianzas o cantidades equivalentes, debiendo caracterizarse las situaciones de dependencia - en su caso - por las correspondientes covarianzas.

La incertidumbre as determinada, puede multiplicarse por un factor superior a la unidad, para obtener una incertidumbre total mayor, pero indicando siempre el valor de dicho factor. Las razones que recomiendan el empleo de desviaciones tpicas para cuantificar la incertidumbre frente a la utilizacin exclusiva de intervalos de confianza son: y y La determinacin de un intervalo de confianza presupone la aceptacin de una funcin de distribucin concreta que caracterice la poblacin de resultados de medida. La ley de propagacin de varianzas permite, de forma muy simple e independientemente del carcter poblacional, obtener la incertidumbre en medidas indirectas, lo que no es posible, de forma general, si se emplean intervalos de confianza.

La propuesta del CIPM fue desechar la hiptesis de que todas las distribuciones de resultados de medida responden a una ley normal; trabajar siempre con desviaciones tpicas o varianzas; y no identificar la incertidumbre con un intervalo de confianza, por las razones expuestas, sino directamente con la desviacin tpica resultante (u). La multiplicacin de esta ltima por un factor de cobertura, inclusin o recubrimiento (k), habitualmente entre 2 y 3, y que debe especificarse siempre como parte del resultado de medida, permite obtener unos valores de incertidumbre expandida ( U ) "ms seguros" para aplicaciones industriales, lo que determina: U=ku Si se aplican todas las correcciones significativas a las indicaciones brutas, se percibe intuitivamente que el valor verdadero del mensurando debe encontrarse hacia el centro de las indicaciones corregidas, pero ante la dificultad de identificar alguno de estos valores como verdadero, se acepta como "mejor valor" del mensurando un ndice o parmetro de la tendencia central del conjunto de aquellas indicaciones. Con el objeto de decidir si el "mejor valor" est suficientemente prximo al verdadero puede emplearse algn indicador de la dispersin de los resultados. Cuanto menor sea dicha dispersin, ms cerca se encuentran ambos valores, siempre que se mantengan similares condiciones de repetibilidad y se hayan aplicado anlogas correciones. En este sentido aparece el trmino precisin, como un trmino asociado a la dispersin de las mediciones reiteradas. Ms adelante veremos si la incertidumbre se puede asociar directamente tambin a la dispersin, y en ese caso precisin e incertidumbre seran los mismo, pero eso no ser as... Para caracterizar cualquier funcin de densidad se emplean parmentros que permiten comparar poblaciones con distintas funciones de densidad. Los parmetros ms sencillos y utilizados son los de centrado y dispersin. Los parmetros de centrado proporcionan una primera idea sobre la posicin de la funcin de densidad, estableciendo un valor prximo al "centro" de la misma. Los parmetros de dispersin informan del menor o mayor grado de variabilidad entre los elementos de la poblacin (resultados de medida corregidos). En metrologa se adopta como parmetro de centrado la media ( ) y como parmetro de dispersin la desviacin tpica ( ) de la que se emplea su cuadrado con el nombre de varianza ( 2). En la prctica, al no conocerse la correspondiente funcin de densidad, la estadstica nos proporciona unos valores aproximados, los estimadores, que pueden evaluarse a partir de cualquier muestra concreta de resultados de extensin n. Los estimadores, que se presentan por , m para la media y s^, V para la varianza, pueden ser varios, pero en metrologa se utilizan casi exlusivamente la media aritmtica ( X ) y la varianza muestral (s 2). = m = X = 1 / n i=1n Xi V = s 2 = 1 / (n-1) i=1n ( Xi - X)2 En un primer anlisis, cabra pensar que el resultado de las medidas pudiera reflejarse mediante:

ms Dado que la reiteracin de valores se est efectuando en condiciones de repetibilidad y despus de haber introducido todas las correcciones significativas que pueden evaluarse. Por consiguiente, la media aritmtica es el mejor valor corregido y debera adoptarse como valor resultante de la medicin en todas las reas de la metrologa, se acepta que el valor resultante de las medidas, valor convencionalmente verdadero, es la media aritmtica de las indicaciones corregidas. Asmismo, cabra pensar en cuantificar la incertidumbre del resultado mediante el parmetro de dispersin indicado, la desviacin tpica muestral s, pero eso resultara inapropiado por diferentes razones. En primer lugar, s es un estimador de la dispersin de la poblacin de medidas reiteradas en condiciones de repetibilidad. Cada una de las medidas obtenidas es un elemento de dicha poblacin, pero el resultado atribuido al mensurando como consecuencia de dicha medicin no es uno de aquellos sino la media artimtica ( X ) que podra, incluso, no coincidir con ninguno de los elementos de la media poblacional. No parece correcto asignar un parmetro de dispersin al valor resultante ( X ) que en realidad se refiere a la dispersin de otra poblacin ( X ). Si se analiza la cuestin con auxilio de la estadstica, siguiendo las leyes de propagacin de varianzascovarianzas, la aprente dificultad se resuelve sin dificultad. En realidad, el estimador media aritmtica X es otra variable aleatoria, distinta de la que representa la poblacin considerada pero relacionada con ella. Es sencillo deducir que las varianzas de ambas varables satisfacen la expresin siguiente:
2 x

/n

Si se trabaja con estimadores la relacin resulta: sx = s / n s es un mal estimador de cuando n es pequeo. La primera recomendacin es procurar calcular s mediante un nmero apreciable de reiteraciones. Conclusiones Tras la exposicin realizada sobre la incertidumbre se puede decir que su diferencia con respecto al trmino precisin radica en que son trminos que se refieren a conceptos distintos. Por un lado esta la incertidumbre referida a un intervalo dentro del cual estar el valor verdadero, acotando las correcciones residuales. Siendo en este ltimo matiz donde reside la diferencia entre los trminos, ya que la incertidumbre tambin da un idea de la dispersin de las medidas, al igual que el trmino de la precisin cuando se asocia directamente con la varianza muestral. Digamos que el trmino incertidumbre tiene un significado mucho mayor, mientras que precisin se reduce slo a una parte, a una forma de cuantificar la incertidumbre. Por otro lado, podemos referirnos al trmino precisin como al grado de agrupacin o por contra dispersin que tienen nuestras observaciones, lo cual no tiene porqu coincidir con la exactitud, entendida esta ltima como proximidad al valor real. La diferencia entre tolerancia e incertidumbre es mucha ms clara tal y como se ha expresado . La tolerancia siempre ser un intervalo marcado por los pliegos de condiciones dentro del cual deben encontrarse las medidas corregidas junto a su incertidumbre asociada. Finalmente, remarcar los nuevos conceptos sobre los componentes de la incertidumbre donde se desecha la teora clsica de errores sistemticos y aleatorios.