Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La GUM, publicada en 1993 y revisada en 1995 y 2008, representa la referencia más completa y
aceptada actualmente sobre cómo expresar la incertidumbre de medida.
Existen una serie de términos relacionados con la incertidumbre de medida como son error,
precisión, exactitud, repetibilidad, reproducibilidad, etc., que deben tratarse con cuidado,
evitando su confusión y usándolos de manera consistente a como se definen en otros
documentos internacionales.
La definición de todos ellos viene recogida en el Vocabulario internacional de Metrología –
Conceptos fundamentales y generales y términos asociados (3ª edición) (ISO, 2007),
comúnmente conocido como VIM.
El VIM debe acompañar siempre a la GUM ya que los dos documentos son complementarios y
han sido publicados por la ISO en representación de otras muchas organizaciones
internacionales.
Error de Medida:
Diferencia entre un valor medido de una magnitud y un valor de referencia o valor exacto
(desconocido).
El error de medida tiene dos componentes, el error sistemático y el error aleatorio.
Componente del error de medida que, en mediciones repetidas, permanece constante o varía de
manera predecible.
Componente del error de medida que, en mediciones repetidas, varía de manera impredecible.
Presentan una variación natural y tienen un comportamiento aleatorio.
Sus causas son debido al azar y por lo tanto obedecen a la teoría matemática de las
probabilidades, estas múltiples perturbaciones provienen de fuentes independientes que
individualmente provocan pequeñas variaciones erráticas , positivas o negativas , imposibles de
detectar.
Los errores Aleatorios afectan a la precisión de la medida.
Ejemplo
Se mide una distancia con un determinado método e instrumento obteniendo una medida muy
exacta. Considerando todas las correcciones necesarias, su valor final es de 317,518 m con una
incertidumbre muy pequeña, casi despreciable, digamos por debajo de la décima de milímetro.
Por tanto, la longitud 317,518 m se considerará como el valor de referencia de la distancia en
cuestión.
Con posterioridad se realiza una medición de esa distancia con otro instrumento, resultando un
valor de 317,515 m. El error de medida de este resultado es de (317,515 – 317,518) m = -0,003
m.
Una segunda medición da un valor medido de 317,514 m, con un error medida de (317,514 –
317,518) m = -0,004 m.
Tras tomar 200 medidas y sacar un promedio se obtiene un valor de 317,516 m con un error de
medida de (317,516 – 317,518) m = -0,002 m.
Este sesgo de medida, cuyo valor es de -0,002 m es el denominado error sistemático de medida.
Queda claro que el error sistemático permanece constante independientemente del número de
medidas, por lo que si en lugar de 200, se hubiesen realizado otro número mayor, este error no
tendería a cero.
El VIM aclara que el valor de referencia para un error sistemático puede ser un valor verdadero,
un valor medido de un patrón cuya incertidumbre de medida es despreciable, o un valor
convencional.
El error sistemático y sus causas pueden ser conocidos o no, y para compensarlo se aplica una
Rev4_092023 // Prof.Adj. Ing.Fabián D.Barbato fabian.barbato@fing.edu.uy Prof. Ing.Danilo Blanco
DEPARTAMENTO DE GEODESIA
TEORÍA DE LAS OBSERVACIONES
TEORÍA DE ERRORES (I) / B0
corrección, la cual lleva siempre asociada una determinada incertidumbre. La incertidumbre de
todas las correcciones necesarias a aplicar a una medida habrá que considerarlas en la
evaluación de la incertidumbre de la medida en cuestión.
Volviendo de nuevo a los resultados individuales de los valores medidos, el primero fue de
317,515 m. Con respecto al promedio (317,516 m), su error es de (317,515 – 317,516) m = - 0,001
m. Este valor sería el denominado error aleatorio de medida.
Así pues, el error de medida para el resultado de una medición individual es igual a la suma del
error sistemático y el error aleatorio. En el caso de la primera medida, el error de medida es por
tanto de (-0,002 – 0,001) = -0,003 m.
Incertidumbre de Medida
Se sugiere que cuando se trate de evaluar la calidad del resultado de una medida se utilice el
término incertidumbre en lugar del término error.
Incertidumbre típica de medida: incertidumbre de medida expresada como una desviación típica
(estándar).
Factor de cobertura: número mayor que uno por el que se multiplica una incertidumbre típica
combinada para obtener una incertidumbre expandida.
Precisión y Exactitud
Precisión de medida: proximidad existente entre las indicaciones o los valores medidos
obtenidos en mediciones repetidas de un mismo objeto, o de objetos similares, bajo condiciones
específicas. Estas condiciones se denominan principalmente condiciones de repetibilidad, o de
reproducibilidad, y por tanto, frecuentemente, el término precisión denota simplemente
repetibilidad, es decir, está asociado a la dispersión de las mediciones reiteradas, la cual es
habitual expresarla numéricamente mediante medidas de dispersión tales como la desviación
típica, la varianza o el coeficiente de variación bajo las condiciones especificadas.
Al igual que los otros términos, al tratarse de un término cualitativo, no deberían asociarse
números con él, por lo que la sentencia “la precisión de medida de un ángulo es de 25 segundos”
sería incorrecta. Debería decirse, p. ej., “la precisión de medida de un ángulo, expresada como
una desviación típica obtenida bajo condiciones de repetibilidad, es de 25segundos”. Es decir,
habría que especificar qué medida de dispersión se está asociando al término precisión y bajo
qué condiciones de medida se está empleando. Las condiciones de repetibilidad de una medición
incluyen el mismo procedimiento de medida, los mismos operadores, el mismo sistema de
medida, las mismas condiciones de operación y el mismo lugar, así como mediciones repetidas
en un corto período de tiempo. Por el contrario, las condiciones de reproducibilidad de una
medición incluyen diferentes lugares, operadores, sistemas de medida y mediciones repetidas
de los mismos objetos u objetos similares.
Cuando nos referimos a la precisión de las observaciones, estamos hablando del grado de
conformidad o cercanía que existe entre los valores de una series de observaciones de la misma
magnitud, en cambio cuando hablamos de la exactitud nos referimos al grado de cercanía del
conjunto de observaciones al valor exacto.
La GUM determina que la incertidumbre del resultado de una medida se puede descomponer
generalmente en varias componentes, las cuales se podrían agrupar en dos categorías según el
método utilizado para evaluar sus valores numéricos:
• mediciones previas
• experiencia, o conocimiento general del comportamiento y propiedades de materiales
relevantes e instrumentos
• especificaciones del fabricante
• datos provenientes de calibraciones y otros informes
• incertidumbres asignadas a datos de referencia tomados de manuales.
Las evaluaciones tipo A basadas en un conjunto de datos no necesariamente han de ser más
fiables que las evaluaciones de tipo B.
La aplicación de una evaluación tipo A para cada mensurando requeriría mucho tiempo de
trabajo, pudiéndose realizar sólo en determinados casos como p. ej., en el control geodésico de
deformaciones.
Comúnmente, las evaluaciones tipo B nos llegan desde las especificaciones del fabricante de
instrumentos topográficos, obtenidas en laboratorio bajo condiciones específicas (p.e. la
incertidumbre en la medida de la distancia de un distanciómetro), desde nuestra experiencia
(p.e. la incertidumbre en la medida de la altura del instrumento) y desde tratados o libros (p.e.
la incertidumbre en el centrado de un instrumento sobre el punto de estación).
Para el caso de una medida determinada indirectamente a partir de otras medidas individuales,
se utiliza la incertidumbre típica combinada de medida, cuyo símbolo se sugiere uc, y que
representa la desviación típica del resultado.
Define un intervalo sobre el resultado de medida “y” dentro del cual se cree con certeza (con una
alta probabilidad de cobertura) que estará el valor del mensurando Y, y-U ≤ Y ≤ y+U, el cual se
escribe comúnmente como Y = y ± U.
Se obtiene multiplicando uc por un factor de cobertura cuyo símbolo sugerido es k y su valor se
establece en el rango de 2 a 3, lo que supone una probabilidad de cobertura aproximadamente
del 95% al 99% (U=k uc).
Son los que dan motivo a todo el cálculo probabilístico. Una vez depuradas las observaciones de
las equivocaciones y de los errores sistemáticos, permanecen diferencias que no pueden ser
determinadas a priori y que no guardan relación aparente entre si (no siguen una conducta
prefijada, es decir no mantienen un sentido). El comportamiento de los mismos se produce al
azar y es por esto que se conoce a este tipo de errores como aleatorios .
La medida es una variable aleatoria y con este tipo de errores efectuaremos un procesamiento
analítico para lograr obtener los resultados finales de cada operación de Agrimensura.
En cada observación se nos presenta una medida obtenida por el operador y el correspondiente
valor verdadero (que desconocemos) que desconoceremos siempre. En consecuencia la
discrepancia entre el valor verdadero τ y la observación X, que designaremos con ε, también es
desconocida.
En la práctica los Agrimensores trabajamos con aproximaciones del valor verdadero obtenidas
de una serie de mediciones de una cierta magnitud X, cuya discrepancia identificaremos como
error residual.
v = X - ¯ = media de las observaciones
Si bien el comportamiento de los errores aleatorios hemos señalado que se producen al azar, si
las observaciones se efectúan en las mismas condiciones, los errores aleatorios se caracterizan
por tres propiedades básicas de las variables probabilísticas:
Los errores aleatorios se consideran como eventos aleatorios que son aquellos que por definición
presentan una frecuencia de ocurrencia que se aproxima a un límite estable cuando el número
de observaciones y repeticiones tiende a infinito. Ese límite se denomina Probabilidad del evento
y por definición es un valor acotado entre 0 y 1.
0≤ ≤1
Supongamos que a una persona se le da a medir una distancia con una cinta cuya menor
graduación es 1 cm. La persona la mide una vez y obtiene
pero la persona no está seguro si ha mirado bien la escala de medida. Repite la operación y
obtiene los siguientes números:
l = 17.08 ± 0.01 m
l = 17.04 ± 0.01 m
l = 17.09 ± 0.01 m
l = 17.07 ± 0.01 m
l = 17.06 ± 0.01 m
¿Puede la persona deducir que de repente ha aumentado la precisión de la medida y ahora puede
escribir una precisión de 0.001 m utilizando el mismo proceso de promedio?. Parece raro, pues
ha medido longitudes que difieren unas de otras en 0.05 m. Parecería mas razonable decir que
aunque la cinta da una precisión de 0.01 m, el observador humano reduce esa precisión a
0.05 m.
Una forma es tratar de indicar como se separan las medidas realizadas li de la media encontrada
¯.
Evidentemente la suma de las desviaciones no nos dice nada acerca de ellas, pues por
construcción del valor medio su suma es cero.
Pero si las elevamos al cuadrado serán todas positivas de manera que su suma será distinta de
cero:
∑")*+)¯#,
σ=' !+
y hemos dividido por (n -1) en vez por n al tener en cuenta que si solamente tenemos una medida,
esta definición de σ produce la indeterminación de 0/0 en vez de producir el valor 0. Si tenemos
solo una medida ignoramos todo sobre la posible dispersión de las mismas, es decir, tenemos un
valor indeterminado y no simplemente 0 (un fundamento más fuerte para esto se verá más
adelante en el curso).
Resulta entonces que obtenemos una imprecisión media de 0.019 m, que es, como era de
esperar, mayor que la imprecisión propia de la regla.
Debemos pues expresar la medida como:
¯=17.07 ± 0.019 m
donde no podemos poner más que una cifra decimal en la medida, pues no solo no sabemos
nada de la segunda cifra debido a nuestra regla, sino que sabemos menos aún debido a nuestros
problemas a la hora de medir, por lo que finalmente deberíamos escribir:
La probabilidad de un suceso aleatorio será : 0 ≤ P[E] ≤ 1, donde P[E] =0 ,es el suceso imposible ,
y P[E] = 1, es el caso seguro. La función probabilidad dependerá tanto de la variable aleatoria,
como del valor que puede tomar.
Cuando repetimos un experimento que implica la medida de una cierta magnitud muchas veces,
con un instrumento cuya precisión puede distinguir valores diversos en esas medidas, el obtener
valores distintos se debe en general a la acumulación de muchas causas independientes e
incontrolables.
Así pues cuando hay muchas fuentes de indeterminación y cada una es pequeña, la distribución
de las desviaciones de una medida de su valor verdadero pueden considerarse distribuidas de
forma normal.
Podemos decir que la curva que mejor se aproxima al conjunto de mediciones bajo condiciones
normales es la Campana de Gauss. .
• p(x): X = x que corresponde a la función probabilidad para un valor puntual, la cual esta
relacionada con la probabilidad de un suceso.
• F(x): X ≤ x la cual calcula la probabilidad para un conjunto de valores menores que uno
dado, nos estamos refiriendo a la función de distribución.
• f(x): dF(x)/dx que corresponde a la función de densidad de probabilidad (esta tiene
sentido cuando la variable es continua).
f(x) = d(F(x))/dx
p [x ≤ C ]
C µ
Parámetros:
Función Densidad:
9":9;#,
."/# = 5 8 ,<,
√ 7
Es importante tener en cuenta la precisión del trabajo realizado, por lo cual se debe observar la
dispersión de los datos, lo que se traduce en las gráficas siguientes :
(a)
(b)
En las mismas se puede observar que “a” es mas precisa que “b”, ya que σ b > σ a , siendo la
precisión inversamente proporcional a la dispersión de los datos.
A los efectos de poder calcular probabilidades a partir de las funciones de densidad normales, se
trabaja con la denominada función de densidad estándar. Esta es aquella función Normal con
parámetros µ = 0 y σ = 1 (Z ∼ N(0,1)). Las áreas bajo esta curva se encuentran tabuladas.
X ∼ N(µ,σ) Z ∼ N(0,1)
Ejemplo:
¿ Cual es la probabilidad de que un suceso cualquiera “x” se encuentre entre µ ± σ ?
Φ(1)-Φ(-1)=0.8413-0.1587=0.6826=68.26%
K Probabilidad 2Φ (K)
0.674 0.500 0.7498
1.000 0.683 0.8413
1.960 0.950 0.9750
3.000 0.997 0.9987
Si realizamos n medidas independientes y bajos las mismas condiciones, x1, x2, ....., xn, de una
magnitud X, ya vimos que las mismas están distribuidas normalmente.
La probabilidad de haber obtenido esos n valores concretos es:
,
9 ∑ :*9@
"/ ∩ / ∩ .../! # = A8 ,<,
5A √ 7
El mejor valor de X será aquel para el cual es máxima la probabilidad de que habiendo hecho n
medidas hayamos obtenido los valores concretos x1, x2, ....., xn.
∑"/ − #
∑"/ − # D E 2C
F −2 ∑"/ − #
= =0
2C D 2C
∑ )*
∑"/ − # = 0 X= !
Sean x1, x2, ....., xn, variables aleatorias independientes, cada una de las cuales es normal (0, 1).
Consideremos una nueva variable:
G = / + / + /H + ....... + /!
( )
( )
1 2 2 2
1 − x1 + x 2 + x 3 +.......+ x n2
K n ( x) = P χ 2 ≤ x = .... e 2
dx 1......dx n
(2π) 2 x +
n
2
1 + x n2 ≤ x
A :
I! "/# = J!K "/# = Cx , + 8 +,
Si queremos hallar una cantidad χp2, tal que G > GR tome un valor dado p% debemos
R
resolver la ecuación: G > GR =
100
χp2
n
p = 99 98 97 .......
1 ...... ..... ..... .......
2 ....... ..... ..... ......
3 ...... ..... ..... .......
Ejemplo de función
de densidad de χ2 para n = 6.
Sean Y, Z dos variables aleatorias independientes tales que: Y ∼ N (0,1), mientras que Z tiene una
distribución χ2 con n grados de libertad.
T
Se define una nueva variable S = √$ U, donde la raíz se toma siempre mayor a cero.
√
Llamemos Sn(x) a su función de distribución y sn(x) a su función de densidad.
)
dx
V! "/# = "S ≤ /# = W X !
+O /
E1 + $ F
Z
Y! "/# = V!K "/# = A[\ donde C es una constante.
:, ,
E A
F
Para valores grandes de n (n → +∞) la curva se aproxima mucho a la normal (0, 1). Para valores
pequeños de n, la curva t se desvía considerablemente de la normal en el sentido de que la
probabilidad de una gran desviación respecto a la media es mayor según t que según la normal.