Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ahora bien, la naturaleza humana es finita. Eso quiere decir que los números que producen las
máquinas tienen un número finito de cifras. Ese número de cifras marca la precisión o imprecisión
con la que podemos conocer las variables que estamos estudiando.
Las reglas graduadas que se utilizan para dibujar tienen divisiones en milímetros. Sin embargo,
una cinta métrica de trabajo de campo, de un maestro de obras, mide solamente centímetros.
¿Porqué es esto?
Supongamos que un arquitecto está dibujando un plano en un papel de un edificio de 50 metros
de fachada. Tiene que utilizar una escala de 1:50, de manera que 1 milímetro en el papel
representa 50 mm, es decir, 5 cm en la realidad.
¿Puede, razonablemente, dibujarse distinguiendo décimas de milímetro?. No parece fácil, y por
lo tanto no parece necesario que quien vaya a utilizar ese plano en obra sea capaz de medir
longitudes menores de 1 cm.
Estas consideraciones sobres las medidas posibles, las medidas necesarias, la precisión, cómo
medir esta precisión, es lo que forma parte de la teoría de la medida, de la teoría de la precisión,
o como se suele denominar, de la teoría de errores.
Al medir la longitud de un objeto con una regla graduada en cm, es posible que se pueda estimar
las fracciones de centímetro, pero si se mide con una regla graduada en mm, la capacidad de
estimación será de ±0.25 mm.
En Cartografía, los estándares presuponen que la Escala está vinculada a la resolución del ojo
humano a ¼ mm.
Por lo tanto en una Cartografía 1:50000, no debería representarse nada que fuera menor a
12.50m en la Realidad.
Nótese que no se dice que la estimación es la mínima división del instrumento, sino la mínima
división que es discernible por el observador.
Esta incerteza proviene de la interacción del método de medición con el objeto a medir. Su
determinación depende de la medición que se realiza y su valor se estima de un análisis
cuidadoso del método usado.
Con σDEF designamos la incertidumbre asociada con la falta de definición del objeto a medir y
representa su incertidumbre intrínseca.
En general, al realizar una medición, todas estas fuentes de error estarán presentes, de modo
que resulta útil definir el error NOMINAL de una medición (σNOM), como:
Como ya vimos al realizar una medición de una magnitud, además de presentarse el error
nominal de ésta, se producen los denominados Errores Aleatorios (σALEAT). Por lo tanto el error
final (σ) de la medición será:
=σALEAT +σNOM
Para poder estimar este error, deberán realizarse varias mediciones del objeto. De esta manera
se logra minimizar la incidencia le los errores aleatorios.
Es el error final estimado de la medición. Ya sea al realizar una sola medición de la magnitud
(σNOM), o al realizar varias mediciones de la misma (σ).
= Error relativo.
εR no tiene dimensiones. Cuando decimos que un error es del 10% tenemos una información
sobre la calidad de la medición.
Si expresamos que el error de una medición de una longitud es 10 cm, ello puede representar
una medición excelente (si la longitud es de centenares de metros) o una mala (si el objeto
medido tiene 20 cm).
Cuando nos dicen que la precisión es de 1/1000, significa que en 1000 unidades el error tolerable
es de 1 unidad.
Es una forma de expresar el error relativo en una observación. Por cada 1000000 unidades que
se midan se obtendrá 1 unidad de error.
Por ejemplo, en un distanciómetro la precisión del instrumento viene dado por:
e= 3 mm + 2 ppm
El error tiene dos términos, uno viene dado por una constante y el otro proporcional a la distancia
medida.