Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La teoría de errores es una ciencia fundamental para todas las materias donde se
manejan y analizan grandes volúmenes de datos provenientes de observaciones directas
o mediciones realizadas en laboratorio o trabajos de campo, tales como los que se
desarrollan en topografía, geodesia, física, química y sobre todo estadística.
Esta ciencia, parte de la estadística, fue desarrollada por el matemático alemán Karl
Friedrich Gauss a partir de sus estudios algebraicos y complementada luego por el inglés
Sir Isaac Newton quien aplica su teoría del análisis matemático a la estadística y mas
tarde por el francés Pierre Simón Laplace quien con su teoría de las probabilidades le da
a la estadística y la teoría de errores carácter de ciencia.
La teoría de la medida de errores fue iniciada por Galileo y continuada por otros muchos
científicos, en su mayoría astrónomos, como, por ejemplo, TichoBrahe (1546–1601), que
encontró que cada medida tiene un posible error y que la precisión de la medida puede
aumentar si se hacen varias medidas y se calcula la media aritmética. Los primeros
intentos de construir matemáticamente la teoría de la medida de errores fueron hechos
por R. Cotes (1682–1716), T. Simpson (1710–1761) y Daniel Bernoulli. Cada uno de ellos
tenía una idea diferente sobre la medida de los errores. Cotes opinaba que los errores se
distribuyen uniformemente a lo largo el intervalo (-a,a). Simpson creía que los errores
pequeños ocurren más frecuentemente que los grandes, pero que están restringidos por
un número a, de manera que el error es 0 en los intervalos (-∞,-a] y [a,+∞); así, la función
de densidad es x-2a2y=-a en el intervalo (-a,0), y en (0,a) es x+2a2y=a. Daniel Bernoulli
fue el primero en poner en duda que la media aritmética fuera la mejor estimación del
error y propuso como función de densidad y = R2 − (x − x)2 , donde R es conocido y x se
determina mediante repetidas observaciones. Bernoulli no se dio cuenta de que la integral
de esta función no es 1, sino (π‚2) R2, por lo que sólo represente una verdadera función
de densidad en casos particulares. El trabajo de Bernoulli, no obstante, es importante
porque fue el primero en proponer estimar un parámetro desconocido mediante el método
de ‘máxima verosimilitud’. Otro estudioso de la cuestión fue Laplace, que consideraba la
teoría de probabilidad más como una disciplina dela ciencia natural que de las
matemáticas. Muy dedicado a la astronomía, aplicó a sus investigaciones en teoría de
medida de errores. Laplace afirmó los errores de medida observados eran la suma de una
gran cantidad de pequeños errores; si estos errores tenían una distribución normal, su
suma también debería tenerla. Como estimación del valor desconocido del error a,
Laplace sugirió tomar el valor que minimiza la cantidad, que es igual a la media de las n
observaciones realizadas. Sin embargo, el trabajo de Laplace no alcanzó mucha difusión
porque quedó eclipsado por las nuevas ideas presentadas por K. Gauss (1777–1855) y A.
Legendre (1752–1833), que propusieron y desarrollaron el método de mínimos
cuadrados. Gauss demostró que, bajo ciertas condiciones generales.
Teoría de errores
Cuando se mide una cantidad física, no debe esperarse que el valor obtenido sea
exactamente igual al valor verdadero. Es importante dar alguna indicación de que tan
cerca está el resultado obtenido del valor verdadero; es decir alguna indicación de la
exactitud o confiabilidad de las mediciones. Esta se hace incluyendo en el resultado una
estimación de su error. Por ejemplo, puede medirse la distancia focal f de una lente y dar
el resultado final como
F= (256 2) mm.
Por esto se entiende que se cree que la distancia focal este en alguna parte dentro de la
variación de 254 a 258 mm. En realidad, la ecuación (2.1) es una afirmación de
probabilidad; no significa que se está seguro que el valor este entre los limites indicados,
si no que las mediciones indican que hay cierta probabilidad de que este ahí.
Por ejemplo, suponga que se desea determinar si la temperatura tiene efecto sobre la
resistencia de una bobina de alambre. Los valores de la resistencia que se mide son
200.025 Ω a 10
200.034 Ω a 20
¿Es significativa la diferencia entre estos dos valores? Si no se conocen los errores, no
puede contestarse la pregunta. Por ejemplo, si al error en cada valor de la resistencia es
0.001Ω la diferencia es significativa; en tanto si al error es o.010Ω, entonces no lo es. Una
vez obtenido el resultado de un experimento, se difunde por el mundo y se convierte en
propiedad pública; diferentes personas pueden hacer uso de el en formas diversas.
Algunas pueden utilizarlo en sus cálculos para fines prácticos; oros quizás deseen
compararlo con una predicción teórica.
Cualquier uso que una persona haga de un resultado experimental querrá si esta es
suficientemente preciso para sus propósitos; y si de este obtiene algunas conclusiones,
deseara saber cuánta confianza puede poner en ellas, para responder a tales preguntas
es necesario estimar el error del resultad, y es responsabilidad del experimentador
hacerlo.
Pudiera pensarse que se tendrá el propósito de que todo experimento se lleve a cabo con
tanta exactitud como sea posible, pero este punto de vista no es real; la vida es finita y los
recursos del experimentador también, igual que en capacidad de trabajo. Por lo tanto es
importante planear y efectuar el experimento de modo que la exactitud de la respuesta
final sea la apropiada para el objeto primordial del experimento.
Tal como debe obtenerse el resultado final de un experimento con un grado apropiado de
exactitud, los valores de las diferentes cantidades que se miden dentro del experimento,
deben obtenerse con el grado adecuado de exactitud.
Pocos experimentos son tan sencillos que la magnitud final se mida en forma directa, pero
por lo general se tienen que medir varias magnitudes primarias y combinar los resultados
a fin de obtener la magnitud requerida. Los errores en las magnitudes primarias
determinan el error en el resultado final. En general, los errores primarios contribuyen en
distinto grado al error final, y este llega a su mínima expresión si los recursos finitos
disponibles de tiempo, aparatos y paciencia se concentran para reducir los errores que
más contribuyen al error final.
Por lo tanto, la idea de error no es cosa de interés secundario o circunstancial en un
experimento; al contrario, está relacionada con el propósito del experimento, el método de
efectuarlo y el significado de los resultados.
-ERRORES SISTEMATICOS
A la par con los mencionados existen otros tipos de errores como son por ejemplo los
errores estáticos y los errores dinámicos. Los errores estáticos se originan debido a las
limitaciones de los instrumentos de medida o por las leyes físicas que gobiernan su
comportamiento. En un micrómetro se introduce un error estático cuando se aplica al eje
una fuerza excesiva. Los errores dinámicos se originan debido a que el instrumento de
medida no responde lo suficientemente rápido para seguir los cambios de la variable
medida. Pero cualquier tipo adicional de error se puede clasificar en uno de los grupos
mencionados anteriormente.
Física práctica.
squieres
McGraw-Hill de México, S.A. de C.V.