Está en la página 1de 5

Antecedentes

La teoría de errores es una ciencia fundamental para todas las materias donde se
manejan y analizan grandes volúmenes de datos provenientes de observaciones directas
o mediciones realizadas en laboratorio o trabajos de campo, tales como los que se
desarrollan en topografía, geodesia, física, química y sobre todo estadística.

Esta ciencia, parte de la estadística, fue desarrollada por el matemático alemán Karl
Friedrich Gauss a partir de sus estudios algebraicos y complementada luego por el inglés
Sir Isaac Newton quien aplica su teoría del análisis matemático a la estadística y mas
tarde por el francés Pierre Simón Laplace quien con su teoría de las probabilidades le da
a la estadística y la teoría de errores carácter de ciencia.

La teoría de la medida de errores fue iniciada por Galileo y continuada por otros muchos
científicos, en su mayoría astrónomos, como, por ejemplo, TichoBrahe (1546–1601), que
encontró que cada medida tiene un posible error y que la precisión de la medida puede
aumentar si se hacen varias medidas y se calcula la media aritmética. Los primeros
intentos de construir matemáticamente la teoría de la medida de errores fueron hechos
por R. Cotes (1682–1716), T. Simpson (1710–1761) y Daniel Bernoulli. Cada uno de ellos
tenía una idea diferente sobre la medida de los errores. Cotes opinaba que los errores se
distribuyen uniformemente a lo largo el intervalo (-a,a). Simpson creía que los errores
pequeños ocurren más frecuentemente que los grandes, pero que están restringidos por
un número a, de manera que el error es 0 en los intervalos (-∞,-a] y [a,+∞); así, la función
de densidad es x-2a2y=-a en el intervalo (-a,0), y en (0,a) es x+2a2y=a. Daniel Bernoulli
fue el primero en poner en duda que la media aritmética fuera la mejor estimación del
error y propuso como función de densidad y = R2 − (x − x)2 , donde R es conocido y x se
determina mediante repetidas observaciones. Bernoulli no se dio cuenta de que la integral
de esta función no es 1, sino (π‚2) R2, por lo que sólo represente una verdadera función
de densidad en casos particulares. El trabajo de Bernoulli, no obstante, es importante
porque fue el primero en proponer estimar un parámetro desconocido mediante el método
de ‘máxima verosimilitud’. Otro estudioso de la cuestión fue Laplace, que consideraba la
teoría de probabilidad más como una disciplina dela ciencia natural que de las
matemáticas. Muy dedicado a la astronomía, aplicó a sus investigaciones en teoría de
medida de errores. Laplace afirmó los errores de medida observados eran la suma de una
gran cantidad de pequeños errores; si estos errores tenían una distribución normal, su
suma también debería tenerla. Como estimación del valor desconocido del error a,
Laplace sugirió tomar el valor que minimiza la cantidad, que es igual a la media de las n
observaciones realizadas. Sin embargo, el trabajo de Laplace no alcanzó mucha difusión
porque quedó eclipsado por las nuevas ideas presentadas por K. Gauss (1777–1855) y A.
Legendre (1752–1833), que propusieron y desarrollaron el método de mínimos
cuadrados. Gauss demostró que, bajo ciertas condiciones generales.

Otra gran contribución fue la realizada por SimeonPoisson (1781–1840). En particular,


planteó la siguiente pregunta: ¿es cierto que la media aritmética es siempre mejor que
una única observación? La respuesta es no.
Poisson demostró que la suma de dos variables aleatorias con esta distribución tiene la
misma distribución pero con otra escala y luego probó que la media aritmética de
variables aleatorias independientes de este tipo tiene exactamente la misma distribución
que cualquiera de ellas. 20 años después A. Cauchy (1789–1857) repitió este mismo
resultado y la distribución descubierta por Poisson recibió el nombre de Cauchy. Más
tarde, la teoría de errores atrajo la atención de muchos probabilistas rusos, como P.
Chebyshev (1821–1894) y A. Markov (1856–1922), que desarrollaron el método de
mínimos cuadrados.

Teoría de errores

La importancia de la estimación de los errores

Cuando se mide una cantidad física, no debe esperarse que el valor obtenido sea
exactamente igual al valor verdadero. Es importante dar alguna indicación de que tan
cerca está el resultado obtenido del valor verdadero; es decir alguna indicación de la
exactitud o confiabilidad de las mediciones. Esta se hace incluyendo en el resultado una
estimación de su error. Por ejemplo, puede medirse la distancia focal f de una lente y dar
el resultado final como

F= (256 2) mm.

Por esto se entiende que se cree que la distancia focal este en alguna parte dentro de la
variación de 254 a 258 mm. En realidad, la ecuación (2.1) es una afirmación de
probabilidad; no significa que se está seguro que el valor este entre los limites indicados,
si no que las mediciones indican que hay cierta probabilidad de que este ahí.

La estimación de los errores es importante, porque sin ella no se pueden obtener


conclusiones significativas de los resultados experimentales.

Por ejemplo, suponga que se desea determinar si la temperatura tiene efecto sobre la
resistencia de una bobina de alambre. Los valores de la resistencia que se mide son

200.025 Ω a 10
200.034 Ω a 20
¿Es significativa la diferencia entre estos dos valores? Si no se conocen los errores, no
puede contestarse la pregunta. Por ejemplo, si al error en cada valor de la resistencia es
0.001Ω la diferencia es significativa; en tanto si al error es o.010Ω, entonces no lo es. Una
vez obtenido el resultado de un experimento, se difunde por el mundo y se convierte en
propiedad pública; diferentes personas pueden hacer uso de el en formas diversas.
Algunas pueden utilizarlo en sus cálculos para fines prácticos; oros quizás deseen
compararlo con una predicción teórica.
Cualquier uso que una persona haga de un resultado experimental querrá si esta es
suficientemente preciso para sus propósitos; y si de este obtiene algunas conclusiones,
deseara saber cuánta confianza puede poner en ellas, para responder a tales preguntas
es necesario estimar el error del resultad, y es responsabilidad del experimentador
hacerlo.
Pudiera pensarse que se tendrá el propósito de que todo experimento se lleve a cabo con
tanta exactitud como sea posible, pero este punto de vista no es real; la vida es finita y los
recursos del experimentador también, igual que en capacidad de trabajo. Por lo tanto es
importante planear y efectuar el experimento de modo que la exactitud de la respuesta
final sea la apropiada para el objeto primordial del experimento.
Tal como debe obtenerse el resultado final de un experimento con un grado apropiado de
exactitud, los valores de las diferentes cantidades que se miden dentro del experimento,
deben obtenerse con el grado adecuado de exactitud.
Pocos experimentos son tan sencillos que la magnitud final se mida en forma directa, pero
por lo general se tienen que medir varias magnitudes primarias y combinar los resultados
a fin de obtener la magnitud requerida. Los errores en las magnitudes primarias
determinan el error en el resultado final. En general, los errores primarios contribuyen en
distinto grado al error final, y este llega a su mínima expresión si los recursos finitos
disponibles de tiempo, aparatos y paciencia se concentran para reducir los errores que
más contribuyen al error final.
Por lo tanto, la idea de error no es cosa de interés secundario o circunstancial en un
experimento; al contrario, está relacionada con el propósito del experimento, el método de
efectuarlo y el significado de los resultados.

-ERRORES SISTEMATICOS Y ERRORES ALEATORIOS

Los errores pueden dividirse en dos clases: sistemáticos y aleatorios. Un error


sistemático es aquel que es contante a través de un conjunto de lecturas. Un error
aleatorio, es el que varía y tiene igual posibilidad de ser positivo o negativo.
Los errores aleatorios siempre están presentes es un experimento, y en ausencia de
errores sistemáticos son causa de que las lecturas sucesivas se dispersen alrededor del
valor verdadero de la cantidad. Si además está presente el error sistemático las lecturas
se dispersan, no alrededor del valor verdadero, sino de algún valor desplazado

Supóngase que el periodo de un péndulo se mide con un cronometro y estas mediciones


se repiten muchas veces. Los errores al hacer andar y parar el reloj, leer la escala de
divisiones, y las pequeñas irregularidades en el movimiento del péndulo, causan
variaciones en los resultados de las mediciones sucesivas y pueden considerarse como
errores aleatorios. Si no hay otros errores presentes, algunos resultados serán demasiado
altos y otros demasiado bajos. Pero si, además, el reloj marcha lento, todos los resultados
serán demasiado bajos; este es un error sistemático.
Debe observarse que los errores sistemáticos y aleatorios se definen respecto a si
producen efectos sistemáticos o aleatorios. Por lo tanto no puede decirse que cierta
fuente de error sea inherentemente sistemática o aleatoria. Si se retrocede al ejemplo,
supóngase que en cada ocasión se mide el periodo usando un reloj diferente. Algunos
relojes pueden marchar rápido y otros lento. Tales inexactitudes producen un error
aleatorio.
Por otra parte, algunas fuentes de error pueden dar origen tanto a efectos sistemáticos
como aleatorios. Por ejemplo al operar el reloj, no solo se podría ponerlo en marcha y
pararlo en forma ligeramente irregular en relación al movimiento del péndulo, produciendo
así un error aleatorio, si no que podría tenerse la tendencia a ponerlo en marcha después
y a pararlo antes, lo que conduciría a un error sistemático.
Conviene establecer una distinción entre las palabras de exactitud y precisión en el
contexto de error. Así se dice que un resultado es exacto si está relativamente libre de
error sistemático, y preciso si el error aleatorio es pequeño

-ERRORES SISTEMATICOS

Los errores sistemáticos frecuentemente, surgen debido a que la disposición experimental


es diferente dela que se supuso en la teoría, y se ignora el factor de corrección que toma
en cuenta dicha diferencia. Es fácil dar ejemplos de los efectos que pueden conducir al
error sistemático: fuerzas electromotrices térmicas en un puente de resistencia, la
resistencia de los conductores en un termómetro de platino, el efecto de la exposición de
tubo capilar de un termómetro de mercurio, perdidas de calor en un experimento de
calorimetría, algunas perdidas en la cuenta, debido al tiempo muerto en un contador de
partículas, son solo unos pocos. Otra fuente común de error sistemático, antes
mencionada, es la inexactitud de los aparatos.
Pueden descubrirse los errores aleatorios repitiendo las mediciones; además, tomando
lectura se obtiene del promedio aritmético un valor que se aproxima más al valor
verdadero. Ninguno de estos puntos es verdadero para un error sistemático. Por esta
razón, los errores sistemáticos son potencialmente más peligrosos que los errores
aleatorios. Si en un experimento aparecen grandes errores aleatorios, estos se
manifiestan por si mismos en un valor grande del error final. Así, todo el mundo se
enterara de la inexactitud del resultado y no hay ningún perjuicio, excepto, posiblemente,
en el ego del experimentador, cuando nadie haga caso a su resultado. Sin embargo, la
presencia inadvertida de un error sistemático puede conducir a un resultado
aparentemente digno de confianza, expresado con un error calculado pequeño, y que de
hecho está muy equivocado.
Un ejemplo clásico lo proporciono el experimento de la gota de aceite hecho por Millikan,
para medir e, la carga elemental. En este experimento es necesario conocer la viscosidad
del aire. El valor utilizado por Millikan fue demasiado bajo y como resultado, el valor que
obtuvo para e era
e = (1.591 0.002) × C.
Este valor puede compararse con el valor actual (cohen y Dumond, 1965)
e = (1.60210 0.00002) × C.
hasta después de 1939, los valores de otras constantes atómicas, tales como la constante
de Planck y el número de Avogadro, estaban basados en el valor de Millikan para e y,
consecuentemente, tenían un error de más 0.5% los errores aleatorios pueden
determinarse por métodos estadísticos.
Los errores sistemáticos no se presentan para ningún tratamiento tan definido. Para
seguridad, usted los deberá considerar como efectos que deben descubrirse y eliminarse.
No hay una regla general para efectuar esto; en todo caso, debe pensarse acerca del
método particular para efectuar el experimento y siempre sospechar del aparato. En este
libre se tratara de indicar las fuentes comunes de errores sistemáticos.

A la par con los mencionados existen otros tipos de errores como son por ejemplo los
errores estáticos y los errores dinámicos. Los errores estáticos se originan debido a las
limitaciones de los instrumentos de medida o por las leyes físicas que gobiernan su
comportamiento. En un micrómetro se introduce un error estático cuando se aplica al eje
una fuerza excesiva. Los errores dinámicos se originan debido a que el instrumento de
medida no responde lo suficientemente rápido para seguir los cambios de la variable
medida. Pero cualquier tipo adicional de error se puede clasificar en uno de los grupos
mencionados anteriormente.

Física práctica.
squieres
McGraw-Hill de México, S.A. de C.V.

También podría gustarte