Está en la página 1de 10

Teoría del Error Experimental.

I GENERALIDADES

Todas las ciencias experimentales se basan en la obtención de información mediante la


observación de fenómenos que ocurren en la naturaleza. Dicha información resultará
incompleta a menos que se trate de una información cuantitativa.

Tal y como ahora se conciben la ciencia y la ingeniería, toda teoría busca fundamentar su
validez a través de la comparación con la evidencia experimental. La toma de mediciones
constituye el corazón del quehacer experimental. En términos simples, medir es obtener el
valor numérico de una magnitud física relacionada con algún fenómeno de interés. Para
ello, se compara la magnitud medida con otra magnitud patrón denominada unidad, que
le da significado. El asignar a una magnitud un número acompañado de una unidad,
constituye lo que de ahora en adelante llamaremos una medida o medición.

En general, toda magnitud física susceptible de ser medida depende de muchas variables.
Algunas son relevantes (tienen mayor influencia en el valor medido) y otras no lo son.
Algunas son fácilmente controlables, mientras que otras no lo son. Además, existen
limitaciones instrumentales, físicas y humanas que afectan el proceso de medición. Dado
todo lo anterior, si uno mide varias veces la misma magnitud, en las mismas condiciones y
con el mismo instrumento, es muy probable que se obtengan valores numéricos
diferentes.
Por definición, toda medición tiene asociada una incertidumbre, incerteza o error, y el
conjunto de reglas que permite su determinación se denomina teoría de errores. El error
se puede concebir como la variación (dispersión) de las diferentes mediciones con
respecto a un valor central. La medición de una cantidad física por sí sola, sin la
especificación de su rango de incertidumbre, no resulta útil para el quehacer experimental.

Se denomina valor verdadero a aquel que se obtendría si no existiesen errores en las


mediciones. Si bien se puede mejorar el procedimiento de medición, jamás se podrá
eliminar completamente el error, por lo que jamás se puede esperar la obtención del valor
verdadero. En consecuencia, una de las primeras cosas que hay que tener presente a la
hora de tomar mediciones es que los instrumentos no miden el valor verdadero, sino que
dan solamente una estimación de dicho valor.

En general, existen tres tipos de incertezas o errores de medición:

a) Errores sistemáticos: Se producen por factores indeseables (externos o internos) que


interactúan consistentemente con el sistema en estudio. No pueden ser detectados y
eliminados por simple repetición del experimento. Ejemplos:
• Mala calibración de instrumentos.
• Malos hábitos de trabajo del experimentador.
• Errores de paralaje (mala ubicación del observador al leer los instrumentos, en
especial los análogos, por ejemplo, reglas e instrumentos con aguja)
• Efectos de factores no considerados en el experimento (por ejemplo, despreciar
roce con el aire en algunos casos)
Para evitar este tipo de errores debemos:
• Controlar el estado de los instrumentos, en particular su calibración.
• Establecer claramente las condiciones de observación y/o experimentación.
• Revisar el fenómeno que se está analizando de manera de tener claro las
variables relevantes.

b) Errores accidentales o aleatorios: Son usualmente los más responsables de que se


obtengan valores distintos al repetir una medición. Ejemplos:

• Errores de apreciación.
• Errores por condiciones fluctuantes.
• Errores por características del objeto medido.

Para evitar este tipo de errores debemos:


• Repetir la medición varias veces y tomar el promedio de los valores obtenidos
como el resultado de la medición.
• Usar sistemas de medición en donde los datos observados sean registrados
automáticamente por medio de máquinas especializadas. Estas pueden
eventualmente trazar gráficos para que el experimentador los analice.

c) Errores burdos: Errores producto de equivocaciones de procedimiento de parte del


experimentador. Ejemplos:

• Leer mal un instrumento.


• Contar mal un número de sucesos.
• Errores de cálculo

Para evitar este tipo de errores debemos:

• Realizar las mediciones con rigurosidad, preocupándose constantemente de hacer


y revisar bien cada etapa de la medición.

Con el fin de maximizar la confiabilidad y utilidad de las mediciones, y en consecuencia la


validez del experimento, es necesario reducir lo más posible las influencias de estos
factores, y para ello se hace necesario analizar las fuentes de error.

En este punto, resulta conveniente mencionar dos conceptos importantes: exactitud y


precisión.

• La exactitud se refiere a la cercanía del valor medido al valor “exacto” o


“esperado”. Los errores sistemáticos afectan la exactitud de las mediciones
• La precisión se refiere al grado de dispersión de las mediciones. Los errores
aleatorios afectan la precisión de las mediciones.
La exactitud y la precisión son conceptualmente diferentes. Un conjunto de mediciones
puede ser preciso o impreciso, y exacto o inexacto. La siguiente tabla muestra los cuatro
casos posibles y sus implicancias.
Buena Exactitud Mala Exactitud
(Error Sistemático)
Buena precisión

Situación Ideal Calibrar Instrumento

Mala Precisión (Error


aleatorio)

Promediar Mediciones Descartar Mediciones

Explicar escrito cada cuadro

Medir una sola vez una variable física no proporciona un buen criterio de fiabilidad, dado
que todas las variables que influyen en un experimento no pueden ser absolutamente
controladas. Es por ello, que las mediciones deben efectuarse muchas veces bajo
idénticas condiciones, es decir, deben ser fácilmente reproducibles.
Un tratamiento estadístico de las fluctuaciones de estas mediciones efectuadas bajo
idénticas condiciones, alrededor de un cierto valor más probable, proporciona ideas
respecto a
• La reproducibilidad de la medida.
• La confiabilidad del método de medición empleado.
• La validez de la teoría científica estudiada.

La incertidumbre de una medida física dice mucho acerca de la tecnología involucrada en


el instrumento de medición y del método de cálculo o modelo empleado en la obtención
de este valor.
• Una incertidumbre o fluctuación “grande”, es decir del orden de la medida
obtenida, permite dudar del método de medición empleado,
• Una medida obtenida con una razonable incertidumbre y que arroje un resultado
no predicho por la ley, permite dudar de su validez.
II ESTIMACIÓN DEL ERROR EXPERIMENTAL

FORMATO PARA INFORMAR RESULTADOS


Todos los resultados (sean de cantidades medidas o calculadas) deben informarse
siempre de la siguiente forma, que es usual en ciencia e ingeniería:
(valor ± error) [unidad],
y con el número correcto de cifras significativas.

El valor a informar de una cantidad medida N veces (con N ≥10) es el promedio de las N
medidas. Si la cantidad física a medir es X y para ello se hacen N mediciones X 1, X2,…..,
XN, el promedio estará dada por:

[1]

La exactitud de una medición depende de la cercanía del valor medido con el valor
exacto o esperado
Para la estimación del error σ vamos a considerar dos tipos: el error aleatorio y el error
instrumental.

El error aleatorio de una serie de mediciones puede estimarse como la desviación


estándar σa de los datos medidos. La desviación estándar para una “muestra” de N
elementos o medidas de una población estará dada aproximadamente por:

[2]

El error instrumental σi corresponde, en general, a la resolución del instrumento, es


decir, la mínima diferencia que es capaz de distinguir. En algunos instrumentos la
resolución está dada por el fabricante. Si no es así, puede estimarse como:
• ±½ de la división más pequeña de la escala, para instrumentos analógicos, o
• ±1 en el último dígito, para instrumentos digitales.

Para cantidades medidas, se informa el error aleatorio, a menos que este último sea
menor que el error del instrumento. En este caso, no tiene sentido informar el error
aleatorio, sino el error instrumental. Es decir
[3]

El error nos da una medida de la precisión del conjunto de mediciones.

Observación. Las constantes que no provienen de mediciones tales como π, , o el


factor 1/2 en el área de un triángulo, no tienen error

III ERRORES ABSOLUTO, RELATIVO Y PORCENTUAL

Considere la medición , donde es el valor medio y es el error (aleatorio


o instrumental).

El error relativo está dado por la siguiente expresión:

Este es un parámetro adimensional pues tanto como están en la misma unidad. El


error relativo es el índice que permite apreciar la precisión con que se ha hecho la
medición, y permite establecer una comparación de los niveles de rigurosidad de un
conjunto de mediciones.

Por ejemplo, considere el siguiente conjunto de mediciones:

¿Cuál de estas tres medidas es más precisa? Evidentemente, la medida hecha con más
precisión fue m3.

Estos mismos valores pueden expresarse como porcentaje;


Esta manera de exponer el error relativo se denomina “error porcentual” y permite


apreciar las diferencias entre los distintos errores relativos
IV PROPAGACIÓN DEL ERROR

Las mediciones que se obtienen en un experimento son en general de dos tipos:

• Mediciones directas: aquellas que se obtienen directamente de una medición.

• Mediciones indirectas: aquellas que son calculadas a partir de operaciones con


mediciones directas.

Como cada medición directa tiene asociada un error experimental, cualquier medición
indirecta obtenida a partir de ellas también tiene asociada un error experimental. Tal error
se denomina error propagado, y se estima a partir de los errores de las mediciones
directas involucradas.

En términos concretos: sean las mediciones directas A, B, C,…. que se expresan como:
, , , etc. Se pretende calcular la medición indirecta Y,
que es función de A, B, C,…, es decir, Y = f(A, B, C, …), donde Y se expresa como
, donde es el valor medio y el error experimental

La propagación de errores es el conjunto de reglas que permiten asignar un valor de


error a la medición indirecta Y, a partir de las mediciones directas A, B, C,…y dándole a
cada una la importancia relativa que le corresponde

El cálculo del error propagado se puede hacer desde dos posibles hipótesis: la pesimista
y la estadística. A continuación se explicarán ambas hipótesis, aunque dejando
constancia que el trabajo de laboratorio se hará usando la hipótesis estadística, de
uso más común en el mundo científico.

A) HIPOTESIS PESIMISTA.

En la hipótesis pesimista, se asume que los errores de las mediciones directas no


se compensan entre sí, por lo se estima el error máximo posible. Esto se da en el
caso de que las mediciones directas sean dependientes o estén relacionadas entre sí,
de manera que una sobreestimación (o subestimación) de la variable X trae como
consecuencia una sobreestimación (o subestimación) de otra variable Y.

Sean , y , tres mediciones, donde , y son los


valores medios y , y son los respectivos errores absolutos.
a) Suma: , donde

b) Resta: , donde

c) Multiplicación: , donde

d) División: , donde

e) Potenciación: , donde

f) Radicación: , donde

B) HIPOTESIS ESTADISTICA.

Como se mencionó anteriormente, la hipótesis pesimista siempre se sitúa en el caso


más desfavorable, en el cual se asumen errores simultáneos en todas las variables
medidas directamente.
Sin embargo, lo más común es que las variables sean aleatorias e independientes
entre sí. En esa situación, el “caso más desfavorable” resulta altamente improbable,
por lo que una sobreestimación (o subestimación) de la variable X no viene
necesariamente acompañada de una sobreestimación (o subestimación) de otra
variable Y. Así, los errores se compensan parcialmente, por lo que la hipótesis
pesimista termina entregando una estimación exagerada del error propagado.
En la hipótesis estadística se supone que las variables son aleatorias e
independientes entre sí. Asumiendo adicionalmente que las variables se distribuyen
en forma normal o gaussiana (y haciendo deducciones que, para su comprensión,
requieren de elementos de cálculo y álgebra que usted recién está adquiriendo en las
asignaturas de matemática que está estudiando y va a estudiar durante su carrera) se
obtienen las expresiones que se explicarán a continuación, que son las que va a
usar en su trabajo experimental.

Sean , y , tres mediciones, donde , y son los


valores medios y , y son los respectivos errores.

Para estimar el error propagado según la hipótesis estadística pueden usarse las fórmulas
siguientes:
Suma y Resta. Para una cantidad Q, calculada a partir de sumas y restas de cantidades
medidas:
Q = A + B – C ⋅⋅⋅,
el error propagado σQ está dado por
,

Ejemplo: se han medido los largos de las secciones del eje


mostrado en la figura, usando el mismo instrumento. Resulta
evidente que la longitud total L del eje es igual a la suma de las
longitudes de las secciones a y b, es decir

Si σa es el error de “a” y σb es el error de “b”, el error propagado


de la longitud del eje estará dado por

Multiplicación, división, potenciación y radicación: Para una cantidad Q, calculada a


partir de productos y cuocientes de cantidades medidas, y sus potencias:

El error propagado σQ está dado por


Ejemplo: Considere un cilindro regular de radio basal r y altura h. El
volumen de este cilindro está dado por . El error
propagado del volumen del cilindro estará dado por:

Donde:
• es el valor medio del radio
• es el valor medio de la altura
• es el valor medio del volumen
• σr es el error del radio
• σh es el error de la altura

También podría gustarte