Está en la página 1de 3

Técnicas Experimentales II

Sobre propagación de errores en medidas indirectas

curso 2013/2014

1. Introducción
En esta breve nota pretendemos esclarecer las dos principales aproximaciones sobre propagación
de errores en medidas indirectas.
Sabemos que todas las medidas directas que realiza un experimentador está sujeta a errores (sis-
temáticos o accidentales) de forma que toda medida viene en suma determinada según la expresión

medida = (x ± ∆x) [UNIDAD] (1)

donde x no es más que el valor medio (o valor esperado) de nuestra medida (obtenida de forma
directa o como un promedio estadı́stico sobre un conjunto de realizaciones) y ∆x el error asociado
a dicha medida1 .
Dados entonces un conjunto de variables independientes x1 , x2 , . . . , xN con sus respectivos
errores ∆x1 , ∆x2 , . . . , ∆xN , nos preguntamos por el error asociado a una variable f (x1 , x2 , . . . , xN )
que depende de todas las anteriores. Parece lógico suponer que el error asociado a esta nueva variable
(que no podemos medir directamente y se obtiene como combinación de las anteriores) tendrá un
error que dependerá, respectivamente, de todos los errores de las variables independientes.
Por centrar el problema, nuestra variable dependiente puede ser, por ejemplo, la gravedad g
obtenida a partir de un experimento de caı́da libre donde medimos, de forma directa, la altura y el
tiempo de caı́da. En estas condiciones,
2h
f (x1 , x2 ) = g(h, t) = (2)
t2
El valor de g vendrá dado a partir de la evaluación de la variable dependiente en el valor esperado
de cada una de las variables independientes, esto es

2h
g(h, t) = g(h, t) = 2 (3)
t
Obtenido el valor de la gravedad (formalmente, el valor esperado de la variable dependiente
f (x1 , x2 , . . . , xN )) ¿cómo obtenemos el error asociado a esa medida indirecta?
1 Ver, para más detalles, las notas disponibles de la asignatura Técnicas Experimentales I

1
2. Propagación lineal
En primera aproximación, podemos realizar un desarrollo en serie de Taylor sobre la función
dependiente f en el entorno del valor esperado f = f (x1 , x2 , . . . , xN ), reteniendo hasta el primer
orden en la aproximación. Para funciones multivariables es inmediato obtener este desarrollo en
forma de
     
∂f ∂f ∂f
f (x1 , x2 , . . . , xN ) = f + (x1 − x1 ) + (x2 − x2 ) + . . . + (xN − xN )
∂x1 f ∂x2 f ∂xN f
(4)

esto es
     
∂f ∂f ∂f
∆f = ∆x1 + ∆x2 + . . . + ∆xN (5)
∂x1 f ∂x2 f ∂xN f

donde hemos definido las variables ∆x = x − x. Por conveniencia, para evitar una posible compen-
sación de errores, se toman no los monomios per se sino sus valores absolutos, de forma que el error
en la variable dependiente f , tomada como la diferencia entre el valor real y el valor esperado, se
define finalmente como

∂f ∂f ∂f
|∆f | =
|∆x1 | +
|∆x2 | + . . . +
|∆xN | (6)
∂x1 f ∂x2 f ∂xN f

3. Propagación cuadrática
Esta primera aproximación, si bien es válida para campos “suaves” (en el sentido de que varı́an
poco en el entorno del valor esperado), presenta el inconveniente de ser poco robusta para campos
no suaves. Una opción más realista consiste en definir el error a partir de la medida de la varianza
asociada
2 2
σ 2 (f ) = f − f = (∆f )
!2
∂f ∂f ∂f
= |∆x1 | +
|∆x2 | + . . . +
|∆xN | (7)
∂x1 f ∂x2 f ∂xN f

En el caso de un sistema de dos variables, por ejemplo, f (x1 , x2 ), la varianza torna en

∂f 2 2 ∂f 2 2

2
∂f ∂f
σ (f ) =
σ (x1 ) +
σ (x2 ) + 2

∂x2 cov(x1 , x2 )
(8)
∂x1 f ∂x2 f ∂x1 f f

donde cov(x1 , x2 ) es la covarianza entre ambas variables. En caso de que estas sean independien-
tes entre sı́, la covarianza es nula y, en suma, la desviación tı́pica (como estimador del error) es
simplemente:
s
∂f 2
2
σ 2 (x1 ) + ∂f σ 2 (x2 )

σ(f ) = (9)
∂x1 f
∂x2 f

2
que puede extenderse a un sistema de N variables independientes
v
uN
uX ∂f 2
σ(f ) = t 2
∂xi σ (xi ) (10)

i=1 f

En última instancia, este método presupone la validez del teorema del lı́mite central, en el que
las desviaciones respecto del valor esperado para cada una de las variables implicadas sigue una
distribución normal y, al estar no correlacionadas (esto es, al ser independientes entre sı́) permite
relacionar la varianza (como estimador del error) con las varianzas individuales de cada una de las
medidas independientes.
Este segundo método tiene la ventaja de producir un estimador del error mucho más fiel que el
obtenido en el desarrollo lineal previo, habida cuenta de que se dispone de una muestra estadı́sti-
ca suficientemente amplia para verificar la validez del teorema del lı́mite central, y es el método
recomendable para el cálculo de errores en medidas indirectas.

También podría gustarte