Está en la página 1de 14

pág.

1
ERRORES EN LAS MEDICIONES

INTRODUCCIÓN

Una magnitud física es todo conjunto de entes abstractos (conjunto de longitudes, conjunto de
fuerzas, conjunto de temperaturas, etc ), entre los cuales pueden verificarse relaciones de
igualdad y pueden ser sumables.

Considerando ente, como lo que existe material o espiritualmente. Sería más acorde referirse al
ser, que existe materialmente.

Entonces; una magnitud física es el ser, una propiedad del ser o manifestación del mismo. Su
equivalente manifiesto sería: una sustancia, un atributo de un cuerpo, un fenómeno,
respectivamente, que puede determinarse cuantitativamente, es decir, susceptible de ser medido.

A la magnitud de un objeto específico que estemos interesados en medir, la llamamos mesurando.

Para establecer el valor de un mesurando tenemos que usar instrumentos de medición (incluye al
observador) y un método de medición. Asimismo es necesario definir unidades de medición.

Junto al mesurando acompaña el error, concepto asociado a la incerteza (límites probabilísticos) en


la determinación de las mediciones.

Buscamos establecer ese intervalo donde con cierta probabilidad p0 (la mayor posible) encontremos el
mejor valor de la magnitud x.

p (x -  x  x  x +  x ) = p0 (coeficien te de confianza)
x : valor mas representa tivo  x : incerteza o error absoluto

Ing. Rodolfo Fransó Cordón 2018


pág. 2
En todo proceso de medición existen limitaciones, ejemplos tangibles nos lo dan el instrumento y el
observador (sistema medidor), introduciendo incertezas.

Clasificación según su origen

Error de apreciación: mínima división que es discernible por el


Errores Errores del observador
mínimos sistema
Error de exactitud: el error absoluto con que el instrumento ha
(dependen medidor
sido calibrado.
de los
Error de interacción: proviene de la interacción del proceso de
métodos que
medición con el sistema a medir (depende de la medición realizada
se elijan)
y de un análisis cuidadoso del método usado).
Error de definición: incerteza intrínseca (falta de definición de la
magnitud a medir).

Por ejemplo el error de interacción se produciría al introducir un termómetro para medir una
temperatura, parte del calor del objeto fluye al termómetro (o viceversa), de modo que el resultado de
la medición es un valor modificado del original debido a la inevitable interacción que debimos realizar.
Es claro que esta interacción podrá o no ser significativa: Si estamos midiendo la temperatura de un
metro cúbico de agua, la cantidad de calor transferida al termómetro puede no ser significativa, pero si
lo será si el volumen en cuestión es de una pequeña fracción del mililitro.

Las magnitudes a medir no están definidas con infinita precisión. Imaginemos que queremos medir el largo
de una mesa. Es posible que al usar instrumentos cada vez más precisos empecemos a notar las
irregularidades típicas del corte de los bordes o, al ir aun más allá, finalmente detectemos la naturaleza
atómica o molecular del material que la constituye. Es claro que en ese punto la longitud dejará de estar
bien definida. Esto limitará la cantidad de dígitos (cifras significativas) introduciendo un error de
definición.

Ing. Rodolfo Fransó Cordón 2018


pág. 3

Antes de proseguir con el desarrollo de errores; explícitamente se llaman cifras significativas a toda
cantidad compuesta por las que sabemos a ciencia cierta que son exactas más una que puede
considerarse dudosa.

Vale también definir orden de magnitud, como la potencia de diez más próxima a la cantidad medida
(no determina la precisión de cifras de la misma).

Volviendo al tema; sumando los cuadrados de los errores (aplicación de la estadística suponiendo que
son independientes) permite obtener un error nominal de la medición σ2nom..

 nom
2
=  ap
2
+  exac
2
+  int
2
+  def
2

Las fuentes de error en los instrumentos (sistema medidor) se originan por falta de precisión y de
exactitud.

La precisión ligada a la sensibilidad del instrumento (menor variación de la magnitud que el


instrumento pueda detectar) y la exactitud a la calidad de calibración del mismo, respecto de
patrones de medida aceptados internacionalmente (sistema de referencia), pero dentro de ciertos
límites, también son aplicables en el proceso de medición (técnica).

Suponiendo un blanco a manera de ejemplo, donde los agujeros representen la predicción de una
técnica, y el centro el valor verdadero.

Ing. Rodolfo Fransó Cordón 2018


pág. 4
Clasificación según su naturaleza
Errores
son exagerados, y entre más grande, menor es la probabilidad de que se repita por ende se
groseros descartan

sistemáticos (equivocaciones): Error de calibración de los instrumentos (error de cero)


Errores personales (hábitos del observador)
actúan siempre en el mismo
Condiciones experimentales: se utiliza el instrumento no
sentido, de valor cte,
en las condiciones en que fue calibrado.
proporcional a la medición por Imperfecciones de la técnica: Por ejemplo demoras en
exceso o defecto pesar líquidos que se evaporan
Errores
tolerables accidentales (desvíos o Error de Juicio: Por ejemplo apreciar a ojo fracciones en
indeterminaciones): causas una medición.
incontrolables e imprevisibles
Condiciones fluctuantes:
conducen a distintos resultados.
También conocido como error Definición:
estadístico.

Una magnitud que se mide una vez, no tiene otra consecuencia que determinar como mejor valor
al medido y su incertidumbre proviene de alguno/os de los errores mínimos ( x =  nom )

Una magnitud que es medida n veces, combina errores sistemáticos con los estadísticos, siendo el
(
error final o combinado o efectivo:  =  2 +  2
x est nom )
Problemas fundamentales del cálculo de errores

En una magnitud que se mide n veces, suponemos que los errores se distribuyen al azar (siguiendo
una distribución de probabilidades que pueden analizarse por métodos estadísticos) y es este caso
al que se refiere la teoría de error.

Los errores accidentales comunes que se pueden dividir en aleatorios y casuales son a los que se
puede tratar de errores propiamente dichos y aplicar la teoría de error cuyos problemas básicos a
resolver son:

1) ¿Cómo determinar el mejor valor x?

2) ¿Con qué probabilidad podemos esperar que x esté comprendida dentro de un cierto
p (x -  x  x  x +  x ) = p0 (coeficien te de confianza)
entorno?

3) ¿Cómo aplicar las reglas exactas de la matemática a estas cantidades acotadas?

Utilizamos una teoría matemática aproximada (armada en función de experiencias): Teoría de


Gauss (curva normal de error), que se acomoda a las características de los errores accidentales
comunes, ya que provocan indiscriminadamente lecturas por exceso y por defecto. Puesto que las

Ing. Rodolfo Fransó Cordón 2018


pág. 5
causas son fortuitas, se admite que los valores de las mediciones se reparten igualmente a un lado
y a otro del “valor verdadero”.

Concepto este último que solo existe si existe un número infinito de mediciones (situación ideal),
pudiéndose confeccionar con los valores obtenidos un gráfico de abscisas: valores de las
mediciones, y ordenadas: frecuencia (número de veces que se repite cada valor).

La simetría de la distribución hace aceptar como valor verdadero de la magnitud ( ) al que


corresponde a la abscisa del vértice. Siendo el error absoluto:  xi = xi − 

En situaciones reales, para un número finito de mediciones la mejor estimación del valor
verdadero es el “valor más probable” según la hipótesis de Gauss, que admite como tal al
 xi
promedio aritmético de todas las mediciones: x =
n
Un defecto de esta definición es que no toma en consideración el orden de magnitud del valor que
se está probando. Por ejemplo, un error de 1 cm es más significativo si se mide un remache que un
puente.

Transformando el error absoluto en aparente :  xi = x i − x

La determinación del mejor valor para la magnitud que estamos midiendo (x) como el promedio
matemático se justifica x ya que:  xi = (x i − x ) → 0

Normalizando el error respecto del valor verdadero (en la práctica el más probable), definimos el
error relativo:  i =  xi
x
Y su respectivo error relativo porcentual:  i % =  i .100
n
El resultado de la medición se expresa adecuadamente como: x = x   x siendo  x =   xi
1

El resultado de esta medición es equivalente a decir que, según nuestra medición, con cierta
probabilidad razonable po (usualmente po= 68,3%) el valor de x está contenido en el intervalo
(x −  x ; x +  x )

Ing. Rodolfo Fransó Cordón 2018


pág. 6
Error Medio: Es la media aritmética de los errores aparentes considerados en valor absoluto
n
(función analíticamente incómoda).  xi
i =1

Error cuadrático medio (desviación estándar): Definido como la raíz cuadrada del promedio de los
cuadrados de los errores aparentes dentro de una muestra. Se eleva al cuadrado para que los
n
errores sumen.  2xi
S x =  i =1
n -1

Sx tiene las mismas dimensiones físicas de x

Si tomamos grupos de dimensiones iguales y sacamos x para cada grupo, tendrán una menor
dispersión que las mediciones individuales.

Error estándar de la media (Error medio del promedio): Es también llamado error absoluto.
Estima la variabilidad entre las medias de las muestras que se obtendría si se tomaran múltiples
muestras de la misma población.
Se determina con una sola cifra significativa. Las magnitudes consideradas deben ser
independientes; es decir: las mediciones que conduzcan a determinar una cualquiera de ellas no
deben depender de las que conduzcan a la determinación de las restantes. Por eso en las fórmulas
aproximadas siempre SUMAMOS los errores, aún reconociendo que en ciertos casos podrían
cancelarse parcialmente.

 (xi − x )
n n
 2xi
2
i =1 i =1 Sx
Ex =  = =
n.(n - 1) n.(n − 1) n

Error relativo del promedio: Usualmente llamado error relativo, es el calculado dividiendo el
E
absoluto por el valor del promedio.  x = x
x

Distribución estadística

Con N designamos a una población y n es una muestra de la misma.

Un parámetro estadístico es un número que se obtiene a partir de los datos de una distribución
estadística. Los parámetros estadísticos sirven para sintetizar la información dada por una tabla
o por una gráfica.

Ing. Rodolfo Fransó Cordón 2018


pág. 7
Tipos de parámetros estadísticos

Hay tres tipos parámetros estadísticos:

De centralización, de posición y de dispersión.

Medidas de centralización

Nos indican en torno a qué valor (centro) se distribuyen los datos. La medidas de centralización
son:

Media aritmética: La media es el valor promedio de la distribución.

N n
 xi  xi
i =1
Así la media poblacional será:  = i =1
y la muestral: x =
N n
Mediana: La mediana es la puntación de la escala que separa la mitad superior de la
distribución y la inferior, es decir divide la serie de datos en dos partes iguales.

Moda: La moda es el valor que más se repite en una distribución.

Medidas de posición

Las medidas de posición dividen un conjunto de datos en grupos con el mismo número de
individuos. Para calcular las medidas de posición es necesario que los datos estén ordenados de
menor a mayor. La medidas de posición son:

Cuartiles: Los cuartiles dividen la serie de datos en cuatro partes iguales.

Deciles: Los deciles dividen la serie de datos en diez partes iguales.

Percentiles: Los percentiles dividen la serie de datos en cien partes iguales.

Medidas de dispersión

Las medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la
distribución. Las medidas de dispersión son:

Rango o recorrido: El rango es la diferencia entre el mayor y el menor de los datos de una
distribución estadística: (xmin, xmax).

Desviación media: La desviación media es la media aritmética de los valores absolutos de las
desviaciones respecto a la media.

Varianza: La varianza es la media aritmética del cuadrado de las desviaciones respecto a la


media.
( x i − x )2
n
 (xi − x ) 
n
 (xi −  )
N
2 2

( sesgado ); S n −1 =
i =1 2 i =1
La varianza: =
2 i =1
y la muestral: S n =
2
(isesgado )
N n (n − 1)

Ing. Rodolfo Fransó Cordón 2018


pág. 8
¿Por qué son diferentes?
 (xi − x )
n
2
i =1
Partiendo de la definición de media o promedio, implicaría que: S = 2
n
n
( )
n n n n
 x − 2.x i .x + x
2
i
2
x 2
i x  2.x i .x
2
i =1 i =1
S n2 = = + i =1 − i =1
n n n n
n n n n n
 x i2 x i2 .  1 2.x.  x i 1  xi
i =1
S n2 = i =1
+ i =1
− i =1
= 1(sumamos n veces 1 y luego lo dividimos por n) x= i =1

n n n n n
n n
 x i2  x i2 1n 2
i =1 i =1 
S n2 = + x 2 − 2.x 2 = −x2 = .  x i − n.x 2 
n n n  i =1 

Si tomamos todas las muestras, la esperanza matemática de la varianza: E (S 2 ) =  2


( ) 1n  1 n 
E S 2 = E .  x i2 − n.x 2  = . E.  x i2  − E n.x 2
n  i =1
( )
 n  i =1 
E (S 2 ) = .  E (x i2 ) − E (x 2 )
1 n
(1)
n i =1
Usando la propiedad: Var(xi ) = E(xi −  ) =  2 ( poblacional )
2

 2 = E (x i2 − 2.x i . +  2 ) = E (x i2 ) − 2. .E (x i ) +  2 .E (1)

La esperanza de una constante es la constante: E(1)=1 y E (xi ) = 

 2 = E (x i2 ) − 2. 2 +  2 = E (x i2 ) −  2  E (x i2 ) =  2 +  2

Reemplazando en (1): E (S 2 ) = 1 .  ( 2 +  2 ) − n.( x2 +  x2 )


n

n i =1

( )
E S2 =
1n 2 n 2
.   +   − n. x2 − n. x2 
n  i =1

i =1 
( ) = . n . + n . − n . x − n . x = ( 2 +  2 −  x2 −  x2 )
( )
1
E S2 2 2 2 2

n

Por el teorema central del límite sabemos que la distribución de las medias muestrales es una
distribución normal con media igual a la misma  de la población y con la varianza igual a la
varianza de la población dividida en el total de la muestra 
2

n
   2
X → N   ; 
 n 

( ) 
E S 2 =  2 +  2 −
2   1
−  2  =  2 .1 −  =  2 .
(n − 1)
 n   n n n
 (xi − x )
2
i =1
Recordando que presumimos que: S n = 2

 (xi − x )
n
 (x i − x )
n
2
(n − 1)
2
i =1
Y a sabiendas de que: E ( S ) = E igualando; E i =1
=  2.
n n n

Ing. Rodolfo Fransó Cordón 2018


pág. 9
 (x i − x )
n
 (x i − x )
n
2 2

 = E (S ) n n
2 2
= E i =1 .  =E
2 i =1

n −1 n (n − 1) n −1
Quedando demostrado que nuestra presuposición no era correcta.

Desviación típica: La desviación típica es la raíz cuadrada de la varianza.

Del esquema inicial de distribución estadística; tomamos una muestra de varias mediciones de
tamaño n: x1, x2, x3,..., xn.

Una manera útil de visualizar las características de este conjunto de datos consiste en dividir el
intervalo (xmin, xmax) en m sub-intervalos iguales:
x1 , x 2 ) : x 2 , x3 );...x n−1 , x n ) (rango de clases)

Siendo n1 el número de medidas que están en el primer intervalo x1 , x 2 )

nj el número de medidas que están en el j-ésimo intervalo x j −1 , x j )

nn el número de medidas que están en el n-ésimo intervalo x n −1 , x n )

Con estos datos definimos la función de distribución fj que se define para cada subintervalos j
como:
nj m
fj = m
(esta función está normalizad a)   = 1
j =1
 .n j
j =1

Si graficamos fj en función de xj ; da una idea clara de la distribución de la muestra en estudio.

Este tipo de gráfico se llama un histograma y la mayoría de las hojas de cálculo de programas
comerciales (Excel, Quatro-Pro, Origin, etc.) tienen herramientas para realizar las operaciones
descriptas aquí y el gráfico resultante.

Ing. Rodolfo Fransó Cordón 2018


m
N
 xi pág. 10
Valor medio:  =  x j . f j = i =1
j =1 N
La Varianza:  =  (x j − x ) . f j
m
2 2
x
j =1

La desviación estándar:  x = var ( x )

Una distribución de probabilidad muy común en diversos campos es la distribución gaussiana o


normal, que tiene la forma de una campana como se ilustra en trazo continuo en la gráfica. La
( x −  )2
G . (x ) =
1 2. 2
expresión matemática de esta distribución es: .e
 . 2.
La “campana de Gauss” está centrada en μ y su ancho está determinado por la desviación
estándar σ. En particular, los puntos de inflexión de la curva están en x-σ y x+σ . El área de esta
curva entre estos dos puntos constituye el 68.3% del área total. El área entre x-2σ y x+2σ es del
96% del total. Es útil caracterizar para esta función el ancho a mitad de su altura, que está
relacionado con σ a través de la expresión: FWHM = 2.35σ (FWHM, de “full width half
maximum”). Aunque esta distribución ocurre naturalmente en muchos procesos, desde luego
no es única y existen muchos tipos de distribuciones de ocurrencia común en la naturaleza.

Cuando se desea comparar un histograma no normalizado con una curva normal, es necesario
calcular el número total de datos Nt, el valor medio de los mismos x y la desviación estándar de
los datos σx. Supondremos que el rango de clases está equiespaciado por una separación
Δx=(xi-xi-1). Para comparar el histograma con la curva normal debemos multiplicar G  . ( x )

por el factor Nt. Δx.

Propagación de errores

Cuando usamos números con incertidumbres para calcular otros números, el resultado también es
incierto.

Operación matemática Cifras significativas en el resultado


No más que el número que tiene menos cifras
significativas. Por ejémplo:
Multiplicación o división (0,742.2,2)/3,885=0,42
(1,32578 .107).(4,11.10-3)=5,45.104

Lo determina el número con mayor incertidumbre


( es decir el menor número de dígitos a la derecha de la
Suma o resta coma).
27,153+138,2-11,74=153,6

Para ello se realiza el redondeo correspondiente siempre.

La propagación de errores cuando aplicamos una expresión matemática en la que intervienen


magnitudes medibles, se puede hacer de tres maneras:

1) El método intuitivo que solo se aplica en casos muy sencillos.

Ing. Rodolfo Fransó Cordón 2018


pág. 11
2) El método de las derivadas parciales que es mucho más general.

3) El método de las derivadas logarítmicas que conlleva directamente a la determinación de los


errores relativos.

Aclaración: Cuando aparecen un entero o una fracción en una ecuación general tratamos ese
número como si no tuviera incertidumbre. Por ejemplo v x2 = v ix2 + 2.a.(x − x i ) . El coeficiente 2
es exactamente 2 (pensar que tiene un número infinito de cifras significativas 2,000…). Lo
mismo ocurre con el exponente 2.

Método de las derivadas parciales

Sea f una función continua (puede ser un algoritmo o un conjunto de operaciones


matemáticas) que depende de n variables independientes x1, x2, x3,..., xn (xi ahora no
representa la medida i-ésima de una misma cantidad, sino la variable que representa la i-ésima
magnitud) diferenciables en un dominio bastante amplio.

f : Rn → R
x → f ( x)
x → f (x)
Siendo el error aparente: f (x) = f (x) − f (x )

f (x ) = f (x1 , x2 ,..., xn ) − f (x1 , x2 ,..., xn )

Aplicando la serie de Taylor, que se basa en ir haciendo operaciones según una ecuación
general y mientras más operaciones tenga la serie más exacto será el resultado que se está
buscando.

Para lo cual f es cualquier función que se puede representar como una serie de potencias:

f (x) = c0 + c1 .(x − a ) + c2 .(x − a ) + c3 .(x − a ) + c4 .(x − a ) + ... x − a R a − R xa + R


2 3 4

p / x = a  f (a ) = c0
f (x) = c1 + 2.c2 .(x − a ) + 3.c3 .(x − a ) + 4.c4 .(x − a ) + ... x − a R
2 3

p / x = a  f (a ) = c1

f (x) = 2.c2 + 6.c3 .(x − a ) + 12.c4 .(x − a ) + ... x − a R


2

p / x = a  f (a ) = 2.c2
f (x) = 6.c3 + 24.c4 .(x − a ) + 60.c5 .(x − a ) + ...
2 x − a R

p / x = a  f (a ) = 6.c3 = 3!c3


Si continuamos derivando y sustituyendo x por a:
f n
(a ) = 2.3.4...n.cn = n!c n

cn =
f n
(a )
n!
Ing. Rodolfo Fransó Cordón 2018
 pág. 12
Sustituyendo en la función de partida: f (x ) =  cn .(x − a )
n
n =0

f (a ) f (a ) f (a )  f n (a )


f (x ) = f (a) + .(x − a ) + .(x − a ) + .(x − a ) + ... =  .(x − a )
2 3 n

1! 2! 3! n = 0 n!
Para usar la serie en el método de las derivadas parciales, xi es cercana a xi y f(x) es continua y
diferenciable:
f (x ) f (x ) f (x )  f n (x )
f (x ) = f ( x ) + .(x − x ) + .(x − x ) + .(x − x ) + ... =  .(x − x )
2 3 n

1! 2! 3! n = 0 n!
f (x1 , x2 ,..., xn ) − f (x1 , x2 ,..., xn ) = f (x1 , x2 ,..., xn )

f f f n f
df = .dx1 + .dx 2 + ... + .dx n =  .dxi
x1 x 2 x n i =1 x
i

Siendo: dxi = xi − xi

En el orden de los errores df pasa a ser Δf


f f f n f
f = .x1 + .x2 + ... + .xn =  .xi
x1 x2 xn i =1 x
i

Añadimos el símbolo de valores absolutos a los coeficientes de los errores porque se debe calcular
el máximo error cometido, los Δxi son positivos siempre por convención.
2 2
 n f  n  f 
df =  
2
.dxi  =    .(dxi )2
i =1 x i =1 x 
 i   i
2 2 2
 f   f   f 
f =   .(x1 ) + 
2
 .(x 2 )2 + ... +   .(x n )2
 x1   x 2   x n 
f 2
Siendo el error cuadrático medio o desviación estándar: S = 
n -1

 f  (x1 )2  f  (x2 )2  (xn )2


2 2 2
 f
S =    . +   . + ... +   .
 x1  n − 1  x2  n − 1  xn  n −1
2 2 2
 f  2  f  2  f  2
S =    .S ( x1) +   .S ( x 2) + ... +   .S ( xn )
 x1   x2   xn 

(xi )2
Donde: = S (2xi ) es el error cuadrático medio de la magnitud xi .
n −1
Si calculamos ahora el error medio del promedio dividiendo por n

 f  (x1 )2  f  (x2 )2  (xn )2


2 2 2
S  f
= =    . +   . + ... +   .
n  x1  (n − 1).n  x2  (n − 1).n  xn  (n − 1).n

Ing. Rodolfo Fransó Cordón 2018


pág. 13

2 2 2
 f   f  2  f  2
 =    . (2x1) +   . ( x 2 ) + ... +   . ( xn )
 x1   x2   xn 

Donde  (2x ) =
(x1 )2 error medio del promedio ≈ error estándar de la media de la magnitud xi.
i
(n − 1).n

= obtendremos el error relativo del promedio.
f (x )

 f   ( x1)  f   ( x 2 )   ( xn )
2 2 2
 f
2 2 2

 =    . +   . + ... +   .
 x1  f (x1 )  x2  f (x2 )  xn  f (xn )
2 2 2
 f   f  2  f  2
 =    . (2x1) +   . ( x 2 ) + ... +   . ( xn )
 x1   x2   xn 
Método de las derivadas logarítmicas

Este método es muy práctico para calcular los errores relativos sobre magnitudes determinadas
indirectamente si la expresión analítica correspondiente involucra productos o cocientes de las
magnitudes medidas directamente y cuyo error se conoce. Se basa en la función propiedad del
diferencial del logaritmo Neperiano de una función Y=f(x1, x2, x3,..., xn).

Y = x1a .x 2b .x3c .....x nk Donde a,b,c,…,k son coeficientes numéricos reales.

Los pasos a seguir para aplicar el método de la derivada logarítmica son:

• calcular el ln(Y) en la expresión de Y en función de las variables x1, x2, x3,..., xn.

dY
• aplicar la expresión d ln( Y ) =
Y

• agrupar los términos en dx1, dx2,… ,dxn.

• tomar el valor absoluto de los coeficientes de dxi .

• reemplazar los dxi por xi

• reemplazar por los valores determinados en las medidas directas Yi±ΔYi.

Ya habíamos visto que podíamos asimilar las diferenciales a los errores absolutos.

dY dx dx dx dx
= a. 1 + b. 2 + c. 3 + ... + k. n
Y x1 x2 x3 xn
 xi
Recordando que el error relativo :  i =
x

Ing. Rodolfo Fransó Cordón 2018


pág. 14

Y = a. x1 + b. x 2 + c. x 3 + ... + k . xn Y =   = Y .Y
Y

Siendo: Y = x1a .x 2b .x3c .....x nk

BIBLIOGRAFÍA

1. Física Universitaria. Volumen 1 y 2- 12ª edición. Young-Freedman.2009.-

2.- Física- Volumen I – II, Resnick, R. Halliday, D. & Krane, K. 2004, C.E.C.S.A.-

4. Introducción a la Teoría de Errores. Taylor E. Ed. MIR. Moscú. 1 985.-

5. Teoría de los Errores. Giamberardino Vincenzo. Ed. Reverté. México. 1 986.-

6. Experimentación. Una introducción a la teoría de mediciones y al diseño de


experimentos. Segunda Edición. –

7. http://www.frvt.utn.edu.ar/pdfs/Incertezas.pdf.-

8. https://www.monografias.com/trabajos84/teoria-errores/teoria-errores.shtml.-

9. http://campus.fi.uba.ar/course/view.php?id=211.-

Ing. Rodolfo Fransó Cordón 2018

También podría gustarte