Está en la página 1de 7

La medida y la medición como proceso de cuantificar nuestra experiencia son tan habituales en nuestra vida que apenas

nos damos cuenta de ello. Pesamos y medimos a los niños cuando nacen, se mide en todos los deportes. Nuestra sociedad
es una sociedad sincronizada gracias a que podemos medir el tiempo y son muy pocas las cosas que podemos hacer sin un
proceso de medición.
La medida está íntimamente unida a la experimentación científica. De hecho, con el perfeccionamiento de la medición, se
desarrolla el método experimental, que tanto ha influido en la evolución de nuestra sociedad. El científico escocés Lord
Kelvin dijo al respecto:
“Cuando uno puede medir aquello de lo que está hablando y expresarlo en números, sabe algo acerca de ello; pero
cuando no puede medirlo, cuando no puede expresarlo en números, su conocimiento es escaso e insatisfactorio: podrá
ser un principio de conocimiento, pero escasamente ha avanzado a una etapa de ciencia.”
Pero en la mayoría de las veces por no decir siempre existen errores en la medición, ya sea algunos escandalosos u otros
quizás imperceptibles
(presentacion)
Definiciones previas

medición
La medición es el producto de calcular, es decir, de relacionar la cantidad de magnitud que pretendemos medir
con una unidad patrón de esa magnitud. Este producto se expresará a través un número seguido de l a unidad
que hemos usado: 30 kg (masa), 7 m (longitud), 10 s (tiempo).
Los valores conseguidos en las observaciones experimentales siempre contienen errores debido a varias
causas, concretamente cuando se realiza mediciones con los instrumentos que contienen escalas.
error
Todas las mediciones realizadas siempre están acompañadas por un margen de error o incertidumbre. Se
define error a la incertidumbre de una medida, que se manifiesta durante una experiencia. También podemos
definir como fluctuación de la medida hecha con relación al valor verdadero.

Exactitud
Es la aproximación al valor verdadero o es el grado de conformidad que se da con un patrón de medida.

Precisión
Es el grado de refinamiento para realizar una operación o para dar un resultado. Entre otras palabras la
precisión define a la incertidumbre de una magnitud física.

¿Que es teoría de errores?


La teoría de errores es la rama de la estadística matemática dedicada a la inferencia de conclusiones precisas
sobre los valores numéricos de cantidades medidas aproximadamente, así como sobre los errores en las
mediciones.
Las mediciones repetidas de una misma cantidad constante generalmente dan resultados diferentes, ya que
cada una contiene un cierto error y dentro de ellos, la teoría de erro res se centra en el estudio de los errores
Clases de errores:
Errores de escala en un instrumento
Está referida al poder resolutivo de la escala del aparato de medida.
¿Que se quiere decir con poder resolutivo?
El poder resolutivo es la capacidad que tiene un microscopio (o el ojo humano, etc.) de percibir por separado
dos puntos pequeños, adyacentes y cercanos. Vale decir, es la capacidad para percibir detalles. El poder
resolutivo aumenta a medida que disminuye la distancia que separa dichos puntos.

Este tipo de errores se caracteriza por el valor más pequeño de la escala de medida del aparato, esto para
instrumentos digitales.
Cuando el instrumento tiene una escala de medida o cuando se trata de instrumentos analógicos, es error está
dado por:

Errores sistemáticos
Son aquellos que afectan de igual modo cada resultado de la medición dando lugar a una desviación constante,
las fuentes más comunes son:
1.- Errores instrumentales originados por defectos o fallas en la construcción de los instrumentos de medida.
2.- Errores vinculados con el estado del medio ambiente en el que se realizan los experimentos.
3.- Errores debido a las particularidades del experimentador (errores subjetivos o personales).

Errores accidentales
Llamadas también casuales son aquellas vinculadas a pequeñas variaciones imprescindibles en cada medida,
pero pueden ser tratadas en conjunto por las leyes de probabilidad, es decir como variable aleatoria.
Si se conoce la fuente de los errores de escala y sistemático, en principio se pueden considerar su influencia
sobre la magnitud que se mide y en una serie de casos, se puede eliminar total o parcialmente anulando la
fuente que provoca o introduciendo las correcciones apropiadas.

Correlación de Errores
En las mediciones realizadas el poder resolutivo, del aparato de medida y los errores sistemáticos actúan como
magnitudes independientes del número de mediciones, el error accidental puede hacerse tan pequeño como
quisiera, esta correlación entre los errores podemos observar en el siguiente gráfico:
Cálculo de Errores
Para Medidas Directas:
Las medidas directas
Son aquellas medidas que sólo necesitan de una sola observación, dentro de ellas se tiene: longitud, masa,
temperatura, tiempo, etc. y se tienen los siguientes casos:
Primer caso
Cuando realizamos una sola medición de una cierta magnitud física “X” el valor verdadero estará expresado
por:

Segundo caso
Cuando realizamos más de una medición y menores que 30 recurrimos al procedimiento estadístico para hallar
el valor verdadero de cierta magnitud física.

Para Medidas Indirectas:


Medidas indirectas
Son aquellas medidas definidas en base a las medidas directas. Dentro de ellas tenemos: peso, área, volumen,
trabajo, impulso, etc. Para su determinación se requiere del empleo de una fórmula y además de la ley de
propagación de errores.
Propagación de errores
Es la difusión que experimentan los errores de un conjunto de datos a través de un proceso de cálculo. Se
manifiestan en mediciones indirectas (para lo cual se utilizan modelos matemáticos), como por ejemplo para
hallar el área de un rectángulo necesitamos la base y la altura, pero debemos notar que cada medida tiene su
margen de error, por lo cual el resultado de calcular el área significa agrandar en cierta magnitud dichos
errores, la finalidad de la propagación de errores es pues calcular los errores que se arrastran al realizar dichos
cálculos.

Error Absoluto
El error absoluto de una magnitud física “X” es su alejamiento respecto al valor más probable, es decir:

Error Relativo
El error relativo de una magnitud física “X” es la relación entre el error absoluto y el valor más probable, es
decir:

Error Porcentual
Está dado por el error relativo multiplicado por 100.

OJO: Suele llamarse incertidumbre al error cometido en una medición y viene a ser la cantidad que viene
después del signo más menos

También podría gustarte