Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Final 2.0 Gaaa
Final 2.0 Gaaa
INFORME DE LABORATORIO
PRÁCTICA N°1
INTEGRANTES:
PERÚ
INTRODUCCIÓN
En las ciencias básicas y aplicadas, el proceso de medición y el análisis del error tienen una
importancia muy grande, pues tiene una relación con el método científico, y aunque existen
innumerables procesos de medición, y todos culminan con la obtención de un resultado, todos resultan
afectados por distintos errores que surgen de la interacción entre el instrumento de medición, el
observador y el sistema que se estudia, por lo mismo, deberá establecerse un acuerdo entre lo medido
y lo observado, para predecir mediante simulaciones numéricas el modelo del fenómeno estudiado, y
así, en algún sentido, comprender parte de la naturaleza
De esta manera, la medición y el análisis de errores es fundamental para poder obtener resultados con
mayor precisión y exactitud, aspecto que dependerá de los instrumentos o métodos de medición que
utilizaremos durante el desarrollo del experimento científico.
Por lo tanto, si utilizamos cualquier objeto para medir, los resultados serán diferentes, y su exactitud
y precisión dependerán del instrumento, así como algunas variables que pueden rotar entre el operador
del instrumento o cuestiones que no se pueden controlar o simplemente son un impedimento para un
resultado más certero.
En este informe se verá las nociones necesarias para saber el proceso de medir y la forma en que se
pueda expresar el resultado, además de conocer y aprender la manera correcta de realizar mediciones
con sus respectivas incertidumbre y poder así hallar el resultado más óptimo para cada tipo de
situación, ejemplificándolo mediante un trabajo simple.
HIPOTESIS
• Identificar los tipos de errores que se pueden cometer al realizar una medición y cómo afectaría a
su exactitud o precisión. Calcular el error absoluto, relativo y porcentual de una medición. Identificar
el error asociado a una medición realizada con diferentes instrumentos: calibrador Vernier.
MARCO TEÓRICO
I. PREGUNTAS ORIENTADORAS
La medición, en líneas generales, es comparar la medida de una cosa con la medida de otra. Para esto,
se deben asignar distintos valores numéricos o dimensiones a uno varios objetos utilizando diferentes
procedimientos.
La medición, entonces, es un proceso básico que consiste en comparar un patrón elegido con otro
objeto o fenómeno que tenga una magnitud física igual a éste para poder así calcular cuántas veces el
patrón está contenido en esa magnitud en especial. Sin embargo, esta acción que parece tan simple
de calcular, se dificulta cuando lo que se desea medir y expresar numéricamente es un poco más
intangible o incluso evanescente.
En la literatura técnica y científica, el término error se utiliza frecuentemente con dos significados
bastante diferentes. En algunos casos se utiliza para cuantificar la diferencia entre el resultado de una
medida y el considerado como valor de la misma (valor verdadero, valor real o estándar) mientras
que en otras se utiliza para denominar la incertidumbre del resultado de una medida, es decir, para
cuantificar la imperfección del método e instrumento de medida empleado. Los términos error e
incertidumbre no son sinónimos, sino que representan conceptos completamente distintos, y por tanto,
no deben confundirse entre sí ni utilizarse incorrectamente, uno en lugar del otro (CEM, 2000). A
este respecto, el VIM define el término error de medida como la diferencia entre un valor medido de
una magnitud y un valor de referencia (valor convencional o valor verdadero), mientras que define la
incertidumbre de medida como un parámetro no negativo que caracteriza la dispersión de los valores
atribuidos a un mensurando, a partir de la información que se utiliza. Si bien el error es teóricamente
desconocido, la incertidumbre sí que puede ser evaluada. Conviene no confundir también el error de
medida con un error humano o equivocación.
Por tanto, puesto que al utilizar el término error, existe siempre la posibilidad de confundir una
incertidumbre con esa diferencia, se sugiere (Burns y otros, 1973) que cuando se trate de evaluar la
calidad del resultado de una medida se utilice el término incertidumbre en lugar del término error. De
esta manera, sería más apropiado denominar al término “análisis o propagación de errores”, cuando
se refiere al estudio y evaluación de las incertidumbres que afectan a todas las medidas, como
“análisis o propagación de incertidumbres”.
3. Indique los tipos de errores que existen. Diga que factores contribuyen el error sistemático
El origen de los errores de medición es muy diverso, pero pueden distinguirse los siguientes tipos.
Respecto a la ocurrencia de dichos errores, se tiene:
error sistemático
error absoluto
error relativo
Errores sistemáticos
Los errores sistemáticos son aquéllos que se repiten de manera conocida en varias realizaciones de
una medida. Esta característica permite corregirlos a posteriori. Un ejemplo de error sistemático es
el error del cero, en una báscula que, a pesar de estar en vacío, señala una masa no nula. Otro error
que aparece en los sistemas GPS es el error debido a la dilatación del tiempo que, de acuerdo con la
teoría de la relatividad general, sufren los relojes sobre la superficie de la Tierra con respecto a los
relojes de los satélites.
-Etc.
Error absoluto
Es la diferencia entre el valor tomado y el valor medido como exacta. Puede ser positivo o negativo,
según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades,
las mismas que las de la medida.
Error relativo
Es el cociente de la división entre el error absoluto y el valor exacto. Si se multiplica por 100, se
obtiene el tanto por ciento (%) de error. Al igual que el error absoluto, éste puede ser positivo o
negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto, y no tiene
unidades.
4. ¿Qué tipo de error incluye el error absoluto? ¿Cuál es el significado de este concepto?
Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacta. Puede ser
positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o
negativa). Tiene unidades, las mismas que las de la medida.
De forma general:
1. Si únicamente realizamos una sola medición con el instrumento de medida, el resultado final será
el valor leído ± la precisión del instrumento de medida.
2. Si realizamos n medidas en las mismas condiciones, tomaremos como valor la media aritmética
(X) ± el menor valor entre la imprecisión absoluta y la precisión del instrumento de medida.
Incertidumbre en la medición directa Suponiendo que todos los errores derivados del ambiente y el
operador son controlados (no significa que sean nulos), queda como única causa de error la
incertidumbre del instrumento de medición que se utilice.
La precisión se define como el grado de coincidencia existente entre los resultados independientes de
una medición, obtenidos en condiciones estipuladas, ya sea de repetitividad, de reproducibilidad o
intermedias.
Por lo tanto, si existe una menor distancia en la distribución de cada uno de los resultados, quiere
decir, que hay una mayor precisión.
Este término es cualitativo. Si la medición es más próxima al valor verdadero significa que es exacta.
Según la norma UNE 82009-1, equivalente a la ISO 5725-1 el término exactitud puede describirse de
la siguiente manera:
PARTE EXPERIMENTAL
III. EQUIPO Y MATERIALES
Calibrador Vernier
Balanza
Regla métrica
Cronometro
VI. ANALISIS DE LOS RESULTADOS
Para las medidas obtenidas se obtuvieron datos demasiado cercanos con diferencias mínimas de
milímetros o décimas de milímetros, al ir obteniendo su perímetro los cambios no fueron tan
significativos, pero los resultados tanto del área presentaron diferencias más acentuadas; la densidad
también varío, pero fue mínima en el caso del cilindro
Las diferencias entre los resultados pudieron haber sido producto de las mismas mediciones, puesto
que en el cálculo no hubo error; estos errores pudieron haberse debido a la falta de habilidad o
experiencia en el uso de los propios instrumentos de medición, falta de calibración de los
instrumentos, o incluso fallas en las conversiones de milímetros a centímetros para las expresiones
de algunos resultados.
Otro factor pudo haber sido el tiempo de clase, por la necesidad de acabar antes del término de la
misma, aunado a confusiones en el uso del vernier de los integrantes del equipo, además de que no
pudimos verificar la información recolectada por todos, para reunir los valores obtenidos, sumarlos y
dividirlos entre el número de medidas tomadas por cada equipo, y así realizar los debidos cálculos
con un mismo valor de medida, para poder analizar mejor las diferencias entre los resultados y/o
revisar las diferencias en los cálculos para hallar errores en éstos, mas no en la toma de medidas, lo
cual sería más correcto, y se tendría un resultado más preciso y con menos variaciones en la
incertidumbre absoluta.
El resultado sobre los tiempos en el que la esfera tarda en alcanzar aquella distancia varia aunque sea
mínimo. Dado que cada uno de los integrantes hemos sacado una variación del tiempo e incertidumbre
se ha sacado como conclusión en que las variaciones de aquellas mediciones son de centésimas.