Está en la página 1de 6

LABORATORIO N° 01

OBJETIVOS

Calibración de termómetros.

Medición de temperatura.

FUNDAMENTO TEÓRICO

TEMPERATURA

La temperatura es una magnitud física que indica la energía interna de un cuerpo, de un objeto o
del medio ambiente en general, medida por un termómetro.

La temperatura es la propiedad física que se refiere a las nociones comunes de calor o ausencia
de calor, sin embargo, su significado formal en termodinámica es más complejo.

Dicha energía interna se expresa en términos de calor y frío, siendo el primero asociado con una
temperatura más alta, mientras que el frío se asocia con una temperatura más baja.

Las unidades de medida de temperatura son los grados Celsius (ºC), los grados Fahrenheit (ºF) y
los grados Kelvin (K). El cero absoluto (0 K) corresponde a -273,15 ºC.

En sentido figurado, la temperatura indica el grado de tensión o de conflicto en un momento


determinado de una actividad, por ejemplo, la temperatura política.

En términos coloquiales, la expresión "está subiendo la temperatura" puede indicar dos


situaciones diferentes: que está subiendo el grado de tensión en una conversación o que dos
personas sienten un elevado grado de atracción.

Termodinámicamente se habla de la velocidad promedio o la energía cinética (movimiento) de


las partículas de las moléculas, siendo de esta manera, a temperaturas altas, la velocidad de las
partículas es alta, en el cero absoluto las partículas no tienen movimiento. A menudo el calor o el
frío percibido por las personas tiene más que ver con la sensación térmica (ver más abajo), que
con la temperatura real. Fundamentalmente, la temperatura es una propiedad que poseen los
sistemas físicos a nivel macroscópico, la cual tiene una causa a nivel microscópico, que es la
energía promedio por la partícula. Y actualmente, al contrario de otras cantidades termodinámicas
como el calor o la entropía, cuyas definiciones microscópicas son válidas muy lejos del equilibrio
térmico, la temperatura solo puede ser medida en el equilibrio, precisamente porque se define
como un promedio.

La temperatura está íntimamente relacionada con la energía interna y con la entalpía de algún
sistema: a mayor temperatura mayores serán la energía interna y la entalpía del sistema.
La temperatura es una propiedad intensiva, es decir, que no depende del tamaño del sistema, sino
que es una propiedad que le es inherente y no depende ni de la cantidad de sustancia ni del material
del que este compuesto.

EL TERMÓMETRO
Se denomina termómetro a un instrumento cuya utilidad es medir la temperatura, a través de
diversos mecanismos y escalas. El más común de estos mecanismos fue la dilatación, propiedad
de ciertos materiales de expandirse de cara a la presencia de calor, común entre los metales y
otras sustancias, como los alcoholes.
La invención del termómetro y su incorporación a la vida cotidiana fue un acierto importante en
el desarrollo tecnológico de la medicina (termómetro clínico), ya que permitió la medición de la
temperatura del cuerpo humano y medir con precisión síntomas como la fiebre.

Inicialmente se fabricaron aprovechando el fenómeno de la dilatación, por lo que se prefería el


uso de materiales con elevado coeficiente de dilatación, de modo que, al aumentar la temperatura,
su estiramiento era fácilmente visible. La sustancia que se utilizaba más frecuentemente en este
tipo de termómetros ha sido el mercurio, encerrado en un tubo de vidrio que incorporaba una
escala graduada, pero también alcoholes coloreados en termómetros grandes.

El creador del primer termoscopio fue Galileo Galilei; este podría considerarse el predecesor del
termómetro. Consistía en un tubo de vidrio terminado en una esfera cerrada; el extremo abierto
se sumergía boca abajo dentro de una mezcla de alcohol y agua, mientras la esfera quedaba en la
parte superior. Al calentar el líquido, este subía por el tubo.

La incorporación, entre 1611 y 1613, de una escala numérica al instrumento de Galileo se atribuye
tanto a Francesco Sagredo1 como a Santorio Santorio,2 aunque es aceptada la autoría de este
último en la aparición del termómetro.

En España se prohibió la fabricación de termómetros de mercurio en julio de 2007, por su efecto


contaminante.

En América latina, los termómetros de mercurio siguen siendo ampliamente utilizados por la
población. No así en hospitales y centros de salud donde por regla general se utilizan termómetros
digitales.

Lo registrado por los termómetros se marca en base a una escala de temperatura determinada:

 Celsius (°C), en honor al físico sueco Andreas Celsius, también conocida como grados
centígrados
.
 Fahrenheit (°F), propuesta por el físico alemán Daniel Fahrenheit en 1724, empleado en
el mundo anglosajón preferentemente.
Su relación con la escala Celsius es: °F = °C × 9/5 + 32 ; °C = (°F − 32) × 5/9

 Kelvin (°K). La escala de la temperatura absoluta, se emplea en el Sistema Internacional


de Unidades. Es coincidente con la escala Celsius, pero el 0 ha sido fijado en el llamado
“cero absoluto”, es decir, la temperatura más baja que existe: -273,15 °C.
Su relación con la escala Celsius es: TK = T°C + 273,15

 Réaumur (°R). En desuso en la actualidad, debido a René Antoine Ferchault de Réaumur,


físico francés.
Su relación con la escala Celsius es: 0 °R = 0 °C; °R = °C × 4/5 ; °C = °R × 5/4

Tipos de termómetro
Existen los siguientes tipos de termómetro:

 Termómetro de mercurio: es un tubo de vidrio sellado que contiene mercurio, cuyo


volumen cambia con la temperatura de manera uniforme. Este cambio de volumen se
aprecia en una escala graduada. El termómetro de mercurio fue inventado por Gabriel
Fahrenheit en el año 1714.
 Pirómetros: termómetros para altas temperaturas, se utilizan en fundiciones, fábricas de
vidrio, hornos para cocción de cerámica, etc. Existen varios tipos según su principio de
funcionamiento:4
Pirómetro óptico: se basan en la ley de Wien de distribución de la radiación térmica,
según la cual, el color de la radiación varía con la temperatura. El color de la radiación
de la superficie a medir se compara con el color emitido por un filamento que se ajusta
con un reostato calibrado. Se utilizan para medir temperaturas elevadas, desde 700 °C
hasta 3.200 °C, a las cuales se irradia suficiente energía en el espectro visible para
permitir la medición óptica.
Pirómetro de radiación total: se fundamentan en la ley de Stefan-Boltzmann, según la
cual, la intensidad de energía emitida por un cuerpo negro es proporcional a la cuarta
potencia de su temperatura absoluta.
Pirómetro de infrarrojos: captan la radiación infrarroja, filtrada por una lente, mediante
un sensor fotorresistivo, dando lugar a una corriente eléctrica a partir de la cual
un circuito electrónico calcula la temperatura. Pueden medir desde temperaturas
inferiores a 0 °C hasta valores superiores a 2.000 °C.
Pirómetro fotoeléctrico: se basan en el efecto fotoeléctrico, por el cual se liberan
electrones de semiconductores cristalinos cuando incide sobre ellos la radiación térmica.

 Termómetro de lámina bimetálica: formado por dos láminas de metales de coeficientes


de dilatación muy distintos y arrollados dejando el coeficiente más alto en el interior. Se
utiliza sobre todo como sensor de temperatura en el termohigrógrafo.

 Termómetro de gas: pueden ser a presión constante o a volumen constante. Este tipo de
termómetros son muy exactos y generalmente son utilizados para la calibración de otros
termómetros.

 Termómetro de resistencia: consiste en un alambre de algún metal (como el platino)


cuya resistencia eléctrica cambia cuando varía la temperatura.

 Termopar: un termopar o termocupla es un dispositivo utilizado para medir temperaturas


basado en la fuerza electromotriz que se genera al calentar la soldadura de dos metales
distintos.

 Termistor: es un dispositivo que varía su resistencia eléctrica en función de la


temperatura. Algunos termómetros hacen uso de circuitos integrados que contienen un
termistor, como el LM35.

 Termómetros digitales: son aquellos que, valiéndose de dispositivos transductores como


los mencionados, utilizan luego circuitos electrónicos para convertir en números las
pequeñas variaciones de tensión obtenidas, mostrando finalmente la temperatura en
un visualizador. Una de sus principales ventajas es que por no utilizar mercurio no
contaminan el medio ambiente cuando son desechados.

 Termómetros clínicos: son los utilizados para medir la temperatura corporal. Los hay
tradicionales de mercurio y digitales, teniendo estos últimos algunas ventajas adicionales
como su fácil lectura, respuesta rápida, memoria y en algunos modelos alarma vibrante.

¿Cómo funciona un termómetro?

El principio que rige el termómetro es simple: el dispositivo tiene un extremo sensible, donde se
encuentran los sensores (en el caso de un termómetro digital) o la sustancia dilatable (en el caso
de los termómetros de mercurio o de alcohol), y que debe ser introducido en el cuerpo o la
sustancia cuya temperatura desea medirse.
Tras esperar algunos minutos, el calor del cuerpo o la sustancia hará ascender el mercurio o el
alcohol hasta un punto equivalente, en la escala registrada en el aparato, al grado de calor medido.

CARACTERÍSTICAS DE LOS INSTRUMENTOS Y EQUIPOS

CALCULOS Y RESULTADOS

INSTRUMENTOS DE MEDIDAS: SENSIBILIDAD, PRESICIÓN, INCERTIDUMBRE.

La parte fundamental de todo proceso de medida es la comparación de cierta cantidad de la


magnitud que deseamos medir con otra cantidad de la misma que se ha elegido que deseamos
medir con otra cantidad de la misma que se ha elegido como unidad patrón. En este proceso se
utilizan los instrumentos de medida que previamente están calibrados en las unidades patrón
utilizadas.

Los instrumentos de medida nos permiten realizar medidas directas (un numero seguido de la
unidad) de una magnitud.

Un instrumento de medida se caracteriza por los siguientes factores:

Sensibilidad. Es la variación de la magnitud a medir que es capaz de apreciar el instrumento.


Mayor sensibilidad de un aparato indica que es capaz de medir variaciones más pequeñas de la
magnitud medida.

Precisión. La medida que es capaz de apreciar un instrumento. Está relacionada con la


sensibilidad. A mayor sensibilidad, menores variaciones es capaz de apreciar, medidas más
pequeñas nos dará el instrumento.

Un instrumento de medida debe ser capaz de medir la cifra más pequeña de su escala.

La incertidumbre está relacionada con el proceso de medida. Se trata del máximo error de la
medida. Evidentemente, está relacionada con la precisión del instrumento. Por regla general se
toma como incertidumbre la precisión del aparato, algunas veces, aunque no sea demasiado
correcto se toma la mitad de la precisión como incertidumbre.

ERRORES EXPERIMENTALES

Tenemos dos tipos de errores en el proceso de medida:

Errores sistemáticos. Tienen que ver con la metodología del proceso medida (forma de realizar la
medida).

Errores de paralaje. Cuando un observador mira oblicuamente un indicador (agua, superficie de


un líquido, …) y la escala del aparato. Para tratar de evitarlo, o al menos, disminuirlo, se debe
mirar perpendicularmente la escala de medida del aparato.

Calibrado del aparato. Normalmente errores en la puesta a cero. En algunos casos errores de
fabricación del aparato de medida que desplazan la escala. Una forma de arreglar las medidas es
valorando si el error es lineal o no y descontándolo en dicho caso de la medida.

Errores accidentales o aleatorios. Se producen por causas difíciles de controlar, momento de


iniciar na medida de tiempo, colocación de la cinta métrica, etc. Habitualmente se distribuyen
estadísticamente en torno a una medida que sería la correcta. Para evitarlo se deben tomar varias
medidas de la experiencia y realizar un tratamiento estadístico de los resultados. Se toma como
valor o medida más cercana a la realidad la media aritmética de las medidas tomadas.

CALCULO DE ERRORES: ERROR ABSOLUTO, ERROR RELATIVO

Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una formula) existe un
tratamiento de os errores de medida. Podemos distinguir dos tipos de errores que se utilizan en
los cálculos:

Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede
ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva
o negativa). Tiene unidades, las mismas que las de la medida.

𝐸𝐴 = 𝑇𝑀 − 𝑇𝑃

Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica
por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo
o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. no tiene
unidades.

𝐸𝐴
𝐸𝑅 = ∗ 100%
𝑇𝑃

Media. En matemáticas y estadística, la media aritmética (también llamada promedio o


simplemente media) de un conjunto finito de números es el valor característico de una serie de
datos cuantitativos objeto de estudio que parte del principio de la esperanza matemática o valor
esperado, se obtiene a partir de la suma de todos sus valores dividida entre el número de
sumandos.

Cuando el conjunto es una muestra aleatoria recibe el nombre de media muestral siendo uno de
los principales estadísticos muestrales. Expresada de forma más intuitiva, podemos decir que la
media (aritmética) es la cantidad total de la variable distribuida a partes iguales entre cada
observación.

𝐼1 + 𝐼2 + 𝐼3 + ⋯ + 𝐼𝑛
𝑋=
𝑛

Varianza. En teoría de probabilidad, la varianza (que suele representarse como ơ2 ) de una variable
aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación
de dicha variable respecto a su medida.

Esta medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una
distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar es la
raíz cuadrada de la varianza, es una medida de dispersión alternativa expresada en las mismas
unidades de los datos de la variable objeto de estudio. La varianza tiene como valor mínimo 0.

2
2
∑𝑛𝑖=1(𝑡1 − 𝑋)
ơ =
𝑛−1

La desviación estándar. Es una medida de dispersión para variables de razón (variables


cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada de la
varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa la
media de distancias que tiene los datos respecto de su media aritmética, expresada en las mismas
unidades que la variable.
∑𝑛𝑖=1(𝑡1 − 𝑋)2
ơ =√
𝑛−1

GRAFICOS

CALIBRACIÓN Y AJUSTE

a) Temperatura Patrón vs Temperatura Teórica 1


b) Temperatura Patrón vs Temperatura Teórica 2
c) Temperatura Patrón vs Temperatura de Termocupla

CURVAS DE ERROR

a) Error Absoluto vs Temperatura Teórica 1


b) Error Absoluto vs Temperatura Teórica 2
c) Error Absoluto vs Temperatura de Termocupla

CURVAS DE CORRECCIÓN

TABLA DE CALCULOS Y RESULTADOS

OBSERVACIONES Y RECOMENDACIONES

Evitar que los termómetros y termocuplas toquen base y paredes del recipiente, ya que esto
provocara aumento de temperatura y por ende provocara que haya errores en los cálculos.

Verificar que los instrumentos estén correctamente calibrados.

La forma en la cual se esté utilizando el termómetro influirá mucho en los resultados que este
arroje, por lo cual se recomienda hacer un uso correcto del instrumento.

CONCLUSIONES

Se ha hecho uso de la teoría de errores, demostrando asi que no se ha sido exacto al momento
de realizar las mediciones

Se puede llegar a la conclusión que por medio de un termómetro patrón se podrá calibrar los
termómetros.

LINKOGRAFIA

BIBLIOGRAFIA

También podría gustarte