Está en la página 1de 11

1.

- Objetivos:

- El objetivo principal del estudio realizado en este laboratorio es la calibración de un


manómetro, analizando su nivel de error y demás variaciones medibles, con el fin de,
como ya se dijo, poder calibrarlo con respecto a una medida patrón, dada por una
medición indirecta, correspondida a la relación entre una fuerza y su área de acción.

- Con esto podemos dar como resultado de error uno muy cercano a la realidad, ya este
se mide con respecto a una medida patrón (antes mencionado) que al ser un método
indirecto, con parámetros ya establecidos, se podría decir que el único error de esta
medición estaría en los posibles desfases de medición tanto de la fuerza como de su área
de acción

2.- Fundamentos teóricos:

2.1.- Presión:

Se conoce como presión a una magnitud física escalar representada con el símbolo p,
que designa una proyección de fuerza ejercida de manera perpendicular sobre una
unidad de superficie; dicho de otro modo, representa el modo de aplicar una fuerza
resultante sobre una línea.

La presión relaciona una fuerza de acción continua y una superficie sobre la cual actúa,
por lo cual se mide en el Sistema Internacional (SI) en pascales (Pa), equivalentes cada
uno a un newton (N) de fuerza actuando sobre un metro cúbico (m3) de superficie. En el
sistema inglés, en cambio, se prefiere la medida de libras (pounds) por pulgadas
(inches).

La presión es también una de las fuerzas a las que está sometida comúnmente
la materia (como la temperatura), y cuya manipulación tiene numerosas aplicaciones
prácticas. Una de ellas es que el incremento de la presión a la que se encuentra la
materia puede obligarla a cambiar de estado de agregación, es decir, pasar de gas a
líquido, por ejemplo, como suele hacerse con los gases hidrocarbúricos.

Otras unidades de medición de la presión incluyen el bar (10N/cm3), la atm o atmósfera


(equivalente a unos 101325 pa), o el Torr (equivalente a 133,32 pascales) y mensurable
en milímetros de mercurio (mmHg). El aparato diseñado para medir la presión se
conoce como tensiómetro.

Tipos de presión:

Dependiendo de las condiciones en que se dé, la presión puede ser clasificada según los
siguientes tipos:

 Absoluta. Diseñada como una medida para estandarizar la presión, se


considera la carga de presión que experimenta un fluido al estar en el vacío
perfecto o cero absoluto (-273,15 °C).
 Atmosférica. Es aquella que ejerce el conjunto de la masa de gases de la
atmósfera sobre la superficie terrestre y sobre todo lo que repose sobre ella. A
medida que se eleva (en un globo o un avión, o en una montaña) será menor la
presión ejercida al haber menos masa de aire sobre nosotros.
 Manométrica. Cuando la presión se mide con el vacío absoluto (presión
negativa), se habla de presión absoluta; mientras que al cotejarla contra la
presión atmosférica, hablaremos de la manométrica, y se calcula restando a la
primera la segunda.
 Hidrostática o hidrodinámica. Aquella experimentada por fluidos, tanto
debido al peso del propio fluido en reposo (hidrostática), como en constante
movimiento (hidrodinámica). Usualmente se calcula una presión media entre las
dos.

2.2.- Manómetro:

Un manómetro es un instrumento de medida de la presión en fluidos (líquidos y gases)


en circuitos cerrados. Miden la diferencia entre la presión real o absoluta y la presión
atmosférica, llamándose a este valor, presión manométrica. A este tipo de manómetros
se les conoce también como "Manómetros de Presión".

Lo que realmente hacen es comparar la presión atmosférica (la de fuera, la atmósfera)


con la de dentro del circuito por donde circula al fluido. Por eso se dice que los
manómetros miden la presión relativa.

La presión manométrica es la presión relativa a la presión atmosférica. La presión


manométrica es positiva para presiones por encima de la presión atmosférica, y negativa
para presiones por debajo de ella. La presión absoluta es la suma de presión
manométrica y presión atmosférica.

Recuerda que la presión se define como la fuerza por unidad de superficie que ejerce un
líquido o un gas perpendicularmente a dicha superficie. P = F/S.

Los aparatos que miden la presión atmosférica son los barómetros,no confundirlos con
los manómetros que se usan en la industria en los circuitos neumáticos e
hidráulicos generalmente.

Hay unos manómetros llamados Detectores de Vacío que son sensores calibrados para
ser utilizados para medir la presión inferior a la presión atmosférica dentro de un
sistema, incluso para la presión de vacío en el interior. Son muy utilizados en la
fabricación de alimentos enlatados, detectando cuando se ha hecho el vacío dentro de la
lata de comida.

Las unidades de presión son muy variadas. En el Sistema Internacional de unidades es


el Pascal (Pa), en química se usa el mm de Hg, al que se llama también torr (en honor a
Torricelli) y la atmósfera (atm). El problema del Pascal es que es una unidad muy
pequeña para los valores habituales de presión en los fluidos, es por eso que se utilizan
otras.

1atm = 101.300 Pa

1bar = 100.00 Pa

En la industria se usa el kp/cm2. Cuando alguien dice que la presión de un neumático


es de "2 kilos" se está refiriendo a esta unidad, el kp/cm2, (kp/cm2 = 98.000 Pa). Esta
forma de expresar la presión es incorrecta, pero casi todo el mundo la usa en la
industria.

Los manómetros industriales suelen tener una escala graduada que mide la presión,
normalmente, en bares, pascales o en psi (fuerza por pulgada cuadrada).
Todos los manómetros de presión tienen un elemento que cambia alguna propiedad
cuando son sometidos a la presión. Este cambio se manifiesta en una escala o pantalla
calibrada directamente en las unidades de presión correspondientes. La aguja nos mide
la presión en el interior del circuito.
Algo muy importante a la hora de utilizar un manómetro de presión es su exactitud o
precisión. La exactitud se define como la diferencia máxima (error) entre el valor
verdadero y el valor indicado por el manómetro expresado como porcentaje.

La precisión del manómetro está estrechamente relacionada con su precio. Las


aplicaciones que requieren lecturas menos precisas, pueden utilizar una precisión de "3-
2-3", que significa que los indicadores tienen una precisión de más o menos 3% en el
tercer y último tercio inferior de su rango de medición (escala), y dentro de 2% en el
tercio medio. Hay manómetros que pueden ser tan precisos y llegar al 0,25%.

El símbolo que se utiliza en los circuitos para el manómetro depende del tipo. Aquí
vemos los 3 utilizados. El primero es el manómetro en general, el segundo es un
manómetro diferencial que sirve para medir la diferencia de presión entre dos puntos y
el tercero vale para cualquier medidor de presión.
Los medidores de presión o manómetros son ampliamente utilizados en todo el mundo
para tareas que van desde el control de la presión de los neumáticos en un coche antes
de un viaje a la vigilancia de la presión de varios sistemas dentro de una planta de
energía nuclear. Otros usos pueden ser el control de presión en un circuito neumático o
hidráulico, el control de la presión del líquido de frenos en un coche, en los sistemas de
calefacción, ventilación, aire acondicionado y de refrigeración.

Ser capaz de controlar la presión en estos sistemas puede ser muy importante, ya que
permite a las personas identificar potenciales amenazas de seguridad tales como
presiones altamente peligrosas, junto con los fallos del sistema por baja presión.

Muchos manómetros de presión son automáticos, apagando el sistema de control que


controlan cuando la presión puede llegar a ser peligrosa para el circuito.

3.- Instrumentos:
3.1.- Manómetro de Bourdon:
Los manómetros son instrumentos de medición que se usan para medir la presión en
determinados lugares. Miden la presión manométrica, que se define como la presión
total que tiene el gas menos la presión atmosférica, por tanto, desprecia la presión
atmosférica.
Consiste en un tubo aplanado con el que se forma una sección circular de unos 270°
aproximadamente. En un extremo del tubo se sella y queda libre de sus
desplazamientos, mientras al otro extremo se lo fija y está conectado a la cámara o a un
conducto en el que la presión se mide.
El manómetro de Bourdon se basa en el funcionamiento del tubo de Bourdon. Este es
un mecanismo muy simple que consta de un tubo de forma semicircular. Uno de sus
extremos está cerrado, mientras que el otro se encuentra conectado a la fuente de
presión.
Cuando la presión es aplicada por la parte del tubo abierta, este tiende a enderezarse.
Este movimiento es transferido a una aguja que se moverá en forma proporcional a la
presión dentro del tubo. Se resalta que la aguja se va a situar delante de una plantilla con
las indicaciones del valor de la presión según se relacione con la posición que tenga la
aguja.
El manómetro de Bourdon sirve del miso modo que los demás manómetros, aunque este
es una versión primitiva, para medir la presión de un lugar en particular. En ese sentido,
se encarga de medir la presión manométrica, la cual se comprende como la presión total
que un gas tiene menos la presión atmosférica, así que la presión atmosférica es
despreciada.
Se recuerda que los manómetros son muy usados en sitios en los que se necesita medir
la presión, pero sin el efecto que la presión atmosférica puede ocasionar, como por
ejemplo ocurre con la presión de un gas en un tubo.
3.2.- Dispositivo de medición de peso muerto

Un comprobador de peso muerto se compone de un pistón de bombeo con un tornillo que


lo presiona dentro del depósito que contiene un fluido como aceite, un pistón primario
que lleva el peso muerta, W, y el indicador de presión o transductor a ser calibrado.
Funciona mediante la carga del pistón primario (de área de sección transversal A), con la
cantidad de peso (W) que corresponde a la presión de calibración deseada (P=W/A). El
pistón de bombeo a continuación presuriza el sistema ingresando más fluido en el cilindro
del depósito.

4.- Datos

El siguiente trabajo de calibración de termómetros consiste en tomar distintas medidas de


temperatura sobre nuestra muestra (en el caso de nuestro grupo, agua con azúcar) a lo
largo de un proceso de calentamiento de este, comparando luego estás mediciones de los
distintos termómetros con uno en específico, que sería el termómetro patrón (en este
proceso, un termómetro infrarrojo antes especificado) que cuenta con una tecnología
superior que brinda una medida muy precisa y ajustada a la realidad, lo que nos permite,
al compararla con los otros tres, calcular el error de cada instrumento, así como otros
parámetros.

Estos serían los datos medidos, posteriores al experimento:

TEMPERATURAS
T1 T2 TC TP
1 34.4 34.5 36.3 35
2 39 39 42 40
3 43.3 45 46.5 45
4 47 50.3 50.8 50
5 53 55 56.5 55
6 55 58 60 60
7 60 62 65 65
8 64.3 67 69.7 70
9 69.5 71 75.8 75
10 74 77 80.4 80

5.- Cálculos

5.1.- Cálculo de errores

Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una fórmula)
existe un tratamiento de los errores de medida. Podemos distinguir dos tipos de errores
que se utilizan en los cálculos:

- Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como


exacto. Puede ser positivo o negativo, según si la medida es superior al valor real
o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las
de la medida.

- Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto.
Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que
el error absoluto puede ser positivo o negativo (según lo sea el error absoluto)
porque puede ser por exceso o por defecto. no tiene unidades.

5.2.- Varianza

La varianza es una medida de dispersión que representa la variabilidad de una serie de


datos respecto a su media. Formalmente se calcula como la suma de los residuos al
cuadrado divididos entre el total de observaciones.
También se puede calcular como la desviación típica al cuadrado. Dicho sea de paso,
entendemos como residuo a la diferencia entre el valor de una variable en un momento y
el valor medio de toda la variable.

La unidad de medida de la varianza será siempre la unidad de medida correspondiente a


los datos, pero elevada al cuadrado. La varianza siempre es mayor o igual que cero. Al
elevarse los residuos al cuadrado es matemáticamente imposible que la varianza salga
negativa. Y de esa forma no puede ser menor que cero.
TEMPERATURAS Medición de Errores Desviación
T1 T2 TC TP Tprom E.Absoluto E.Relativo Varianza Estandar
1 34.4 34.5 36.3 35 35.07 0.07 0.19% 0.76 0.87
2 39 39 42 40 40.00 0.00 0.00% 2.00 1.41
3 43.3 45 46.5 45 44.93 0.07 0.15% 1.71 1.31
4 47 50.3 50.8 50 49.37 0.63 1.27% 2.94 1.72
5 53 55 56.5 55 54.83 0.17 0.30% 2.06 1.44
6 55 58 60 60 57.67 2.33 3.89% 5.58 2.36
7 60 62 65 65 62.33 2.67 4.10% 6.00 2.45
8 64.3 67 69.7 70 67.00 3.00 4.29% 7.11 2.67
9 69.5 71 75.8 75 72.10 2.90 3.87% 9.32 3.05
10 74 77 80.4 80 77.13 2.87 3.58% 8.89 2.98

5.3.- Desviación estándar

La desviación estándar es la medida de dispersión más común, que indica qué tan
dispersos están los datos con respecto a la media. Mientras mayor sea la desviación
estándar, mayor será la dispersión de los datos.

El símbolo σ (sigma) se utiliza frecuentemente para representar la desviación estándar de


una población, mientras que s se utiliza para representar la desviación estándar de una
muestra. La variación que es aleatoria o natural de un proceso se conoce comúnmente
como ruido.

La desviación estándar se puede utilizar para establecer un valor de referencia para


estimar la variación general de un proceso.
6.- Tablas:

Varianza Desviación Estandar

T1 173.00 13.15

T2 192.51 13.87

TC 213.42 14.61

TP 229.17 15.14

Tprom 192.42 13.87

7.- Curvas:

7.1.- Curva de error

Curva de Error
3.50
3.00
2.50
Error absoluto

2.00
1.50
1.00
0.50
0.00
-0.50 30 35 40 45 50 55 60 65 70 75 80
Temperatura promedio

7.2.- Curva de corrección:


Curva de correción
5.00%
4.50%
4.00%
3.50%
Error relativo

3.00%
2.50%
2.00%
1.50%
1.00%
0.50%
0.00%
-0.50% 30 35 40 45 50 55 60 65 70 75 80
Temperatura promedio

7.3.- Curva de calibración:

Curva de calibración y = 1.0905x - 3.6139


90
80
Temperatura patrón

70
60
50
40
30
20
10
0
30 35 40 45 50 55 60 65 70 75 80
Temperatura promedio

8.- Conclusiones y recomendaciones:

Antes de iniciar, la salvedad para dar los distintos resultados de los errores absolutos y
relativos, es sacar una temperatura promedio de las tres temperaturas de los distintos
termómetros a calibrar, ya que esta se va a comparar con la temperatura patrón.

Ahora bien, luego de comparar los distintos resultados en los diferentes parámetros de la
tabla y en las curvas, se puede deducir que los errores, si bien existen, no son
excesivamente pronunciados, es decir, su precisión se ve sesgada, pero no se puede
desechar sus mediciones, ya que aún son útiles en algunos aspectos de la medición de
temperatura.
Para poder realizar el experimento de manera exitosa y satisfactoria se necesita, primero,
tener una temperatura de bulbo seco en los termómetros analógicos de mercurio, para
poder comparar todo en una temperatura estable y homogénea, al menos, al inicio del
trabajo de medición.

Se debe tener en cuenta también que, al sumergir los termómetros, estos no deben chocar
con el fondo del recipiente en el cual se está elevando la temperatura, y también el fluido
debe estar en movimiento continuo.

9.- Referencias:

[1] D. Southworth, «Calibración de la temperatura,» ISOTECH, vol. I, nº 1, pp. 3-5, 2004.

[2] Fluke Corporation, «Fluke,» 2007. [En línea]. Available: https://www.fluke.com/es-


pe/producto/medicion-de-temperatura/termometros-infrarrojos/fluke-568#.

[3] Minitab 18, «Minitab 18,» 2016. [En línea]. Available: https://support.minitab.com/es-
mx/minitab/18/help-and-how-to/statistics/basic-statistics/supporting-topics/data-
concepts/what-is-the-standard-deviation/.

[4] Economipedia, «Economipedia,» 2015. [En línea]. Available:


https://economipedia.com/definiciones/varianza.html.

También podría gustarte