Está en la página 1de 14

GENERALIDADES DE

LA INSTRUMENTACIÓN INDUSTRIAL

Los procesos industriales exigen el


control de la fabricación de los diversos
productos tenidos. Los procesos son muy
variados y abarcan muchos tipos de productos,
por ejemplo: facción de productos derivados
del petróleo, de los productos alimenticios,
industria de la cerámica, centrales
generadoras de energía, la siderurgia,
tratamientos térmicos, la industria papelera,
industria textil, etc.
En todos estos procesos es necesario
controlar y mantener constante algunas
magnitudes como:
- la presión
- el caudal
- el nivel
- la temperatura
- el pH
- la conductividad
- velocidad
- la humedad
- punto de rocío
- Peso
- Viscosidad

los instrumentos de medición y control


permiten el mantenimiento y la regulación de
estas constantes en condiciones más idóneas
que las que el propio operador podría
realizar.

Los procesos industriales a controlar


pueden dividirse en dos categorías: procesos
continuos y procesos discontinuos. En ambos
tipos, deben mantenerse en general las
variables (presión, caudal, nivel, temperatura,
etc.), bien en un valor fijo o variable con el
tiempo de acuerdo con una relación
predeterminada, o bien guardando una
relación determinada con otra variable.
CAMPO DE MEDIDA (Rango)
Es el conjunto de valores de la variable
medida que están comprendidos dentro de los
límites superior e inferior de la capacidad de
medida o de transmisión del instrumento; viene
expresado estableciendo los dos valores
extremos. Por ejemplo: el campo de medida o
rango de un instrumento de medida de
temperatura puede ser 100 a 300 °C o un
manómetro de intervalo de presión
electrónico de 0 a 25 bar

otro término que también podemos


encontrar es el de dinámica de medida o
rangeabilidad, que es el cociente entre el
valor de medida superior e inferior de un
instrumento. por ejemplo, una válvula de
control lineal que regule linealmente el
caudal desde el 2% hasta el 100% de su
carrera tendrá una rangeabilidad de
100/2=50.
ALCANCE
El alcance o span es la diferencia algebraica
entre los valores superior e inferior del
campo de medida del instrumento. por ejemplo,
se tiene un manómetro que tiene u intervalo de
medida de 0 a 25 bar. su valor superior es 25
bar y valor inferior es 0 bar, por lo tanto, la
diferencia seria 25 bar - 0 bar = 25 bar sería
alcance o su span.

ERROR
El error de la medida es la desviación que
presentan las medidas prácticas de una
variable de proceso con relación a las medidas
teóricas o ideales, esto sucede a causa de las
imperfecciones de los aparatos y las variables
parásitas que afectan el proceso.
error = valor leído en el instrumento - valor
ideal de la variable medida
el error absoluto
el error absoluto de una medida es la
diferencia entre el valor medido y el valor
real de la medida, este error puede ser un
valor positivo o negativo según si la medida es
superior o inferior a la medida real y tiene las
mismas unidades que la medida.

𝑒𝑟𝑟𝑜𝑟 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑜 = 𝑣𝑎𝑙𝑜𝑟 𝑙𝑒í𝑑𝑜 − 𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜


error relativo
Es el cociente entre el error absoluto y el
valor que consideramos como exacto (la
media), es decir el valor real o verdadero. Al
igual que el error absoluto puede ser positivo
o negativo porque puede se puede producir por
exceso o por defecto y al contrario que el
error absoluto no viene acompañado de
unidades.

𝑒𝑟𝑟𝑜𝑟 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑜 = 𝑒𝑟𝑟𝑜𝑟 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑜 / 𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜

INCERTIDUMBRE
Esto sucede cuando se realiza la
calibración de instrumentos de medición,
primeramente, se compara el instrumento a
calibrar con un aparato patrón para
averiguar si el error (diferencia entre el
valor medido por el instrumento y el
instrumento patrón) se encuentra dentro de
los límites dados por el fabricante del
instrumento. como el aparato patrón también
tiene un margen de error y al comparar con la
medida del instrumento nos conduce a una
incertidumbre.
¿qué ocasionan la incertidumbre?
➢ las condiciones ambientales
➢ lecturas diferentes de instrumentos
analógicos realizadas
➢ valores inexactos de los instrumentos
patrón
La incertidumbre es una dispersión de los
valores que pueden ser atribuidos
razonablemente al verdadero valor de la
magnitud medida.

Manómetro digital de escala 0-200 KPa (0-2 bar) con


dígito menos significativo 0.01 KPa = 0.0001 bar

EXACTITUD
la exactitud (accuracy) es la cualidad de
un instrumento de medida por la que tiende a
dar lecturas próximas al valor verdadero de
la magnitud medida. en otras palabras, es el
grado de conformidad de un valor indicado a
un valor estándar aceptado o valor ideal,
considerando este valor ideal como si fuera el
verdadero.
exactitud define los límites de los errores
cometidos cuando el instrumento es utilizado
en condiciones normales durante un tiempo
determinado. la exactitud se refiere a que tan
cerca estamos del valor real.
la exactitud se da en términos de
inexactitud, por ejemplo, se tiene un
instrumento de medida con un rango de medida
de 0 a 100 °C y se tiene que nuestra variable de
proceso es de 98°C y al hacer la medida, el
instrumento indica 97.98°C se aproxima al
valor real en 0.02°C, o sea tiene una
inexactitud de 0.02°C.
hay varias formas para expresar exactitud:
• tanto por ciento de alcance, campo de medida
(range). Ejemplo: en el instrumento de
temperatura tiene una lectura de 150°C y una
exactitud de 0.5%, el valor real de la
temperatura estará comprendido entre
1500.5x200/100=150 1, es decir, entre 149°C y
151°C
• directamente, en unidades de la variable
medida. ejemplo: exactitud 1°C
• tanto por ciento de la lectura efectuada.
ejemplo: exactitud de 1% de 150 °C, es decir,
1.5°C
• tanto por ciento del valor máximo del campo de
medida. ejemplo: exactitud 0.5% de 300°C =
1.5°C
• tanto por ciento de la longitud de la escala.
ejemplo si la longitud de la escala del
instrumento de la figura 1.3 es de 150mm, la
exactitud de 0.5% representara 0.75 mm en la
escala.
PRECISIÓN
La precisión es la cualidad de un
instrumento por la que ende a dar lecturas
muy próximas unas a otras, es decir, es el grado
de dispersión de las mismas. Un instrumento
puede tener una pobre exactitud, pero una
gran precisión.
Por ejemplo, un manómetro de intervalo
de medida de 0 a 10 bar, puede tener un error
de cero considerable marcando 2 bar sin
presión en el proceso y diversas lecturas de
7,049, 7,05, 7,051, 7,052 efectuadas a lo largo
del tiempo y en las mismas condiciones de
servicio, para una presión del proceso de 5
bar. Tendrá un error práctico de 2 bar, pero
los valores leídos estarán muy próximos entre
sí con una muy pequeña dispersión máxima de
7,052 - 7,049 = 0,003, es decir, el instrumento
tendrá una gran precisión.
Por lo tanto, los instrumentos de medida
estarán diseñados por los fabricantes para
que sean precisos, y como periódicamente se
descalibran, deben reajustarse para que sean
exactos. A señalar que el término precisión es
sinónimo de repetibilidad.

ZONA MUERTA

La zona muerta (dead zone o dead band) es


el campo de valores de la variable que no hace
variar la indicación o la señal de salida del
instrumento, es decir, que no produce su
respuesta. Viene dada en tanto por ciento del
alcance de la medida. Por ejemplo: en el
instrumento de la gura 1.3 es de ± 0,1%, es
decir, de 0,1 × 200/100 = ± 0,2 °C.
SENSIBILIDAD

es la razón entre el incremento de la


señal de salida o de la lectura y el incremento
de la variable que lo ocasiona, después de
haberse alcanzado el estado de reposo.
Por ejemplo, si en un transmisor
electrónico de 0-10 bar, la presión pasa de 5 a
5,5 bar y la señal de salida de 11,9 a 12,3 mA
c.c.,
la sensibilidad es el cociente:

(𝟏𝟐. 𝟑 − 𝟏𝟏. 𝟗)/(𝟐𝟎 − 𝟒)


= ±𝟎. 𝟓 𝒎𝑨 𝒄. 𝒄./𝒃𝒂𝒓
(𝟓. 𝟓 − 𝟓)/𝟏𝟎

Viene dada en tanto por ciento del


alcance de la medida. Si la sensibilidad del
instrumento de temperatura de la gura 1.3 es
de ± 0,05%, su valor será de 0,05 × 200 = ± 0,1
°C
Hay que señalar que no debe confundirse
la sensibilidad con el término de zona muerta;
son definiciones básicamente distintas que
antes era fácil confundir cuando la definición
inicial de la sensibilidad era “valor mínimo en
que se ha de modificar la variable para
apreciar un cambio medible en el índice o en la
pluma de registro de los instrumentos”.
RESOLUCIÓN
Es la menor diferencia de valor que el
instrumento puede distinguir. En los
instrumentos analógicos interviene el
operador según donde observe la posición de
la aguja, su error de paralaje en la lectura
efectuada y la distancia entre los valores
marcados en la escala.

Por ejemplo, en un indicador de nivel de


0% a 100% graduado cada 1% de la escala, con
la aguja indicadora, que el observador
considera en la mitad entre las divisiones 52%
y 53%, y que el afirma que es capaz de
discriminar valores del 0,5%, podrá
considerarse la resolución como (0,5/100) =
0,05%
En los instrumentos digitales, la
resolución es el cambio de valor de la variable
que ocasiona que el dígito menos significativo
se modifique.
Por ejemplo, un indicador digital de
temperatura en el que se lee 531,01 °C, el
dígito menos significativo es el último 1.

TEMPERATURA DE SERVICIO
Campo de temperaturas en el cual se
espera que trabaje el instrumento dentro de
unos límites de error especificados.

VIDA ÚTIL DE SERVICIO


Tiempo mínimo especificado durante el
cual se aplican las características de servicio
continuo e intermitente del instrumento sin
que se presenten cambios en su
comportamiento, más allá de tolerancias
especificadas.
Los procesos industriale

También podría gustarte