Está en la página 1de 6

Definiciones en control

Los términos empleados dependen las características propias de medida y de


control y las estáticas y
Dinámicas de los diversos instrumentos utilizados:
• Indicadores, registradores, controladores, transmisores y válvulas de control.

La terminología empleada se ha unificado con el fin de que los fabricantes, los


usuarios y los organismos o entidades que intervienen directa o indirectamente en
el campo de la instrumentación
Industrial empleen el mismo lenguaje.

Campo de medida
El campo de medida (range) es el espectro o conjunto de valores de la variable
medida que están comprendidos dentro de los límites superior e inferior de la
capacidad de medida, de recepción o de transmisión del instrumento. Viene
expresado estableciendo los dos valores extremos.
Otro término derivado es el de dinámica de medida o rangeabilidad (rangeability),
que es el cociente entre el valor de medida superior e inferior de un instrumento.

Alcance
El alcance (span) es la diferencia algebraica entre los valores superior e inferior
del campo de medida del instrumento.

Error
El error de la medida es la desviación que presentan las medidas prácticas de
una variable de proceso con relación a las medidas teóricas o ideales, como
resultado de las imperfecciones de los aparatos y de las variables parásitas que
afectan al proceso. Es decir:
Error = Valor leído en el instrumento - Valor ideal de la variable medida
El error absoluto es:
Error absoluto = Valor leído - Valor verdadero
El error relativo representa la calidad de la medida y es:
Error relativo = Error absoluto / Error verdadero
Si el proceso está en condiciones de régimen permanente existe el llamado error
estático.

En condiciones dinámicas el error varía considerablemente debido a que los


instrumentos tienen características comunes a los sistemas básicos: absorben
energía del proceso y esta transferencia requiere cierto tiempo para ser
transmitida, lo cual da lugar a retardos en la lectura del aparato. Siempre que las
condiciones sean dinámicas, existirá en mayor o menor grado el llamado error
dinámico (diferencia entre el valor instantáneo y el indicado por el instrumento): su
valor depende del tipo de fluido del proceso, de su velocidad, del elemento
primario (termopar, bulbo y capilar), de los medios de protección (vaina), etc. El
error medio del instrumento es la media aritmética de los errores en cada punto de
la medida determinados para todos los valores crecientes y decrecientes de la
variable medida.

Incertidumbre de la medida
Cuando se realiza una operación de calibración, se compara el instrumento a
calibrar con un aparato patrón para averiguar si el error (diferencia entre el valor
leído por el instrumento y el verdadero valor medido con el aparato patrón) se
encuentra dentro de los límites dados por el fabricante de instrumento.
Entre las fuentes de incertidumbre se encuentran:
• Influencia de las condiciones ambientales.
• Lecturas diferentes de instrumentos analógicos realizadas por los operadores.
• Variaciones en las observaciones repetidas de la medida en condiciones
aparentemente idénticas.
• Valores inexactos de los instrumentos patrón.
• Muestra del producto no representativa. Por ejemplo, en la medida de
temperatura con un termómetro patrón de vidrio, la masa del bulbo cambia la
temperatura de la muestra del proceso cuya temperatura desea medirse.
Así pues, la incertidumbre es la dispersión de los valores que pueden ser
atribuidos razonablemente al verdadero valor de la magnitud medida.
En el cálculo de la incertidumbre intervienen la distribución estadística de los
resultados de series de mediciones, las características de los equipos (deriva en
función de la tensión de alimentación o en función de la temperatura, etc.), etc.

En el cálculo de la incertidumbre se usa el término mensurando que significa:


magnitud particular objeto de una medición. Puede ser medido directamene o bien
de forma indirecta a partir de otras magnitudes relacionadas de forma matemática
o funcional (por ejemplo, la medida de la densidad a través de la relación
masa/volumen del cuerpo). El mensurando es, pues, función de una serie de
magnitudes de entrada y la expresión de esta función puede ser experimental o
ser un algoritmo de cálculo o bien una combinación.
Hay dos incertidumbres A y B presentes en la medición. Las A se relacionan con
fuentes de error aleatorios y pueden ser evaluadas a partir de distribuciones
estadísticas (lecturas en el instrumento), mientras que las B están asociadas a
errores de tipo sistemático y corresponden a la incertidumbre del calibrador, la
resolución del instrumento y la influencia de otras magnitudes.

Incertidumbre tipo A. La evaluación de la incertidumbre estándar se efectúa por


análisis estadístico de una serie de observaciones independientes de la magnitud
de entrada, bajo las mismas condiciones de medida. Si no existen componentes
evaluadas estadísticamente la evaluación de tipo A corresponde a la repetibilidad
del instrumento a calibrar.

Incertidumbre tipo B. La incertidumbre se determina en base a la información


disponible procedente de varias fuentes, tales como:
• Datos de medidas anteriores.
• Experiencia y conocimiento de los instrumentos.
• Especificaciones del fabricante.
• Valores de incertidumbre de manuales técnicos.
El método exige un juicio basado en la experiencia y en conocimientos generales.

Exactitud
La exactitud (accuracy) es la cualidad de un instrumento de medida por la que
tiende a dar lecturas próximas al valor verdadero de la magnitud medida.
En otras palabras, es el grado de conformidad de un valor indicado a un valor
estándar aceptado o valor ideal, considerando este valor ideal como si fuera el
verdadero. El grado de conformidad independiente es la desviación máxima entre
la curva de calibración de un instrumento y una curva característica especificada,
posicionada de tal modo tal que se reduce al mínimo dicha desviación máxima.

La exactitud (accuracy) define los límites de los errores cometidos cuando el


instrumento se emplea en condiciones normales de servicio durante un período de
tiempo determinado (normalmente
1 año). La exactitud varía en cada punto del campo de medida sí bien, el
fabricante la específica, en todo el margen del instrumento, indicando a veces su
valor en algunas zonas de la escala. Cuando se desea obtener la máxima
exactitud del instrumento en un punto determinado de la escala, puede calibrarse
únicamente para este punto de trabajo, sin considerar los valores restantes del
campo de medida.
Hay que señalar que los valores de la exactitud de un instrumento se consideran,
en general, establecidos para el usuario, es decir, son los proporcionados por los
fabricantes de los instrumentos. Sin embargo, estos últimos también suelen
considerar los valores de calibración en fábrica y de inspección.

Precisión
La precisión es la cualidad de un instrumento por la que tiende a dar lecturas
muy próximas unas a otras, es decir, es el grado de dispersión de las mismas. Un
instrumento puede tener una pobre exactitud, pero una gran precisión.
Por lo tanto, los instrumentos de medida estarán diseñados por los fabricantes
para que sean precisos, y como periódicamente se descalibran, deben reajustarse
para que sean exactos. A señalar que el término precisión es sinónimo de
repetibilidad.

Zona muerta
La zona muerta (dead zone o dead band) es el campo de valores de la variable
que no hace variar la indicación o la señal de salida del instrumento, es decir, que
no produce su respuesta. Viene dada en tanto por ciento del alcance de la medida.

Sensibilidad
La sensibilidad (sensitivity) es la razón entre el incremento de la señal de salida o
de la lectura y el
Incremento de la variable que lo-ocasiona, después de haberse alcanzado el
estado de reposo.
Hay que señalar que no debe confundirse la sensibilidad con el término de zona
muerta; son definiciones básicamente distintas que antes era fácil confundir
cuando la definición inicial de la sensibilidad era “valor mínimo en que se ha de
modificar la variable para apreciar un cambio medible en el índice o en la pluma de
registro de los instrumentos”.

Repetibilidad
La repetibilidad (repeatibility) es la capacidad de reproducción de las posiciones
de la pluma o del índice o de la señal de salida del instrumento, al medir
repetidamente valores idénticos de la variable en las mismas condiciones de
servicio y en el mismo sentido de variación, recorriendo todo el campo. La
repetibilidad es sinónimo de precisión. A mayor repetibilidad, es decir, a un menor
valor numérico los valores de la indicación o señal de salida estarán más
concentrados, es decir, habrá menos dispersión y una mayor precisión.

La repetibilidad se expresa en tanto por ciento del alcance; un valor


representativo es el de ± 0,1%. Nótese que el término repetibilidad no incluye la
histéresis. Para determinarla, el fabricante comprueba la diferencia entre el valor
verdadero de la variable y la indicación o señal de salida del instrumento
recorriendo todo el campo, y partiendo, para cada determinación, desde el valor
mínimo del campo de medida.

Histéresis
La histéresis (hysteresis) es la diferencia máxima que se observa en los valores
indicados por el índice o la pluma del instrumento o la señal de salida para el
mismo valor cualquiera del campo de medida, cuando la variable recorre toda la
escala en los dos sentidos, ascendente y descendente.
Se expresa en tanto por ciento del alcance de la medida.

Otros términos
Otros términos empleados en las especificaciones de los instrumentos son los
siguientes:
Deriva
Es una variación en la señal de salida que se presenta en un período de tiempo
determinado mientras se mantienen constantes la variable medida y todas las
condiciones ambientales. Se suelen considerar la deriva de cero (variación en la
señal de salida para el valor cero de la medida atribuible
a cualquier causa interna) y la deriva térmica de cero (variación en la señal de
salida a medida cero, debida a los efectos únicos de la temperatura).
La deriva está expresada usualmente en porcentaje de la señal de salida de la
escala total a la temperatura ambiente, por unidad, o por intervalo de variación de
la temperatura. Por ejemplo, la deriva térmica de cero de un instrumento en
condiciones de temperatura ambiente durante 1 mes fue de 0,2% del alcance.

Fiabilidad
Medida de la probabilidad de que un instrumento continúe comportándose dentro
de límites especificados de error a lo largo de un tiempo determinado y bajo unas
condiciones especificadas.

Resolución
Es la menor diferencia de valor que el instrumento puede distinguir. En los
instrumentos analógicos interviene el operador según donde observe la posición
de la aguja, su error de paralaje en la lectura efectuada y la distancia entre los
valores marcados en la escala.
Por ejemplo, en un indicador de nivel de 0% a 100% graduado cada 1% de la
escala, con la aguja indicadora, que el observador considera en la mitad entre las
divisiones 52% y 53%, y que el afirma que es capaz de discriminar valores del
0,5%, podrá considerarse la resolución como (0,5/100) = 0,05%.

En los instrumentos digitales, la resolución es el cambio de valor de la variable


que ocasiona que el dígito menos significativo se modifique.

Trazabilidad
Propiedad del resultado de las mediciones efectuadas con un instrumento o con
un patrón, tal que puede relacionarse con patrones nacionales o internacionales,
mediante una cadena ininterrumpida de comparaciones y con todas las
incertidumbres determinadas.

Ruido
Cualquier perturbación eléctrica o señal accidental no deseada que modifica la
transmisión, indicación o registro de los datos deseados. Un caso especial es la
interferencia de radiotransmisores RFI (Radio Frequency Interference). Puede
expresarse en unidades de la señal de salida o en tanto por ciento del alcance.

Clases de instrumentos
Los instrumentos de medición y de control son relativamente complejos y su
función puede comprenderse bien si están incluidos dentro de una clasificación
adecuada. Como es lógico, pueden existir varias formas para clasificar los
instrumentos, cada una de ellas con sus propias ventajas y limitaciones.

En función del instrumento:

De acuerdo con la función del instrumento, obtenemos las formas siguientes:


Instrumentos ciegos, son aquellos que no tienen indicación visible de la variable.
Son ciegos los instrumentos de alarma, tales como presostatos y termostatos.

Los instrumentos indicadores disponen de un índice y de una escala graduada en


la que puede leerse el valor de la variable. Según la amplitud de la escala se
dividen en indicadores concéntricos y excéntricos.
Los instrumentos registradores registran con trazo continuo o a puntos la
variable, y pueden ser circulares o de grafico rectangular o alargado según sea la
forma del gráfico.
Los registradores de gráfico circular suelen tener el gráfico de 1 revolución en 24
horas mientras que en los de gráfico rectangular la velocidad normal del gráfico es
de unos 20 mm/hora.

Los sensores captan el valor de la variable de proceso y envían una señal de


salida predeterminada.
El sensor puede formar parte de otro instrumento (por ejemplo, un transmisor) o
bien puede estar separado. También se denomina detector o elemento primario
por estar en contacto con la variable, con lo que utiliza o absorbe energía del
medio controlado para dar, al sistema de medición, una indicación en respuesta a
la variación de la variable.
Los transmisores captan la variable de proceso a través del elemento primario y la
transmiten a distancia en forma de señal neumática de margen 3 a 15 psi (libras
por pulgada cuadrada) o electrónica de 4 a 20 mA de corriente continua o digital.

En función de la variable de proceso


Expresados en función de la variable del proceso, los instrumentos se dividen en
instrumentos de caudal, nivel, presión, temperatura, densidad y peso específico,
humedad y punto de rocío, viscosidad, posición, velocidad, pH, conductividad,
frecuencia, fuerza, turbidez, etc.
Esta clasificación corresponde específicamente al tipo de las señales medidas
siendo independiente del sistema empleado en la conversión de la señal de
proceso.

También podría gustarte