Está en la página 1de 16

CONTENIDOS DEL MODULO 2

Bitácora del Módulo


 Ver la slide propuesta
 Al final realice la autoevaluación del módulo

Unidades
2.1 INTRODUCCIÓN
Subunidades
2.2.1 Naturaleza de las medidas y patrones
2.2.2 El arte de medir
2.2.3 Incertidumbres y teorías
2.2.4 Preguntas

Bitácora de la subunidad
 Leer cada una de las subunidades
 Responder las preguntas
 Si existe dudas releer las subunidades

2.2 PARÁMETROS DE UNA VARIABLE


2.2.1 Error
2.2.2 Precisión y Exactitud
2.2.3 Rango
2.2.4 Span
2.2.5 Zona Muerta
2.2.6 Sensibilidad
2.2.7 Repetitividad
2.2.8 Histéresis
2.2.9 Inexactitud
2.2.10 Preguntas

2.3 PRINCIPIOS DE MEDICIÓN Y TIPOS DE INSTRUMENTOS


2.3.1 Presión
2.3.2 Flujo
2.3.3 Nivel
2.3.4 Temperatura
2.3.5 pH
2.3.6 Densidad
2.3.7 Peso
2.3.8 Analizadores
2.3.9 Otros sensores análogos
2.3.10 Sensores Discretos

2.4 LAZOS DE INSTRUMENTOS


2.4.1 Estructura
2.4.2 Implementación
2.4.3 Herramientas Informáticas
2.4.4 Calibración del Lazo
2.1 INTRODUCCION

En el mundo industrializado son numerosos los aspectos de la vida que dependen


de las medidas. La complejidad creciente de las técnicas modernas va acompañada
de continuas demandas de más exactitud, mayor rango y mayor diversidad de
medidas en los dominios más variados. El desarrollo y mejora de métodos e
instrumentos de medición es de importancia, tanto en el ámbito internacional como
nacional, para la ciencia, el comercio y la industria.

Dado el actual avance tecnológico, se hace necesario efectuar mediciones tanto


para obtener información de un sistema y controlarlo, como para efectuar estudios
teóricos sobre su comportamiento y evolución. Para esto, el profesional o técnico
instrumentista debe estar familiarizado con aparatos, métodos, limitaciones,
técnicas y posibilidades de exactitud de dichas mediciones. Como es difícil estar al
corriente de todas estas materias altamente desarrolladas, es necesario conocer
conceptos fundamentales de la medida y algunos métodos ya comprobados de gran
utilidad.

Los procesos son muy variados y abarcan muchos tipos de productos, tales como
alimenticios, derivados del petróleo, industria cerámica, la siderurgia, tratamientos
térmicos, industria papelera, industria textil, minería, etc.

En todos estos procesos es necesario controlar, monitorear y mantener constante


algunas magnitudes, como por ejemplo la presión, caudal, nivel, temperatura, pH,
conductividad, velocidad, humedad, punto de rocío, etc. Los instrumentos son
herramientas indispensables que sirven para conseguir y conservar la calidad con
que se identifica el producto que se esta fabricando. Se utilizan para manejar las
variables de un proceso o sistema en forma tan exacta como se necesite para
satisfacer las especificaciones del producto en lo que refiere a composición, forma,
acabado, etc.

Los procesos industriales a controlar pueden dividirse ampliamente en dos


categorías: los procesos continuos, procesos discretos y procesos por lotes (o
batch). Estos procesos en sus diferentes tipos, deben mantener en general las
variables (presión, caudal, nivel, temperatura, etc.) en un valor deseado fijo, o
bien, en un valor variable con el tiempo de acuerdo a una relación predeterminada,
o con otras variables.

En general las leyes de la electricidad representan un desarrollo histórico


relativamente moderno dentro del campo de las ciencias físicas.

A medida que la tecnología eléctrica se desarrollaba, aparecieron algunos


instrumentos, tales como: galvanómetros, instrumentos rectificadores,
instrumentos de hierro móvil, electrodinámicos, el circuito puente, el potenciómetro
y otros de cero central.

La medida de magnitudes por medios eléctricos, hoy en día es de gran aplicación


en los procesos industriales y en especial en la automatización y control. La
indicación y registro de magnitudes no eléctricas se ha extendido
considerablemente y actualmente comprende una gran variedad de magnitudes de
muy diversos campos tales como:
FLUIDOS : Conductividad, densidad concentración de iones hidrógeno (p H) humedad,
caudal, nivel de líquidos, presión, velocidad de flujo, viscosidad, presión.
CALOR : Radiación, Temperatura, flujos de calor.
LUZ : Flujo luminoso, energía radiante, espectros.
MECANICA : Aceleración, desplazamiento, distancia, equilibrio dinámico, fuerza, dureza,
velocidad, vibración.
SONIDO : Presión, acústica, intensidad.
TIEMPO : Cuenta, frecuencia.

Con el avance en la tecnología, hoy se pueden medir, registrar y controlar


magnitudes tales como: niveles, caudales, temperaturas, presiones, p H, oxígeno,
densidades, etc.

2.2.1. NATURALEZA DE LAS MEDIDAS Y PATRONES ELECTRICOS

Medir es determinar la cantidad de una magnitud en comparación con otra


magnitud de referencia, conocida como magnitud patrón, o unidad de medida.

Los patrones físicos fundamentales, o unidades básicas, definidos en el Sistema


Internacional de unidades se indican en la Tabla 2.2.1:

Tabla 2.2.1.- Sistema Internacional de Unidades, Unidades básicas.

Magnitud Nombre Símbolo


Longitud metro M
Masa kilogramo kg
Tiempo segundo s
Corriente
Ampere A
eléctrica
Temperatura Kelvin K
Intensidad
Candela cd
Luminosa

Tabla 2.2.2.- Unidades Suplementarias.

Magnitud Nombre Símbolo


Angulo radián rad
Angulo sólido stero-radián srad

A partir de las unidades básicas se definen las unidades de todas las otras
magnitudes físicas. Estas se denominan unidades derivadas, algunas de las cuales
se indican en la Tabla 2.2.3:

Tabla 2.2.3.- Unidades derivadas.

Magnitud Nombre Símbolo Definición

Fuerza Newton N kg m s-2

Energía Joule J Nm

Potencia Watt W J s-1


Frecuencia Hertz Hz s-1
Y todas las otras, posibles de derivar de las unidades básicas.

Los múltiplos y submúltiplos de las unidades se indican utilizando los prefijos


reunidos en la Tabla 2.2.4:

Tabla 2.2.4.- Prefijos usuales.

Nombre Símbolo Factor Nombre Símbolo Factor

Tera T 1012 deci d 10-1

Giga G 109 centi c 10-2

Mega M 106 mili m 10-3

Kilo k 103 micro µ 10-6

Hecto h 102 nano n 10-9

Deca da 101 pico p 10-12

2.2.2. EL ARTE DE MEDIR

Una de las características de las medidas que debe tenerse en cuenta, es que todas
las observaciones están sujetas a error.

Se debe elegir un método de medición, entre los que se conocen, de acuerdo con
factores tales como exactitud exigida, aparatos disponibles, costo del esfuerzo
total, tiempo disponible para obtener los resultados, facilidad para realizar las
medidas y destreza del personal que va a efectuarlas.

El aparato que va a ser empleado debe estudiarse críticamente hasta haberlo


comprendido perfectamente en sus aspectos de manipulación, características
básicas, exactitud y márgenes de operación.

Deben planearse las técnicas apropiadas, preparar de antemano el tratamiento de


datos, y deben realizarse e interpretarse los análisis teóricos referentes a todos los
factores pertinentes.

En la ejecución de las medidas debe tenerse en cuenta muchas prácticas de


laboratorio para evitar falsos resultados. Los contactos eléctricos deben ser firmes
las soldaduras bien hechas, los contactos deslizantes estar en buenas condiciones,
etc.

2.2.3INCERTIDUMBRES Y TEORIAS

Un hecho significativo de las medidas es que el “verdadero” valor de una magnitud


medida no es nunca conocido con absoluta certeza. El solo hecho de conectar un
instrumento de medida a un sistema, lo perturba, de manera tal que modifica la
magnitud a medir.

Al medir una magnitud con más y más exactitud, se alcanza inevitablemente el


límite del “ruido” producido por fluctuaciones aleatorias. Por ejemplo, la magnitud
“cero” se escribe muy fácilmente en el análisis teórico, pero experimentalmente no
existe.

Finalmente, previo a la descripción de cualquier instrumento es deseable considerar


las preguntas que deben ser contestadas antes de hacer cualquier medida:

 ¿Cuál es el método más adecuado para realizar la medida?


 ¿Cómo debe ser visualizado el resultado?
 ¿Cuál es la tolerancia aceptada del valor medido?
 ¿Cómo afectará la presencia del instrumento a la señal?
 ¿Cómo afectará la forma de onda de la señal a las prestaciones del
instrumento?
 ¿En qué margen de frecuencias funciona correctamente el instrumento?
 ¿Cómo afectarán las interferencias al resultado obtenido?

Para que estas preguntas puedan ser contestadas honradamente, los aspectos que
plantean son el objetivo de las unidades siguientes.

2.2.4CUESTIONARIO

Marcar la opción correcta en cada aseveración.

1. ¿Qué se entiende por medir?

a. Determinar el valor numérico de una magnitud física.


b. Obtener la lectura dada por un instrumento, conectado en forma apropiada a
un sistema bajo medida.
c. Determinar la cantidad de una magnitud en comparación con otra magnitud
de referencia, conocida como magnitud patrón, o unidad de medida.

2. ¿Cuáles son las unidades básicas definidas en el Sistema Internacional


de Unidades?

a. Longitud: metro; Masa: Kilogramo; tiempo: seg.; Corriente: Ampere;


Temperatura: Kelvin; Intensidad luminosa: Candela.
b. Longitud: metro; Peso: Kilogramo; Fuerza: Newton; Tiempo: seg.; Voltje:
Volt.
c. Longitud: metro; Area: metro cuadrado; Fuerza: Newton; Tiempo: seg.;
Temperatura: Kelvin.

3. ¿Cuáles son las unidades derivadas definidas en el Sistema


Internacional de Unidades?

a. Fuerza: Newton; Energía: Joule; Potencia: Watt; frecuencia: Hertz.


b. Todas las demás unidades, que se derivan a partir de las básicas.
c. No hay mas unidades a parte de las básicas.

4. ¿Es posible realizar una medición libre de todo error?

a. No.
b. En ciertos casos.
c. Si, siempre es posible encontrar un método de medida libre de todo error.
2.2 PARÁMETROS DE UNA VARIABLE

2.2.1 Error
Para la determinación de errores de medida se requiere de una profunda
experiencia de laboratorio. Cuando se encuentran problemas difíciles de medida,
dicha experiencia puede ser de mucha ayuda para esclarecer notablemente la
situación.

Más aún, para llegar al fondo del asunto, hace falta más que el tipo de medidas
casuales, realizadas en trabajos rutinarios de baja precisión.

No se trata solamente de coleccionar y conectar algunos aparatos y realizar


lecturas, para conseguir un resultado preciso. Para esto el profesional debe
comprender totalmente la teoría de la medida y tener un íntimo conocimiento de
las características del equipo empleado. Debe usar de ingenio y cuidado para
alcanzar su objetivo. Debe pensar sobre lo que ha hecho, o va a hacer, estudiando
cada paso con actitud crítica y desconfianza, sin continuar hasta estar convencido
de que todo lo relacionado está perfecto.

El error: Se puede definir como la Incertidumbre estimada de una medida.

Cuantitativamente el error de medida se expresa, utilizando una medida aceptada


de incertidumbre que se define matemáticamente, con respecto a un valor
estimado como “verdadero”.

El objetivo en las medidas es tener en cuenta todo aquello que contribuye al error
final, despreciando en cambio errores demasiado pequeños.

Para la determinación de errores de medida se requiere de una profunda


experiencia de laboratorio y de campo. Cuando se encuentran problemas difíciles de
medida, dicha experiencia puede ser de mucha ayuda para esclarecer notablemente
la situación.

Más aún, para llegar al fondo del asunto, hace falta más que el tipo de medidas
casuales, realizadas en trabajos rutinarios de baja precisión.

No se trata solamente de coleccionar y conectar algunos aparatos y realizar


lecturas, para conseguir un resultado preciso. Para esto el profesional debe
comprender totalmente la teoría de la medida y tener un íntimo conocimiento de
las características del equipo empleado. Debe usar de ingenio y cuidado para
alcanzar su objetivo. Debe pensar sobre lo que ha hecho, o va a hacer, estudiando
cada paso con actitud crítica y desconfianza, sin continuar hasta estar convencido
de que todo lo relacionado está perfecto.

Clasificación de errores
Sistemáticos
Son aquellos que pueden evitarse o corregirse. Se deben a causas tales como
confusión, defectos de los instrumentos, o influencias del ambiente, malas técnicas
de medida, y hábitos del observador.
Residuales
Son aquellos que inevitablemente permanecen aunque se eliminen todos los
sistemáticos.

Tipos de errores sistemáticos


Se conocen cuatro categorías de errores sistemáticos:

Errores Grandes
Consisten en acciones tales como mala lectura de instrumentos, ajuste incorrecto
de los aparatos, utilización impropia de los instrumentos, confusiones de cómputos
y otros.

Errores Instrumentales
Son defectos de los instrumentos tales como errores de calibrado, defectos
internos, elementos internos inestables, partes desgastadas o defectuosas y otras.

Muchos errores instrumentales quedan cubiertos bajo la denominación genérica de


“Falla de Calibrado”, que se refiere a la diferencia entre las lecturas de escala y el
valor real de la magnitud que produce la lectura. Los errores de calibrado pueden
atribuirse a falla de construcción, desgaste y deterioro de elementos internos o por
abuso de utilización.

Estasperturbaciones se pueden aclarar considerando los siguientes puntos:


 Por un anormal rozamiento de los pivotes.
 Muelles que dan el par restaurador pueden variar con la edad y el uso.
 El shunt o resistencia adicional, pueden cambiar su valor correcto si han sido
forzados, tal como una sobrecarga fuera de límite.
 El campo magnético en el entrehierro puede ser permanentemente alterado,
como resultado que el instrumento haya sido expuesto a un intenso campo
magnético externo en algún momento.
 La corrosión de partes metálicas delicadas, tales como los hilos de las
bobinas y los muebles.

Errores Ambientales
Son influencias físicas sobre el observador, el equipo que utiliza, o la magnitud que
se mide. Una lista de algunas influencias ambientales incluye: temperatura,
presión, humedad, vibraciones mecánicas, fluctuaciones del voltaje de suministro,
vibraciones del edificio, etc. Estas breves indicaciones dan una idea de la gran
diversidad de los errores ambientales.

Los errores ambientales, son sistemáticos, pero es obvio que no tienen que ser
constantes. Para controlarlos se usan baños de temperatura fija, salas presurizadas
y salas apantalladas, absorbedores de vibración, etc.

Errores del Observador


Son debidos a los hábitos del observador tales como técnica imperfecta, juicio
incorrecto, forma peculiar de realizar las observaciones y otras.

El observador puede introducir errores de paralaje, malas lecturas de sus


divisiones, lecturas muy rápidas o muy lentas, ser afectado por la temperatura, etc.

Estos errores pueden ser disminuidos adhiriéndose a métodos rígidos de medición,


permaneciendo alerta, e insistiendo en que el trabajo se realice correctamente.
Eliminación de errores sistemáticos
 Primero y más importante, es necesario descubrir que existe un error o que se
debe esperar su existencia, lo cual depende mucho de la habilidad y experiencia
del investigador.
 Segundo, es conveniente hacer una estimación cuantitativa de la influencia que
el error sistemático puede tener en la cantidad que se mide.
 Tercero se valora la importancia del error en función de la exactitud total
deseada y del costo y dificultad de las posibles alternativas para evitarlo.
Finalmente, si es conveniente, se estudien los medios de eliminar o disminuir el
error, ya sea: sustituyendo equipos defectuosos, introduciendo controles
adicionales, o cambiando el método de medida.

En muchas medidas eléctricas, una exactitud del orden de 1% suele necesitar de


muchas correcciones y esfuerzos, mientras que si la exactitud que se desea es del
orden de 0,1%, estamos frente a un enorme problema. La habilidad para detectar
la presencia de un error sistemático es de la mayor importancia.

Error de medición: Este tipo de error es común dentro del mundo de la


instrumentación industrial y se considera como la diferencia algebraica entre el
valor leído o transmitido por el instrumento y el valor real de la variable medida
(también conocido con el nombre de error instantáneo o dinámico). En
condiciones dinámicas el error varia considerablemente debido a que los
instrumentos tienen características comunes a los sistemas físicos, esto es,
absorben energía del proceso y esta transferencia requiere cierto tiempo para ser
transmitida, dando lugar a retardos en la lectura. Cuando el proceso se encuentra
en condiciones de régimen permanente, existe el llamado error estático (Ver
figura 2.2.1). Otra definición aceptada es la de error medio del instrumento, el
cual es la media aritmética de los errores en cada punto de la medida determinados
para todos los valores crecientes y decrecientes de la variable medida.

Cuando una medición se realiza con la participación de varios instrumentos


colocados unos a continuación de otros, el valor final de la medición estará
constituido por los errores inherentes a cada uno de los instrumentos. Suele
tomarse como error total de una medición la raíz cuadrada de la suma algebraica
de los cuadrados de los errores máximos de los instrumentos. Por ejemplo, el error
obtenido al medir un caudal con un diafragma, un transmisor electrónico de 4-20
mA DC, un receptor y un integrador electrónico es de:

Error del diafragma = 2%


Error del transmisor electrónico = 0.5%
Error del receptor electrónico = 0.5%
Error del integrador electrónico = 0.5%

Error total de la medición = ± 2 2  (0,5) 2  (0,5) 2  (0,5) 2 = 2.18%

Figura 2.2.1
2.2.2 Precisión y Exactitud

Precisión
Es la tolerancia de medida o de transmisión del instrumento, o dicho en otras
palabras, el intervalo donde es admisible que se sitúe la magnitud de la medida, y
define los límites de los errores cometidos cuando el instrumento se emplea en
condiciones normales de servicio durante un periodo de tiempo determinado. Es
estable a lo largo del tiempo.

La repetición, bajo condiciones idénticas, de medidas realizadas con un instrumento


preciso, conduce siempre a la misma lectura. Esto implica una escala clara y bien
definida, que facilita la lectura en todo su rango, y los sistemas eléctricos y
mecánicos del instrumento mantienen sus características a lo largo del tiempo. En
otras palabras, es la tolerancia de la medida o de transmisión del instrumento,
también se dice que define como el intervalo donde es admisible que se sitúe la
magnitud de la medida, y define los límites de los errores cometidos cuando el
instrumento se emplea en condiciones normales de servicio durante un periodo de
tiempo determinado.

Figura 2.2.2

Para explicar el significado de este concepto, se tomara como ejemplo el esquema


de la figura 2.2.2. Supongamos que se realiza una prueba con un instrumento de
temperatura, en la que se mide en distintas ocasiones el mismo valor de
temperatura de entrada, indicada en color verde en la gráfica de la figura 2.2.2. Las
respuestas del sensor de temperatura ante la señal de entrada tienen la forma
indicada por las gráficas azules. La señal de salida real difiere del valor correcto
debido a las imperfecciones inherentes en el control. El grado de aproximación al
cual la señal de salida se aproxima al valor correcto es la precisión.

Hay varias formas de expresar la precisión:

 Tanto por ciento del alcance.


Ejemplo: Se tiene un instrumento con los siguientes datos
Span= 200ºC
Lectura= 150ºC
Precisión= ± 0.5%

Valor real de temperatura= 150 ± 0.5* 200 = 150 ±1 , es decir, entre 149 y 151ºC
100

 Directamente en unidades de la variable medida.


Ejemplo:
Precisión de ± 1ºC.

 Tanto por ciento de la lectura efectuada.


Ejemplo:
Precisión= ± 1%
Lectura=150ºC

Valor real de temperatura= 150 ± 150* 1 = 150 ±1,5


100

 Tanto por ciento del valor máximo del campo de medida.


Ejemplo:
Rango de medición: 1/300ºC
Precisión: ± 0.5%
Lectura:150ºC

Valor real de temperatura= 150 ± 300*0.5 = 150 ±1,5


100

es decir, entre 148,5 y 151,5 ºC

La especificación de precisión por un número deja abierta varias interrogantes


relacionadas mayormente con las condiciones bajo las cuales se determino esta
precisión, como por ejemplo saber si la especificación de precisión dada
corresponde al promedio de un número de lecturas, o es solamente obtenible para
ciertos valores. Para poder dar una indicación práctica de la precisión, deberá
escogerse el valor de precisión que corresponda al valor más alto en toda la escala.
Si esto se hace así, entonces las condiciones a las que se refiere la lectura de
precisión deben ser especificadas.

Hay que señalar que los valores de precisión de un instrumento se consideran en


general establecidos para el usuario, es decir, son los proporcionados por los
fabricantes de los instrumentos. El fabricante especifica la precisión en todo el
margen del instrumento, indicando algunas veces su valor en algunas zonas de la
escala.

Exactitud
Error en el valor de la medida, con respecto a un valor estimado como "verdadero".
Usualmente se la expresa como un porcentaje del valor máximo de la escala en la
que se realiza la medida.
Ejemplo
Un instrumento puede tener gran “precisión”, gracias a que su escala sea distinta
con divisiones muy finas y con fondo de espejo. Sus sistemas internos de alta
calidad garantizan una gran estabilidad a lo largo del tiempo.

Sin embargo al mismo tiempo su “exactitud”, es mala, debido al mal acoplamiento


con el sistema externo (lo carga), mala calibración, desajustes del cero de la
escala, y efectos de ruido externos.

Otro ejemplo, sería que es posible realizar lecturas de escala muy precisas,
considerando medidas de gran concordancia entre sí, pero todas ellas serían
indicaciones inexactas del valor de una corriente, puesto que el uso de un shunt
inadecuado introduce un desplazamiento sistemático de todas las medidas.

Discrepancia
Es la diferencia entre dos valores medidos. La principal dificultad con este concepto,
es la falta de una distinción clara entre discrepancia y error.

Por ejemplo, la discrepancia entre el valor medido para la resistencia por unidad de
longitud de un hilo de cobre estándar y el valor que aparece en las tablas no es
necesariamente un error de medida. Finalmente, si dos personas obtienen
resultados diferentes para la misma cantidad se puede decir que existe diferencia
entre ambos resultados, pero el error introducido por cualquiera de ellos puede ser
mayor que dicha discrepancia.

2.2.3 Rango
Rango del instrumento o Campo de medida: Espectro o conjunto de valores de
la variable medida que están comprendidos dentro de los límites superior e inferior
de la capacidad de medida o de transmisión del instrumento; se expresa
estableciendo los dos valores extremos. En el ejemplo de la figura 2.2.3, el campo
de medida del instrumento de temperatura es de -40/200 F.

Figura 2.2.3.

Es importante distinguir la diferencia entre el rango del instrumento y el rango de


medición de este, ya que este ultimo depende de la escala en la que se esta
utilizando el instrumento para la medición. Para distinguir la diferencia entre ellos
se hará referencia a los esquemas de las figuras 2.2.4 y 2.2.5.

Figura 2.2.4. Figura 2.2.5.

Los esquemas de la figura 2.2.4 y 2.2.5 representan a un indicador de la


temperatura medida por un instrumento. Abajo en la derecha del indicador, existe
un selector de escala, el cual amplifica por uno, dos y cinco el rango de valores
mostrados por el indicador. Para los casos de la figura 2.2.4 y 2.2.5 el rango del
instrumento es el mismo, ya que para ambos indicadores la lectura mínima
corresponde a los 0ºC, mientras que la máxima ocurre cuando la escala de
amplificación es 5, caso en que el instrumento puede sensar 120*5=600 ºC, luego
el rango del instrumento es 0/600ºC. Sin embargo, el rango de medición del caso
de la figura 2.2.4 es distinto que para el caso de la figura 2.2.5. Esto es debido a
que en la figura 2.2.4 la escala de amplificación es uno, y por tanto el instrumento
puede indicar valores de temperatura comprendidos entre 0-120ºC, mientras que
en la figura 2.2.5 la escala de amplificación es dos, por lo que el instrumento puede
indicar valores de temperatura comprendidos entre 0-240 ºC.

2.2.4 Span
Es el rango de la magnitud a medir, que un instrumento puede aceptar sin
problemas en su funcionamiento. Una terminología equivalente utiliza los conceptos
de “límite inferior de operación” y “límite superior de operación”, el span
corresponde a la diferencia algebraica entre estos límites. En el ejemplo de la figura
2.2.3, el Span es de 240 F

El Span depende del rango de medición del instrumento, y por tanto, de la escala
utilizada para medir. La figura 2.2.6 muestra como para un mismo instrumento se
pueden tener distintos valores de Span en función de la escala utilizada.

a) Escala de1 b)Escala de 2 c)Escala de 5


Figura 2.2.6.

2.2.5 Zona muerta:


Es el campo de valores de la variable de entrada que no hace variar la indicación o
la señal de salida del instrumento, es decir, que no produce su respuesta. Viene
dada en tanto por ciento del alcance de la medida. Por ejemplo: Se tienen los
siguientes datos de un instrumento para medición de flujo:

Span = 100 ml/s


Zona muerta = ± 1% Zona muerta = 1*100 ml/s
100

Esto significa que si se debe realizar un control de flujo a 60 ml/s, el flujo actual
puede variar entre 59 y 61 ml/s sin producir cambio alguno en la señal de salida.

Si el flujo ha estado a 59 ml/s al borde inferior de la zona muerta empieza ahora a


aumentar, no se producirá ninguna acción hasta que el flujo sea de 61 ml/s, tal
como se indica en la figura 2.2.7.

Figura 2.2.7.
Esto significa por un lado que la variable controlada es capaz de cambiar a través
de 2 ml/s, sin que haya acción correctiva, y además significa que si el flujo
comienza a aumentar, la acción controladora es demorada. Esto es equivalente a
tiempo muerto, y contribuye a la inestabilidad del circuito de control.

2.2.6 Sensibilidad:
Es la razón entre el incremento de la lectura y el incremento de la variable que lo
ocasiona, después de haberse alcanzado el estado de reposo. Por ejemplo, si en un
transmisor de temperatura de rango 0/200ºC, la temperatura pasa de 70ºC a 75ºC,
y la señal de salida de 8 a mA a 9.6 mA, con un rango de salida de 4-20 mA. ,
entonces:
Variable 70º C 75ºC Variable 8mA 9.6mA
Primaria Span: 200ºC Secundaria Span: 16mA

Sensibilidad = S = ΔVS span out =(9.6- 8) /16 = 1.6 /16 = 0.1 =4


ΔVP span in 4 (75 -70)/200 5/200 0.025
En términos porcentuales, S=400%

2.2.7 Repetibilidad:
La repetibilidad es la capacidad de reproducción de las medidas de la señal de
salida indicadas por el instrumento al medir repetidamente valores idénticos de la
variable en las mismas condiciones de servicio y en el mismo sentido de variación,
recorriendo todo el campo de medida, tal como lo muestra la figura 2.2.8.

Figura 2.2.8.

Se considera en general su valor máximo (repetibilidad máxima) y se expresa en


tanto por ciento del alcance. Para determinar la repetibilidad, el fabricante
comprueba la diferencia entre el valor verdadero de la variable (x) y la indicación o
señal de salida del instrumento recorriendo todo el campo (xi), y partiendo, para
cada determinación, desde el valor mínimo del campo de medida. Así, para una
muestra de N datos, la repetibilidad viene dada por la formula:

( xi  x) 2
 N
2.2.8 Histéresis
La histéresis es la diferencia máxima que se
observa en los valores indicados por el
instrumento para el mismo valor cualquiera del
campo de medida, cuando la variable recorre
toda la escala en los dos sentidos, ascendente y
descendente, tal
como lo muestra la figura 2.2.9.
Se expresa en tanto por ciento del alcance de la medida. Por ejemplo, si se tiene un
instrumento con los siguientes datos:
Histéresis = ± 0.3%
Span = 200ºC
Histéresis del instrumento= ± 0.6ºC

Figura 2.2.9.

2.2.9 Inexactitud:
Para comprender el concepto de inexactitud es necesario primero hacer referencia a
los conceptos de error sistemático y error aleatorio (precisión). El error sistemático
se define como la diferencia entre el valor medio de las mediciones y el valor real
de la magnitud medida, o también, la indicación de cuán cerca está una medición
del valor real de la cantidad medida. La desviación del valor verdadero es un índice
de que tan exactamente se ha llevado a cabo la lectura. El error sistemático se
diferencia de la precisión en que esta última especifica la repetibilidad de un
conjunto de lecturas, hechas cada una en forma independiente con el mismo
instrumento.

Para dar un ejemplo más palpable de la diferencia entre error sistemático y


precisión, considérese el ejemplo de la figura 2.2.10, que corresponde a un juego
de tiros al blanco, en el cual se mide la distancia de los impactos al centro del
objetivo o centro del blanco. Para el caso de la figura 2.2.10 a) no hay una buena
precisión de los tiros, y por ende se tiene una alto error. Pero para el caso de la
figura 2.2.10 b), la precisión de los tiros es buena dado que se tiene una alta
repetibilidad, pero el error sistemático de los tiros aun es alta dado que los tiros
aun se encuentran lejos del blanco. Imagínese ahora un instrumento que tiene un
defecto en su funcionamiento. El instrumento puede estar dando un resultado que
es altamente repetible de medición a medición, pero alejado del valor verdadero,
como lo caso de la figura 2.2.10 b). Los datos obtenidos de este instrumento serían
de alta precisión pero muy erráticos.

a) b)

Figura 2.2.10.

La inexactitud de medición puede ser definida como la suma de los errores


sistemáticos y aleatorios. El error sistemático puede ser minimizado por calibración
del instrumento y por capacitación del operador. La imprecisión en cambio se
reduce por rediseño del instrumento o por medición de la magnitud con otro
instrumento.
Figura 2.2.11.

2.2.10 Preguntas

Marcar la opción correcta en cada aseveración:

1. ¿Cuales de los siguientes términos están involucrados en la precisión?

a. Valor verdadero de una magnitud.


b. Máximo error cometido en una medición.
c. Repetibilidad y estabilidad a lo largo del tiempo.

2. ¿Cuáles de los siguientes términos están involucrados en la exactitud?

a. Valor verdadero de una magnitud y máximo error cometido en un cierto


rango.
b. Calidad del instrumento.
c. Repetibilidad y estabilidad a lo largo del tiempo.

3. ¿Cuáles de los siguientes términos están involucrados en el concepto de


discrepancia?

a. Desacuerdo en el valor verdadero de una magnitud.


b. Diferencia entre dos valores medidos, aunque ambos pueden ser erróneos.
c. Diferencia entre el valor verdadero y el valor medido de una magnitud.

4. ¿Cómo se caracterizan los errores sistemáticos?

a. Son errores inherentes al sistema bajo medida.


b. Son errores que eventualmente se pueden eliminar.
c. Son errores que nunca se pueden eliminar.

5. ¿Cómo se caracterizan los errores residuales?

a. Son aquellos errores que inevitablemente permanecen.


b. Son aquellos errores fácilmente evitables.
c. Son aquellos errores para los cuales el costo de eliminación es prohibitivo.

6. ¿Qué método se recomienda para eliminar los errores de observación?

a. Utilizar un observador con mucha experiencia.


b. Repetir cada medida el mayor número de veces posible.
c. Adherirse a procedimientos establecidos y rígidos de medición, permaneciendo
alerta, e insistiendo en que el trabajo se realice correctamente.

7. ¿Qué se entiende por calibración de un instrumento?

a. Compararlo con otro instrumento de referencia, que se asume muy exacto.


b. Ajustar el cero de su escala.
c. Determinar el valor máximo posible de medir en cada escala.

También podría gustarte