Está en la página 1de 17

Unidad Orientativa 1

(Instrumentación)

“Generalidades en los sistemas de


medidas y teoría de errores en la
medición”

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Generalidades de los Sistemas de Medida

1. Descripción de un sistema de medida y control.


En todo proceso industrial o no, se presentan innumerables situaciones en las que se necesita conocer el estado o
valor de las variables del proceso con el fin de poder actuar sobre ellas para garantizar obtener los resultados
deseados. En un tanque de agua, por ejemplo (figura 1), existe un proceso que garantiza que siempre haya agua al
nivel deseado. Este proceso está formado por un sistema electrónico o no que registra, capta o sensa el nivel del
agua en el tanque. El resultado puede o no ser visualizado pero su magnitud o valor es proporcional al valor de la
variable física medida: el nivel del agua. Este resultado será utilizado por otro sistema que se encargará de decidir
si el nivel del agua es el adecuado. Finalmente, habrá otro sistema que se encargará de ejecutar la decisión del 2
sistema anterior: Si el nivel del agua es muy baja, abrirá una válvula para subirlo, y si es muy alto, cerrará una
válvula para bajarlo.

2. Identificación del sistema de medida y sus bloques constitutivos.


Un sistema de medida es la combinación de dos o más elementos, subconjuntos y partes necesarias para realizar la
asignación efectiva y empírica de un número a una propiedad o cualidad de un objeto o evento, de tal forma que la
describa [Pallas, Sensores].
Es decir, el resultado dela medida debe ser independiente del observador (objetiva) y basada en la experimentación
(empírica).
Toda medición exige tres funciones básicas: adquirir la información, mediante un elemento sensor o transductor,
procesar dicha información y presentar los resultados, de forma que puedan ser percibidos por nuestros sentidos.
Puede haber, además, transmisión, si cualquiera de estas funciones se realiza de forma remota (figura 2).

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
3
A pesar de que la figura 3 muestra el sistema de medida conformado por diversos subsistemas, no siempre estos
pueden ser identificados como unidades físicas separadas. Por lo que se introduce un concepto más amplio, como el
de interfaz, que no es mas que el conjunto de elementos que modifica las señales pero sin cambiar su naturaleza. De
esta forma la interfaz puede combinar las funciones expresadas en el recuadro de la figura 2 pero en un solo
circuito o en varios circuitos combinados.

2.1. Definición de cada bloque constitutivo:


Transductor: dispositivo que convierte una señal de una forma física en una señal correspondiente pero de otra
forma física.
Se prefieren los transductores electrónicos ya que :
La variación de un parámetro no eléctrico de un material viene acompañada por la variación de un parámetro
eléctrico .
Para no extraer energía del sistema donde se mide es preferible usar componentes electrónicos cuyas señales
pueden ser posteriormente ampliadas.
También es posible agregar múltiples funciones de acondicionamiento.
La transmisión es mucho más versátil.
Un sensor es un dispositivo que , a partir de la energía del medio donde se mide, da una señal transducible que es
función de la variable medida.
Un sensor es un transductor de entrada. Si la conversión de señal es para modificar una condición o parámetro del
sistema, se dice que el transductor es un actuador.
Otra distinción importante es la diferenciación entre el elemento primario y sensor electrónico.
La palabra “elemento primario” se usa a nivel industrial para referirse al dispositivo que está en contacto directo
con el medio que se mide: de hecho es un sensor. En cambio, el sensor electrónico como tal, no tiene por que estar
en contacto con el medio que se mide. En estos casos, el elemento primario convierte la variable de medida en una
señal de medida, y el sensor electrónico convierte esta señal de medida en eléctrica.
Por ejemplo en un medidor de presión diferencial, el elemento primario es un diafragma, y su deformación se mide
con el sensor electrónico.
Acondicionador: son los elementos del sistema de medida que ofrecen, a partir de la señal de salida de un sensor
electrónico, una señal apta para ser presentada o registrada o simplemente permita un procesamiento posterior
mediante un equipo o instrumento estándar. El acondicionador permite: amplificar, filtrar, adaptar impedancias y
modular o demodular.

2.2. Conceptos generales sobre la medida


Los valores comprendidos entre el máximo y mínimo de una magnitud constituye su campo o margen de variación
o medida. El menor cambio que se puede discriminar se denomina resolución.
El cociente entre el margen de medida y la resolución se denomina margen dinámico (MD), y se expresa a menudo
en decibelios.

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Para que un bloque de la figura 3 sea compatible con el siguiente es necesario que el margen dinámico de entrada
del segundo sea igual o mayor que el margen dinámico de salida del primero, y que los niveles de las señales
coincidan.

3. El sensor:
En la sección anterior ya se definió el sensor. Ahora veremos otras cuestiones

3.1. Clasificación.
Según el aporte de energía, los sensores se pueden dividir en moduladores y generadores. En los sensores
moduladores o activos, la energía de la señal de salida procede, en su mayor parte, de una fuente de energía
auxiliar. La entrada sólo controla la salida. En los sensores generadores o pasivos, en cambio, la energía de salida
es suministrada por la entrada. 4
Los sensores moduladores requieren en general más hilos que los generadores, ya que la energía de alimentación
suele suministrarse mediante hilos distintos a los empleados para la señal. Además, esta presencia de energía
auxiliar puede crear un peligro de explosiones en algunos ambientes.

Por contra, su sensibilidad se puede modificar a través de la señal de alimentación, lo que no permiten los sensores
generadores.
Según la señal de salida, los sensores se clasifican en analógicos o digitales. En los analógicos la salida varía, a
nivel macroscópico, de forma continua. La información está en la amplitud, si bien se suelen incluir en este grupo
los sensores con salida en el dominio temporal. Si es en forma de frecuencia, se denominan, a veces, «casi
digitales», por la facilidad con que se puede convertir en una salida digital.
En los sensores digitales, la salida varía en forma de saltos o pasos discretos. No requieren conversión AID y la
transmisión de su salida es más fácil. Tienen también mayor fidelidad y mayor fiabilidad, y muchas veces mayor
exactitud, pero lamentablemente no hay modelos digitales para muchas de las magnitudes físicas de mayor interés.
Atendiendo al modo de funcionamiento, los sensores pueden ser de deflexión o de comparación. En los sensores
que funcionan por deflexión, la magnitud medida produce algún efecto físico, que engendra algún efecto similar,
pero opuesto, en alguna parte del instrumento, y que está relacionado con alguna variable útil. Un dinamómetro
para la medida de fuerzas es un sensor de este tipo en el que la fuerza aplicada deforma un muelle hasta que la
fuerza de recuperación de éste. Proporcional a su longitud, iguala la fuerza aplicada.
En los sensores que funcionan por comparación, se intenta mantener nula la deflexión mediante la aplicación de un
efecto bien conocido, opuesto al generado por la magnitud a medir. Hay un detector del desequilibrio y un medio
para restablecerlo. En una balanza manual, por ejemplo, la colocación de una masa en un platillo provoca un
desequilibrio, indicado por una aguja sobre una escala. El operario coloca entonces una o varias masas en el otro
platillo hasta alcanzar el equilibrio, que se juzga por la posición de la aguja.
Las medidas por comparación suelen ser más exactas porque el efecto conocido opuesto se puede calibrar con un
patrón o magnitud de referencia de calidad.
El detector de desequilibrio sólo mide alrededor de cero y, por lo tanto, puede ser muy sensible y no necesita estar
calibrado. Por contra, tienen en principio menor respuesta dinámica y, si bien se pueden automatizar mediante un
servomecanismo, no se logra normalmente una respuesta tan rápida como en los de deflexión.
Según el tipo de relación entrada-salida, los sensores pueden ser de orden cero, de primer orden, de segundo orden
o de orden superior.

El orden está relacionado con el número de elementos almacenadores de energía independientes que incluye el
sensor, y repercute en su exactitud y velocidad de respuesta. Esta clasificación es de gran importancia cuando el
sensor forma parte de un sistema de control en lazo cerrado. En el cuadro 1.1 se recogen todos estos criterios de
clasificación y se dan ejemplos de sensores de cada clase. Cualquiera de estas clasificaciones es exhaustiva, y cada
una tiene interés particular para diferentes situaciones de medida.
Ahora bien, para el estudio de un gran número de sensores se suele acudir a su clasificación de acuerdo con la

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
magnitud medida. Se habla, en consecuencia, de sensores de temperatura, presión, caudal, humedad, posición,
velocidad, aceleración, fuerza, par, etc. Sin embargo, esta clasificación difícilmente puede ser exhaustiva ya que la
cantidad de magnitudes que se pueden medir es prácticamente inagotable. Piénsese, por ejemplo, en la variedad de
contaminantes químicos en el aire o en el agua, o en la cantidad de proteínas diferentes que hay en el cuerpo
humano y que interesa detectar.

Desde el punto de vista de la ingeniería electrónica, es más atractiva la clasificación de los sensores de acuerdo con
el parámetro variable: resistencia, capacidad, inductancia, añadiendo luego los sensores generadores de tensión,
carga o corriente, y otros tipos no incluidos en los anteriores grupos.

3.2. Interferencias.
Se denomina interferencias o perturbaciones externas aquellas señales que afectan al sistema de medida como
consecuencia del principio utilizado para medir las señales de interés.
Perturbaciones internas son aquellas señales que afectan indirectamente a la salida debidos a su efecto sobre las
características del sistema de medida.
Para medir , por ejemplo una fuerza, se puede usar una galga extensométrica. Esta se basa en la variación de la
resistencia eléctrica de un conductor o semiconductor como resultado de aplicarle un esfuerzo. UN cambio de
temperatura producirá una variación de resistencia, por lo que será una interferencia.. A su vez, para la medida de
los cambios de resistencia hará falta usar un operacional. Ya que los cambios de temperatura también afectan a las
derivas de dicho amplificador y con ellas a la medida, resulta que dichos cambios son también una perturbación
interna

3.3. Compensación de errores:


Los efectos de las perturbaciones internas y externas pueden reducirse mediante una alteración del diseño o a base
de añadir nuevos componentes al sistema. Un método para ello es el denominado diseño con insensibilidad

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
intrínseca. Se trata de diseñar el sistema de forma que sea inherentemente sensible sólo a las entradas deseadas. En
el ejemplo anterior se lograría si se dispusiera de galgas de material con coeficiente de temperatura pequeño. Por
razones prácticas obvias, este método no se puede aplicar en todos los casos.
El método de la realimentación negativa se aplica con frecuencia para reducir el efecto de las perturbaciones
internas, y es el método en el que se basan los sistemas de medida por comparación. Si la realimentación negativa
es insensible a la perturbación considerada y está diseñada de forma que el sistema no se haga inestable, resulta
entonces que la señal de salida no vendrá afectada por la perturbación.
Otra técnica para reducir las interferencias es el filtrado. Un filtro es todo dispositivo que separa señales de acuerdo
con su frecuencia u otro criterio. Si los espectros frecuencia les de la señal y las interferencias no se solapan, la
utilización de un filtro puede ser efectiva. El filtro puede ponerse en la entrada o en una etapa intermedia. En el
primer caso puede ser: eléctrico, mecánico —por ejemplo, para evitar vibraciones—, neumático, térmico —por
ejemplo, un blindaje con masa apreciable para evitar los efectos de las turbulencias al medir la temperatura media
6
de un fluido en circulación— o electromagnético. Los filtros dispuestos en las etapas intermedias son casi sin
excepción filtros eléctricos.
Una última técnica de compensación de perturbaciones es la utilización de entradas opuestas, que se aplica con
frecuencia para compensar el efecto de las variaciones de temperatura. Si, por ejemplo, una ganancia varía con la
temperatura por depender de una resistencia que tiene coeficiente de temperatura positivo, puede ponerse en serie
con dicha resistencia otra que varíe de forma opuesta (con coeficiente de temperatura negativo) y así mantener
constante la ganancia a pesar de los cambios de temperatura.

4. Características estáticas de los sistemas de medida.


En la mayoría de las aplicaciones la variable de medida varia tan lentamente que con conocer las características
estáticas del sensor es suficiente.
Estas características son:

a) Exactitud (accuracy): es la capacidad de un instrumento de dar indicaciones que se aproximen al verdadero


valor de la magnitud medida. El valor exacto se obtiene mediante métodos de medidas validados
internacionalmente. La exactitud de obtiene mediante la calibración estática que no es mas que medir poco a poco
una variable, y se construye entonces el patrón de referencia.
La discrepancia entre el valor correcto y el obtenido es el error. El error puede ser definido como :

a. Error absoluto, como la resta entre el valor obtenido y el valor verdadero


b. Error relativo, como la relación que hay entre el error absoluto y el valor verdadero expresado en tanto por ciento
c. Error referido a fondo escala. Es la forma habitual de expresar el error en los instrumentos y consiste en dividir el
error absoluto entre el fondo escala del instrumento.

El valor medido y su exactitud deben darse con valores numéricos compatibles, de forma que el resultado numérico
de la medida no debe tener mas cifras de las que se puedan considerar validas.
20ºC + 1ºC es correcto
20ºC+0,1ºC incorrecto
20,5 ºC+1ºC incorrecto
20,5ºC+10% incorrecto

b) La precisión es la cualidad que caracteriza la capacidad de un instrumento de medida de dar el mismo valor de
la magnitud medida, al medir varias veces en unas mismas condiciones determinadas, prescindiendo de su
concordancia o discrepancia con el valor real de dicha magnitud.

c) La sensibilidad o factor de escala es la pendiente de la curva de calibración , que puede ser o no constante a lo
largo de la escala de medida

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
La sensibilidad en un punto cualquiera x0 viene dada por:

S(x0) = dy/dx (evaluado en x = x0)


En los sensores se desea una alta sensibilidad y constante.

d) Linealidad expresa el grado de coincidencia entre la curva de calibración y una línea recta determinada. Hay
varios tipos de linealidad:

i. Linealidad independiente: la línea de referencia se obtiene por el método de los mínimos cuadrados.
ii. Linealidad ajustada al cero: mínimos cuadrados pero que pase por cero
iii. Linealidad terminal
iv. Linealidad a través de los extremos.
7
v. Linealidad teórica: la recta es la definida por las previsiones teóricas formuladas al diseñar el sensor.

En los sistemas de medida es mas importante la precisión que la linealidad ya que la linealidad se puede corregir
mediante programación, pero la precisión depende del método de medida.

e) Resolución: es el incremento mínimo de la entrada para el que se obtiene un cambio en la salida.

f) Histéresis se refiere a la diferencia en la salida para una misma entrada, según la dirección en que se alcance.

5. Características dinámicas.
La presencia de inercias, capacidades, y en general , de elementos que almacenen energía, hace que la respuesta de
un sensor a señales de entrada variable sea distinta a la que presenta cuando las señales de entrada son constante,
descrita mediante las características estáticas..
La descripción se hace aquí mediante las características dinámicas:

Ø Error dinámico: es la diferencia entre el valor indicado y el valor exacto de la variable medida, siendo nulo el
error estático.
Ø LA velocidad de respuesta: indica la rapidez con que el sistema de medida responde a los cambios en la variable
de entrada

La parte analógica de los sistemas de medidas mas simples se describe con un modelo matemático que consiste en
una ecuación diferencial lineal con coeficiente constantes. La relación entre la salida y la entrada viene dada por la
función de transferencia, que es el cociente entre las respectivas transformadas de Laplace. El orden de la función
de transferencia coincide con el número de elementos independientes que almacenan energía en el sistema físico,
en cualquiera de sus formas (bobina, condensador, muelle, masa inercial, etc.).
La mayoría de los sensores se pueden describir con modelos de orden cero, uno o dos, y respuesta de tipo pasa
bajo. La respuesta del resto de los elementos analógicos de un sistema de medida no debe modificar la salida del
sensor más que con la contribución de una ganancia y una conformación de la respuesta en frecuencia, por ejemplo
para eliminar interferencias.

6. Características de entrada.
Las características estáticas y dinámicas no modelan en forma completa los sistemas de medida. Está el efecto de
carga que ejerce el sistema sobre el proceso bajo análisis. Cuando se definió el sistema de medida se comentó que
el sensor tomaba energía del medio. Esta toma de energía altera de alguna forma el medio. Luego se puede hablar
de error de carga como aquel relacionado con la alteración de la variable medida debido al sistema de medida
utilizado.
En el caso de sensores eléctricos, este fenómeno queda descrito por la impedancia de entrada.

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
El valor de esta variable para reducir su efecto sobre la variable a medir queda determinado por el tipo de variable a
medir. Si la variable a medir se mide entre dos puntos o dos regiones del espacio, se dice que son variables de
esfuerzo, y en ese caso se requiere que la impedancia de entrada del sistema de medida sea alta. Si la variable a
medir se pide en un punto o región del espacio se dice que son variables de flujo, en cuyo caso se requiere que la
impedancia d entrada sea baja.
Esto se entiende mejor si analizamos el método para medir tensión y corriente. La tensión se mide entre dos puntos,
y por tanto es una variable de esfuerzo: por ello se requiere que el voltímetro tenga una impedancia de entrada
elevada. En cambio, si se requiere medir corriente, se intercala una resistencia en el hilo de conexión midiéndose la
corriente en un punto: por tanto es una variable de flujo y por tanto la impedancia del amperímetro será baja.

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
TEORIA DE ERRORES EN LAS MEDICIONES
La teoría de errores constituye una rama del conocimiento científico que, a los efectos de la enseñanza, queda en un
terreno intermedio entre el de las teorías científicas y el de la práctica experimental.
En cursos teóricos (Teoría de los Números Aproximados, Cálculo Diferencial, Estadística) se analizan, en forma
disgregada, elementos de la Teoría de Errores (confiabilidad de las cifras, cálculo con cantidades pequeñas,
desviaciones probables, etc.), con un enfoque más cercano a los muestreos poblacionales de parámetros sociales y
económicos que al de la instrumentación científica. Por otra parte, en los laboratorios docentes la preocupación
fundamental de los profesores radica en las técnicas Instrumentales y en la verificación experimental de leyes,
analizadas en los cursos teóricos de la ciencia correspondiente. En cada experimento se sugiere al estudiante
valorar los errores que más influyen en él, explicitando estos en cada caso: a veces, errores casuales, a veces,
9
sistemáticos rectificables; otras veces, errores de apreciación de los instrumentos; otras, los de método. Y el
estudiante va adquiriendo una visión fragmentada de todos los tipos de errores, pero sin una clara noción de cómo
se vinculan, y cuándo tener en cuenta sólo a unos y no a los otros.
Los métodos para procesar todos estos tipos de errores se van analizando también disgregadamente, de acuerdo con
cada experimento específico estudiado, y de acuerdo con el enfoque del profesor de cada laboratorio.
En fin de cuentas, el modo de evaluar los errores y el de procesarlos es, a veces, tan variado como lo sean los
profesores por los que ha pasado un estudiante. Y se espera que éste, ya sea científico o ingeniero, adquiera la
formación correcta en el tratamiento de los errores de medición.
Un paso fundamental en la enseñanza de un tema, o asignatura, con enfoque sistemático, es dejar establecida al
inicio, en forma de recuadro, la estructura completa del contenido a tratar, que muestre los vínculos y engranajes de
unas partes con otras, y explicar, sin profundidades, en qué consiste cada parte. Después, durante el curso, se
estudia cada parte consignada en el recuadro inicial, que se retoma durante el curso tantas veces como se requiera.

Incertidumbre de las Medidas


La limitación de los elementos físicos disponibles para realizar un sistema de medida hacen que las señales de
salida discrepen de las que se obtendrían con un sistema ideal. Estas discrepancias se denominan errores y, dado
que algunas de ellas son inevitables, el objetivo es reducirlas de modo que a partir de la salida se pueda determinar
el valor de la entrada con una incertidumbre aceptable. El número de cifras con que se exprese un resultado debe
concordar con la incertidumbre que tenga asociada.
os errores de un sistema se determinan a partir de su calibración, que consiste en aplicarle entradas conocidas y

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
comparar su salida con la obtenida con un sistema de medida de referencia, más exacto.
Las medidas nunca permiten obtener el “verdadero valor” de la magnitud que se mide. Esto es debido a multitud de
razones. Las más evidentes son las imperfecciones, inevitables en un cierto grado, de los aparatos y de nuestros
sentidos. El “verdadero valor” de una magnitud no es accesible en la realidad y por ello resulta más propio hablar
de estimaciones, medidas o aproximaciones del valor de una magnitud. Independientemente de estas
consideraciones, en el ámbito de la Instrumentación se sabe que no tiene sentido hablar del valor de una magnitud,
sino sólo de la probabilidad de obtener uno u otro valor en una determinada medida de esta magnitud. Esto no es el
resultado de las imperfecciones de los aparatos, sino de la propia esencia de la naturaleza. Este carácter
probabilístico de las magnitudes se hace patente a nivel microscópico.
La consecuencia de las consideraciones anteriores, es que toda medida es incierta o está dotada de un cierto grado
de incertidumbre. Es esencial estimar ésta incertidumbre, primero porque el conocimiento de la incertidumbre
aumenta la información que proporciona la medida, y segundo, porque este conocimiento permite manejar las
10
medidas con la prudencia que dicta el conocimiento de la confianza que nos merecen.
Cuando se exprese el resultado de una medida es pues necesario especificar tres elementos: número, unidad e
incertidumbre. La ausencia de alguna de ellas elimina o limita la información que proporciona.
Según su naturaleza los errores pueden ser sistemáticos o aleatorios.

Error Sistemático
Un error sistemático tiene siempre la misma amplitud cuando las condiciones del sistema son las mismas, o bien
varía de acuerdo con una ley conocida cuando una de dichas condiciones cambia de una forma predeterminada.
Pueden surgir de emplear un método inadecuado, un instrumento defectuoso o bien por usarlo en condiciones para
las que no estaba previsto su uso. Por ejemplo, emplear una regla metálica a una temperatura muy alta, puede
introducir un error sistemático si la dilatación del material hace que su longitud sea mayor que la nominal. En este
caso, todas las medidas pecarán (sistemáticamente) por defecto. El error podría evitarse eligiendo un material de
coeficiente de dilatación bajo o controlando la temperatura a la que se mide.
Un error sistemático por ejemplo, son las resistencias reales del modelo del sistema de medida y que se suman o
interfieren en el proceso de medida.
Medir temperaturas con un termómetro graduado en grados Farenhait, suponiendo por equivocación que está
graduado en grados Celsius, introduce también un error sistemático en la medida. El error se evita en este caso
recabando información sobre la escala del termómetro.
Los errores sistemáticos no son objeto de la teoría de errores. Realmente son equivocaciones que pueden y deben
evitarse, empleando métodos e instrumentos de medida correctos y adecuados a los fines que se deseen obtener.

Error Aleatorio
Un error aleatorio tiene una magnitud que cambia de unas a otras ocasiones a pesar de que las condiciones del
sistema sean las mismas.
Los errores aleatorios se manifiestan cuando se mide repetidamente la misma magnitud con el mismo instrumento y
el mismo método, y presentan las siguientes propiedades:

_Los errores aleatorios positivos y negativos de igual valor absoluto tienen la misma probabilidad del producirse.
_Los errores son tanto menos probables cuando mayor sea su valor.

Al aumentar el número de medidas, la media aritmética de los errores aleatorios de una muestra tiende a cero.
Para un método de medida determinado, los errores aleatorios no exceden de cierto valor. Las medidas que lo
superan deben repetirse y, en su caso, estudiarse por separado.
La calibración permite corregir los errores sistemáticos y estimar la magnitud de los errores aleatorios (pero no
corregirlos).

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Errores Estáticos y Errores Dinámicos
Según que se manifiesten cuando las señales de entrada son lentas o rápidas, los errores se denominan estáticos o
dinámicos.
Un error estático afecta a las señales lentas, por ejemplo de frecuencia inferior a 0,01 Hz. Un error dinámico afecta
a las señales rápidas, y es una consecuencia de la presencia de elementos que almacenan energía. Dado que en la
respuesta dinámica se consideran dos fases, la respuesta transitoria y la respuesta estacionaria, se habla de error
dinámico transitorio y error dinámico estacionario.
El error dinámico de un sistema depende de su orden y de la forma de la señal de entrada. Las señales consideradas
habitualmente son el escalón, la rampa y las senoidales. Los sistemas de orden cero no tienen error dinámico. Los
sistemas de primer y de segundo orden tienen un error dinámico para las entradas en rampa y senoidales, incluso en
régimen estacionario, y tienen un error dinámico para las entradas en escalón sólo durante la fase transitoria. En los
sistemas de segundo orden la fase transitoria dura tanto más cuanto menor sea el amortiguamiento. El error
11
dinámico para entradas senoidales incluye un retardo y un error de amplitud, pero normalmente al hablar de error
dinámico se suele sobrentender el error de amplitud.

Forma de expresar los errores


La magnitud de un error se puede expresar como error absoluto, como error relativo o como error referido a fondo
escala. El error absoluto es la diferencia entre el resultado y el verdadero valor (o valor ideal). El error relativo es el
cociente entre el error absoluto y el verdadero valor. El error absoluto se expresa a veces como porcentaje de una
magnitud de referencia, por ejemplo el valor de fondo de escala. La elección de una u otra forma de expresión
depende del tipo de error.

Error Absoluto
Por motivos obvios, y por su propia naturaleza, no es posible determinar exactamente un error. En el mejor de los
casos, puede llegarse a una estimación de ese error. Cuando el resultado de una medida se expresa por:

o que se quiere decir es que la magnitud medida se encuentran en el intervalo con una determinada probabilidad.
Con una medida logramos acotar el intervalo de valores en los que se encuentra la magnitud que pretendemos
medir, pero siempre con una determinada probabilidad. Es evidente que el error expresado por es una magnitud de
la misma clase que la medida y se expresa por tanto con la misma unidad. También es claro que en las medidas de
calidad normal el error debe ser mucho menor que el valor nominal, x. Por definición es siempre positivo.

Error Relativo
El error definido arriba se llama error absoluto. Tiene también interés el error relativo, que se define como el
cociente del error absoluto, dividido por x.

En medidas de una cierta calidad el error relativo debe ser mucho menor que la unidad. Frecuentemente se expresa
multiplicado por 100, con lo que aparece en tanto por ciento del valor medido:

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Cifras significativas
Se considera que las cifras significativas de un número son aquellas que tienen significado real o aportan alguna
información. Las cifras no significativas aparecen como resultado de los cálculos y no tienen significado alguno.
Las cifras significativas de un número vienen determinadas por su error. Son cifras significativas aquellas que
ocupan una posición igual o superior al orden o posición del error.
Por ejemplo, consideremos una medida de longitud que arroja un valor de 5432,4764 m con un error de 0,8 m. El
error es por tanto del orden de décimas de metro. Es evidente que todas las cifras del número que ocupan una
posición menor que las décimas no aportan ninguna información. En efecto, ¿qué sentido tiene dar el número con
precisión de diezmilésimas si afirmamos que el error es de casi 1 metro?. Las cifras significativas en el número
serán por tanto las que ocupan la posición de las décimas, unidades, decenas, etc, pero no las centésimas, milésimas
y diezmilésimas. Cuando se expresa un número debe evitarse siempre la utilización de cifras no significativas,
puesto que puede suponer una fuente de confusión. Los números deben redondearse de forma que contengan sólo
12
cifras significativas. Se llama redondeo al proceso de eliminación de cifras no significativas de un número.
Una última forma de expresar el error de un número consiste en afirmar que todas sus cifras son significativas. Esto
significa que el error es del orden de media unidad de la última cifra que se muestra. Por ejemplo, si el resultado de
una medida de longitud es de 5432,8 m, y afirmamos que todas las cifras son significativas, quiere decirse que el
error es del orden de 0,5 m, puesto que la última cifra mostrada es del orden de las décimas de metro.

¿Cómo pueden determinarse las cifras significativas a partir del número que expresa el error?. Hay que tener
siempre presente que todo error es una estimación y está por tanto sujeto a su vez a una incertidumbre,
generalmente grande. Por esto no tiene sentido especificarlo con excesiva precisión. Salvo casos excepcionales, se
expresará con una sola cifra significativa. Sobre cómo redondear números, consultar la sección.

Redondeo de Números
Hemos visto que todos los números resultantes de una medida tienen una cierta incertidumbre. Es necesario
eliminar de estos números aquellas cifras que carecen de significado porque el error es mayor que lo que estas
cifras significan.
Las reglas que se emplean en el redondeo de números son las siguientes:

Ø Si la cifra que se omite es menor que 5, se elimina sin más.


Ø Si la cifra eliminada es mayor que 5, se aumenta en una unidad la última cifra retenida.
Ø Si la cifra eliminada es 5, se toma como última cifra el número par más próximo; es decir, si la cifra retenida es
par se deja, y si es impar se toma la cifra superior.
Ø Algunos ejemplos. Si redondeamos 3,678 a tres cifras significativas, el resultado es 3,68, que está más cerca del
original que 3,67. En cambio si el número a redondear, también a tres cifras, fuera 3,673, quedaría 3,67 que es
más próximo al original que 3,68. Para redondear 3,675, según la tercera regla, debemos dejar 3,68.
Las dos primeras reglas son de sentido común. La tercera es un convenio razonable porque, si se sigue siempre, la
mitad de las veces redondeamos por defecto y la mitad por exceso.
Cuando los números a redondear sean grandes, las cifras eliminadas se sustituyen por ceros. Por ejemplo, el
número 3875 redondeado a una cifra significativa resulta 4000. En este caso suele preferirse la notación
exponencial, puesto que si escribimos ``4000'' puede no estar claro si los ceros son cifras significativas o no.

Errores de cero, ganancia y de no linealidad


Según su efecto en la característica de transferencia, los errores pueden ser de cero, de ganancia y de no linealidad.
Un error de cero permanece constante con independencia del valor de la entrada. Un error de ganancia es

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
proporcional al valor de la entrada. Un error de no linealidad hace que la característica de transferencia se aparte de
una línea recta (suponiendo que sea ésta la característica ideal).

13

Los errores de cero y de no linealidad se suelen expresar como errores absolutos. Los errores de ganancia se suelen
expresar como errores relativos. Dado que normalmente hay errores de todos los tipos, la expresión de la
incertidumbre o error total suele incluir un término constante y otro que depende del resultado.

Estimación del Error de una Medida Directa


La estimación del error de una medida tiene siempre una componente subjetiva. En efecto, nadie mejor que un
observador experimentado para saber con buena aproximación cuál es el grado de confianza que le merece la
medida que acaba de tomar. No existe un conjunto de reglas bien fundadas e inalterables que permitan determinar

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
el error de una medida en todos los casos imaginables. Muchas veces es tan importante consignar cómo se ha
obtenido un error como su propio valor.
Sin embargo, la aplicación de algunos métodos estadísticos permite objetivar en gran medida la estimación de
errores aleatorios. La estadística permite obtener los parámetros de una población (en este caso el conjunto de todas
las medidas que es posible tomar de una magnitud), a partir de una muestra (el número limitado de medidas que
podemos tomar).

Mejor valor de un conjunto de Medidas


Supongamos que medimos una magnitud un número n de veces. Debido a la existencia de errores aleatorios, las n
medidas serán en general diferentes.
El método más razonable para determinar el mejor valor de estas medidas es tomar el valor medio. En efecto, si los
errores son debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer la media se
14
compensarán, por lo menos parcialmente. El valor medio se define por:

y este es el valor que deberá darse como resultado de las medidas.

Dispersión y Error. Desviación Estándar


Evidentemente, el error de la medida debe estar relacionado con la dispersión de los valores; es decir, si todos los
valores obtenidos en la medición son muy parecidos, es lógico pensar que el error es pequeño, mientras que si son
muy diferentes, el error debe ser mayor.
Adoptando un criterio pesimista, podría decirse que el error es la semi diferencia entre el valor máximo y el
mínimo.
Este error es sin embargo excesivamente grande, además de que el criterio utilizado es discutible. Parece más
apropiado tomar como error la desviación media, es decir, el valor medio de la diferencia de los datos respecto al
valor central. Sin embargo, como los datos difieren tanto por defecto como por exceso del valor medio, tal
desviación se aproximaría a cero. Para evitarlo suele tomarse, no el valor medio de las desviaciones, sino el valor
medio de las desviaciones al cuadrado. De esta forma todos los sumandos son positivos. Para que la unidad de este
número sea homogénea con la de los datos, se extrae la raíz cuadrada. El valor resultante se llama desviación típica
o desviación estándar del conjunto de datos.

Cuando el número de datos es pequeño, suele preferirse el cálculo de la desviación estándar por la ecuación:

La primera suele llamarse desviación estándar de población, y la segunda desviación estándar muestral. Uno de los
motivos de preferir la segunda, es que cuando medimos una sola vez, el resultado de la ecuación 6 es , es decir un
número indefinido. Efectivamente, midiendo una magnitud una sola vez, no tenemos información alguna sobre su
error, y por lo tanto éste debe permanecer indefinido. Sin embargo la expresión 5 conduciría a un error nulo.
Las dos expresiones se emplean, aunque en la práctica, y si el número de medidas es grande, la diferencia entre
emplear una u otra es muy pequeña. La más empleada es la segunda, ecuación 6 y es la que usaremos nosotros.

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Significado de la Desviación Estándar. La Distribución Normal
Los valores de la desviación estándar que hemos calculado en la sección anterior, son realmente estimadores de
este parámetro. El conjunto de las medidas de una magnitud, siempre que exista un error accidental, pueden
caracterizarse por medio de una distribución estadística. Cuando el error es debido a un gran número de pequeñas
causas independientes, la distribución se aproxima a la llamada distribución normal.
La forma de representar en estadística una distribución es representando en abscisas el conjunto de valores que
pueden obtenerse en una medida y en ordenadas la probabilidad de obtenerlos. En el caso de que la magnitud
medida varíe de forma continua, en ordenadas se representa la probabilidad por unidad de intervalo de la magnitud
medida.
La función de densidad de la distribución normal tiene el aspecto reflejado en la figura 4. Recibe también el
nombre de campana de Gauss debido a su forma. Está caracterizada por dos parámetros: media y desviación
estándar. La media es el valor que con mayor probabilidad aparecerá en una medida. La desviación estándar refleja
15
lo abierta o cerrada que es la campana de Gauss correspondiente. Una distribución muy cerrada se corresponde con
una serie de medidas muy poco dispersas, y por tanto con poco error. Por el contrario si la distribución es abierta, la
desviación estándar es grande.
Una de las propiedades de la distribución normal es que la probabilidad que encierra en el intervalo es del 68.3 %
aproximadamente. Es decir, es de esperar que el 68.3 % de las medidas de una magnitud estén comprendidas en ese
intervalo. Dicho de otra forma, si medimos una magnitud un número grande de veces, el 68.3 % de los valores
obtenidos estarán comprendidos en el entorno de una desviación estándar en torno a la media. La probabilidad se
amplía al 95.4 % y al 99.7 % si consideramos los intervalos y respectivamente.

Figura 4: Función de densidad de una distribución normal

El error expresado por la desviación estándar tiene por tanto un significado probabilístico: hay una probabilidad del
68% de que una medida esté en el entorno de una desviación estándar alrededor de la media.
La distribución normal aparece con frecuencia en las medidas de magnitudes, pero no siempre. La distribución de
una serie de medidas se aproxima a una normal siempre y cuando la fuente de error sea la superposición de muchas
pequeñas causas independientes. Si hay una o varias causas de error predominantes o si las causas de error no son

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
independientes, se dice que las medidas presentan un sesgo, y la distribución puede muy bien ser otra. Es muy
frecuente encontrar distribuciones de medidas no simétricas, con dos o más máximos, etc.
Conviene insistir finalmente en que no es posible determinar la media y la desviación estándar de una distribución,
sino solamente estimarlas.

Medidas sin dispersión. Error de lectura o instrumental


En ocasiones la repetición de la medida de una magnitud conduce siempre al mismo valor. Como ejemplo,
consideremos la medida de la longitud de un objeto con una regla graduada en milímetros. Si la medida se realiza
con cierta atención, todas las medidas del objeto proporcionan el mismo valor. Es evidente que en este caso la
teoría anterior no resulta aplicable, porque al ser nula la dispersión, la desviación estándar resulta igual a cero. En
estos casos, la fuente de error no está en la superposición de muchas causas aleatorias, sino en la sensibilidad del
aparato de medida.
16
En efecto, el hecho de que todas las medidas sean iguales no indica en general que no haya error accidental, sino
que éste es demasiado pequeño para quedar reflejado en el aparato. En el ejemplo anterior, si el error accidental de
las medidas es del orden de 0,001 mm es evidente que la regla no podrá apreciarlo, resultando todas las medidas
iguales. En estos casos es necesario estimar el error debido a la sensibilidad finita del aparato de medida.
Se llama sensibilidad de un aparato a la mínima variación de la magnitud medida que es capaz de detectar. En los
instrumentos analógicos coincide frecuentemente con la mínima división de la escala. En el ejemplo anterior la
sensibilidad de la regla es de 1 mm.
Suele llamarse apreciación al máximo error que puede cometerse debido a la sensibilidad del aparato.
Generalmente se considera como la mitad de la sensibilidad. Esto puede comprenderse con un ejemplo.
Supongamos un voltímetro de 0,1 V de sensibilidad, cuya aguja indica una tensión comprendida entre 2,1 V y 2,2
V, es decir, la aguja señala un punto intermedio entre las dos marcas o divisiones de la escala. Si el aparato está
bien diseñado, una persona con apreciación visual media debe ser capaz de decidir si la aguja está más cerca de 2,1
V o de 2,2 V. Cometeremos el máximo error cuando la aguja se encuentre justamente en el centro de las dos
divisiones. En tal caso el error de dar como lectura 2,1 V o 2,2 V es de 0,05 V, es decir la mitad de la sensibilidad.
Hemos visto que cuando el error instrumental es mucho mayor que el accidental, éste queda enmascarado por
aquel. El efecto inverso es también posible. Por tanto, en los casos en que el error accidental de una medida sea
mucho mayor que el instrumental, sólo consideraremos el error accidental.

Propagación de Errores
Las operaciones matemáticas con números inciertos dan lugar a resultados también inciertos, y es importante poder
estimar el error de los resultados a partir de los errores de los números con los que se opera.
Consideremos un ejemplo sencillo para ilustrar este tema. Supongamos que se mide el lado (x) de una parcela de
terreno cuadrada, y a partir de esta medida quiere obtenerse su superficie (y). La medida del lado llevará aparejada
un error, que puede ser de origen accidental, instrumental o combinación de ambos. Admitamos que el lado mide 8
m y que el error es de 1 m. El valor de la superficie es por tanto de 64 m2, y estamos interesados en estimar su
error.
El error en la medida del lado puede interpretarse como el radio de un entorno alrededor del valor nominal, en cuyo
interior estará el valor del lado con una determinada probabilidad. Si proyectamos este entorno sobre la curva
obtendremos otro entorno en el eje de ordenadas que representa el error de la superficie. Inspeccionando la figura
llegamos a la conclusión de que el error de la superficie es de algo más de 15 m2.
En una medida de precisión normal, el error es lo suficientemente pequeño como para poder sustituir la curva por la
recta tangente a la curva. La relación entre el error de y y el error de x será entonces la pendiente de la curva en el
punto de interés. Como el valor del lado es 8, el error de la superficie (y) es 16 veces el error del lado.
En un caso más general tendremos dos o más variables en lugar de sólo una. Por ejemplo, si la parcela anterior es
rectangular en vez de cuadrada, la superficie es función de dos variables: la base (x) y la altura (y). La medida de
cada una de estas dos variables tendrá un cierto error, que se propagará al valor de la superficie: S=x.y.

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres
Fin 1era Parte

(Suscríbete a las actualizaciones del sitio)

17

Generalidades en los sistemas de medida y teoría de errores en la medición – Modulo Instrumentación


Autor: Ing. Martin A. Torres

También podría gustarte