Está en la página 1de 4

UNIDAD I

SENSORES Y MEDICION
 Sistemas analógicos y digitales
 Variables y señales
 Funciones de un sistema de medida
 Curva de calibración
 Errores de exactitud y precisión
 Caracterización de un sensor
 Clasificación de sensores por tipo de señal

Sistemas analógicos y digitales.


Sistema analógico es cualquier sistema cuyas señales se representan con valores continuos,
es decir, que admite números o valores infinitos.
Sistema digital es cualquier sistema que pueda generar, procesar, transmitir o almacenar
señales mediante dígitos y que solo admite valores discretos, es decir, que solo admite un
conjunto limitado de números o valores.
La principal diferencia entre sistema digital y sistema analógico radica en que el primero es
mucho más preciso y la información se puede almacenar de manera más eficiente y en
mayor cantidad que en un sistema analógico.
Variables y señales.
Toda industria que maneja procesos requiere cuantificar las cantidades de productos que
entran o salen de un recipiente, tubería o sencillamente de un espacio limitado por bordes
virtuales, en plantas de procesos por lo general hay que medir también las propiedades
(temperatura, presión, masa, densidad, entre otras).
Estas variables se dividen en:

Variables Analógicas: Son aquellas que toman infinitos valores entre dos puntos
cualesquiera de la misma.
Ejemplo: La temperatura

Variables Digitales: Son aquellas que constituyen un conjunto finito de valores.


Ejemplo: el Sistema Binario
Funciones de un sistema de medida.

Un sistema de medida es un conjunto de elementos cuya función es la asignación objetiva


y empírica de un número a una cualidad o propiedad de un objeto o evento, de tal forma
que la describa.
En un sentido más amplio, una señal es la variación temporal de una magnitud. Así,
podemos hablar de la señal asociada a una tensión, una corriente, una fuerza, una
velocidad, ... Un transductor es un dispositivo que convierte la señal de entrada procedente
de una magnitud física, en una señal de salida asociada a una magnitud física de otro tipo.
Es decir, la señal de entrada y la de salida son de tipos diferentes y están relacionadas por
una ley, normalmente, de proporcionalidad. Siempre se produce una transformación de
energía: Térmica→mecánica, magnética→mecánica, óptica→eléctrica,
mecánica→eléctrica, ... Ejemplo: tensión (mV) fuerza (Nw) Transductor + Fuerza de Tensión
fuerza - tiempo (S) tiempo (S).
Curva de calibración.

La curva de calibración es un método muy utilizado en química analítica para determinar la


concentración de una sustancia en una muestra desconocida, sobre todo en disoluciones.
El método se basa en la relación proporcional entre la concentración y una determinada
señal analítica (propiedad).
Una curva de calibración es una función de transferencia que relaciona la entrada con la
salida. El método se basa en la relación proporcional entre la concentración y una
determinada señal analítica (propiedad).
Ejemplo aplicado a la electrónica
Un sensor de temperatura con rango [-100 ℃ ; 100 ℃] ofrece una relación de 1mV/℃,
la señal tiene que adaptarse mediante un amplificador de ganancia 50 para
un Conversor Analogico/Digital de rango +-5V. La curva de calibración seria la que nos
relaciona el rango del termómetro con el rango de entrada del Conversor
Analogico/Digital.

ERRORES DE EXACTITUD Y PRECISION.

En cualquier actividad científica o técnica es inevitable la existencia


de errores. Puede tratarse de errores de medición o errores de
transcripción, errores de posicionamiento o errores en la variable
medida.

Tan absurdo resultaría negar el error como invertir esfuerzos más


allá de lo razonable para conseguir pequeñas reducciones del mismo
una vez que se ha conseguido una exactitud adecuada para los objetivos
del trabajo. La actitud más razonable es tratar de estimar la magnitud
de los errores cometidos, comunicarlo y tenerlo en cuenta para no
pedirle a los resultados una precisión mayor de la que realmente
pueden ofrecer.

En primer lugar hay que distinguir entre precisión y exactitud.


Precisión es el detalle con el que un instrumento o procedimiento
puede medir una variable mientras que exactitud es lo que se acerca
esta medición al valor real, en SIG el concepto de precisión se relaciona
con el de resolución en formato raster. El error es la diferencia entre el
valor real y el medido, sin embargo puesto que el valor real nunca se
conoce realmente, el error siempre debe estimarse.

Por ejemplo, una regla tiene una precisión de milímetro mientras


que un metro de electricista tiene una precisión de centímetro. Sin
embargo será más exacto medir un muro con un metro que con una
regla ya que el instrumento es más apropiado.

En ocasiones los errores proceden de la utilización de ordenadores


con precisión finita para manejar el espacio que es un continuo. Los
errores en las operaciones en coma flotante de los ordenadores pueden
afectar a los resultados, por ello es recomendable utilizar siempre
números enteros. Por ejemplo, las coordenadas X e Y deberían
expresarse siempre en metros nunca en kilómetros, los valores de las
variables regionalizadas deberían expresarse de forma que no
incluyeran decimales (altitud en centímetros, precipitación en décimas
de milímetro, etc.). De esta manera además de prevenir errores
conseguiríamos que los ficheros ocuparan menos en el disco duro.

También podría gustarte