Está en la página 1de 8

Rango: La región entre los límites dentro de los cuales una cantidad es medida, recibida o

transmitida, expresada por rango de valores inferiores y superiores.


Ejemplo: Un transmisor de temperatura es calibrado para un rango de 20C a 100C Valores
máximo y mínimo del rango: Los valores mas altos y más bajos que son ajustados para las
medidas. Valor mínimo (LRV), Valor máximo (URV).
Estos son ajustados para cumplir los requerimientos de forma tal que el instrumento sea
óptimo con respecto a la exactitud, sensitividad y lectura.
Rango máximo y mínimo límite: Las cantidades mas altas y más bajas que pueden ser ajustadas
para medir.

Alcance: descripción del trabajo requerido para entregar el producto, servicio o resultado del


proyecto. guía al director del proyecto en las decisiones de añadir, cambiar o eliminar trabajo
del proyecto. el alcance del proyecto, junto con los costes y tiempos conforman la triple
restricción en la gestión de proyectos.  en otras palabras podemos definir como alcance del
proyecto como la combinación de los objetivos del proyecto más el trabajo necesario para
alcanzar dichos objetivos (suma de productos y servicios que deben ser realizados en el
proyecto). Como por ejemplo: esarrollar una descripción detallada del proyecto y del
producto. la preparación de una declaración detallada del alcance del proyecto es fundamental
para su éxito, y se elabora a partir de los entregables principales, los supuestos y las
restricciones que se documentan durante el inicio del proyecto. durante el proceso de
planificación.

Rango sobre cero:


Rango sin cero: Es aquel cambio de medida en el que el valor cero de la varible o señal medida
es menor que el valor inferior del campo. Puede expresarse en unidades de la variable medida
o en porcentaje del alcance.

Elevación del cero:

Es aquel campo de medida en el que el valor cero de la variable o señal medida es mayor que
el valor inferior del campo. Ejemplo: -10°C a 30°C. Puede expresarse en unidades de la variable
medida o en porcentaje del alcance.

Precisión:

Se define como el grado de repetición de valores obtenidos al medir la misma cantidad. No


significa que las medidas realizadas sean exactas. La precisión es la tolerancia de medida del
instrumento (intervalo donde es admisible que se sitúe la magnitud de la medida), y define los
límites de los errores cometidos cuando el instrumento se emplea en condiciones normales de
servicio durante un periodo de tiempo determinado (normalmente 1 año).

La precisión es la tolerancia de medida o de transmisión del instrumento y define los límites


de los errores cometidos cuando el instrumento se emplea en condiciones normales de
servicio. Hay varias formas para expresar la precisión:

a) Tanto por ciento del alcance. Ejemplo: en el instrumento de la figura 3, para una lectura
de 150 °C y una precisión de ± 0,5 % el valor real de la temperatura estará comprendido
entre 150 ± 0,5 X 200/100 = 150 ± 1, es decir, entre 149 y 151 °C;

b) Directamente, en unidades de la variable medida. Ejemplo: Precisión de ± 1°C;

c) Tanto por ciento de la lectura efectuada. Ejemplo: Precisión de ± 1 % de 150 °C, es decir
± 1,5 °C;
d) Tanto por ciento del valor máximo del campo de medida. Ejemplo: Precisión de ±: 0,5 %
de 300 °C = ± 1,5 °C;

e) Tanto por ciento de la longitud de la escala. Ejemplo: Si la longitud de la escala del


instrumento de la figura 4.3 es de 150 mm., la precisión de ± 0,5 % representará ± 0,75
mm. en la escala.

La precisión varía en cada punto del campo de medida si bien, el fabricante la especifica en
todo el margen del instrumento indicando a veces su valor en algunas zonas de la escala. Por
ejemplo: un manómetro puede tener una precisión de ± 1 % en toda la escala y de ± 0,5 %
en la zona central.

Cuando se desea obtener la máxima precisión del instrumento en un punto determinado de


la escala, puede calibrarse únicamente para este punto de trabajo, sin considerar los valores
restantes del campo de medida. Por ejemplo: un termómetro de 0~150 °C y de ± 1 % de
precisión situado en un baño de temperatura constante a 80 °C, puede ser calibrado a este
valor, de modo que su precisión en este punto de trabajo será la máxima que se pueda
obtener con un termómetro patrón. Es obvio que para los valores restantes, en particular los
correspondientes a los extremos de la escala, la precisión se apartará de ± 1 %.

Hay que señalar que los valores de precisión de un instrumento se consideran en general
establecidos para el usuario, es decir, son los proporcionados por los fabricantes de los
instrumentos. Sin embargo, estos últimos suelen considerar también los valores de
calibración en fábrica y de inspección. Por ejemplo, un instrumento que en fábrica tiene una
precisión de calibración de ± 0,8 %, en inspección le corresponde ± 0,9 % y la dada al
usuario es ± 1 %.

Con ello se pretende tener un margen de seguridad para compensar los efectos de las
diferencias de apreciación de las personas que efectúan la calibración, las diferentes
precisiones de los instrumentos de medida utilizados, las posibles alteraciones debidas al
desplazamiento del instrumento de un punto a otro, los efectos ambientales y de
envejecimiento, etc.

Exactitud:

Grado de conformidad de la salida de un instrumento de medida con el valor ideal de la


variable medida. Define los límites de errores que se cometen cuando un instrumento se
utiliza bajo condiciones de referencia. Como una especificación de funcionamiento, la
exactitud debe asumirse como una “exactitud de referencia”.
Error de medida:

Todas las medidas vienen condicionadas por posibles errores experimentales (accidentales y
sistemáticos) y por la sensibilidad del aparato. Es imposible conocer el "valor verdadero" (x) de
una magnitud. La teoría de errores acota los límites entre los que debe estar dicho valor, x. El
error en las medidas tiene un significado distinto a "equivocación": el error es inherente a todo
proceso de medida. Por ejemplo, todos los instrumentos de medición tienen un rango de error
de medida.

Grado de incertidumbre:

Forma de medida para la dispersión de los valores que pueden ser atribuidos razonablemente
al verdadero valor de la magnitud medida. Por ejemplo, en una probeta, es casi seguro de que
aunque minimo, hay un rango en el que una medida es aceptada como 6, ese rango tiene el
grado de incertidumbre.

Precisión de referencia o tolerancia:

Es el intervalo de valores en el que debe encontrarse dicha magnitud para que se acepte como
válida. Cada vez que hay que decidir si el valor concreto de una magnitud está dentro de
tolerancia, es preciso medir, y si la medida de comprobación no se asegura con la calidad
necesaria (incertidumbre) aquella decisión puede ser errónea.

Cuando el intervalo de incertidumbre está contenido en el intervalo de tolerancia, se está en


condiciones de afirmar, casi con seguridad, que el valor verdadero del mensurando es
admisible. Cuando los intervalos de incertidumbre y de tolerancia son disjuntos, hay seguridad
casi total en rechazar el mensurando. Cuando los intervalos de incertidumbre y de tolerancia
se solapan en parte, es decir, cuando poseen una parte común y otra no común, la
determinación de aceptación o rechazo es dudosa.

Repetitibidad (reproductibilidad):

Repetibilidad y reproducibilidad son los dos componentes de precisión en un sistema de


medición. Para evaluar la repetibilidad y reproducibilidad, utilice un Estudio R&R del sistema
de medición. (Estadísticas > Herramientas de calidad > Estudio del sistema de medición).

Repetibilidad
Capacidad de un operador para repetir de manera uniforme la misma medición de la misma
pieza, utilizando el mismo sistema de medición, bajo las mismas condiciones.

El operador 1 mide una pieza con un sistema de medición A 20 veces y luego mide la misma
pieza con el sistema de medición B.
La línea continua representa las mediciones con el sistema de medición A. La línea punteada
representa las mediciones con el sistema de medición B. El sistema de medición A tiene menos
variaciones, por lo tanto es más repetible que el sistema de medición B.

Ejemplo:

Reproducibilidad
Capacidad de un sistema de medición, utilizado por varios operadores, para reproducir de
manera uniforme la misma medición de la misma pieza, bajo las mismas condiciones.

Los operadores 1, 2 y 3 miden 20 veces la misma pieza con el mismo sistema de medición.

Las tres líneas representan las


mediciones del operador 1, 2 y 3. La
variación en las mediciones promedio
entre los Evaluadores 1 y 2 es mucho menor que la variación entre los Evaluadores 1 y 3. Por lo
tanto, la reproducibilidad del sistema de medición es demasiado baja.

Por ejemplo, un valor representativo sería ± 0.2% del alcance de la lectura o señal de salida a lo
largo de un periodo de 30 días.

Banda Muerta:

Se le denomina al rango de valores en el cual puede variar la entrada sin producir un cambio
observable en la salida.
Sensibilidad:

Característica que indica la mayor o menor variación de la salida por unidad de la magnitud de
entrada.
Razón entre el crecimiento de la lectura y el incremento de la variable que lo ocasiona después
de haberse alcanzado el estado de reposo. Viene dada en tanto por ciento del rango de la
medida.
Ejemplo: ±0.05 por ciento de 200°C = ± 0.1°C (campo de 100°C – 300°C).

Resolución:

Indica la capacidad del sensor para discernir entre valores muy próximos de la variable de
entrada. Se mide por la mínima diferencia entre dos valores próximos que el sensor es capaz
de distinguir. Se puede indicar en términos de valor absoluto de la variable física medida o en
%FS salida.

Histéresis:

Cuando se toman los datos de calibración de un instrumento, esto se hace con los datos de
subida y los datos de bajada en la entrada, al representar gráficamente los datos de la medida
del transductor (variable de salida o variable eléctrica), tendremos la representación de dos
curvas de salida, una de subida y otra de bajada. Idealmente deberían ser iguales la curva, a la
diferencia entre estas dos curvas se define como la histéresis. La histéresis es la diferencia
máxima que se observa en los valores indicados por el instrumento para el mismo valor
cualquiera del campo de medida, cuando la variable recorre toda la escala en los dos sentidos,
ascendente y descendente.
Se suele representar en tanto por ciento del alcance de la medida.
Linealidad:

La aproximación de una curva de calibración a una línea recta especificada.

Un sensor o transductor se dice que es lineal, si existe una constante de proporcionalidad


única que relaciona los incrementos de señal de salida con los correspondientes incrementos
de señal de entrada, en todo el campo de medida.

Sesgo:

El sesgo de investigación, también denominado sesgo del experimentador, constituye un


proceso en el cual los científicos que realizan la investigación influyen en los resultados, con el
fin de representar un determinado resultado.

Algunos sesgos de investigación surgen del error experimental y de no tomar en cuenta todas


las variables posibles.
Otro sesgo surge cuando los investigadores seleccionan sujetos que tienen más probabilidades
de generar los resultados deseados, un retroceso en los procedimientos normales que rigen la
ciencia.
El sesgo es el factor que hace que la investigación cualitativa dependa mucho más de la
experiencia y la opinión que la investigación cuantitativa.

Sesgo de investigación cuantitativa: negación de cualquier sesgo.

Sesgo de investigación cualitativa: aceptación y reconocimiento de sesgo.

Por ejemplo, cuando se utilizan sujetos de investigación social es mucho más fácil apegarse a
un determinado punto de vista, poniendo en peligro la imparcialidad.
Lo que siempre hay que tener en cuenta sobre el sesgo es que es inevitable en muchas
disciplinas. Cualquier proceso de diseño experimental incluye la comprensión de los sesgos
inherentes y la reducción de sus efectos.
En la investigación cuantitativa, el investigador trata de eliminar el sesgo por completo,
mientras que en la investigación cualitativa todo se trata de comprender que va a suceder.

Deriva:

Es una variación en la señal de salida que se presenta en un periodo de tiempo determinado


mientras se mantiene constante la variable de medida y todas las condiciones ambientales.

- Deriva de cero (variación en la señal de salida para el valor cero de la medida atribuible
a cualquier causa interna).
- Deriva térmica de cero (variación de la señal de salida a medida cero, debida a los
efectos únicos de la temperatura).

La deriva está expresada usualmente en porcentaje de la señal de salida de la escala total a la


temperatura ambiente, por unidad, o por intervalo de variación de temperatura.

Desviación permanente de una señal que se produce de forma muy lenta a lo largo de un
cierto periodo de tiempo.

Umbral:

Cuando la magnitud objeto de medida aumenta gradualmente partiendo de cero, es posible


que tenga que alcanzar un nivel mínimo antes de que el instrumento responda y proporcione
una lectura perceptible.
http://www.ancap.com.uy/docs_concursos/ARCHIVOS/2%20LLAMADOS
%20FINALIZADOS/2013/REF%2040_2013%20%20%20T%C3%89CNICO%20AYUDANTE
%20MANTENIMIENTO%20E%20INGENIER%C3%8DA%20(ELECTROELECTR
%C3%93NICO)/MATERIAL%20DE%20ESTUDIO/CONOCIMIENTOS%20ESPEC
%C3%8DFICOS/INTRODUCCION%20A%20LA%20INSTRUMENTACION%20INDUSTRIAL.PDF

http://www.slideshare.net/dsrpato/instrumentacioncontrolprocesos

http://educaciones.cubaeduca.cu/medias/pdf/2450.pdf

También podría gustarte