Está en la página 1de 27

REPÚBLICA BOLIVARIANA DE VENEZUELA

INSTITUTO UNIVERSITARIO DE TECNOLOGÍA

“ANTONIO JOSE DE SUCRE”

EXTENSIÓN BARCELONA

ELECTRÓNICA

INSTRUMENTOS DE MEDICIÓN

Nombre del autor: Margenis. Coello CI: 28.407.118.

Docente de la asignatura: Vicente. Blanco.

Asignatura: Instrumentación y control.

Barcelona, Julio, 2022.


ÍNDICE

INTRODUCCIÓN……………………………………………………………………………………………………...3

DEFINICIONES…………………………………………………………………………………………….…….……4

• CAMPO DE MEDIDA……………………………………………………………………………………..4
• ERROR………………………………………………………………………………………………………...4
• ERROR ABSOLUTO……………………………………………………………………………………….5
• ERROR RELATIVO………………………………………………………………………………………..5
• SENSIBILIDAD…………………………………………………………………………………………......6
• EXACTITUD……………………………………………………………………………………………….…6
• PRECISIÓN…………………………………………………………………………………………………...7
• PORCENTAJE DE ERROR…………………………………………………………………..……….…..8
• HISTÉRESIS………………………………………………………………………………………………….8

CARACTERÍSTICAS ESTÁTICAS Y DINÁMICAS DEL VATÍMETRO……………………………...9

CARACTERÍSTICAS DINÁMICAS DE UN INSTRUMENTO DE MEDIDA ELÉCTRICA…….12

PROCESO DE TRANSMISIÓN Y RECEPCIÓN DE DATOS BASADOS EN LA TEORÍA DE LA


MEDICIÓN…………………………………………………………………………………………………………….20

CONCLUSIÓN………………………………………………………………………………………………………..26

BIBLIOGRAFÍA……………………………………………………………………………………………………...27

2
INTRODUCCIÓN

En física, química e ingeniería, un instrumento de medición es un aparato que se usa


para comparar magnitudes físicas mediante un proceso de medición. De esta medición
resulta un número que es la relación entre el objeto de estudio y la unidad de referencia.
Los instrumentos de medición son el medio por el que se hace esta conversión y cada
medición tendrá una unidad de medida la cual será una cantidad estandarizada de una
determinada magnitud física en general, dicha unidad de medida toma su valor a partir
de un patrón o de una composición de otras unidades definidas previamente.

Lo cierto es que los científicos, para confirmar o rechazar sus hipótesis, deben medir
las magnitudes de los objetos o fenómenos que intervienen en sus estudios con la mayor
fiabilidad posible, dado que medir haciendo uso únicamente de los sentidos puede ser
un proceso poco fiable, es común que hagan uso de instrumentos que faciliten esta
tarea. Dichos instrumentos de precisión para medidas reciben el nombre
de instrumentos de medida. Ahora bien, estos instrumentos no son sistemas ideales
sino reales, y por lo tanto tienen una serie de limitaciones que debemos tomar en cuenta
para poder juzgar si afectan de alguna manera las medidas que estamos realizando, y
poder determinar así mismo la veracidad de las anteriores dicho esto, cada
instrumento posee a su vez ciertas características tales como precisión, exactitud,
linealidad, etc. Que a su vez se clasifican en dinámicas o estáticas y que permiten saber
cuál será la eficiencia del instrumento que se está utilizando.

la validez de la medición en cualquier disciplina técnica o científica se basa en el


respeto a los principios de la teoría general de la medición, todo es cuantificable, incluso
la información. La información es tratada como magnitud física y para caracterizar la
información de una secuencia de símbolos se utiliza la entropía. Se parte de la idea de
que los canales no son ideales, aunque muchas veces se idealicen las no idealidades,
para estudiar distintos métodos para enviar información o la cantidad de información
útil que se puede enviar a través de un canal.

Todo lo relacionado con la transmisión de datos dependerá de datos numéricos que


puedes ser medidos, así, la transmisión de datos, transmisión digital o comunicaciones
digitales es la transferencia física de datos cuantificables (un flujo digital de bits) por
un canal de comunicación punto a punto o punto a multipunto. Es por ello que podemos
decir que la necesidad de medir es evidente en la mayoría de las actividades técnicas o
científicas, sin embargo, no interesa sólo contar con medidas sino también saber si
dichas medidas son válidas y entender lo que implica.

3
DEFINICIONES

Campo de medida

Es el conjunto de valores de la variable medida que están comprendidos entre los


límites superior e inferior de la capacidad de medida o de transmisión del instrumento,
se expresa estableciendo los dos valores extremos.

Por ejemplo:

• Para el manómetro de la figura 1 el rango es: (0 – 60) bar ó 0 bar a 60 bar.


• Para el rotámetro de la figura 2, el rango es: (0,5 - 5) L/min ó 0,5 L/min a 5
L/min.

Error

Es la diferencia algebraica entre el valor leído o transmitido por el instrumento y el


valor convencionalmente verdadero de la variable medida. Si el proceso está en
condiciones de régimen permanente (estado estable) se denomina error estático. En
condiciones dinámicas el error puede cambiar (error dinámico).

El error tiene en general variadas causas:

• Errores grandes (gross errors): Son en general de origen humano, como la


mala lectura de los instrumentos, ajuste incorrecto y aplicación inapropiada, así
como equivocaciones en los cálculos.

• Errores sistemáticos: Se deben a fallas de los instrumentos, como partes


defectuosas o gastadas, y efectos ambientales sobre el equipo del usuario. Estos

4
errores se pueden de alguna manera prever, calcular, eliminar mediante
calibraciones y compensaciones.

• Errores aleatorios: Generalmente son la acumulación de un gran número de


errores muy pequeños cuyo origen es difícil de identificar. Estos errores
normalmente son de preocupación para mediciones con un alto grado de
exactitud. Los errores aleatorios se pueden analizar estadísticamente.

Error absoluto

Es la diferencia entre la medida exacta de una magnitud y la medida obtenida


experimentalmente. La medición va acompañada de un cierto grado de error
(incertidumbre), esta clase de error se da bien por el instrumento o por la experiencia
de la persona que la realiza. En el caso del instrumento no se puede evitar y es necesario
valorar ese grado de error.

El error absoluto, siempre se expresa en positivo, aunque el valor aproximado sea


superior al valor real, y como consecuencia diera un resultado negativo y además tiene
las mismas unidades que las de la medida.

Si, por ejemplo, dices que debe hacer unos 20 ºC en tu clase, y al comprobarlo con un
termómetro que tiene el profe, había 17 ºC. ¿Cuál es el error que has cometido? el error
es de 3 ºC. Pues ese es el concepto de error absoluto: la diferencia entre el valor real y
el valor aproximado que damos.

De este modo, si al valor real de cualquier cálculo o medida le llamamos A y al valor


aproximado le llamamos A', el error absoluto se podría expresar como:

E = |A - A'|

Error relativo.

Es el cociente (la división) entre el error absoluto y el valor exacto. Al igual que el
error absoluto puede ser positivo o negativo porque puede se puede producir por
exceso o por defecto, sin embargo, para los cálculos tendremos que tomar en cuenta de
que el error absoluto siempre terminará siendo positivo.

5
El error relativo no tiene unidad de medida ya que es un valor que compara dos
cantidades

Ejemplo: En el caso del tiempo que nos lleva llegar a casa:

• A = 16 min A' = 15 min → E = |A - A'| = |16 - 15|= 1 min

Ahora podemos calcular

Es decir, se comete un error relativo, en este caso, de 0,063. Por tanto, cometemos
casi el triple de error en la aproximación del tiempo que nos lleva llegar a casa que en
el peso de la persona.

Sensibilidad

Es la variación en la salida del instrumento por unidad de variación de la variable del


proceso (entrada), en definitiva, se puede decir que es la ganancia del instrumento. El
ideal es que la misma se mantenga constante. En otras palabras, un aparato de medida
es tanto más sensible, cuanto mayor capacidad tiene el instrumento para medir
unidades muy pequeñas, es decir, cuando aprecia menores variaciones en el valor de la
magnitud a medir. Por tanto, la sensibilidad se da por la capacidad de medir valores
más pequeños y representará el mínimo cambio al que el instrumento censa y puede
expresar.

Por ejemplo, si en un transmisor electrónico de 0 – 10 bar, la presión pasa de 5 a 5,5


bar y la señal de salida de 11,9 mA a 12,3 mA, la sensibilidad es:

Exactitud

Es la cualidad de un instrumento de medida por la que tiende a dar lecturas próximas


al verdadero valor de la magnitud medida. Es decir, cuán cerca del valor real se
encuentra el valor medido. Un instrumento exacto cuenta con la capacidad de dar
valores de lectura con errores pequeño y si el promedio de las mediciones coincide con
el valor verdadero el instrumento es exacto.

6
La exactitud como su concepto lo explica se da gracias a que el instrumento tiene la
capacidad de acercarse al valor verdadero. Así, la exactitud aumenta cuanto más cerca
se encuentre una medición de un objeto con la medida real de dicho objeto.

Precisión

Es la cualidad de un instrumento por la que tiende a dar lecturas muy próximas unas
a otras, es decir, es el grado de dispersión de las mismas. Un instrumento puede
tener una pobre exactitud, pero una gran precisión. Cuanto menor es la dispersión
mayor la precisión. La precisión está asociada a estadísticas como la varianza y el desvío
standard. En la técnica se suele exigir que los valores de variables importantes para la
calidad del producto se mantengan dentro de un campo dado por tres desvíos standard
en más o en menos del valor especificado, y estos desvíos deben ser pequeños para
tener buena precisión. Es importante resaltar que la automatización de diferentes
pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que, con
dicha automatización, lo que logramos es una disminución de los errores manuales o su
corrección inmediata. No hay que confundir resolución con precisión.

La causa de la precisión en los instrumentos está relacionada con la sensibilidad. A


mayor sensibilidad, menores variaciones es capaz de apreciar, medidas más pequeñas
nos dará el instrumento

Como ejemplo de precisión y exactitud pongamos los disparos a una diana, la


precisión y la exactitud en el disparo, tienen que ver con la proximidad de los disparos
entre sí: precisión, y con la concentración de los disparos alrededor del centro de la
diana: exactitud.

• En la figura A, la distribución de los disparos por una zona amplia denota la falta
de precisión, y la desviación a la izquierda del centro de la diana revela la falta
de exactitud.

• En la figura B, el grado de precisión es similar a la de la figura A, los disparos


están igual de concentrados, la exactitud es menor, dado que los disparos se han
desviado a la izquierda y arriba, separándose del centro de la diana.

7
• En la figura C, la precisión es baja como se puede ver por la dispersión de los
disparos por toda la diana, pero la exactitud es alta porque los disparos se
reparten sobre el centro de la diana.

• En la figura D, tiene un alto grado de precisión dado que todos los disparos se
concentran en un espacio pequeño, y un alto grado de exactitud dado que los
disparos se concentran sobre el centro de la diana.

El porcentaje de error

Es una medida de cuán inexacta es una medición, estandarizada en función del


tamaño de la medición. Es el error relativo expresado en términos de por 100.

La fórmula de cálculo del porcentaje de error es la siguiente:

Error porcentual = (valor estimado - valor real) / valor real × 100% (en valor
absoluto)

El porcentaje de error se suele representar con el símbolo %, EP (de Error


Porcentual) o ERP (de Error Relativo Porcentual), dependiendo del campo del
conocimiento en el que se esté utilizando.

Histéresis.

Es la diferencia máxima que se observa en los valores indicados por el índice para el
mismo valor cualquiera del campo de medida, cuando la variable recorre toda la escala
en los dos sentidos, ascendente y descendente. Se expresa como porcentaje de la escala
de medida.

Se produce el fenómeno de la histéresis, cuando el sistema puede existir en varios


estados estables para valores dados de las variables externas (o parámetros de control),
y que éstos se pueden alcanzar por una variación lenta de los parámetros.

8
CARACTERÍSTICAS ESTÁTICAS Y DINÁMICAS DEL WATIMETRO

WATTIMETRO- LT-DW6163

Rango

El rango de frecuencia de un vatímetro electrónico es tal que puede extenderse hasta


los 20 megahercios usando tubos de pentodos en lugar de triodos.

Error

En el caso de un medidor enchufable típico, el error en vatios se indica como ±5% del
valor medido ±10 W (por ejemplo, un valor medido de 100 W puede ser erróneo en un
5% de 100 W más 10 W, es decir, ±15 W, o 85-115 W); y el error en kW-h se indica
como ±5% del valor medido ±0,1 kW-h. Si un ordenador portátil en modo de reposo
consume 5 W, el medidor puede leer entre 0 y 15,25 W, sin tener en cuenta los errores
debidos a la forma de onda no sinusoidal. En la práctica, la precisión puede mejorarse
conectando una carga fija, como una bombilla incandescente, añadiendo el dispositivo
en reposo y utilizando la diferencia de consumo de energía, lo que hace que la medición
salga de la problemática zona de baja potencia.

9
Precisión

Un vatímetro típico puede medir voltaje (V), corriente (A), potencia (W), factor de
potencia (pf) y consumo de energía (kWh). La precisión de la medición varía dentro del
rango de ±1% a ±5% según la marca y el modelo del dispositivo. Un vatímetro con una
precisión de medición de ±2% puede mostrar una potencia de 100 W de 98 W o 102 W.
Cuanto menor sea esta relación del dispositivo está midiendo.

Sensibilidad

El vatímetro es un instrumento muy sensible y puede resultar dañado por una


corriente excesiva. Todos los vatímetros están clasificados para una clasificación de
corriente máxima segura. En muchos dispositivos, la corriente máxima permitida está
limitada a 16 A. Esto significa 3.680 W de potencia a una tensión de red de 230 V
CA. Para evitar dañar el vatímetro, se debe observar este valor de corriente y
potencia. Algunos dispositivos también tienen protección de sobrecarga.

El wattmetro de precisión profesional modelo LT-DW6163 tiene una resolución


de 1 W en su pantalla digital y cuenta con tiene un circuito LSI que proporciona alta
fiabilidad y durabilidad operado con batería.

Características principales:

• Medición en potencia real.


• Medición en RMS real para ACV, AC, Watt:0a6000Wx1W.
• Factor de poder: 0.01 a 1.00 x 0.01 P, ACV:0a600VX0.1V.
ACA:0a10.00Ax0.01A.
• Entrada ACV impedancia: 10 Mega OH Retención de Datos, Graba (Max, Min).

10
POTENCIA REAL

11
V/A RMS REAL

PF (FACTOR DE PODER)

CARACTERÍSTICAS DINÁMICAS DE LOS INTRUMENTOS DE MEDICIÓN

Los instrumentos de medición hacen posible la observación de fenómenos físicos y


además de poder cuantificarlo, pero estos instrumentos tienen sus limitaciones ya que
no son instrumentos ideales, por lo tanto, se deben tener algunas precauciones y
conocer ciertas características para que las mediciones no se vean afectadas y sean lo
más acertadamente posibles.

Las características dinámicas de un instrumento de medición, se refieren al


comportamiento de este, cuando la variable de medida está cambiando en el tiempo.
Este comportamiento es distinto al que presentan los sistemas cuando las señales de
entrada son constantes debido a la presencia de inercias (masas, inductancias),
capacidades (eléctricas, térmicas) y en general elementos que almacenan energía.

El tipo de entrada puede ser transitoria (impulso, escalón, rampa), periódica


(senoidal) o aleatoria (ruido). La elección de una u otra depende del tipo de sensor.

12
Las características dinámicas que posee un instrumento de medición son:

• Error dinámico.
• Tiempo de respuesta.
• Tiempo nulo.
• Sobre alcance.

Error dinámico

El error dinámico de un instrumento se define como la diferencia entre la cantidad


indicada en un instante de tiempo dado y el verdadero valor del parámetro que se está
midiendo. Esto ocurre porque en condiciones dinámicas el error varía
considerablemente debido a que los instrumentos tienen características comunes a los
sistemas físicos; absorben energía del proceso y esta transferencia requiere cierto
tiempo para ser transmitida, lo cual da lugar a retardos en la lectura del instrumento.
Siempre que las condiciones sean dinámicas, existirá en mayor o menor grado el error
dinámico, su valor depende del tipo de fluido del proceso, de su velocidad, del elemento
primario, de los medios de protección, etc.

Idealmente se tiene un instrumento al que se espera se le aplique una variable de


entrada a medir estable. Supongamos que tenemos un instrumento al que le aplicamos
la función mostrada en la Fig.:

Fig. Función ideal de entrada a un instrumento de medición

Esto quiere decir que, si por ejemplo se trata de un voltímetro, hacemos variar
bruscamente el voltaje entre sus extremos. La respuesta del instrumento en función del
tiempo puede presentar diferentes formas, como puede apreciarse en las Fig. Según
podemos observar, para todo instante de tiempo menor que to existe una diferencia

13
entre la función aplicada y la respuesta del instrumento. Esta diferencia es lo que
denominamos error dinámico.

Fig. Respuestas sobre amortiguadas a la función de entrada de un instrumento

Un error dinámico afecta las señales rápidas, y es una consecuencia de la presencia


de elementos que almacenan energía. Dado que en la respuesta dinámica se consideran
dos fases, la respuesta transitoria y la respuesta estacionaria, se habla de error
dinámico transitorio y error dinámico estacionario.

El error dinámico de un sistema dependerá de su orden y de la forma de la señal de


entrada. Las señales consideradas habitualmente son el escalan, la rampa y senoidales.
Los sistemas de orden cero no tienen error dinámico. Los sistemas de primer y de
segundo orden tienen un error dinámico para las entradas en rampa y senoidales,
incluso en régimen estacionario, y tienen un error dinámico para las entradas en
escalón sólo durante la fase transitoria.

En los sistemas de segundo orden la fase transitoria dura tanto más cuanto menor
sea el amortiguamiento. El error dinámico para entradas senoidales incluye un retardo
y un error de amplitud, pero normalmente al hablar de error dinámico se suele
sobrentender el error de amplitud.

Tiempo de respuesta

La medición de cualquier variable de proceso puede implicar una demora, (debida a


fenómenos de equilibrio, transporte, almacenamiento de energía, etc.) que debe ser
definida adecuadamente. Si la medición tiene una cinética más lenta que la de la propia
variable, habrá que disponer de sistemas complejos de predicción del valor en lugar de
descansar sólo sobre la medición instrumental.

Un tiempo de respuesta es el tiempo transcurrido entre la aplicación de una función


escalón y el instante en que el instrumento indica un cierto porcentaje (90%, 95% o

14
99%) del valor final. Para instrumentos con aguja indicadora, el tiempo de respuesta
es aquél que tarda la aguja en estabilizarse aparentemente, lo cual ocurre cuando ha
llegado a un porcentaje determinado (por ejemplo 1%) de su valor final.

Tiempo nulo

Es el tiempo transcurrido desde que se produce el cambio brusco a la entrada del


instrumento hasta que él alcanza el 5% del valor final.

Sobrealcance

En los instrumentos con aguja indicadora, la deflexión se produce debido a que se


aplica una fuerza a la parte móvil. Dicha parte móvil tiene una masa, por lo que al aplicar
la fuerza se origina un momento que puede llevar a la aguja más allá del valor
correspondiente al de equilibrio. La diferencia entre el valor máximo y el valor final se
denomina sobrealcance. Los dos tipos de respuesta que vimos anteriormente se
diferencian porque en el segundo hay sobrealcance mientras que en el primero no. Un
sobrealcance elevado es indeseable, pero un valor pequeño del mismo contribuye a
disminuir el tiempo requerido para que la aguja alcance el estado estable.

Los conceptos enunciados anteriormente podemos resumirlos en la gráfica de la Fig.

15
Fig. Respuesta transitoria

Evaluación de la respuesta dinámica

Es importante en el ámbito de la instrumentación la respuesta de un sistema o equipo


ante un cambio brusco de la variable de entrada (señal escalón) porque estos
incorporan los efectos dinámicos propios del sistema.

Los sistemas pueden tener muchos tipos de respuestas al escalón, eso depende del
orden del numerador y el denominador de su Función de Transferencia. La respuesta
es similar a la que presentaría un sistema de primer orden o de segundo orden (en el
denominador),

- Sistema de medida de orden cero

16
En un sistema de orden cero se tiene que en la ecuación diferencial no hay derivadas,
su respuesta temporal y frecuencial no experimentará cambios.

Suponiendo que el potenciómetro es ideal la tensión de salida cambia de manera


instantánea cuando se desplaza el cursor a lo largo del recorrido del potenciómetro.
Debido a las imperfecciones del potenciómetro no se podrá utilizar para la medida de
movimientos rápidos.

Un ejemplo son las galgas extensiométricas utilizadas para la medida de esfuerzos


mecánicos en materiales en los que la resistencia efectiva entre sus extremos se
modifica con el esfuerzo aplicado sobre la galga.

- Sistema de primer orden

El parámetro dinámico que representa un sistema de primer orden es su constante


de tiempo, aunque se pueden definir otros parámetros que también pueden
caracterizar lo rápido que resulta un sistema de primer orden como son tr y ts.

• El tiempo de subida (rise time), t, definido como el tiempo que transcurre entre
que el sistema alcanza el 10% y el 90% del valor final.

17
• El tiempo de establecimiento (settling time), t, definido como el tiempo que
transcurre hasta que el sistema proporciona una salida dentro del margen de
tolerancia definido por su precisión.

-Respuesta de un sistema de primer orden ante una entrada en escalón.

Los sistemas de primer orden se representan por una ecuación diferencial de primer
orden. Contienen un elemento que almacena energía y otro que la disipa.

El término k= 1/ao es la denominada sensibilidad estática y Ƭ= a1/a0

- Sistema de segundo orden

18
En los sistemas de segundo orden, la respuesta ante una entrada escalón no tiene un
aspecto único, sino que pueden presentarse tres casos diferentes según la inercia y la
amortiguación que presente el sistema, así:

a) Sistemas sobreamortiguados — Sistemas lentos.

b) Sistemas subamortiguados — Sistemas rápidos con oscilaciones.

c) Sistemas con amortiguamiento critico — más rápidos que los sobreamortiguados.

Un sistema es de segundo orden cuando tiene dos elementos de almacenamiento de


energía y otros dos que la disipan. La relación entre la entrada X(t) y la salida Y(t) está
dada por una ecuación diferencial lineal de segundo orden de la forma:

La respuesta de un sistema de segundo orden a una entrada escalón se obtiene


resolviendo la ecuación diferencial de segundo orden o bien, como se ha hecho con los
sistemas de primer orden, obteniendo la anti transformada de Laplace.

19
PROCESO DE TRANSMISIÓN Y RECEPCIÓN DE DATOS BASADO EN LA TEORÍA
DE LA MEDICIÓN

La necesidad de medir es evidente en la mayoría de las actividades técnicas o


científicas. Sin embargo, no interesa sólo contar con medidas sino también saber si
dichas medidas son válidas. Para ello debemos recordar la definición de medición como
el "proceso por el cual se asignan números o símbolos a atributos de entidades del
mundo real de tal forma que los describa de acuerdo con reglas claramente definidas"
[Fenton y Pfleeger, 1997, p. 5]. La validez de la medición en cualquier disciplina técnica
o científica se basa en el respeto a los principios de la teoría general de la medición (en
concreto, nos apoyaremos en la llamada teoría representacional de la medición). Esta
idea es análoga a lo que se hace en matemáticas (por ejemplo, en geometría) donde se
definen una serie de axiomas básicos y, a partir de ellos, se van estableciendo nuevas
conclusiones.

El fundamento de la teoría representacional consiste en que toda medición debe


asegurar una adecuada representación del atributo real medido mediante los símbolos
o números asignados. Una representación por medición de un atributo de una entidad
es adecuada si es coherente con la idea conceptual que sobre dicho atributo es
comúnmente aceptada por los expertos.
20
Así, los datos obtenidos como medidas deben representar los atributos de las
entidades reales que pretendemos caracterizar y el manejo de dichos datos debe
preservar las relaciones que existen entre dichas entidades. Para establecer medidas
debemos partir de nuestra observación del mundo real o dominio. Debemos identificar
cuáles son las entidades que queremos medir (p.ej., código) y definir qué atributo
deseamos caracterizar (p.ej., longitud de código). Además, es importante identificar las
relaciones empíricas que se pueden establecer entre las entidades reales en relación
con el atributo que nos interesa. Estas relaciones pueden ser simples comparaciones
que establecen un orden (p.ej., "código de programas X más largo que el del programa
Y") o relaciones de otros tipos, ni siquiera binarias (p.ej., relación unaria: "el código de
X es largo").

La validez de la medición en cualquier disciplina técnica o científica se basa en el


respeto a los principios de la teoría general de la medición, casi todo es cuantificable
incluso, La información. La información es tratada como magnitud física y para
caracterizar la información de una secuencia de símbolos se utiliza la entropía. Se parte
de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no
idealidades, para estudiar distintos métodos para enviar información o la cantidad de
información útil que se puede enviar a través de un canal. Todo lo relacionado con la
transmisión de datos depende de datos numéricos que pueden ser medidos.

Basándonos en lo anteriormente expuesto, La teoría de la información reconoce que


todos los datos son inexactos y de naturaleza estadística. Por tanto, la definición de
medición es: "Un conjunto de observaciones que reducen la incertidumbre, donde el
resultado se expresa como cantidad" Esta definición se desprende de lo que, de hecho,
los científicos hacen cuando miden algo e informan sobre la media y los parámetros
estadísticos de precisión. En términos prácticos, se empieza con una aproximación
inicial como valor a una cantidad, y entonces, usando diversos métodos e instrumentos,
se reduce la incertidumbre en el valor. Nótese que, en este enfoque, a diferencia de la
teoría representacional positivista, toda medición conlleva incertidumbre, así que, en
lugar de asignar un valor, se asigna un intervalo posible a cada medición. Esto implica
también que no hay una distinción clara entre estimación y medición.

De manera más formal la teoría de la información es la teoría relacionada con las


leyes matemáticas que rige la transmisión y el procesamiento de la información. Más
concretamente, la teoría de la información se ocupa de la medición de la información y
de la representación de la misma (como, por ejemplo, su codificación) y de la capacidad
de los sistemas de comunicación para transmitir y procesar información.

Fue desarrollada inicialmente, en 1948, por el ingeniero electrónico estadounidense


Claude E. Shannon, en su artículo, A Mathematical Theory of Communication (Teoría

21
matemática de la comunicación). La necesidad de una base teórica para la tecnología de
la comunicación surgió del aumento de la complejidad y de la masificación de las vías
de comunicación, tales como el teléfono, las redes de teletipo y los sistemas de
comunicación por radio. La teoría de la información también abarca todas las restantes
formas de transmisión y almacenamiento de información. De forma más general, la
teoría de la información ha sido aplicada en campos tan diversos como la cibernética,
la criptografía, la lingüística, la psicología y la estadística.

Posee relación con la teoría de medición porque un concepto fundamental en la


teoría de la información es que la cantidad de información contenida en un mensaje es
un valor matemático bien definido y medible. El término cantidad no se refiere a la
cuantía de datos, sino a la probabilidad de que un mensaje, dentro de un conjunto de
mensajes posibles, sea recibido. En lo que se refiere a la cantidad de información, el
valor más alto se le asigna al mensaje que menos probabilidades tiene de ser recibido.
Si se sabe con certeza que un mensaje va a ser recibido, su cantidad de información
es 0. Si, por ejemplo, se lanza una moneda al aire, el mensaje conjunto cara o cruz que
describe el resultado, no tiene cantidad de información. Sin embargo, los dos mensajes
por separado cara o cruz tienen probabilidades iguales de valor un medio. Para
relacionar la cantidad de información (I) con la probabilidad, Shannon presentó la
siguiente fórmula:

I = log21/p

Donde p es la probabilidad del mensaje que se transmite y log2 es el logaritmo


de 1/p en base 2. (log2 de un número dado X es el exponente Y al que tiene que ser
elevado el número 2 para obtener dicho número X. Por ejemplo, log2 de 8 = 3, porque
23 = 8). Utilizando esta fórmula, obtenemos que los mensajes cara y cruz tienen una
cantidad de información de log22 = 1.

La cantidad de información de un mensaje puede ser entendida como el número de


símbolos posibles que representan el mensaje. En el ejemplo anterior, si cruz está
representado por un 0 y cara por un 1, sólo hay una forma de representar el
mensaje: 0 o 1. El 0 y el 1 son los dígitos del sistema binario, y la elección entre estos
dos símbolos corresponde a la llamada unidad de información binaria o bit. Si se lanza
una moneda tres veces seguidas, los ocho resultados (o mensajes) igualmente
probables pueden ser representados como 000,001,010,011,100,101,110 o 111. Estos
mensajes corresponden a los números 0, 1, …7 escritos en notación binaria. La
probabilidad de cada mensaje es de un octavo, y su cantidad de información es log21 ˆ
= 3, que es el número de bits que se necesitan para representar cada mensaje.

En la mayoría de las aplicaciones prácticas, hay que elegir entre mensajes que tienen
diferentes probabilidades de ser enviados. El término entropía ha sido tomado

22
prestado de la termodinámica, para designar la cantidad de información media de estos
mensajes. La entropía puede ser intuitivamente entendida como el grado de desorden
en un sistema. En la teoría de la información la entropía de un mensaje es igual a su
cantidad de información media. Si en un conjunto de mensajes, sus probabilidades son
iguales, la fórmula para calcular la entropía total sería: H = log2N, donde N es el número
de mensajes posibles en el conjunto.

Debido a que en la cotidianidad las personas resultan inmersas de informaciones, y


para su comprensión la misma tiene que tener un orden y ser procesada con la finalidad
de que pueda ser llegada al receptor, por tanto, también implica las bases de la teoría
de la comunicación.

Dicho esto, podemos entender que la transmisión de datos, transmisión


digital o comunicaciones digitales es la transferencia física de datos (un flujo digital
de bits) por un canal de comunicación punto a punto o punto a multipunto. Ejemplos de
estos canales son cables de par trenzado, fibra óptica, los canales de comunicación
inalámbrica y medios de almacenamiento. Los datos se representan como una señal
electromagnética, una señal de tensión eléctrica, ondas radioeléctricas, microondas o
infrarrojos.

La forma en la que los datos fluyen físicamente a través de los medios de trasmisión
para ser intercambiados entre el emisor y el receptor, el número de bits que se pueden
enviar de forma simultánea, así como la sincronización necesaria para que el emisor y
el receptor puedan enviar y recuperar los datos.

En trasmisión de datos, la información se transmite en “fragmentos”, cada uno de los


cuales constituye una muestra digital compuesta por ocho pulsos binarios que reciben
cada uno el nombre de bit. Los ocho bits de cada muestra digital se pueden transmitir
en paralelo o en serie. (PÉREZ Enrique Herrera, 2003, P. 34)

hoy en día existen muchas formas de transición y recepción de datos tipos de datos
y por supuestos medios para transmitirlos. La transmisión puede ser:

• Transmisión analógica: estas señales se caracterizan por el continuo cambio


de amplitud de la señal. En ingeniería de control de procesos la señal oscila
entre 4 y 20 mA, y es transmitida en forma puramente analógica. En una señal
analógica el contenido de información es muy restringido; tan solo el valor de la
corriente y la presencia o no de esta puede ser determinado.
• Transmisión digital: estas señales no cambian continuamente, sino que es
transmitida en paquetes discretos. No es tampoco inmediatamente
interpretada, sino que debe ser primero decodificada por el receptor. El método
de transmisión también es otro: como pulsos eléctricos que varían entre dos

23
niveles distintos de voltaje. En lo que respecta a la ingeniería de procesos, no
existe limitación en cuanto al contenido de la señal y cualquier información
adicional.

Y el modo de transmisión puede ser:

• Transmisión paralela: es el envío de datos de byte en byte, sobre un mínimo


de ocho líneas paralelas a través de una interfaz paralela, por ejemplo, la interfaz
paralela Centronics para impresoras.
• Transmisión en serie: es el envío de datos bit a bit sobre una interfaz serie.

Para ello existen diversos medios de transmisión, anteriormente mencionados como


cables de par trenzado, fibra óptica, los canales de comunicación inalámbrica y medios
de almacenamiento.

Ejemplo de transmisión y recepción de Datos.

El siguiente diagrama de bloques que describen el proceso de transmisión y


recepción de información:

La señal recibida por el nodo MPS en RX, que es la suma de todas las señales
transmitidas, es demodulada y decodificada tomando como referencia cada una de las
señales preseleccionadas (macrosecuencias) que sirven a cada transmisor. El proceso
que se lleva a cabo en el receptor es que la señal captada es procesada por 4 módulos
de conexión dentro del mismo receptor. Cada módulo de conexión, en este caso Agente
Xi , tiene como dato de entrada la señal captada por el receptor RX y una de referencia
única por módulo, la cual es una macrosecuencia MS i que fue apuntando a cada módulo

24
transmisor T Xi . De forma tal que, a la salida de cada Agente se obtendrá como
resultado del procesamiento el valor de la función de conexión automática (en el caso
de que se encuentre la señal buscada) o de la comunicación cruzada.

Fig. 2

En la figura 2 se muestra el proceso interno que se lleva a cabo dentro del receptor
considerando que la información recolectada pasa a través del middleware, observando
cómo la aplicación a través de 4 módulos, denominados agentes Ax i, procesan la
información distribuida por el middleware, los cuales tienen como entrada la señal
recibida por RX y la macro secuencia MS i. El conjunto de agentes entrega una matriz
de información con datos como {Px i, ti, MS i }. Cabe mencionar que, a partir de la
detección e identificación de las macrosecuencias por los agentes, se puede estimar la
posición de las balizas transmisoras.

25
CONCLUSION

La medición es la base de la ciencia y la ingeniería en la actualidad, por lo tanto,


el instrumento de medida es un eslabón importante en la cadena de eventos que giran
en torno a la investigación y el desarrollo. Los eventos pueden estar involucrados, pero
la cadena es tan fuerte como su eslabón más débil y aquí la medición válida no es menos
importante que cualquier otra fase del trabajo. El conocimiento y la buena utilización
de los materiales, en especial los instrumentos de medición que nos sirven para ampliar
nuestros conocimientos mediante experiencias practicas nos lleva a un
aprovechamiento óptimo de los mismos y así obviamente se tiene un mayor
aprendizaje.

Una vez que los instrumentos de medición sean los adecuados al proceso y tengan
una buena calibración, nos proporcionarán resultados más confiables; Existen para
cada magnitud diversos instrumentos de medición, que van de lo convencional a lo más
sofisticado, dándonos cuenta que estos últimos son mucho más rápidos y confiables en
sus resultados.

Resulta claro que la necesidad de medir es evidente, especialmente en la mayoría de


las actividades técnicas o científicas. Sin embargo, no interesa sólo contar con medidas
sino también saber si dichas medidas son válidas. El fundamento de la teoría
representacional consiste en que toda medición debe asegurar una adecuada
representación del atributo real medido mediante los símbolos o números asignados
La validez de la medición en cualquier disciplina técnica o científica se basa en el
respeto a los principios de la teoría general de la medición.

El desarrollo de la computación y su integración con las telecomunicaciones en


la telemática han propiciado el surgimiento de nuevas formas de comunicación, que
son aceptadas cada vez por más personas, la comunicación está constituida por
información que a su vez es un conjunto de datos ordenados Los datos pueden viajar a
través de una interfaz serie o paralelo, formada simplemente por una
conexión física adecuada, como por ejemplo un cable. Por ello a partir de la teoría de la
medición y de su rol en las tecnologías podemos de decir que todo lo relacionado con la
transmisión y recepción de datos depende de datos numéricos que pueden ser medidos.

26
BIBLIOGRAFÍA

DEFINICIONES [documento en línea]

https://sites.google.com/site/automatizacionycontrol4/automatizacion/instrumenta
cion/caracteristicas-de-los-instrumentos

DEFINICIONES [documento en línea]

https://instrumentacionelectronicai.wordpress.com/tag/sensibilidad/

Características de un watt metro [documento en línea]

https://lightingequipmentsales.com/what-is-a-wattmeter-how-does-it-work.html

Características de un watt metro [documento en línea]

https://twilight.mx/manuales/LT-DW6163-15-LTDW6163.pdf

características dinámicas de los instrumentos de medición [ documento en línea]

https://docencia.eafranco.com/materiales/instrumentacion/05/Diapositivas05.pdf

Proceso de transmisión y recepción de datos basado en la teoría de la medición [


documento en línea]

http://www.sc.ehu.es/jiwdocoj/remis/docs/teoriamedicion.html

Proceso de transmisión y recepción de datos basado en la teoría de la medición [


documento en línea]

https://tunastc3.tripod.com/ts10/

Proceso de transmisión y recepción de datos basado en la teoría de la medición [


documento en línea]

https://es.wikipedia.org/wiki/Medici%C3%B3n

27

También podría gustarte