Está en la página 1de 11

Trabajo de investigación

Presentado por:
Diego Andres Mesa 67000860
Andres Mateur

Presentado a:

Sistemas Distribuidos

Universidad Católica de Colombia

Bogotá D. C.

2022
Señales

En las señales analógicas

Ancho de Banda

En las señales analógicas, el término ancho de banda es la longitud


medida en hercios (Hz), de la extensión de frecuencias en la que se
concentra la mayor potencia de la señal. Hace referencia al rango de
frecuencias del cual se concentra el mayor nivel de potencia.

En telecomunicaciones , el ancho espectral es el intervalo de longitud de


onda en el que la magnitud de todos los componentes espectrales es
igual o mayor que una fracción especificada de la magnitud del
componente que tiene el valor máximo.

En las aplicaciones de comunicaciones ópticas , el método habitual para


especificar el ancho espectral es el ancho completo a la mitad del máximo . Esta
es la misma convención utilizada en el ancho de banda , definida como el rango
de frecuencia donde la potencia cae menos de la mitad (como máximo −3 dB).

Ancho Espectral

En telecomunicaciones , el ancho espectral es el intervalo de longitud de


onda en el que la magnitud de todos los componentes espectrales es
igual o mayor que una fracción especificada de la magnitud del
componente que tiene el valor máximo.

En las aplicaciones de comunicaciones ópticas , el método habitual para


especificar el ancho espectral es el ancho completo a la mitad del máximo . Esta
es la misma convención utilizada en el ancho de banda , definida como el rango
de frecuencia donde la potencia cae menos de la mitad (como máximo −3 dB).

El ancho espectral (Δλ )se define como la anchura de longitudes de


onda en las que emite un (digamos por ejemplo un LED) LED. Pero esta
longitud de onda del fotón emitido por el LED no es exactamente única.
Emite a la vez también en unas longitudes de onda un poco superiores
y un poco inferiores. Es decir, existe un conjunto de longitudes de onda
en las cuales emite el LED simultáneamente, y aproximadamente, al
conjunto de esas longitudes de onda es lo que se llama Ancho
Espectral.

Capacidad del Canal

La capacidad del canal se mide en bits por segundo (bps) y depende de


su ancho de banda y de la relación S/N (Relación señal/ruido). La
capacidad del canal limita la cantidad de información (se denomina
régimen binario y se mide en bits por segundo, bps) que puede
transmitir la señal que se envía a través de él.

La capacidad máxima de un canal viene dada por la fórmula:

{\displaystyle C=Blog_{2}(1+S/R)\,}{\displaystyle C=Blog_{2}(1+S/R)\,}


(bps)
El régimen binario de una señal que se propaga por un canal no puede
ser mayor que la capacidad del canal y depende del número de niveles
o estados que se usan para codificar la información.

Régimen binario de la señal = {\displaystyle


nVt(baudios)=2Bn=2Blog_{2}m=C(bps)\,}{\displaystyle
nVt(baudios)=2Bn=2Blog_{2}m=C(bps)\,}

donde:

n es el número de bits por cada elemento de la señal.


m es el conjunto de elementos diferentes que puede adoptar la señal.
C es la capacidad del canal según el teorema de Nyquist.

La capacidad del canal depende de la naturaleza del soporta, es decir,


de los portadores canales de gran ancho de banda, como la fibra óptica,
su capacidad siempre tiene un límite. Nyquist demostró la existencia de
ese límite cuando se envían señales digitales por canales analógicos.

La teoría de la información, desarrollada por Claude E. Shannon durante


la Segunda Guerra Mundial, define la noción de la capacidad del canal y
provee un modelo matemático con el que se puede calcular. La cifra que
resulta del estado de capacidad del canal, se define como la máxima de
la información mutua entre la entrada y la salida del canal. Donde el
punto máximo se encuentra en la entrada de la distribución.

La eficiencia E de un canal de comunicación, es la relación entre su


capacidad y su ancho de banda e indica el número de bits por segundo
de información que se puede transmitir por cada herzio de su ancho de
banda:
La eficiencia de un canal está establecida por el número máximo de
estados distintos que puede adoptar la señal que se transmite por él
para codificar la información. La capacidad de un canal de ancho de
banda determinado podría elevarse a infinito utilizando señales con un
número infinito de niveles. Pero esto solo se puede obtener con un
canal ideal, sin ruidos ni distorsión alguna, los cuales no existen en el
mundo real. Por tanto, el número de estados posibles está limitado por
la sensibilidad y la capacidad de resolución del propio receptor para
diferenciar entre niveles contiguos de la señal que recibe junto con el
ruido.

Tasa de Baudios

La tasa de baudios (en inglés baud rate) ―también conocida como


baudaje― es el número de unidades de señal por segundo. Un baudio
puede contener varios bits.

Aunque a veces se confunden los baudios con los bits por segundo, son
conceptos distintos. En transmisiones digitales ocurre lo siguiente: la
información digital, codificada en bits, normalmente no se puede enviar
directamente por el medio de transmisión (por ejemplo asociando un
nivel eléctrico al 1 y al 0, típicamente 5 V y 0 V, respectivamente) debido
a que los medios de transmisión suelen estar limitados en banda ―esto
es, que solo dejan pasar las componentes frecuenciales de una señal
que se encuentren en un rango determinado de frecuencias (por
ejemplo, entre 1 kHz y 4 kHz)―.

Ocurre que al codificar los bits como un nivel eléctrico, la señal sufre
transiciones muy rápidas, lo que genera frecuencias muy altas. Por
ejemplo, si se quiere transmitir un 1 y después un 0, hay que pasar de 5
V a 0 V inmediatamente.

Una manera de solucionar esto es codificando los bits de otra manera;


por ejemplo, asociando cada bit a una señal que el medio sí admita,
como por ejemplo, senos y cosenos; si el medio limita a señales que se
encuentren en el rango de 1 kHz y 4 kHz, podemos transmitir una señal
sinusoidal de 2 kHz para expresar un 1 y otra de 3 kHz para expresar un
0, lo que sería una manera primitiva de modulación FSK (frequency shift
keying o ‘codificación por desplazamiento en frecuencia’). Estas señales
tienen un tiempo de duración comúnmente llamado tiempo de símbolo
T, de modo que cada T segundos se transmite una de las dos señales.
Como cada señal codifica 1 bit, cada T segundos se transmite 1 bit,
luego la tasa de bits es 1/T bps (bits por segundo), que en este caso
coincide con los baudios.

Puede ser interesante codificar de una manera más complicada, usando


por ejemplo cuatro senos; así un seno a 1 kHz significa 00, uno a 2 kHz
corresponde a 01, los 3 kHz a 10 y los 4 kHz a 11. De este modo, la
tasa de baudios sigue siendo 1/T baudios ya que se transmite una señal
cada T segundos. No obstante, la tasa de bits es distinta porque en
cada señal van 2 bits, esto es 2/T bps (o 2 bits cada T segundos). De
manera general, una señal puede codificar {\displaystyle 2^{n}}2^{n} bits
{1, 2, 4, 8, 16, 32, 64, 128...} y se define la tasa de símbolo Rs como el
número de símbolos (señales) que se transmiten en un tiempo de
símbolo T, normalmente:

{\displaystyle Rs={\frac {1}{T}}[baudios]}Rs={\frac {1}{T}}[baudios]


Asimismo, la tasa de bits (bitrate) es el número de bits que se
transmiten en un tiempo T y se calcula como:

{\displaystyle Rb={\frac {2^{n}}{T}}[bps]}Rb={\frac {2^{n}}{T}}[bps]


Consideraciones:

La tasa de baudios y la tasa de bps o aumentan si disminuye T.


La tasa de bits aumenta también si aumenta n.
La tasa de baudios siempre es menor o igual a la tasa de bits, esto es:
{\displaystyle Rs\leq Rb}Rs\leq Rb
ya que:

{\displaystyle {\frac {1}{T}}\leq {\frac {2^{n}}{T}}}{\frac {1}{T}}\leq {\frac


{2^{n}}{T}}
con n = {0, 1, 2, 3,...}
Tasa de Bits

La tasa de bits (bit rate) es la cantidad de datos almacenados o


transmitidos a través de un canal de transmisión en 1 segundo. En
cámaras o grabadoras IP, generalmente la tasa de bits se mide en
megabits por segundo (Mb/s), y cuanto mayor sea su valor (número de
bits almacenados/transferidos dentro de un segundo), mayor será la
calidad del material guardado.

La tasa de bits se confunde a menudo con el rendimiento (throughput),


ya que ambos se expresan en la misma unidad. Sin embargo, el
rendimiento determina la capacidad de transmisión de un canal de
comunicación, mientras que la tasa de bits determina la intensidad
momentánea de un flujo de datos.

La tasa de bits se puede calcular utilizando la siguiente fórmula:

K = V log2(n)

Notas explicativas:
V – velocidad de generación de caracteres en baudios (número de
variaciones dentro del medio de transmisión por segundo)
n – valencia de la señal (binaria = 2)

En cámaras IP, especialmente aquellas con una resolución de


1920x1080 px (Full HD) o superior, la calidad de la grabación puede
variar entre diferentes modelos precisamente por la máxima tasa de bits
disponible (bit rate). Incluso si dos cámaras comparten el mismo códec
que utiliza la compresión (por ejemplo, H.264), la calidad de imagen
será notablemente superior en el modelo con la tasa de bits más alta; al
mismo tiempo, esto se traduce en una mayor ocupación de la conexión
disponible y mayor consumo de la memoria de masa de la grabadora en
una determinada unidad de tiempo.
Debido a las técnicas utilizadas en la transmisión de datos, podemos
distinguir entre la tasa de bits constante (CBR – Constant Bit Rate) y
tasa de bits variable (VBR – Variable Bit Rate).

La tasa de bits constante significa el uso del mismo número de bits en el


flujo de datos para la transmisión o grabación, independientemente de,
por ejemplo, la calidad actual de una secuencia de vídeo o imagen. Esta
solución funciona bien con un rendimiento limitado, por ejemplo en los
medios streaming durante la transmisión de datos multimedia a través
de Internet. Sin embargo, este método es desfavorable durante la
grabación de los datos multimedia en que CBR puede contener
informaciones redundantes, por ejemplo, para secuencias de vídeo
simples con baja variabilidad en el tiempo y no suficientes para
secuencias de vídeo muy dinámicas (pérdida de calidad de la
grabación).

La tasa de bits variable significa un número variable de bits en un


determinado segmento de tiempo. En cámaras IP, el objetivo de este
método es mantener la calidad constante de la imagen de salida,
independientemente de los datos de entrada (por ejemplo, dinámica de
imágenes, diferencia de colores, contraste), y no un número constante
de bits en una unidad de tiempo. Esta técnica también se utiliza en la
grabación de datos multimedia en las memorias de masa, también
debido a un uso más óptimo del espacio disponible.

Medición de la información

Unidades de medición
De acuerdo con Configurar equipos (S. F.) las unidades de medida en
Informática a veces pueden resultar algo confusas. Vamos a tratar de
aclarar algunos conceptos viendo a que se refieren.
Podemos agrupar estas medidas en tres grupos: Almacenamiento,
procesamiento y transmisión de datos.

Almacenamiento:

Con estas unidades medimos la capacidad de guardar información de


un elemento de nuestro PC. Los medios de almacenamiento pueden ser
muy diferentes. Precisamente es en este tipo de medidas donde se
puede crear una mayor confusión.

La unidad básica en Informática es el bit. Un bit o Binary Digit es un


dígito en sistema binario (0 o 1) con el que se forma toda la información.
Evidentemente esta unidad es demasiado pequeña para poder contener
una información diferente a una dualidad (abierto/cerrado, si/no), por lo
que se emplea un conjunto de bits (en español el plural de bit NO es
bites, sino bits).

Para poder almacenar una información más detallada se emplea como


unidad básica el byte u octeto, que es un conjunto de 8 bits. Con esto
podemos representar hasta un total de 256 combinaciones diferentes
por cada byte.

Byte.- Formado por un octeto (8 bits).


La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8,
16, 32, 64, 128, 256, 512.
Se pueden usar capacidades intermedias, pero siempre basadas en
esta progresión y siendo mezcla de ellas (24 bytes=16+8).

Kilobyte (K o KB).- Aunque se utilizan las acepciones utilizadas en el SI,


un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un
KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo,
proveniente del griego, que significa mil), se está utilizando cada vez
más el término definido por el IEC (Comisión Internacional de
Electrónica) Kibi o KiB para designar esta unidad.

Megabyte (MB).- El MB es la unidad de capacidad más utilizada en


Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB
son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del
término, cada vez se está empleando más el término MiB.

Gigabyte (GB).- Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576


KB. Cada vez se emplea más el término Gibibyte o GiB.

Terabyte (TB).- Aunque es aun una medida poco utilizada, pronto nos
tendremos que acostumbrar a ella, ya que por poner un ejemplo la
capacidad de los discos duros ya se está aproximando a esta medida.
Un Terabyte son 1.024 GB.

Existen unas medidas superiores, como el Petabyte, Exabyte, Zettabyte


o el Yottabyte respectivamente, que podemos calcular multiplicando por
1.024 la medida anterior. Estas medidas muy probablemente no lleguen
a utilizarse con estos nombres, sino por los nuevos designados por el
IEC.

Entropía de la Información

En el ámbito de la teoría de la información la entropía, también llamada


entropía de la información y entropía de Shannon (en honor a Claude E.
Shannon), mide la incertidumbre de una fuente de información.

La entropía también se puede considerar como la cantidad de


información promedio que contienen los símbolos usados. Los símbolos
con menor probabilidad son los que aportan mayor información; por
ejemplo, si se considera como sistema de símbolos a las palabras en un
texto, palabras frecuentes como «que», «el», «a» aportan poca
información, mientras que palabras menos frecuentes como «corren»,
«niño», «perro» aportan más información. Si de un texto dado borramos
un «que», seguramente no afectará a la comprensión y se
sobreentiende, no siendo así si borramos la palabra «niño» del mismo
texto original. Cuando todos los símbolos son igualmente probables
(distribución de probabilidad plana), todos aportan información relevante
y la entropía es máxima.
Para evaluar el nivel de entropía de la información se evalúa mediante
una serie de métodos de verificación de errores que permiten validar si
el mensaje final llegado en el destino es una copia fiel del mensaje
original enviado por el emisor, esto se hace mediante una serie de
verificaciones matemáticas por cada dato del mensaje transmitido.

También podría gustarte