Está en la página 1de 62

Comunicaciones Analógicas y

Digitales - CAYD
Ing. María Fernanda Montero Molina
CODIFICACIÓN DE FUENTE

Cuando el decodificador se encuentra con la siguiente secuencia

001001
CODIFICACIÓN DE FUENTE

La transmisión no puede ser fiable.


Compresión con pérdidas y sin pérdidas:

Sin pérdidas (Lossless):


Métodos que comprimen la entrada tal cual, y al aplicar el proceso
inverso se obtiene una copia idéntica a la entrada del compresor. GIF.

Con pérdidas (Lossy):


Métodos que durante el proceso de compresión pierden información en
forma involuntaria (errores de redondeo) o voluntaria (desestimación de
ciertos valores). JPEG.
Sin pérdidas:

• RLE (Run-Length Encoding): Es una técnica eficiente solo en


aplicaciones que involucren muchos caracteres repetidos.

Ejemplo:
Sin pérdidas:

• RLE (Run-Length Encoding)

Ejemplo:

ABBBBBBBBBCDEEF
Sin pérdidas:

• RLE (Run-Length Encoding)

Ejemplo:
Sin pérdidas:
Ejemplo:
Sin pérdidas:

• Codificación de Huffman: Es una técnica de compresión estadística que


proporciona una reducción promedio del código usado para
representar los símbolos de un alfabeto.

La codificación Huffman es uno de los métodos clásicos de codificación de


fuente de la familia de los métodos estadísticos, son aquellos que
necesitan conocer la distribución probabilística de la fuente.
Codificación de Huffman
La codificación usando el método de Huffman (código Huffman) es un
código prefijo óptimo para un conjunto de probabilidades.

1. Ordena los símbolos de más probable a menos probable.


2. Comienza a construir un árbol por las hojas combinando los dos
símbolos menos probables.
3. Itera el procedimiento
Codificación de Huffman
Generar el código de Huffman correspondiente a las siguientes
probabilidades

¿Cuál es el valor de la entropía?


Ejemplo:
Diseñar un código Huffman para los caracteres y
frecuencia que se presentan en la siguiente tabla:

Caracteres x y * + ( )
Frecuencias 10 10 15 25 20 20
Ejercicio:
Diseñe un código Huffman para el alfabeto {A,B,C,D,E} con
probabilidades de ser transmitidos {1/2, 1/4, 1/8, 1/16, 1/16}
respectivamente.
Compresión de información
La compresión de datos digitales, imágenes digitales, es el proceso de
reducción del volumen de datos para representar una determinada
cantidad de información.

Un conjunto de datos puede contener datos redundantes que son de poca


relevancia o son datos que se repiten en el conjunto, los cuales si se
identifican pueden ser eliminados.
Compresión de información
El ojo humano responde con diferente
sensibilidad a la información visual que
recibe.

La información a la que es menos sensible


se puede descartar sin afectar a la
percepción de la imagen, suprimiéndose lo
que se conoce como redundancia visual, y
produciéndose a la vez la pérdida de
ciertas características de la imagen.
Compresión de información
El gran tamaño de los archivos de imagen ha hecho que se desarrollen
muchos métodos para comprimir datos.
La compresión es una parte muy importante en el flujo de trabajo con
imágenes digitales ya que sin esta los archivos ocuparían la mayor parte de
nuestros sistemas de almacenamiento y su velocidad de transferencia se
vería disminuida.

El objetivo de la compresión de imágenes es reducir los datos redundantes


e irrelevantes de una imagen con la menor pérdida de calidad posible para
permitir su almacenamiento o transmisión de forma eficiente
Compresión de información
Cuando guardamos una imagen digital como un archivo en una cámara o
un servidor web, esta se guarda esencialmente como una larga cadena de
bits (ceros y unos), donde las filas de la imagen están concatenadas
formando una larga cadena de bits.

Cada píxel de la imagen se compone de un byte y cada byte se construye a


partir de 8 bits. Si la imagen tiene dimensiones M × N píxeles, entonces
necesitamos MN bytes o 8MN bits para almacenar la imagen.
Compresión de información
La imagen es de tamaño 768×512 por lo tanto al almacenar dicha
imagen en un ordenador, el archivo que contiene la cadena de bits será de
una longitud de 768 × 512 × 8 = 3.145.728 bits
Compresión de información
La compresión de imágenes trata de minimizar el número de bits
necesarios para representar una imagen

En 1952, David Huffman hizo la siguiente observación:


En lugar de utilizar el mismo número de bits para representar cada
carácter, ¿Por qué no utilizar una cadena de bits corta para los caracteres
que aparecen con mayor frecuencia en una imagen y una cadena de bits
más larga para los caracteres que aparecen con menor frecuencia en la
imagen?
Codificación de Huffman
La idea de Huffman fue identificar los píxeles que aparecen con mayor
frecuencia en una imagen y asignarles representaciones cortas.
Codificación de Huffman
Almacenar la palabra abracadabra en el disco.
A cada letra de la palabra abracadabra se le asigna un número en el código
ASCII por lo que la palabra abracadabra puede ser la primera fila de una
imagen digital.
Codificación de Huffman
La palabra abracadabra se construye a partir de 11 caracteres, cada
uno requiere 8 bits.

Por lo tanto necesitamos 11×8 = 88 bits para almacenarla.

Palabra abracadabra expresada en bits:


Codificación de Huffman
La palabra abracadabra - código de Huffman
Codificación de Huffman
Compresión de información
• Voz
• Audio
• Video
• Imágenes
Compresión y codificación de voz
Codifican la voz mediante la extracción de un conjunto de parámetros, los
cuales se digitalizan y se transmiten al receptor; en este se emplean dichos
parámetros para fijar los valores generadores y filtros, que sintetizan la voz a la
salida.

x(t) Codificador y(t)


de voz

Calidad de transmisión en la codificación de voz. La calidad de una señal de


voz decodificada depende de la tasa de transmisión:

MOS (Mean Opinion Score)


𝑴𝑶𝑺 > 𝟒: Calidad de transmisión de difusión digital. (> 𝟔𝟒 𝑲𝒃𝒑𝒔)
𝑴𝑶𝑺 > 𝟑: Calidad telefónica internacional (e𝒏𝒕𝒓𝒆 𝟏𝟒 𝒚 𝟔𝟒 𝑲𝒃𝒑𝒔)
𝑴𝑶𝑺 > 𝟐: Calidad de transmisión de comunicaciones móviles (𝐞𝐧𝐭𝐫𝐞 𝟕. 𝟐 𝐲 𝟏𝟐 𝑲𝒃𝒑𝒔)
𝑴𝑶𝑺 < 𝟏: Calidad no aceptable
Compresión y codificación de audio

Los codificadores de Audio son encargados de comprimir y descomprimir


las tramas de audio con el fin de hacer las tasas de transmisión y
almacenamiento menores, manteniendo la calidad de la información.

- Pueden ser de hardware o directamente en software.


Códigos que admiten pérdidas
Codec Algoritmo Sample rate Bit Rate Latencia CBR VBR Stereo Multicanal

6.60, 8.85, 12.65,


AMR-WB 14.25, 15.85, 18.25, Yes: only in MPEG-4
ACELP 16 kHz 25 ms Yes Yes No
(G.722.2) 19.85, 23.05, Part 12container
23.85 kbit/s
GSM-HR VSELP 8 kHz 5.6 kbit/s 25 ms Yes No No No
GSM-FR RPE-LTP 8 kHz 13 kbit/s 20–30 ms Yes No No No
GSM-EFR ACELP 8 kHz 12.2 kbit/s 20–30 ms Yes No No No
8, 16, 24, 32, 40,
MP3 (MPEG-1, 2, MDCT, 8, 11.025, 12, 16, 48, 56, 64, 80, 96,
>100 ms Yes: Dual,
2.5 Audio Layer Hybrid Subban 22.05, 24, 32, 44.1, 112, 128, 144, 160, Yes Yes No
Mid/Side, Intensity
III) d 48 kHz 192, 224, 256, 288,
320 kbit/s
32, 48, 56, 64, 80,
MPEG-1 Audio 96, 112, 128, 160,
Subband 32, 44.1, 48 kHz Yes Yes: Yes: Dual, Intensity No
Layer II (MP2) 192, 224, 256, 320,
384 kbit/s
5 full range audio
8, 16, 24, 32, 40,
channels and an
MPEG-2 Audio 16, 22.05, 24 kHz[5 48, 56, 64, 80, 96,
Subband Yes Yes: Yes LFE-channel
Layer II (MP2) 3][54] 112, 128, 144,
with MPEG
160 kbit/s[53]
Multichannel
8, 11.025, 16,
Windows Media
MDCT 22.05, 32, 44.1, 8–768 kbit/s >100 ms Yes Yes Yes No
Audio Standard
48 kHz
8, 11.025, 16, Yes: At least 8
Windows Media
MDCT 22.05, 32, 44.1, 48, 4–768 kbit/s >100 ms Yes Yes Yes channels,
Audio Pro
88.2, 96 kHz expandable
Códigos que NO admiten perdidas
Codec Algoritmo Sample rate Bit Rate Latencia CBR VBR Stereo Multicanal

Dolby TrueHD Lossless 48, 96, 192 kHz 16, 20, 24 Yes: 5.1, 7.1, and Dolby
? Yes
Atmos object-based audio[57]
RealAudio Varies
Lossless Varies Varies Yes Yes: Up to 6 channels
Lossless (see article)
True Audio approx.
Lossless 0–4 GHz 1 to > 64 Yes Yes: Up to 65535 channels
(TTA) 1045 ms[58]
Varies in lossless
mode; supports 32-bit
WavPack Lossless, 1 Hz to
float input; 2.2 ? Yes Yes: Up to 256 channels
Lossless Hybrid 16.777216 MHz minimum in lossy
mode
8, 11.025, 16,
Windows Media
Lossless 22.05, 32, 44.1, 16, 24 >100 ms Yes Yes: Up to 6 channels
Audio Lossless
48, 88.2, 96 kHz
Códigos UIT
Codec Algoritmo Sample rate Bit Rate Bits Latencia CBR VBR Stereo Multicanal

compandingA- 125 µs
G.711 8 kHz 64 kbit/s 8 bit (log) Yes No No No
law or μ-law, PCM (typical)
G.721 ADPCM, Lossy 8 kHz 32 kbit/s 13 bit Yes No No No
64 kbit/s
sub-
(comprises 48, 56 or
G.722 bandADPCM, Loss 16 kHz 14 bit 4 ms Yes No No No
64 kbit/s audio and 16, 8 or
y
0 kbit/s auxiliary data)
multi-rate 6.60, 8.85, 12.65, 14.25, Yes: only
G.722.2 (AMR-
wideband ACELP, 16 kHz 15.85, 18.25, 19.85, 23.05, 14 bit 25 ms Yes Yes in MPEG-4 Part No
WB)
Lossy 23.85 kbit/s 12container
G.723 ADPCM, Lossy 8 kHz 24, 40 kbit/s 13 bit Yes No No No
G.727 ADPCM, Lossy 8 kHz 16, 24, 32, 40 kbit/s 13 bit Yes Yes No No
low-
G.728 8 kHz 16 kbit/s 13 bit 0.625 ms Yes No No No
delay CELP, Lossy
G.729 CS-ACELP, Lossy 8 kHz 8 kbit/s 13 bit 15 ms Yes No No No
CELP, TDBWE, 8 kbit/s, 12–32 kbit/s in 48.9375 m
G.729.1 8, 16 kHz 16 bit Yes Yes No No
TDAC, Lossy 2 kbit/s steps s
Compresión y codificación de video
El video es una secuencia de imágenes caracterizadas por su resolución,
número de colores y número de imágenes por unidad de tiempo.
• Reducir los requisitos de ancho de banda.
• Eliminar redundancia y la irrelevancia.

MPEG (Motion Picture Expert Group)

Utiliza la compresión por correlación entre tramas o compensación en


movimiento, en la cual se aplica la transformada del coseno discreta con la
transformada (DCT) de compensación en movimiento (MCT).
• MPEG-1:estándar para CD de video y MP3.
• MPEG-2: estándar de televisión digital.
• MPEG-4: estándar para video multimedia.
• MPEG-7: Descripción y búsqueda de contenido y audio.
• MPEG-21: estándar para multimedia.
MPEG (Motion Picture Expert Group)

• MPEG está orientado a vídeo y su formato hace


uso de un único espacio de color (Y,Cr,Cb), así
como de un rango limitado de resoluciones y
relaciones de compresión. Tiene además
mecanismos para el manejo del sonido.

• Aprovecha el alto grado de correlación entre las


imágenes de una secuencia de vídeo, así como la
naturaleza predictiva del movimiento.

• Especifica la sintaxis para el almacenamiento y


transmisión de los datos comprimidos y define el
proceso de docodificación.
Los estándares NTSC y PAL son las más utilizados,

https://www.itu.int/dms_pubrec/itu-r/rec/bt/R-REC-BT.470-6-199811-S!!PDF-E.pdf
Codificación de imágenes
La compresión de imágenes se produce por redundancia de la codificación,
por redundancia entre pixeles y por redundancia psicovisual:
JPEG: emplea un algoritmo genérico para comprimir las imágenes estáticas,
lleva la información de coordenadas y color de cada punto a un formato
genérico y las comprime utilizando un esquema de compresión con pérdidas
basado en DTC.
Parámetros en comunicaciones
digitales
Tasa de bits vs tasa de baudios
La señal de entrada al transmisor tiene una tasa Rb - bits/s. 𝑀 = 2𝑘
Tb – tiempo de bit, tiempo utilizado para su Tx.
En el caso de una transmisión M-aria el tiempo necesario para transmitir
cada grupo de k dígitos binarios, se denomina tiempo de símbolo T=kTb.
El número de símbolos que se generan por segundo, D, se denomina tasa
de símbolo está medida en baudios.

𝑇 = 𝑘𝑇𝑏
1
𝑅𝑏 =
𝑇𝑏

𝑅𝑏
𝐷=
𝑙𝑜𝑔2 𝑀
La calidad de la transmisión digital binaria se determina mediante
la tasa de error “BER” que depende de la relación Eb/No.

Las causas de errores en la transmisión digital son:

• Ruido debido al canal


• Interferencia entre símbolos (ISI): el pulso se dispersa - afecta y se ve
afectado por los pulsos adyacentes.
• Distorsiones de la señal banda base por retardos en la propagación
• Interferencias por otras señales de radio frecuencia: Cocanal y canal
adyacente.
Interferencia entre símbolos

Un pulso p(t) básico podemos considerarlo como


un pulso rectangular, sin embargo la densidad de
potencia espectral de un pulso cuadrado es
infinita ya que P(W) tiene un ancho de banda
infinito.

Hay una zona del espectro donde se concentra la


energía |f|<fo fuera de esta zona la energía es
pequeña pero no cero.
Interferencia entre símbolos

Filtro coseno alzado

Para evitar ISI se filtran los pulsos


rectangulares para reducir su ancho de
banda y adaptarlos a las características
del canal.
BER – BIT ERROR RATE
Tasa de error de bits, BER se utiliza para cuantificar un
canal que transporta datos contando la tasa de errores
en una cadena de datos. Se utiliza en
telecomunicaciones, redes y sistemas de radio.
Tasa de error de bits, BER es un parámetro clave que se
utiliza en la evaluación de sistemas que transmiten
datos digitales de una ubicación a otra.

# 𝑑𝑒 𝑒𝑟𝑟𝑜𝑟𝑒𝑠
𝐵𝐸𝑅 =
𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑏𝑖𝑡𝑠 𝑒𝑛𝑣𝑖𝑎𝑑𝑜

¿Qué factores afectan la tasa de errores de


bits, BER?
Detección y corrección de errores
Detección y corrección de errores
En 1947 Richard Hamming , precursor de las técnicas de corrección, publica
el primer código de corrección Hamming (7,4).

El código de haming, aparece en el libro de Claude Shannon “A


Mathematical Theory of Communication” y lo popularizó Marcel Golay.
Detección y corrección de errores
Se envía algún tipo de redundancia (información extra) para revisar
inconsistencias en el mensaje.

Sistemas sistemáticos (palabra original + código) o sistemas no-


Sistemáticos (palabra transformada)

Implementaciones :

ARQ: Retransmisión Automática


FEC: Corrección en Receptor
Detección y corrección de errores
ARQ - Retransmisión Automática

Implica la transmisión de un carácter dos veces, si los mensajes recibidos son


diferentes se encuentra un error.

Ejemplo:
Mensaje enviado: CASA CASA
Mensaje recibido: CASA CAPA
CASA ≠ CAPA ➔ ERROR!!!

Código altamente ineficiente.


Detección y corrección de errores
Cada carácter tiene el mismo número de unos, y en consecuencia, si solo se
cuenta la cantidad de unos recibidos en cada carácter, se puede determinar si
ha ocurrido un error.
El ejemplo más particular es ARQ (Automatic Request Transmission) de 3
unos.
Puede no detectar errores cuando se cambian tantos bits que el numero
total de unos es el mismo.
• Ejemplo:

Mensaje Enviado: 10101


Mensaje Recibido: 11001 ➔ 3 unos. NO ERROR!!!
Detección y corrección de errores

• Ejemplo:
Mensaje enviado: 0101001 (3d)
Mensaje recibido: 0101101 (?d) 4 unos ➔ ERROR
Bits de paridad

✓Consiste en agregar una cierta cantidad de bits adicionales llamados


“Bits de Paridad”. la cantidad (K) de bits de paridad a agregar junto con
la cantidad (M) de bits (datos) a enviar debe cumplir con la siguiente
ecuación:

✓Código corrector de errores supone que sólo un bit de información


puede llegar invertido durante la transmisión, con lo cual con este
código sólo es posible corregir un sólo error.
PARIDAD PAR

El objetivo es agregar un "bit de paridad" para que el número de “1”s sea


par. Su función es forzar que el mensaje tenga determinada paridad. No es
capaz de detectar el error si se cambian 2 o 4 o más parejas de bits.
PARIDAD PAR: Número par de 1

101110 Números de unos son iguales a cuatro(4)


1011100

101100 Números de unos son iguales a tres (3)


1011001 Ejemplo
• PARIDAD PAR:
1011010 10100000
PARIDAD IMPAR

El objetivo es agregar un "bit de paridad" para que el número de “1”s sea


impar.
Paridad impar: número impar de 1

101110 Números de unos es igual a cuatro(4)


1011101
101100 Números de unos es igual a tres (3)
1011000 Ejemplo
• PARIDAD IMPAR:
1011011 10100001
Ejemplo:
Paridad par
Mensaje enviado : 11001100
Mensaje recibido: 11001100 ➔ Número par de unos SIN ERROR
Mensaje recibido: 10001100 ➔ Número impar de unos ERROR

Paridad impar
Mensaje enviado : 101010101
Mensaje recibido: 101010101➔Número impar de unos SIN ERROR
Mensaje recibido: 101000101➔ Número par de unos ERROR
Al momento de codificar, los bits de paridad (P) junto con los bits de
información (I) se ordenan de manera que los bits de paridad deben
ubicarse de forma tal que su posición sea potencia de 2.

Luego se los vuelve a renombrar con el subíndice en código binario,


quedando en la siguiente manera:
Ejemplo:
Implementar un esquema de codificación Hamming para los siguientes
datos.

(11,7) p bits de paridad datos d: 0101001


d bits de datos

p1 p2 d3 p4 d5 d6 d7 p8 d9 d10 d11
Posición 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011
1 2 3 4 5 6 7 8 9 10 11
Palabra original 0 1 0 1 0 0 1
p1 1 0 1 1 0 1
p2 0 0 0 1 0 1
p3 0 1 0 1
p4 1 0 0 1
Palabra + paridad 1 0 0 0 1 0 1 1 0 0 1
Ejemplo:
Implementar un esquema de codificación Hamming para los
siguientes datos

(11,7) p bits de paridad datos d: 0110101


d bits de datos
Ejemplo:
(11,7) p bits de paridad datos d: 0110101
d bits de datos

p1 p2 d3 p4 d5 d6 d7 p8 d9 d10 d11
Posición 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011
1 2 3 4 5 6 7 8 9 10 11
Palabra original 0 1 1 0 1 0 1
p1 1 0 1 0 1 1
p2 0 0 1 0 0 1
p3 0 1 1 0
p4 0 1 0 1
Palabra + paridad 1 0 0 0 1 1 0 0 1 0 1
Ejemplo:
(7,4) p bits de paridad datos d: 1100
d bits de datos
Ejemplo:
(7,4) p bits de paridad datos d: 1100
d bits de datos

p1 p2 d3 p4 d5 d6 d7
Posición 001 010 011 100 101 110 111
1 2 3 4 5 6 7
Palabra original 1 1 0 0
p1 0 1 1 0
p2 1 1 0 0
p3 1 1 0 0
Palabra + paridad 0 1 1 1 1 0 0
Hamming
Palabra almacenada 10001011001 - introduce error un 10001011000

p1 p2 d3 p4 d5 d6 d7 p8 d9 d10 d11 Cálculo paridad Paridad almaceada Comprobación


Posición 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011
1 2 3 4 5 6 7 8 9 10 11
Palabra original 0 1 0 1 0 0 0
p1 0 0 1 1 0 0 0 1 Error (1)
p2 1 0 0 1 0 0 1 0 Error (1)
p3 0 1 0 1 0 0 Ok(0)
p4 0 0 0 0 0 1 Error (1)

Comprobación de paridad = 1 0 1 1 - 11 - Error de bit 11- 10001011001 – datos


0101001 p4 p3 p2 p1

También podría gustarte