Está en la página 1de 81

SISTEMA DE

TRANSMISIÓN DE DATOS
SESION 8:
Presentación del Docente:

JOSE EDUARDO TORRES VEGA


Coronel EP ( R )
Diplomado en Ciencia y Tecnología
Ingeniero Electrónico CIP
Maestro en Administración
PADE-ESAN en Logística
Diplomado en Seguridad y Salud Ocupacional
Docente Universitario a nivel pre grado y post grado
Consultoría y Asesoría en el Desarrollo de Servicios de
Telecomunicaciones y Telemática, Temas de Seguridad Integral
Elaboración de Estudio Teórico de Radiaciones No Ionizantes
Inicio

¿Quién de Ustedes, conoce que es una Fuente de


información?

¿Existe relación entre un código y una fuente de


información?

Datos/Observaciones
Utilidad

¿Qué Estudiante puede explicar el significado de “CoDec”?

¿Qué Estudiante puede explicar el significado de Compresión de la


información de un mensaje

Presentación del Tema:

Definición y empleo de la codificación de una fuente de


información

Datos/Observaciones
Logro de la Sesión:
Al finalizar la sesión, el Estudiante explica la forma en que se realiza la
codificación de una fuente de información, mediante ejemplos sobre la
compresión de un mensaje en apoyo al despliegue de un Sistema de
comunicaciones
Utilidad del tema:
Identificación por los alumnos de la Utilidad del tema a desarrollar:
¿Cuál es la utilidad que Ud. considera que tiene el desarrollo del tema durante la sesión
de clases?
Exposición por el Docente, de la Utilidad del tema:
El estudiante utiliza la Codificación de fuente para lograr una comunicación
eficiente de los mensajes en un Sistema de comunicaciones
Datos/Observaciones
CODIFICACIÓN DE UNA FUENTE

Datos/Observaciones
▪ LOS PROBLEMAS QUE HAN DE ESTUDIARSE EN UN SISTEMA DE COMUNICACIÓN TIENEN QUE VER CON:
o LA CANTIDAD DE INFORMACIÓN
o LA CAPACIDAD DEL CANAL DE COMUNICACIÓN
o EL PROCESO DE CODIFICACIÓN PARA CAMBIAR UN MENSAJE EN UNA SEÑAL
o LOS EFECTOS DEL RUIDO.
▪ LAS FUENTES DE INFORMACIÓN SE PUEDEN MODELAR COMO PROCESOS ALEATORIOS, CUYAS PROPIEDADES
DEPENDEN DE LA NATURALEZA DE LA FUENTE:
o SEÑALES DE VOZ: LA DENSIDAD ESPECTRAL DE POTENCIA SE CONCENTRA MAYORITARIAMENTE EN LA BANDA DE
300 A 3400 Hz
o SEÑALES DE AUDIO: ANCHO DE BANDA LIMITADO ENTRE LOS 20 y 20.000 kHz.
o SEÑALES DE VIDEO: ANCHO DE BANDA LIMITADO, AL TIPO DE SISTEMA EMPLEADO: 0-4,5 MHz (PAL), 0-6,5 MHz
(NTSC)
o SEÑALES DE TELEMETRÍA: ANCHO DE BANDA DEPENDE DE LA VELOCIDAD DE CAMBIO DE LA SEÑAL QUE SE MIDE.

Datos/Observaciones
▪ TODAS LAS FUENTES DE INFORMACIÓN SON PROCESOS LIMITADOS EN BANDA, Y
PUEDEN SER RECONSTRUIDOS (MUESTREO ≥ FRECUENCIA DE NYQUIST) SIN PROBLEMAS
(si no se cuantifican).
o Muestreo con fs ≥ 2 Bmax (Nyquist): x(t)→x[n]
o Cuantificación x[n]→xq[n]→ distorsión (error de cuantificación).
o El muestreo es reversible pero la cuantificación no
▪ LA FUENTE DISCRETA GENERA, ALEATORIAMENTE, MENSAJES O SECUENCIAS DIGITALES
ARBITRARIAMENTE LARGAS, DE SÍMBOLOS DE UN CIERTO ALFABETO.
▪ LA CANTIDAD DE INFORMACIÓN POR SÍMBOLO GENERADA POR UNA FUENTE SE MIDE
EN BASE A SU ENTROPÍA.
▪ LA ENTROPÍA PROPORCIONA EL LÍMITE INFERIOR DEL NÚMERO DE BITS POR MUESTRA
NECESARIOS PARA TRANSMITIR LA INFORMACIÓN DE LA FUENTE SIN PÉRDIDAS, Y ES LA
TASA DE SALIDA A LA QUE DEBE TENDER UN BUEN CODIFICADOR DE FUENTE.

Datos/Observaciones
▪ CUANDO LA TASA DE TRANSMISIÓN ES MUCHO MAYOR QUE LA ENTROPÍA DE LA FUENTE, ES POSIBLE QUE SUS
PROPIEDADES NO SEAN IDÉNTICAS A LOS VALORES TEÓRICOS Y DAR LUGAR A INTERFERENCIAS.
▪ LA CODIFICACIÓN DE FUENTE SE ENCARGA DE QUE LOS BITS QUE APARECEN A LA SALIDA ESTÉN INCORRELADOS, Y DE
QUE TODAS LAS CADENAS DE CUALQUIER LONGITUD SEAN IGUALMENTE PROBABLES, OBTENIÉNDOSE UN ESPECTRO
SIMILAR AL TEÓRICO Y UNA CADENA DE BITS A TRANSMITIR LO MÁS CORTA POSIBLE.
▪ LA CODIFICACIÓN DE FUENTE SE DEFINE Y APLICA SOBRE VARIABLES ALEATORIAS DISCRETAS, YA QUE LAS FUENTES
DIGITALES SON PROCESOS ALEATORIOS DISCRETOS Y LAS ANALÓGICAS PUEDEN SER MODELADOS COMO SI FUERAN
DISCRETOS (LA CUANTIFICACIÓN INTRODUCE PÉRDIDAS).
▪ LOS ESQUEMAS DE CODIFICACIÓN SOSLAYAN LA RELACIÓN ENTRE LOS SUCESIVOS SÍMBOLOS DE LOS MENSAJES,
LIMITÁNDOSE A LA FRECUENCIA DE APARICIÓN DE LOS DISTINTOS SÍMBOLOS PARA CONSEGUIR UNA MAYOR EFICIENCIA
DE CODIFICACIÓN A TRAVÉS DE LA ASIGNACIÓN DE REPRESENTACIONES MÁS CORTAS A LOS SÍMBOLOS MÁS FRECUENTES.

Datos/Observaciones
▪ EN SISTEMAS DE TELECOMUNICACIONES LA INFORMACIÓN SE OBTIENE OBSERVANDO UNA FUENTE ALEATORIA
TRANSMITIDA POR UN CANAL (VARIABLE ALEATORIA); EN ESTE EFECTO, SE CONSIDERA PARA EFECTOS DEL
DISEÑO:

o TRANSMISIÓN FIABLE DE LA INFORMACIÓN O CON LA MÍNIMA DISTORSIÓN DE UN PROCESO ALEATORIO.

o CODIFICACIÓN DE FUENTE O LA REDUCCIÓN SIN/CON PERDIDAS DE LA CANTIDAD DE INFORMACIÓN.


MAPEO DEL RANGO DE UNA FUENTE A UN CONJUNTO FINITO DE SIMBOLOS DE UN ALFABETO
DETERMINADO: BINARIO, TERNARIO, ETC.

o TRANSMISIÓN CON LA MENOR PROBABILIDAD DE ERROR DE BIT EN BASE A LA TEORÍA DE LA


INFORMACIÓN.

o DISEÑO DE CÓDIGOS/SISTEMAS DE PROTECCIÓN PARA DETECCIÓN/CORRECCIÓN) FRENTE A ERRORES


(CODIFICACIÓN DE CANAL).

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
CODIFICACION DE LONGITUD FIJA A VARIABLE: EJEMPLO

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
UN SISTEMA DE COMPRESIÓN CONSTA DE:

CODIFICADOR Y DECODIFICADOR

CODIFICADOR Y DECODIFICADOR PUEDEN SER:

ASIMÉTRICOS

EL CODIFICADOR SUELE SER MÁS COMPLEJO Y LENTO QUE EL DECODIFICADOR (EJ.:


VÍDEO POR DEMANDA)

SIMÉTRICOS

COSTE COMPUTACIONAL SIMILAR (EJ: VIDEOCONFERENCIA).

CON PÉRDIDAS (LOSSY COMPRESSION) O IRREVERSIBLE

ADECUADA PARA MEDIOS CONTINUOS (AUDIO Y VÍDEO).

MAYORES TASAS DE COMPRESIÓN.

SIN PÉRDIDAS (LOSSLESS COMPRESSION) O REVERSIBLE:

FICHEROS DE DATOS, IMÁGENES MÉDICAS, ETC.

Datos/Observaciones
FACTORES EN EL DISEÑO DE UN CODIFICADOR.

Calidad de la señal
- BER (Bit Error Ratio)
- SNR (Signal/Noise)
- MOS (Mean Opinion Score)

Eficiencia Retardo
- Tasa de compresión

Complejidad
- Espacio de memoria
- Potencia (mW)
- Operaciones/Seg.
Datos/Observaciones
TÉCNICAS DE COMPRESIÓN

ENTROPY ENCODING

CODIFICA LOS DATOS SIN NECESIDAD DE CONOCER LA NATURALEZA DE ESTOS.

DE PROPÓSITO GENERAL (TODO TIPO DE DATOS).

SON TÉCNICAS DE COMPRESIÓN SIN PÉRDIDAS.

EJEMPLOS: STATISTICAL (HUFFMAN, ARITMÉTICA,ETC.), RUN-LENGTH.

SOURCE ENCODING

CODIFICA LOS DATOS BASÁNDOSE EN LAS CARACTERÍSTICAS Y PROPIEDADES DE ESTOS.

SUELEN SER TÉCNICAS DE COMPRESIÓN CON PÉRDIDAS.

SE OBTIENEN TASAS DE COMPRESIÓN ELEVADAS.

CODIFICADORES/DECODIFICADORES DE PROPÓSITO ESPECÍFICO.

EJEMPLOS:

DIFFERENTIAL, TRANSFORM, VECTOR QUANTIZATION, ETC.

Datos/Observaciones
CODIFICACIÓN BASADA EN LA ENTROPÍA

ENTROPÍA:
VALOR MEDIO DE INFORMACIÓN DE UN CONJUNTO DE SÍMBOLOS PROCEDENTE DE
UNA FUENTE DE INFORMACIÓN (ES IMPOSIBLE DE MEDIR EN LA PRÁCTICA).

H (S ) =  pi log 2
1 (PI = PROBABILIDAD DEL
SÍMBOLO I) i pi

POR EJEMPLO: SEA S = {4,5,6,7,8,9}, EN DONDE LA PROBABILIDAD DE CADA SÍMBOLO ES


LA MISMA (1/6).

H (S ) = 6  log 2 6 = 2.585
1
6

SEGÚN LA TEORÍA DE LA INFORMACIÓN (SHANNON), ESTA FUENTE NO PUEDE SER


CODIFICADA (SIN PÉRDIDAS) CON MENOS DE 2.585 BITS POR SÍMBOLO.
Datos/Observaciones
STATISTICAL ENCODING

TRATA DE IDENTIFICAR LOS SÍMBOLOS (PATRONES DE BITS) QUE MÁS SE REPITEN EN EL


CONJUNTO DE DATOS DE ENTRADA.

SE CODIFICAN CON POCOS BITS LOS SÍMBOLOS MÁS FRECUENTES, MIENTRAS QUE LOS MENOS
FRECUENTES SON CODIFICADOS CON MÁS BITS.

EJEMPLOS:

CODIFICACIÓN MORSE

E: ‘•’ Y Q:’--•-’

CODIFICACIÓN HUFFMAN.

CODIFICACIÓN ARITMÉTICA.

Datos/Observaciones
CODIFICACIÓN HUFFMAN

REPRESENTAN LOS SÍMBOLOS CON UN NÚMERO DE BITS INVERSAMENTE PROPORCIONAL A


SU FRECUENCIA.

ALGORITMO GENÉRICO:

SE CONSTRUYE UN ÁRBOL BINARIO DE ABAJO HACIA ARRIBA AGRUPANDO LOS SÍMBOLOS DE MENOR
FRECUENCIA Y ASIGNADO LA SUMA DE LAS PROBABILIDADES DE AMBOS AL NODO PADRE DEL ÁRBOL.

CADA SÍMBOLO ESTARÁ REPRESENTADO POR UNA HOJA DEL ÁRBOL Y SU CÓDIGO SERÁN LOS BITS
RECORRIDOS HASTA LA RAÍZ DEL MISMO.

EJEMPLO:

Datos/Observaciones
ABCDE(39)
Símbolo Código
1
A 0
BCDE(24) B 100
0
0 1 C 101
D 110
BC(13) DE(11) E 111
0 1 0 1

A(15) B(7) C(6) D(6) E(5)

Datos/Observaciones
OBTENCIÓN DEL CÓDIGO DE HUFFMAN ASOCIADO A UNA FUENTE

1) ORDENAR LOS MENSAJES CON PROBABILIDADES DECRECIENTES


2) CREAR UN ÁRBOL COMBINANDO SIEMPRE LOS NODOS CON MENOR PROBABILIDAD
3) PARA ASIGNAR LOS CÓDIGOS A LOS MENSAJES, BASTA CON RECORRER EL ÁRBOL DESDE LA
RAÍZ A CADA UNO DE LOS MENSAJES, ASIGNANDO UN 1 SI TOMAMOS UNA RAMA HACIA
ABAJO Y UN CERO EN HORIZONTAL .(LA ASIGNACIÓN DE CEROS Y UNOS A LAS RAMAS
PUEDE SER ARBITRARIA)

▪ SE HAN ORDENADO LOS MENSAJES


CON PROBABILIDAD DECRECIENTE
▪ SE HAN COMBINADO LOS NODOS
CON MENOR PROBABILIDAD PARA
CREAR EL ÁRBOL

Datos/Observaciones
H N Huffman  H +1

▪ SE RECORRE EL ÁRBOL DESDE LA RAÍZ A CADA UNO DE LOS MENSAJES, ASIGNANDO


UN 1 SI TOMAMOS UNA RAMA HACIA ABAJO, Y UN CERO EN HORIZONTAL
▪ CALCULANDO EL NÚMERO MEDIO DE BITS SE OBTIENE UN TOTAL DE 2,4 BITS. SI
CALCULAMOS LA ENTROPÍA DE LA FUENTE ORIGINAL OBTENDREMOS 2,344 BITS

Datos/Observaciones
DECODIFICACIÓN DE UNA SECUENCIA DE MENSAJES

LOS CÓDIGOS DE HUFFMAN PERMITEN DECODIFICAR LA SECUENCIA DE DATOS DIRECTAMENTE


A PARTIR DE LA TABLA DE CÓDIGOS Y SIN NECESIDAD DE SEÑALAR EL PRINCIPIO Y EL FINAL DE
UN MENSAJE

▪ DECODIFICACIÓN DE UNA SECUENCIA DE MENSAJES= C6, C4, C1, C1, C2 Y C8.


▪ HAY QUE TENER LA TABLA DE CÓDIGOS
Datos/Observaciones
CODIFICACIÓN ARITMÉTICA

IDENTIFICA UNA SECUENCIA DE SÍMBOLOS ASIGNÁNDOLES UNA


REPRESENTACIÓN BINARIA DE UN INTERVALO DE UNA LONGITUD INFERIOR A LA
UNIDAD.
SIEMPRE SON MÁS EFICIENTES QUE LOS CÓDIGOS HUFFMAN
SEPARA EL MODELO PROBABILÍSTICO DE LA ASIGNACIÓN DE BITS PUDIENDO DEFINIR
CODIFICADORES ADAPTATIVOS.
ES COMPUTACIONALMENTE EFICIENTE, AUNQUE ESTÁ SUJETO A PATENTES.

EJEMPLO:
SUPONGAMOS SÓLO DOS SÍMBOLOS, A Y B CON UNA PROBABILIDAD DE P(A)=1/3 Y
P(B)=2/3.

Datos/Observaciones
P(A) = 1/3 P(B) = 2/3 segmento código
1 AAA 31/32 .11111
AA AAB 15/16 .1111
8/9
ABA 14/16 .1110
A AB ABB 6/8 .110
2/3
16/27 BAA 10/16 .1010
BA
BAB 4/8 .100
4/9
BBA 3/8 .011
B
8/27
BB
BBB 1/4 .01

Datos/Observaciones
Codificación aritmética

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
RUN-LENGTH ENCODING

SE BASA EN DETECTAR LAS REPETICIONES DE SÍMBOLOS (BITS,


NÚMEROS, ETC) EN LOS DATOS A CODIFICAR.

EJEMPLO:

Datos a codificar (42): 3150000000376541111111127000000000000003

Datos codificados (21): 315A0737654A1827A0143


Tasa de compresión: 50%

◆ ESTE PATRÓN ES FRECUENTE EN MULTIMEDIA:

➢ AUDIO: TIRAS DE CEROS QUE REPRESENTAN SILENCIOS.

➢ VÍDEO E IMAGEN: FONDOS DEL MISMO COLOR (PAREDES,


CIELOS, ETC.)

Datos/Observaciones
CODIFICACIÓN BASADA EN LA FUENTE

▪ SE BASAN FUNDAMENTALMENTE EN LAS PROPIEDADES DE LA FUENTE


DE DATOS A CODIFICAR.

▪ SUELEN TOLERAR PÉRDIDAS EN LA CODIFICACIÓN (LOSSY CODECS)


QUE PERCEPTUALMENTE PASAN INADVERTIDAS PARA EL USUARIO.

▪ SON CODIFICADORES DE PROPÓSITO ESPECÍFICO.

▪ POR TÉRMINO GENERAL OBTIENEN MAYORES PRESTACIONES QUE LOS


CODIFICADORES BASADOS EN LA ENTROPÍA.

Datos/Observaciones
TEOREMA DE SHANNON

Datos/Observaciones
LA CODIFICACIÓN ES LA OPERACIÓN QUE PERMITE PASAR DEL ALFABETO FUENTE AL ALFABETO CÓDIGO

LA PRIMERA PROPIEDAD: ES QUE EL CÓDIGO CONSTITUYA UN BLOQUE. UN CÓDIGO ASIGNA CADA UNO DE LOS
SÍMBOLOS DEL ALFABETO FUENTE S A UNA SECUENCIA FIJA DEL ALFABETO CÓDIGO X. LAS QUE RECIBEN EL NOMBRE DE
PALABRAS CÓDIGO. SE DENOMINARÁ X A LA PALABRA DE CÓDIGO QUE CORRESPONDE AL SÍMBOLO S

Datos/Observaciones
LA SEGUNDA PROPIEDAD: TODAS LAS PALABRAS X SON DISTINTAS, POR LO QUE SE DENOMINA CÓDIGO NO SINGULAR. EN
ESTE EFECTO, A CADA SIMBOLO CODIFICADO LE CORRESPONDE UNA ÚNICA CODIFICACIÓN.

LA TERCERA PROPIEDAD: EL CÓDIGO ES UNÍVOCAMENTE DECODIFICABLE. LA EXTENSIÓN DE ORDEN n DE UN


BLOQUE DE CÓDIGO, HACE CORRESPONDER LOS SIMBOLOS S, CON LAS PALABRAS DE CODIGO X, ES EL BLOQUE DE
CÓDIGO QUE HACE CORRESPONDER LAS SECUENCIAS DE SIMBOLOS DE LA FUENTE CON LAS SECUENCIAS DE LAS
PALABRAS DE CÓDIGO.

Datos/Observaciones
UN CÓDIGO ES UNIVOCAMENTE DECODIFICABLE SI Y SOLAMENTE SI, SU EXTENSIÓN DE ORDEN n ES NO SINGULAR PARA
CUALQUIER VALOR FINITO DE n.
EN ESTE EFECTO, SE DENOMINA INSTANTÁNEO CUANDO ES POSIBLE DECODIFICAR LAS PALABRAS DE UNA SECUENCIA SIN
PRECISAR EL CONOCIMIENTO DE LOS SIMBOLOS QUE LAS SUCEDEN

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
DECODIFICACIÓN

Datos/Observaciones
LA POSIBILIDAD DE ERROR DE UN CANAL SERÁ MÍNIMA CON LA REGLA DE DECISIÓN QUE
ASIGNA A CADA SIMBOLO DE SALIDA EL SIMBOLO DE ENTRADA DE MAYOR PROBABILIDAD.
ESTA REGLA DE DECISIÓN RECIBE EL NOMBRE DE MÁXIMA POSIBILIDAD CONDICIONAL Y
DEPENDE DE LAS PROBABILIDADES A PRIORI. LA REGLA DE DECISIÓN QUE SE CONOCE
COMO DE MÁXIMA POSIBILIDAD ES INDEPENDIENTE DE LAS PROBABILIDADES A PRIORI.

Datos/Observaciones
RENDIMIENTO Y REDUNDANCIA DE UN CODIGO

Datos/Observaciones
CODIGOS COMPACTOS

Datos/Observaciones
CODIGO SHANNON-FANO

Datos/Observaciones
CODIGO DE HUFFMAN

Datos/Observaciones
CODIFICACIÓN DIFERENCIAL

SE BASA EN LA CODIFICACIÓN DE LAS DIFERENCIAS ENTRE DOS SÍMBOLOS


CONSECUTIVOS.

CIERTOS TIPOS DE DATOS TIENEN LA PROPIEDAD DE SIMILITUD ENTRE SÍMBOLOS


CONSECUTIVOS:
SEÑAL DE AUDIO, VÍDEO, IMÁGENES, ETC.

ESTO PERMITE CODIFICAR CON POCOS BITS LAS DIFERENCIAS.

EJEMPLO:
DPCM (DIFFERENTIAL PULSE CODE MODULATION)

CODIFICACIÓN CON PÉRDIDA.

Datos/Observaciones
TRANSFORM ENCODING
SE BASA EN TRANSFORMAR EL DOMINIO (EJ.: DEL TEMPORAL AL DE LA
FRECUENCIA) DE LOS DATOS DE ENTRADA (EJ.: SEÑAL DE AUDIO).

EJEMPLOS: Restar a todos los


pixels el valor del
Imágen BW
ARITMÉTICA: 4x4 pixels
primero

160 160 161 160 160 0 1 0


161 165 166 158 1 5 6 -2
160 167 165 161 0 7 5 1
159 160 160 160 -1 0 0 0
FOURIER:
F(t) C

DCT (DISCRETE COSINE TRANSFORMATION): t f

MUY COMÚN EN COMPRESIÓN DE IMÁGENES ESTÁTICAS (JPEG).

CODIFICACIÓN SIN PÉRDIDA*.

Datos/Observaciones
VECTOR QUANTIZATION

ES DIRECTAMENTE APLICABLE A IMÁGENES Y AUDIO.

CONSISTE EN LO SIGUIENTE (IMÁGENES):

LA IMAGEN SE DIVIDE EN BLOQUES DE TAMAÑO FIJO (VECTORES).

SE CONSTRUYE UNA TABLA, CODE-BOOK, CON TODOS LOS VECTORES DIFERENTES ENCONTRADOS.

SE CODIFICA LA IMAGEN COMO UNA SUCESIÓN DE ÍNDICES A LA TABLA.

TANTO EL CODIFICADOR COMO EL DECODIFICADOR NECESITAN CONOCER LA TABLA (CODE-BOOK).

LA TABLA PUEDE ESTAR PREDEFINIDA O SER CREADA DINÁMICAMENTE.

SI EN UNA IMAGEN PREDOMINA UN NÚMERO REDUCIDO DE VECTORES, EL ÍNDICE DE


COMPRESIÓN PUEDE SER IMPORTANTE.

Datos/Observaciones
EJEMPLO:

IMAGEN ORIGINAL DIVIDIDA


CODE-BOOK
EN VECTORES DE NXN PIXELS

0 0 1 0 0
2 2 2 0 1
2 001022032200400
3 2 2 0
0 4 0 0 3
4

◆ SI UN VECTOR NO SE ENCUENTRA EN EL CODE-BOOK:

➢ BUSCAREMOS EL QUE MÁS SE PAREZCA.

➢ IDEM + ENVIAR ALGÚN DATO PARA AUMENTAR EL PARECIDO (VALOR


MEDIO).

➢ IDEM + ENVIAR LO QUE SEA NECESARIO (VECTOR ERROR) PARA


RECONSTRUIR EL VECTOR.

◆ CODIFICACIÓN CON PÉRDIDA*.

Datos/Observaciones
CLUT (COLOR LOOK-UP TABLE)

ES UTILIZADO PARA CODIFICAR IMÁGENES RGB, QUE NORMALMENTE NO UTILIZAN TODOS LOS
COLORES POSIBLES.

SE UTILIZA UNA TABLA (CODE-BOOK) CON LOS COLORES USADOS EN LA IMAGEN. CADA PIXEL ES
REPRESENTADO CON EL ÍNDICE DE LA TABLA CORRESPONDIENTE A SU COLOR.

EJEMPLO:

IMAGEN RGB DE 24BITS DE COLOR QUE SOLO USA 256.

SE CONSTRUYE UNA TABLA DE 256 ENTRADAS Y EN CADA UNA DE ELLAS SE GUARDA UN


COLOR (24 BITS).

EN LUGAR DE USAR 24BITS/PIXEL, AHORA USAREMOS 8BITS/PIXEL

TASA DE COMPRESIÓN: ~66%

CODIFICACIÓN MÁS LENTA QUE DECODIFICACIÓN.

Datos/Observaciones
INTRODUCCIÓN A LA CODIFICACIÓN Y COMPRESIÓN DE AUDIO.

LAS SECUENCIAS DE AUDIO FORMAN PARTE DE LAS APLICACIONES MULTIMEDIA.

EL ESTUDIO DE LA CODIFICACIÓN Y COMPRESIÓN SE PUEDE ENFOCAR EN FUNCIÓN


DE LA APLICACIÓN:

APLICACIONES INTERACTIVAS (AUDIO-CONFERENCIA AUDIO) CODECS SIMÉTRICOS.

APLICACIONES DE DIFUSIÓN Y REPRODUCCIÓN DE MEDIOS (TV DIGITAL, AUDIO HI-FI, DVD, ETC.)
CODECS ASIMÉTRICOS

CARACTERÍSTICAS DE UNA SEÑAL DE AUDIO.

DISTINTOS TIPOS DE CALIDAD DE AUDIO.

TÉCNICAS DE COMPRESIÓN DE AUDIO.

Datos/Observaciones
CARACTERÍSTICAS DEL AUDIO

UNA SEÑAL DE AUDIO NO ES MÁS QUE UNA ONDA ACÚSTICA (VARIACIONES DE


PRESIÓN DEL AIRE); ES UNIDIMENSIONAL (TIEMPO)

EL MICRÓFONO TRANSFORMA LAS ONDAS ACÚSTICAS QUE LO GOLPEAN, EN


SEÑALES ELÉCTRICAS (NIVELES DE VOLTAJE). EL OÍDO ES MUY SENSIBLE A LAS
VARIACIONES DE SONIDO DE CORTA DURACIÓN (MS) AL CONTRARÍO QUE EL OJO
HUMANO.

LA RELACIÓN DE DOS SONIDOS A Y B SE MIDE EN DECIBELIOS: dB=20 LOG10 (A/B).

LA INTENSIDAD DE UN SONIDO A SE MIDE EN DECIBELIOS TOMANDO COMO


REFERENCIA EL MENOR SONIDO AUDIBLE.

0 dB: MENOR SONIDO AUDIBLE: LA SEÑAL DE REFERENCIA (B) ES UNA ONDA SENOIDAL A 1KHZ
QUE PROVOCA UNA PRESIÓN DE 0.0003 DINAS/CM2. A Y B SON AMPLITUDES (SI FUERAN
POTENCIAS SERÍA 10 LOG10 (A/B))

50 DB: CONVERSACIÓN NORMAL.120DB: UMBRAL DEL DOLOR.

Datos/Observaciones
El rango de frecuencias audibles por los humanos está
entre 20Hz y 20KHz.

Audible

No audible

Datos/Observaciones
Datos/Observaciones
◆ CUANTIFICACIÓN: LAS MUESTRAS OBTENIDAS SE CODIFICAN EN UN
NÚMERO FINITO DE BITS

➢ ERROR DE CUANTIFICACIÓN (QUANTIFICATION NOISE).

➢ CODIFICACIÓN LINEAL O LOGARÍTMICA.

◆ PCM (PULSE CODE MODULATION).

➢ USADO PARA LA DIGITALIZACIÓN DE SEÑALES DE AUDIO.

➢ PARÁMETROS: SF, BITS/MUESTRA, NIVELES DE CUANTIFICACIÓN*

Datos/Observaciones
◆ CUANTIFICACIÓN PCM LINEAL

➢ LOS NIVELES DE CUANTIFICACIÓN ESTÁN ESPACIADOS DE MANERA


EQUITATIVA.

➢ CADA BIT DE RESOLUCIÓN AÑADE 6 DB DE RANGO DINÁMICO.

➢ CON 16 BITS POR MUESTRA SE CUBRE TOTALMENTE EL RANGO


DINÁMICO DEL OÍDO HUMANO.

◆ CUANTIFICACIONES NO-LINEALES (LOGARÍTMICA)

➢ LOS PASOS DE CUANTIFICACIÓN DECRECEN LOGARÍTMICAMENTE.

➢ EL OÍDO HUMANO ES MENOS SENSIBLE A SONIDOS FUERTES.

Datos/Observaciones
DIGITALIZACIÓN: INTERFAZ MIDI

MIDI (MUSICAL INSTRUMENT DIGITAL INTERFACE).

UTILIZADO PARA CODIFICAR MÚSICA (INSTRUMENTOS).

CODIFICA LOS ELEMENTOS BÁSICOS (NOTAS, SILENCIOS, RITMOS, ETC.) EN MENSAJES


MIDI. CADA INSTRUMENTO TIENE SU PROPIO CÓDIGO (HASTA 127)

UN SINTETIZADOR INTERPRETA LOS MENSAJES MIDI Y PRODUCE LA SEÑAL DE AUDIO


CORRESPONDIENTE.

VENTAJA:

REDUCE MUCHO EL ANCHO DE BANDA NECESARIO (FACTOR DE 1000 !!)

INCONVENIENTES:

NECESIDAD DE UN SINTETIZADOR EN AMBOS EXTREMOS (CALIDAD DE SONIDO


DIFERENTE).

APLICABLE SOLO A MÚSICA.

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
VARIANZA DEL RETARDO (JITTER).

ES EL PARÁMETRO MÁS CRÍTICO PARA LOS STREAMS DE AUDIO.

SOLUCIÓN:

TÉCNICAS DE ECUALIZACIÓN DEL RETARDO.

SE SUMINISTRA UN TIEMPO ADICIONAL ANTES DE COMENZAR LA REPRODUCCIÓN, ALMACENANDO LOS


PAQUETES EN UN BUFFER DE ENTRADA.

CONSECUENCIAS:

INCREMENTAMOS EL RETARDO TOTAL.

NECESITAMOS RECURSOS DE MEMORIA PARA EL BUFFER DE ECUALIZACIÓN.

COMPROMISO ENTRE LA CAPACIDAD DE ALMACENAMIENTO Y EL MÁXIMO JITTER TOLERABLE POR LA APLICACIÓN.

TASAS DE ERROR:

CALIDAD TELEFÓNICA: < 10-2, CALIDAD CD: < 10-3

Datos/Observaciones
Datos/Observaciones
◆ CODIFICACIÓN DIFERENCIAL ADAPTATIVA:

➢ ADPCM (ADAPTIVE DIFFERENTIAL PULSE CODE MODULATION).


PREDICE LA MUESTRA Y CUANTIZA ADAPTATIVAMENTE.

 PREDICCIÓN: CODIFICA LA DIFERENCIA ENTRE LA MUESTRA


ACTUAL Y UNA ESTIMACIÓN BASADA EN LAS ÚLTIMAS “N”
MUESTRAS

X[n] C[n] Dq[n]


D[n] Quantizer C[n] Dequantizer Xp[n]
- +
(adaptive) (adaptive)
Xp[n-1] Xp[n] Dq[n] Xp[n-1]
Predictor Predictor
Dequantizer module
module +
(adaptive)

Codificador Decodificador

Datos/Observaciones
◆ CODIFICACIÓN DIFERENCIAL ADAPTATIVA:

➢ ADPCM (ADAPTIVE DIFFERENTIAL PULSE CODE MODULATION).


PREDICE LA MUESTRA Y CUANTIZA ADAPTATIVAMENTE.

 CUANTIZACIÓN ADAPTATIVA: USA PASOS MÁS LARGOS PARA


CODIFICAR DIFERENCIAS ENTRE MUESTRAS MUY DISTINTAS EN
MAGNITUD (DE ALTA FRECUENCIA) Y PASOS MÁS PEQUEÑOS
PARA MUESTRAS QUE SON SIMILARES (BAJAS FRECUENCIAS).

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
MPEG-1 AUDIO.

El stream comprimido puede incluir información auxiliar (acceso


aleatorio, avance y retroceso rápido, CRC, etc.)
Arquitectura de tres niveles
MPEG-1 Nivel I:
El más sencillo. Tasa de bits 192 Kbps/canal. Aplicaciones: Philips DCC
MPEG-1 Nivel II:
Complejidad media. Tasa de bits 128 Kbps/canal. Aplicaciones: DAB,
CD-I, Vídeo CD.
MPEG-1 Nivel III:
El más complejo. Ofrece la mejor calidad de audio con tasas de bits
sobre 64 Kbps/canal. Está preparado para N-RDSI.
Existen codecs hardware de los tres niveles para aplicaciones de
tiempo real.

Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Datos/Observaciones
Cierre:

Conclusiones Generales

1. Es factible realizar la compresión de un mensaje


2. Hay una gran variedad de códigos para la compresión de una fuente de variables
discretas

Datos/Observaciones

También podría gustarte