Está en la página 1de 32

ATSC

ATSC

Amhet Emilio Fuertes Velasco


ING en redes y
telecomunicaciones
ATSC

1 Introducción
2

Advance Television System Committee1, es una organización internacional abierta sin fines de lucro
que fue formada en 1982 por los miembros de la organización Joint Committee on InterSociety
Coordination (JCIC): Elctronic Industries Association (EIA), Institute of Electrical and Electronic
Engineers (IEEE), National Association of Broadcasters (NAB), National Cable Electronic Association
(NCTA), y la Society of Motion Picture and Television Engineers (SMPTE).(1)Para el 2002 ya existía
aproximadamente 160 miembros y en la actualidad cuenta con cerca de 185 de diferentes países y
medios entre los que se encuentran empresas de radiodifusores, cable, satélite, computación, cine
y video, electrónica de consumos, fabricantes de equipos profesionales audiovisuales, institutos de
investigación entre otros. Esta organización privada tenía como fin en sus inicios, el desarrollo y
definición del estándar de televisión digital que adoptaría Estados Unidos. Así pues, el estándar fue
desarrollado por un consorcio de empresas que lleva el nombre de Grand Alliance, y fue adoptado
por ATSC el 16 de Septiembre de 1995 bajo lasigla A/53. (2)

En el año 2001 fue creada una institución afiliada al ATSC, denominada ATSC FORUM, cuyo fin
principal es promover las normas de TV digital y de ATSC, especialmente en toda América Latina.
Teniendo como misión principal, Educar a los radiodifusores, fabricantes, reguladores públicso y
otros de diversos países de todo elmundo acerca de los beneficios de los servicios de televisión
digital y abogar por la adopción de las normas de televisión digital de la familia ATSC con el objeto
de aprovechar sus beneficios.

El estándar ATSC de televisión digital terrestre ha sido adoptado oficialmente como norma en:
Estados Unidos, en 1996, lo cual incluye Puerto Rico, Alaska, Hawai, Islas Midway e Isla Wake.
Posteriormente, adoptaron el estándar, Canadá (1997), Corea del Sur (1997), México (2004),
Honduras (2007) y el Salvador (2009). (3)

El estándar ATSC utiliza un canal convencional de 6 MHz a través del cual permite la transmisión de
video, audio y datos a una tasa neta de 19 Mbps para canales de transmisión terrestre y alrededor
de los 38 Mbps para canales de televisión por cable. Esto significa que la codificación de la fuente
de video, la cual presenta una resolución que puede ser cinco veces mayor que la de la televisión
convencional (NTSC), requiere una reducción de la tasa de bits por un valor de 50 o mayor. Para
lograr la reducción de la tasa de bits, el sistema fue diseñado para utilizar la capacidad de señal
permitida y mejorar y utilizar técnicas de compresión de video y audio complejas. El sistema ATSC
puede portar ya sea una señal única de televisión de alta definición (HDTV), o varios programas con
definición normal (SDTV). (2)A su vez, mejor calidad de sonido, tipo audio dolby digital (AC-3).
También es posible incluir datos adicionales en la transmisión que amplía la gama de servicios
ofrecidos, como canales adicionales de audio, servicios interactivos para el usuario, como tele-
encuestas, canales decomentarios, subtítulos en diversos idiomas, etc. La modulación
utilizada es la 8-VSB (modulación en banda lateral vestigial), la cual es una modulación mono
portadora e independiente de fase, para evitar muchas distorsiones. 3
Una característica agregada posteriormente al sistema ATSC, es la posibilidad de que el radiodifusor
determine la calidad a ofrecer, entendiendo ésta por el número de líneas y de píxeles, para poder
bajarla y así reducir el ancho de banda con vistas a albergar en el espectro conseguido nuevos
servicios o bien transmitirun múltiplex de imágenes. (4)
2 El Sistema ATSC:
4

El estándar ATSC es posible encontrarlo totalmente descrito en el documento A/53 del Advanced
Television Systems Committee, “ATSC Digital Televisión Standard”, que puede ser descargado de la
página web principal de la organización2. El mismo describe las características del sistema de
televisión avanzada de los Estados Unidos (ATV), distribuyendo la información en varias partes que
da información sobre las especificaciones de varios parámetros del sistema, incluyendo el formato
de codificación de entrada de video y el pre procesamiento y los parámetros de compresión del
codificador de video, el formato de codificación de las señales de entrada de audio y el pre
procesamiento y los parámetros de compresión de audio, el servicio de multiplexación y las
características, normativas y especificaciones de las capas de transporte y el subsistema de
transmisión. Algunos de los temas descritos se abordan a continuación para dar una idea de los
parámetros y características de sistema ATSC.

Un diagrama de bloquesbásico del sistema de televisión digital se representa en la Figura 2.1.


Acorde con ese modelo, el sistema de televisión digital consiste de tres subsistemas que son(5):

 Codificación y compresión de fuentes (video, audio, datos):Esta parte del subsistema se


encarga dela compresión de datos tanto para el video, audio y flujos de datos digitales
secundarios (ancillary data) con el objetivo de disminuir la cantidad de bits necesarios para
representar la información correspondiente. El término “ancillary data” o datos
secundarios incluye datos de control tanto de transmisión como de acceso, datos
asociados con la configuración de servicios de audio y video como subtitulado, servicios
independientes, etc. Para la compresión y codificación de los flujos de video el sistema
ATSC utiliza la sintaxis MPEG-2, y para la compresión de audio digital, se utiliza la norma de
compresión digital de audio AC-3.
 Múltiplex y transporte de los servicios: Divide el flujo continuo de información en
paquetes de datos, inserta marcas de identificación únicas a cada paquete, y multiplexa los
flujos de paquetes de video, audio y datos secundarios para componer un único flujo de
transporte. El sistema de transporte de ATSC utiliza el sistema de múltiplex y transporte
definido por el estándar MPEG-2, el cual es compatible con el formato de transporte de
otros medios digitales, tales como la radiodifusión terrestre de audio digital, sistemas de
televisión digital por cable y satelital, medios de almacenamiento como discos de video
digital y DVD, e interfaces computacionales. La sintaxis del flujo de transporte de MPEG-2
fue desarrollado para aplicaciones done el ancho de banda del canal es limitado y los
requerimientos de los mecanismosde transporteeficiente son elevados.
 Transmisión de radiofrecuencia (RF): Agrega codificación de canal y realiza la modulación
de flujo de transporte para su posterior transmisión inalámbrica. El propósito de la
codificación de canal es agregarinformación redundante al flujo de datos. Dicha
información es luego utilizada en el receptor para detectar y corregir errores causados por
el canal inalámbrico e interferencias. El sistema de modulación usala modalidad 8 VSB para 5
transmisiones terrestre. La norma también considera un modo de alta capacidad de
datos, 16 VSB, orientado a televisión por cable.(2)

Figura 2.1 Sistema ATSC(5)


ATSC

6
1. Características de la Fuente

1. Características del Video

El estándar ATSC utiliza la codificación de video MPEG-2 (Moving Pictures Experts Group-2), ya que
es un conjunto de algoritmos de compresión flexible.

El estándar ATSC permite 18 diferentes formatos de display, los cuales están divididos dentro de
cuatro combinaciones de vertical y horizontal. Se establece tres tipos básicos de resolución de
pantalla que pueden ser utilizados con el estándar ATSC. El nivel más sencillo incluye los formatos
básicos y extendidos de las normas de TV analógicas NTSC y PAL (En NTSC, existen 525 líneas
horizontales pero sólo 480 son visibles. EN PAL, existen 625 líneas horizontales pero sólo 576 son
visibles), con hasta 720 pixeles por línea. El nivel medio, incluye imágenes de resolución media con
720 líneas de solución y 960 pixeles por línea. El nivel mayor presenta una resolución de 1080
líneas, y 1440 y 1920 pixeles porlínea pararazones de aspecto 4:3 y 16:9, respectivamente.

Tabla 2.1 Restricciones de Formato de Compresión

Resolución Resolución Pixeles Relación Cuadros por Barrido


Vertical Horizontal cuadrados de segundo (Hz) (tipo)
Aspecto
HDTV 1080 1920 Sí 16:9 23,976; 24,2997;30 Progresivo
29,97; 30 Entrelazado
720 1280 Sí 16:9 23,976; 24,2997;30; Progresivo
59,94; 60
SDTV 480 704 No 4:3, 16:9 23,976; 24,2997;30; Progresivo
59,94; 60
29,97; 30 Entrelazado
640 Sí 4:3 23,976; 24,2997;30; Progresivo
59,94; 60
29,97; 30 Entrelazado

De lo enunciadoen la Tabla 2.1, puede aclararse lo siguiente:

 1920 x 1080, es la resolución que la industria de la Televisión demanda para


representación de imágenes HDTV.
 1280 x 720, es la sugerencia de la industria del PC para la representación de
imágenes
HDTV.
 704 x 480, corresponde a la equivalencia digital de la señal NTSC de hoy, como se lo
mencionó anteriormente.
 640 x 480, es el estándar VGA combinación de losmonitores de PC.
ATSC

A su vez, también, que las imágenes correspondientes a una pantalla completa pueden formarse
mediante barrido entrelazado o progresivo. Una apreciación gráfica de lo antes prescrito puede 7
verse así mismo en la Figura 2.2.

Figura 2.2 Comparación entre resoluciones de video específicas por ATSC (2)

Es importante destacar que el estándar ATSC fue diseñado desde el principio con las opciones
necesarias para ser implementado tanto dentro de los Estados Unidos como fuera de ellos
(incluyendo países que migran desde formatos distintos a NTSC, como por ejemplo PAL). Por ello,
ATSC es capaz de trabajar correctamente en situaciones en que la frecuencia de barrido sea tanto
25 cuadros por segundo (PAL) como 30 cuadros por segundo (NTSC).

2.1.2 Características del Sistema de Audio


En el documento ATSC A/52B (6) describe lacompresióny codificación de audio en ATSC, lacual se
basa en el estándar de compresión digital de audio AC-3 (Audio Configuration 3rd Generation)
propietario de los laboratorios Dolby, conocido comercialmente como Dolby Digital, cuyo método
es el que actualmente se utiliza en las salas de cine, el Dolby Surround Sound, compatibles con
muchas aplicaciones de audio/video (DVD, DTS, DTX, etc.).

El AC-3 contiene un total de 6 canales de sonido, con cinco canales de ancho de banda completa de
20 Hz a 20 kHz para los altavoces de rango normal, es decir: frente derecho, centro (middle
cannel), frente izquierdo, parte posterior derecha (canal sorround derecho) y parte posterior
izquierda (canal sorround izquierdo). Y a parte se agrega un canal de salida exclusivo para los
sonidos de baja frecuencia conocida como Low Frequency Effect o subwoofer, el cual se encuentra
limitado en banda de 20 a 120 Hz. Debido a esta utilización de canales, generalmente se habla de
un sistema 5.1 canales, en el que la situación de los altavoces debería ser similar a la Figura 2.3. El
formato Digital Dolby soporta también el uso de Mono y Stereo.
8

Figura 2.3 Sistema de Audio (7)

Los canales abreves rasgos cumplen lassiguientesfunciones:

 C: (Central Channel), se ubica por encima o por debajo en pantallas de televisión, y se


destina a reproducir la mayor parte de los diálogos de la cita, por lo que también se lo
suele conocer como canal de diálogos o canal principal, puesto que es el más utilizado.
 L, R: (Left Front Channel, Right Front Channel) suelen ubicarse a los costados del televisor y
proporcionan la acción en pantalla, por lo cual junto con el C reciben el nombre de canales
de pantalla.
 LS, RS: (Left Surround, Right Surround), se localizan dos altavoces a los lados del
espectador, a 20° por detrás de su horizontal. Estos canales son utilizados para definir un
ambiente sonoro tridimensional que envuelva (surround) al usuario, también se los conoce
como canales de ambiente o efectos.
 LFE: (Low Frecuency Effects), empleado para reproducir las frecuencias más bajas que los
otros altavoces no pueden reproducir. Su colocación es bastante libre ya que en los límites
del espectro el oído humano no localiza bien la fuente de los sonidos, siendo recomendable
su ubicación a nivel del suelo. En realidad el LFE no es un canal íntegro, sino que se le
considera un canal de refuerzo que no es necesario (en cine sí lo es) pero sí altamente
recomendado.

El sistema de compresión de audio, consta de un codificador y un decodificador de audio, el cual


acepta señales de entrada analógica y digital. El bloque del subsistema de audio esta antes del
subsistema de transporte, el bloque del codificador recibe las señales del audio en el dominio del
tiempo y las convierte al dominio de la frecuencia con el fin de convertir la salida en una cadena de
bits, paraasí llegar al subsistema de Transporte, el cual cambialos paquetes en un señal
ATSC

modulada RF para luego ser recibida por el subsistema de Recepción y luego demodularla
desempaquetarla y decuantifica los flujos o tramas con los datos. Tal como se puede apreciar en la 9
Figura2.4.

Figura 2.4 Subsistema de Audio para el sistema de Televisión Digital (8)

La compresión AC-3 de una o varias fuentes de audio digital o flujos elementales (desde 2 en un
programa con sonido estéreo hasta 6 en un programa con sonido 5.1), representa un servicio de
audio. Múltiples servicios pueden ser multiplexados en un flujo de transporte MPEG-2, siendo
clasificados en principal (audio completo asociado a una señal de video, incluyendo diálogo, música,
efectos especiales, etc.) y asociados (servicios especiales como para gente con discapacidades
visuales o auditivas, señales de emergencia, etc.). El servicio principal de audio, o un servicio
asociado completo, debe ser codificado a una tasa de datos no superior a 448 kbps, y la tasa final
de una combinación de un servicio principal y uno asociadono debe excederlos 576 kbps. (2)

2.1.3 Subsistema de Multiplex de Transporte

El formato y protocolo de transporte para ATSC está basado en el estándar MPEG-2, cuyas
especificaciones se encuentran definidasen el ISO/IEC 13818-1.
10
El subsistema de transporte (Figura 2.1) reside entre la aplicación de codificación y
decodificación,y el subsistema de transmisión.Utiliza como entradas los flujos tanto de video, como
de audio y datos, los cuales los recibe codificados y comprimidos de acuerdo al estándar MPEG-2 y
posteriormente los paquetiza y multiplexa en relación a lo prescrito en el sistema definido en el
mismo estándar MPEG-2, de acuerdo alo estipulado en el estándar A/53.

Así pues, este subsistema divide los flujos elementales de video, audio y datos en fracciones más
pequeñas para luego multiplexarlas en paquetes de 188 octetos (bytes), cuyo primer byte es el
que permite el sincronismo. De acuerdo a esto, el receptor tiene la tarea de recuperar esos flujos
elementales para entregárselos a los decodificadores correspondientes, junto con la señalización
de errores.

En la Figura 2.5se ejemplifica el proceso de multiplexado de los datos de audio y video. El reloj
empleado para la temporización del proceso es de 27 MHz, procediéndose a dividir su frecuencia
por los factores correspondientes para cada circuito. Por ejemplo, se divide por el factor 562 para
obtener la frecuencia de muestreo del audio (48 KHz), por 2 para el proceso de luminancia y por 4
para las señales diferencia de color de la croma, ya que el formato de vídeo digital empleado es el
4:2:0. (4)

VIDEO FLUJO
CONVERTIDOR CODIFICADOR
DE
A/D MPEG
DATOS
MULTIPLEXOR

AUDIO
CONVERTIDOR CODIFICADOR
A/D AC-3

VIDEO AUDIO VIDEO AUDIO

Figura 2.5 Diagrama de bloques del proceso de multiplexación de audio y video.

2.2 Características del Sistema de Codificación y Modulación

Este sistema (bloque Transmisión de RF en la Figura 2.1) constituye la característica más propia de
éste estándar. Las dos partes fundamentales son la codificaciónde canal y la modulación 8-VSB.
El codificador de canal, realizados procesosespecíficos:
11
 Codificación R-S (Reed-Solomon) para generar 20 octetos de palabras de paridad
para
proporcionar protección a la información a transmitir. En la salida de su circuito
correspondiente, los paquetes adquieren unalongitudde 208 octetos.
 Codificación FEC e inserción de cuatro símbolos de sincronización al principio de cada
trama. Éste es el clásico proceso de dispersión de la energía empleado en todos los
sistemas de transmisión digitalde información.

La salida de datos del codificador de canal tiene formato de trama, en cuya composición
intervienen dos campos, como se aprecia en la Figura 2.5.

Cada trama contiene 313 segmentos por campo de datos (626 segmentos), siendo el primero el
que lleva la señal de sincronizacióny una secuencia binaria destinada al ecualizador del receptor.
Los restantes 312 segmentos contienen un paquete de 208 octetos, que corresponden a los 188
octetos y a las 20 de palabras de código (FEC). Dicha información corresponde a 828 símbolos de 4
bits.

El último paso del proceso es la modulación 8-VSB en ocho niveles discretos de amplitud, para lo
cual se codifican los datos en el modo denominado Trellis, para conseguir el mapa de
constelaciones de bitsnecesario. (4)
208 Octetos (828 Símbolos de 4 bits)
4
12

S CAMPO DE SINCRONIZACIÓN 1
E
G
M
E
313 SEGMENTOS

24,2 ms
T DATOS + FEC
O

D
E

S CAMPO DE SINCRONIZACIÓN 2
I
N
C
R
O
N
313 SEGMENTOS

S4,2 ms
Z DATOS + FEC
A
C
I
Ó
N

1 SEGMENTO = 77, 3 µ

Figura 2.6 Organización de datos en ATSC

2.2.1 Codificación de Canal

La Figura 2.6 muestrael diagrama del proceso de codificación. El sistema es alimentado con el flujo
de transporte paquetizado. Los datos son primero aleatorizados, y luego procesados para brindar
capacidad de corrección de errores mediante un código de bloques Reed-Solomon (RS), seguido
por un entrelazador y un codificador Trellis (TCM).

Cada uno de los bloquespresentados en la Figura 2.6 se explicanbrevementea continuación:


ALEATORIZACIÓN CODIFICACIÓN RS
13
FLUJO DE DATOS

SINCRONISMO SINCRONISMO
DESEGMENTO DE TRAMA

CODIFICADOR TRELLIS ENTRELAZADOR


MULTIPLEXOR

ANTENA
MODULADOR
VSB

Figura 2.7 Diagrama de bloques del codificador VSB

1. Flujo deDatos:
El sistema es alimentado con el flujo de transporte paquetizado que se describió anteriormente en
el subsistema de multiplexde transporte.

2. Aleatorización de los Datos:


La aleatorización permite dispersar la energía, por cuanto se convierte en una necesidad en las
transmisiones digitales, no llevarla a cabo implica la pérdida de homogeneidad de la RF y también
dificulta la regeneración del reloj de los datos en el receptor, que es necesario para interpretar su
contenido, debidoalas largas cadenas de bits iguales quepueden presentarse.

El circuito aleatoriza los datos de audio, video y auxiliares recibidos del multiplexor anterior. No se
aleatorizan los paquetes de sincronismos de trama y segmento y de paridad del sistema RS,
informaciones que conservan su contenido original para emplearlas en el receptor como
referencia. La aleatorización de los bits que componen un flujo de transporte se logra mediante
multiplicaciónporunasecuenciabinariaseudo aleatoria de orden 16.

3. Codificación RF
Reed-Solomon (RS) es un código cíclico no binario y permite la detección y corrección de errores
que protege la información contra errores en los datos transmitidos sobre un canal de
comunicaciones. Este tipo de código corrige los datos alterados en el receptor y para ello utiliza
unos bits adicionales que permiten esta recuperación aposteriori.
ATSC

Así pues, los segmentos de datos se codifican mediante el sistema Reed-Solomon, lo que genera
20
octetos de palabras de paridad que se suman a los datos, quedando del siguiente modo: 14
t = 10 (207, 187)

Donde:

187 = Longitud inicial de lossegmentos de datos.


207 = Longitud de los segmentos después de la codificación RS.

Por lo que este código es capaz de corregir hasta 10 bytes con errores entre cada grupo de 207.

4. Entrelazado
Entrelazar los datos supone dispersar en el espacio los bits de cada octeto para que, ante pérdidas
de señal en el receptor, el vacío afecte a la mínima cantidad de sus unidades de información. Es
decir, su objetivo es dar protección a la señal cuando hay errores de ráfaga. Un error de ráfaga
afecta a una serie de bits consecutivos, mientras que los errores aleatorios afectan a bits
individuales en posiciones de lasecuencia delmensaje.

El entrelazador de bytes empleado es convolucional de longitud 52 y sólo se entrelazan los bytes


de datos (incluyendo los bytes de redundancia insertados por RS).

5. Codificador de Trellis
El codificador de Trellis (codificador convoulucional) brinda una segunda capa de protección de
errores y entrega tres bits de salida por cada dos de entrada, lo que permite conseguir los ocho
niveles discretos requeridos para la modulación 8-VSB característica del sistema ATSC.

En caso de la modulación 16-VSB, utilizada en la transmisión por cable y satelital, no se cuenta con
un codificador Trellis y, en lugar de éste, se tiene un bloque de mapeo 16-VSB que entrega dos
símbolos (de 16 posibles) de 4 bits porcada byte de entrada.

6. Multiplexador
Los datos formateados del modo indicado son aplicados al multiplexor del sistema para insertar en
él los sincronismos de segmento y de trama en los espacios señalados en la figura anterior,
quedando el flujo de datos en las condiciones requeridasparalamodulación VSB. (4)

2.2.2 Modulación en Banda Lateral Vestigial (VSB)


Como se ha mencionado anteriormente, el estándar ATSC para la transmisión terrestre utiliza la
modulación 8-VSB (8 “Vestigial Side Band” o banda lateral vestigial), la cual aporta una alta
eficiencia espectral y elevada inmunidad a las interferencias radioeléctricas, pero tiene baja
robustez ante los ecos de recepción. Es un sistema que permite utilizar los canales de la televisión
analógica para transmitir multiprogramas de contenido digital, en el ancho de banda asignado de 6
MHz. Es esencialmente una Modulación de Amplitud de Pulsos de 8 niveles (8-PAM) en banda
base, trasladada a radiofrecuencia mediante un modulador analógico de Banda Lateral Doble
Portadora Suprimida, seguido de un filtro que elimina la banda lateral inferior y un circuito que
inserta unaportadora. 15
Este procedimiento de modulación supone una variante del BLU (modulación en banda lateral
única) con el que se transmiten mal las bajas frecuencias, aunque reduce considerablemente el
ancho de banda necesario. En el VSB se transmite completamente una banda y sólo parte de la
otra, lo que facilita la recuperación de los datos en el receptor con simples detectores de
envolvente. Sin embargo, aumenta el ancho de banda, aunque en un valor que no degrada el
sistema por su alta eficiencia espectral obtenida por los ocho niveles discretos de amplitud que
tienen símbolos en forma de cambios de fase. Es como el QAM en cuanto al procedimiento de
modulación con amplitudes discretas, con la particularidad de la banda vestigial. (4) En VSB la
Banda Lateral Inferior (BLI) es filtrada mediante filtros de fácil realización. Debido a que todo filtro
realizable tiene una transición no instantánea entre la Banda Lateral Superior (BLS) y la Banda
Lateral Inferior (BLI), la señal filtrada inevitablemente contiene vestigios de la BLI, de ahí el nombre
de VSB.

La inserción de una portadora simplifica las tareas de sincronización y demodulación en el lado


receptor. En la práctica, la portadora es insertada en banda base agregando un valor de continua a
la modulación 8-PAM, previo al traslado a radiofrecuencia realizado con el modulador de Banda
Lateral Doble Portadora Suprimida tradicional. (4)

2.2.2.1 Características en el Espectro

Figura 2.8 Espectro ocupado por el canal ATSC (9)

La Figura 2.8 muestra el espectro de 6 MHz ocupado por un canal de la norma ATSC. La parte
principal está situada en 5.38 MHz y los dos espacios límites de 0.31 MHz correspondena las
bandas, aunque la inferior se suprime y en su lugar se inserta una ráfaga piloto para acciones de
sincronización.(4) 16
2.2.3 Especificaciones del Sistema
Como resumen de lo descrito anteriormente, se presenta la Tabla 2.2.

Tabla 2.2 Parámetros de Transmisión VSB(7)

PARÁMETRO TIERRA CABLE


Ancho de banda del canal 6 MHz
Ancho de banda excedente 11,5 %
Relación de símbolos 10,76 Msímbolos/s
Bit por símbolo 3 4
Codificación FEC Trellis Relación 2/3 No
Codificación FEC RS T = 10(207, 187)
Longitud de segmento 832 símbolos
Sincronismo de segmento 4 bit porsegmento
Sincronismo de trama 1 de cada 313 segmentos
Relación de datos 19,28 Mb/s 38,57 Mb/s
Rechazo de NTSC en co-canal Filtro de rechazo en receptor N/A
Potencia del piloto 0,3 dB
Umbral C/N 14,9 dB 28,3 dB

2.2.4 Receptor(4)

La arquitectura general de los circuitos del receptor ATSC se muestra en la Figura 2.9. Los
diferentesbloques se describen brevemente acontinuación.

El sintonizador efectúa el proceso clásico de sintonía con un ancho de banda de 6 MHz,


amplificación de RF y conversión a FI, cuyo valor es de 44 MHz, frecuencia obtenida en la salida del
filtro cerámico del mismo nombre.

Un decodificador asíncrono unido al filtro de FI, en el que interviene también un filtro de paso bajo,
permite extraer los sincronismos.

La señal de FI obtenida es aplicada a un filtro destinado a rechazar la interferencia que se produce


entre los canales del ATSC y los de la televisión analógica del estándar NTSC. Es este un filtro de
peine y por tanto con operación en el dominio del tiempo, del que se obtiene finalmente el flujo de
datos para el proceso de descodificación.

El flujo de datos de 10,76 Msímbolos/S es aplicado a un circuito de ecualización para compensar las
distorsiones no lineales producidas como consecuencia de la transmisión digital y de las
imperfecciones del sistema de recepción.
Circuitos complementarios al ecualizador adaptan el flujo de datos recibido a ocho niveles
claramente identificados con destino al descodificador Trellis, el cual separa los niveles discretos 17
representativos de la transmisión 8-VSB y genera ante cada uno sus tres bits de contenido, con lo
que se lograel flujo de datos de salidaalavelocidadde 19,39 Mb/s.

El desentrelazado de los datos, la descodificación RS para detectar y corregir los errores producidos
en la recepción y la desaleatorización para devolver a la secuencia su forma original, se llevan a
cabo con los procedimientos inversos a los ya descritos anteriormente, y consiguen el flujo de datos
que se aplica al bloque desmodualadorparalas siguientesacciones específicas.

 Separación de los paquetes de vídeo del conjunto de los datos para aplicarlos al
descompresor MPEG y, desde éste, al generador de vídeo que proporciona salidas de
condición analógicaen formato vídeo compuesto y RGB.

El generador de vídeo inserta en las señales de imagenlos impulsos de sincronismo


correspondientes a la norma de televisiónanalógica del monitor.

 Separación y descodificación de los datos adicionales, como los destinados a los subtítulos,
información estaque se multiplexacon laseñal de imagen destinada al monitor.
 Separación de los paquetes de datos del audio y descondificación con los criterios de Dolby
AC-3 para, después, aplicarlos a los convertidores de digital a analógico correspondientes y
obtener las señales que excitan las etapas de potencia del receptor.

FILTRO DE FI Y
FILTRO DERECHAZO
Antena SINTONIZADOR DETECTOR DE
DE NTSC
SINCRONISMOS

DESCODIFICADOR
DESCODIFICADORRS DESENTRELAZADOR ECUALIZADOR
TRELLIS

VÍDEO

DATOS
DESALEATORIZACIÓN DESMULTIPLEXOR
AUXILIARES

AUDIO
Figura 2.9 Organización del segmento de datos, con detalle del sincronismo

Entre la salida de los convertidores D/A y la entrada de los amplificadores de potencia, se podrá
disponer un procesador para control de los parámetros de tales señales.
ATSC

18
2.3 Red de Frecuencia Única
Una de las ventajas con que cuenta la implantación del sistema digital respecto al analógico la
posibilidad de crear redes de una sola frecuencia (SFN: Single Frecuency Networks), las cuales
consisten en un tipo de radiodifusión donde distintos transmisores emiten la misma señal en el
mismo canal de frecuencia, lo que permite obtener un mejor aprovechamiento del espectro, a la
vez, se trabaja con una menor potencia de transmisión debido a la ganancia interna. Se logra alta
probabilidad de localización y facilidad de rellenarzonas vacías con reúsos de frecuencias. Porotra
parte se podría admitir como desventajas, el hecho de que la red no pueda dividirse, que no se
pueden usar determinados canales prohibidos y que es necesaria una sincronización entre los
emisores.

Los esquemas de las redes de frecuencia única son de algún modo análogos a los sistemas de
comunicación sin cables tales como la telefonía móvil o los sistemas Wifi. Para su comprensión, se
podría partir de la idea de contar con un receptor de TDT en los límites de cobertura de un
transmisor. Lo normal, es que el receptor capte señales procedentes también de otros transmisores
próximos que emiten el mismo programa en el mismo canal. Aunque se sincronice los
transmisores, las señales procedentes de cada uno de ellos llegarán con diferentes retrasos.
Además no pueden ser interpretadas como señales de eco, ya que todas ellas traen la misma
modulación. Las señales de los transmisores más lejanos pueden llegar con un retraso mayor del
permitido por el intervalo de guarda. Evidentemente, cuanto más lejos, más interfiere. Sin
embargo, la interferencia producida por la propia red SFN debido a transmisores lejanos puede
mantenerse dentro de unos márgenes lo suficientemente pequeños como para no perturbar en
demasíalaseñal. (10)

Una de las ventajas mencionadas anteriormente es la posibilidad de rellenar zonas vacías mediante
estaciones de poca potencia utilizando la misma frecuencia. Los repetidores pueden utilizar la
misma frecuencia. Estos pueden ser activos con ganancia o pasivos, con lo que la posibilidad de
que quede una zona de sombra es muy baja. Es necesario decir, que si los contenidos de
programas o datos son distintos, las redes SFN ya no son útiles y se produce interferencia, teniendo
que recurrir a las tablas en laque se indican los márgenes de protección.

El desafío principal para un sistema de Televisión Digital mediante Redes de Frecuencia Única
respecto a su operación, es lograr y mantener el mejor sincronismo posible entre las estaciones
transmisoras, de modo que las señales provenientes de dos o más estaciones puedan ser
interpretadas, en lapráctica, como ecos de unasola transmisión.

En redes ATSC, el sincronismo entreestaciones debe ser logradoen tres aspectos:

 Frecuencias idénticas de las portadoras de radiofrecuencia, con una precisión de ±½ Hz.


 Sincronismo entre los flujosde transporte, que deben ser idénticos.
 Idénticos procesos de codificación del flujo de transporte (codificación, entrelazado,
aleatorización, etc.) entre transmisores de lared.
ATSC

Diferencias entre las frecuencias de portadorason percibidaspor un receptor como señales de eco
con efecto Doppler, como si fueran transmisiones móviles. Diferencias en los flujosde transporteo 19
en los procesos de codificación hacen que las transmisiones de celdas adyacentes tengan un
efecto equivalente al de la Interferencia de Co-Canal (ICC) en la celda deseada. La consecuencia es
una pérdida de eficiencia espectral (menor tasa de datos), o la degradación de la calidad de la
imagen y audio recibidos, pudiendo llegaralímites de calidad inaceptable.

La operación en una red de frecuencia única de un sistema ATSC está especificada en el estándar
A/110, de Julio de 2005 (11) y el documento de prácticas recomendadas A/111 de Septiembre de
2004, que introdujeron modificaciones al estándar ATSC para posibilitar la operación de ATSC en
SFN. Previo a la publicación de estos documentos, la operación en frecuencia única no estaba
contemplada en el estándar ATSC y ATSC no tenía la capacidad de operar en este modo. En el año
2004, el estándar fue modificado y los nuevos equipos tienen la capacidad de operar en redes SFN,
pero hastalafecha las experiencias prácticas de operación SFN son escasas.

De acuerdo a los documentos mencionados del estándar ATSC, tres modos de operación son
posibles para redes con múltiples transmisores (ya sea conformando redes de frecuencia única o de
frecuencias múltiples):

 Repetidores digitales en la misma frecuencia (DOCR). Corresponden a equipos quereciben


la misma señal que los receptores domésticos, y la retransmiten en la mismafrecuencia con
o sin procesamiento, dependiendo del tipo de repetidor. Eldocumento de prácticas
recomendadas [29] considera el uso de estos dispositivos,principalmente para ampliar la
zona de cobertura, iluminar zonas oscuras y cubriráreas pequeñas. Se trata de un sistema
de bajo costo, pero que no permite laoperación en RFU.
 Transmisores distribuidos. Los transmisores distribuidos reciben la señal a través de una
red de bajo retardo (fibra óptica o bien cable) y la retransmiten al aire, todos en la misma
frecuencia. En el caso de redes de frecuencia única, estos transmisores operan de manera
sincronizada, de modo tal que emiten señales idénticas simultáneamente. Ello conlleva la
necesidad de sincronizar los transmisores (empleando receptores GPS localizados en cada
sitio), incluyendo el uso de retardos para ajustar el tiempo de la transmisión. La
información de sincronización temporal se incluye en el flujo de transporte, lo que reduce
en forma poco significativa la tasa de datos de 19,39 Mbps y degrada el comportamiento
de la transmisión frente al ruido blanco Gaussianoen algunos decibeles.
 Traductores distribuidos. Estos equipos operan en forma similar a los repetidores, pero
retransmitiendo en una frecuencia distinta. Permiten la formación de redes
multifrecuencia, y requieren al menos de dos frecuencias disponibles.

Para sincronizar los flujos de datos y todos los procesos incluidos en la codificación, el estándar
ATSC considera la inserción en el flujo de transporte de una palabra de cadencia cada cierto
tiempo, así como la inserción de paquetes de transmisión distribuida, estos últimos a una tasa de
no más de un paquete cada 312 paquetes del flujo de transporte. Esta información, en conjunto
con las referencias de tiempo locales (provenientes, por ejemplo, de GPS) es utilizada por cada uno
de los transmisores de la red para temporizar sus transmisiones adecuadamente. 20
En el lado de la recepción, para operar en redes de frecuencia única con estándar ATSC, los
receptores requieren de ecualizadores capaces de procesar las señales provenientes de distintos
transmisores en las zonas de traslapo de transmisiones (que aparentan ser ecos), y de combinar
estas múltiples señales en una sola. Actualmente, si bien ha habido avances en esta materia, los
ecualizadores todavía muestran debilidades en casos de múltiples trayectorias con niveles de
potenciacercanos entre sí. (2)

4. Países que han adoptado el estándar ATSC

El estándar ATSC de televisión digital terrestre ha sido adoptado oficialmente como norma en:
Estados Unidos, en 1996, lo cual incluye Puerto Rico, Alaska, Hawai, Islas Midway e Isla Wake.
Posteriormente, adoptaron el estándar, Canadá (1997), Corea del Sur (1997), México (2004),
Honduras (2007) y el Salvador (2009). (3)

Algunos despliegues relevantes para ATSC hasta Agosto 2008, para diferentes países se enuncian a
continuación (12):

Estados Unidos:

 1.634 estaciones de TV digital en el aire


 212 áreas metropolitanas
 Cobertura de prácticamente el 100% de hogares con TV
 92% tiene acceso a 5 o más señalesde TV digital
 84% tienen accesoa 8 o más señales de TV digital
 Las áreas metropolitanas más grandes tienen hasta 28 estaciones de TV digital en el aire.

Corea del Sur:

 154 estaciones en operación, 92% de hogares tienen acceso a 5 señales de TV Digital.


 6,6 millones de receptores ATSC vendidos (penetración de 33% de los hogares del país).
 Líder mundial en servicios interactivos de televisión digital con la norma ATSC/ACAP.

Canadá:

 Más de 20 estaciones en operación


 Cobertura de más de 50% de los hogares con TV.

México:
ATSC

 37 estaciones operan en 9 ciudades y llegan al 37% de los hogares del país.


 Se han vendido 2 millones de receptores ATSC. 21

Honduras:

 Tres estaciones en dos ciudades.

5. Televisión Digital Móvil Portátil3

1. Consideraciones Previas

La televisión digital móvil ATSC se desarrolla con el propósito de soportar una variedad de servicios,
incluidos televisión gratuita (con apoyo de anunciantes) y servicios interactivos que se entregan en
tiempo real, TV en base a suscripciones y descarga de contenidos en base a archivos para su
posterior reproducción. La norma puede utilizarse también para la transmisión de nuevos servicios
de radiodifusión de datos. Además de la televisión en vivo, el sistema de televisión digital móvil
ATSC proporciona un marco de aplicaciones flexibles que permite habilitar las nuevas capacidades
de los receptores. Ya que Los receptores que utilizan una conexión opcional a Internet permitirán
los nuevos servicios de televisión interactiva, desde simples votaciones del público hasta la
integración de aplicacionesen base a Internet y transacciones con contenido televisivo.

La televisión digital móvil ATSC se construye en torno a un sistema de transmisión bastante


robusto que se basa en la modulación de banda lateral residual (BLR), junto con un sistema de
transporte flexible y extensible en base al protocolo de Internet (IP), video eficiente MPEG AVC
(ISO/IEC 14496-10 o ITU H.264) y codificación de audio HE AAC v2 (ISO/IEC 14496-3).

El desarrollo del sistema de televisión digital móvil ATSC se basó en un plan estratégico aprobado
por el directorio de ATSC en octubre de 2006. ATSC desarrolló posteriormente requisitos de
sistema detallados y emitió una solicitud de ofertas (RFP) en mayo de 2007. El trabajo en el
sistema de televisión digital móvil ATSC se ha efectuado dentro del grupo especializado en
ATSCmóvil/portátil (TSG/S4). Además, los principales elementos del sistema de televisión digital
móvil ATSC fueron seleccionados y documentos y el 25 de noviembre de 2008, el Grupo de
Tecnologías y Normas (TSG) aprobó su publicación como normacandidata.

En Octubre de 2009 se presentó la norma final de televisión digital móvil ATSC, que se conoce
como A/153. Al igual que la norma A/53, A/153 es de concepto modular, con las especificaciones

3
La información respecto a Televisión Digital Móvil Portátil, ha sido extraída del Boletín de Noticias del
estándar ATSC (13). Se han extraído algunos párrafos pero en su mayoría es documentación textual.
ATSC

para cada uno de los módulos contenidas en partesseparadas. (Figura 2.10). Las partes específicas
de A/153 son las siguientes: 22

Figura 2.10 Estructura de documentación A/153 general (13)

 Parte 1: Sistema de televisión digital móvil/portátil

La Parte 1 describe totalmente el sistema de televisión digital móvil ATSC y explica la organización
de la norma. Describe además los requisitos explícitos de señalización que se implementan
mediante estructuras de datos en todas las demás partes.

 Parte 2: Características del sistema de RF/transmisión

La Parte 2 describe la forma en que los datos se procesan y colocan en la trama BLR. Los
elementos importantes incluyen la estructura Reed- Solomon (RS), un canal de parámetros de
transmisión (TPC) y un canal de informaciónrápida(FIC).

 Parte 3: Características del subsistema de transporte y múltiplex deservicios

La Parte 3 incluye el subsistema de transporte y múltiplex de servicios, que comprende varias capas
en la pila. Los elementos importantes incluyen protocolo de Internet (v4), protocolo unidireccional
(UDP), servicio de canales de señalización, FLUTE (protocolo de entrega de archivos en transporte
unidireccional) sobre codificación asíncrona en capas (ALC) / transporte de codificación en capas
(LCT), servicio de hora mediante protocolo de tiempo de red (NTP) y protocolo de tiempo real
(RTP)
/ protocolo de control de transporteen tiempo real (RTCP).

 Parte 4: Anuncio
La Parte 4 incluye el anuncio, donde los servicios pueden anunciarse opcionalmente utilizando una
guía de servicio. La guía que se especifica en la Parte 4 se basa en una guía de servicio de 23
radiodifusión (BCAST) de la Alianza Móvil Abierta (OMA), con restricciones y extensiones.

 Parte 5: Marco de aplicaciones

La Parte 5 define el marco de aplicaciones, que permite al organismo de radiodifusión del servicio
audio-visual componer e insertar contenido complementario para definir y controlar varios
elementosadicionales del entorno multimedia (RME).

Parte 6: Protección de servicios

La Parte 6 incluye la protección de servicios, que se refiere a la protección del contenido, sean
archivos o flujos, durante la entrega al receptor. Los elementos importantes incluyen el objeto de
emisióncon derecho de suscripción y el mensaje de claveacorto plazo (STKM).

 Parte 7: Características del sistema de video

La Parte 7 define el sistema de video AVC y SVC en el sistema de televisión digital móvil ATSC. Los
elementos adicionales cubiertos en esta Parte incluyeron subtitulado (CEA 708) y descripción de
formato activo (AFD).

 Parte 8: Características del sistema de audio

La Parte 8 define el sistema de audio HE-AAC v2 en el sistema de televisión digital móvil ATSC.

Una parte adicional que se centra en la protección del contenido está considerada para su
publicación posterior.

2.5.2 Descripción general del sistema de televisión digital móvil ATSC

El servicio de televisión digital móvil ATSC comparte el mismo canal de radiofrecuencia que el
servicio de radiodifusión ATSC estándar que se describe en ATSC A/53. El sistema móvil se habilita
utilizando una porción del total de ancho de banda disponible de 19,4 Mbps y ocupando transporte
de entrega sobre IP. El sistemacompleto se ilustra en la Figura2.11.
ATSC

24

Figura 2.11 Sistema de Televisión Digital Móvil ATSC

En términos muy simples, el sistema consigue la robustez necesaria para la recepción móvil
agregando secuencias de ajuste adicionales y corrección de errores sin canal de retorno. El ancho
de banda total necesario para el servicio de televisión digital móvil ATSC depende de incluidos el
número y el tipo de servicios de programa, el nivel de calidad y el nivel de robustez deseado, que
normalmente va de menos de un megabit por segundo a muchos megabits por segundo. El
sistema de televisión digital móvil ATSC convierte la actual emisión 8-BLR en un sistema de flujo
doble sin alterar las características del espectro emitido. Tal proceso se lleva a cabo seleccionando
algunos de los segmentos MPEG-2 y asignando las cargas útiles en dichos segmentos para
transportar los datos M/H de unamanera que los actuales receptores legados ignorarán.

La Figura 2.12 muestra una representación en diagrama de bloques de la cadena de radiodifusión.


Los datos de televisión digital móvil ATSC sedividen en conjuntos, cada uno de los cuales contiene
uno o más servicios. Cada conjuntoutiliza una trama RS independiente (unaestructura FEC) y
además puede codificarse aun nivel distinto de protección de errores segúnla aplicación. La
ATSC

codificación incluye FEC tanto a nivel de paquete como convolucional, más la inserción de
secuencias de ajuste largasy espaciadas en forma regular en el flujo de datos. Se insertan también 25
datos de control robustos y confiables para ser usados por los receptores. El sistema proporciona
transmisión en ráfaga de los datos, que permite al receptor habilitar ciclos de potencia en el
sintonizador y el demodulador para ahorrar energía. La Figura 2.13ilustra un diagrama de bloques
simplificado delsistemade transmisión de televisión digital móvil ATSC.

En el sistema de capas físicas de televisión digital móvil ATSC, los datos se transfieren mediante un
mecanismo de división de tiempo paramejorarlacapacidad de gestión de potencia del receptor.

Cada intervalo de tiempo de la trama se divide en cinco subintervalos de igual longitud,


denominados subtramas. A su vez, cada subtrama se divide en cuatro subdivisiones de 48,4 ms de
longitud, el tiempo que demora transmitir una trama BLR. Estos intervalos de tiempo de la trama
BLR se dividen asu vez en cuatro ranuras cada uno (para un total de 16 ranuras en cada
subtrama).

Los datos que se van a transmitir se empaquetan en una serie de tramas RS consecutivas y dicha
serie forma de manera lógica un conjunto. Los datos de cada trama RS que se van a transmitir
durante una trama única se dividen en fragmentos llamados grupos y los grupos se organizan en
listas, donde cada lista transporta los grupos desde hasta dos tramas RS y no menos de una. El
número de grupos que pertenece a una lista es siempre múltiplo de cinco y los grupos en la lista
entran en ranuras que se dividen porigual entre las subtramas de la trama.

Figura 2.12 Diagrama de bloques del sistema de radiodifusión de televisión digital móvil ATSC.
ATSC

26

Figura 2.13 Diagrama de bloques de un sistema de transmisión de televisión digital móvil ATSC.

La trama RS es una unidad básica de entrega de datos, en la cual se encapsulan los datagramas IP.
Si bien una lista siempre transporta una trama RS primaria, puede transportar una trama RS
secundaria adicional como resultado del proceso de banda base. El número de tramas RS y el
tamaño de cada una se determinan mediante el modo de transmisión del subsistema de capas
físicas. Normalmente, el tamaño de la trama RS primaria es mayor que el tamaño de la trama RS
secundaria, cuando se transportan en unasola lista.

El FIC es un canal de datos independiente del canal de datos que se entrega a través de las tramas
RS. El objetivo principal del FIC es entregar de manera eficiente información esencial para la rápida
adquisición del servicio. Esta información incluye principalmente informaciónvinculante entre
losservicios y los conjuntos que los transportan, más la información de versión para el canal de
señalizaciónde servicios de cadaconjunto.

Un “servicio de televisión digital móvil ATSC” es por lo general similar a un canal virtual según se
define en ATSC A/65 (“protocolo de información de sistemas y programas”). Un servicio es un
ATSC

paquete de flujos IP que se transmiten a través de un múltiplex que forma una secuencia de
programas bajo el control de un organismo de radiodifusión, que puede difundirse como parte de 27
un plan. Ejemplos típicos de servicios de televisión digital móvil ATSC incluyen los servicios de TV y
de audio. Las colecciones de servicios se estructuran en conjuntos, cada uno de los cuales consiste
en una serie de tramas RS consecutivas. En general, existen dos tipos de archivos que pueden
entregarse utilizando los métodos que se describen en el sistema de televisión digital móvil ATSC. El
primero de estos corresponde a los archivos de contenido, como por ejemplo archivos de música o
video. El segundo tipo de archivo que puede transmitirse es una porción de la guía de servicios.
Esto incluye claves a largo y corto plazo para protección de servicios, logotipos y archivos de
protocolo de descripción de sesión (SDP). En ambos casos, los mecanismos de entrega son los
mismos y depende de la terminal resolver el propósito de los archivos. La Figura 2.14ilustra un
diagrama de bloques simplificado de la organización de los principales elementos para la entrega
en el subsistema de transportefísico.

La señalización en el sistema de televisión digital móvil ATSC proporciona metadatos al receptor en


relación con la sintonización, incluido el hecho de si el contenido debe/puede entregarse. Los
objetivos de diseño clave incluyeron:

 Mantenerlo compacto (baja velocidad)


 Hacerlo flexible y extensible
 Soporte de adquisición rápida de servicios
 Soporte de funcionalidad básica, incluso cuando el receptor no cuenta con información
actualizada de guíade servicios
 Soporte de requisitos únicos de roaming, como por ejemplo transferencia desde un
transmisor a otro para servicios regionales y nacionales al cruzar los límites del área de
radiodifusión

En el sistema de televisión digital móvil ATSC, los servicios disponibles en ese sistema (u otro
sistema) pueden anunciarse mediante el subsistema de anuncios, denominado guía de servicios.
Una guía de servicios es un servicio especial que se declara en el subsistema de señalización de
servicios. Un receptor determina las guías de servicios disponibles leyendo la tabla de acceso a
guías. Esta tabla enumera las guías de servicios presentes en la radiodifusión, entrega información
acerca del proveedor de servicios para cada guía y proporciona información de acceso para cada
una.

La guía de servicios de televisión digital móvil ATSC se basa en la guía de servicios BCAST de la OMA,
con ciertas restricciones y extensiones. Una guía de servicios se entrega utilizando uno o más flujos
IP. El flujo principal entrega el canal de anuncios y cero o más flujos se usan para entregar los datos
de la guía. Si no se cuenta con flujos independientes, los datos de la guía se transportan en el flujo
del canal de anuncios. La guía de servicios está diseñada de tal manera que puede entregarse
también en unaconexión separada si el dispositivo tiene conectividad bidireccional.
28

Figura 2.14 Subsistema de transporte físico de televisión digital móvil ATS

El marco de aplicaciones es una serie de herramientas que permite la creación de electos gráficos y
sintácticos para agregar en conjunto con la entrega de audio y video. Se diferencia de una
especificación personalizada en que el marco de aplicaciones permite una superposición sobre el
plano de audio/video en lugar de una capa real de control de software que controla todas las capas
superiores del cliente. Los datos del marco de aplicaciones se transmiten en la misma banda al lado
del audio y el video.

Este subsistema permite al organismo de radiodifusión del servicio audio-visual componer e


insertar contenido complementario para definir y controlar varios elementos adicionales que se van
a utilizar en conjunto con el servicio audio-visual. Permite la definición de componentes auxiliares
(gráficos), el trazado del servicio, transiciones entre trazados y composición de los componentes
audio-visuales con componentes de datos auxiliares. Además, permite al organismo de
radiodifusión enviar eventos remotos para modificar la presentación y controlar la cronología de la
misma. El marco de aplicaciones permite también la presentación coherente del servicio y su
trazado en una variedad de tipos de dispositivos y plataformas, la presentación de botones de
acción y campos de entrada y el manejo y escritura de eventos asociados con tales botones y
campos.

El marco de aplicaciones es importante porque permite que el sistema de televisión digital móvil
ATSC se amplíe más allá de la reproducción móvil de video y audio, además de proporcionar una
nueva serie de herramientas de personalización e interacción que copian el estilo de Internet. Esta
experiencia de entretenimiento puede sacar provecho de cualquier canal de retorno de datos que
esté disponible.
ATSC

El marco de aplicaciones se construye en base al entorno multimedia deOMA (OMA-RME). El OMA-


RME, diseñado en base a un conjuntosimilar de requisitos, es una norma global que abarca 29
elementosde lacreación, entrega y control de aplicaciones.

La protección de servicios se refiere a la protección del contenido, sean archivos o flujos, durante
su entrega a un receptor. La protección de servicios no asume responsabilidad alguna por el
contenido después que éste ha sido entregado al receptor. Su propósito está en la gestión de las
suscripciones. Es únicamente un mecanismo de controlde acceso.

El sistema de protección de servicios de televisión digital móvil ATSC se basa en el perfil BCAST
DRM de OMA. Consta de los siguientes componentes:

 Aprovisionamiento de claves
 Registro de capa 1
 Mensaje de clave a largo plazo (LTKM), incluido el uso de objetos con derechos
de radiodifusión (BCRO) para entregar los LTKM
 Mensajes de clave a corto plazo (STKM)
 Encriptación de tráfico

El sistema depende de las siguientes normas de encriptación:

 Estándar de Encriptación Avanzada (AES)


 Protocolo seguro de Internet (IPsec)
 Clave de encriptaciónde tráfico (TEK)

El perfil BCAST DRM de OMA posee dos modos parala protección de servicios, interactivo y de sólo
radiodifusión. En el modo interactivo, el receptor soporta un canal de interacción para comunicarse
con un proveedor de servicios a fin de recibir los derechos de protección de servicios y/o
contenidos. En el modo de sólo radiodifusión, el receptor no utiliza un canal de interacción para
comunicarse con el proveedor de servicios. El usuario hace las solicitudes al proveedor de servicios
a través de un mecanismo fuera de banda, como por ejemplo llamar al número telefónico del
proveedor o acceder a su sitio Web. La Figura 2.15 ilustra la jerarquía clave de 4 capas BCAST de
OMA.

El sistema de televisión digital móvil ATSC utiliza codificación de video MPEG-4 AVC y
opcionalmente SVC según se describe en ISO/IEC 14496 Parte 10, con ciertas restricciones. Se
especifica un formato de base única de 240 líneas x 416 píxeles, relación de aspecto 16:9, barrido
progresivo, con lacapacidad de aumentar la resolución o calidad mediante el uso de laopción SVC.

AVC es la norma internacional de codificación de video ISO/IEC 14496- 10 (MPEG-4 Parte 10)
“codificación avanzada de video”, finalizada en 2003. Soporta una amplia gama de aplicaciones,
desde emisión de video móvil de baja velocidad binaria hasta radiodifusión de televisión de alta
definición de velocidad binaria elevada y almacenamiento de DVD.
La codificación de audio para el sistema de televisión digital móvil ATSC utiliza HE AAC v2, que se
especifica en ISO/IEC 14496-3 - audio MPEG-4. Las restricciones son las siguientes: 30
 HE AAC v2 Profile, Level 2, maximum of two audio channels up to 48 kHz sampling rate.
 Bit rate and buffer requirements comply withthe MPEG-4 HE AAC
 Las frecuencias de muestreo soportadas son 32 kHz, 44.1 kHz y 48 kHz

Figura 2.15 Jerarquía clave de 4 capas BCAST de OMA

HE AAC v2 es la combinación de tres herramientas de codificación de audio, MPEG-4 AAC,


replicación de banda espectral (SBR) y estéreo paramétrico (PS). La Figura 8 muestra la serie de
herramientas HE AAC.

Figura 2.16 Serie de herramientas de sistema HE AAC v2.


ATSC

31

También podría gustarte