Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Profesor Patrocinante:
Ing. Jorge Cárdenas Mansilla
Instituto de Acústica
Universidad Austral de Chile
Profesor Co-Patrocinante:
Dr. José Luis Barros Rojas
Instituto de Acústica
Universidad Austral de Chile
Profesor Informante:
Ing. Luis Vidal Vidal.
Instituto de Acústica
Universidad Austral de Chile
AGRADECIMIENTOS
Quisiera agradecer a mi familia hermosa, los Guerra Ortiz y mi Abuelita Eliana que
siempre me han apoyado a traves de estos años.
A todas las personas que de una u otra forma aportaron con este trabajo: Jonathan Guerrero,
Luis Saavedra, Luis Vidal, Jorge Cárdenas, Oscar Pilichi y Don Víctor Cumián.
INDICE DE CONTENIDOS
1 INTRODUCCION ......................................................................................................... 1
2 OBJETIVOS .................................................................................................................. 2
2.1 OBJETIVO GENERAL ........................................................................................... 2
2.2 OBJETIVOS ESPECIFICOS ................................................................................... 2
3 ANTECEDENTES GENERALES ............................................................................... 3
3.1 ANTECEDENTES HISTORICOS .......................................................................... 3
3.2 LOCALIZACION DE ALTAVOCES EN UN SISTEMA 5.1. ............................... 6
3.3 ACÚSTICA PARA MONITOREO DE SONIDO ENVOLVENTE ....................... 9
3.4 ETAPAS EN LA REALIZACIÓN DE UNA POSTPRODUCCIÓN
DE AUDIO........................................................................................................................ 11
3.4.1 Creación y edición .............................................................................................. 12
3.4.2 Mezcla ................................................................................................................ 13
3.4.3 Codificación ....................................................................................................... 14
3.4.4 Reproducción ...................................................................................................... 14
3.5 FUNDAMENTOS DE MEZCLA MULTICANAL PARA SONIDO
ENVOLVENTE 5.1 .......................................................................................................... 14
3.5.1 Formas de abordar la mezcla .............................................................................. 15
3.5.2 Mezcla y mecánica del paneo ............................................................................. 15
3.6 CODIFICACION PERCEPTUAL DE AUDIO ..................................................... 17
3.6.1 Fenómenos auditivos utilizados en la codificación perceptual de audio ............ 19
3.6.1.1 Bandas Críticas............................................................................................ 19
3.6.1.2 Enmascaramiento simultáneo...................................................................... 19
3.6.1.3 Enmascaramiento temporal.. ....................................................................... 20
3.6.2 Codificación perceptual y códecs ....................................................................... 21
3.7 CODIFICACION DE AUDIO AVANZADA (AAC) ............................................ 22
3.7.1 Historia de la codificación MPEG audio ............................................................ 22
3.7.2 Visión general de la codificación MPEG AAC .................................................. 23
3.7.3 Codificación MPEG-1 Layer 3 ........................................................................... 23
3.7.3.1 Descripción general ..................................................................................... 24
3.7.3.2 Algoritmo .................................................................................................... 25
3.7.4 Codificación MPEG-2 Advanced Audio Coding ............................................... 26
3.7.4.1 Herramientas para mejorar la eficiencia de codificación ............................ 27
3.7.4.2 Herramientas para mejorar la calidad de audio. .......................................... 27
I
II
III
RESUMEN
IV
ABSTRACT
This document describes the entire process of surround sound audio post-production, from
initiation to completing the final multimedia file. To do this, the author reviewed relevant
literature on recommendations for speaker layout, acoustics for surround sound monitoring,
sound mixing approaches, and encoding formats based on perceptual audio coding.
Subsequently, the acoustics of the monitoring room are evaluated, the necessary equipment
is installed, and the audio post-production process for surround sound is performed in
DAW (Digital Audio Workstation).
After post-production, audio files are encoded in MPEG-AAC format, and the media is
streamed in real-time over the Internet. The choice of this algorithm aims to raise
awareness of the encoding format used in the ISDB-T standard chosen by Chile for digital
television, and to evaluate its performance in audiovisual file compression
V
VI
1 INTRODUCCION
El sonido multicanal tiene una historia que data del año 1930. Muchos han sido los
desarrollos tecnológicos desde entonces y en la actualidad se ha convertido en estándar para
la cinematografía, televisión digital y se puede escoger como alternativa para grabaciones
musicales de estudio.
La producción de sonido envolvente, ya sea para Cine o archivos multimedia, tiene por
objetivo crear un ambiente sonoro de inmersión para el espectador, más allá del típico
sonido monofónico o estéreo. Para esto, se sigue una estructura bien definida bajo
recomendaciones que tienen como finalidad convertir al sonido envolvente en un
complemento de la imagen y no desviar la atención de esta.
Hoy en día, el sonido envolvente puede llegar a los hogares a través de soportes como
DVD, Blu-ray1, SACD (Super Audio Compact Disc) y a través de Televisión Digital por
cable o vía terrestre (televisión digital abierta). Para lograr esto, se han desarrollado
tecnologías de compresión con el objetivo de reducir el tamaño de datos, causando la
menor perdida en la calidad de audio y video. De esta forma, se puede almacenar y/o
transmitir imágenes de alta definición y múltiples pistas de audio para el sonido envolvente,
en un espacio de almacenamiento y/o ancho de banda limitado.
En este trabajo se realizará una postproducción de audio con sonido envolvente desde su
inicio hasta la etapa final de codificación. Además, se presenta el uso del formato de
compresión para audio MPEG-AAC (Advanced Audio Coding), que se basa en la
codificación perceptual de audio.
1
Blu-ray ocupa codificación sin pérdida como Dolby TrueHD.
1
2 OBJETIVOS
2) Describir las formas de abordar una mezcla de audio con sonido envolvente.
3) Describir los formatos de codificación de audio basados en la codificación perceptual
de audio y su utilización en la postproducción de audio con sonido envolvente.
4) Evaluar las condiciones de la sala de mezcla, según recomendaciones internacionales
sobre acústica para monitoreo de sonido envolvente.
5) Producir un archivo multimedia con sonido envolvente, codificando el audio con
AAC (Advanced Audio Coding), como vinculación con los formatos de codificación
de Televisión digital.
6) Evaluar el comportamiento del códec de audio en una transmisión de prueba a través
de Internet.
2
3 ANTECEDENTES GENERALES
El sonido envolvente tiene una historia que data del año 1930 cuando se introdujo por
primera vez la idea del estéreo por los ingenieros de Bell Labs. Para la demostración
describieron un sistema estereofónico de 3 canales, incluyendo sus fundamentos
psicoacústicos y la reconstrucción de la onda de sonido frontal, lo cual es el corazón de los
nuevos desarrollos en el sonido multicanal hoy en día. Estos ingenieros concluyeron que
era conveniente tener un número infinito de altavoces y que los tres altavoces (izquierdo,
central y derecho) eran una aproximación “práctica” que representaba el número infinito
[1].
La idea de agregar surround (sonido envolvente) al estéreo frontal surgió en la industria del
cine pero en el contexto de grabación musical. Fue así, como entre los años 1938 a 1941 los
estudios Disney crearon Fantasound para la película Fantasía. Esta se proyectó junto con
tres canales frontales y dos canales para sonido envolvente, muy cercano al sistema de
sonido envolvente ocupado hoy en día [1].
Durante la segunda guerra mundial se introdujeron nuevos desarrollos tecnológicos que
serian ocupados por la industria del cine. Fue así como a inicios de1950, 20th Century Fox
fundó el mercado convencional de películas, combinando el sistema Cinemascope (sistema
de filmación caracterizado por el uso de imágenes amplias en las tomas de filmación) con
el uso de 4 pistas puestas en los bordes de las cintas magnéticas, dando origen al primer
formato multicanal que fue utilizado en múltiples producciones cinematográficas [1].
Este formato multicanal contaba con tres canales frontales y un canal surround [1]. Sin
embargo, su alto costo puso fin este tipo de grabación para filmes, y los desarrollos de
sistemas para el hogar dominaron por los siguientes 20 años, desde 1955 hasta 1975.
El sonido estéreo llegó al hogar como una simplificación de la práctica en las salas de cine.
La reproducción de dos canales estéreo se masificó con la introducción del LP estéreo, y
otros formatos como Radio FM estéreo, casetes y finalmente el CD siguieron la línea
establecida por el LP [1].
La era Cuadrafónica de finales de los 60’ hasta inicios de los 70’, trató de entregar 4 señales
a través de los dos tracks del LP usando matrices basadas en las relaciones de amplitud y
fase entre canales. Esta iniciativa fracasó por la existencia de tres formatos compitiendo en
el mercado, la resistencia del consumidor a poner más altavoces en sus salas y por último
las distintas percepciones en el uso del formato según los diferentes productores de la
industria del audio.
3
Dolby estéreo fue una mejora fundamental para el sonido óptico de filmes, combinando
frecuencia y rango dinámicos más amplios a través de reducción de ruido. Además a través
de la matriz entregaba 4 canales contenidos en dos pistas.
A finales de la década del 70’ los productores del film Star Wars junto con el personal de
Dolby se percataron que el headroom2 de baja frecuencia en la mayoría de los teatros
existentes, no era suficiente para presentar los efectos de sonido de la “batalla en el
espacio”. Reconfigurando los canales del formato de 70 mm los ingenieros crearon un
nuevo sistema que consistía en tres canales frontales (o de pantalla), un canal para sonido
envolvente (surround) y un canal denominado “baby boom”, el cual emitía sonido de baja
frecuencia para lograr un mayor headroom. Este nuevo sistema, probó ser una buena
técnica pues se requiere mayor energía a frecuencias bajas para sonar a igual nivel que las
frecuencias medias. Seis meses después de Star Wars, se estrenó la película “Encuentros
cercanos del tercer tipo” donde se ocupó por primera vez un sub-woofer dedicado a bajas
frecuencias, con lo cual el sistema se volvió un estándar [1].
Dos años después, la película “Superman” fue el primer filme en separar el canal surround
en dos, seguida por “Apocalipse now”. Ambos filmes ocuparon tres canales frontales, dos
canales traseros de sonido envolvente y el canal para bajas frecuencias, lo más cercano al
5.1 como lo conocemos hoy en día.
Así, a finales de la década de los 80 las entidades creadoras de estándares incluyendo AES,
SMPTE, ITU, EBU y MPEG llegaron a converger en la creación de un estándar. Así nació
el sistema 5.1 como el estándar de sonido envolvente, también conocido como 3/2/1, el cual
consiste en 3 canales frontales: izquierdo, central y derecho; 2 canales traseros: izquierdo
surround y derecho surround; y un canal denominado 0.1 dedicado a la reproducción de
efectos de baja frecuencia [2].
2
Headroom en este contexto se refiere a la capacidad de amplificadores y altavoces para
entregar sonido de baja frecuencia antes de exceder su máxima potencia.
4
El audio digital que hasta el momento estaba presente en los discos compactos (CD) se
encontraba codificado en Linear PCM (Pulse code modulation). El espacio disponible
físicamente en la cinta de 35 mm no daba abasto para la magnitud de datos de 6 canales
discretos codificados en Linear PCM que ascendía a un ancho de banda de 4324320 bits/sec
o 4,3 Mbps y esto sin considerar la información extra que debe contener un formato de
audio digital. Por lo tanto, para reducir la tasa de datos sin causar pérdidas aparentes en la
calidad del sonido, se crearon los siguientes formatos de codificación: Dolby SR-D
(Spectral Recording Digital) también conocido como Dolby Digital, Digital Theater
Systems (DTS), y Sony Dynamic Digital Sound (SDDS) [1][2].
Cada uno de estos formatos tiene una forma particular de funcionamiento en la cinta de 35
mm. Por ejemplo Dolby SR-D es grabado en la cinta en bloques de 78 bits x 78 bits entre
cada perforación a lo largo del borde del film. Existen 4 perforaciones por cuadro y 24
cuadros por segundo. Multiplicando 78 x 78 x 4 x 24 nos da 584064 bits/sec, que es
aproximadamente 1/7 de lo requerido solo para el audio, sin contar correcciones de error y
sincronización. Sin embargo, mientras otros medios podrían haber sido utilizados, tales
como usar otras partes del film o usar los samples de sonido en otros medios, los ingenieros
de Dolby Labs eligieron trabajar con este espacio por razones prácticas. La carga de datos
utilizada fue de 320 kbps que es 1/13.5 de la representación en Linear PCM [1].
Para lograr tal reducción de datos sin pérdida aparente en la calidad de audio se utiliza la
codificación perceptual que será tratada más adelante en este documento.
5
A principios de la década de 1990 se estandarizó el uso del sonido envolvente 5.1 para la
televisión digital. Esto ocurrió principalmente debido a que el audio puede operar a bajas
tasas de transferencia de bits o bit rate.
En Japón el estándar de televisión digital ISDB se desarrolló desde los años 80 y comenzó
sus transmisiones en el año 2000. El método de codificación de audio de este estándar es
AAC (Advanced Audio Codec) de la “familia” MPEG el cual es considerado el estado del
arte en codificación perceptual de audio para sonido multicanal. En nuestro país, la norma
ISDB ha sido elegida para la implementación de la televisión digital terrestre, utilizado el
códec de audio MPEG-4 AAC, el cual es una extensión del MPEG-2 AAC utilizado en
Japón [26].
En este trabajo, la localización de los altavoces en una sala de mezcla 5.1 proviene de la
recomendación ITU-R BS.775 (1992). En esta configuración los 5 altavoces se colocan en
un plano horizontal alrededor del oyente a una altura aproximada de 1,2 mts (altura de los
oídos), formando una circunferencia. El parlante central se encuentra en el eje medio, el
cual se estableció como 0º. Los altavoces L y R se ubican en las posiciones -30º y +30º
respectivamente con respecto al eje medio. Los altavoces traseros Ls (Izquierdo surround)
y Rs (Derecho surround) se posicionan en ángulos entre -100º y -120º (para Ls) y entre
+100º y +120º (para Rs). Estos ángulos fueron determinados por pruebas de escucha, que
establecieron las posiciones que dan la mayor sensación de sonido envolvente (ver figura 2)
[13] [18].
Con respecto al canal de sub-bajo o LFE (Low Frequency Effects o efectos de baja
frecuencia), la recomendación no determina un lugar específico, sólo depende de las
características de la sala donde este emplazado el arreglo 5.1. También se recomienda que
no todo el contenido esencial de bajas frecuencias este dirigido hacia el canal LFE, sino que
6
sea opcional y sea sólo una especie de refuerzo. Cabe mencionar que la mayoría de los
sistemas Home Theater caseros poseen un manejo de bajos o Bass Management (Ver anexo
1) el cual realiza una suma del contenido de baja frecuencia de los altavoces superiores y lo
envía al sub-bajo sumado con el contenido LFE. Por lo tanto, es recomendable que el
sistema de audio en el estudio posea también este manejo de bajos al preparar material para
consumo casero.
7
8
En acústica para monitoreo de sonido envolvente existen recomendaciones que deben ser
tomadas en cuenta a la hora de construir un estudio o preparar una estación de trabajo, para
así obtener una mezcla final de calidad.
– Del organismo European Broadcasting Union (EBU): EBU Rec. R22 (www.ebu.ch).
EBU Rec. R22 - 1997. Listening conditions for the assessment of sound programme
material. Traducido al español: “Condiciones de escucha para la evaluación de
material sonoro”.
De las dos recomendaciones anteriores se desprende el documento presentado en Mayo de
1998 en la 104 convención de la AES, por Robert Walker perteneciente a BBC Research
and Development Tadworth UK, que trata el diseño e implementación de una sala destinada
a satisfacer ambos requerimientos: “A controlled-Reflection Listening Room for Multi-
Channel Sound” por Robert Walker, AES Preprint 4645. Traducido al español: “ Sala de
escucha con control de reflexiones para sonido multicanal”.
Un punto importante sobre las recomendaciones ITU y EBU es que son prácticamente
idénticas con solo mínimas diferencias.
Los aspectos más importantes planteados para la sala en estas recomendaciones son la
relación entre las proporciones, la planta, la disposición de los altavoces, tiempo de
reverberación , ruido de fondo y reflexiones tempranas.
Con respecto a las proporciones y el tamaño de la sala, se recomienda tener una planta o
área del piso de 30 a 70 m2 de forma rectangular o trapezoidal. Además para asegurar una
distribución uniforme de los modos normales se deben cumplir las siguientes relaciones
entre las proporciones:
1.1*(w/h) < (l/h) < 4.5*(w/h)-4 (1)
Donde:
l: lenght (largo)
9
w: width (ancho)
h: height (alto)
Tm = 0,25(V/V0)1/3 s. (4)
Donde:
V= Volumen de la sala.
V0= Volumen de referencia de 100 m3.
10
Las reflexiones tempranas causadas por las superficies límites en la sala de monitoreo, que
alcancen el área de escucha dentro de los 15 ms después del sonido directo, deben estar
atenuadas en el rango de 1 a 8 kHz en al menos 10 dB relativos al sonido directo.
El ruido de fondo continuo (producido por aire acondicionado, equipamiento interno u otras
fuentes externas), medido en el área de escucha a una altura de 1,2 mts por sobre el suelo,
preferentemente no debe exceder NR 10.
Bajo ninguna circunstancia el ruido de fondo debe exceder NR 15.
El ruido de fondo no debe ser perceptiblemente impulsivo, cíclico o de naturaleza tonal.
11
– Efectos de sonido
– Diseño de sonido: Es el proceso de crear, seleccionar y editar sonidos para
cumplir los requerimientos que presenta la imagen. Esto significa tratar los
sonidos con los efectos (plug-ins) disponibles para crear sonidos para cosas que
no existen o son muy difíciles de grabar, como el sonido de una nave espacial o
el choque de un barco contra un iceberg.
– Grabación de efectos de sonido: A menudo los sonidos más realistas provienen
de fuentes originales que pueden ser grabados en locaciones o en el estudio. Las
grabaciones, por ejemplo, de una metralleta, explosiones o una persecución de
autos, requieren un equipo de producción que trabaje en conjunto con el editor
o encargado de grabación de efectos de sonido para producir estos sonidos en la
vida real. Los profesionales a cargo, deben estar preparados en la parte técnica
que implica el proceso de grabación para evitar de esta forma, daños sobre el
equipamiento.
12
– Foley: Los artistas de foley tienen la tarea de grabar una variedad de sonidos
comunes y de bajo nivel, como por ejemplo sonido de pasos o de la ropa al
moverse. Esto debido a que no todos los sonidos de este tipo pueden ser bien
captados grabando la acción real al actuar. Los artistas de foley crean la parte
sutil del sonido haciendo todo más creíble, creando diminutos detalles que otros
no notan, como la diferencia entre una pisada de pie derecho e izquierdo.
– Diálogos.
– Dialogo de producción: Es el dialogo grabado por sonido directo durante la
filmación, en locación o en sound stage (Galpón o sala grande con aislamiento
acústico, para grabar escenas de películas).
– Música.
3.4.2 Mezcla
13
crean mezclas con diálogos, música y efectos separados, estas mezclas son llamadas
stems y son creadas para exhibición en otros idiomas, trailers, transmisiones
televisivas y formatos para ver en el hogar.
3.4.3 Codificación
Esta etapa podría no considerarse como parte de la postproducción de audio en sí, pues se
realiza después de obtener la mezcla final. Sin embargo, en producciones de menor
envergadura, la codificación es realizada también por el ingeniero encargado de la
postproducción de audio.
3.4.4 Reproducción
Mezclar sonido envolvente en multicanal puede parecer más difícil que mezclar en dos
canales estéreo. Sin embargo, es más fácil debido a que existen más fuentes para “mostrar”
el contenido. Por ejemplo, al realizar la mezcla final en sonido estéreo se trata de obtener la
más completa sonoridad para distinguir todas las partes o instrumentos. Se deben aplicar
compresiones y ecualizaciones en un proceso interactivo para que las interpretaciones se
puedan escuchar y no exista interferencia entre ellas.
En sonido multicanal existen más fuentes o canales operando, por lo tanto una mayor
posibilidad de escuchar múltiples fuentes o señales a la vez. En consecuencia, se puede
14
decir que mezclar sonido multicanal es más fácil de lo que parece, aunque la mecánica de
paneo y ruteo puede resultar más complicada por la cantidad de canales [1].
La primera decisión respecto a la mezcla, previo a comenzar el paneo de los elementos que
conforman la banda sonora, es la perspectiva con que se desea trabajar: directo/ambiente
(direct/ambient) o directo/sonido alrededor (direct/sound all around). El aproximamiento
directo/ambiente busca producir un campo de sonido que es percibido como “estar allí”,
mostrando un evento ocurrido en frente del auditor, con sonidos ambientales como
reverberación, ambiente y aplausos producidos alrededor (en el caso de videos de música
en vivo) [1].
Al escuchar sólo los altavoces surround (Ls, Rs) y silenciar los frontales (L, C, R),
podemos notar que la mayoría del sonido emitido es ambiental, como explosiones lejanas,
silbidos de balas y aviones pasando a lo lejos. Por otro lado, los sonidos “fuertes” como
disparos de armas y explosiones cercanas son provenientes de los altavoces frontales. Esta
perspectiva directo/ambiente de abordar la mezcla es muy común pues radica en que el
sonido surround debe ser un complemento de la imagen y no desviar la atención del
espectador.
En general la mezcla se realiza de forma normal, controlando los niveles por medio de los
faders de tal manera de evitar saturación y logrando reproducir todo con claridad según los
requerimientos que se deban cumplir. Sin embargo, la existencia del paneo en surround y
sus diferentes parámetros pueden llevar a subidas de nivel no deseadas si se desconoce su
funcionamiento.
15
Existen tres tipos de paneos para mezclas en sonido envolvente. El primero de ellos es el de
consolas de mezcla de formato extendido, el cual consiste en tres potenciómetros: L/C/R
(left-center-right), F/S (front-surround) y LS/RS (left surround-right surround). Este
sistema es relativamente fácil de usar, pues se deben dejar dos potenciómetros fijos y
realizar el paneo en el tercer potenciómetro. Por ejemplo, si deseamos realizar un paneo
desde el altavoz frontal izquierdo (front left) al derecho surround (right surround), debemos
mover el potenciómetro L/C/R hacia la izquierda y el potenciómetro LS/RS hacia RS (right
surround). Posteriormente, realizar el paneo en el potenciómetro F/S desde frontal (F) a
surround (S) cuando la imagen lo requiera [1].
El segundo tipo de paneo se realiza a través de un Joystick de estilo video juegos que
mueve el sonido a través de los altavoces. Con este controlador se puede lograr mejor
movimiento, pero tiene la desventaja de no saber con precisión donde está siendo paneado
el sonido. Además, este tipo de controlador manda la señal simultáneamente a todos los
canales cuando está en el centro, lo que produce que el auditor sienta que el sonido viene
del altavoz que se encuentra más cercano, lo cual no es recomendable [1].
El tercer tipo de paneo es el basado en DAW (Digital Audio Workstation). Este sistema
muestra en pantalla un plano horizontal del arreglo 5.1 (ver figura 7). Mediante un punto
virtual se señala en la imagen el origen del sonido dentro del arreglo surround. Este punto
se puede mover de diferentes maneras, utilizando desde un mouse hasta potenciómetros de
superficies de control para el software de edición, haciéndolo más intuitivo y preciso.
16
Otros controles adicionales a la mecánica del paneo son la divergencia y foco. El control
de divergencia sube progresivamente el volumen en los canales cercanos al canal hacia el
cual esta paneado el sonido (que esta al máximo nivel), con el fin de proveer una fuente de
sonido más “grande”.
Existen muchos métodos para la reducción de bits en audio. Como regla general se puede
decir que los que tienen un monto de reducción menor ocupan métodos basados en formas
de onda, en cambio aquellos que ocupan cantidades altas de reducción emplean
psicoacústica para alcanzar el objetivo de compresión eficiente pero inaudible, lo que es
llamado codificación perceptual de audio [1] [8].
– La compresión sea lo más eficiente posible, es decir, los datos comprimidos sean lo
más pequeño posible.
La codificación perceptual de audio hace uso del fenómeno de enmascaramiento, donde los
sonidos con mayor nivel cubren o “enmascaran” los de menor nivel, especialmente si se
encuentran cercanos en frecuencia, lo que es llamado enmascaramiento por frecuencia. Los
sonidos con mayor nivel no solo afectan los de menor nivel que se presentan
simultáneamente, sino también enmascara sonidos que preceden o suceden, esto es llamado
enmascaramiento temporal. Estos fenómenos son ampliamente aprovechados en la
codificación para lograr que en cada banda de frecuencia analizada la información
resultante sea la que el oído tiene mayores probabilidades de detectar.
17
18
Considerando las bandas criticas, nuestro sistema auditivo puede ser descrito como un
banco de filtros pasabanda. Las respuestas de estos filtros se superponen y los anchos de
banda son del orden de 100 Hz para señales bajo los 500 Hz y de 5000 Hz para frecuencias
más altas. Entre 24 y 31 bandas críticas son usualmente tomadas en cuenta en el rango de
frecuencias audibles. A partir de los 500 Hz el ancho de banda de una banda crítica tiende a
aumentar conforme aumenta la frecuencia [7].
El umbral de enmascaramiento puede ser medido como el nivel bajo el cual ninguna señal
será audible. Este umbral depende del nivel de presión sonora y de la frecuencia de la señal
19
20
En un principio Dolby Digital, también conocido como AC-3, fue concebido como parte
integrante del film de 35 mm utilizado en el cine, por lo tanto su bit rate máximo está
determinado por la cantidad de bits que pueden almacenarse en el pequeño espacio
disponible entre las inserciones o sprockets. En cambio DTS consta de un código de tiempo
que hace sincronización con un CD-ROM externo que tiene una capacidad y velocidad de
transferencia muy superior. Este esquema permite que el DTS pueda almacenar 5.1 canales
de audio con una relación de compresión de sólo 4:1, muy baja en comparación con la del
AC-3 en el que la compresión es superior al 10:1.
Cabe destacar que para formatos como por ejemplo DVD, se pueden encontrar tasas de
transferencias de bits superiores para Dolby Digital, ya que no se encuentra tan limitado
como en la cinta de 35 mm. Sin embargo, entre el 75 a 80% de un DVD es solo reservado
para la imagen, dejando el restante porcentaje para audio, subtítulos y datos [2][3].
AAC o Advanced Audio Coding, de la “familia” MPEG, fue concebido especialmente para
la era digital y por su extraordinario rendimiento, aparte de ser ocupado en el estándar de
Televisión Digital ISDB-T, es también el códec de audio de elección para Internet,
21
conexiones inalámbricas y de radio difusión digital. También ha sido elegido por Apple
como formato principal para los iPods y para su software iTunes, y es considerado el
reemplazante de su predecesor, el famoso formato de compresión MPEG-1 Layer 3,
llamado comúnmente MP3 [2].
La codificación de audio avanzada (AAC Advanced Audio Coding) del estandar MPEG es
de especial interés en este trabajo, pues es la codificación que utiliza el sistema de
televisión digital terrestre ISDB-T elegido por Chile como parte del sistema de codificación
MPEG-4.
Los desarrollos en codificación de audio de la familia MPEG se han realizado desde 1988.
La entidad de estandarización ISO/IEC, de la cual forma parte MPEG, también conocido
como Moving Pictures Expert Group, fue establecida en 1988 para especificar codificación
digital de video y audio a bajas tasas de transferencia de datos. La primera fase de
estandarización terminó en 1992 con el códec MPEG-1, el cual tiene su más importante
paradigma en MPEG-1 Layer 3, conocido mundialmente como MP3 [10].
En la segunda etapa de desarrollo el objetivo del grupo MPEG fue definir una extensión
multicanal del MPEG-1 que fuera compatible con los sistemas MPEG-1 ya existentes. Así,
en 1994 nace MPEG-2 BC (las siglas BC se refieren a Backward Compatible, lo que
significa compatible con versiones anteriores). MPEG-2 BC entregaba buena calidad de
audio a tasas de transferencia de datos entre 640-896 kbps para 5 canales de rango
completo [10].
22
Otro esfuerzo comenzado en 1994 por el comité de estandarización del sistema MPEG-2
audio, fue definir un estándar multicanal de mayor calidad. Así nace el estándar “MPEG-2
non-backward-compatible audio standard”, que posteriormente fue renombrado como
MPEG-2 Advanced Audio Coding (MPEG-2 AAC). El objetivo de este desarrollo fue
alcanzar una calidad de audio “indistinguible” de la original a tasas de transferencia de
datos de 384 kbps o menores para cinco canales de rango de frecuencia completos. Las
pruebas llevadas a cabo en 1996 por la BBC de Inglaterra y por la NHK de Japón,
demostraron que MPEG-2 AAC satisface la calidad requerida por la ITU-R (International
Communication Union) a tasas de transferencias de datos de 320 kbps para cinco canales
de rango de frecuencia completa. Esta tasa de transferencia de datos podría ser inclusive
menor según los resultados de la NHK [10].
Luego del MPEG-2 se intentó implementar la codificación MPEG-3 (no confundir con
MP3 que es MPEG-1 Layer 3) que se supone sería para aplicaciones de Televisión de Alta
Definición (HDTV). Sin embargo, al inicio del proyecto se decidió que MPEG-2 tenía
todas las herramientas necesarias para la HDTV, así que el desarrollo del MPEG-3 se
integró a MPEG-2 [8].
A fines del año 1998 es terminada la versión MPEG-4. El desarrollo de esta codificación se
basa en dar nuevas funcionalidades en vez de mejorar la eficiencia de compresión. MPEG-4
como estándar fue pensado para ser usado en terminales móviles, acceso a base de datos,
comunicaciones y nuevas clases de servicios interactivos, facilitando la interacción entre
los mundos de la computación, TV, radio y telecomunicaciones [8].
23
– Single channel
– Dual channel (Dos canales de audio independientes, por ejemplo 2 idiomas)
– Stereo ( no Joint stereo, osea codificación de ambos canales por separado)
– Joint stereo.
– Tasa de transferencia de bits. MPEG Audio no trabaja a una tasa de compresión fija.
La selección de la tasa de transferencia de bits para audio comprimido es, dentro de
ciertos límites, dejada bajo el criterio del implementador o usuario del codificador. El
estándar define un rango desde 32 kbits/s hasta 320 kbits/s. También se pueden
24
ocupar tasas de transferencia de bits variable, las que deben ser soportadas por el
decodificador para no tener problemas al emitir el audio [8].
3.7.3.2 Algoritmo
El banco de filtros puede ser conmutado a menor resolución en frecuencia para evitar
pre-ecos. Este problema se produce cuando una señal impulsiva aparece al final de un
bloque de datos precedida de un silencio, lo cual produce errores de cuantización que
son desenmascarados en la decodificación en forma de ruido previo al sonido
impulsivo [7].
25
– Bucle de iteración interno (Inner iteration loop, rate loop): Las tablas de
código de codificación Huffman asignan palabras de código (frases de código)
más cortas para valores cuantizados mas pequeños (mas frecuentes). Si el
numero de bits resultante excede el numero de bits disponibles para codificar
cierto bloque de datos, se elige un escalón de cuantización mas grande
conduciendo a menores valores cuantizados. Esta operación es repetida con
diferentes tamaños de escalón de cuantización hasta que la demanda de bit de
la codificación Huffman es lo suficientemente pequeña. Este bucle también es
llamado Rate Loop, porque modifica la tasa de bits general hasta que es lo
suficientemente pequeña.
– Bucle de Iteración externo (Outer iteration loop, Noise control loop): Para
modelar el ruido de cuantización de acuerdo al umbral de enmascaramiento,
factores de escala son aplicados a cada banda. La función de estos factores de
escala es disminuir la amplitud para poder ocupar menos bits para cuantizar.
El sistema empieza con un factor 1.0 por defecto. Si el ruido de cuantización
en una banda dada excede el umbral de enmascaramiento (ruido permitido)
suministrado por el modelo perceptual, el factor de escala para esta banda es
ajustado para reducir el ruido de cuantización. Ya que alcanzar un ruido de
cuantización menor requiere un número mayor de escalones de cuantización y
en consecuencia una más alta tasa de transferencia de bits, el bucle de ajuste
de rate (bucle de iteración interno) debe ser repetido cada vez que un nuevo
factor de escala es ocupado. En otras palabras, el bucle de iteración interno
(rate loop) esta anidado dentro del bucle de iteración externo (Noise control
loop). El Noise control loop es ejecutado hasta que el ruido real (calculado de
la diferencia de los valores espectrales originales menos los valores
espectrales cuantizados) está por debajo del umbral de enmascaramiento para
cada factor de escala.
AAC sigue el mismo paradigma básico de codificación que Layer-3: un banco de filtros de
alta resolución, cuantización no uniforme, codificación Huffman y bucles de iteración
usando análisis-por síntesis. Además incluye nuevas herramientas de codificación para
26
– Joint Stereo Coding Mejorado. Comparado con el Layer-3, ambos, el mid/side estereo
coding y el intensity stereo coding, son más flexibles, permitiendo su aplicación para
reducción de bits más frecuentemente.
– Temporal Noise Shaping TNS. Esta técnica realiza modelado de ruido en el dominio
del tiempo realizando un loop abierto de predicción en el dominio de la frecuencia.
Esta técnica ha resultado ser especialmente efectiva sobre la calidad de sonido vocal a
bajas tasas de transferencia de bits.
Con la suma de estas herramientas, AAC alcanza en promedio la misma calidad de audio en
aproximadamente 70% de la tasa de transferencia de bits ocupada por Layer-3.
27
El estándar MPEG-4 audio, también conocido como MPEG-4 parte 3, fue estandarizado en
el documento ISO/IEC 14496-3 publicado en 1999. MPEG-4 absorbe las funcionalidades
de MPEG-1 y 2.
Dentro de la codificación MPEG-4 AAC se agrega una nueva herramienta llamada SBR
(Spectral Band replication) o Replicación de banda espectral la cual es utilizada en MPEG-
28
4 HE-AAC v1 (MPEG-4 de alta eficiencia Version1), también conocido como AAC plus.
Esta herramienta se basa en el hecho de que en la codificación de audio tradicional una
cantidad significativa de información es gastada en codificar las altas frecuencias. Sin
embargo, la importancia psicoacústica de las dos últimas octavas más altas es relativamente
baja.
SBR explota este hecho con el propósito de mejorar la compresión. En vez de transmitir la
parte alta del espectro, SBR la regenera en el decodificador a partir del espectro medio-bajo
de la señal con la ayuda de datos guías de baja tasa de transferencia de datos (ver figura
13). Para regenerar los componentes de alta frecuencia perdidos, SBR opera en el dominio
de la frecuencia ocupando un banco de filtros QMF de análisis por síntesis [5].
Los bloques más importantes del SBR son:
– Reconstrucción de alta frecuencia. Este bloque genera una primera estimación de la
parte alta del espectro, copiando y variando la parte baja del espectro transmitido.
Con el fin de generar la parte alta del espectro que sea cercana al espectro original,
varias herramientas se encuentran disponibles, tales como adición de ruido y adición
de sinusoides perdidas.
– Ajuste de la envolvente. El espectro alto generado por la transposición (del espectro
bajo), necesita ser modelado subsecuentemente con respecto a frecuencia y tiempo
para acercarse lo máximo al espectro original.
29
Entre estos perfiles destaca el uso del perfil de baja complejidad AAC-LC, y dos perfiles
estandarizados con posterioridad a 1999. Estos son: HE-AAC v1 (High Efficiency AAC
versión 1) el cual agrega la herramienta SBR (Spectral Band replication) y HE-AAC v2 que
solo se ocupa para sonido estéreo.
Los perfiles y niveles han sido creados en una forma estrictamente jerárquica, de tal manera
que el perfil HE-AAC v2 contiene al perfil HE-AAC, el cual a su vez contiene el perfil
AAC. También, dentro de cada perfil un nivel más alto contiene los niveles más bajos, por
ejemplo, un decodificador conforme a HE-AAC v2 nivel 5 es capaz de manejar cualquier
combinación de perfil y nivel. En la práctica, los niveles más ocupados son el nivel 2 para
sonido estéreo (teléfonos celulares, receptores de broadcasting) y el nivel 4 para sistemas
multicanales (Televisión Digital) [5].
Para la codificación de audio de sonido envolvente 5.1, para la televisión digital en Brasil y
Chile, son ocupados los perfiles MPEG-4 AAC@L4 (AAC-LC Nivel 4) o MPEG-4 HE-
AAC v1@L4 (AAC de Alta Eficiencia, Versión 1, Nivel 4). En la transmisión de audio
estéreo no se deben usar los niveles 4 [11].
30
Terrestrial. Ya en el año 2005 más del 95% de los programas eran producidos en televisión
de alta definición. [26]
Mirando hacia el futuro, para esta década, Japón espera transmitir en súper HD y en sistema
de audio 22.2, y para la década del 2020 se espera que el servicio público cuente con esta
tecnología. Para lograr estas metas se realiza una promoción de sonido envolvente una vez
al año (1 de mayo) que es el mes 5 día 1 (5.1), en el cual se hacen eventos para difundir el
sonido envolvente en la comunidad [26].
Actualmente la transmisión de audio a través de ISDB-T en Japón ocupa codificación
MPEG-2 AAC a una tasa de transferencia de datos de 284 kbps y muestreo de 48 Khz para
sonido envolvente 5.1 [26].
SUBTEL (2009) publica en Chile el documento que contiene las especificaciones técnicas
mínimas para receptores de la norma bajo el nombre de: “Recomendaciones sobre:
especificaciones técnicas mínimas para los equipos receptores de televisión digital-
comisión consultiva técnica-Chile”. En este documento se hace referencia constantemente a
documentos publicados por la ABNT (Asociación Brasilera de Normas Técnicas), que a su
vez están basados en los estándares de ARIB (Association of Radio Industries and
Businesses) de Japón. También se menciona que especialistas tanto de Japón como de
Brasil fueron consultados directamente [6].
El punto 2.1.4 detalla la decodificación de audio. Aquí se indica que el receptor debe ser
capaz de decodificar un stream de audio en el estándar MPEG-4 AAC de acuerdo a lo
definido en la norma ABNT NBR 15602-2.
La siguiente tabla extraída del documento SUBTEL (2009) muestra las especificaciones
para cada tipo de aparato y las especificaciones mínimas que debe cumplir en cuanto a
decodificación de audio. Señalándolas como obligatorias (M), optativas(O) y no aplica
(N/A)
31
32
– Full-seg STB down converter. Dispositivo externo que permite sintonizar señales de
televisión digital terrestres en televisores analógicos convencionales. Debe realizar un
“down convertion” para pasar de formato digital HD a formato NTSC de televisores
convencionales.
– One-seg. Dispositivo orientado a la recepción de la porción de la señal de televisión
digital llamada “one-seg”, destinada por la norma a la transmisión para aparatos
móviles. Bajo esta clasificación se encuentran los teléfonos celulares con sintonizador
de televisión, pequeños televisores portátiles, televisores de bolsillo, televisores para
automóviles y otros dispositivos de similares características.
Con respecto a los equipos decodificadores para el stream de audio y los equipos ya
existentes se declara lo siguiente en el documento [6]:
“Los miembros de ARCATEL y ANATEL estiman que, para aquellos receptores que
tengan una salida digital de audio envolvente tipo 5.1 o surround (óptica o coaxial), se exija
que estos recodifiquen o tengan la opción de recodificar, el audio de norma AAC nativa de
la norma de TV digital hacia audio AC-3, o bien DTS, ambos de mucha más amplia
difusión en el mercado y especialmente en los hogares que ya cuentan con este tipo de
sistemas de sonido. Se recuerda que Australia, precisamente para atacar este problema,
alteró la codificación de audio nativa de su norma y agrego la codificación AC-3 lo cual
significo una modificación mayor a la norma que en ningún caso se estima recomendable.
Es también de opinión de ARCATEL y ANATEL que es importante tener presente que los
sistemas de audio complementarios tendrán una importancia creciente debido a la tendencia
hacia el uso de televisores de pantalla plana. Este tipo de televisores cuentan con espacios
cada vez más reducidos para incorporar parlantes de calidad aceptable y es previsible que
pronto pasaran a depender exclusivamente de sistemas de audio externos.
El coordinador de la Comisión destaca que, de acuerdo a lo consultado a los especialistas
de los fabricantes, la “recodificación” indicada no está hoy disponible en los equipos
receptores. Es de esperar que los equipos de “home theater” comiencen a soportar estos
otros nuevos formatos de audio digital y no necesariamente que los equipos receptores de
televisión soporten todos los formatos de audio legados de dichos equipos.” [6]
Como se desprende del documento, no se recomienda variar la codificación AAC de audio
nativa de la norma y también se da a conocer la tendencia a depender de equipos de audio
externos del tipo “home theater”, lo cual confirma la hipótesis de que en el futuro la
mayoría de los programas podrían ser transmitidos con sonido envolvente.
33
Los datos codificados bajo compresores codificadores como la familia MPEG necesitan de
ciertas formas de encapsulamiento dentro de formatos contenedores para ser transmitidos.
Existen codecs de audio como, los vistos anteriormente, AAC, AC-3 y DTS; y códecs de
video como MPEG-1, MPEG-2, MPEG-4, Vorbis y DivX. Cuando el códec actúa sobre el
archivo crea un conjunto de datos codificados también llamados stream. Estos stream para
ser transformados nuevamente a su forma original deben ser decodificados por el mismo
códec en el hardware o software decodificador.
Un formato contenedor almacena una o más stream (archivos de audio y/o video ya
codificados por códecs). Muy a menudo el formato contenedor contiene una stream de
audio y una de video. Las streams contenidas pueden ser codificadas por diferentes códecs.
Pero existen incompatibilidades, es decir no cualquier códec puede ir en cualquier formato
de contenedor. Algunos formatos de encapsulamiento o contenedor son los siguientes: AVI,
Ogg, MOV, ASF, MP4 [32].
Los formatos MPEG suelen llevar a confusión, por ejemplo, el contenedor MPEG-4 que
suele ser llamado MP4, puede contener video codificado por el códec MPEG-4 y contener a
su vez audio codificado por el códec MPEG-4 AAC. El formato contenedor MPEG,
también es llamado MPEG system.
Cuando reproducimos material audiovisual MPEG desde un DVD, el stream MPEG
contiene a su vez varias stream, llamadas Elementary Stream (ES). Estas stream pueden ser
de audio, video, subtítulos, entre otros, que se encuentran mezcladas en un solo Program
Stream (PS). Si exploramos los archivos del DVD, a través de un computador,
encontraremos archivos con extensión .VOB que son realmente archivos MPEG-PS o
archivos MPEG Program Stream. Estos archivos PS no están diseñados para ser
transmitidos por una red de datos como un broadcasting digital.
Para realizar una transmisión ya sea a través de una red o en televisión digital se ocupa el
formato llamado Transport Stream o TS, que fue creado para transmitir contenedores
MPEG. Este archivo con capacidad para ser transmitido a través de una red de datos se
denomina MPEG-TS o MPEG Transport Stream [32].
En este trabajo se ocupa el software VLC, para realizar una transcodificación (transformar a
formato transport stream) del material codificado y realizar una transmisión en tiempo real
a través de Internet. Este software es un programa gratuito que puede ser descargado de la
pagina web http://www.videolan.org/.
34
4 MATERIALES Y METODOS
4.1.1 Equipamiento
Para realizar la edición del trailer a partir del video piloto se ocuparon los siguientes
materiales:
Final Cut es el software de edición creado por Apple Macintosh para ser ocupado en
sistemas operativos Mac OS.
El flujo de trabajo de Final Cut resulta relativamente simple cuando se realiza una edición
ya que el software presenta 4 ventanas principales que son llamadas Browser, Viewer,
Canvas y Timeline (Ver figura 14).
Browser es la ventana donde se buscan los archivos a editar. Estos archivos pueden ser
formatos de imagen, películas y audio. La ventana Browser trabaja en conjunto con la
ventana Viewer, donde son arrastrados los elementos desde el Browser para ser
visualizados y realizar su edición mediante un sistema de marcas in/out. Por ejemplo, si se
arrastra un video de 5 minutos al Viewer desde el Browser y se desea seleccionar solo
desde el minuto 2 al minuto 3, se ocupan los marcadores in/out en el Viewer para marcar la
entrada in en el minuto 2 y la salida out en el minuto 3. Luego de esto se arrastra el
fragmento de video o audio seleccionado desde las marcas de edición in/out hacia la
ventana Timeline.
35
Figura 14. Final Cut Pro 3. En la parte superior de izquierda a derecha la ventana Browser,
Viewer y Canvas; y en la parte inferior la ventana Timeline.
36
4.2.1 Equipamiento
– Interface Xmon.
– Interface I/O 192.
– Superficie de control D-Command.
– Patch bay Tascam. (Pachera)
– Sistema de monitoreo 5.1. Consistente en 5 monitores Yamaha HS80 y un sub-bajo
Yamaha HS10W.
– Pedestales para monitores.
– Sonómetro (Para calibración del sistema).
Pro Tools funciona de manera clásica mostrando en pantalla ventanas de edición donde se
crean tracks o canales para cada una de los sonidos a editar. Cada track lleva su propio
Fader, insert, sends y puede ser automatizado de forma independiente (ver figura 15).
37
Una de las principales características del software es que utiliza tarjetas DSP dedicadas.
Estas tarjetas se encargan del procesamiento requerido por los plug-ins del tipo TDM (Time
división multiplexing). El sistema también ocupa el procesador de la CPU cuando se
utilizan plug-ins del tipo RTAS (Real Time Audio Suite). Además, dentro de una misma
sesión se pueden ocupar tanto plug-ins TDM como RTAS. El uso de memoria originado
por la cantidad de pistas y uso de plug-ins se puede monitorear a través de la opción system
usage (ver figura 16).
38
4.2.1.2 Aspectos generales de interfaces del sistema Pro Tools HD. Además
del uso de tarjetas dedicadas DSP para su funcionamiento, Pro Tools HD necesita una
interface que sirva de entrada y salida para el sistema. El sistema utilizado para este trabajo
consta de una Interface de entrada/salida denominada 192 I/O, una superficie de control D-
command y una interface XMON que gestiona las entradas y salidas para la superficie de
control (ver capítulo 4.2.3.1 para detalles sobre conexiones).
4.2.1.2.1 Interface 192 I/O. Digidesign 192 I/O es una interface de audio digital de 16
canales diseñada para ser usada con Pro Tools HD. Posee conversores de señal A/D y D/A
de 24 bits, admite frecuencias de muestreos de hasta 192 Khz, rango dinámico superior y
un umbral de ruido bajo (ver figura 17)[33]
39
40
El sistema D-command ofrece control sobre la mayoría de las tareas de grabación, edición
y mezcla. Además de un versátil sistema de monitoreo entregado a través de la Interface
XMON, la cual es controlada remotamente por la superficie de control (ver figura 19).
41
l/h<3 (2)
w/h<3 (3)
Una vez elegida la sala se procede a evaluarla para verificar sus características en tiempo de
reverberación y ruido de fondo.
42
43
Figura 20. Sonómetro CESVA y fuente omnidireccional en sala de músicos del estudio de
grabación y postproducción.
Tm = 0,25(V/V0)1/3 s. (4)
Donde:
V= Volumen de la sala= 100,1 m3.
V0= Volumen de referencia de 100 m3.
Reemplazando los valores medidos para el estudio de grabación se obtuvo un valor de
Tm=0,250083305 s.
44
reverberación. En el gráfico de la figura 22 se puede ver que el ruido de fondo cumple con
NR 20, lo cual excede ligeramente lo propuesto en la recomendación.
Figura 21. Tiempo de reverberación medido sala de músicos, comparado con las curvas
tolerancias para tiempo de reverberación propuestas en recomendación ITU-R BS.1116.
45
Los pedestales para los altavoces se ajustan a una altura de 1,2 mts posicionándolos en los
ángulos de instalación correspondientes. El altavoz central se establece como eje medio en
0º. Los altavoces L y R se ubican en las posiciones -30º y +30º respectivamente con
respecto al eje medio y los altavoces surround Ls y Rs en ángulos -120º (para Ls) y + 120º
(para Rs). Una vez montado el sistema para monitoreo 5.1 según la recomendación, se
procede a calibrar los niveles.
Siguiendo las recomendaciones establecidas por la ITU en conjunto con la EBU, se genera
un nivel de alineación digital de -18 dBFs para una señal de ruido rosa. Para trabajar en
cine en salas pequeñas, este nivel de ruido rosa debe producir 80 dBC para los altavoces
frontales y 78 dBC para los altavoces surround. El sub-bajo debe ser calibrado con un RTA
(Real Time Analizer), si este no está disponible se deben hacer aproximaciones con el
sonómetro. Se recomienda que el sub-bajo produzca un nivel de 90 dBC aproximadamente,
dependiendo del nivel al que fueron calibrados los altavoces. [13]
El nivel de -18 dBFS se generó con el generador de tonos de Pro Tools. En la superficie de
control se ajusto el nivel de salida a -18 dBFS. Luego se envía el sonido generado a cada
uno de los altavoces por separado. En cada uno se ajusta el trim (volumen de salida) hasta
obtener la lectura adecuada en el sonómetro. El sonómetro se localiza en el lugar donde el
operador del sistema se sienta a realizar la mezcla. Esto es en el centro imaginario de la
circunferencia de 2 mts de radio creada por los altavoces. Con esto se asegura un correcto
nivel de salida en cada altavoz.
4.2.3.1 Conexiones del sistema. El sistema Pro Tools HD 2 consta de una tarjeta
HD Core y una tarjeta HD Accel, las cuales van conectadas entre sí al interior del
computador mediante un cable TDM FlexCable. Estas tarjetas van instaladas en el
computador Mac Pro en los puertos PCI. La interface 192 I/O se conecta a la tarjeta HD del
puerto PCI mediante un cable llamado Digilink (ver figura 23).
La superficie de control D-command se conecta mediante dos cables de red Ethernet hacia
un switch, el cual se conecta mediante un cable de red al puerto Ethernet del computador.
La interface XMON se conecta a D-command mediante un cable DB15 XMON Control.
Las conexiones entre XMON y 192 I/O se realizan según las necesidades del usuario.
46
En este trabajo se conectan las salidas análogas de 192 I/O hacia la pachera inferior (Patch
bay Tascam) la cual a su vez envía esta señal a las entradas análogas de XMON. Las
conexiones entre interfaces y pachera se realizan mediante cables DigiSnake, que consisten
en un conector DB25 hacia cables TRS (Plug balanceado).
Las salidas principales de XMON van conectadas a la pachera superior mediante un cable
DigiSnake. Para trabajar en formato de sonido envolvente 5.1 las salidas análogas desde la
pachera (provenientes de XMON) serán 6 señales que irán a 5 monitores Yamaha HS80 y
el sub-bajo Yamaha HS10W.
47
48
Figura 26. Dialogo Quick Start para configuración de sesión en Pro Tools.
49
Figura 27. Configuración de entrada/salida del Menú Setup I/O de Pro Tools.
Una vez configurada la sesión, se importa el video trailer obtenido en Final Cut 3 mediante
el menú File/Import/Video. En la ventana Video Import Options se debe activar la casilla
Import audio from File para importar también el audio de referencia (creado en Final Cut)
que acompaña al video.
– Diseño de sonido. Para realizar el diseño de sonido se crea una sesión en Pro Tools
aparte de la creada para la postproducción principal. En esta sesión se realiza una
mezcla de sonido para crear sonidos que no existen en la realidad, como por ejemplo,
sonidos de vehículos voladores y armas láser que aparece en el trailer creado para
este trabajo.
50
Para los motores de los vehículos voladores se ocupa el sonido de un microbus. Este
sonido se acelera alterando su naturaleza tonal mediante plug-ins, luego se mezcla
con el sonido de una secadora y con tonos puros cercanos en frecuencia, para de esta
forma, dar la sensación de un motor futurista.
Una vez obtenido el sonido deseado se exporta como un archivo WAV, el que
posteriormente es modificado en la sesión principal para generar el sonido de efecto
doppler que produce un vehiculo pasando a gran velocidad escuchado desde un punto
fijo. En el minuto 1:29 del trailer realizado para este trabajo se puede apreciar el
efecto diseñado para los vehículos voladores (ver figura 28).
Figura 28. Imagen capturada de trailer “Altair la luz del poder”. 01:29 minuto, diseño de
sonido para vehículos voladores.
Alguno de los plug-in que se ocupan en el diseño de sonido de éste trailer son del tipo
Audiosuite. Este plug-in no puede ser ocupado como insert, sino que se aplica a una
región (forma de onda disponible en un track) y se monitorea mediante el menú
preview hasta obtener el resultado deseado. Para aplicar este efecto sobre la región se
selecciona el menú Process, el cual realiza la transformación mediante el plug-in
obteniendo una nueva región. Los plugins ocupados para el diseño de sonido son los
siguientes [30]:
– Time shift. Este plug-in fue ocupado especialmente para acelerar sonidos sin
variar su tono (ver figura 29). Los principales parámetros de este plug-in son:
51
– Vari Fi. Este plug-in provee un efecto de cambio de pitch similar al que se
produce en una tornamesa al detener un disco o al acelerarlo desde cero (ver
figura 30). En este trabajo es usado para simular el efecto Doppler del sonido de
los motores al pasar a gran velocidad.
52
– Signal generator. Es ocupado para generar señales de varios tipos que son
utilizadas para la calibración de interfaces u otros elementos del estudio (ver
figura 31). En este caso, se ocupa para generar dos señales cercanas en
frecuencia a las que se les incorpora reverberación. El sonido obtenido se
mezcla con el sonido de motor para agregarle una característica más tonal al
sonido final. Cabe destacar que este plug-in, además de funcionar en
Audiosuite, puede ser ocupado como insert para realizar calibración de salidas y
altavoces.
53
– Grabación de efectos de sonido: No fue necesario grabar efectos de sonido. Para los
efectos de sonido como el clima (tormentas y viento) y explosiones, se mezclaron
sonidos provenientes de bancos de sonido.
– Foley: Para foley se mezclaron sonidos de bancos de sonido. No fue necesaria la
grabación de estos efectos.
54
El ordenamiento es de dos tipos, uno con respecto a la línea de tiempo y el otro con
respecto al tipo de track. En el ordenamiento con respecto a la línea de tiempo se ocupan
los marcadores o memory locations. En la ventana de edición para agregar un marcador se
elige un tiempo específico, luego en la línea de tiempo superior se selecciona la opción
markers. Así se puede acceder a cualquier parte específica en la línea de tiempo (ver figura
33).
El ordenamiento con respecto al tipo de pista consiste en agrupar los tracks por tipo
(efectos de clima, efectos de vehículos motorizados, voces, entre otros), darles un nombre
como grupo y colorear ese grupo con un color característico (ver figura 34). Con esta ayuda
visual, se puede elegir rápidamente un track dentro de la sesión para editarlo.
55
El paneo es uno de los procesos que le dan “sentido” a la mezcla. Esto quiere decir que
dentro de los requerimientos de imagen se debe ajustar el paneo de tal manera que “el todo”
tenga un sentido y el sonido envolvente sea un complemento de la imagen. Dentro de la
perspectiva elegida se evita enviar demasiada información de sonido a los altavoces
surround si no es estrictamente necesario. Los controles dentro del paneo surround de Pro
Tools son (ver figura 35):
– LFE (Fader)
– Posicion: front, rear, center % y f/r.
– Divergencia: front, rear y f/r
El Fader LFE controla el nivel enviado hacia el altavoz de sub-bajos. Es necesario para
efectos como explosiones y sonidos de truenos, también puede ser usado en otros sonidos
para darles algo de “profundidad”. No es necesario usarlo en sonidos como voces.
56
Los controles de posición front, rear y f/r son de utilidad para la automatización de paneos.
Esta automatización es fundamental para lograr movimientos que acompañen la imagen.
Por lo general se usa para elementos “móviles” como los vehículos voladores que se
mueven a gran velocidad en el trailer de animación editado para este trabajo.
57
Figura 36. Automatización realizada desde altavoz trasero izquierdo hacia lo posición
central-derecho.
El control center % controla la cantidad de nivel que se envía al altavoz central. Si la voz se
encuentra paneada hacia el altavoz central como en la figura 35, al disminuir este control, la
voz empieza a bajar de nivel en el altavoz central y aparece paulatinamente en los altavoces
derecho e izquierdo frontales. Sin embargo, no desaparece del todo en el altavoz central.
Por otro lado, si la voz se encuentra paneada hacia el altavoz derecho o izquierdo frontales
este control no afecta.
Un buen uso para el control center % es en una automatización de paneo de izquierda a
derecha frontal. Mediante este control se disminuye la cantidad de información enviada al
altavoz central, de esta forma se evita que la salida de este altavoz se sobrecargue si ya
contiene muchos elementos. Es decir, el sonido se mueve de izquierda a derecha pasando
por el altavoz central sólo marcando un pequeño nivel en éste. Si el paneo fuese desde el
altavoz trasero izquierdo al trasero derecho o viceversa este control no influye.
Los controles de divergencia front, rear y f/r se ocupan para copiar sonidos en canales
aledaños de la siguiente forma:
58
En el paneo de voces se ocupa el altavoz central como salida principal. Sin embargo, en la
mayoría de los casos, también se ocupan los altavoces derecho e izquierdo frontales como
complemento al altavoz central, para darle más “presencia”. Para esto, en la ventana de
paneo surround, se ocupa el control de divergencia.
En la figura 35 se muestra el control de paneo surround para la voz del personaje Octavia.
Mediante un punto verde que se mueve a través del espacio cuadriculado se muestra
visualmente hacia donde esta paneado el sonido. En este caso se tiene el sonido paneado
hacia el altavoz central con el control de divergencia front disminuido a 62 (lo cual también
lo asigna a los altavoces derecho e izquierdo frontal en menor nivel), esto se muestra
visualmente en el control de paneo surround como un trapezoide con su lado más pequeño
hacia los altavoces frontales.
Además del ajuste de paneos, también se ocupa la técnica de agregar una reverberación 5.1
para dar una mayor sensación surround. Para esto se crea un track auxiliar (aux input) al
cual se le agrega un plug-in de reverberación 5.1 para ser ocupado en voces, música o
efectos. Con este método se puede asignar reverberación con sonido envolvente a cualquier
track a través de envío (send), midiendo la cantidad de envío de señal mediante un Fader en
el dialogo send (ver figura 37).
59
Figura 37. Plug-in (izquierda) y Track Auxiliar (derecha) para reverberación 5.1.
Luego de realizar todos los paneos y automatizaciones de paneo, además del ajuste de nivel
individual, se pasa a la etapa de mezcla final (re-recording mix). En esta etapa se realizan
los ajustes finales al total de la mezcla, cuidando los niveles de salida y poniendo atención
en cada detalle.
Para esta etapa se ocuparon los canales llamados VCA Masters de Pro Tools a los cuales se
les asigna los grupos creados anteriormente: Voces, LuzFX (efectos de sonido de la “ luz
del poder”), naturaleza (efectos de sonido de viento, tormenta, caída de agua, entre otros),
motores y disp. y exp. (disparos y explosiones). Estos canales VCA pueden ser
automatizados y no varían la automatización individual de los canales de los grupos, ni las
relaciones de nivel entre ellos. Esto permite tener un control total sobre la mezcla sin
afectar, por ejemplo, la relación entre los envíos de efectos.
Una vez terminada la mezcla final se consulta al profesor patrocinante, quien discrimina si
está correcta o necesita modificaciones. Esta tarea en circunstancia laboral es realizada por
el director de la producción audiovisual. Al recibir la aprobación del trabajo se procede a
exportar la mezcla final.
60
4.2.4.3.1 Formato de Bounce. Para exportar la mezcla final se debe ir al menú File y
luego al menú “Bounce to disk”. Se abre una ventana de diálogo donde se elige el formato
de los archivos de salida y la forma en que se quiere exportar. En el caso de este trabajo se
exportan seis archivos mono en formato WAV, frecuencia de muestreo 48 Khz y
profundidad de 24 bits. Cada uno de estos archivos representa los canales izquierdo,
derecho, central, izquierdo surround, derecho surround y sub-bajo. Al nombre de los
archivos elegidos por el usuario se le agrega automáticamente un distintivo (L, C, R, Lf, Ls
y Rs) para saber a cual canal corresponde. Los archivos exportados son los siguientes:
– Bounce Final.L.wav
– Bounce Final.R.wav
– Bounce Final.C.wav
– Bounce Final.Lf.wav
– Bounce Final.Ls.wav
– Bounce Final.Rs.wav
Estos corresponden respectivamente a izquierdo frontal, derecho frontal, central, sub-bajo,
izquierdo surround y derecho surround.
4.3 CODIFICACIÓN
La etapa de codificación es una de las más importantes, pues crea el producto final,
realizando compresión tanto en audio como video. Si esta etapa no es realizada
correctamente puede dañar la calidad del trabajo previo.
61
– Ventana Lote. La primera vez que se abre Compressor, se muestra la ventana Lote.
La cual permite importar archivos multimedia de origen para comprimir. Ademas,
permite añadir ajustes y destinos, dar nombre al lote y seleccionar dónde se desea
guardar el trabajo luego de la compresión. En esta ventana se colocan todos los
archivos multimedia de origen, como parte de los preparativos para la codificación o
transcodificación, entendiéndose por transcodificación la acción de pasar de un
formato de codificación a otro.
– Ventana Ajustes. Esta ventana permite gestionar de forma centralizada los ajustes
personalizados y también los ajustes de Apple que trae por defecto. Esta ventana se
utiliza junto con la ventana del Inspector para crear y modificar ajustes, decidir
exactamente qué ajustes desea utilizar para codificar o transcodificar el archivo de
origen y seleccionar el formato de salida al que desea convertir el archivo codificado.
– Ventana de vista previa. Esta ventana está formada por una pantalla dividida en dos
partes: en el lado izquierdo se muestra el archivo de video de origen seleccionado con
su formato original y en el lado derecho se muestra el aspecto que presentará el
archivo de video de salida. Esto permite comparar la versión original y codificada, y
configurar los ajustes en función a las necesidades del proyecto. Además, se puede
utilizar las opciones de esta ventana para recortar el fotograma y cambiar las
proporciones.
62
Para más información sobre el funcionamiento del software ver capítulo 4.3.2 sobre
codificación.
Las posibilidades de codificación para video y/o audio ofrecidas por el software
Compressor son múltiples. Para realizar una adecuada compresión de video se debe tener
conocimiento de la resolución a la que se trabaja y el frame rate (cuadros por segundo) que
se usa. Además, se deben conocer las características de cada compresor y las opciones
sobre limitación de la tasa de transferencia de datos, que en el caso de streaming, son muy
importantes, no así para subir un video a la web. Con respecto al audio, dentro del
codificador elegido se encuentran múltiples opciones tanto para elegir un perfil específico
del codificador como para tratar la tasa de transferencia de datos.
63
Al seleccionar esta opción se abre una ventana que permite agregar sonido envolvente (ver
figura 40). Se pueden agregar hasta 7 archivos de audio, es decir la posibilidad de trabajar
con sonido 6.1. Sin embargo, en este trabajo se cuenta con 6 archivos para sonido 5.1, por
lo tanto el altavoz central surround se deja sin archivo, lo que no influye ni causa errores.
También en esta misma ventana se agrega el archivo de video en el dialogo “Añadir Video”
que debe tener la misma duración de los archivos de audio.
El video agregado se obtuvo de la sesión de Final Cut creada para editar el trailer de este
trabajo, cuya duración es de 2:42 minutos. Este video se exporto sin compresión y sin
audio, pues es utilizado para crear el archivo multimedia final. Posee un tamaño
aproximado de 6 Gigabytes.
64
Luego de agregar los 6 archivos de audio y el archivo de video, se procede a configurar las
opciones de codificación. El video se codifica con MPEG-4 video, y el audio con MPEG-4
AAC LC (320 kbps). La única forma de agregar sonido surround al video es ocupando el
encapsulamiento MOV (ver figura 41) por lo tanto el archivo multimedia queda en formato
Quicktime (QT). Este encapsulamiento no influye en el resultado final, pues posteriormente
se realiza una transcodificación en el software VLC que cambia el formato de
encapsulamiento a MPEG-TS que es el ocupado en este trabajo para transmisión o
streaming).
65
Luego de configurar todos los parámetros necesarios, se procede a dar inicio al proceso de
codificación mediante la opción “enviar” en la ventana Lote. Este proceso puede ser
monitoreado en la ventana historial. Al finalizar la codificación se obtiene un archivo
multimedia de video y audio con sonido envolvente.
– Software VLC.
– Computador PC, sistema operativo Windows 7 ultimate 32 bits, Intel Pentium 4, 2.4
Ghz, memoria 2 GB, tarjeta de video AMD2 256 MB.
66
VLC es un software libre y de código abierto que funciona como reproductor multimedia
(ver figura 42). Es capaz de reproducir la mayoría de los formatos de audio y video, soporta
múltiples protocolos de streaming y cuenta con la capacidad de transcodificar archivos
multimedia para transformarlos, por ejemplo, a formato de transport stream.
67
68
69
Una vez instalado el software VLC en el Computador PC en Viña del Mar se debió realizar
ajustes en la conexión para funcionar como emisor de la transmisión. Para esto se habilitó
un puerto especifico en el router de acceso a Internet (ver figura 46). Se ingresó a la
configuración del router a través de un navegador web mediante la dirección IP de acceso
local, luego en la ventana Virtual Server se configuró el puerto que se necesita para un
tráfico específico desde o hacia Internet. El puerto 11345 fue elegido para transmitir.
70
71
Luego de ingresar todos los parámetros se comienza con la transmisión (ver figura 48).
Cabe destacar que quien realiza la transmisión solo ve una línea de tiempo en el software
pero no escucha ni ve el archivo multimedia que se está emitiendo.
72
Una vez que el software VLC se encuentra funcionando como servidor de transmisión se
puede acceder al streaming de video desde otro computador a través de la red. En este caso
se accedió a la transmisión a través del software VLC instalado en el Laptop Macbook Pro.
Para poder monitorear el sonido envolvente se conecta el Laptop a una interface Presonus
Firestudio de conexión Firewire. Se conectaron altavoces de sistema home theater Creative
y un sub-bajo KRK para aumentar la respuesta en frecuencias bajas del sistema (ver figura
49).
Figura 49. Esquema de conexión de equipamiento para recibir y monitorear con sonido
envolvente el streaming recibido a través de VLC.
En el software VLC se elige el menú “abrir red” (ver figura 50). En esta ventana se anotan
los parámetros para lograr abrir la transmisión que está siendo emitida. En este caso los
datos a ingresar fueron los siguientes:
http://200.104.172.115:11345
Donde http es el protocolo de transmisión, 200.104.172.115 es la dirección IP externa del
computador que está transmitiendo y 11345 el puerto por donde se transmite.
73
Con esto se logró ver el archivo multimedia con sonido envolvente transmitido desde Viña
del Mar con una calidad aceptable (algo pixelada) en la imagen e intacta calidad de audio
(ver figura 51).
Figura 51. Transmisión recibida por protocolo http a través de software VLC.
74
75
76
Este archivo multimedia fue monitoreado en un sistema home theater doméstico para
revisar su calidad, además de esto se escuchó en un sistema configurado en modo
estéreo. El downmix a dos pistas (derecha e izquierda) es realizado automáticamente
por el software que se esté ocupando para reproducir, siempre que cuente con el
decodificador correspondiente. El resultado al escuchar el material en sonido
envolvente y estéreo fue satisfactorio.
77
78
6 BIBLIOGRAFIA
1. Holman, Tomlinson, 5.1 Surround Sound: Up and Running, Focal Press, Boston
Oxford (2000).
3. Mayo, Andrés (2007), Como preparar el audio para un DVD, La columna de Andrés
Mayo. Extraído el 20 de Julio del 2009 de la World Wide Web:
http://www.andresmayo.com/data/
5. Herre, Jürgen y Dietz, Martin (2008), MPEG-4 High-Efficiency AAC Coding, IEEE
Signal Processing Magazine, Vol 25, páginas 137-142. Extraído el 18 de Diciembre
del 2009 de la World Wide Web: http://www.ieee.org/portal/site
79
12. Dae-Young Jang, Jeong-il Seo, Taejin Lee, Jin-Woo Hong y Kyeongok Kang (2002),
Implementation of Multi-channel AAC encoger for high quality audio Broadcasting,
IEEE Xplore, descargado el 18 de Diciembre de 2009 de la World Wide Web:
http://www.ieee.org/portal/site
13. Torrealba Mahuad, Ramón Alejandro (2008), Montaje y aplicación de un sistema
multicanal 5.1 para producción musical, Tesis Ingeniería Acústica, Facultad de
Ciencias de la Ingeniería, Universidad Austral de Chile.
14. Fortune Bayer, Jorge (2007), Montaje, Operación y Resultados de un Estudio de
Grabación, Mezcla y Masterización digital de bajo costo, Tesis de Ingeniería
Acústica, Facultad de Ciencias de la Ingeniería, Universidad Austral de Chile.
15. Vidal López, Alejandra Lorena (2008), Estudio teórico de la norma técnica Europea
DVB-T y su posible adopción en Chile. Tesis Ingeniería civil Electrónica, Facultad
de Ciencias de la Ingeniería, Universidad Austral de Chile.
16. ISO 354 (1985), Measurement of sound Absorption in a reverberation room.
17. ITU-R BS.1116-1 (1997), Methods for the subjective assessment of small
impairments in audio Systems including multichannel sound systems.
18. ITU-R BS.775 (1992), Multichannel stereophonic sound system with and without
accompanying picture.
19. EBU Rec. R22 (1997), Listening conditions for the assessment of sound programme
material.
20. Walker, Robert (1998), A controlled-reflection Listening room for Multi-Channel
Sound, Presentado en “The 104th Convention AES 1998 Amsterdam”.
21. DIBEG (Digital Broadcasting Expert Group) (2010), Transmisión de televisión
digital terrestre ISDB-T.
22. Dolby Laboratories, Inc. (2000), 5.1 Channel Production guidelines.
23. Dolby Laboratories, Inc. (2012), Dolb TrueHD Lossless Audio Performance.
24. ISO/IEC 13818-7 (2004), Information technology- Generic coding of moving
pictures and associated audio information- Part 7: Advanced Audio Coding (AAC).
25. Meltzer, Stefan y Moser Gerald, (2006), MPEG-4 HE-AAC V2 audio coding for
todays media world.
80
Páginas Web
28. Apuntes Neuroanatomía UFRO, Oído Interno, Consultada en Junio de 2010 :
http://www.med.ufro.cl/Recursos/neuroanatomia/archivos/fono_oido_archivos/Page3
42.htm
29. Meyer Sound, Movie Sound Explained: From set to Screen, Consultada en Abril de
2012: http://meyersound.com/news/2011/exp_process/#diagram_anchor
Manuales
30. Digidesign, Pro Tools Reference Guide.
31. Digidesign, Digirack Plug-ins Guide.
32. De Lattre, A., Bilien, J., Daoud, A., Stenac, C., Cellerier, A. y Saman, J.P. (2005),
Videolan How to streaming.
33. Digidesign, 192 I/O setup Guide.
34. Apple, Manual de Usuario Compressor.
81
7 ANEXOS
7.1 ANEXO 1
El Bass Management es un sistema electrónico por el cual las señales comprendidas debajo
de la frecuencia de corte inferior de cada canal principal son enviadas sumadas al altavoz
sub-bajo junto con el contenido de LFE.
La figura x muestra un diagrama de bloques del funcionamiento del manejo de bajos. Los
filtros pasa altos en cada canal se complementan con un filtro pasabajos en la cadena de
alimentacion del sub-bajo. La señal proveniente del canal LFE amplificada en +10 dB es
sumada a la resultante de los filtros pasabajos aplicados a cada canal principal.
82
Otro problema derivado del uso de canales de frecuencia completa es que cada canal tendrá
diferente respuesta en el punto de escucha debido a las diferentes funciones de transferencia
de cada altavoz que reproduce frecuencias bajas.
Por lo tanto si se va a preparar material para consumo hogareño es indispensable contar con
un sistema de Bass Management [3].
7.2 ANEXO 2
Chile eligió la norma ISDB para su sistema de transmisión de televisión digital terrestre.
El estándar de televisión digital japonés, Integrated Services Digital Broadcasting (ISDB),
fue establecido por la Association of Radio Industries and Businesses de Japón (ARIB) y es
promovido en el mundo por el Digital Broadcasting Experts Group (DiBEG). La
investigación y desarrollo para ISDB comenzó en los años 1980 y el estándar propiamente
tal fue forjado en los años 1990. El estándar ISDB en sus documentos especifica la
distribución de video digital por satélite (ISDB-S), cable (ISDB-C) y terrestre (ISDB-T),
este último incluyendo terminales móviles (como por ejemplo celulares). ISDB fue
diseñado en torno al estándar de codificación de audio y video MPEG-2 (norma ISO/IEC
13812), y contiene especificaciones para transmisión de televisión de resolución estándar,
en modo multiplexado, y de alta definición (HDTV). [15]
83
Para satisfacer todos los requerimientos, la ISDBT-T ha utilizado una serie de herramientas
únicas tales como el sistema de modulación de OFDM asociado con la segmentación de
bandas, que le da al sistema una gran flexibilidad y la posibilidad de transmisión jerárquica,
tiempo, intercalación que contribuye a alcanzar la robustez requerida por la recepción
móvil y portátil dándole además una poderosa robustez al sistema contra ruidos impulsivos
y Control de Configuración de Multiplexación y Transmisión (TMCC) que permite un
cambio dinámico de los parámetros de transmisión para ajustar el sistema para un
rendimiento optimizado dependiendo del tipo de transmisión (televisor de alta definición,
recepción móvil, etc.)[21].
Las transmisiones y características que ofrece la ISDB-T son las siguientes:
– Transmisión de programas de televisión en HD (High definition).
– Transmisión de múltiples programas de televisión en SD (Standar definition). Estos
programas se transmiten en vez de un solo programa en HD.
– Guía de programas electrónica.
– Transmisión de datos tales como pronóstico climático o información del tráfico en las
calles.
– Acceso a Internet mediante los receptores de ISDB-T.
– Recepción móvil de HDTV, como por ejemplo receptores que se instalan en
automóviles.
– One-seg service: Servicios de televisión de receptores portátiles o de mano. Tales
como celulares.
– La posibilidad de transmitir sonido de alta calidad en formatos mono, estéreo y
multicanal.
84