Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Curso Completo de 38 Páginas
Curso Completo de 38 Páginas
Funciones
Procesos: Grabación, Edición, Procesado, Mezclas y Masterización
Personal técnico y de producción
El estudio de postproducción: digital vs. analógico, video vs. multimedia
Funciones
Audio de CDs
Audio de DATs. Otros soportes de audio en cinta
Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción
de bits
EJERCICIOS
Audio de CDs
Para más detalle sobre MP3, RealAudio, Quicktime, etc., puedes consultar mis
apuntes sobre formatos de audio en internet
EJERCICIOS
0. Copiar a vuestra zona o al disco local los archivos tema2*.* que halléis en la
carpeta R:\Recursos\PostAudio.
Edición de sonido
En el dominio temporal:
* Relación amplitud-intensidad
En el dominio espectral:
* Armonicidad.
EJERCICIOS
0. Copiar a vuestra zona o al disco local los archivos tema3*.* que halléis en la
carpeta R:\Recursos\PostAudio.
La reverberación es la suma total de las reflexiones del sonido que llegan al lugar del
oyente en diferentes momentos del tiempo. Auditivamente se caracteritza por una
prolongación, a modo de "cola sonora", que se añade al sonido original. La duración y
la coloración tímbrica de esta cola dependen de:
1. la distancia entre el oyente y la fuente sonora;
2. la naturaleza de las superficies que reflejan el sonido.
Retardo de las primeras reflexiones: en salas grandes las primeras reflexiones tardan
en llegar más tiempo que en salas pequeñas, pudiendo sonar incluso como una especie
de eco.
Intensidad de las primeras reflexiones: está determinada por la distancia del oyente y
de la fuente sonora respecto a las superficies reflectantes. Si el oyente o la fuente sonora
están junto a ellas las primeras reflexiones sonarán con mucha intensidad.
Tipo de reverberación: una reverberación tipo hall nos proporciona una coloración
diferente que una de tipo plate, o de tipo room. Otros tipos de reverberación como las
gete-reverbs o las reverbs no lineales (en las que la intensidad de las reflexiones no se
va atenuando a medida que pasa el tiempo) pueden alterar poco la coloración, pero en
cambio provocar sensaciones extrañas (ya que son "anti-naturales").
Es importante remarcar que cuando uno empieza a utilizar reverberaciones suele hacer
un abuso de ellas. La mejor manera de evaluar su efectividad consiste en ajustar el
equilibrio entre sonido seco y sonido reverberado (dry/wet) según cremoas apropiado, y
a continuación eliminar la reverberación; si "aparecen" detalles o instrumentos que en la
mezcla no se oían quiere decir que seguramente estábamos a punto de sobre-reverberar.
Para hacer este tipo de escucha es importante configurar el mezclador de manera que en
dos canales tengamos la señal seca, en los dos contiguos la señal reverberada, y que el
procesador nos entregue 0% de señal original y 100% de procesada.
En los últimos años han aparecido equipos e incluso programas que permiten simular el
posicionamiento de una fuente sonora no sólo en un espacio acústico y en un eje
horizontal, sino también en el eje vertical, así como simular con credibilidad
trayectorias de la fuente dentro de ese espacio. Asímismo, es posible codificar
fácilmente una mezcla en formatos envolventes multicanal (Surround).
Procesado de dinámica
Un tipo de compresión que cada vez se utiliza más es la compresión por bandas, de
manera que sólo se aplica a determinadas frecuencias (por ejemplo a los graves, o a los
7KHz para reducir la sibilancia o siseo de una voz). Aunque no nos extenderemos en
ellos, los reductores de ruido de cinta (Dolby B y C, Dolby SR y DBX) son sistemas de
compresión/expansión selectiva por bandas de frecuencia.
Las puertas de ruido "cierran" el paso de toda señal que no supere un determinado
umbral fijado por el usuario. Son muy útiles en situaciones de "directo" en las que hay
multitud de micrófonos que pueden captar lo mismo que el principal, y tratamos de que
la señal sólo entre por el principal (por ejemplo, en un coloquio en el que casi seguro
que sólo habla una persona al mismo tiempo). También nos ayudan a "recortar" todos
aquellos ruiditos no deseados que se han colado en una grabación (toses, respiraciones,
rozamientos de ropas, ruidos de ambiente), siempre que no se mezclen con la señal
principal.
Los expansores de dinámica actúan de manera inversa a los compresores. A partir de
un determinado umbral expanden el margen dinámico en una proporción fijada por el
usuario. Su utilidad puede revelarse especialmente en situaciones en las que la señal
original tiene una dinámica demasiado reducida (por ejemplo, en la escucha de un disco
de vinilo) y nos interesa tratar de ampliarla un poco, o también puede ayudarnos a
restaurar señales grabadas con bajo nivel (aunque necesitaremos aplicar otros procesos
adicionales, ya que el expansor por sí solo no bastará).
Eco/Retardo
Flanger
Se trata de un filtrado periódico (en forma de peine) de una serie de frecuencias
determinada por el tiempo de retardo (por ejemplo, con uno de 0.5 milisegundos
realzaremos 2KHz y sus armónicos), aunque explicarlo con palabras es poco efectivo.
El origen del flanger es mecánico (hay quien se lo atribuye a George Martin y a John
Lennon): si al grabar una cinta en un magnetofón presionamos con el dedo de vez en
cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que
alteran la señal original. Si grabamos simultáneamente en 2 magnetofones, y en uno
aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido
característico del efecto de flanger.
Chorus
Distorsión
Transforma en cuadradas las ondas de la señal de entrada. Eso origina que el resultado
tienda a ser desagradable y rasposo (ya que la cuadratura de la onda implica que
aparezcan armónicos impares).
Excitador
Transpositor
En una mezcla es importante tratar de plantear siempre en primer lugar una ecualización
destructiva (en la que se atenúan determinadas zonas para conseguir el deseado
equilibrio tonal) antes que una constructiva (en la que una amplificación excesiva puede
originar un aumento del ruido); en lugar de amplificar lo que queremos resaltar
podemos obtener el mismo efecto atenuando todo aquello que no nos interesa resaltar.
En cambio, en grabación, si es necesario ecualizar deberemos preferir antes una EQ
constructiva (que siempre permita volver a atenuar en mezcla) antes que una destructiva
(si hemos atenuado algo, difícilmente vamos a conseguir que "reaparezca"); ahora bien,
hay que conocer en qué zonas se mueve la energía de los instrumentos para no cometer
el error de enfatizar zonas vacías que lo único que hará será aumentarnos el ruido de la
grabación. También es importante ecualizar "contextualizadamente", es decir, teniendo
presente el resto de fuentes sonoras que van a sonar al tiempo que aquella que tratamos
de ecualizar: un instrumento ecualizado puede sonar fantástico cuando lo escuchamos
"solo", y en cambio, en la mezcla en la que está incorporado, ser un factor de
ensuciamiento o de desequilibrio. La ecualización debe permitirnos también asentar los
instrumentos en un espacio espectral "vertical", de forma que cada uno de ellos ocupe
un "nicho ecológico" propio y no exista una feroz competencia entre varios.
Junto a los ecualizadores los filtros son otra herramienta importante para alterar la
estructura tímbrica de un sonido (de hecho los ecualizadores no son más que filtros
especiales). Un filtro nos permite eliminar una determinada banda o margen de
frecuencias en torno, por encima, o por debajo, de una cierta frecuencia de trabajo o
frecuencia de corte.
Montaje y mezcla
* Acústica de la sala: se requiere una sala con respuesta plana (sin tendencia a realzar o
atenuar determinadas bandas de frecuencia) y apenas reverberada; en caso de que no
cumpla estas condiciones es necesario acondicionarla acústicamente, y en última
instancia, procesar la escucha a través de un ecualizador gráfico de tercio de octava para
equilibrarla tonalmente. Además, la sala debe estar convenientemente aislada, de
manera que no interfieran en la escucha sonidos ajenos a la mezcla. Es importante, en
este sentido, conseguir aislar o atenuar ruidos propios de los dispositivos de audio
(motores, ventiladores de ordenadores, etc.), para lo cual suele ser útil disponer de una
"sala de máquinas" adyacente al control de escucha.
Mezcladores virtuales
Los mezcladores virtuales suelen ser programas de gestión de pistas de sonido con
interfases gráficos que emulan las superficies de trabajo de una mesa de mezclas de
estado sólido. Entendiendo la estructura y funciones de una mesa de mezclas es fácil
utilizar el símil para comprender y operar un mezclador virtual ya que hasta el momento
no parecen existir metáforas mejores para diseñar sus nterfases de usuario.
Cuando la respuesta en frecuencias del soporte final esté restringida (caso del video
analógico tradicional, que no va más allá de 15 KHz, o de los cassettes, que también se
quedan en esa región), o la dinámica esté reducida (en un vinilo no hay más de 40 dB,
por ejemplo), hay que procesar convenientemente la mezcla (recortando frecuencias,
comprimiendo, etc.).
Automatización
Para ahorrarnos la tarea de tener que usar las manos y los pies para conseguir fundidos
simultáneos de varios canales a diferentes velocidades (y teniendo en cuenta que no
podemos amaestrar a un pulpo para que nos ayude) debemos recurrir a la
automatización de los movimientos de faders y potenciómetros de una mesa, ya sea real
o virtual. La automatización se conseguía antaño mediante la conversión de los datos de
posición de los controles de la mesa a un determinado formato digital especial, y la
grabación de dichos datos en una pista del magnetofón "master", pero hoy en día cada
vez es más utilizada la automatización MIDI. Mediante los controladores 7 y 10
(volumen y panorama respectivamente), o mediante otros controladores no asignados
que nos permitan mayor resolución y que hayamos asociado (vía software) a los
controles de nivel y panorama de cada pista es posible grabar (en varias pasadas
incrementales) una secuencia MIDI con la información necesaria para conseguir la
mezcla que haga falta, por compleja que sea. Si además disponemos de una superfície
física de control como una caja de faders MIDI, podremos realizar movimientos en
varios canales simultáneamente. Hay que advertir que no todos los programas de mezcla
multipista permiten dicha automatización (Cakewalk, por ejemplo, sí; en cambio
CoolPro no).
SMPTE.
Postproducción informatizada.
El sonido y los formatos audiovisuales más habituales: AVI, Quicktime,
Betacam...
SMPTE
En algunas ocasiones, al trabajar con código SMPTE puede ser necesario ajustar
el denominado offset o diferencia entre el código del master y el del esclavo.
Supongamos que hemos empezado a sonorizar un video antes de que nos hayan
pasado las imágenes. Nuestro audio empieza en 00:01:00:00, pero cuando
recibimos las imágenes nos damos cuenta de que el audio debería empezar en
00:02:30:00. Si no es fácil mover en bloque toda la banda sonora (cuando se
trabajaba con multipistas analógicos que tenían SMPTE en la última pista era
imposible plantear tal movimiento) podemos recurrir a ajustar el offset (todos
los programas serios tienen una opción para ello), de manera que el sistema
esclavo, cuando reciba el código 00:02:30:00, empiece la reproducción
correspondiente a su código 00:01:00:00. Estableciendo un offset de
-00:01:30:00 (nótese que el offset sería negativo en este caso, y algunos sistemas
no pueden trabajar con offsets negativos sino que requieren establecer el 0
absoluto en 24:00:00:00 de manera que nuestro offset también podría ser
23:58:30:00) habremos resuelto el problema. La fórmula
Offset = Tc Esclavo - Tc Master
nos permite calcular el valor de offset. Una recomendación respecto a los
valores de código SMPTE es la de procurar empezar a trabajar con valores más
allá del cero absoluto (por ejemplo 00:02:00:00) para evitar problemas en el caso
de que haya que añadir elementos (sean de imagen o sean de sonido) al principio
de la cinta. Finalmente, cuando necesitemos sonorizar un video no debemos
olvidar que, además de necesitar disponer de una copia con el código SMPTE
que gobernará los dispositivos esclavos, necesitamos ver sobreimpresionado en
pantalla ese mismo código. Así pues cuando solicitemos una copia de trabajo
para sonorizar hay que acordarse de pedir que nos sobreimpresionen el código, y
antes de empezar a sonorizarla es necesario verificar que el código
sobreimpresionado coincide con el que hay grabado en la pista de código que
usamos para controlar los dispositivos esclavos.
Actualmente en configuraciones de estudio en las que se utilizan dispositivos
MIDI se emplea cada vez más el Midi Time Code (o MTC), que es la versión
del código SMPTE en formato de datos MIDI (en jerga MIDI se trata de
mensajes comunes de sistema o System Common). Así, a través de un cable
midi real o virtual también es posible transmitir una señal de direccionamiento
absoluto de tiempo a diferentes aparatos tales como secuenciadores,
workstations de síntesis, editores de sonido, multipistas digitales, etc. En estos
casos suele existir un dispositivo (como el SMPTE Slave Driver de Digidesign,
o la interfase MIDI 2Port S/E de Opcode) que pueden recibir y generar SMPTE
en formato tradicional y convertirlo a MTC, y viceversa. Cuando se utiliza MTC
en una configuración MIDI típica es recomendable disponer de un puerto MIDI
exclusivamente para la transmisión de MTC (al utilizar un mismo puerto para
MTC y para mensajes de canal típicos podemos colapsar el sistema con cierta
facilidad).
Postproducción informatizada
La postproducción informatizada requiere no sólo de que dispongamos en
formato digital de todos los elementos de la banda sonora, y de una serie de
programas de edición, procesado y mezcla, sino también de que dispongamos en
formato digital de las imágenes que tenemos que sonorizar.
Uno de los entornos integrados más conocidos es Premiere, pero está orientado
principalmente a la postproducción de imágenes (si bien con él podemos
resolver satisfactoriamente también sencillas postproducciones de sonido).
Postview, pariente de Protools permite la postproducción de sonido en un
entorno en el que se integra también el video digital. En el ámbito de los PCs,
cabe destacar Soundscape y SADIE. En cualesquiera de esos casos es necesario
disponer de un hardware específico que posibilita una conversión A/D y D/A de
muy alta calidad, y la gestión, edición y procesado del sonido con gran eficacia.
Betacam
VHS
Hi-8
AVI
Quicktime
La voz humana cantada tiene una tesitura que oscila entre los 80 y los 1000
Hercios, aunque la mayor parte de la energía se sitúa entre los 200 y los 700 Hz..
Según la ubicación y rango de la tesitura de una voz cantada distinguimos como
mínimo entre voces de bajo (82/293 Hz), tenor(146/523 Hz), contralto (174/659
Hz) y soprano (261/1046 Hz). Los armónicos de un cantante pueden llegar a los
12 o 14 KHz en el caso más agudo. En cambio, la tesitura de la voz de un
locutor o de un actor no cubre tan amplio espectro, y debemos esperar que se
sitúe entre los 100 y los 500 Hz, mientras que sus armónicos probablemente no
superen los 10 KHz.
Otra característica importante de la voz es que las vocales presentan zonas en las
que se concentra la energía: son lo que denominamos los formantes de la voz. El
número de formantes y su ubicación son diferentes para cada vocal y para cada
registro de voz, aunque no varían en exceso entre cantantes diferentes de un
mismo registro (varía la fundamental, pero no la ubicación de los formantes). El
primer formante lo hallamos entre 250 y 700 Hz, mientras que el segundo se
sitúa entre 700 y 2500 Hz. Los buenos cantantes de tesitura grave y media
presentan el denominado "formante del cantante", una zona de energía
especialmente realzada entre 2.5 y 3 KHz que les sirve para poder sobresalir en
medio de una orquesta.
En cuanto a los sonidos que una voz puede generar, en el caso del canto
predominan las vocales, que son sonidos estables, armónicos, de altura
definida... En cambio en el habla existe una mezcla de sonidos vocálicos con
consonantes, que son sonidos inarmónicos, transitorios, sin altura definida la
mayoría de las veces. Los sonidos de consonantes tienen un espectro de energía
mucho más ancho (puesto que son ruidos) aunque algunas de ellas presentan
zonas especialmente intensas: la "s" tiene mucha energía entre los 7 y los 8 KHz;
la "j" presenta alta energía por encima de los 4.6 KHz; la "r", en cambio tiene
una distribución mucho más uniforme.
El momento del día que elijamos para grabar una voz puede determinar en gran
medida su calidad: siempre hay que preferir la tarde o la noche (si por la mañana
no se ha sometido la voz a esfuerzos), aunque eso a menudo no lo podemos
controlar nosotros.
En el caso de grabar voces en exteriores hay que prestar especial atención a los
ruidos de ambiente: podemos reducirlo considerablemente con micrófonos
direccionales (especialmente de diagrama polar hipercardiode o supercardioide)
y ubicando -siempre que sea posible- la fuente sonora de frente a las fuentes de
ruido (para captarla de espaldas a él). También el uso de un filtro de graves (pasa
altos ajustado entre 80 y 100 Hz) es una opción útil a considerar para reducir el
ruido de tráfico, manipulación del micro, roces de ropa, etc.
Finalmente, si somos los responsables últimos del sonido debemos asumir dicha
responsabilidad exigiendo repetir las tomas tantas veces como sea necesario para
disponer de al menos una que sea satisfactoria (¿verdad que se hace lo mismo
con la imágen y nadie pierde la calma?) siempre que la deficiencia en las tomas
no se nos puedan achacar a nosotros mismos y a nuestros aparatos.
Tipologias de efectos.
Estrategias de creación de efectos.
Colecciones de efectos. Recursos disponibles en Internet.
En general los efectos más utilizados a lo largo de la historia del teatro eran
principalmente aquellos encargados de simular sonidos de la naturaleza (ya los griegos
utilizaban efectos de sonido en sus obras de teatro, por ejemplo hacían sonar "truenos"
cuando aparecía el dios Júpiter airado), y más adelante aquellos destinados a reforzar
situaciones cómicas. A partir de la expansión de la radio en los años 30 los efectos de
sonido recibieron un nuevo impulso: era necesario conseguir el máximo realismo en un
medio dramático que no contaba con la imagen como factor principal para ello, y
también era necesario eliminar los fatídicos silencios muertos que daban la sensación de
que la emisora no funcionaba bien. Los "efectistas" de la época, además de los
mecanismos tradicionales de generación de efectos (planchas metálicas, muelles,
instrumentos de percusión, bocinas, silbatos, etc.) podían disponer de efectos
previamente grabados en discos de piedra o bakelita (incluso había tocadiscos
especiales de 2 brazos para reproducciones simultáneas de 2 efectos!). Finalmente, los
efectos de sonido llegaron al cine y a partir de la película Aleluya de King Vidor (1929)
fueron utilizados de manera dramática y no como simple contrapartida aural de la
imagen.
Tipologias de efectos
En los escenarios de la acción es recomendable grabar todos los sonidos que puedan
parecer interesantes. En caso de hacer wildtracking es preferible utilizar pistas
diferentes de las que utilicemos para grabar los diálogos o los efectos sincrónicos, o
incluso cintas diferentes. También es util captar en los escenarios de la acción los
denominados room tones o sonido de ambiente. Hay que pensar que incluso una
habitación aparentemente tranquila y silenciosa tiene un room tone. Disponer de esos
sonidos puede ayudar a homogeneizar la sonoridad de la banda sonora, a minimizar
diferencias tonales cuando los diálogos procedan de tomas diferentes, y en generar,
proporcionarán un mayor realismo. Cuando no dispongamos de esos sonidos es
recomendable crear un sutil colchón sonoro a base de tráfico distante (si la acción es
urbana), o zumbidos y rumores domésticos (si la acción es en interiores), aderezado con
ruidos esporádicos "ad hoc". Finalmente, aún cuando los grabemos juntamente con
diálogos, es interesante que tratemos de conseguir los efectos sincrónicos aislados. De
esa manera podremos mezclarlos con los diálogos al nivel necesario y no al nivel
determinado por la posición y ubicación de los micrófonos en el momento de captar el
diálogo. En todos estos casos debemos ir documentando y marcando debidamente las
pistas que grabamos para facilitar la posterior búsqueda y gestión de todo ese material.
Cuando necesitamos crear efectos "de la nada", es recomendable tratar de partir de
algún sonido vagamente parecido o relacionado con el que necesitamos. A partir de él
siempre es posible experimentar con algunas estrategias para convertirlo en un auténtico
efecto:
Por lo que respecta a la organización del material es conveniente tener a mano los
ambientes y room tones que se prevean más necesarios habilitando para ellos un par de
pistas (seguramente habrá puntos en los que se solapen) o bien, si trabajamos con
sampler, fragmentos con loop de diversas duraciones. También hay que habilitar
suficientes pistas (o configurar el sampler) para generar rápidamente stacks o efectos
multicapa. La ventaja de disparar los efectos con ayuda de un sampler y un teclado
MIDI es que variando la velocidad de pulsación podemos verificar rápidamente la
adecuación de cada capa. Finalmente, para ubicar sonidos cuya sincronía es crucial
puede ser más acertado adelantarlos entre 1/4 y 1/2 frame, en lugar de clavarlos a la
imagen (especialmente si la producción se va a exhibir en salas grandes: a 7 metros de
distancia de la pantalla el sonido ya se ha retrasado 20 milisegundos respecto de la
imagen).
Para conocer dichas colecciones y recursos, nada mejor que acudir a ellos a través de mi
página de recursos sobre postproducción de sonido.
Las funciones de la música varían según sea su origen. En este sentido diferenciamos
entre:
Música diegética: aquella que pertenece al mundo de los personajes (por
ejemplo, en una escena de baile en una película de los años 50, la música de la
orquesta que toca en la sala).
Música no-diegética: la que existe fuera del mundo de los personajes, y por
tanto ellos no la pueden oir.
Se recomienda utilizar una escaleta u hoja de registro en la que, por ejemplo, en una
columna indicamos tiempos SMPTE de puntos clave, en otra una palabra resúmen de la
imágen, en otra la música que debe sonar, y en otra el tipo de entrada o salida de la
música, o si hay que hacer alguna manipulación en tiempo real de niveles o de otro tipo.
Los encadenados deben ser suaves o enérgicos, pero deben realizarse en el momento
oportuno, sin vacilaciones de nivel. Las transiciones abruptas es mejor realizarlas justo
antes de los acentos.. Especialemente importante es que las ediciones no alteren el ritmo
de una forma antinatural (salvo que esa antinaturalidad vaya en paralelo con la imagen),
y dado que el oído del espectador medio está más acostumbrado a los acordes y
armonías "consonantes", las ediciones deben hacer lo posible para mantener esa
sensación de consonancia (incluso si conviene, es preferible transponer un pasaje o una
nota si con ello nos aseguramos que el espectador no notará la edición). El último
elemento a igualar es la textura.
El volúmen máximo de la música no debe superar el 80% del margen dinámico cuando
suena sola, de esta manera cuando haya efectos o diálogos éstos podrán estar por
encima de ella sin necesidad de que bajemos su nivel.
Pensar en el soporte final del producto: es muy probable que pierda altas frecuencias,
por tanto, no obcecarse en ellas y en todo caso tratar de enfatizar la zona próxima a la
frecuencia de corte del soporte final.
Cuando mezclamos música y voz, cuidar de que la voz se entienda y su timbre no quede
completamente enmascarado por la música.
Cuando mezclemos música y efectos, cuidar de que prevalezca el que por intención
expresiva sea más conveniente; si mezclamos al 50% generalmente obtendremos un
batiburrillo incomprensible. Cuando un efecto va después de una música (o al revés), es
preferible un pequeño solapamiento entre ambos elementos (siempre que sonora y
visualmente no haya otros motivos que lo desaconsejen).
Utilizar el silencio como un elemento más de la banda sonora. A menudo puede ser el
más importante.