Está en la página 1de 21

Tecnología y técnicas del audiovisual 16-17

Resumen sesiones SONIDO

TECNOLOGÍA Y TÉCNICAS DEL AUDIOVISUAL

SONIDO

1. ACÚSTICA
2. SISTEMAS DE SONIDO Y ESPACIOS SONOROS
3. TECNOLOGÍAS PARA LA CAPTACIÓN DEL SONIDO:
MICRÓFONOS, CABLES Y CONECTORES DE AUDIO
4. EL PROYECTO SONORO

1. ACÚSTICA

acústica:
Parte de la física que trata de la producción, con
trol, transmisión, recepción y audición de los son
idos […] (DRAE)

Al igual que ocurriera con el sistema visual y la cámara, es necesario atender a


algunas nociones de nuestro sistema auditivo y de las propiedades del sonido
para comprender el funcionamiento de las tecnologías y técnicas destinadas a
la toma y postproducción de sonido.

Nuestra percepción del sonido, a grandes rasgos, se inicia cuando a un cuerpo


capaz de vibrar se le transmite energía y se consigue que vibre; el entorno de
ese cuerpo transmite la vibración y si estamos cerca, la columna de aire que
entra en nuestro oído sigue transmitiendo esa vibración, que llega al tímpano y
lo hace vibrar a su vez. El sistema auditivo hace el resto (no es necesario que
sepamos más sobre el funcionamiento del oído, que a su vez es mucho más
complejo). Al igual que ocurriera con la luz, la onda es el estímulo, y el sonido es
la sensación que nos produce la percepción de dicha onda. Importante: al ser
otra sensación, el sonido existe de forma subjetiva, en dependencia de nuestro
sistema auditivo.

El sonido como onda: origen y transmisión

El sonido es una onda mecánica, es decir, se propaga gracias a la perturbación


de un medio natural. A diferencia de la luz, que era una onda electromagnética

Página 1 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

que no necesitaba de un medio específico para “viajar” (podía propagarse por el


vacío), el sonido necesita un medio que pueda vibrar.

El proceso por el cual se produce la onda sonora es una combinación de dos


procesos físicos: la compresión y la rarefacción del medio.
 Compresión: se corresponde con una zona de alta presión, donde las
moléculas del medio están muy próximas entre sí.
 Rarefacción: se corresponde con una región de presión baja, es decir, las
moléculas del medio se encuentran más separadas.

La alternancia de zonas de compresión y de rarefaccón son las que dan lugar a


la vibración y originan la onda mecánica. Es decir, los cambios entre zonas en
las que las moléculas están muy próximas o más separadas dotan al medio de
la capacidad de originar y transportar la onda.

Por ello, podemos seguir representando la onda sonora con un gráfico sinusoidal
que nos recuerda al de la onda lumínica (electromagnética), pero teniendo en
cuenta que esta vez representamos las diferencias de presiones en el medio.
Las amplitudes (eje y) más altas se corresponden con las zonas de compresión
y las bajas con las de rarefacción:
Compresión

Rarefacción

La transmisión de la onda sonora no se produce a la misma velocidad en todos


los medios. Podemos suponer que, cuanto más denso sea el medio, más
partículas cercanas contendrá y mejor se producirá la vibración entre ellas, por
lo que la onda se propagará más rápido. En concreto, en el aire el sonido se
propaga a una velocidad de 340 m/s, en el agua del mar aproximadamente a

Página 2 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

1500 m/s, y a través de materiales más sólidos viaja todavía más rápido (acero:
5200 m/s, aluminio: 6400 m/s).

El tiempo: la dimensión del sonido

Además de existir gracias a un medio físico por el que propagarse, debemos


entender que el sonido realmente existe en una dimensión muy concreta: el
tiempo.
Esto se entiende mejor si pensamos en lo que ocurre cuando cambiamos la
velocidad de reproducción de un sonido ya grabado. Si lo aceleramos o
ralentizamos lo distorsionamos, pues alteramos su frecuencia y ya no nos
reconocible: ya no es el mismo sonido, si no que sonará más agudo o más grave.
Por tanto, el sonido necesita tiempo, o mejor dicho, el sonido necesita al tiempo.
Como dice Marcel Chion, el tiempo es una especie de espacio del sonido (Chion,
52), el espacio unidimensional que lo conforma.

Cualidades del sonido

Tradicionalmente se han considerado cuatro cualidades del sonido: tono o altura,


duración, intensidad y timbre.

Tono o altura: cualidad que nos permite situar a los sonidos en una escala de
grave a agudo. El estímulo físico que origina el tono de un sonido es la longitud
de onda de la onda sonora (eje x de su representación sinusoidal), es decir, la
frecuencia, la cantidad de ciclos de la onda que se repiten en un segundo. La
sensación que percibimos es lo que llamamos tono (grave o agudo). Las ondas
con frecuencias altas se corresponden con sonidos agudos, mientras que las
frecuencias bajas dan lugar a sonidos que percibimos como graves. Al tratarse
de frecuencias, expresaremos esta cualidad del sonido Hz (herzios). Ej: una nota
“la” en la cuarta octava, referencia en música, se identifica con una onda de 440
Hz.

Duración: tiempo durante el que podemos percibir un sonido. La música ayuda


a pensar que no se pueden percibir finamente las duraciones absolutas, pero sí
las diferencias entre estructuras de duraciones (ritmos). Es decir, por
comparación sabemos establecer que unos sonidos duran más en el tiempo que
otros.

Timbre: es la cualidad del sonido que nos permite diferenciar qué o quién lo
emite. El timbre es de más compleja definición, “es esa ‘fisonomía característica’
de un sonido musical que nos hace reconocer su fuente instrumental” (Chion,
Página 3 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

208, refiriéndose al timbre musical). Dos sonidos con frecuencia similar pueden
ser percibidos como diferentes si la fuente emisora no es la misma. Eso se debe
a que la mayor parte de los sonidos no está basado en una única onda sonora.
Cada sonido suele ser una composición de varias ondas relacionadas, y esa
combinación es la que genera un timbre. Existe, por tanto, una “frecuencia
fundamental”, que es la más baja que identifica el tono del sonido, y “sobretonos”,
que son ondas sonoras con frecuencias más altas. A su vez, existen los
“sobretonos armónicos”, cuyas frecuencias son un múltiplo de una frecuencia
fundamental.

Intensidad: coloquialmente conocido como el volumen. La intensidad es la


sensación que responde a la amplitud de la onda (eje y en su representación
sinusoidal). Chion (52) dice que la intensidad, en principio, depende tanto de la
amplitud como de la distancia a la fuente sonora.

 Nivel de presión sonora y decibelios

Lo que estamos representando como amplitud de onda es el Nivel de Presión


Sonora (NPS), es decir, el estado relacionado con la presión del medio que varía
dependiendo de si la onda se encuentra en el estado de compresión o
rarefacción.

Al tratarse de presión, se requeriría de una unidad como el pascal (Pa.) para


medirla, pero las variaciones de presión entre el umbral de audición y el del dolor
(ver más adelante) son magnitudes tan grandes, que precisamos de una unidad
logarítmica para representar el nivel sonoro. Esta unidad es el decibelio (dB). Las
personas necesitan recibir un gran incremento en la intensidad sonora (física)
recibida para percibir un cambio real, por eso el decibelio nos ayuda mejor a
representar esas variaciones. Sirva un ejemplo: si decimos que el rango
dinámico en cuanto a la intensidad del oído humano es desde los 0 dB (por
debajo de los cuales no percibe el sonido) y los 130 dB (donde situamos el
umbral del dolor, inaguantable por el oído), estamos hablando de que hay una
diferencia de presión entre uno y otro de 10.000.000.000.000 valores, es decir,
de 1013 (aquí es donde entra en juego la definición de escala logarítmica, no es
necesario saber más para esta asignatura).

Algunos ejemplos de intensidad sonora medidos en pascales y en dB. Nótese


que un aumento del sonido multiplicado por 10 (es decir, para que un sonido sea
10 veces sea más intenso) se traduce en un aumento de 20 dB).

Página 4 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

(Alton Everest y Pohlman, 26)

 Loudness

Referido a los cambios de intensidad de un sonido encontramos el fenómeno


loudness, es como llamamos a la respuesta subjetiva a los cambios de nivel
sonoro. Se mide en phons, y se hace coincidir con la escala de intensidades en
dBs a 1kHz. Es la cualidad que explicaría las diferencias que existen, viendo la
televisión, entre el nivel sonoro de una película y el de la publicidad que entra a
continuación. De la escala loudness por frecuencias (por ejemplo, Watkins, 46)
se deduce rápidamente que con presiones bajas no se escuchan los graves.

Umbrales en la percepción sonora con respecto a las cualidades del


sonido.

Frecuencia: el rango de frecuencias que se considera que podemos escuchar


sonidos que están incluidos en una franja de frecuencias desde 20 Hz la más
Página 5 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

grave, a 20.000 Hz (o 20 KHz) la más aguda. Autores especializados en sonio


como Chion sitúan este último umbral realmente en los 16.000 Hz (16 KHz).

Intensidad: El rango dinámico del oído es más o menos de 130 dB entre el


umbral de la percepción y el del dolor, es decir, entre la mínima intensidad que
podemos apreciar y la máxima que podemos soportar. Sonidos por encima de
los 130 dB (y posiblemente próximas a esta magnitud aunque no se sobrepase)
producen lesiones en el oído humano.

Hemos de tener en cuenta que nuestro oído no se comporta igual con todas las
frecuencias ni intensidades. Por ejemplo, la escucha es más fina con un volumen
bajo o moderado que con uno fuerte (Chion, 51). Los umbrales de audición y de
dolor son distintos para cada frecuencia: la intensidad necesaria para que un
sonido muy grave pueda empezar a percibirse, por ejemplo, es muy superior a
la intensidad con la que comenzamos a percibir un sonido de frecuencia media.

Duración: el umbral humano temporal de percepción es 40 milisegundos, por


debajo del cual no se acierta a distinguir más que un plop. Casi podríamos decir
que, para nosotros, un sonido que dure menos de ese tiempo no existe.

Reverberación y eco

Al comportarse como onda, el sonido se transmite a través de los cuerpos que


encuentra en su camino (medios transmisores), pero también puede ser
absorbido o reflejado por ellos, como ocurre con la luz. En concreto, al efecto del
sonido reflejado lo llamamos reverberación: la onda sonora llega directamente
de la fuente al oído a través del aire pero, si nos encontramos en una sala vacía,
también, viaja hasta las paredes y techo, rebota y llega nuevamente a los oídos
con una diferencia temporal pequeña, pero suficiente para ser apreciada y
sumarse, confundiéndolo, al sonido original. Nuestro cerebro es muy sensible a
estas pequeñas diferencias temporales: como hemos remarcado antes, es capaz
de distinguir diferencias de pocos microsegundos (Watkins, 44) entre ondas
distintas. Si por el contrario esa estancia estuviera llena de otros objetos
(muebles) la reverberación disminuiría, pues estos absorberían parte del sonido
y no se produciría tal “rebote”. Lo que conocemos como eco es un ejemplo
extremo de reverberación: la respuesta nos llega tan tarde que ya no percibimos
ese sonido como brevemente reiterado, sino que nos parece un sonido
completamente repetido cuando ya hemos dejado de escuchar el emitido
originalmente.

Página 6 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

Merece la pena conocer dos estructuras que el hombre ha construido para evitar
o aprovechar la cualidad de reverberación del sonido. Por una parte, las salas
anecoicas se construyen para evitar toda reverberación, son indispensables en
las circunstancias en las que precisemos el sonido puro. Por el contrario, las
cámaras o gabinetes de secretos dan lugar al fenómeno contrario: un susurro
pronunciado en un punto concreto de la estancia puede reverberar tanto que
llegue hasta el otro extremo y sea perceptible por otra persona gracias a la
arquitectura de la sala.

Obstáculos y enmascaramiento

Las cualidades del sonido también hacen que los sonidos se comporten de
distinta manera ante los obstáculos o que no sufran por igual el fenómeno de
enmascaramiento.

Obstáculos. En concreto, a menor frecuencia, mayor longitud de onda (sonidos


graves). Cuanta mayor frecuencia, menor longitud de onda (ondas más cortas,
sonidos más agudos). En estas condiciones, cualquier obstáculo, por pequeño
que sea, puede interponerse entre una onda corta y un detector (por ejemplo, el
oído), de forma que no pueda advertirse. Las ondas largas, propias de los
sonidos graves, pueden escapar con mayor facilidad de los obstáculos,
especialmente de los más pequeños. Es por eso, por ejemplo, que a un volumen
muy grande los sonidos más graves del televisor del vecino resuenan más en
nuestra casa que los agudos, que con un solo altavoz de ultra bajos sea
suficiente para reproducir esa gama sonora del sonido envolvente, ya que sortea
mejor cualquier obstáculo.

Enmascaramiento. Es la capacidad de que un sonido “oculte” a otro. Si un


sonido tiene la intensidad suficiente, puede ocultar o disminuir nuestra
percepción de otros tonos que se producen al mismo tiempo. En términos de
intensidad, los sonidos más intensos enmascaran a los más débiles. En cuanto
a la frecuencia, los graves enmascaran con mayor facilidad a los agudos. El
efecto es más notable si se da en sonidos con intensidades diferentes pero
frecuencias están próximas.

Página 7 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

2. SISTEMAS DE SONIDO Y ESPACIOS SONOROS

El conjunto de sonidos que percibimos configuran un espacio sonoro. Nuestro


oído es capaz de distinguir la procedencia de las fuentes sonoras en un ángulo
de 360º. Por ello, existen los distintos sistemas de sonido, clasificlables en
función de su capacidad para recrear espacios sonoros.

MONO

También conocido como monofónico, monoaural, monocanal… Cuenta con una


sola fuente de reproducción y se usa una sola pista sonora en la grabación. Es
el sonido que emite un altavoz convencional.

El espacio sonoro que es capaz de crear este tipo de sistema solo permite que
identifiquemos la cercanía o lejanía de la fuente del sonido gracias a las
variaciones de intensidad, pero no su ubicación, pues la fuente se representa
como estática.

ESTÉREO

El sonido estéreo permite colocar espacialmente las fuentes sonoras en un


reducido espacio sonoro representado por dos altavoces frontales. Si la
captación o la postproducción son adecuadas a las condiciones de escucha,
puede localizarse con cierta precisión en un espacio limitado una fuente sonora
continua, y pueden simularse, además de acercamientos o alejamientos,
movimientos de traslación, especialmente los transversales al espacio propuesto
por el sistema (de izquierda a derecha o viceversa). Son precisas dos pistas de
grabación independientes, aunque actúen en conjunto para representar el
espacio. Dos pistas monofónicas no suponen necesariamente sonido estéreo,
pero sí se puede simular un efecto estéreo a partir de dos pistas monofónicas en
postproducción.

DUAL

El sistema dual no tiene intención de reproducir un espacio sonoro. Cuenta


también con dos canales, cada uno de cuales se utiliza para reproducir una
fuente sonora distinta. Estos dos canales no son reproducidos a la vez, sino
que se selecciona uno de ellos. Es el sistema que se utiliza para, por ejemplo,
enviar la versión sonora de un diálogo en un idioma por un canal y en otro
idioma por el otro. A la hora de la reproducción seleccionamos uno de ellos, no
reproducimos los dos a la vez.
Página 8 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

5.1

En la actualidad, el sistema más extendido para la reproducción de espacios


sonoros. En este sistema se utilizan seis altavoces: uno frontal, dos frontales
laterales estéreo (derecho e izquierdo), dos traseros y un subwoofer (dedicado
a los graves, no se coloca en ningún sitio particular, su única función es
reproducir ondas de muy baja frecuencia, pero no ubicarlas en el espacio). Este
sistema se denomina “envolvente” por su capacidad de representar el sonido
casi en 360º, aproximándose a la percepción sonora real que tiene el oído
humano, capaz de detectar el origen de las fuentes sonoras en el espacio.

Página 9 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

3. TECNOLOGÍAS PARA LA TOMA DEL SONIDO: MICRÓFONOS,


CABLES Y CONECTORES DE AUDIO

MICRÓFONOS

Un micrófono es un transductor, un dispositivo que transforma la energía


mecánica de las ondas sonoras en una señal eléctrica. El proceso es el siguiente:
la fuente sonora produce una vibración que se propaga por un medio (en este
caso, el aire) y que llega hasta el transductor (micrófono). Dentro de la cápsula
del micrófono existe una membrana que al paso de la columna de aire reproduce
la misma vibración de la onda. Asociado a este diafragma se encuentra una
bobina magnética que se encarga de traducir esa vibración en una señal
eléctrica, traducida en términos de intensidad y frecuencia.

CARACTERÍSTICAS DE LOS MICRÓFONOS

SENSIBILIDAD

Capacidad de respuesta de los micrófonos para captar un sonido. Si el micrófono


es “duro” o poco sensible, captan sonidos con menor facilidad que los más
sensibles. Ambos tipos presentan sus ventajas: los micrófonos poco sensibles
necesitan estar más próximos a las fuentes, pero captan menos ruido. Cuanta
mayor sensibilidad tenga un micrófono, mayor capacidad tendrá de captar un
sonido, pero también un ruido indeseado. La sensibilidad se mide en dB y se
expresa con números negativos. Cuanto más cercana a 0 dB se encuentre la
sensibilidad, más sensible es el micrófono.

RANGO DINÁMICO

Es la diferencia entre el NPS más bajo y el más alto ante los cuales el micrófono
responde.

RESPUESTA EN FRECUENCIA

Al igual que ocurría con nuestra escucha discriminada, los micrófonos no captan
por igual todas las frecuencias. Es una cualidad relacionada con la fidelidad al
sonido original. Lo ideal es que los micrófonos tuvieran una respuesta parecida
a todas las frecuencias audibles.

DIRECCIONALIDAD

Página 10 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

Nos referimos al ángulo (o patrón polar) en el que el micrófono cuenta con una
sensibilidad más alta. Existen varios tipos:
- Omnidireccional: capta sonido con la misma sensibilidad desde todos
los ángulos (360º).
o Ventajas: Los omnidireccionales no discriminan en el espacio, por
lo que suelen ser mejores para tomar ambientes sin precisar las
fuentes y para tomas con actores en las que resulta incierto dónde
van a mirar.
o Desventajas: también capta ruido en mayor ángulo, si tiene unos
altavoces cerca puede causar retoralimentación.
- Bidireccional: capta sonido por delante y por detrás del micrófono, en
forma de ocho.
o Ventaja: es útil para grabar dos fuentes sonoras a la vez, por
ejemplo, un dueto musical en estudio.
o Desventaja: con respecto al ominidireccional, pierde ángulo y
sonidos que se encuentran a izquierda y derecha del micrófono no
serán captados.
- Cardioide: su diagrama polar tiene forma de corazón. Son sensibles
hacia delante, pero insensibles hacia atrás.
o Ventaja: con respecto a los omnidireccionales, que captan sonido
y ruido en todas direcciones, los cardioides no captan sonido hacia
atrás, muy útil en los micrófonos de mano, que si fueran
omnidireccionales registrarían el roce de la mano sujetando el
micrófono.
- Supercardiode: el ángulo de captación frontal es menor que el del
cardiode, pero capta algo de sonido hacia atrás. Esta característica hace
que, normalmente, no sean portables con la mano, sino que, a ser posible,
se coloquen en soportes en suspensión, no rígidos, para que no
transmitan fácilmente los ruidos de la manipulación. Permiten estar algo
más lejos de la fuente, si se tiene cuidado de no apuntar hacia fuentes de
ruido. También están los hipercardioides, con estas características aún
más pronunciadas.

Página 11 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

TIPO DE CÁPSULA Y ALIMENTACIÓN

Micrófono dinámico: este tipo de micrófono no necesita alimentación eléctrica,


debido a que la bobina del electroimán va solidaria a una membrana o diafragma.
Al mover el aire cercano al diafragma, este separa más o menos la bobina del
imán, produciendo la corriente que describe onda correspondiente. Esta señal
viaja por el cable del micro hacia el grabador, la mesa, la cámara, etc. Debido a
que la energía mecánica de la onda sonora tiene que vencer cierta inercia, la
señal es muy débil, por lo que siempre es necesario amplificar las señales
microfónicas. Los micrófonos dinámicos no precisan alimentación, pues
funcionan a partir de las vibraciones de la columna sonora, pero la señal será de
las más débiles (puesto que la inercia, la del peso de la bobina del electroimán
que va asociada al diafragma, es mayor). Este micrófono tiene peor repuesta en
frecuencias altas (capta peor los sonidos agudos) pero funciona muy bien en
entornos ruidosos, su baja sensibilidad hace que la fuente deba estar próxima al
micrófono. No tener que alimentar el micro da una mayor comodidad e
independencia de manejo, y es adecuado para entornos de difícil acceso por
alguna causa.

Micrófono de condensador: la cápsula de este micrófono es más pequeña que


la de los micrófonos dinámicos. Esta cápsula un condensador con una parte
móvil, que responde a los cambios de presión de las ondas sonoras, y otra parte
fija. Es más sensible, por lo que capta mejor el ruido, pero también responde
mejor ante sonidos de frecuencia alta. En este tipo de micrófono estas dos partes
Página 12 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

tienen carga, por lo que la distancia entre ambas se traduce en una señal
proporcional que pasa al cable del micrófono. Para ello, es preciso alimentar el
micrófono con red eléctrica, típicamente con una corriente continua de 48V, que
se denomina alimentación phantom si se envía ese voltaje a través del mismo
cable del micrófono.

Micrófono electret: también utiliza un condensador pero no necesita carga


extra, sino que lleva la carga de fábrica. Debido a su bajo consumo, puede durar
años en uso, aunque cuando la carga se acaba el micrófono queda inservible.
Son en general sensibles a los agudos y al resto de frecuencias como los de
condensador, pero son más baratos.

RELACIÓN SEÑAL/RUIDO

Toda grabación incluye algo de ruido, ya sea proveniente de fuentes de sonido


o del propio micrófono. La relación señal/ruido (S/R o S/N, en inglés) marca la
diferencia entre la sensibilidad de un micrófono y la intensidad del ruido que
ese micrófono está captando al mismo tiempo. Se mide en dBs y cuanto mayor
sea la cifra, mejor es la relación, ya que en la ecuación el numerador (señal)
será más grande que el denominador (ruido). Esta cualidad se detalla en todos
los elementos sonoros comercializables.

IMPEDANCIA

Todo circuito eléctrico presenta una resistencia a la corriente eléctrica, conocida


como impedancia. Se mide en ohmnios (Ω). Los de baja impedancia (500 Ω o
menos) pueden utilizar cables más largos y, normalmente, tienen menor ruido
propio. Son más caros, y son los de uso normal en sonido profesional.

Página 13 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

TRANSPORTANDO EL SONIDO: CABLES Y CONECTORES

La señal eléctrica puede ser enviada por cable o de forma


inalámbrica. Ambas opciones tienen un problema: la
transmisión puede verse afectada por interferencias de
otros tipos de ondas que se mezclan con las ondas eléctricas.

Debemos tener en cuenta que un cable puede funcionar como una


antena que capte otros tipos de onda. Por ello, los cables
profesionales deben estar apantallados (protegidos).
Una solución que los ingenieros encontraron para los cables que
transportan señal eléctrica de sonido es el sistema de audio
balanceado.

El audio balanceado se transporta a través de un cable con dos hilos


conductores. Por uno de los hilos se hace viajar la señal del
micrófono y por el otro la misma señal pero en fase invertida. Como
ambos hilos están casi pegados, si una interferencia actúa sobre la
señal que lleva uno de ellos también lo hará sobre la otra, pero los
ruidos no irán en fases distintas, sino en la misma. El sistema,
entonces, es capaz de reconocer las señales intrusas y las elimina.

Los conectores para sistemas


balanceados más extendidos para cables
de audio profesional son los XLR o Canon
y los Jack (ojo, puede haber jack no
balanceados, o dispositivos que no
incorporen el sistema, ya que no solo
depende de los cables). Los conectores
son de dos tipos habitualmente: macho y Conector Jack
hembra. En realidad los cables se suelen
denominar por sus conectores, aunque
por dentro sean iguales. En los cables
XLR la lógica suele ser que el conector
macho es el que da el sonido y el hembra
el que lo recoge. En Jack, sin embargo,
los dispositivos suelen tener hembras –
aunque de hecho den sonido, por
ejemplo, una guitarra eléctrica- y los
extremos de los cables, conectores Conector XLR
macho.
Página 14 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

4. EL PROYECTO SONORO

FASE 0: PREPARACIÓN DE LA TOMA DE SONIDO

Para llevar a cabo la toma de sonido, es tomar con antelación una serie de
decisiones que permitan que la grabación sea lo más efectiva posible.

El primer paso es diseñar nuestro proyecto sonoro en base al guion técnico de


lo que se ha de grabar. El guion es el que permitirá que decidamos qué
escenarios sonoros se han de recrear mediante el sonido y en qué plano sonoro
estará cada uno de ellos. Entendamos por plano sonoro aquel en el que se sitúa
un sonido, espacial o temporalmente, dentro de la narración.

Una vez conocdo el guion y elegidos los espacios y planos sonoros, abarcamos
una serie de consideraciones previas:

¿Hay diálogos? ¿Será necesario hacer sincronía labial?¿En qué localización


hemos de grabar (interior, exterior…)?¿Pueden aparecer los micrófonos en el
plano de la imagen?¿Qué tipo de plano se representa en la imagen (esto nos
lleva a pensar en un plano sonoro y otro)?.

Estas preguntas delimitarán cuestiones como qué tipo de micrófono he de usar


para grabar cada sonido o situación sonora, qué material fungible necesito, si he
de alquilar equipo, qué equipo humano voy a precisar o si voy a necesitar
material editable. En caso de necesitar material editable (música, sonidos
provenientes de la red o de archivo…) la obtención y edición de estos se puede
hacer en paralelo a la toma de decisiones y a la captación de sonido. La relación
de materiales necesarios hay que remitírsela al productor.

Antes de lanzarse a hacer la toma de sonido, es muy importante hacer una


prueba simulando las condiciones de la toma para evaluar si las decisiones que
hemos tomado en cuanto a herramientas de captación son o no las correctas.

FASE 1: LA TOMA DE SONIDO

Ya en la toma, debemos:

1. Aislar las fuentes en pistas diferentes.


2. Tratar de respetar al máximo el principio de fidelidad y proximidad a la
fuente.
Página 15 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

3. Saber distinguir lo que es sonido deseado y lo que es ruido. Entendemos


el ruido como los sonidos indeseados.
4. Monitorizar: a través de herramientas como el picómetro de led o el
VUmetro podemos visualizar la intensidad sonora del audio captado. Es
importante porque, si trabajamos con audio analógico, por encima de los
0dB el sonido se distorsionará, mientras que con audio digital no se
grabará. No debemos confundir este “volumen” de grabación con el de
escucha a través de unos auriculares, que se puede calibrar de manera
independiente sin afectar al sonido que se está grabando.
5. Realizar marcas de sincronización, siempre que estemos grabando
sonidos asociados a imágenes de vídeo, con el fin de poder sincronizar
con facilidad en postproducción buscando las marcas de sincronización.
La marca más usada es la claqueta, aunque sirve con una simple palmada
que además de oírse se vea en cámara.
6. Documetar la grabación a través del código de tiempos. Es también útil
para el proceso de sincronización, pero también para la búsqueda de
momentos puntuales en la grabación.
7. Tener claros cuáles son los puntos de escucha de cada sonido en
particular. Existen dos maneras de reproducir estos puntos de escucha: o
bien grabándolos ubicando el micrófono a la distancia y orientación desde
la fuente sonora a la que estaría el sujeto que escucha, o grabándolos
próximos a la fuente para captarlo con fidelidad y simular el punto de
escucha en postproducción. Para evitar que se capte demasiado ruido
provocado por la lejanía de la fuente al micrófono, se recomienda la
segunda opción.
8. Grabar siempre un wildtrack. El wildtrack es una toma de sonido que se
hace cuando termina la toma que nos interesaba, en el mismo lugar y en
las mismas condiciones, pero en silencio. Porque el silencio también
suena, y en postproducción necesitaremos un “ambiente” que llene los
momentos en los que no hay diálogos ni otros sonidos presentes en la
escena sonora.
9. Usar niveles de referencia. Las señales de referencias más usadas son
las barras (para vídeo) y el tono (para sonido). Al igual que las barras
permiten calibrar los monitores para que quienes manipulen el vídeo
tengan la certeza de estar viendo los colores iguales que el técnico de
cámara, el tono permite tener una referencia tanto para la grabación como
para la postproducción de los sonidos. Consiste en una referencia pura
continua de una frecuencia, por ejemplo, de 1 kHz a -20 dBsFS, para
nivelar después en postproducción. Es decir, si se ha tomado ese nivel de
referencia en la grabación, esa misma señal se reproduce en el resto de
dispositivos que se utilicen en la preparación y mezclas y se regula al
mismo nivel de salida. De esta forma el que escuche el sonido grabado
Página 16 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

tendrá la misma referencia que el que lo registró (en un gran número de


proyectos profesionales, los profesionales que toman el sonido no serán
los mismos que los que lo postproduzcan).
o Una señal test, entonces, es la referencia para equilibrar todos los
dispositivos capaces de manipular los niveles que integren nuestra
cadena de sonido, a fin de que tengamos una guía real de los
niveles relativos en escena.
o Un oscilador es como se conoce normalmente a un generador de
estas señales (o tonos), aunque puede estar incluido en otro
dispositivo, tal como una grabadora, una cámara o una mesa de
sonido.

FASE 2: SONORIZACIÓN. POSTPRODUCCIÓN DE AUDIO

CANAL Y PISTA

CANAL: referido a la reproducción.


PISTA: referido al lugar que ocupa un sonido en una mezcla.

Así, puede decirse algo como esto: ‘por un canal –por ejemplo, el derecho en un
sistema dual- podemos dejar la mezcla de todas las pistas de ambiente y de
todas las de músicas’.

A pesar de que haya avances de investigación en este sentido, lo que está


mezclado, es decir, distintas fuentes que suenan simultáneamente grabadas en
la misma pista, normalmente no se puede separar.

En la toma, y después en la postproducción, lo ideal es asignar a cada una de


las fuentes sonoras una pista independiente. Una buena estrategia de eficiencia,
que viene a ser equivalente, permite grabar distintas fuentes en la misma pista
siempre y cuando no suenen simultáneamente: por ejemplo, el diálogo entre dos
actores que no se pisan en ningún momento.

Hablamos de pistas monofónicas, pero un buen número de dispositivos


permiten grabar pistas estéreo. Cada pista estéreo graba en realidad dos pistas
vinculadas: L y R. La idea es utilizarlas para crear el efecto de espacialidad
sonora, no para separar fuentes.

El consejo es el mismo, por lo tanto: cada pista estéreo para una fuente, o para
varias si no son simultáneas.

Página 17 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

Para preparar la sonorización, pues, lo importante es colocar en la línea de


tiempos tantas pistas como fuentes sonoras estén disponibles para construir el
sonido.

Entradas: Tampoco se deben confundir las pistas y los canales con las entradas
en un dispositivo de grabación. Así, por ejemplo, un micro conectado a la entrada
1 de una cámara de vídeo puede grabarse, si el dispositivo así lo permite, en dos
pistas simultáneamente.

AGRUPACIONES (O GRUPOS) Y ENVÍOS

Un proyecto con diez pistas comienza a parecernos inmanejable: por ejemplo, a


la hora de escuchar cómo están quedando los diálogos entre distintos
personajes, grabados en pistas diferentes. Por eso las pistas se agrupan
según la conveniencia para monitorizar o mezclar. Por ejemplo, si hay tres
personajes, cada uno de ellos puede grabarse en una pista distinta para tratar
su voz por separado, pero después tendremos que reproducirlas juntas para
comprobar la eficacia e inteligibilidad de los diálogos. Se construye un subgrupo
y se envían los tres elementos a uno de los canales disponibles para la
reproducción. Así puede hacerse también con los ambientes, con los distintos
instrumentos de las músicas, etc.

TRATAMIENTO POR PISTAS O POR CLIPS

Los sistemas que vamos a manejar permiten manipular sonidos por clips o por
pistas. Cada clip es un corte que definimos por el interés del montaje: en el
interior de una toma, marcamos un principio y un final, no importa de qué
duración se trate.
Si se trabaja con pistas, las modificaciones se aplicarán a todos los clips que
hayamos colocado en ellas, o a los que vayamos a colocar en el futuro. Si se
trabaja con clips, tan solo se aplicarán en esos cortes.

NORMALIZACIÓN

No se debe confundir este término con ganancia, que es la diferencia entre la


amplitud (para lo que estamos trabajando nosotros, vale con decir el nivel) de
entrada de la señal original y el nivel de salida con el que incorporamos a las
mezclas esa misma señal sonora. Las operaciones que se pueden hacer,
entonces, son la ganancia y la atenuación, o realzar y atenuar.

Normalmente los sonidos procedentes de distintas operaciones de toma no


tienen los mismos niveles. Algunos estarán muy cerca del nivel de referencia,
otros mucho más lejos. Al colocar el sonido procedente de distintas tomas en el
proyecto de edición de sonido se observará esta diferencia de niveles. Es el
momento de tratar de igualarlos. Para ello los sistemas disponen de
procedimiento denominado ‘normalización’, que se aplica para intentar que los
distintos clips tengan más o menos los mismos niveles de referencia. Esto es
imposible por definición, a no ser que se trate siempre de los mismos sonidos,

Página 18 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

pues la dinámica de cada fuente sonora es distinta, pero fija unas referencias
que permiten trabajar con cierta homogeneidad, dejando la decisión de los
niveles con los que cada corte se incorporará a las mezclas para más adelante.

Al aplicar el comando normalización, el sistema de edición lleva a los clips o


pistas seleccionados a los niveles que se han prefijado. Puede trabajarse, por
ejemplo, con el nivel que viene por defecto –por ejemplo, -20dBs FS-, pero ya se
discutirá más adelante la conveniencia de aplicar uno u otro nivel.

COLOCACIÓN DE CLIPS – COLEOS Y TRANSICIONES

Después de distribuir los clips por pistas y de normalizar –no todo el mundo
trabaja con esta estrategia-, se pasa a construir las pistas con el montaje
horizontal: definir la colocación y la duración de cada uno de los clips dentro de
las pistas, a fin de que la combinación entre ellos vaya correspondiendo al orden
y a la duración narrativos según el guion.
Aquí es importante tener en cuenta que el trabajo del montaje de sonido debe
comenzar una vez se haya decidido el montaje fino de vídeo: cualquier variación
en el interior de una secuencia –y muchas veces en las transiciones entre ellas
- puede no consistir más que en estirar o acortar un poco el vídeo, pero implica
otra mezcla nueva de sonido.
Mientras que la transición –el paso efectivo de un clip a otro- en vídeo suele ser
el corte (caso especial de transición de duración igual a cero), en audio un corte
es demasiado brusco para nuestro sistema auditivo. A no ser que se persigan
efectos como el sobresalto, para simular un corte se utilizan pequeños efectos
de mezcla: encadenados, desvanecimientos e incrementos combinados, para
suavizar la sensación del cambio: el oído, para cuestiones temporales, es mucho
más sensible que el ojo. Por ello, si el sonido de referencia proviene de un
montaje previo en vídeo, se dejarán coleos al principio y al final de cada clip
sonoro para poder manejar estos encadenados.

SINCRONIZACIÓN- SONIDOS LABIALES

Entendamos la sincronización como el respeto por lo que Chion llama síncresis:


toda coincidencia de visualización de una fuente sonora con el sonido que
produce, incluyendo los sonidos labiales.
Para ello lo ideal es haber grabado marcas de sincronización tales como
claquetas al principio de cada toma, y pueden recuperarse en esta fase de la
edición de sonido para estar seguros de que no se provocan efectos indeseados.

ECUALIZACIÓN

La ecualización permite atenuar o realzar los niveles de rangos de frecuencias


concretos. La ecualización más básica se construye en función de graves,
medios o agudos, pero puede llevarse a cabo con mucha mayor precisión.
Además, la ecualización puede eliminar efectos indeseados del habla ante los
micrófonos, eliminando por ejemplo, siseos –atenuando agudos- o popeos –
atenuando graves-.

Página 19 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

TRATAMIENTO DE LA REVERBERACIÓN Y FXS

Es importante que las fuentes suenen creíbles. Para ello, casi siempre hay que
ayudar con el control de reverberación, que puede ser muy preciso hoy día.
Además, en cuanto se lleva el sonido de un corto de ficción con diálogos y
distintas tomas para los mismos planos, en seguida se comprueba que,
extrañamente para los no iniciados, no suena igual en una toma que en otra.
Para que se pueda combinar el sonido de un plano general, por ejemplo, con
otro corto del mismo personaje que haya que mostrar en continuo hay que
ayudar con el control de reverberación, además de con una mayor o menor
presencia de sonido ambiente o de fuentes sonoras presentes en escena, de
forma que en los planos generales suele compartir presencia el sonido de los
diálogos con el que simula los elementos diegéticos.
Así se construyen los llamados planos sonoros, que establecen cierta relación
de presencia del sonido, que quiere decir cercanía de la fuente con respecto al
punto de escucha –y que, al final, dota de mayor importancia a determinados
elementos-, y que se representará con un mayor o menor nivel de intensidad de
esa fuente en relación al resto de las intervinientes.
Es necesario, también, tener en cuenta el fenómeno del enmascaramiento, de
manera que hay que comprender cómo utilizarlo para darle más presencia al
sonido de los diálogos, por ejemplo.

SUBMEZCLAS

Debe plantearse una pista en la que mezclar cada grupo que se considere
necesario, por ejemplo: diálogos, narración, FX, 2 para música, wildtrack; pero
tantas como sea necesario. Esta tarea dependerá mucho del tipo o formato de
proyecto o programa, pero también de las condiciones de la exhibición. De
hecho, será muy extraño que dos proyectos compartan la misma estructura,
salvo en los casos muy pautados de formatos cerrados como noticias o
reportajes cortos.
Distintos grupos o agrupaciones de pistas llevarán distintas submezclas en
pistas únicas (o estéreo, si se trabaja con este sistema espacial), tantas como
sean necesarias, pero que desembocarán en una (s) para los diálogos, otra (s,
etc.) para la narración, otra para los efectos, otra para las músicas, etc.

COMPRESIÓN Y EXPANSIÓN

En estas mezclas finales el responsable de sonido debe asegurarse de que los


niveles van a ser inteligibles sean las que sean las condiciones de escucha. Por
ello se cuidan mucho las mezclas finales pero, además, se comprime la
dinámica a rangos que cualquier sistema de reproducción sea capaz de resolver
y, además, dentro de esa compresión se procura que el sonido esté a buen nivel
de reproducción. Es necesario, para ello, grabar también una señal de referencia
–un tono-, para que el sistema que reproduce pueda nivelar y el sonido grabado
se ofrezca en las condiciones más fieles posibles a como lo propusieron sus
autores.

Página 20 de 21
Tecnología y técnicas del audiovisual 16-17
Resumen sesiones SONIDO

La compresión es la reducción del margen dinámico de la señal de audio, sin


que sus elementos pierdan presencia relativa.

MEZCLAS DEFINITIVAS

El sonido definitivo se incorpora al máster o resultado principal, del cual se


sacarán las copias destinadas a la exhibición final. Estas deben estar adaptadas
a las condiciones de visionado y escucha, en el sentido de que, al menos,
tengan que ofrecer una distribución en canales y unos niveles adecuados de
escucha con respecto a la sala o equipos en los que vayan a reproducirse.
A su vez, las submezclas deberán mezclarse en una pista o en varias,
dependiendo de cómo vaya a llegar al público, o de cómo lo exijan las
necesidades de nuestra producción.
Por ejemplo, el estándar más extendido en cine era una pista con diálogos y
narraciones y otra con músicas, ambientes y efectos, es decir, un planteamiento
en dual. Esto era así para facilitar que la misma copia pudiera utilizarse en
distintos países, por ejemplo, con solo cambiar una de las pistas.
Si se usa algún sistema de sonido espacial, deberán hacerse tantas mezclas
como posibilidades haya de exposición. Por ejemplo, un corto con sonido en
envolvente en 5.1 deberá llevar una pista envolvente de diálogos y narraciones
y otra de ambientes, efectos y músicas; además, una estéreo de cada mezcla
distinta y una mono donde todo vaya mezclado, pues si el corto llega a un local
que no esté preparado para uno de esos estándares y solo pueda emitir en
mono, podría ser que se escucharan al mismo nivel los efectos que los diálogos,
haciendo que no se pudieran entender estos.
El proceso por el cual se elige una mezcla de un rango espacial ‘inferior’ al ideal
que han preparado los autores se denomina downmix y, en el actual estado de
las tecnologías, un buen número de dispositivos son capaces de hacerlo
automáticamente, aunque la calidad sea dudosa en ocasiones.

Texto: Ana Mejón, Anto Benítez, David Rodríguez


Modificado: 27/nov/2016

Página 21 de 21

También podría gustarte