Está en la página 1de 85

ORIGEN Y ESTRUCTURA DEL SONIDO

Cada vez que un cuerpo o materia vibra genera una modificación en el estado de las moléculas
del aire que lo rodean. No existen en la naturaleza cuerpos del todo rígidos, ni del todo
elásticos. Todo material presenta cierto grado de rigidez o por el contrario, cierto grado de
elasticidad. Al vibrar ese cuerpo y mientras vuelve a su estado original, las moléculas de aire a
su alrededor se ven modificadas, expandiéndose y comprimiéndose (agrandándose y
achicándose).

A estas modificaciones del estado de reposo de las moléculas del aire se las denomina
vibraciones y se llama sonido al efecto que produce. Más precisamente, lo que sucede en el
aire con esta modificación de las moléculas que rodean al cuerpo que vibra, es que cambia
la presión. Ese sonido que nosotros escuchamos no es otra cosa que una variación de la
presión del aire, y esta es la que da origen a las ondas sonoras.

La onda sonora es la representación gráfica de esas variaciones de presión de las moléculas


del aire.
Representación de la onda sonora

Utilizando un sistema de coordenadas, representamos las variaciones de la presión que se


produce en dicha recta con el transcurrir del tiempo. (Fig. 1.3). Si partimos de un punto de
reposo “O”, continuará un período de presión representado en el gráfico como zona positiva y
crecerá hasta llegar a un máximo; luego comenzará a decrecer, pasará por “O” y allí comenzará
un período de depresión en la zona negativa, hasta llegar a un máximo.
Allí volverá a subir pasando por “O” hasta llegar al máximo positivo y así se repetirá este ciclo
indefinidamente, mientras dure la excitación de la fuente emisora.
A esta onda se la denomina sinusoide y se la cuantifica por los siguientes parámetros:

Ciclo (c): es la variación que partiendo de “O”, transita la faz positiva, luego la faz negativa y
vuelve a “O”. Es decir, un ciclo está formado por una faz positiva y una faz negativa.

Frecuencia (F): es la cantidad de ciclos que se producen en un segundo; se mide en Hertz


(Hz) ó ciclos por segundo.
1 ciclo/segundo = 1 Hz.
La frecuencia determina si un sonido es más grave o más agudo. A mayor frecuencia estamos
hablando de un sonido más agudo, a menor frecuencia de un sonido más grave.
Longitud de onda (Y): es la distancia entre una compresión y la siguiente ó una
descompresión y la siguiente; dicho de otro modo, es la distancia del desarrollo de un ciclo; se
mide en metros. Los sonidos con mayor longitud de onda alcanzan mayor propagación. Es por
eso que los sonidos más graves tienen más alcance.

Período (T): es el tiempo que transcurre mientras se produce un ciclo completo; se mide en
segundos. Al igual que la longitud de onda, el período es inversamente proporcional a la
frecuencia ya que a mayor cantidad de ciclos por segundo, menor será el tiempo que demore
cada ciclo en producirse.

Amplitud (A): es la distancia que hay entre el pico máximo de la faz positiva hasta el máximo
de la faz negativa. Es el valor que expresa la variación de presión sonora. Se mide en decibeles
y en la práctica representa el nivel.

La amplitud es la variable vertical del gráfico de coordenadas de la onda sonora. A mayor


amplitud, significa que el cambio de presión es mayor, por ende es un sonido que suena
más fuerte en términos de volumen o nivel.

Velocidad: el sonido alcanza distintas velocidades de propagación según el medio en que se


desplace, sea líquidos, gases o sólidos. Estos son valores de referencia:

Agua: 1.435 metros por segundo

Sólidos: entre 4.000 y 6.000 metros por segundo

Aire: 334 metros por segundo


Para el caso de los sólidos, la velocidad puede variar según la elasticidad del material. En el
caso del aire, la influencia del viento que arrastra las masas de aire, puede variar la velocidad;
asimismo, un aumento en la temperatura del aire, hará crecer la velocidad del sonido.
También influyen la presión y la humedad atmosférica.

Vale aclarar que el sonido se propaga a través de ondas esféricas. Es decir, que desde el punto
en donde comienza a emitirse ese sonido, se propagará a la misma velocidad en todas las
direcciones. Se llaman ondas esféricas porque sus frentes de onda son esferas concéntricas.

VIDEOS RELACIONADOS

Ondas sonoras - https://youtu.be/BxmZtOi1MJg

Ondas sonoras - Período y frecuencia https://youtu.be/AAQpP2fpEPo

Longitud de onda - https://youtu.be/tSeuaueGCGg


Potencia e Intensidad

Es la cantidad de energía que transporta la onda sonora y se mide en Watts. La proporción de


potencia que se transfiere por unidad de superficie (1 cm2) se denomina Intensidad.

La unidad de medida es Watts/ cm2.

A medida que un sonido se propaga la intensidad decrece con el cuadrado de la distancia.

En este gráfico podemos observar cómo se reduce la energía cuatro veces al duplicarse la
distancia recorrida por la onda esférica durante la propagación de un sonido. Por eso
decimos que la intensidad tiene que ver con la pérdida de energía (watts) por unidad de
superficie.
TIPOS DE ONDAS

Existen dos tipos de ondas, las puras y las complejas.

Ondas puras

Las ondas puras son aquellas que están compuestas por una sola frecuencia. No existen en la
naturaleza, solamente pueden ser generadas por instrumentos como un diapasón ó un
oscilador de audiofrecuencias.

Ondas complejas

Son aquellas que están formadas por dos o más frecuencias. De este grupo de frecuencias
que conforman las ondas complejas existen: por un lado, la onda fundamental, y por otro, los
que se denominan armónicos o sobretonos.

La conjunción de la onda fundamental y sus armónicos da como resultante una onda


totalmente irregular.
(Fig. 3.1)
Onda fundamental

También llamada “primer armónico”, es la frecuencia que nos permite definir el tono de una
nota ó un sonido. En la mayor parte de los casos suele ser la frecuencia más grave.

La onda fundamental siempre tiene mayor nivel que los armónicos que conforman la onda
compleja.

Armónicos

En la mayoría de los casos son múltiplos exactos de la onda fundamental; en este caso esos
sobretonos se denominan armónicos. Los armónicos definen el timbre de un sonido.
Tono

Se define como tono a la cualidad subjetiva de una nota, que hace posible poder situarla en
la escala musical. Es decir, el tono representa la nota musical.

Está relacionada con la frecuencia que se emite. Determinada frecuencia va a ser determinada
nota en determinada octava dentro de la escala musical. Si varía la nota, varía el tono o dicho a
la inversa, si varía la frecuencia, se está emitiendo otro tono.
En las ondas complejas, el tono va a estar determinado por la onda fundamental.

Timbre

Es lo que caracteriza a un sonido. La cualidad que hace que un sonido suene como tal. El
hecho que reconozcamos un piano al sonar o cualquier otro instrumento, o incluso la voz de
una persona determinada, es porque tiene su timbre particular.

El hecho de que los armónicos que componen una onda compleja tengan más presencia que
otros, es lo que va a determinar que ese sonido tenga determinado timbre. También se lo
suele llamar Color o calidad tonal.

Por ejemplo, si dos instrumentos tocan la misma nota en la misma octava significa que están
emitiendo la misma onda fundamental, pero cada uno tiene su timbre, y esto significa que los
armónicos de esos instrumentos son distintos, tienen distintos niveles.

Efecto Doppler

Si bien dijimos que cuando varía la frecuencia, varía el tono que se emite, existe en la
naturaleza este efecto llamado Efecto Doppler.

Este efecto consiste en el aparente cambio de tono por la variación de la distancia. Esto
significa, que si varía la distancia entre la fuente emisora de sonido y el receptor a gran
velocidad, el receptor va a escuchar un cambio de tono si bien la frecuencia emitida por la
fuente emisora de sonido es siempre la misma. Es el caso de los autos de fórmula uno o las
ambulancias, por dar un ejemplo. Al acercarse al receptor el sonido se va a escuchar más
agudo, a medida que se aleje el mismo se irá escuchando más grave.
VIDEOS RELACIONADOS

¿Qué es el timbre?
https://youtu.be/Eux-22A6dgM

Timbre y ondas complejas


https://youtu.be/ZmzIpJZ83es

Timbre
https://youtu.be/x26o0t4hCXs

Efecto Doppler
https://youtu.be/GH_tVWk-xKc
NIVEL DE POTENCIA

En el año 1877, se fundó la Bell Telephone Company, y en los ensayos previos a la invención
del teléfono, sus ingenieros, se encontraron frente a un problema. Cuando intentaban
transmitir señales telefónicas entre una terminal y otra, descubrieron que la señal llegaba a
esta segunda terminal con menos energía o potencia. Por lo tanto, fue necesario establecer
una unidad de medida que permitiera expresar con certeza ese debilitamiento de la señal, esa
reducción de potencia; teniendo en cuenta una potencia de entrada y otra potencia de salida.

Así fue que detectaron que en una distancia de 10 millas la atenuación era igual a 1/10. Y a
partir de esta medición, se estableció una unidad que fue llamada “Bell”. Ahora, dentro
de una cadena de audio, también habrá cambios en las potencias, solo que serán relaciones de
índole más pequeñas que las de la transmisión telefónica (es decir, con distancias muchísimo
más cortas que las 10 millas). Por eso se estableció una nueva unidad llama Decibel (que
equivale a la décima parte de 1 Bell). Por lo tanto el Decibel (Db) establece una relación entre
dos potencias (potencia de entrada y potencia de salida).

Si la Potencia de entrada es igual a la Potencia de salida, hablaremos de 0 Db. Si la Potencia de


entrada es menor a la Potencia de salida, hablaremos de Db positivos. Y si la Potencia de
entrada es mayor a la Potencia de salida, hablaremos de Db negativos.

En definitiva, el Db es una unidad logarítmica que compara dos magnitudes de un mismo


fenómeno. Se pueden comparar voltajes, potencias, presiones sonoras, etc. Los logaritmos, y
por lo tanto, los decibeles, facilitan la comparación de dos números.

Db= 10 log P1 (si se comparan 2 potencias) P2

Db= 20 log V1 (si se comparan 2 voltajes)


V2

Db= 20 log I1 (si se comparan 2 intensidades) I2


A veces es necesario establecer a qué unidades se está midiendo el decibel. Por ejemplo:

DbSpl: Hace referencia al nivel te presión sonora

DbW: Hace referencia a los watts.

Dbu: Hace referencia a los volts

DbFs: Hace referencia a la escala completa, en los sistemas digitales, en la que el 0 dbfs es el
máximo valor admisible

INSTRUMENTOS DE MEDICIÓN

Existen varios tipos de instrumentos de medición. Y van a depender del equipo con el que
trabajemos. Estos son fundamentales a la hora de grabar los sonidos, para chequear los
niveles de grabación regulados a través de los potenciómetros. Vale aclarar que más allá de los
gustos personales, hay que respetar ciertos parámetros técnicos internacionales tanto a la
hora de registrar audios como a la hora de la mezcla para la posterior distribución y
reproducción.

Los diferentes tipos de instrumentos de medición constan de tres diferencias:

-La escala que manejan


-La información que entregan
-La rapidez de respuesta

A lo largo la “manipulación” de los sonidos, podemos llegar a usar diversos equipos que
tengan diferentes instrumentos de medición. Al manejar diferentes escalas fue necesario,
establecer un común denominador entre los diferentes instrumentos. Ese común
denominador es lo que llamamos Señal de Referencia.
Señal de referencia

Es una señal que se graba al principio de las grabaciones de audio, durante 10/15 segundos. Y
sirve para poder reproducir los sonidos al mismo nivel que se grabaron. Hoy en día con la
tecnología digital no es necesario hacerlo y en muy escasos casos la solicitan.

Básicamente esta señal coincide, por convención, con determinados valores eléctricos. Estos
valores eléctricos van a coincidir con diferentes valores en Db según el instrumento de
medición que usemos (ya que manejan diferentes escalas).

Decibelímetro

Es el primer instrumento de medición que surgió, y es en el que se basaron los siguientes.


Básícamente a un voltímetro se le adaptó una escala en decibeles. Y de esa forma permite
medir energía eléctrica pero expresada en Db.

El problema de este instrumento es que la aguja cada vez que se mueve, se mueve de una
manera muy lenta. Por lo tanto para hacer mediciones de voz o música no sirven porque
entregarían valores falsos. Sirven para hacer mediciones de sonidos constantes y parejos. Por
eso, no encontraremos este instrumento ni en grabadores ni en otros equipos. Su uso es muy
útil para medir el ruido que sale de los caños de escape de los autos y así medir la
contaminación auditiva de una ciudad; o el ruido que generan los extractores de las cocinas de
los restaurantes, o la música en los boliches, para estar dentro de las reglamentaciones
municipales; o nosotros en cine, a la hora de la mezcla de una película para calcular la
sonoridad que posteriormente va a escuchar el espectador en la sala de cine. Pero en este caso
manejan otra escala, con valores de Db positivos. Los hay con aguja o digitales. Traen un
micrófono incorporado.
VU-Metro

Este instrumento ya responde de una manera más rápida. La aguja cada vez que se mueve me
informa acerca de un promedio de volumen que va sonando. Es un medidor de Unidad de
volumen (VU= Volume Unit). Donde se establece que 1 Db equivale a 1VU.

Lo podemos reconocer porque vamos a poder leer el VU en algún lado de la escala. Si


observamos la foto, debajo de los valores en Db, vamos a poder ver unos números que van del
0 al 100. El 0 está en el mínimos y el 100 debajo del 0 Db. Esta es una escala en porcentaje.
Esto significa que un sonido una vez que supera ese 100 % , se empieza a distorsionar y a
saturar.

Por lo tanto, la parte útil de la escala se encuentra en la parte de los Db negativos, que ocupan
prácticamente la mitad de la escala. Por lo tanto no suele ser el instrumento más cómodo. Lo
encontramos en muchas consolas. Podemos encontrarlos con aguja o con leds que se van
prendiendo y apagando.
Modulómetro

En este caso, la parte útil de la escala también se encuentra en la parte negativa, pero ya ocupa
más lugar que en el caso de VU-metro.

En este instrumento la aguja cada vez que se mueve, nos informa acerca los picos de tensión;
es decir, acerca de las máximas amplitudes que va recibiendo. La voz humana es muy
cambiante, naturalmente de acuerdo a las letras que vamos pronunciando, las amplitudes van
cambiando constantemente. Por lo tanto, la aguja se mueve de una manera muy veloz. Es ideal
para el registro de voces. Podemos encontrarlos con aguja o con leds que se van prendiendo y
apagando.

Medidores de LEDs o digitales

Estos son los más usados en la actualidad. Aunque vale aclarar que no todos los medidores de
leds son los ideales. Por ejemplo, algunas cámaras traen estos medidores pero sin escala en
decibeles, marcando sólo los picos de saturación. Más allá de saber si un sonido está saturado
o no, es fundamental conocer los valores en los que se está trabajando.

A nosotros los instrumentos que nos van a ser más útiles son los medidores de FULL SCALE
(de escala completa en Db, es decir, DBFS). Según el instrumento y marca pueden entregar
distinta información, algunos nos informas sobre los picos, otros el promedio y otras
características más; o incluso todas las informaciones juntas. Suelen ser extremadamente
rápidos.
Algunos pueden medir:

-Promedio de los volúmenes, LUFS (Unidad de sonoridad con Full Scale)

-Sonoridad a corto plazo (informa sobre los pasajes de audio más ruidosos, cada 3
segundos).

-Sonoridad momentánea (informa el valor máximo de todos los valores de sonoridad


momentánea).

-El rango de sonoridad (la relación entre las señales más ruidosas y más débiles).
Esto lo hace en LU (Loudness Units)

-Picos (True Peak).

Los grabadores suelen tener los más simples.

Y en postproducción podemos encontrar instrumentos más precisos. Pudiendo elegir en


algunos casos qué información se desea ver.
Incluso hay algunos instrumentos que más allá de los leds podemos ver los valores con
exactitud en un display.
OÍDO

Para que haya un acto sonoro tiene que haber un receptor: un oído para percibir esas ondas
sonoras. De no haberlo, este acto se reduce simplemente a un conjunto de ondas de presión
atmosférica viajando por el espacio. Ese receptor, sea un ser humano o un micrófono,
percibirá las ondas sonoras de una manera particular, no necesariamente igual a la de otro
ser; y son varios los factores que intervienen.

Nuestra relación con el sonido suele ser imprecisa. Sin embargo, no hay que olvidar que el
oído es un sentido que nos acompaña absolutamente todo el tiempo. De alguna manera, es el
sentido más difícil de “apagar”. Podemos respirar por la boca y evitar usar el olfato, podemos
taparnos los ojos, o simplemente pestañear (de hecho estamos obligados a ello), podemos
evitar tanto saborear como tocar cualquier cosa. Pero el acto de escucha es tan constante e
inconsciente que casi ni lo procesamos, sólo dejamos entrar todo tipo de estímulos a nuestro
oído. Se suele decir que es el primer sentido que desarrolla el ser humano.

El sonido no es tan sólo un fenómeno mecánico y físico de propagación de ondas, sino


también un evento sensorial y perceptivo. Cuando una persona escucha algo, ese algo llega
como una onda sonora que viaja por el aire, pero dentro del oído se transforma en un
potencial de acción neurológico.

¿Cómo funciona?

El oído comienza en el pabellón auricular y llega hasta la cóclea. Su misión es convertir las
vibraciones mecánicas en impulsos nerviosos para que sean procesados en el cerebro. Es muy
pequeño y delicado y se halla protegido en el interior del hueso temporal. Se lo divide en tres
partes: oído externo, oído medio y oído interno. Los canales semicirculares, que comparten
algunas estructuras anatómicas con el oído interno, pertenecen en realidad al sentido del
equilibrio.
Oído Externo

El oído externo acopla al tímpano con el campo acústico externo. Además de protegerlo ante
posibles agresiones mecánicas, filtra y modifica las señales que le llegan del exterior, y
contribuye decisivamente en la tarea de localización espacial de fuentes acústicas.

El pabellón auricular (la oreja) es una estructura cartilaginosa que actúa como filtro
direccional de las señales que llegan del exterior.

El canal auditivo externo es una estructura tubular irregular de aproximadamente 26mm de


largo por 7mm de ancho que conecta el pabellón con el tímpano. Su pared está conformada
por una porción cartilaginosa y una ósea. La parte cartilaginosa está cubierta por folículos
pilosos, glándulas ceruminosas y sebáceas.
Oído medio

El oído medio permite acoplar las señales acústicas entre el canal auditivo y el oído interno.
Ocupa una cavidad llamada caja timpánica, y está constituida por el tímpano, la cadena de
huesecillos (martillo, yunque y estribo) con sus ligamentos y músculos de control, la trompa
de Eustaquio, las ventanas oval y redonda. Su principal función es que las vibraciones
acústicas lleguen a la cóclea con suficiente energía. El oído medio funciona como un sistema
de acople que adapta ambos medios. Técnicamente es un adaptador de impedancias. Si el
sonido llegara directamente a la ventana oval, casi toda la energía se reflejaría, por la gran
diferencia de impedancia existente entre los dos medios de propagación. La impedancia es
una magnitud que permite evaluar la resistencia al movimiento de un sistema. En nuestro
caso se verifica que la impedancia acústica en el tímpano es mucho menor que en el oído
interno. Se considera que en el oído medio se pierde el 50% de la energía de la señal sonora.
Al menos la mitad de la potencia recibida por el tímpano no llega al oído interno.

El tímpano es una membrana semitransparente con forma cónica, con una superficie
promedio de 0,6 cm2. El tímpano vibra como una compleja membrana clásica, no homogénea.
El martillo se inserta entre las láminas de la membrana timpánica y, conectados por
ligamentos, llegan hasta la ventana oval, donde se conectan con la cóclea.

Oído interno

El oído interno es parte de una cavidad irregular del hueso temporal que recibe el nombre de
laberinto óseo y comprende el vestíbulo, el caracol y los canales semicirculares. Sus paredes
están formadas por hueso recubierto de epitelio y contiene un líquido acuoso. El laberinto
está inervado por el nervio auditivo, que en su interior se divide en dos ramas: el nervio
coclear, que es el vinculado con la audición, y el nervio vestibular, que pertenece al sentido del
equilibrio. La membrana basilar, en la que se ubica el órgano de Corti, posee unas 25.000
células ciliadas externas en cada oído.

La teoría del lugar postula que en cada punto de la membrana basilar vibra una frecuencia
particular, las más agudas en la zona cercana a la base de la cóclea y las más graves en la
región próxima al apex, es una especie de mapeo frecuencia-espacio.

Cuando se aplica un impulso al estribo aparece una perturbación cerca de la ventana oval que
se propaga a lo largo de toda la membrana basilar. Cada punto de la membrana se comporta
como un filtro de banda pasante cuya frecuencia central corresponde a la frecuencia
resonante característica en ese punto.

Este video explica el viaje completo del sonido por el oído.


Umbrales del oído

Los oídos no son todos iguales. Ni siquiera los oídos humanos son iguales, pero hay algunas
convenciones establecidas que tienen que ver con la manera en que se produce el acto
auditivo en la mayoría de las personas.

No todas las ondas de presión atmosférica que nos rodean son interpretadas por el oído. En
primer lugar, el espectro de audiofrecuencias limita los sonidos audibles a lo que ocurra entre
20 Hz y 20.000 Hz. Las ondas de mayor o menor frecuencia no son interpretadas ni percibidos
de ninguna manera por el oído humano, aunque un oído animal o un micrófono especial
puedan captarlos.

Hay otro tipo de límites que tienen que ver con la cantidad de energía que tiene la onda
sonora en cuestión. Para que haya un acto auditivo, el sonido tiene que estar dentro de dos
umbrales: El umbral de la audición y el umbral del dolor.

El umbral de la audición está definido por la mínima intensidad o presión necesarias para que
un sonido pueda ser percibido.

El umbral de audición, para la media de los humanos, se fija en 20 µPa (20 micropascales =
0,00002 pascales), para frecuencias entre 2 kHz y 4 kHz. Para sonidos que se encuentren en
frecuencias más altas o más bajas se requiere mayor presión para excitar el oído. Esto
quiere decir que la respuesta del oído para diferentes frecuencias es desigual.
El límite superior de frecuencias es dependiente de la edad. Con el paso del tiempo se
deterioran las células capilares del órgano de Corti, lo que tiene como consecuencia que
cada vez percibamos menos las frecuencias agudas. Una frecuencia de 125 Hz a un nivel de 15
dB (tono puro) seria casi inaudible para el oído humano. Variando la frecuencia en torno a los
500 Hz, manteniendo la presión de 15 dB, se podría escuchar perfectamente el sonido

En el caso del umbral del dolor, depende menos de la frecuencia que tenga el sonido en
cuestión: cuando la intensidad sonora ronda los 120 db, la sensación auditiva empieza a ser
reemplazada por una sensación física dolorosa, debido a que la vibración del tímpano es
anormal y demasiado poderosa. Estos sonidos pueden provocar daños irreparables, ya que
nuestros oídos son órganos muy delicados.

Enmascaramiento

Hablamos de enmascaramiento cuando un sonido impide la percepción de otro sonido. Se


produce una modificación (desplazamiento) del umbral de audibilidad en el sujeto.

Experimentamos el enmascaramiento cotidianamente: se produce, por ejemplo, cuando dos


personas están conversando y el sonido del tráfico impide que una escuche total o
parcialmente lo que la otra está diciendo. Existe también un enmascaramiento parcial, en el
cual el nivel de percepción del sonido de prueba disminuye, pero no desaparece. El oído toma
una descomposición espectral del sonido como parte del proceso de convertir el sonido en un
estímulo neurológico, por lo cual ciertos efectos son inaudibles. Otro efecto psicoacústico
evidente se da cuando una persona escucha música en discos de vinilo, escuchando el ruido de
la aguja y el soplido, pero olvidándolo cuando la música comienza. La persona puede llegar a
olvidar que el sonido existió. Este efecto se llama enmascaramiento psicoacústico.

Cuando trabajamos en el sonido de una película es muy habitual que hagamos esfuerzos por
evitar enmascaramientos. El mezclador de sonido recibe una edición de sonido que puede
contener muchos elementos que funcionan bien por sí mismos: música, ambientes y efectos,
diálogos, foley. Pero al escuchar todo al mismo tiempo es común que dos sonidos se
enmascaren, sobre todo si ocupan un mismo rango de frecuencias. Es tarea del mezclador
intentar separarlos, o elegir y privilegiar el que queremos escuchar. Las frecuencias que
componen los sonidos son clave, porque cuando los sonidos que escuchamos en simultáneo
comparten frecuencias son especialmente propensos a generar enmascaramientos.
En la actualidad, este fenómeno es aprovechado de maneras muy curiosas. Existen empresas
dedicadas al enmascaramiento para mejorar la privacidad en espacios comunes, como
oficinas. Se instalan entre los escritorios parlantes que emiten sonido ambiente de oficina, que
sirve para enmascarar las conversaciones vecinas, evitando que estos sonidos ajenos invadan
los espacios donde no deberían escucharse.

También es un fenómeno que se aprovecha para la compresión de datos de audio: una canción
en formato MP3 puede tener un peso de una décima parte del archivo de la misma canción en
calidad de CD de audio. Sin embargo, la diferencia para un oyente común no es tan
significativa. La razón es que el formato MP3 no comprime toda la señal por igual, sino que
tiene incorporado una serie de leyes psicoacústicas que hacen que se compriman las
frecuencias que menos escuchamos. Es decir, cuando escuchamos un platillo (sonido
compuesto mayoritariamente por frecuencias agudas), se baja la calidad de los graves,
sabiendo que el espectador no puede prestar atención a esa parte del espectro. Y así
sucesivamente, logra bajar el peso de los archivos sin alterar significativamente la calidad
sonora.

Direccionalidad

A pesar de que las ondas sonoras se propagan en todas las direcciones, los sonidos provienen
de una fuente en específico; y los seres humanos, como la mayoría de los mamíferos, tenemos
la capacidad para localizarlos. Existen dos tipos de sensaciones, la direccionalidad y la
especialidad. La direccionalidad se refiere a la localización subjetiva de la dirección de
procedencia de un sonido. La especialidad, en cambio, permite obtener información auditiva
del ambiente en el que se propaga el sonido.

La direccionalidad está vinculada con tres fenómenos: el primero es la pequeña diferencia de


tiempo entre la llegada del sonido a un oído y al otro, debido a que el recorrido de la onda
sonora desde la fuente hasta cada oído es diferente. Esta diferencia varía entre 0 y 690 ms. Se
la denomina Diferencia Interaural de Tiempo (ITD). Pierde efectividad en la direccionalidad
de las frecuencias agudas.

El segundo fenómeno es la diferencia de presiones sonoras, causada por la diferencia entre


las distancias y además porque además la cabeza actúa como barrera, generando sombra
acústica. A causa del fenómeno de difracción, la cabeza no va a generar una sombra acústica
nítida por debajo de los 1700 Hz, y va a resultar prácticamente transparente para una señal de
500 Hz. Se lo denomina Diferencia de Intensidad Interaural (IID)
El tercer fenómeno tiene que ver con las alteraciones producidas en el espectro del sonido
por la propia cabeza. Las frecuencias graves tienen mayor longitud de onda, por lo cual la
cabeza no resultará un obstáculo difícil. Pero los sonidos agudos, de longitud menor, serán
afectadas en menor medida al encontrarse con ella en su camino.

Como la diferencia interaural de tiempo depende de la diferencia de recorrido de las ondas


entre ambos oídos, la línea que va de un tímpano al otro define un eje de simetría axial
alrededor del cual se encuentran lugares geométricos con el mismo ITD. Las ambigüedades
relacionadas con este cono de confusión, pueden ser resueltas moviendo la cabeza. Si el
movimiento de la cabeza no es acompañado por un cambio en la imagen perceptual, la fuente
de sonido se localiza directamente arriba o abajo del oyente. La visión y el sentido del
equilibrio juegan un papel importante en este proceso, pues ayudan a definir la posición de
la cabeza en el espacio.
CADENA DE AUDIO

Llamaremos cadena de audio a la interconexión entre dos o más dispositivos, tales como
micrófonos, amplificadores, ecualizadores, parlantes, etc. Siempre estaremos conectando un
equipo a otro ya sea para modificarlo, grabarlo o reproducirlo. Por lo tanto, cada equipo
funcionaría como un eslabón de una cadena.

Esta cadena puede establecer una cadena simple o más compleja según lo que necesitemos.
Comenzaremos por una cadena simple, por ejemplo conectando un micrófono a un parlante
para que llegue a un oído receptor.

A lo largo de la cadena de audio, estaremos transformando energía de un tipo, en otro tipo de


energía. Y justamente de esa forma trabajan los micrófonos, estos transforman la energía
sonora en energía eléctrica. Los micrófonos reciben las variaciones de presión sonora, a
través de una membrana. Esta membrana, se encuentra al frente del micrófono y va a ser la
encargada de recibir estas vibraciones, (vibra como vibra nuestro tímpano) y le va a
transmitir estas vibraciones a la parte interna del micrófono, donde se van a transformar
estas variaciones de presión sonora en variaciones similares pero de voltaje. Si nosotros
conectamos este micrófono a un parlante, este va a trabajar de manera inversa. Va a recibir
estas variaciones de voltaje que van a provocar una vibración en la membrana del
parlante, y como ya vimos previamente, toda vibración provoca ondas sonoras. Por lo tanto,
los parlantes van a transformar la energía eléctrica en energía sonora.

Desde que el momento en que el micrófono transforma la energía sonora en eléctrica, ya no


hablaremos de energía, sino que hablaremos de señal de audio. De aquí en más,
hablaremos de cómo manipular esta señal, ya sea para modificarla, reproducirla o
grabarla.

Volviendo al ejemplo de la conexión del micrófono al parlante, para hacerlo, hay que tener
ciertos recaudos. Las variaciones de voltaje que salen del micrófono, tienen una magnitud
eléctrica muy pequeña; por lo tanto, necesitaremos agrandar la magnitud de esa señal para
que estas variaciones logren excitar a la membrana del parlante. Por eso siempre que
conectemos un micrófono a un parlante, tenemos que conectarlo a un amplificador
previamente. ¿Qué es un amplificador? Es un equipo que agranda la
señal tanto en potencia1 (watts) como en tensión2 (volt). Es decir, que agranda la energía que
recibe.

1
Potencia: Es la cantidad de energía producida y consumida por unidad de tiempo y se mide en watts
2
Tensión: También llamada voltaje es una magnitud física que cuantifica la diferencia del potencial eléctrico
entre dos puntos y se mide en Volt
En este caso entonces, la cadena de audio quedaría formada conectando el micrófono a un
amplificador y del amplificador al parlante.

O en su defecto, habría que conectar el micrófono a un parlante potenciado (que ya


trae un amplificador incorporado)
Otros ejemplos de las cadenas de audio posibles son:

- Conectar un micrófono a un grabador.

- Conectar un micrófono a un mixer y del mixer al grabador.

- Conectar un micrófono a una consola y de la consola al grabador


- Conectar un micrófono a una consola, de la consola un amplificador y parlante y a su
vez de la consola a un grabador (por ejemplo para grabar un recital en vivo al mismo
tiempo que se emite ese sonido para el público)

Y muchos ejemplos más sumando equipos que aún no hemos nombrado.

Como todos estos equipos trabajan con energía eléctrica, hay que tener en cuenta las
magnitudes de estas señales para tener una correcta y óptima conexión. La mayoría de estos
equipos previamente nombrados constan con dos tipos de entradas (IN): MIC o LINE.

La diferencia entre ambas es que la entrada MIC tiene lo que se llama un preamplificador. El
preamplificador es un amplificador antes del amplificador. O sea, que va a servir para
agrandar la señal. Como dijimos previamente, la tensión que sale del micrófono es muy baja y
necesita de un preamplificador. La entrada LINE admite señales más elevadas. De esa manera
la señal eléctrica del micrófono queda equiparada a la Línea gracias a preamplificador. Por
eso, conectaremos los micrófonos a la entrada que diga MIC y todo lo que no sea un micrófono
lo conectaremos a la entrada LINE.

Vale aclarar que en algunos equipos encontramos una sola entrada con un interruptor con dos
posiciones (mic y line). Si el equipo es digital probablemente haya que entrar a una opción del
Menú para poder modificarlo. O en algunos otros equipos tienen ambas entradas
diferenciadas con distintos tipos de conectores. Para MIC tiene la entrada con la ficha XLR
(canon) y para todo lo que es LINE, se usa la entrada con ficha PLUG.
Ficha XLR

Ficha TRS 1/4

Entradas de Mic y línea


Mixers y consolas

Son dispositivos que sirven para conectar diversos elementos tales como micrófonos,
sintetizadores, reproductores de música, equipos a través de la entrada de línea, etc.

En líneas generales, el mixer es muy usado en la industria cinematográfica para los rodajes,
debido a su practicidad, su poco peso y su tamaño reducido. En los mixers podremos conectar
varios micrófonos (según el modelo va a variar ese número), para poder controlar los niveles
de cada micrófono de manera independiente. Son muy útiles cuando tenemos más micrófonos
que cantidad de entradas en el soporte de grabación (grabador o cámara).
En cambio, las consolas son mesas de trabajo más completas. Suelen ser más grandes, más
pesadas y robustas siendo más incómodas para usarse en los rodajes. Si bien hay consolas de
4 canales, que podrían usarse de manera portátil, también las hay de 48 o 56 canales, siendo
más comunes estas con fines musicales o en estudios de sonido.

La finalidad es mezclar o combinar las señales provenientes de los canales de entrada y crear
una nueva señal, con todos esos canales juntos. Cada señal proveniente de cada micrófono o
equipo, una vez que entran a la consola, pueden ser procesadas y tratadas de diversos modos.
Se pueden modificar los niveles, la ecualización, los paneos, etc.

Consola de 8 canales
VOZ HUMANA

Como bien dijimos antes, la mayoría de los sonidos están formados por una sumatoria de
ondas puras. Y es gracias a eso que, en el caso de los instrumentos musicales, cada
instrumento tiene su propio timbre.

En el caso de los instrumentos musicales, podemos distinguir un piano de una guitarra, pero
básicamente todos los pianos suenan iguales (teniendo en cuenta mínimas diferencias que
pueda haber según si el piano es de cola o de pared). Pero si queremos analizar la voz
humana, la voz resulta ser un instrumento mucho más complejo que los mencionados antes.
Podemos distinguir una voz de una trompeta, pero a su vez podemos distinguir y reconocer la
voz de una persona respecto de otra. Y esto es porque cada voz tiene su propio y particular
timbre. Cada voz es única e irrepetible. Es como la huella digital.

Como todo el mundo sabe, los humanos hablamos gracias a las cuerdas vocales, pero no son
las únicas responsables que nos permiten hablar. Hablamos gracias a la vibración de las
cuerdas vocales, pero también, gracias al aire que sale de nuestros pulmones. Cuando vibran
las cuerdas vocales, esa vibración resuena en una gran caja de resonancia que está formada
por nuestra cabeza y pecho.

Esta caja de resonancia, está formada por cinco principales cavidades, por donde circula el
aire: pulmones, laringe, boca, nariz y sinusis (o senos paranasales). Las cuerdas vocales son
bastante similares de una persona a otra. Entonces, ¿por qué es tan diferente una voz a otra?
Porque justamente los sobretonos que definen nuestro timbre se van a encontrar en estas 5
cavidades. Cada ser humano se diferencia en las dimensiones y capacidades de esas cavidades
y es por eso que cada voz es única y funcionaría como un único instrumento. Una alteración o
cambio en las dimensiones de las cavidades, alteran nuestro timbre.
La cavidad más flexible de todas es la boca, que gracias a las mandíbulas y la lengua es la que
nos permite comunicarnos. Las cuerdas vocales nos permiten emitir un sonido, pero la boca
es la que nos permite hablar y comunicarnos. Las cuerdas vocales dan volumen y presencia a
la voz, y son las que nos permiten entonar. Y gracias a la circulación del aire, se activan
diferentes resonadores que hacen que nuestra voz abarque un gran rango de frecuencias.
Naturalmente cuando pronunciamos la letra “s”es más aguda que la letra “d”, por ejemplo.
Entonces, cuando emitimos voz, es una sumatoria de ondas puras. Pero cuando hablamos, a su
vez, van cambiando las frecuencias de resonancia.

La colocación del aire en la boca, controlando la mandíbula y la lengua, influye muchísmo en


cómo suena la voz, cosa que se estudia mucho en técnicas de canto. Por ejemplo, a la hora de
cantar, de acuerdo a la colocación de las mandíbulas, lengua, paladar y laringe, la voz sale con
más armónicos.

Justamente la cavidad de la boca, influye mucho también en los idiomas. Por ejmplo, en el
idioma inglés la colocación del aire es arriba y atrás en el paladar; en el español, en cambio, se
coloca arriba, cerca de la nariz, y eso hace que la voz salga más nasal. Por eso suena tan
diferente un idioma a otro. Esto es algo que hay que tener en cuenta a la hora de hacer una
película o un trabajo de ficción. Si queremos recrear una situación con un murmullo de fondo,
aunque no se llegue a distinguir ninguna palabra suelta, sí podemos detectar el idioma.
Si bien cada voz es única y particular, podemos generalizar diciendo que el tono que usa el
hombre es más grave que el tono de la mujer. Si quisiéramos poner valores, podríamos decir
que el tono medio de la voz del hombre es de 130 Hz y el tono medio de la voz de la mujer es
de 250 Hz aproximadamente. Este es el tono que usamos al hablar, pero puede variar cuando
cantamos, haciendo coincidir nuestros tonos con notas; o de manera cotidiana podemos
variar ese tono de acuerdo a las diferentes entonaciones en nuestra habla (interrogación,
exclamación, asombro, etc.). Pero por lo que ya dijimos antes, por la formación de las distintas
letras de nuestra habla, la voz abarca un gran número de frecuencias. Podemos generalizar
diciendo que el rango de la voz del hombre puede ir de 100 Hz a 8 KHz; y en el caso de la
mujer, el rango de la voz de la mujer es de 200 Hz a 10 KHz. Vale aclarar, que puede haber
personas con otro rango de voz, pero siempre van a ser con valores cercanos a esos números.

Es justamente por eso, que en un rodaje, por ejemplo, hay que controlar la acústica de los
espacios y los “fondos”que pueda haber en las locaciones. Al ser todos sonidos que generan
ondas complejas, si yo quisiera eliminar un sonido de fondo, tendría que tocar frecuencias
coincidentes con la voz. Por lo tanto, es muy difícil eliminar sonidos de fondo, porque de
querer hacerlo, también vamos a estar eliminando a la voz del personaje.
ACÚSTICA

Como hemos mencionado previamente, el sonido necesita un medio elástico para poder
propagarse. Cuando este medio existe (el aire es el ejemplo más habitual), las ondas sonoras
se dispersan en forma de ondas esféricas: al mismo tiempo en todas direcciones, en forma
concéntrica.

Sin embargo, esta propagación no es tan simple, ya que el sonido tiene distintos
comportamientos al encontrarse con objetos. Paredes, personas, objetos de distintos
materiales: todo lo que hay en un espacio modifica y condiciona la manera en que escuchamos
los sonidos.

La acústica estudia el comportamiento de las ondas sonoras en distintos entornos. Es una


ciencia muy compleja de la que se ocupan ingenieros altamente especializados. Sin embargo,
nos afecta a todos a la hora de grabar sonido en un rodaje, o incluso en la reproducción de
obras cinematográficas. Es un factor que tenemos en cuenta en todas las etapas de la
realización de una película.

¿Cómo funciona?

Seguramente habrán notado que no es lo mismo escuchar una clase o un discurso en un


espacio grande sin ningún tipo de tratamiento acústico (un galpón, una iglesia), que hacerlo
en un teatro o una sala de cine. Las ondas sonoras que emite quien habla son prácticamente
las mismas, pero las cosas que pasan con ese sonido antes de llegar a nuestros oídos son muy
distintas.

La sensación del oyente en un espacio con una acústica poco adecuada es que necesita prestar
más atención porque las palabras suenan pegadas, difíciles de distinguir. Cuando eso ocurre,
se siente la necesidad de ubicarse más cerca de quien habla. No se trata de una cuestión de
intensidad (mayor o menor presión sonora llegando a los oídos), sino que la mala acústica
está volviendo los sonidos más imprecisos y atentando contra la inteligibilidad. Veamos cómo
ocurre este fenómeno.
¿Qué cosas pasan cuando un sonido se encuentra con una superficie?

Varias cosas suceden cuando las ondas sonoras, en su dispersión, encuentran un obstáculo. Es
fácil asimilarlo a lo que ocurre con la luz: dependiendo de qué interpongamos en su camino la
misma se puede reflejar, transmitir, difundir o absorber. En el caso de las ondas sonoras
(aunque no podamos verlas), el comportamiento es muy parecido.

Reflexión: Cuando las ondas sonoras se encuentran con superficies muy lisas, rígidas y de
bajo índice de absorción, chocan contra estas superficies sólo para regresar al entorno de
donde vinieron, habitualmente en el ángulo inverso en que llegaron. En el caso ya mencionado
de una iglesia o un galpón la reflexión es un efecto que suele muy a menudo, debido al gran
tamaño y al uso de materiales muy rígidos y poco absorbentes, como pueden ser el concreto,
la piedra, el cemento, baldosas y cerámicos.

Absorción: Aunque que el sonido se refleje, también una parte de ese sonido que llegó al
material suele ser absorbido. Todo material tiene un índice o coeficiente de absorción, que
depende de cuánta de esa energía se disipe en el material al que llega la onda sonora. Los
materiales que usualmente absorben mucha energía sonora son los textiles (telones,
alfombras, fieltro), la lana de vidrio u otros materiales porosos como los derivados del papel y
la espuma de poliuretano. Incluso las personas absorbemos sonido: pueden notar una gran
diferencia en sonoridad en espacios colmados de gente que luego se vacían. El hecho de que
el sonido se absorbahace que podamos percibir la onda directa que viene desde la fuente
sonora, sin que la misma se vea mezclada con otras ondas que llegan luego de reflejar en las
paredes, el techo y el suelo, perjudicando su claridad.
Transmisión: El sonido supera la barrera que significa el material rígido y un porcentaje de
ese sonido se transmite hacia el lado contiguo. Un ejemplo típico es cuando escuchamos
sonidos de espacios vecinos, sin que estos espacios estén conectados por aire. Es habitual
que, debido al cambio de velocidad que supone viajar por otros medios, se produzca la
rarefacción: es decir, que la dirección de la onda sonora se vea perturbada y su procedencia
sea más difícil de determinar.

Difusión: Es un fenómeno que aparece cuando la superficie a la que llega la onda sonora es
rugosa. Esto hace que en lugar de reflejarse de manera puntual, esta energía se descompone
en forma de múltiples ondas. Es la razón por la cual, en estudios de sonidos y establecimientos
musicales, vemos todo tipo de objetos compuestos de muchas piezas de madera contiguas. A
veces no deseamos que la energía sonora se vea absorbida en un 100%, y la combinación con
difusores hace que la acústica sea especialmente agradable.
¿Cómo ocurren todos estos fenómenos en simultáneo?

Volvamos a remitirnos a la situación que mencionamos antes: una persona dando clase en
un recinto cerrado donde se ubican varias personas, a diferentes distancias de esa única
fuente sonora que es la voz de la persona. Si pudiéramos descomponer las ondas sonoras que
llegan a los oídos de los oyentes, se podrían distinguir tres fenómenos que ocurren de
manera casi simultánea.

Onda directa: Cuando la persona habla, el sonido se propaga en todas las direcciones al
mismo tiempo. De todas esas ondas, hay una que se dirige directamente al oído del oyente sin
existir mediaciones. Esta onda es la primera en llegar (su recorrido es más breve) y es la más
limpia y clara.

Reflexiones tempranas: Son ondas que, antes de llegar al oído del oyente, se reflejan contra
alguna superficie. El ejemplo más claro sería una onda sonora que no se dirige directamente al
oyente, sino que viaja en dirección a una pared, se refleja y recién después llega a ese oído. Si
bien el viaje del sonido es un poco más largo y lleva más tiempo, el sonido llega hasta 50 ms
más tarde que la onda directa. Esto hace que, para cualquiera de nosotros, el sonido de la onda
directa y el de la reflexión temprana sean indisociables.

Si bien las reflexiones tempranas pueden llegar a empeorar la situación de escucha,


habitualmente los sonidos que nos permiten obtener información sobre el tamaño del lugar y
la distancia de la fuente sonora. Aunque nos es imposible distinguirlas, las reflexiones
tempranas modifican nuestra percepción del sonido, habitualmente haciéndolo más lleno,
más intenso.

Reverberación: A medida que las ondas sonoras no encuentran un oyente y continúan


reflejándose en distintas superficies como puede ser el techo, las paredes, el suelo u otros
objetos que haya en el entorno, va perdiendo intensidad. Sin embargo, si
en el lugar hay muchas superficies reflectivas y el tiempo de esas reflexiones es largo, se
produce la reverberación. En estos casos, el sonido que produce la fuente sonora persiste por
más tiempo y llega al oyente a partir de 50 ms más tarde que la onda directa. Las ondas de la
reverberación son percibidas por el oyente como un flujo continuo de sonido que parte de la
onda directa y se extiende en el tiempo, perdiendo también el sentido de la dirección.

Debido a las múltiples reflexiones, esas ondas que llegan más tarde han sufrido
modificaciones tímbricas: habitualmente un énfasis en frecuencias graves y pérdida de
agudos. Tanto esto como el retardo de la señal hacen que la reverberación no sea un efecto
deseado en casos en que la inteligibilidad es esencial, como en nuestro ejemplo de la clase. El
tiempo de decaimiento de las ondas reverberantes habitualmente tiene que ver con cuánto
tarda el sonido en encontrar una superficie absorbente o de extinguir su energía para dejar
de rebotar.

Onda directa Reflexiones tempranas Reverberación


Aparte de estos tres fenómenos muy habituales, que ocurren prácticamente siempre que
producimos sonido en un interior, existe también el eco.

Eco:

El eco es un fenómeno que no se debe confundir con la reverberación, y que ocurre sólo en
lugares muy especiales. A diferencia de todos los fenómenos que explicamos antes, es muy
difícil encontrarse una situación de eco en nuestras vidas de ciudad.

En el caso del eco, el sonido hace un viaje muy largo hasta que choca con la superficie
reflectiva, para luego regresar al oyente con un retraso suficiente como para que el mismo
sienta que se trata de un duplicado: un “segundo” sonido totalmente distinguible del
original, proveniente del lugar donde se produjo la reflexión. Sólo puede ocurrir en espacios
en los que el viaje del sonido no sea perturbado por otras superficies que provoquen
absorciones u otro tipo de fenómenos. Hace falta que el sonido realice un tramo de muchos
metros para que esta diferencia de tiempo sea perceptible; por lo cual sólo ocurre en
montañas, cuevas, o espacios de una arquitectura muy especial. Si el sonido reflejado llega
más de 100 ms más tarde de la emisión original de la fuente sonora, es considerado eco.
¿Cómo nos afecta la acústica a lo hora de filmar?

Durante las primeras décadas de la realización cinematográfica, el cine se producía casi


enteramente en sets donde se armaban decorados específicos para la película que se quería
filmar. Estos espacios, a pesar de ser muy grandes, habitualmente tenían un tratamiento
acústico suficiente para poder filmar allí lo que fuere, con una gran comodidad para iluminar
la escena a gusto, una acústica pareja y sin sonidos invasores.

A medida que los materiales con los que filmamos se fueron aligerando (grabadores de
sonido, cámaras, sistemas de gripería e iluminación), el rodaje se fue trasladando a espacios
con menor tratamiento. Las locaciones de una película actual son casi siempre escenarios
reales, a veces muy lejanos a un espacio adecuado para filmar o para hacer sonido. Durante la
búsqueda de locaciones (también conocida como scouting), el sonidista debe estar presente
para alertar sobre ciertas situaciones que pueden producirse en esa locación. Dar esa alerta
cuando la filmación ya ha comenzado implica un trabajo de preproducción de sonido
deficiente; se debe alertar con tiempo a la producción de la película cuáles son los problemas
y posibles soluciones que presenta esa locación para el área de sonido.

Problemas típicos de una locación

La acústica es muy mala

Cuando hay mucha reverberación, el resultado es muy perjudicial para todos los sonidos que
se produzcan en esa locación. Si las escenas que se van a filmar en esa locación tienen diálogo,
estamos en problemas: quitar la reverberación a un sonido grabado es imposible. Hay varias
soluciones posibles, y la elección depende del propio gusto, del nivel de cooperación que
pueda tener el área de dirección de la película e incluso el propio guión del film.

Acustizar la locación

Es una tarea que puede resultar ardua y, si el espacio es muy grande, prácticamente imposible.
Es habitual que, si se van a filmar muchas escenas de diálogo en una misma locación, vayamos
uno o dos días antes con el equipo de utileros para poner paneles acústicos, telas o accesorios
de acustización de cualquier tipo en los ángulos de las locaciones que sabemos que no
aparecerán en imagen.
Pedir que los planos en los que ocurran los diálogos sean más cerrados

Si hacemos esto, tendremos permiso para acercar el micrófono al actor de manera


significativa, ya que el borde de cuadro nos lo permite. Debido a esto, la relación entre la
onda directa y la reverberación se puede volver más favorable para el sonidista. Si bien es una
solución de menor calidad que la anterior, puede llegar a resolver el problema.

Grabar sonido de referencia, para luego hacer un doblaje en postproducción

Si la captura del sonido directo fracasó, esta es la última acción que podemos intentar: grabar
un sonido de referencia digno en rodaje, para luego doblar la escena en postproducción. No es
una opción recomendable: la calidad actoral en la sala de grabación suele ser menor, y todo el
procedimiento de doblaje requiere bastante experiencia de las personas que lo actúan,
graban, editan y dirigen.

Hay ruidos externos que se filtran en las grabaciones

Una grabación de sonido directo en una locación debe incluir sólo los diálogos y las acciones
que hacen los personajes. Todos los ruidos no intencionales que aparezcan en las grabaciones
son ruidos no deseados, sean o no coherentes con lo que se está narrando en la escena.

Pedir que se filme en ciertos horarios en que los sonidos ajenos sean menores

Hay películas enteras que se filman en locaciones reales, pero fuera del horario o época del
año en que las mismas están activas. Por ejemplo, es bastante común que una película que
transcurre en una escuela se filme en el verano, o que si se usa una oficina real como locación
se use de noche.

Aislar la locación, mejorando los cierres de puertas y ventanas

A veces tenemos que filmar una película de época en una locación antigua, muy indicada
para la diégesis. Pero los sonidos que invaden esta locación son incoherentes a la época. Para
efectuar el aislamiento, podemos pedir (y ayudar) al equipo de utileros que las puertas y
ventanas cierren con firmeza, ya que son la vía por la cual entran sonidos no deseados de
afuera. Aunque esos sonidos sean acordes a la escena filmada, no los queremos en nuestro
sonido directo. Si hay ambientes más o menos ruidosos en la casa, hay que alertar para
asegurarnos de que no se usen esos ambientes.
Entrevista a Martín Grignaschi y Carlos Abbate acerca de la acústica en rodaje

E: - ¿Cuál fue tu experiencia con “El abrazo partido”, de Daniel Burman?

Martín Grignaschi: - Hubo un planteo de hacer sonido directo sí o sí, entonces se tomaron los
recaudos para hacerlo: buenas locaciones, tener todo a disposición y hacer pequeños ensayos
de cómo se iban a filmar algunas escenas para tener de referencia.

La película se filmó en una galería de verdad en pleno barrio del Once sobre la calle Lavalle.
Habíamos visto varios lugares eran todos tremendamente ruidosos, entonces contratamos
una empresa para acustizar toda la galería. Se hizo una especie de gran murallón para cerrar
las puertas al estilo de un estudio; también se acustizaron los techos de toda la galería para
quitar reverberancia y hacer un espacio más controlado, Fue un laburo bárbaro, donde hubo
un apoyo grande de producción.

Es una inversión, porque de esa manera vos podés tener un buen sonido, un directo digno. De
otra manera hubiese sido imposible. Como había que doblar todo era una inversión para el
bien de la película.

La galería estaba abandonada, teníamos buen control del lugar, pero, por la cercanía con
Lavalle, había una cantidad de colectivos, voces y gritos permanentes. Eso se filtró todo, no
quedó nada. Trabajamos con dos cañas en situaciones donde se pisaban todo el tiempo,
estuvo muy bueno. Daniel quería que los actores no se estuvieran cuidando de eso, que
hablaran y se interrumpieran cuando quisieran, sin estar controlando si se pisaban o no.
Decidimos de común acuerdo controlarlo con dos cañas, de manera de tener siempre a los dos
personajes bien grabados. La cámara también; había mucha cámara en mano y se iban
cambiando los lentes en el medio de la toma, por lo que fue difícil con los microfonistas,
porque el camarógrafo abría el plano y había que estar muy atento para que el microfonista
levantara el mic en el medio de la toma y después volviera a bajar. Todo el tiempo había
cambios de plano. Eso fue lo más complejo para el microfonista: seguir manteniendo un buen
plano sonoro y a la vez no entrar en cuadro; convivir con esa lógica de verlo, porque nadie te
estaba avisando que iban a abrir el plano.

E: - ¿Se trabaja mucho con las locaciones? ¿Se acustiza?

Carlos Abbate: - Todo depende de la importancia que le den el productor y el director. A veces,
cuando quiere que su película esté más cuidada, el director puede ser un aliado. Pero a veces
no es un aliado porque está tan preocupado por la actuación, la puesta en escena, la cámara,
que no se fija en el sonido. Hay películas en las que hemos hecho tratamientos de todo tipo y
nos han dado buenos resultados. Empezamos con “Esperando la carroza”, de Alejandro Doria.
Ahí José Luis Díaz, hizo curvas acústicas con una computadora y después sacó cálculos de
cada una de las locaciones, porque se hacía todo en una casa y era importante tener ese
directo. Se hizo un tratamiento en el techo y funcionó muy bien. Pero si el productor hubiera
dicho: “No tengo plata, no me interesa, no voy a gastar en eso”, la película no hubiera tenido
ese tratamiento. Y eso no es culpa nuestra. Definitivamente es una decisión del productor.
MICRÓFONOS
El micrófono es un transductor3 electroacústico que transforma la energía sonora en energía
eléctrica. Existen distintos tipos de micrófonos formados por diferentes componentes pero lo
que todos tienen en común es una membrana o diafragma.

El sonido que viaja por el aire (energía sonora) con variaciones de presión sonora. El
micrófono capta estas variaciones a través del diafragma. El diafragma vibra, y estas
vibraciones son transmitidas a un segundo componente; este segundo componente puede ser
de diverso tipo, según la característica de cada micrófono, y es donde se convierte en señal
eléctrica. Nosotros vamos a analizar 3 tipos de micrófonos: dinámicos, de condensador y
electret.

Existen diferentes propiedades técnicas que deben tenerse en cuenta a la hora de elegir un
micrófono. Estas propiedades o características son: sensibilidad, respuesta en frecuencia,
direccionalidad, impedancia, nivel de ruido y distorsión.

Cuando compramos un micrófono viene con toda esta información y específicamente con dos
gráficos. Uno es el gráfico de respuesta en frecuencia y otro es el diagrama polar de campo.

Sensibilidad

Es la relación entre la tensión eléctrica que sale del micrófono y la presión acústica que la
provoca (o dicho de otra manera, la que entra). Si sale poca tensión en relación a la presión
que entra estamos en presencia de un micrófono poco sensible. Si en cambio, es al revés,
tenemos un micrófono muy sensible.

La unidad que se utiliza internacionalmente para medir la presión es el pascal, (Pa), de modo
que la sensibilidad de un micrófono se expresa en volt por pascal (V/Pa).

La sensibilidad no tiene nada que ver con la calidad. Podemos tener un micrófono que sea de
poca sensibilidad y de buena calidad. Vamos a elegir qué tipo de sensibilidad nos conviene
de acuerdo al tipo de registro que necesitamos hacer y al lugar donde se deba realizar.

3
Transductor: Dispositivo que tiene la misión de recibir energía de una naturaleza, y transformarla en energía
de diferente naturaleza (con características dependientes de las que recibió)
Respuesta en frecuencia

Es una de las informaciones que nos brinda el fabricante del micrófono. Nos indica qué
respuesta tiene el micrófono ante las diferentes audiofrecuencias. Esto lo podemos observar
en un gráfico provisto por los fabricantes. Al observar esta información, podríamos llegar a la
conclusión de que todos los micrófonos son similares, ya que la respuesta en frecuencia de los
mismos en la mayoría de los casos, pueden ser de 20 Hz. a 20 Khz. Sin embargo, sería una
apreciación muy equivocada.

Lo concreto es que cada micrófono suena diferente a otro, incluso cuando sean de un mismo
modelo y fabricante. Dos micrófonos de igual modelo y fabricante, sometidos a mediciones de
precisión, darán como resultado pequeñas diferencias entre sí.

Estas diferencias se deben a la construcción de cada micrófono, que aunque sea en serie,
siempre tendrán pequeñas variaciones. Cuando se desea dar una idea rápida de la respuesta
en frecuencia de un micrófono, se especifican las frecuencias inferior y superior, y es
suficiente para poder decidir si un micrófono es adecuado o no para determinado uso. Pero si
se quiere ver más en detalle, cada micrófono trae los gráficos arriba mencionados para
evaluar su característica individual.

Gráfico de respuesta en frecuencia

El micrófono es sometido a diversas frecuencias que figurarán en el “gráfico”. Se emiten las


frecuencias a determinado nivel y se medirá con qué niveles capta el micrófono esas
frecuencias. Cuanto más “plana” sea, mayor fidelidad tendrá el micrófono.

Micrófono Sennheiser MKH 416


Impedancia

Es la propiedad de algún elemento ó circuito que restringe, en alguna medida, el paso de una
corriente eléctrica. Se mide en Ohmios. Es importante observar esta información cuando
conectamos el micrófono a un grabador u otro equipo.

Existen micrófonos de alta impedancia (superior a los 10.000 Ω) y de baja impedancia


(menor de 500 Ω). En sonido profesional se utilizan casi exclusivamente los micrófonos de
baja impedancia, porque son menos ruidosos, y ofrecen menos dificultades para el cableado,
en especial cuando están involucradas grandes distancias.

La impedancia de entrada de los preamplificadores debe ser mucho mayor que la del
micrófono, para evitar pérdidas en la señal ó incluso, escuchar solamente ruidos parásitos.

Nivel de ruido

Es el resultado de la medición de la tensión de salida de un micrófono, sin proporcionarle


excitación alguna. El micrófono capta lo que podríamos llamar ruido ambiental (el ruido que
capta el micrófono de la acción que se esté desarrollando en el lugar) y por otro lado capta lo
que se llama ruido eléctrico. Este ruido sólo puede reducirse (pero no eliminarse) diseñando
el micrófono de modo de que posea muy baja impedancia y además utilizando en su
fabricación materiales de
gran calidad.

Esta especificación sugiere cuál es el mínimo nivel sonoro para el cual tendrá sentido
utilizar este micrófono. Si se intentara captar con ese micrófono un sonido de
menor nivel, el ruido propio del micrófono sería más intenso que el sonido a captar, con un
claro enmascaramiento de la señal por el ruido.

Distorsión

Es la deformación de la onda sonora ó señal de audio original. Estas distorsiones son


apreciables auditivamente. La diferencia con el ruido es que la distorsión es una deformación
de la onda, mientras que el ruido es una señal independiente que se agrega a la señal.

La distorsión se manifiesta con la aparición de cierta cantidad de armónicos. Como este


fenómeno se da normalmente para niveles altos de señal, la especificación se suele dar
asociada con el máximo nivel de presión sonora que admite el micrófono.
TIPOS DE MICRÓFONOS

Micrófonos dinámicos

También llamados electrodinámicos o de bobina móvil. El principio de su funcionamiento


está basado en que un conductor (bobina móvil), se mueve dentro de un campo magnético
y, por esto, produce una tensión en sus extremos.

Estos micrófonos están constituidos por una bobina y un imán con dos brazos a modo de
expansiones que son solidarios al imán, que generan un intenso campo magnético en el
estrecho espacio que queda entre ambos brazos. Adosada a la membrana, encontramos esta
bobina con varias espiras de alambre de cobre que se desplaza en forma oscilante a lo largo de
un núcleo de imán.

El diafragma vibra en concordancia con las variaciones de presión sonora, y le transmite esas
vibraciones a la bobina. Cuando una bobina se mueve dentro de un campo magnético (en este
caso el del imán) se genera en sus terminales una tensión eléctrica denominada fuerza
electromotriz. De esa forma este tipo de micrófonos transforma la energía sonora en eléctrica
sin necesidad de alimentación externa, ya que como ya dijimos recientemente son micrófonos
que generan su propia energía.
Son micrófonos muy poco sensibles. Básicamente porque el diafragma junto con la bobina se
convierte en un “combo” muy pesado. Se necesitan variaciones de presión acústica grandes (o
sea, mucho volumen), para lograr que el diafragma “empuje” a la bobina y de esa forma se
genere la corriente eléctrica.

Suelen tener un precio accesible, son robustos y son tolerantes a condiciones


adversas de operación, como variaciones de temperatura o humedad, golpes, volúmenes altos,
etc., por lo cual son especialmente aptos para el sonido en vivo.

Micrófonos de condensador

Basan su funcionamiento en las diferencias de capacidad existentes entre la armadura de un


condensador de dos placas. Estas dos placas son: una placa frontal muy delgada y flexible
(que es la membrana o diafragma) y separada a 2 a 3 centésimas de milímetro, se encuentra la
otra placa, llamada placa terminal, que es fija.

Al incidir la onda sonora sobre el diafragma, vibrará alterando la separación entre ambas
placas. En este caso, el diafragma está libre, no tiene ningún elemento adosado. Por eso, es que
esta placa frontal es muy flexible, y reacciona ante el más mínimo estímulo.
Son micrófonos que necesitan alimentación externa para poder funcionar. En la mayoría de los
casos necesitan una fuente de alimentación de 48 volt, aunque también podemos encontrar
algunos modelos de micrófono que necesiten fuente de alimentación de 12 volt. Por todo esto,
y como no necesita generar su propia energía como los micrófonos dinámicos, se trata de
micrófonos muy sensibles (sería como un oído joven).

Cuando el diafragma vibra, varía la capacidad del condensador. Y como ambas placas reciben
la carga eléctrica, al variar el condensador, varía la tensión. La fuente de alimentación
requerida, es una fuente externa y separada al micrófono.

En este caso estamos en presencia de micrófonos con un alto valor económico, son los más
usados en la industria cinematográfica debido a su gran sensibilidad, pudiendo captar sonidos
tenues y a la distancia adecuada para tener un buen registro teniendo en cuenta el límite de
cuadro de imagen.
Micrófono de condensador

Fuente de alimentación de 48 v

Muchas veces esto, resulta ser incómodo. Por eso en muchos casos se recurre a una fuente
remota, llamada fuente fantasma o phantom.

Fuente Phantom (o Phantom Power)

Utilizando este tipo de fuente evitamos tener que conectar el micrófono a una fuente de
alimentación ajena al micrófono. En este caso, se conecta el micrófono directamente al
grabador, consola, mixer o cámara, y estos equipos harán las veces de fuente, alimentando al
micrófono a través de su preamplificador.
No todos los micrófonos de condensador requieren alimentación de 48 v por lo tanto, no
todos los micrófonos de condensador requieren alimentación phantom. Los micrófonos con
alimentación phantom son exclusivamente los de 48 v.

¿Por qué el phantom es de 48 v?

La razón es más bien anecdótica. Se remonta a cuando Neumann4 le presenta a la Norwegian


Broadcasting Corporation, un nuevo modelo de micrófono, ya que ellos le habían solicitado un
micrófono que pudiera soportar 48 v porque ellos tenían ese voltaje en un sistema de
iluminación de emergencia. Luego, esto se extendió a otros fabricantes y fue establecido como
Standard, a pesar de que los micrófonos podrían funcionar con voltajes menores.

Micrófonos Electret

Basan su funcionamiento de una manera muy similar a los de condensador, pero su


rendimiento es inferior. Son micrófonos prepolarizados, necesitan alimentación externa,
aunque no del tipo phantom. Son micrófonos que llevan pila más comúnmente de 1.5 v.

También tienen un diafragma y una placa terminal. En este caso la membrana es de plástico,
policarbonato fluorado por ejemplo, y tiene recubierta una de sus caras con una fina
película metálica (puede ser oro). Esta placa es móvil y tiene una carga eléctrica
permanente. En fábrica se la somete a una temperatura de 220 grados, al mismo tiempo que
se le aplica una tensión de 4.000 v; y al enfriarse, esta pieza conservará una tensión mucho
menor pero permanente.

La otra placa, es la placa terminal, es fija, y recibe la carga eléctrica que proviene de una fuente
externa, en este caso, una pila o batería. Al variar la distancia entre ambas placas, se producen
las variaciones de tensión.

Son micrófonos más económicos y menos sensibles que los de condensador.

Micrófonos USB digitales

La salida de estos micrófonos es digital a través de un puerto USB, o mini USB, o conector
Lightning (para Apple). Hoy en día abundan este tipo de micrófonos. Los hay con una gran
variedad de precios y calidad. Su uso es muy común en trabajos con poco equipamiento, sobre
todo porque resultan ser más económicos que los mencionados

4
Neumann: importante marca de micrófonos. Debe su nombre a su fundador en 1928, en Alemania
anteriormente. Por ejemplo, es muy usado en periodistas cumpliendo el rol de corresponsales
sin camarógrafo y grabando directo a una Tablet con este tipo de micrófonos. Su rendimiento
depende mucho de la acústica del lugar.

Su uso no es del todo recomendable, ya que esos conectores cambian en muchos casos según
la computadora, teléfono o Tablet que se esté usando. Un conector XLR es más noble y
siempre será compatible con el 99% de los equipos que utilizaremos dentro de la industria
cinematográfica. Y además difícilmente podamos conectar más de un micrófono.

DIRECCIONALIDAD

Habíamos dicho que el fabricante entrega 2 gráficos. Uno es el de respuesta en frecuencia y el


otro es el diagrama polar de campo. Este último es el que indica o nos informa acerca de la
direccionalidad del micrófono. La sensibilidad de un micrófono varía según el ángulo respecto
a su eje desde donde viene el sonido.

En el diagrama polar de campo podemos observar el comportamiento de las ondas sonoras,


según la dirección de donde provengan y el nivel con que son captadas por los micrófonos. Por
medio de unas coordenadas polares, podemos establecer como inciden las ondas sonoras en
los 360 grados respecto de un punto, que es el lugar donde ubicamos el micrófono.

El patrón direccional (forma del diagrama polar) de un micrófono también varía con la
frecuencia; pero básicamente vamos a encontrar tres tipos de direccionalidades posibles:

Omnidireccionales

Son los que tienen igual sensibilidad respecto de todas las frecuencias y en todas las
direcciones, o sea, en los 360 grados alrededor del micrófono. Al captar de igual forma en
todas las direcciones, no requiere ser enfocado hacia la fuente emisora de sonido. Este tipo
de micrófono se utiliza precisamente para captar sonido ambiental, sin importar su
procedencia.
No es recomendable para registrar voces en locaciones naturales porque captarían las voces
con fondos altos y con mucha reverberación (si es que los hubiera). Puede dar mejores
resultados en espacios acustizados.
Su diagrama polar tiene forma de círculo.

Diagrama Polar de campo Micrófono Omnidireccional

Bidireccionales

Reciben presión sonora por ambos lados del diafragma. Su mayor sensibilidad es entre 0 y
180 grados; el diagrama polar de estos micrófonos tendrá un aspecto de un 8, por lo que
también se les llama “figura de ocho”.

Diagrama Polar de campo Micrófono Bidireccional

Se puede decir que tiene dos lados “vivos” en las dos direcciones paralelas al eje principal y
dos lados “muertos” en dirección perpendicular a ese eje, por lo
que permite eliminar casi por completo la captación de ruidos provenientes de dichas
direcciones.
Se usan mucho en estudios de radio, para poder tener por ejemplo a dos personajes en una
mesa y poder captarlos bien con un solo micrófono, cada personaje frente a cada lado vivo del
mic. En la industria cinematográfica no suelen usarse para el registro de los diálogos, porque
captaría con mucho fondo y mucha reverberación. En cambio sí son muy usados para el
registro de ambientes sobre todo si se trata de un micrófono stereo.

Cardioides

Los micrófonos cardioides tienen la particularidad de captar sonidos desde un punto


determinado, atenuando en diferentes niveles aquellos que no provengan desde ese lugar.
Deben su nombre a que el aspecto del diagrama polar tiene similitud con la forma de un
corazón.

Diagrama Polar de campo Micrófono Cardioide

Son muy usados en la industria audiovisual. No es recomendable su uso en exteriores porque


captaría las voces con los fondos muy altos.

Se podría decir que los micrófonos cardioides pertenecen a una familia, en la cual existen
cardioides con un ángulo de captación más cerrados. Estos son los hipercardioides,
supercardioides y los ultradireccionales

Hipercardioides

Tienen un ángulo más cerrado que los cardioides. Son ideales para el registro de las voces en
sonido directo. Por su característica, los sonidos no provenientes del lugar al que apunta el
micrófono, se oirán notoriamente atenuados, ya que afectarán en menor medida al diafragma.
Se pueden usar tanto en interiores como en exteriores, aunque va a tener mejor resultado en
interiores que en exteriores. Si bien tiene un ángulo cerrado, en un exterior se va a seguir
captando con un sonido ambiente bastante alto.
Los sonidos que provengan de los costados, no solamente se escucharán más bajos, con
respecto a los que vengan del frente, sino que se también se escucharán diferentes, respecto a
sus frecuencias. Por lo tanto, estos sonidos se escucharán “fuera de plano”, es decir fuera del
eje del micrófono. Circunstancia que el oído identifica. Por lo tanto, son micrófonos que tienen
que estar bien dirigidos a la fuente emisora de sonido.

Diagrama Polar de Campo Micrófono Hipercardioide

Supercardioides

Tienen un ángulo más cerrado que los hipercardioides. Son ideales para el registro de las
voces en sonido directo. Los sonidos no provenientes del lugar al que apunta el micrófono, se
oirán más atenuados. Su uso es recomendable para exteriores.

Los sonidos que provengan de los costados, se escucharán “fuera de plano”. Por lo tanto si
se quisiera usar este tipo de micrófonos en un interior, hay que controlar que esté bien
apuntado para que no se perciba ese fuera de plano.

Si observamos el diagrama polar de campo es muy similar al hipercardioide pero tiene el


ángulo más cerrado.

Diagrama Polar de Campo Micrófono Supercardioide


Ultradireccionales

También llamados “cañón”, o “shotgun”, tienen el ángulo más cerrado de todos. Son ideales
para trabajar en exteriores. La desventaja que tienen es que al ser tan puntuales, tienen
que estar muy bien dirigidos para tener óptimos resultados, y que no se escuche fuera de
plano. No es recomendable su uso en interiores ya que en un interior se percibe más
notoriamente la diferencia entre los sonidos en plano y fuera de plano.

Diagrama Polar de Campo Micrófono Ultradireccional

Vale aclarar que algunos micrófonos, traen un interruptor para cambiar su direccionalidad, y
es fundamental reconocer cada ícono (proveniente de cada diagrama polar) para poder
seleccionar la direccionalidad deseada.

En el siguiente gráfico observaremos los diferente íconos, donde se incluye también la opción
del micrófono subcardioide. Este es como un cardioide más ancho. No es de los más
usados.
MICRÓFONOS STEREO
Existen micrófonos que tratan de emular la manera en la que percibimos los sonidos, a través
de nuestros dos oídos. Estos captan los sonidos a través de dos o más cápsulas con algunas
pequeñas diferencias. Son ideales para grabar ambientes stereo, generando atmósferas más
envolventes.

A-B STEREO

Se trata de dos micrófonos separados creando una sensación stereo.

La técnica A-B Stereo (o también llamado stereo por diferencia de tiempo) consta de dos
micrófonos separados, generalmente omnidireccionales, con una pequeña distancia. Ésta
supone pequeñas diferencias en la información de tiempo o fase.

Se usan mucho en música para grabar instrumentos. La distancia entre los micrófonos va a
depender de la calidad tonal de los instrumentos, pero generalmente lo que se recomienda es
entre 40 y 60 cm. Distancias menores se usan para captar fuentes de sonido próximas.

X-Y STEREO

Se trata de dos micros cardioides, coincidentes en el mismo punto y con un ángulo de 90


grados entre sus ejes. Aunque también los hay con otros ángulos (120° y 180°)

Las dos cápsulas necesitan estar exactamente en el mismo punto para evitar problemas de
fase producidos por la distancia entre los micrófonos. Preferentemente hay que usarlos
cuando la fuente emisora se encuentra a una distancia cercana.
M/S STEREO

Es una mezcla entre un micrófono cardioide y un bidireccional en el mismo punto con un


ángulo de 90° entre sus ejes, a través de la llamada matriz MS.

La señal MS no puede ser monitorizada directamente en un sistema convencional


izquierdo/derecho (L+R). Posteriormente esta señal quedará abierta en 3 canales. La
matriz MS utiliza la información de fase entre el micrófono cardioide para un canal central y el
bidireccional para producir 2 canales (L+R). Para poder hacer esto es necesario usar un
programa que permita decodificar esta señal y abrir estos 3 canales y generar un sonido aún
más envolvente que con los micrófonos stereo.

STEREO BINAURAL

En este caso se trata de dos micrófonos omnidireccionales colocados en los oídos de la cabeza
de un maniquí, para así emular la percepción del sonido en el ser humano. Cuando estas
grabaciones se reproducen con auriculares, el receptor experimenta una imagen sonora
esférica, donde todas las fuentes de sonido son reproducidas con la dirección espacial
correcta. Las grabaciones binaurales se pueden usar en aplicaciones de realidad virtual o
videojuegos.
STEREO BLUMLEIN

Son dos micrófonos bidireccionales colocados en el mismo punto y con ángulo de 90° entre
sus ejes creando una imagen estéreo. Esta técnica dará resultados cuando se use en pequeñas
distancias hasta la fuente de sonido. A distancias mayores, estos micrófonos perderán las
frecuencias graves.

DIN STEREO y NOS STEREO

La técnica DIN consta de dos cardioides separados 20 cm y con un ángulo de 90° entre sus
ejes. Si se usa a grandes distancias de la fuente sonora, la técnica DIN stereo perderá las bajas
frecuencias. Es más útil en pequeñas distancias, por ejemplo, en pianos, o pequeños conjuntos.

La técnica NOS es similar pero en este caso se usa una distancia de 30 cm.
ORTF STEREO

Son dos cardioides separados 17 cm y con un ángulo de 110° entre sus ejes. La técnica ORTF
stereo (llamada así por ser ideada en la Office de Radiodiffusion Télévision Française) es muy
apropiadapara reproducir señales estéreo muy similares a aquellas que usa el oído humano
para percibir información en el plano horizontal, y el ángulo entre los dos micrófonos
direccionales emula el efecto sombra de la cabeza humana.

Esta técnica proporciona una grabación con una imagen estéreo más amplia que la técnica X-Y.

MICRÓFONOS INALÁMBRICOS

Este tipo de equipos, consta de tres partes fundamentales:


- Micrófono o cápsula.
- Emisor de señales.
- Receptor de señales.

Cuando hablamos de micrófonos inalámbricos podemos estar hablando de micrófonos de


mano, corbateros, vinchas y hasta incluso la caña. Con referencia al micrófono, los hay
“dinámicos” y los hay de “condensador”. Sus características de direccionalidad varían desde
Omnidireccionales hasta cardioides.

El emisor y el receptor, funcionan por radiofrecuencia. El emisor no es un pequeño transmisor


que opera en la banda de frecuencia modulada (FM), generalmente en muy alta frecuencia de
emisión. Y el receptor, como su nombre lo indica, esta encargado de recibir la transmisión del
emisor.
Existen tres bandas de equipos:
-Profesionales: 40-50 MHz
-Aficionados: 88-108 MHz
-VHF (Very High Frequency): 470 MHz
-UHF (Ultra High Frequency): 900 Mhz

Cada equipo emisor/receptor, trabajarán sobre determinada frecuencia o canal.


Cuando se usan varios micrófonos, se establece una banda de seguridad mínima de 0,2 MHz
entre las frecuencias asignadas a cada par. Las bandas de frecuencias en las que se trabaja,
como todo espacio de radiofrecuencias, está administrado por el Estado. Por lo tanto, cada
país, establece el margen de frecuencias en que los micrófonos pueden operar.

Estos, son equipos que, no siempre se comportan correctamente, ya que son bastante
sensibles a todo tipo de interferencias, aún en pequeñas distancias. Para evitar este tipo de
problemas, existen equipos denominados “diversity”, que trabajan con dos antenas receptoras.
Esto permite al receptor estar recibiendo la señal en dos puntos y detectar las interferencias,
desfasando 180 grados una de ellas y de este modo producir una cancelación de fases, que
eliminará las interferencias en gran medida. De todas formas, también hay que usarlos con
mucho cuidado, ya que como siempre están ocultos entre ropa, suelen provocar unos intensos
y molestos roces de ropa.

En algunos casos se pueden usar amplificadores de antena para tener un mayor alcance y
optimizar la recepción de la señal inalámbrica.
ACCESORIOS
Caña

Las cañas recomendadas son las cañas telescópicas de fibra de carbono. Son extensibles y son
de varios largos y tramos. Es fundamental que la caña que se use sea lo suficientemente
liviana para no cansar al microfonista y resistente para soportar el peso del micrófono con
todos su accesorios.

Montura

Si los micrófonos son muy sensibles no es recomendable su uso en contacto directo con la
mano. El micrófono puede estar en una montura. Si el micrófono va a esta quieto, como
puede suceder en el caso de un estudio de grabación, el micrófono puede estar sujeto con una
“pipeta”.

En rodajes, en los que el micrófono va a estar en movimiento, es más recomendable usar


suspensión elástica.
Otro tipo de montura puede ser la llamada pistol grip, pudiéndose usar con la caña o pudiendo
agarrar ese mango de pistola simplemente con la mano, resultando esto muy útil en el registro
de sonidos ambientes, wild tracks.

Paravientos

Los hay de varios tipos: tenemos los paravientos más básicos de todos. Realmente no resultan
muy efectivos si hay viento en un exterior. En muchos casos se usan incluso en interiores para
evitar el posible viento que provoque el movimiento del micrófono.

En exteriores resultará conveniente utilizar un paravientos del tipo softie. Aunque vale aclarar
que sólo servirá en casos de estar en presencia de un viento moderado.
También encontramos el llamado super Softie

El tipo de paravientos que resulta más útil en casos de tener un viento fuerte es el zeppelin, ya
que el micrófono queda herméticamente encerrado en esa estructura, y no solamente en el
frente como ocurre con los otros.

Incluso en caso de haber un viento un poco más fuerte aún, podemos cubrir el zeppelin con un
windjammer.
Y luego para registro de voces en estudio, los más recomendables, son los anti POP, para evitar
el popeo o el aire que sale de la boca, sobre todo al pronunciar las letras “p”, debido a la
cercanía con el mic.

Accesorios para corbateros

En la industria televisiva, en shows, en programas periodísticos, en conferencias, está


permitido ver la existencia de la cápsula del micrófono corbatero. Por lo tanto, se puede
colocar el corbatero en un clip o “cocodrilo” y éste engancharlo en la ropa. También puede ser
un imán.

En la industria cinematográfica es fundamental esconder bien la cápsula, en líneas generales


por debajo de la ropa. Esto resulta muy difícil, ya que la mala colocación, puede dar por
resultado, roces de la ropa sobre el micrófono, o incluso, cualquier
elemento que pongamos para evitar roces, como por ejemplo, algodón, puede provocar que el
micrófono quede tapado y ese sonido no sirva. Por lo tanto no recomendamos su uso.

El micrófono debe ser pegado a la piel del personaje, o incluso en algunos casos a la
vestimenta del personaje, con cinta hipoalergénica. También se puede usar la masilla adhesiva
Patafix de UHU, resultando ésta útil para separar un poco la cápusla de la ropa.

A nivel profesional existen distintos accesorios para tales efectos:


GRABACIÓN
La grabación de sonido es un fenómeno relativamente reciente. Aunque existen
reproducciones en imagen de personajes importantes que existieron hace miles de años,
ninguna de sus voces está registrada en ningún formato; ni siquiera uno precario. Se trata de
un fenómeno que nace a fines del siglo XIX y que no es masivo hasta el comienzo del siglo XX.

Los registros de sonido más antiguos que existen ni siquiera fueron audibles en su momento.
Se trata de los experimentos que hizo en 1857 Édouard Léon-Scott con una de sus
invenciones: el fonoautógrafo.

Fonoautógrafo

La primera invención conocida de un dispositivo capaz de grabar sonido fue el fonoautógrafo,


inventado por el francés Édouard-Léon Scott de Martinville y patentado el 25 de marzo de
1857. Podía transcribir sonido a un medio visible, pero no tenía un modo de ser reproducido
después. El aparato consistía de un cuerno o un barril que recogía las ondas hacia una
membrana a la que estaba atado una cerda. Cuando llegaba el sonido, ésta vibraba y se movía
y el sonido podía grabarse en un medio visible. Inicialmente, el fonoautógrafo grababa en un
cristal ahumado. Una versión posterior (la de la foto) usaba un papel también ahumado en un
tambor o cilindro. Otra versión dibujaba una línea representando el sonido en un rollo de
papel. El fonoautógrafo era una curiosidad de laboratorio para el estudio de la acústica.
Era usado para determinar la frecuencia de un tono musical y para estudiar el sonido y el
habla. No se entendió hasta después del desarrollo del fonógrafo que la onda
grabada por el fonoautógrafo era de hecho una grabación del sonido que sólo necesitaba un
medio de reproducción adecuado para sonar.

En 2008, un equipo de estudiosos de los archivos logró tener acceso a los papeles con
grabaciones del fonoautógrafo de Leon Scott que estaban guardados en la oficina de patentes
de la Académie des Sciences francesa. Escanearon el papel en relieve con un sofisticado
programa de ordenador desarrollado años antes por la Biblioteca del Congreso
estadounidense. Las ondas del papel fueron traducidas por un ordenador a sonidos audibles
y reconocibles. Uno de ellos, creado el 9 de abril de 1860 resultó ser una grabación de 10
segundos (de baja fidelidad pero reconocible) de alguien cantando la canción popular
francesa "Au Clair de la Lune". Este "fonoautograma" es la primera grabación de sonido que es,
empíricamente, reproducible.

https://youtu.be/VMimMeSF72I

Fonógrafo
En 1877, Thomas Edison inventa el fonógrafo, el primer instrumento capaz de grabar y
reproducir sonidos.

El fonógrafo fue el que, hasta 2008, se creyó el primer aparato capaz de grabar sonido, y
sin dudas fue el primero que pudo reproducirlo después. Thomas Alva Edison anunció la
invención de su primer fonógrafo, el 21 de noviembre de 1877, mostró el dispositivo por
primera vez el 29 de noviembre de ese mismo año y lo patentó el 19 de febrero de 1878.

El fonógrafo utiliza un sistema de grabación mecánica analógica en el cual las ondas sonoras
son transformadas en vibraciones mecánicas mediante un transductor acústico-mecánico.
Estas vibraciones mueven un estilete que labra un surco helicoidal sobre un cilindro de
fonógrafo. Para reproducir el sonido se invierte el proceso.
Al principio se utilizaron cilindros de cartón recubiertos de estaño, más tarde de cartón
parafinado y, finalmente, de cera sólida. El cilindro de cera, de mayor calidad y durabilidad, se
comercializó desde 1889, un año después de que apareciera el gramófono. El gramófono era
una invención similar, que se transformó en el primer sistema de grabación y reproducción de
sonido que utilizó un disco plano. Tanto el fonógrafo como el gramófono, así como otros
aparatos similares de disco plano tuvieron una gran masividad durante el siglo XX.

La grabación y el cine

Aunque la invención del cinematógrafo y del fonógrafo ocurrieron en fechas similares, los
primeros 30 años de historia del cine son mudos. La dificultad principal en el acoplamiento
del sistema de sonido al de imagen era la dificultad de una sincronización. El material de
imagen y el de sonido corrían a velocidades variables y esto hacía que su reproducción
simultánea fuera posible, pero deficiente. El Vitaphone (1927) es el primer sistema que acopla
un reproductor de discos al proyector, y es el que inaugura el cine sonoro con “El cantante de
Jazz”. Sin embargo, se trata de un sistema que se usó durante muy poco tiempo, ya que no era
fiable y el transporte y duplicación de copias era poco práctica.
Poco después se empezó a usar la grabación del sonido en soporte óptico. Es decir, se dibujaba
con luz la onda sonora en un material fotosensible muy similar al de la cámara de imagen.
Esto permitía una posterior sobreimpresión que daba como resultado una película con
imagen y sonido indisociables. Para los exteriores se disponía de un camión de sonido.

Este video instructivo muestra las dificultades de la grabación en soporte óptico y la


postproducción de cine en los años ‘30: https://youtu.be/Z5OavpqLJ3E

Sin embargo, los avances llevaron a que se comience a utilizar (al menos para el registro del
sonido en el set de filmación) un sistema de una calidad superior: la grabación en cinta
magnética.

Grabación en soporte magnético

La grabación magnética había sido inventada por Valdemar Poulsen en 1899, pero no existían
dispositivos (y sobre todo, soportes de grabación) que estuvieran a la altura de un registro
sonoro profesional. En 1934, AEG inventa el primer grabador de cinta magnética, con una
forma similar al que se utiliza durante el resto del siglo XX. Los resultados no son buenos
hasta mediados de los años 40. En 1948, estos ya son de uso corriente, pero son grandes y
pesados, consumen mucha electricidad.
Un grabador AEG de 1935.

En 1951, en Lausanne, Stefan Kudelski concibe y fabrica un grabador de gran calidad,


portátil, autónomo y ligero. Está dotado de un motor mecánico sin sistema de sincronismo (4
kg), y con una autonomía de uso de 5 horas. Se llama Nagra (que significa “grabará” en
polaco) y de a poco se convirtió en el grabador portátil de rodaje más confiable para el sonido
en filmaciones.

El Nagra I
¿Cómo funciona la grabación magnética?

A principios del siglo XIX se constató que los fenómenos eléctricos y magnéticos estaban
relacionados; algo que venía siendo estudiado desde la antigüedad, pero no había sido
demostrado. Básicamente siempre que existe un campo eléctrico, existe un flujo magnético
correspondiente. Esto es aprovechado por los grabadores de cinta ya que la corriente
eléctrica (la señal de audio) no puede ser registrada en un soporte en sí misma, pero las
fluctuaciones magnéticas pueden quedan grabadas en un soporte adecuado.

En las primeras grabaciones se usaban hilos de acero, materiales que podían guardar los
campos magnéticos, pero en baja calidad y no de manera permanente. Los materiales pueden
ser duros o blandos de acuerdo con su respuesta a los fenómenos del magnetismo. Son duros
aquellos materiales que son muy difíciles de magnetizar pero que luego conservan la carga, es
decir, quedan magnetizados. Por el contrario, son materiales magnéticos blandos aquellos que
son fáciles de magnetizar pero que no quedan magnetizados.

Fue cuando se empezaron a usar cintas bañadas en una sustancia de óxido ferroso, que la
grabación magnética empezó a ser masiva y de alta calidad. En general estas tenían un soporte
de algún material plástico (que solía tener un color más oscuro), y el baño de óxido que le
daba su color marrón característico.

Estas cintas venían en distintos anchos. Las de los tradicionales cassettes eran de 1/8 de
pulgada, mientras que las más anchas eran las de dos pulgadas. Estas últimas podían grabar
simultáneamente hasta 24 pistas en muy alta calidad, por supuesto teniendo en cuenta que
hacía falta un grabador con la capacidad para grabar tantas señales al mismo tiempo.
Cuando la cinta está virgen, tiene una serie de dominios magnéticos que están desordenados.
Cuando la cinta pasa por la cabeza de grabación a una determinada velocidad, ese flujo
magnético reordena estos dominios de manera proporcional las variaciones de flujo y por
ende, a la corriente de la señal eléctrica que entra previamente al grabador.
Es más claro cuando observamos la cabeza de grabación, vista desde arriba:
Cuando se genera una corriente eléctrica en un bobinado que se mueve dentro de un campo
magnético, ese campo se ve afectado de una manera que es correspondiente a la señal
eléctrica. Si además la corriente que aplicamos es alterna, el flujo magnético estará variando
constantemente.

La cabeza de grabación es un electroimán que recibe las señales de audio que llegan al
grabador a través del micrófono, luego de que el usuario decida en qué niveles realizar la
grabación. Este electroimán emite esas variaciones de flujo magnético a través de una ranura
muy pequeña llamada entrehierro. Esas emanaciones que salen a través del entrehierro se van
impregnando en la cinta, que se mueve de manera constante delante de este.

En el caso de la cabeza de reproducción, el procedimiento es similar pero funciona al revés:


la cinta, que ya se encuentra impregnada del flujo magnético al que estuvo sometida en el
momento de la grabación se mueve por el frente del entrehierro, casi rozando el cabezal. Los
remanentes magnéticos que quedaron en la cabeza de grabación se inducen hacia la cabeza e
ingresan en el núcleo. Circulan por él hasta llegar al bobinado, provocando una señal eléctrica
entre los conductores de proporciones similares a los campos magnéticos registrados en la
cinta.
Existe otra cabeza que está presente en todos los grabadores de cinta y es la primera con la
cual se encuentra la cinta: la cabeza de borrado. Antes de grabar sobre una cinta debemos
estar seguros de que no posee un registro previo; las cintas deben ser muy bien borradas. Por
eso los equipos profesionales incorporan este tercer cabezal, que se ubica antes del de
grabación y sirve para desmagnetizar la cinta. El entrehierro del cabezal de borrado es mucho
más grande que el de grabación y el de reproducción, cerca de 0,4 milímetros, para lograr que
la inducción magnética incida abiertamente sobre la emulsión de la cinta. El borrado se
produce saturando la cinta y en consecuencia desmagnetizándola hasta un valor neutro. La
saturación se consigue aplicando una corriente alterna ultrasónica cercana a los 200 Khz. De
esta manera tendremos la cinta perfectamente borrada, como en su estado original.

Algunos grabadores profesionales, particularmente los que se usaban habitualmente en


producciones audiovisuales como el Nagra, tenían una cuarta cabeza dedicada al tono piloto.
Este era un sistema que permitía una sincronización de sonido e imagen de muy alta
precisión.

Existía un problema en este tipo de grabaciones relacionado con la velocidad de grabación. La


cámara grababa 24 fotogramas por segundo de manera constante, debido a un cristal de
cuarzo que regulaba su velocidad. Pero en el caso del grabador de sonido, no había
dispositivos que funcionaran de esa manera. En el momento de la grabación existían
variaciones de velocidad y la cinta quedaba grabada a una velocidad que podía no ser
exactamente igual a la de la imagen.

Sin embargo, la cabeza de tono piloto grababa en la propia cinta una señal constante de 50 hz
que quedaba como testigo de las variaciones de velocidad que habían existido durante la
grabación. Si el grabador se había acelerado o desacelerado levemente durante la grabación,
eso quedaba documentado en esta señal de tono piloto, ya que la misma se registraba con
algunas deformaciones.

Lo que el grabador hacía era simplemente dejar que las variaciones de velocidad existan y
registrarlas a través del tono piloto. Luego, cuando la cinta se reproducía, esas variaciones
de velocidad habían quedado registradas y el grabador usaba esa información para imitar las
aceleraciones y desaceleraciones que habían ocurrido en el momento del registro, logrando
entonces que la grabación tuviese una duración exactamente igual a la que tuvo en el
momento de la toma. Gracias a esto, se lograba una sincronización con imagen sin variaciones.
GRABACIÓN DIGITAL

Durante los años ‘80 aparecieron los primeros formatos de audio digital, entre ellos el CD de
audio, que se convirtió en el más popular de ellos. Poco a poco esto llevó a que tanto en rodaje
como en la postproducción de sonido de películas, se fueran desplazando los métodos de
grabación en cinta hacia la digitalización de todos los sonidos que componen un armado de
bandas. Los grabadores portátiles de cinta evolucionaron y, luego de pasar por un formato
híbrido como fue el DAT, llegamos a los grabadores que usamos desde comienzos del siglo XXI
hasta hoy, que registran el material en tarjetas de memoria y/o en discos rígidos.

También en postproducción el cambio fue muy grande; del trabajo manual que se hacía en
moviola, cortando y pegando innumerables rollos de cinta para completar un armado de
bandas, se pasó a trabajar en sistemas digitales con líneas de tiempo en las que se editan los
sonidos digitalizados.

¿Qué significa que un sonido ha sido digitalizado?

La idea básica detrás del audio digital es la de representar el sonido por medio de números
(“digital” viene de dígito). Esto tiene ciertas ventajas: es mucho más fácil guardar un número
que la magnitud física que ese número representa. Es más sencillo almacenar y duplicar ese
número que un trozo de cinta que lleva campos magnéticos impregnados. Una de las primeras
consecuencias de la aplicación de la tecnología digital al audio fue el desarrollo de sistemas de
almacenamiento del sonido de gran confiabilidad, inalterabilidad y fidelidad. Otra fue el
desarrollo y aplicación de técnicas para el procesamiento de la señal sonora, que permitieron
no sólo el mejoramiento de procesos que antes se llevaban a cabo analógicamente, sino
también la introducción de nuevos procesos, entre los cuales se encuentra una gran cantidad
de efectos tales como retardos, modulaciones, reverberaciones y espacializaciones de gran
realismo y naturalidad, cuya implementación analógica sería mucho más costosa y
restringida.

¿Cómo se digitaliza un sonido?

Para explicarlo, tenemos que abordar el concepto de muestreo (sampling). Las señales
acústicas (y, por lo tanto, las señales eléctricas que las representan) varían en forma continua,
lo que significa que en un intervalo de tiempo dado existen infinitos valores diferentes. Sin
embargo, a efectos del mensaje auditivo, no hace falta tanta información. Primero porque el
oído no tiene tanta discriminación en el tiempo, y segundo porque tampoco tiene tanta
discriminación en la amplitud como para distinguir valores que, por estar muy próximos en el
tiempo, difieren muy poco en amplitud.
Muestrear una señal significa reemplazar la señal original por una serie de muestras tomadas
a intervalos regulares. La frecuencia con la que se toman las muestras se denomina
frecuencia de muestreo (sample rate). El sistema en que se transforman las señales de
audio analógicas en digitales se denomina modulación de pulsos codificados (PCM)

Frecuencia de muestreo

Es evidente que la frecuencia de muestreo debe ser bastante alta, ya que entonces se logra un
grado de detalle mucho mayor, lo cual significa que el sonido será más fiel a la onda sonora
original.

El conversor analógico/digital (A/D) es el dispositivo que almacena cada una de las


muestras, convirtiendo los valores de tensión de cada una de las muestras en números
binarios.
En grabaciones profesionales de la industria audiovisual, la frecuencia de muestreo estándar
es de 48.000 muestras por segundo (48Khz). En música se suele usar la frecuencia de
muestreo que utilizan los CDs de audio, que es de 44.100 muestras por segundo.
Veamos ahora con más detalle el proceso de reconstrucción de la señal. El procedimiento
más simple consiste en obtener, mediante un conversor digital/analógico (D/A), un valor
proporcional al número binario de cada muestra y mantenerlo constante hasta que llegue
una nueva muestra. Este procedimiento se denomina retención simple. La retención indica
que el valor obtenido de una muestra se retendrá hasta la aparición de la siguiente muestra en
donde adoptará bruscamente el nuevo valor Cuanto más grande sea la frecuencia de
muestreo, más cortos serán los intervalos de retención y con ello menos bruscos los saltos de
valor. Una vez reconstruida la señal, se utiliza un filtro de suavizado.

Existe un criterio que debe cumplirse obligatoriamente en todo proceso de muestreo, y es


que la frecuencia de muestreo debe ser mayor que el doble de la máxima frecuencia presente
en la señal. Es decir, si vamos a digitalizar sonidos que pueden contener frecuencias de hasta
20.000 Hz, necesitamos al menos 40.000 muestras por segundo. Esto es a causa de un
teorema llamado Teorema de Nyqvist, que hace referencia a esta regla. De no cumplir la regla,
la onda sonora original puede no ser correctamente representada e incluso incorporar ruidos
no deseados originados por una digitalización deficiente.

Cuantización

La cuantización (o cuantificación) es el proceso en el cual a cada una de las muestras se le


asigna un valor específico relacionado con la amplitud de la señal en ese momento
determinado. El cuantificador tiene una serie de valores de amplitud predeterminados, y cada
vez que se toma una muestra, se le asigna a la misma el valor más cercano al detectado en la
onda sonora analógica.

La cuantización se mide en bits, y cuando le pedimos al conversor analógico/digital que


registre el sonido en mayor cantidad de bits, le estamos asignando más precisión a los valores
de amplitud de la señal. Por lo tanto, su definición en cuanto a la diferencia entre los
sonidos más altos y más bajos en nivel va a ser mayor.

El valor estándar para proyectos audiovisuales es de 24 bits, mientras que en música se suele
utilizar el de 16 bits, simplemente porque ese es la cuantización estándar del CD de audio.
FORMATOS DE AUDIO
Los grabadores o computadoras pueden almacenar o archivar los audios en tarjetas de
memoria o discos rígidos. Esto lo hacen a través de una codificación. El codec que
usarán estos archivos es un algoritmo5 matemático, encargado de de efectuar la
codificación y decodificación de los datos. Por lo tanto cuando se almacenan los archivos, lo
hacen a través de una extensión como todos los archivos digitales (por ejemplo .doc, .jpg, .mov,
.mp3, etc). Los codec o algoritmos pueden almacenar la información mediante compresión
(con pérdida de información o sin) o sin compresión.

La ventaja de los archivos con compresión es que ocupan menos peso, pero la desventaja es
la pérdida de información y por lo tanto calidad. Esta pérdida puede ser grande o chica. En
audio, los formatos más comunes sin compresión son .wav, .bwf. , y
.aiff . Los formatos más comunes con compresión son .mp3 y .flac.

WAV

Es un formato de archivo de audio digital, diseñado por Windows, para Pc. Pero en la
actualidad, también es compatible con los dispositivos de Apple. Soporta resoluciones de
8,16,24,32 y 64 bits. La frecuencia de sampleo puede ser hasta 192 Khz.

No utiliza compresión, por lo tanto son audios que conservan su calidad (si es alta o baja, va
a depender de la velocidad de sampleo y de la cantidad de bits en los que se grabe este
audio).

BWF

Es un formato desarrollado a partir del wav. Broadcast Wav File. Puede transportar
codificación de audio MPEG, eso incluye los metadatos necesarios para el intercambio entre
las emisoras de televisión Broadcast. No utiliza compresión.

AIFF

El Audio Interchange File Format fue desarrollado por Apple. En la actualidad es compatible
con pc. No utliliza compresión y tiene la misma calidad que el wav. Existe la variante AIFF-C
con compresión.

5
Algortimo: Es una serie de instrucciones, pasos o procesos que llevan a la solución de un determinado
problema
FLAC

Free Lossless Audio Codec. Es un archivo que se almacena con compresión, pero sin pérdida
de información. Por lo tanto, son más livianos en cuanto a su peso, pero no sufren pérdida de
calidad. Soporta de 4 a 32 bits y la velocidad de sampleo puede ser de 1 a 65535 Hz. Su uso se
está popularizando cada vez más; pero no es del todo recomendable, ya que no todos los
programas de edición y/o reproducción lo pueden reconocer, y es necesario convertirlos a
wav o a aiff para poder utilizarlos.

AC-3

Este es el formato que se usa en la televisión HD, o para la transmisión de audio en


5.1 canales. La resolución es de 20 bits y la velocidad de sampleo puede ser de 32, 44.1 o 48
Khz.

MP3

Es uno de los formatos más conocidos en internet y transmisiones de audio en streaming. Las
velocidades de sampleo más comunes son 22.5, 32, 44.1 y 48 Khz. Es un formato que
comprime con pérdida de información, para así conseguir un audio con poco peso. En la
actualidad se puede elegir la calidad de compresión, pudiendo obtener
un audio de muy poco peso a muy baja calidad (128 Kbit/s)6 o un audio con una
calidad un poco superior y con un peso superior (320 Kbit/s). De todas formas no llega a
tener las características de un wav u otro archivo sin compresión. Un MP3 de alta calidad
puede resultar útil, por su poco peso, para algunos sonidos muy puntuales, pero su uso no es
recomendable para uso profesional en sonidos protagónicos.

6
Kbit/s es la tasa de bits por segundo. Es la velocidad de transferencia de datos
TIME CODE

Código de tiempos SMPTE/UER

En 1969 la SMPTE (Society of Motion Picture and TV Enginneers) y la UER (Union de


Broadcasters Europeos) estableció un comité para ofrecer un estándar de intercambio entre
formatos de vídeo y audio y un sistema estable de identificación de cintas. Surgió así el
código de tiempos TC SMPTE/UER que se graba en la cinta utilizando un código digital.

Es un sistema que genera horas, minutos, segundos y fotogramas (24, 25, 29.97, 30) y que se
graba de manera digital, es decir en números binarios.

El TC tiene su origen en la identificación de los cuadros (frames) de una cinta de vídeo, tiene la
precisión de al menos un cuadro de vídeo (frame) y permite la sincronización entre equipos
de vídeo y/o audio.

Frame rates

- El SMPTE puro es el sistema americano. Trabaja con 30 cuadros por segundo.

- El SMPTE "drop frame" o "con eliminación de cuadro" es el propio del sistema de


video NTSC de los EEUU. Trabaja a 29.97 cuadros por segundo. Para conseguirlo el
código trabaja realmente a 30 cuadros por segundo, pero los dos primeros cuadros de
cada minuto que no sea el 00, 10, 20, 30, 40, y el 50 no se cuentan -se eliminan- (es
decir, que por ejemplo después de 00:53:59:29 pasamos a 00:54:00:02).

- El EBU (European Broadcast Union) es el propio de los sistemas de video PAL y


SECAM. Trabaja a 25 cuadros por segundo. Es el habitual en Europa y a veces se lo
denomina SMPTE/EBU.

- Finalmente, en cine se utiliza código de 24 cuadros por segundo.


Uso y configuraciones del TC

Cuando trabajamos con código de tiempos además de configurar los cuadros necesarios para
nuestro proyecto podemos emplear al menos dos tipos de configuraciones de trabajo.

- TC REC RUN. El generador de código sólo marcha cuando la máquina está grabando.
Es por tanto un código continuo y consecutivo. Por ejemplo, grabamos empezando
desde 00:00:00:00 y cuando terminamos de grabar la máquina se para en
00:06:00:00. Cuando reanudemos la grabación, la máquina retomará el TC anterior y
continuará en el 00:06:00:00.

- TC FREE RUN. Configuración con la hora del día. Siempre genera código aunque no
se esté grabando, por lo tanto obtenemos un código discontinuo. Aquí marcamos
como TC una señal horaria. Por ejemplo, grabamos coincidiendo con la señal
horaria de las 12:00:00:00 y cuando terminamos de grabar la máquina se para en
12:06:00:00. Hemos parado de grabar pero el reloj evidentemente sigue corriendo
por ello, cuando empecemos a grabar de nuevo el TC continuará según la hora en que
empecemos por ejemplo las 12:45:12:00.

TC en sonido directo

La utilización del sistema de registro doble en cine (imagen por un lado, y sonido por otro)
hace imprescindible el empleo de un sistema de sincronismo.

Planificando el uso de time code en preproducción, y con todas las partes involucradas
respetando durante el rodaje las decisiones tomadas previamente, puede aumentar mucho la
eficiencia del proyecto, y disminuir considerablemente los tiempos de trabajo.

Cabe notar que la cámara está equipada con un motor referenciado a un cristal de cuarzo, y
que el time code de la pizarra (claqueta/slate) y el grabador deben coincidir, aunque
están ambos referidos a su propio oscilador de cristal. Entonces, su velocidad depende de la
precisión de sus osciladores, pero también debe haber un momento de "ajustar los relojes"
para que tengan un mismo tiempo de comienzo. Esto se consigue por medio del "jam sync".
Como el grabador y la pizarra deben estar desconectados entre sí por un buen tiempo, mucho
más que lo que dura una toma, los osciladores de cristal de cuarzo en ambos, deben ser
mucho más precisos que en los casos en que simplemente se depende del cristal de cuarzo
interno de cada equipo (como es el caso en los rodajes en los que no se emplea time code). Lo
que se suele hacer es un re-jam del sincronismo (rejam sync) algunas veces por día, para
asegurar un sincronismo exacto entre la claqueta electrónica y el grabador de sonido.
Para conseguir esa sincronía entre audio y video es necesario disponer de un aparato
-generalmente un magnetoscopio- que denominamos master, de uno o más aparatos
-generalmente multipistas de audio- que denominamos esclavos (slaves). El master es el
que tiene el código de tiempo que gobierna los esclavos; la función de éstos es siempre la de
seguir el código que en cada momento esté reproduciendo el master -o sea, posicionar sus
sistemas de transporte, reales o virtuales, en el punto que indica el master.

Llegados a este punto, es importante aclarar que no todos los grabadores de sonido tienen la
posibilidad de Time Code. Hoy en día, y desde la digitalización del sonido, hay cada vez más
opciones para grabar sonido en términos de portabilidad así como también razones
económicas. Son muchas las marcas que orientan sus productos a equipos de sonido para un
mercado no profesional o semi profesional. En estas categorías podrían pensarse los
grabadores que no puede manejar una señal de time code y eso no quiere decir que sean
inservibles sino que no son aptos para un rodaje profesional de cine o televisión.

También podría gustarte