Está en la página 1de 13

El Diseñador de sonido:

Entre las tareas de un diseñador de sonido, se encuentran planificar, crear, y


lograr que los sonidos tengan una línea narrativa propia. Al intentar crear un
sonido nos encontramos con innumerables posibilidades, desde elementos
digitales virtuales, hasta objetos reales grabados. En cuanto a los elementos
virtuales (como elementos de creación de sonidos) nos encontramos con los
sintetizadores (que también existen analogicos) con los diferentes tipos de
síntesis: aditiva, substractiva, granular, etc. todo presentando muchisimas
posibilidades de creación, al igual que los elementos grabados, editados,
procesados y mezclados.

En la industria cinematográfica de EEUU, se llama Sound Designer al


responsable de la planificación y realización de ciertos sonidos específicos de
una película. No es el creador de las músicas, ya que de esta tarea se
encargará el Músico, pero deberá tener conocimiento y criterio musical para
relacionarse con el músico, para trabajar de manera conjunta.

Walter Murch (originalmente Montajista), fue el primero en ser denominado


con este título, por su trabajo en la película Apocalypse Now de Francis Ford
Coppola, en 1979 (http://www.imdb.com/title/tt0078788/) En este film
fue el responsable del montaje y el trabajo meticuloso aplicado a la creación de
las bandas de sonido, hizo que el director considerara que había aportado
tanto al clima y la historia de la película, que no podía ser llamado solo
"Sonidista"

La palabra diseño sonoro suele ser utilizada para referirse al acto creativo de
sugerir ideas para una obra cinematográfica, televisiva, teatral o multimedial.
En esta línea, se suele pensar en el diseñador de sonido, como el creador
estético de este elemento narrativo audiovisual. Pero si ahondamos en el
significado de la palabra "Diseñador" encontraremos que diseñar se refiere a
un proceso que implica Programar, Proyectar, Coordinar, Seleccionar y
Organizar una serie de factores y elementos con miras a la realización de
objetos. Algunos de estos pueden estar destinados a producir comunicación.
Las funciones básicas del sonido en la
cadena audiovisual son las siguientes:
Reunir: El sonido como elementos unificador de imágenes dispersas, se
puede reunir en el tiempo y en el espacio. En el tiempo a través del efecto de
encabalgamiento u overlapping, o lo que es lo mismo, mantener una música en
un cambio de plano. En el espacio la música engloba todas las imágenes en
una misma unidad.

Puntuar: Dar un especial relieve a una imagen concreta mediante la


subrayación de la imagen con un efecto sonoro o una música.

Anticipar: Según la capacidad de vectorización de la música, se puede llevar


al espectador en una línea previsible de acción. Creando una espectativa que
será confirmada o negada por el paso posterior.

Separar: Generalemente se da esta función con el silencio, pero no con un


silencio creado a partir de la simple supresión de la pista de audio. El silencio
absoluto no existe. Así que lo correcto sería referiste al silencio como
“sensación de ausencia de sonido”. Se hace, pues, con el sonido del silencio.
Por lo tanto, el silencio existe como elemento expresivo, pero no desde el
punto de vista de la acústica..
Punto de escucha

Punto de escucha en sentido espacial: ¿desde donde oigo?, ¿desde qué


punto del espacio representado en la pantalla o en el sonido?

Punto de escucha en sentido subjetivo: ¿Qué personaje , en un momento


dado de la acción, se supone que oye lo que yo mismo oigo?

MÁS ALLÁ DEL PUNTO DE VISTA

¿Punto de vista = Punto de escucha?

Con el objeto de determinar lo que es el efecto o proceso correcto para el


Diseño de Sonido, es muy importante empezar separando el punto de vista del
punto de escucha. Es más, es crucial empezar pensando en la noción de punto
de escucha. Los cortometrajes o primeros proyectos de la mayor parte de los
estudiantes, carecen de esta independencia entre lo que se ve y lo que se oye.

Tomemos un ejemplo de Corazón Satanico de Alan Parker; después de la


entrevista con el personaje de De Niro (Louis Cyphre), el detective privado
Harold Angel (Mickey Rourke) está viajando en automóvil intentando encontrar
las pistas sobre la desaparición del cantante Johnny Favorite. Esta corta
secuencia está compuesta por unas pocas tomas; un plano largo del automóvil
en el camino, uno mas cercano mostrando a Harold Angel a través del
parabrisas y otra toma más larga, hasta que el automóvil llega a un edificio
que se encuentra a un lado del camino (la institución dónde estaría internado
Johnny Favorite). Cuando vemos el plano largo del automóvil circulando a lo
largo del camino, escuchamos el motor del auto, un silbido -Harold Angel
silbando lo que eventualmente se reconocerá como el leitmotif de Johnny
Favorite-, algún sonido ambiente (un viento apenas percibido), y la música
característica -el saxofón de Courtney Pine tocando el mismo leitmotif de
Johnny Favorite, arreglado por el compositor Trevor Jones-. Cuando vemos la
toma de acercamiento del automóvil, todavía se escucha el silbido – al mismo
volumen que en la toma anterior -, el ruido del motor –sólo un poco más alto -
, y los sonidos subjetivos de Harold Angel (una especie de resonancia
retrospectiva de una entrevista de la secuencia anterior). ¿Por qué no cambia
el sonido del silbato mientras que el del automóvil lo hace? Porque el sonido
del motor del automóvil está enlazado al punto de vista de la cámara, mientras
que el del silbato se relaciona a un punto de escucha independiente. El público
está acostumbrado a estos tratamientos, pero la mayoría de los directores
noveles y sus equipos técnicos no se dan cuenta de que pueden poner sonidos
a otras cosas diferentes de aquellas que son visualizadas en pantalla.
El sentido común dicta que esto no es correcto -o al menos lo considera un
poco extraño-por el hecho de que tendemos a hacer audible lo que se ve, sólo
prestando atención a las relaciones y proporciones de; distancia / volumen y
rango / reverberb (o cualquier otro dispositivo usado para estimular la
ambientación), y así sucesivamente. Éste es el caso del sonido del motor del
automóvil, claramente lejos de la cámara y atravesando el marco mientras
transita de un lado al otro, de derecha a izquierda. Es también el caso de la
densidad del sonido ambiente del camino (el viento o simplemente la presencia
de aire que rodea al auto). Pero no es el caso del silbido de Angel, ni los
sonidos subjetivos. La paradoja interesante aquí es que el sonido que provine
de adentro del automóvil no cambia –y se oye a un mismo nivel que el del
motor o aun más alto – mientras que el vehículo que contiene a la persona que
está silbando, si lo hace (focalizándose en la perspectiva de sonido).

Cuando el punto de escucha es igual al punto de vista (a.k.a. la ilusión de la


cámara y micrófono “armonizados” y ubicados en un mismo lugar), el sonido
DEBE ser afectado, atendiendo a la proporción distancia/volumen, el nivel de
ese sonido debe cambiar cada vez que la distancia desde la cámara cambia;
del mismo modo lo hará el volumen del sonido ambiental y la presencia o
ausencia de reverberb, eco, etc. ¿A qué sonidos podemos aplicar un punto
de escucha diferente? En la teoría, a cualquier sonido imaginado, pero
principalmente a los humanos, o a aquellos que se relacionan o que provienen
de los personajes (como por ejemplo, Tripio o Arturito en las Guerras de las
Galaxias). Mientras que las cosas u objetos, debido a su calidad de “no vivo” o
por lo menos “no vivo” para la narración, están atados a su continente (la
pantalla, la cámara en que están encuadrados), los sonidos humanos o de
personajes están más allá de ese estatus y pueden estar presentes a su
“propia manera”, por decirlo de algún modo. Los personajes pueden sujetarse
a lo que se necesita para la narrativa o a cualquier otro propósito estético,
usando algo más que su propia presencia en escena. Podemos tomar como
ejemplos a aquellos pensamientos que pueden ser escuchados
independientemente de la ubicación del personaje; palabras no sólo del
narrador, sino también emitidas desde fuera del espacio de pantalla (aún uno
muy distante), o sólo el latido del corazón de un personaje tratando de
desensamblar una bomba. Todo lo que se oye y no necesariamente es visto,
nos hace pensar en una independencia derivada del mencionado punto de
escucha apartado del punto de vista.

Los Sonidos Subjetivos

Esta posibilidad de independencia brinda una apertura al Diseño de Sonido


hacia otras libertades y hacia un uso más flexible del mismo, como parte del
estilo cinematográfico. Mientras que el cine está compuesto por elementos de
naturaleza diversa, la disparidad inherente a estos mismos permite un
tratamiento diferencial. Por ejemplo, pensemos de nuevo en los sonidos
subjetivos de la secuencia de Corazón de Ángel. Los fragmentos de frases
dichos por Louis Cypher durante la entrevista en una escena previa, surgen
libremente de la mente del personaje -Harold Angel-, quién está
supuestamente recordando. Se escuchan a lo largo de los planos cortos y
largos sin ninguna variación de volumen. ¿Cuál es, entonces, la diferencia
entre el silbido y estos recuerdos? La naturaleza de los efectos aplicados con
respecto a la naturaleza de los espacios reales y virtuales de dónde provienen
estos sonidos.

El silbido es independiente del rango de distancia / intensidad, pero no es


independiente de la integración al espacio dónde se localiza. El silbido nace del
interior del automóvil, por lo tanto el proceso se relaciona con la reproducción
de este pequeño espacio. Con independencia de cuál es exactamente la
reverberb utilizada para lograr este propósito (un algoritmo de un pequeño
cuarto, o simplemente la presencia del aire del espacio del estudio de
grabación, posicionando el micrófono a una cierta distancia del hombre
silbando), está claro que tenemos que integrar este sonido al espacio físico del
cual emana. Los sonidos subjetivos -en el caso que nos ocupa, sonidos que
salen de la mente- poseen una mayor independencia, por el hecho de que la
mente es un lugar virtual, considerando que el automóvil es una simulación de
un espacio real, y por esta razón, no se relacionan con ninguna dimensión
acústica específica. Ni siquiera con las dimensiones acústicas del espacio dónde
estos sonidos fueron una vez producidos: ese espacio real es invadido por este
espacio “nuevo” y virtual; en otros términos, los efectos aplicados por esta
representación de la mente estarán más manifiestamente expuestos que la
sutil reproducción del espacio del cuarto dónde la entrevista fue llevada a cabo.

Los sonidos subjetivos son procesados con efectos ligeramente exagerados


(como reverberbs artificiales) para no ser confundidos con ningún otro sonido
de la escena.
Las reverberbs que se utilizan para reproducir los distintos espacios, son
programadas en determinadas frecuencias, acordes a la naturaleza de estos
mismos. Por ejemplo, un vestíbulo cálido, cargado de mobiliario de madera,
con alfombras y cortinas, no muy refractario y por consiguiente no “metálico”
por las pocas frecuencias señales que pueden percibirse, carecerá de una
reverb que reproduzca frecuencias altas. Estas decaen mas rápidamente que
las reverbs de frecuencias más bajas, las que no presentan sonidos de tono
muy alto; como consecuencia se produce una ausencia de calidad metálica y
por consiguiente, el sonido global es más cálido. Para hacer esto posible, los
dispositivos de reverberancia tienen el parámetro hi-damp o hi-decay: los
valores positivos hacen que las frecuencias más altas reverberadas se extingan
más rápidamente que las bajas. Otro parámetro para programar es el cutoff,
se trata de un filtro que determina qué frecuencias atraviesan la reverberb y
cuáles son cortadas (inclusive no son escuchadas en absoluto sin atravesar el
mecanismo). Si el cutoff está seteado en 5 kHz, esto significa que las
frecuencias sobre esta marca (y hasta 20 kHz, el umbral de audición) quedan
segadas.

Las reverbs aplicadas al sonido subjetivo son más artificiales que las que
acabamos de mencionar. Son menos naturales, por el hecho de que la idea es
reproducir un espacio imaginario, y más aún, tener claramente separados los
espacios reales de los virtuales. Estas reverbs normalmente presentan
frecuencias más altas o bien los parámetros principales –tiempo de reverb,
pre-delay– son seteados a un valor un poco recargado. A menos que nos
encontremos dentro de una piscina vacía o de una cámara frigorífica, grande y
metálica, la mayoría de los espacios carecen de la presencia de frecuencias
altas agudas. Cuando usamos reverbs que no cortan las frecuencias altas, y en
pantalla estamos viendo un espacio habitual (no una nave espacial o un iglú),
el proceso aplicado nos hace pensar en otro espacio, un espacio que no
corresponde al ambiente acústico exhibido, en otras palabras en diegesis
(todos los espacios del mundo de la ficción).

Aunque la reverberb artificial es el procesador más común en los sonidos


subjetivos, la independencia total entre los diferentes tipos de espacio y la
proporción distancia/volumen, las hace más accesibles que casi cualquier otra
combinación de efectos o tratamientos exóticos.

En El Gran Lebowski de los hermanos Coen, hay una escena dónde Jeff
Bridges (Lebowski) está hablando con Ben Gazzara (el gángster), mientras
toman unos tragos y escuchan música. La bebida está colmada de pastillas
para dormir, y notamos eso no porque hayamos visto el momento en el que el
gángster puso la droga en ella, sino porque lentamente el sonido revela una
distorsión de percepción que nosotros debemos adjudicar al peculiar efecto de
la ingesta de la bebida. En lugar de agregar una reverb, el diseñador de sonido
o el re-recording mixer agregó una combinación de delay más una especie de
pitch shifter, ring modulator o flanger extremo (el resultado podría ser
producto de diversas programaciones de estos efectos o combinaciones
diferentes de algunos o todos ellos).En un punto de la conversación, todos los
sonidos de la escena empiezan a ser procesado por la mente de Lebowski: la
música parece cambiar; las voces se repiten (como algo a través de un pulso
de delay); el fin de cada frase parece ser pitch o “flanging”, y así
sucesivamente.

En Rescatando al Soldado Ryan de Spielberg, cuando Tom Hanks


desembarca en una playa de Omaha, las explosiones lo dejan temporalmente
sordo; en lugar de suprimir los sonidos, los escuchamos todos (explosiones
distantes, profusión de balas, gritos) pero filtrados a través de un filtro lowpass
cuyo cutoff está seteado para cortar casi todo el sonido. Para representar la
opresión de la situación, la imagen se retarda ligeramente: una sutil cámara
lenta reforzada sonoramente por la suma de frecuencias extremadamente altas
y bajas, se mezclan a lo largo de los sonidos de guerra depurados. Un caso
similar es aquel de Amada Inmortal, de Bernard Rose, dónde la sordera de
Beethoven se reproduce cortando sonidos de la escena, y agregando
frecuencias acentuadamente altas y bajas, más un heartbeat que apenas se
percibe, y que simboliza el ser interior del personaje.

Como vemos, los sonidos subjetivos son una fuente interesante para
experimentar diferentes aproximaciones. Son los sonidos más flexibles en
referencia con este tipo de procesos, por el hecho de que pueden imaginarse
de muchas maneras. Sin embargo, la regla para ellos será no confundirse con
ningún otro sonido presente en escena; deben ser no-realistas, no porque no
estén sucediendo o simplemente provengan de la mente de una persona
alienada, sino porque no tienen que confundirse con el espacio real que
produce el resto de los sonidos.

Heartbeats

Desde su uso en el teatro y en programas de radio, los heartbeats (latidos de


corazón), son uno de los efectos más dúctiles en el diseño de sonido. Debido a
su proliferación desde las etapas más tempranas del cine sonoro, allá por los
años 30, pueden traducirse en formas muy diferentes. Es muy importante
saber de donde provienen para determinar cuál es el proceso de aplicación
apropiado.

Cuando vemos a un agente que intenta desensamblar una bomba, podemos


agregar un heartbeat para hacer que el público escuche la tensión interna. En
este caso estaríamos escuchando el corazón real, por lo que el tempo creciente
del heartbeat sería suficiente para representar el estado de crisis y la tensión.
Este tipo de heartbeat corresponde al sonido interior del personaje, sonidos
que vienen del cuerpo. Para este propósito, una simple compresión debe ser
suficiente, cuidando el EQ, o aplicando un filtro lowpass, para nivelar la calidad
de este sonido con el resto. Los heartbeats están, en la mayoría de los casos,
tomados de archivos de sonido, por lo que resultan limpios, claros, y agudos.
Aunque esto puede ser de ayuda, si la diferencia entre estos y el resto de la
mezcla es grande, el público podría percibir ese sonido como no integrado o
quizás lo aprecie como de una calidad inferior.

En el caso en que el heartbeat sólo se oye cuando un médico está escuchando


a través de un estetoscopio, este se ata a un punto específico de escucha que
es el del doctor. Aquí, el sonido es subjetivo, en la medida en que su escucha
es arbitrada por los oídos del personaje y, eventualmente, por su experiencia
profesional. Desde este momento el sonido subjetivo se relaciona con un
medio específico (el estetoscopio), y por lo tanto debemos reproducirlo sin las
exageraciones de los otros tipos de sonidos subjetivos. Tenemos que cuidar la
coincidencia entre los oídos del médico y el sonido del heartbeat; debe ser muy
ajustado, y no muy fuerte o comprimido. La suma opcional de alguna reverb
deberá implementarse cuidadosamente, ya que la idea es presentar el sonido
como algo relacionado con la intervención del doctor, no como una
manifestación de la tensión del personaje, ni como algún tipo de estado
emocional o cuestiones imaginarias. Esta versión del heartbeat se define más
por el contexto que otras, y se trata más de lo qué no deberíamos hacer que
del cómo deberíamos aplicar este dispositivo.
La extensión del espacio fuera de pantalla

Otra manera de considerar el punto de escucha independiente es


superponiendo una escena sonora a una escena audiovisual. En la mayoría de
las acciones paralelas tenemos la oportunidad de montar el sonido de una de
ellas al resto de la secuencia. Cuando visualizamos esta parte, vemos y
escuchamos todo saliendo de la pantalla, pero con el agregado de sólo una de
las líneas en paralelo. Pensemos en la famosa secuencia del bautismo El
Padrino. Esa secuencia es la clave del significado de la totalidad de la película,
y el sonido ayuda a desarrollarlo. La película comienza con la frase "creo en
América, siempre he sido un patriota." Luego vemos a Michael Corleone
(Pacino) al aire libre llevando un uniforme militar, por lo tanto, él es un
patriota y cree en América. Pero luego, él creerá en el “Pater” o Patria, Sicilia,
y entonces cree en su padre y El Padre (Dios). Recordemos que la secuencia
de apertura se basa en un casamiento. Esta pareja tendrá un niño, el pequeño
Michael Rizzi (en la vida real ese bebé es Sofia Coppola), quien no por
casualidad va a ser bautizado, y no por casualidad será llamado Michael, como
su tío Michael Corleone (quién en el futuro será El Padrino). ¿Qué es lo
grandioso de todo esto? Lo grandioso es el sonido fuera de pantalla: al
principio de la secuencia escuchamos el sonido ambiente de la iglesia, un
órgano, y los lamentos del bebé. Luego oímos las palabras del sacerdote,
hablándole a ambos Michael. Asumimos que la música del órgano es diegética,
pero en la segunda parte de esta secuencia -cuando todos los asesinos están a
punto de matar a los "cinco padres" - la música se convierte en una música de
órgano que es imposible de relacionar con un bautismo. De modo que, de
pronto, la música es no-diegética, mientras que el público reacciona
emocionalmente sin notar esta manipulación. Finalmente, el sonido fuera de
pantalla de las voces del sacerdote y de Michael se ensambla a todas las
escenas de asesinato que se intercalan. El ritmo de la ajustada edición de las
tomas, el ritmo creciente de las palabras del sacerdote, el bebé que comienza
a gritar y los demás recursos, ganan nuestra atención. El fin es antológico,
porque escuchamos "Michael, eres bautizado... en el nombre del Padre, del
Hijo, y del Espíritu Santo....", intercalado con las imágenes de muerte. Todo
esto desarrollado a través de los distintos significados de la palabra Padre;
Patriota = Pater = el padre = la Patria, sacerdote = Padre, el “Padrino de
bautismo” = el Padrino, y el padre del niño que será asesinado mas tarde.

La grandeza del sonido de El Padrino se relaciona al uso de la música y el


sonido fuera de pantalla, incluyendo el bizarro pasaje del Acorazado
Potemkim de Eisenstein: cuando vemos desde un ángulo bajo los grandes
escalones dónde se comete una de las matanzas, el bebé (aquel de la iglesia,
ya no más un bebé en estos escalones) comienza a gritar de nuevo, y el
famoso bebé de Potemkin está allí presente, aunque no en forma de imagen,
sino desde lo auditivo.

Aunque mencionamos la importancia simbólica de esta secuencia, algunas


cuestiones técnicas deben señalarse. Cuando trabajamos con un simple sonido
fuera de pantalla, desde la interrelación de dos personas hablando, por
momentos la imagen de una de ellas y la voz de la otra (temporalmente no
vista), hasta un ladrido o aullido muy lejano en una escena de exterior en una
película de terror, estamos maniobrando con un sonido fuera de pantalla ligado
a las reglas físicas: lo que está distante tiene menos volumen; lo que esta
cerca tiene uno mayor. Pero cuando superponemos el audio de otra escena, no
es en absoluto necesario cambiar el volumen de los elementos superpuestos.
Si variamos los volúmenes podríamos hacer que el público piense en ambos
espacios como uno cercano al otro, y la idea de la extensión del sonido fuera
de pantalla es hacer pensar exactamente lo contrario. Una cosa que pasa en
un lugar está “sonicamente” conectada con otra cosa que pasa físicamente
muy lejos y, de alguna manera, desconectada. Si Coppola hubiera editado la
secuencia del bautismo en un modo lineal, evitando la doble edición y
poniendo el bautismo primero y luego los asesinatos, la mayor parte de los
significados no se percibirían. Superponiendo los sonidos de la iglesia al resto
de la acción, estamos reforzando esas conexiones e incluso estableciendo
nuevas. El volumen constante, entre otras características del sonido
superpuesto, nos hace pensar permanentemente en el significado simbólico de
“esto” en relación con “aquello.” No es sólo una cuestión de no confundirse
entre los guiones, sino también una cuestión de lo que es permanente y lo que
se va modificando, quizás cambiante a partir de la misma influencia de lo
permanente.

En Amadeus de Milos Forman, hay otro ejemplo interesante de este uso del
sonido fuera de pantalla. Cuando Mozart está componiendo el Requiem, con la
ayuda de Salieri, escuchamos los sonidos subjetivos de ambos pensando en la
música que están escribiendo. Pero cuando Mozart está cotejando todo lo que
él ha escrito, no lo vemos, y en cambio observamos una diligencia que viaja
por el país. Esta diligencia, el símbolo sutil de la muerte que viene a recoger a
Mozart, es la que transporta a su esposa y su hijo. Por un momento pensamos
que la música ya no emana de la mente del compositor y se torna en una
música no-diegetica; pero de repente, la edición introduce una acción paralela
entre la diligencia y Mozart que canta su propia música, por encima de la
versión orquestal que es imaginada por el compositor y Salieri. La segunda vez
que se ve la diligencia, distinguimos su interior y a la esposa de Mozart y a su
hijo. En ese momento, la voz de Mozart que canta (casi susurrando) “Voca yo
el benedictis del cum” (Llámeme entre los benditos), se superpone a las
imágenes de la familia como una extensión del espacio fuera de pantalla. Así
Mozart parece rogar a su esposa que vuelva a casa y lo rescate del dolor y la
enfermedad. Mantiene los mismos volúmenes a lo largo de las tomas, la voz de
Mozart “invade” el espacio de la diligencia de la misma manera en que la voz
del sacerdote invadía el espacio de las matanzas en El Padrino.
Paralelos: Tiempo Real contra Progresión de Edición / Diegético contra
No-diegético

En Se7en de David Fincher , tenemos esta secuencia en la que se plantea


una comparación entre la manera en que Morgan Freeman se maneja con un
nivel más profundo de comprensión de la mente del asesino serial, y el más
superficial, más "instintivo" modo en que lo hace Brad Pitt. El personaje de
Freeman busca las fuentes en una biblioteca durante sus horas libres, mientras
el de Pitt está en su casa. Al principio, Freeman entra al edificio de la
biblioteca, y ve al grupo de sujetos de seguridad jugando al poker. Él dice
"todo este mundo de conocimiento... y todo lo que hacen es jugar al poker
toda la noche." Uno de los tipos se acerca a un reproductor de CD, pone play,
y le dice "usted qué piensa de esto como cultura...." La famosa ARIA en G para
cuerdas de Bach, de la Suite para orquesta Nº3, suena desde una fuente que
está en escena. Parece obvio, pero es una buena opción; el guardia no es
sofisticado; simplemente no es tan poco profundo como Freeman lo considera.
Nosotros escuchamos esta música que viene de la escena. La fuente está allí,
diciéndonos no sólo a qué distancia estamos del reproductor de CD sino que
también nos ofrece otro sentido del espacio en el que estamos envueltos, a
través de los ojos de Freeman.

Las diferencias de reverb e intensidad son suficientes para darnos esa idea, y
se percibe fácilmente en la película. Freeman empieza a buscar entre los libros,
el proceso de la edición también lo hace... Desde un gran angular hasta un
acercamiento, todo pasa lentamente de más grande a más pequeño, menos
revelador a mas detallado, de tomas mas largas a mas cortas, etc. ¿La
música? La música permanece con el mismo ritmo; siempre allí, sólo con el
agregado de un poco más de reverb y algo menos de intensidad (apenas
notorio, aunque presente). En un momento dado, la cámara muestra un primer
plano corto, con un deliberado fuera-de-foco, sobre uno de los libros. Esto le
permite al editor introducirnos en el montaje paralelo, y cortar a la cara de
Brad Pitt. Él no está mirando libros como el Paraíso Perdido de Milton o la
Divina Comedia de Dante, sino repugnantes fotografías de las víctimas. La
secuencia continúa, pero ahora mezclando elementos de un lugar y del otro. El
proceso de "aceleración" es muy sutil, porque el recurso que utiliza el editor es
un acercamiento a los pies en la fotografía, un corte a los pies de Freeman, y
también una aproximación a los objetos de la biblioteca y de la casa (como por
ejemplo, los movimientos de la fotocopiadora, las páginas de los libros o
inclusive las cartas) y, finalmente disuelve las pinturas de Gustav Dore entre
las páginas, acoplándolas con algunas cosas que vemos en las fotografías o
luego veremos en la trama, como la cabeza seccionada de una persona.
Cerrando la secuencia, vemos a Brad Pitt agotado, dormido delante del
televisor; corte a la cara de Gwyneth Paltrow, su esposa, mirándolo
tiernamente; corte… el hombre en la biblioteca que se dirige hacia Freeman,
un acercamiento hacia Pitt nuevamente, como vimos al principio de la
secuencia, y se lo escucha decir, "Sabe, usted va a extrañarme", y Freeman
contesta, "quizá podría...." Qué solitario está, qué exánime, viejo, cansado, y
fuerte (en oposición, Brad Pitt que es joven, tiene una esposa y es amado, está
físicamente extenuado). La secuencia acaba con la carta y copias de los libros
que Freeman preparara para Pitt, y lo vemos acercarse a la mesa de trabajo de
Pitt en el departamento de Policía al alba -vemos la luz del sol brillando desde
las ventanas distantes-. Al fin, observamos el nuevo día (miércoles) a través
de un “God shot”, la cámara volando a través del cielo que muestra el
comienzo del día en la ciudad, y a Brad Pitt dentro de su automóvil, abriendo el
sobre que Freeman le dejó. Exactamente en este punto escuchamos el ruido
del sobre y percibimos que la música cesa. Pero se detiene exactamente en el
momento en que el último acorde esta terminando. En consecuencia, tenemos
más de dos línea paralelas: primero, la analogía/comparación entre Freeman y
Pitt; segundo, la progresión y aceleración en tiempo y edición, vs. el tiempo
real que sigue la música y finalmente, en los aproximadamente cuatro minutos
que dura la pieza de Bach, toda la noche ha pasado. De modo que la música
empezó en la escena pero en algún punto la abandonó, para convertirse en
música no-diegética. ¿En qué punto exactamente? En el momento del fuera de
foco anterior al corte sobre la cara de Pitt. Antes de ese momento, todo lo que
sucede a la vista y desde el sonido estaba dentro del dominio del tiempo real.
Después de eso, la música nos hace percibir su propio ritmo y tiempo real,
mientras que el montaje está comprimiendo el tiempo para pasar la noche en
el lapso de los últimos 3 minutos de la pieza musical. El acto de presionar el
botón de play del reproductor de CD introduce la música; la apertura del sobre
enmascara el imaginario "stop" producido por el editor de sonido o por la
música. La lluvia y los papeles nos distraen del pensamiento de qué cosa es la
que está ocupando el lugar de la música, de modo de que nadie se pregunta
cuándo y cómo la música se volvió no-diegética. De esta manera tenemos dos
percepciones de tiempo paralelas, dos ritmos, dos espacios (subdivididos en
más), dos personajes (no sólo dos actores actores), dos progresiones
diferentes (la evolución del tema musical; la "compresión de tiempo" de la
edición cinematográfica); dos oposiciones entre música e imagen (la primera,
las pinturas y las fotografías frenéticas vs. el carácter callado y pacífico de la
música; la otra, los movimientos lentos, la placidez de la biblioteca y de la casa
vs. los pulsos de la música).

Queda claro, luego de tratar estos casos, que un buen uso de la expansión del
espacio fuera de pantalla desde el sonido tiene que llevarse a cabo bajo la
estrecha colaboración entre el director y el editor. Un editor sensato tiene que
conllevar su entusiasmo, con el objeto de hacer todas estas conexiones
posibles. De no ser así, es muy importante convencer al director. A pesar de
que este es un trabajo arduo, los resultados pueden cambiar completamente la
perspectiva de una secuencia, incluso de la película entera.

Sonidos provenientes de ninguna parte

En su libro Audiovisión, Michel Chion introduce la categoría de ON THE AIR


-sonidos en el aire-. Estos sonidos son aquellos que se transmiten por algunos
medios de comunicación, como walkie-talkies, radios, etc., Pero no sólo ellos
tienen que ser transmitidos sino que también tienen que estar presentes en
escena sin ver la fuente, como si la toma hubiera capturado la transmisión
“pura” dónde estos están. Esto significa que la imagen de un sujeto que
enciende un receptor de radio, o un personaje que escucha la radio del auto no
constituye un caso de sonido “en-el-aire”. ¿Por qué? Porque estos sonidos son
parte del ambiente, la parte del fuera de pantalla (incluso la extensión del
fuera de pantalla), o simplemente un sonido “dentro.” Los sonidos “en-el-aire”
son aquellos de una transmisión pura (como si los dos extremos de la
comunicación debieran estar dentro y nunca fuera del canal del mundo
analógico, por llamarlo de algún modo).
Sonido Interno

Corresponde al interior tanto físico (sonidos fisiológicos-llamados internos


objetivos), como al interior mental(voces ,recuerdos –llamados internos
subjetivos)

Conclusiones: Abrir los oídos

Después de analizar muchos ejemplos y posibilidades de uso de diferentes


tipos de sonido o de disponerlos de diversas maneras, espero haber sido de
ayuda. Comenzando con la independencia del Punto de Escucha y el Punto de
Vista, apenas abrimos un poco una puerta para una futura exploración más
extensa. Pero la puerta más importante que hay que abrir es el oído, y la
mente, que tiende a hacernos pensar que tenemos que hacer audible sólo lo
que se ve en pantalla, con el recurso de la música no-diegética y la voz del
narrador. Para una lectura mas detallada del tema, www.filmsound.org es
un espléndido punto de partida. Hay centenares de artículos de autores como
Walter Murch, Thom Randy, Elisabeth Weis, Michel Chion, y millones de links e
ideas para empezar una investigación apropiada sobre este tema. Por
supuesto, también sugerimos nuestros artículos sobre el Diseño de Sonido en
la sección Kinopraxis de la revista Filmwaves, con un desarrollo más profundo
de algunos de los ejemplos presentados aquí, y otros que pueden
complementar muy bien este esfuerzo por trabajar apropiadamente con el
proceso de sonido y establecer criterios de aplicación de los distintos efectos.

También podría gustarte