Barcelona 1993
Por Joaquín Llorca
LA AUDIOVISIÓN
La interacción entre nuestros ojos y oídos da como resultado algo superior a la suma de sus
partes. El sonido en el cine nos informa sobre qué ocurre dentro y fuera del mundo de los
personajes por medio de la música, efectos y diálogos que se sincronizan (o no) con la
imagen. Espacio y tiempo se ven determinados por la combinación audiovisual.
Normalmente esperamos que sonido e imagen estén sincronizados, pero la yuxtaposición
de estos dos elementos en diferentes formas puede aportar más de un significado a lo que
vemos.
Ojos y oídos
Mirar y escuchar es la manera como recibimos y procesamos la información audiovisual,
pero estos dos sentidos presentan diferencias considerables en su naturaleza:
EL VALOR AÑADIDO
El sonido como complemento funcional
La ilusión audiovisual halla gran parte de sus valores en el “contrato” entre audio e imagen,
el sonido suministra un valor añadido a la imagen de forma expresiva e informativa hasta
hacernos creer incluso, que lo sonoro es algo inútil y redundante. Dicha cualidad funciona
sobre todo en las situaciones sincronizadas (golpes, caídas o explosiones que en la realidad
no suenan como se nos presenta en el cine) permitiendo establecer una relación inmediata
entre lo que se ve y lo que se oye.
EL VALOR AÑADIDO POR EL TEXTO
Vococentrismo y verbocentrismo
Se puede definir con estos dos términos cierta orientación que siguió el cine con la
incorporación del sonido. Se refiere a que la estructura sonora favorece la voz destacándola
de los demás sonidos (hay excepciones como el cine de J. Tati que poco usa diálogos).
Igualmente la tecnología evolucionó a una mejor captura de los diálogos gracias a la calidad
de los micrófonos; la voz como expresión verbal, se volvió fundamental y la tecnología, en
este caso, ha perseguido más que fidelidad acústica, inteligibilidad. Por tanto el
vococentrismo es en realidad un verbocentrismo: primacía del diálogo.
La supremacía de la palabra fue un camino natural de la expresión audiovisual ya que
vivimos de manera verbocentrista en nuestras reacciones cotidianas, reconocemos las
voces por sobre otros sonidos y nos interesamos primeramente en ellas.
Nuestro sentido de la escucha da prioridad a las frecuencias en que se encuentran las
voces, además tenemos la capacidad de ubicar la dirección de procedencia de los sonidos
con apenas 15° de error. Los profesionales lo hacen con tan sólo un desfase de 4°.
De otro lado la capacidad de percibir los diálogos por sobre todo, se traduce en la
posibilidad humana de comprender hasta 30 fonemas en un segundo incluso con el timbre
afectado. Por el contrario un buen músico apenas puede entender y recordar el orden de 10
notas por segundo. Un ejemplo son los mensajes institucionales obligatorios que se ponen
al final de ciertos comerciales donde las frases se alteran para que suenen a toda velocidad
en el menor tiempo posible y aún así las entendemos.
Durante la audiovisión las diferencias de velocidad y análisis no son tan perceptibles debido
al trabajo en conjunto y su valor añadido.
Por ejemplo, en las películas de acción con movimientos visuales rápidos no hay confusión
en el detalle de la acción pues el sonido ayuda a puntualizar su desarrollo con efectos que lo
marcan perceptivamente e imprimen en nuestra memoria una huella audiovisual fuerte.
Así pues, el cine sonoro puede hacer uso de movimientos complejos y fugaces en marcos
visuales saturados debido a la capacidad puntualizadota del sonido que puede destacar un
trayecto visual particular.
La temporalización depende también del tipo de sonidos. Timbre, densidad y textura pueden
animar una imagen en mayor o menor grado. Esto lo determinan diferentes factores:
Naturaleza del mantenimiento del sonido. Un sonido plano y continuo anima menos
una imagen, que uno también sostenido pero vibrante o accidentado.
Una nota de violín continua y lisa crea menos tensión que una con vibrato o trémolo.
Previsibilidad de la progresión sonora. Un sonido que se desarrolla con regularidad
como un bajo continuo o un tic-tac tiende a crear una animación temporal menor que
si la progresión es irregula. La imprevisibilidad pone en alerta al oído. Con todo,
también es posible que un sonido obsesivamente regular y cíclico produzcan tensión
debido a la expectación que crea en su posible resolución.
El tempo. Una música rápida no necesariamente acelera la percepción de la imagen.
La temporalización depende más de la regularidad o irregularidad del flujo sonoro.
Por ejemplo, si el flujo de las notas musicales es inestable pero con un tempo
moderado, la animación temporal será mayor que si el ritmo es rápido pero regular.
Definición del sonido. Las frecuencias agudas expresan más alerta y mantienen la
tensión.
Linealización temporal
Es la capacidad que tiene un sonido realista y diegético de imponer un tiempo real a
imágenes que no expresan de por sí un encadenamiento temporal de acciones.
Tomemos una escena muda característica: reacción colectiva en una multitud donde
primeros planos muestran rostros coléricos o divertidos según el caso. Sin el sonido, no
haría falta que los planos designen acciones encadenadas, es decir, las reacciones podrían
ser simultáneas y estar sucediendo al mismo tiempo.
La aplicación de sonido de abucheos o risas las alineará en un tiempo real donde el plano 2
muestra la reacción de alguien después de otra persona en el plano 1. Para expresar una
simultaneidad estricta coincidente con el sonido, habría que dividir la pantalla y mostrar los
eventos simultáneos.
La escucha de la voz hablada cuando se inscribe en el tiempo diegético sincronizadamente,
tiene la capacidad de inscribir la imagen en un tiempo real y lineal sin elasticidad.
La escucha causal:
Es la más extendida, el sonido sirve para informarse de su posible causa. La fuente puede
ser visible o no ya que para deducir de donde proviene un sonido puede ayudarnos muy a
menudo la experiencia que hayamos tenido con situaciones similares.
Esta escucha nos da poca información ya que suele verse influida y puede engañarnos. De
hecho en el cine lo que oímos no está siendo producido por lo que suponemos, sino por una
grabación de sonidos, en la mayoría de los casos, simulados. La escucha causal se
aprovecha en lo audiovisual en la medida que refuerza el fenómeno causa/efecto que suele
estar en los primeros niveles de comunicación sonora.
Los humanos tenemos limitaciones en la escucha, reconocemos las cosas más por su
contexto que por información específica de lo escuchado.
Por ejemplo muchas voces o ladridos los reconocemos debido a la experiencia de la
cotidianidad más que por características propias de los sonidos.
No aprehendemos el timbre de una voz o de un ladrido, sólo la situación y el lugar en que
suele producirse y así completamos la información.
En casos ambiguos lo que reconocemos es la naturaleza de la causa, “debe ser un sonido
mecánico…”, “debe ser una voz femenina…”
La fuente de un sonido por demás no siempre es única. Pueden ser dos objetos que se
frotan y si están grabados y escuchamos su reproducción, la fuente es el parlante.
En un audiovisual por lo tanto la escucha causal es manipulada.
La escucha semántica:
Es la que se refiere a un código o lenguaje, por ejemplo el habla o la clave Morse. El término
semántico se usa para describir sonidos en los que la traducción literal es más importante
que el timbre.
Ha sido tema de estudio de la lingüística, en este caso un fonema no se estudia por su valor
acústico sino por los códigos y su contexto sintáctico, por tanto pueden pasar inadvertidas
diferencias de pronunciación, es decir, de sonido.
La pronunciación de una palabra en castellano por un angloparlante suele presentar
grandes diferencias sonoras que quedan obviadas cuando la escucha es semántica.
Cotidianamente se suele ejercitar esta escucha en conjunto con la causal y es por esta
razón que lo audiovisual se ocupa de ellas en un primer nivel.
La escucha reducida:
“La que afecta las cualidades y formas propias del sonido, independientemente de su causa
y sentido y que toma el sonido (verbal, instrumental…) como objeto de observación pura en
lugar de buscar otra cosa en él. (P. Schaeffer)
Es una observación del sonido en sí mismo, en sus propias cualidades y no de la fuente que
lo produce o su significado.
Para poder ejercitar esta escucha se necesita grabar el sonido de tal modo que éste acceda
al estatus de objeto. De otro modo podemos caer en descripciones ajenas u objetivaciones
de análisis físico.
Esta escucha es poco natural y abre nuevas preguntas sobre el sonido. La hacemos, por
ejemplo, cuando situamos la altura de una nota aunque ésta no sea la única característica
para definir de un sonido pues los hay que no se les distingue por la altura precisa como los
ruidos. Si esto fuera todo en la escucha reducida estaríamos hablando tan sólo de un solfeo.
Para ejercitar la escucha reducida se ha trabajado desde la acusmática y la repetición, como
se verá más adelante.
¿Para que sirve la escucha reducida?
En el ámbito audiovisual parecería no tener mucha utilidad pues el sonido se usa
generalmente por su valor figurativo y semántico, es decir, referido a causas y textos.
No obstante tiene la ventaja de ampliar nuestra capacidad de escucha, conocer el material y
sus valores afectivos, físicos y estéticos que no sólo están ligados a la causa.
Es importante perfeccionar el conocimiento de la materia y texturas visuales aunque no se
hagan películas abstractas.
Los términos reducida y acusmática describe un proceso mental en el que los sonidos son
liberados de los objetos que los producen para relacionarlos a otros con propósitos
expresivos.
Acusmática y escucha reducida:
Hay una relación entre estas dos situaciones ya que la escucha acusmática, definida como
aquella en que se oye el sonido sin ver su causa, ayuda a atraer nuestra atención hacia
caracteres sonoros que la visión nos enmascara.
Para lograrlo se recomienda la escucha repetida de un mismo sonido, algo que nos permite
separarnos gradualmente de la causa precisando mejor sus características propias. Esto se
consigue gracias a la grabación y reproducción del sonido.
La escucha referencial
Consiste en ser conciente o verse afectado por el contexto del sonido, ligándolo no sólo a la
fuente sino al significado dramático y emocional.
Puede ser instintivo y universal como por ejemplo el rugido de un león. Puede ser cultural y
relacionarse con cierta sociedad o período, como el sonido de los caballos caminando sobre
calles adoquinadas y puede hacer parte de un código cultural como cuando escuchamos la
música de Tiburón (Spielberg 1978) y sentimos ansiedad.
3. LÍNEAS Y PUNTOS
La disonancia audiovisual
El autor afirma que el tan reclamado contrapunto audiovisual lo tenemos diariamente en la
televisión donde a menudo se hacen comentarios o coloquios sobre unas imágenes
relacionadas pero sin coincidencias puntuales. Los que hablan no miran las imágenes ni las
comentan, por ejemplo cuando en un programa deportivo se pasan imágenes de archivo de
algún equipo y sobre ellas se hace un diálogo.
Esto no se advierte debido a la horizontalidad “lisa” de las dos entidades y el contrapunto, o
mejor disonancia, sólo funciona eficazmente si se oponen sonido e imagen en un punto de
significación donde haya una conciencia de la contradicción, es decir que uno reflexione
diciendo. “debería oír eso u oigo eso”. Introduce el lenguaje en categorías de sí/no,
redundante/contradictorio.
La disonancia audiovisual es, dentro del conjunto de sonorizaciones posibles de una
imagen, cuando se opta por una que sin ser un desmentido formal desliza su percepción a
otro plano.
Dentro de este proceso de elaboración sonora propone el autor las categorías de lógica
interna y lógica externa. Se habla de la primera cuando sonido e imagen responden
simultáneamente a un proceso orgánico flexible donde el desarrollo fluye con naturalidad a
las situaciones y nace de ellas. Privilegia las modificaciones continuas y progresivas y no
utiliza las rupturas de forma deliberada sino cuando la situación lo amerita.
En la lógica interna el sonido se dilata, desaparece o reaparece; se reduce o amplifica según
procesos que derivan de los personajes y las situaciones.
Del otro lado está la lógica externa que hace evidente los efectos de discontinuidad y ruptura
como intervenciones externas al contenido representado. Los cambios de ritmo y los cortes
súbitos de la imagen o el sonido son ejemplo de dicha lógica.
Se puede encontrar tanto en filmes de acción que de esta manera refuerzan la tensión de
las situaciones, como en otros de tipo contemplativo que lo usa para expresar poéticamente
fragmentación existencial e impresiones.
Función puntualizadora
Poner puntos, comas y demás signos para manejar el sentido y el ritmo de un texto, es un
concepto que se ha extrapolado también a las artes escénicas. Pausas, entonaciones y
respiraciones puntúan el continuum de los textos que a la vez forman un gran flujo total.
El cine mudo recuperó los procedimientos de puntuación tomando muchos de sus recursos
narrativos de la ópera con elementos musicales puntualizadores que utilizaban todos los
recursos de la orquesta.
En este cine la puntuación era gestual, visual y rítmica; pero los intertítulos también
constituyeron un elemento que regulaba el ritmo con sus apariciones.
Con la llegada del sonido sincrónico y la búsqueda del naturalismo, la puntuación se hizo
más discreta descargando a los actores y al montaje de esta función recargada. El ladrido
de un perro fuera de campo o una música en el vecindario sirven para subrayar, dar
cadencia o cerrar una escena sutilmente. Esta utilización puntuadota puede aparecer
previamente escrita o ser iniciativa a la hora del montaje.
La música y los efectos también pueden aparecer como elemento de puntuación.
Convergencias/divergencias: la anticipación
La dinámica de una secuencia audiovisual se pone en marcha con un movimiento de
cámara, un ritmo sonoro, los actos de los protagonistas que desencadena en el espectador
una anticipación cuya expectativa será confirmada o negada por el siguiente paso.
Esta dinámica tiene una correspondencia auditiva que de igual manera transcurre
heterogéneamente. Marca tendencias, indica direcciones, posee leyes de evolución y
repetición, que mantienen la expectativa o la resuelven.
La música suele cumplir frecuentemente este papel, tiene una curva que deja esperar una
cadencia y la anticipación de esta cadencia por parte del oyente se sitúa en su percepción.
En la cadena audiovisual el espectador localiza consciente o inconscientemente la dirección
de evolución de ésta, detecta los acelerandos y crescendos para verificar si se resuelven
según lo previsto. El realizador maneja esta dinámica llevándola al desenlace previsto o por
el contrario desviándolo hacia otro lado.
Separar: el silencio
Ha sido necesaria la aparición del cine sonoro para que la interrupción de voces y ruidos
evidencien el silencio.
Pero el silencio no es necesariamente la interrupción técnica del flujo sonoro, de hecho es
importante grabar minutos en “silencio” de los espacios donde se rueda ya que cada lugar
aporta su ambiente por imperceptible que sea. A la hora de editar es importante usar
aquellas capturas para las transiciones y para dar uniformidad a escenas que aunque
rodadas en el mismo lugar han sido tomadas en tiempos diferentes presentando notorios y
molestos cambios en el fondo sonoro.
El silencio entonces es más que el vacío, siempre está inserto en un contexto, “…dicho de
otro modo, nunca es un vacío neutro; es el negativo de un sonido que se ha oído antes o
que se imagina; es el producto de un contraste.” (Chion)
Por ejemplo cuando se enmudece el ambiente y se dejan oír sonidos que normalmente son
imperceptibles como el tic-tac del reloj.
Otros ruidos utilizados como sinónimo de silencio son: animales en la lejanía, relojes de
pared, los roces que sugieren intimidad.
También añadir un poco de reverberación a los pasos solitarios en una calle pueden reforzar
el sentimiento de vacío y de silencio pues normalmente esta reverberación no sería
perceptible con otros ruidos sonando.
EL PUNTO DE SINCRONIZACIÓN, LA SÍNCRESIS
Definición
“Un punto de sincronización (PDS) es, en una cadena audiovisual un momento relevante de
encuentro síncrono entre un instante sonoro y un instante visual; un punto en el que el
efecto de síncresis (véase más adelante) está más acentuado: como un acorde musical más
afirmado y más simultáneo que los demás en una melodía.” (Chion)
La aparición significativa y acentuada de estos puntos en un audiovisual, responde en alto
grado a leyes gestalticas:
Doble ruptura inesperada y sincrónica de audio e imagen. Son estos los cortes cut-
cut de sonido e imagen característicos de la lógica externa y frecuentes en películas
de suspenso.
Puntuación premeditada en la que coinciden los caminos de sonido e imagen antes
separados. Se trata del punto de sincronización de convergencia.
El carácter físico. Cuando el punto de sincronización recae en un primer plano
creando un intenso efecto visual o de otro lado cuando el sonido tiene más volumen
situándose en un primer plano sonoro.
El carácter afectivo y semántico. Cuando una palabra en el diálogo que tiene un
significado importante se dice con cierta acentuación, puede conformar un punto de
sincronización con la imagen.
El sentido de los puntos de sincronización está dado por la relación con el contenido de la
escena y la dinámica de la película. Los encuentros verticales entre elementos son los que
imponen el fraseo y la cadencia de la cadena audiovisual.
4. LA ESCENA AUDIOVISUAL
Por lo tanto se puede afirmar que el sonido no es contenido por nada mientras la imagen
tiene un marco que la contiene. No existe entonces un continente sonoro.
Ahora bien, cuando los sonidos se superponen a una imagen en movimiento pueden ocurrir
varias cosas:
Unos sonidos quedan englobados como in y sincronizados.
Otros quedan merodeando la superficie y por los bordes en un fuera de campo.
Algunos otros claramente situados fuera de la diégesis, en un “foso de orquesta”
imaginario (la música en off), o sobre una especie de palco, como el de las voces en
off.
LA ACUSMÁTICA
Acusmática es una antigua palabra de origen griego teorizada por Pierre Schaeffer. Significa
“que se oye sin ver la causa originaria del sonido”, o “que se hace oír sonidos sin la visión de
sus causas”. La radio, el disco o el teléfono, que transmiten los sonidos sin mostrar su
emisor, son por definición medios acusmáticos. La escucha contraria a la acusmática
propone Chion llamarla “escucha visualizada”.
Según el autor un sonido puede realizar en una película, desde su aparición dos clases de
trayectos:
El sonido es de entrada visualizado y, seguidamente acusmatizado
El sonido es acusmático para empezar y sólo después se visualiza.
El primer caso asocia desde el comienzo el sonido a una imagen precisa, que podrá
reaparecer más o menos clara en la cabeza del espectador cada vez que este sonido sea
oído de nuevo como acusmático: será un sonido encarnado, marcado por una imagen, sin
misterios.
El segundo caso es el favorito de las películas de misterio, preserva durante mucho tiempo
el secreto de la causa del sonido y del aspecto de la fuente, antes de revelarla. Mantiene
una tensión, una expectación, y constituye por tanto en sí mismo un procedimiento
dramatúrgico puro, análogo a una entrada en escena anunciada.
Un sonido o una voz conservados como acusmáticos crean en efecto un misterio sobre el
aspecto de su fuente y sobre la misma naturaleza, propiedades o poderes de esta fuente,
aunque sólo sea por el escaso poder narrativo del sonido en cuanto a su causa.
Excepciones
Con todo, aparecen situaciones que son excepcionales y escapan a estas tres
clasificaciones:
Por ejemplo, ¿dónde hay que situar los sonidos (generalmente las voces) procedentes de
aparatos telefónicos, altavoces de radio, computadoras parlantes situados en la acción?
¿Qué hacer, además, con el caso en que el personaje presente en la escena habla de
espaldas a nosotros, de modo que, no le vemos hablar? ¿Es su voz acusmática (fuera de
campo)?
¿Y qué decir de las voces llamadas “interiores” de un personaje visible en la imagen: voz de
su conciencia, voces de sus recuerdos o de las escenas que fantasea?
¿Dónde se colocarán los sonidos de ambiente global tales como los cantos de pájaros y el
ruido del viento, que suenan, por ejemplo en los exteriores en plena naturaleza y que sería
ridículo caracterizar como fuera de campo, bajo pretexto de que no se “ve” a los pájaros piar
o al viento soplar?
Aunque estas situaciones escapan a la clasificación no invalidan la dialéctica entre dentro/
fuera de campo y acusmático/ visualizado, pero exigen nuevas categorías.
El sonido interno
Es el que, situado en el presente de la acción, corresponde al interior físico y mental de un
personaje: ya sean sus sonidos fisiológicos de respiración, de jadeos y de latidos del
corazón (que podrían bautizarse como sonidos internos-objetivos), o sus voces mentales,
sus recuerdos, etc. (que llamaremos internos-subjetivos o internos-mentales).
Vemos entonces que las diferentes combinaciones entre fuera de campo, in, off, y las
excepciones, entregan una compleja gama de posibilidades significativas:
La oposición acusmático/visualizado.
La oposición objetivo/subjetivo o real/imaginado,
La diferencia pasado/presente/futuro.
Bibliografía complementaria