Está en la página 1de 18

Apuntes y comentarios sobre La Audiovisión de Michel Chion. Paidós.

Barcelona 1993
Por Joaquín Llorca

LA AUDIOVISIÓN
La interacción entre nuestros ojos y oídos da como resultado algo superior a la suma de sus
partes. El sonido en el cine nos informa sobre qué ocurre dentro y fuera del mundo de los
personajes por medio de la música, efectos y diálogos que se sincronizan (o no) con la
imagen. Espacio y tiempo se ven determinados por la combinación audiovisual.
Normalmente esperamos que sonido e imagen estén sincronizados, pero la yuxtaposición
de estos dos elementos en diferentes formas puede aportar más de un significado a lo que
vemos.
Ojos y oídos
Mirar y escuchar es la manera como recibimos y procesamos la información audiovisual,
pero estos dos sentidos presentan diferencias considerables en su naturaleza:

CUALIDAD/HABILIDAD OJOS OÍDOS


Sensibilidad a las frecuencias (4 a 7.2) x 10¹¹Hz 20 a 20.000Hz
Velocidad (luz/sonido) 300.000.000 m/seg 331 m/seg
Primeros procesos cerebrales Intelectuales/razón emocionales/intuición
Foco Estrecho/puntual Amplio/omnidireccional
Hábitat Espacio Tiempo
Transmisión Tiempo Espacio

Encontramos pues, que el espectro electromagnético es muy amplio en la naturaleza,


existen rayos x, ondas de radio etc, pero por alguna razón nuestros ojos no alcanzan este
nivel de percepción de la luz. En comparación, los oídos tienen un rango enorme.
De otro lado, los ojos no hacen abstracciones numéricas de luz como el oído sí las hace del
sonido, es decir, el ojo no percibe mezclas de luz en tonos separados como el oído oye
notas separadas que juntas hacen parte de un acorde.
La habilidad de escuchar estas proporciones hace que el oído distinga que dos notas están
separadas por una octava, es decir, podemos distinguir un do de el do que le sigue, lo que
es una proporción de 1:2.
Tal sentido matemático presente en el universo se manifiesta en la música pero desde un
punto de vista estético se manifiesta en lo que conocemos como armonía.
La intuitiva naturaleza del sonido a diferencia de la categórica presencia de la mirada
permite a nuestra mente crear más imágenes internas y establecer relaciones.
Además de todo, podemos cerrar nuestros ojos o girar la mirada para evitar una imagen,
pero nuestros oídos no se cierran por sí solos.
Ojos y oídos funcionan diferentemente de manera complementaria, los objetos habitan el
espacio pero los percibimos a través del tiempo en que los observamos, mientras que los
sonidos existen en el tiempo pues tienen una duración, pero se trasmiten a través del
espacio al moverse las moléculas de aire.

1. PROYECCIONES DEL SONIDO SOBRE LA IMAGEN

EL VALOR AÑADIDO
El sonido como complemento funcional
La ilusión audiovisual halla gran parte de sus valores en el “contrato” entre audio e imagen,
el sonido suministra un valor añadido a la imagen de forma expresiva e informativa hasta
hacernos creer incluso, que lo sonoro es algo inútil y redundante. Dicha cualidad funciona
sobre todo en las situaciones sincronizadas (golpes, caídas o explosiones que en la realidad
no suenan como se nos presenta en el cine) permitiendo establecer una relación inmediata
entre lo que se ve y lo que se oye.
EL VALOR AÑADIDO POR EL TEXTO
Vococentrismo y verbocentrismo
Se puede definir con estos dos términos cierta orientación que siguió el cine con la
incorporación del sonido. Se refiere a que la estructura sonora favorece la voz destacándola
de los demás sonidos (hay excepciones como el cine de J. Tati que poco usa diálogos).
Igualmente la tecnología evolucionó a una mejor captura de los diálogos gracias a la calidad
de los micrófonos; la voz como expresión verbal, se volvió fundamental y la tecnología, en
este caso, ha perseguido más que fidelidad acústica, inteligibilidad. Por tanto el
vococentrismo es en realidad un verbocentrismo: primacía del diálogo.
La supremacía de la palabra fue un camino natural de la expresión audiovisual ya que
vivimos de manera verbocentrista en nuestras reacciones cotidianas, reconocemos las
voces por sobre otros sonidos y nos interesamos primeramente en ellas.
Nuestro sentido de la escucha da prioridad a las frecuencias en que se encuentran las
voces, además tenemos la capacidad de ubicar la dirección de procedencia de los sonidos
con apenas 15° de error. Los profesionales lo hacen con tan sólo un desfase de 4°.
De otro lado la capacidad de percibir los diálogos por sobre todo, se traduce en la
posibilidad humana de comprender hasta 30 fonemas en un segundo incluso con el timbre
afectado. Por el contrario un buen músico apenas puede entender y recordar el orden de 10
notas por segundo. Un ejemplo son los mensajes institucionales obligatorios que se ponen
al final de ciertos comerciales donde las frases se alteran para que suenen a toda velocidad
en el menor tiempo posible y aún así las entendemos.

El texto estructura la visión: Texto-atracción


Las palabras que acompañan una imagen guían el sentido de forma ideológica. Diferentes
textos sobre una misma imagen dan posibilidades muy diferentes de interpretación. Existe
una texto-atracción, es decir, el texto dirige el significado de la imagen.
Se puede comprobar acompañando una fotografía de diferentes textos y observando cómo
adquiere significados nuevos e incluso opuestos según la leyenda.
Recordemos los títulos de las obras del artista Marcel Duchamp que buscaban ser
antidescriptivos, es decir, que evitaban una relación literal con las imágenes de la obra
obligando al espectador a crear sus propias asociaciones.

EL VALOR AÑADIDO POR LA MÚSICA


Música empática y anempática
Es empática cuando participa adaptando el ritmo, tono y fraseo a las emociones de la
imagen. (Empatía: facultad de experimentar los sentimientos de los demás)
Anempática cuando con indiferencia ante la situación progresa regularmente sin ajustarse al
ritmo o emoción de la imagen. Lo interesante es que en lugar de “congelar” el sentimiento de
la escena, puede conseguir su intensificación. Por ejemplo las musiquillas infantiles que
suenan en la mente de los locos asesinos en las películas de terror. Por un lado no
concuerdan con lo macabro del personaje pero a la vez intensifican la sensación de miedo.
Esta operación devuelve a la realidad mecánica el acto cinematográfico que se “debe
ocultar” con el viaje inmóvil de la diégesis.
También hay ruidos anempáticos como cuando después de una escena terrible se queda
sonando algún sonido ambiental cualquiera (ventilador, ducha, taladro en la calle, etc.)
Recordemos películas de Hitchcock como Psicosis después de la escena de la ducha.
Con todo, hay música que tiene un sentido abstracto o presencial y que no añade un
significado emocional preciso.

INFLUENCIAS DEL SONIDO A LA PERCEPCIÓN DEL MOVIMIENTO Y LA VELOCIDAD


El sonido es movimiento
Las percepciones sonora y visual, presentan naturalezas diferentes con respecto al
movimiento, aunque al estar juntas se influencian cambiando esta impresión.
El sonido implica movimiento, sólo existe en él, contrariamente a lo visual. Una imagen a
pesar de tener movimiento también puede presentar entidades que están fijas, pero el
sonido implica un desplazamiento que aunque sea mínimo, siempre está en relación con el
tiempo.
También tiene el sonido, la capacidad de sugerir inmovilidad. Un sonido inmóvil es aquel
que no presenta variación en su desarrollo, los casos más conocidos son los sonidos
sintéticos o el tono del teléfono o el hum de un amplificador. En la naturaleza el sonido de
una cascada es asimilable al ruido blanco sobre todo cuando un fragmento sin variación se
repite cíclicamente.
El sonido tiene pues, una dinámica temporal propia.

Diferencia de velocidad perceptiva


El oído trabaja más rápido que la vista, un movimiento visual precipitado puede parecer
borroso a diferencia de uno sonoro.
Esto es natural, pues la vista tiene más trabajo que hacer, se desempeña en el espacio que
explora y en el tiempo que sigue. El oído por su parte aísla un evento de su campo de
escucha y sigue su desarrollo.
Por ejemplo, una frase hablada hace trabajar el oído más de prisa mientras que cuando esa
frase se lee es notoriamente más lento el acto visual.
En resumen, la vista es más hábil espacialmente y el oído temporalmente. Esto en un primer
contacto con el mensaje audiovisual.

Durante la audiovisión las diferencias de velocidad y análisis no son tan perceptibles debido
al trabajo en conjunto y su valor añadido.
Por ejemplo, en las películas de acción con movimientos visuales rápidos no hay confusión
en el detalle de la acción pues el sonido ayuda a puntualizar su desarrollo con efectos que lo
marcan perceptivamente e imprimen en nuestra memoria una huella audiovisual fuerte.
Así pues, el cine sonoro puede hacer uso de movimientos complejos y fugaces en marcos
visuales saturados debido a la capacidad puntualizadota del sonido que puede destacar un
trayecto visual particular.

INFLUENCIA DEL SONIDO SOBRE LA PERCEPCIÓN DEL TIEMPO EN LA IMAGEN


El sonido influencia nuestra percepción del tiempo, se puede comprobar al ver una escena
sin audio. Es notorio que en partes de la escena lo visual se torna estático.
Otra evidencia de este influjo lo encontramos en escenas de primeros planos de personajes
que viajan en un vehículo. Los close-ups nos privan de indicadores visuales del movimiento
y sin sonido las escenas funcionan con su propio ritmo visual.
Al final del prólogo de Persona (Bergman 1967), vemos cómo las imágenes fijas de unos
cuerpos que parecen cadáveres, desprovistas de temporalidad se insertan en el tiempo real,
gracias a los sonidos ambientales de pasos y el goteo del agua. Unas fotografías con sonido
logran esta temporalidad.
La cámara lenta es otro recurso expresivo que puede ser resaltado con un efectivo diseño
sonoro. Una forma es simplemente pausar el ritmo de la música o de los efectos de sonido
proporcionalmente a la imagen; en el film The Matrix (Wachowsky 1999) la música repinta
los saltos en cámara lenta con una serie de acordes superpuestos que se funden unos con
otros.

Los tres aspectos de la temporalización:

 Animación temporal de la imagen:


El sonido logra que la percepción del tiempo de una imagen sea detallada, inmediata y
concreta o por el contrario logra que sea vaga, flotante y amplia.
 Linealización temporal de los planos:
El cine con sonido sincrónico impone una idea de sucesión mientras que en el cine mudo
no siempre hay una correspondencia de duración lineal en la que el contenido entre el
plano 2 seguirá obligatoriamente a lo que muestra el plano 1. Si en el caso del cine
mudo hubiera sonido sincrónico, se perdería la impresión de continuidad por culpa del
sonido.
 Vectorización:
Es el carácter dramatúrgico, es decir, su orientación lineal hacia un objetivo y un futuro
que deja latente un sentimiento de expectación. Un plano va a alguna parte y está
orientado en el tiempo.

Condiciones para una temporalización de las imágenes con el sonido:


Los tres efectos antes mencionados dependen de la naturaleza de las imágenes y los
sonidos relacionados. Se puede entonces hablar de dos casos:
 La imagen no tiene por sí misma animación temporal ni vectorización . Esto puede
ocurrir en el caso simple de una imagen fija. También lo observamos en una imagen
cuyo movimiento es una fluctuación que no deja esperar resolución alguna: por
ejemplo un reflejo en el agua. En este caso el sonido es susceptible de introducir una
temporalidad, un principio y un fin a la imagen.
 La imagen implica una animación temporal propia como cuando hay movimiento de
personas u objetos. La temporalidad del sonido se combina con la de la imagen ya
sea para ir en el mismo sentido o para contrariarla como cuando dos instrumentos
suenan simultáneamente.

La temporalización depende también del tipo de sonidos. Timbre, densidad y textura pueden
animar una imagen en mayor o menor grado. Esto lo determinan diferentes factores:

 Naturaleza del mantenimiento del sonido. Un sonido plano y continuo anima menos
una imagen, que uno también sostenido pero vibrante o accidentado.
Una nota de violín continua y lisa crea menos tensión que una con vibrato o trémolo.
 Previsibilidad de la progresión sonora. Un sonido que se desarrolla con regularidad
como un bajo continuo o un tic-tac tiende a crear una animación temporal menor que
si la progresión es irregula. La imprevisibilidad pone en alerta al oído. Con todo,
también es posible que un sonido obsesivamente regular y cíclico produzcan tensión
debido a la expectación que crea en su posible resolución.
 El tempo. Una música rápida no necesariamente acelera la percepción de la imagen.
La temporalización depende más de la regularidad o irregularidad del flujo sonoro.
Por ejemplo, si el flujo de las notas musicales es inestable pero con un tempo
moderado, la animación temporal será mayor que si el ritmo es rápido pero regular.
 Definición del sonido. Las frecuencias agudas expresan más alerta y mantienen la
tensión.

En resumen, para que el sonido influya temporalmente en la imagen es necesario que la


imagen se preste a ello, ya sea por su receptividad pasiva (imágenes fijas en Persona) o ya
sea por su estructura que implique puntos de encuentro, concordancia y simpatía hacia el
flujo sonoro. Por ejemplo, las ondulaciones del agua, la lluvia o el humo.

El cine sonoro es una cronografía


El sonido ha temporalizado la imagen imponiéndole una normalización y estabilización de la
velocidad del flujo de la película.
Esto se ha logrado gracias al sonido sincrónico, los planos del cine mudo no tenían duración
interna exacta y el ritmo de la película era decidido por el proyeccionista. La estabilización
de la velocidad de proyección se hizo necesaria en el cine sonoro y tuvo consecuencias
imprevisibles: a causa de ello, el tiempo fílmico ya no es algo elástico sino un valor absoluto.

Linealización temporal
Es la capacidad que tiene un sonido realista y diegético de imponer un tiempo real a
imágenes que no expresan de por sí un encadenamiento temporal de acciones.
Tomemos una escena muda característica: reacción colectiva en una multitud donde
primeros planos muestran rostros coléricos o divertidos según el caso. Sin el sonido, no
haría falta que los planos designen acciones encadenadas, es decir, las reacciones podrían
ser simultáneas y estar sucediendo al mismo tiempo.
La aplicación de sonido de abucheos o risas las alineará en un tiempo real donde el plano 2
muestra la reacción de alguien después de otra persona en el plano 1. Para expresar una
simultaneidad estricta coincidente con el sonido, habría que dividir la pantalla y mostrar los
eventos simultáneos.
La escucha de la voz hablada cuando se inscribe en el tiempo diegético sincronizadamente,
tiene la capacidad de inscribir la imagen en un tiempo real y lineal sin elasticidad.

Vectorización del tiempo real


Hay escenas que proyectadas al derecho o al revés no cambian su significado. Es el caso
de un personaje en una mecedora mientras el viento golpea unas campanillas colgadas o el
caso de un personaje que toca el piano y ríe.
El tiempo de estos planos es real, puesto que lo constituyen microsucesos que reconstruyen
el fluir, pero no está vectorizado, es decir, entre el sentido del pasado hacia el futuro o
viceversa no advertimos diferencia sensible alguna.
En cambio el sonido está constituido por un choque y una resonancia decreciente (ataque y
caida); siempre está orientado en el tiempo y reproducirlo invertido se advierte
inmediatamente. Los sonidos están vectorizados. Las gotitas del final del prólogo de
Persona imponen un tiempo real irreversible a aquellas imágenes no vectorizadas.
El fenómeno sonoro presenta entonces características de envolvente propias como el
ataque, el desarrollo y la caída, aspectos estos que definen el timbre de un sonido.
De otro lado cuando la imagen muestra acciones de fuerzas no reversibles (caídas de
objetos) está claramente vectorizada y reproducirla en sentido contrario haría notoria su
vectorización.
Aunque Chion explica el concepto con el ejemplo de la mecedora y las campanillas es
importante anotar que la mayoría de los movimientos humanos presentan, igual que el
sonido, unas propiedades cinéticas en su inicio y desarrollo. Por tanto el concepto es débil y
el ejemplo del pianista no es acertado ya que las manos al pulsar las teclas presentan una
dinámica percutiva que vista al revés se desfigura debido a la pérdida del ataque inicial.

El trémolo: carácter cultural o natural de esta influencia


La animación temporal de la imagen por el sonido no es un fenómeno puramente físico o
natural. Los códigos cinematográficos y culturales desempeñan un papel importante es su
consecución.
Un sonido vibrante o un efecto sonoro que provenga del mismo decorado, es decir de
manera diegética, no afectará la imagen tal comos si lo produjera la música en off.
Aún así se suele recurrir a sonidos vibrantes como la estridación de insectos nocturnos que
pueden tener sobre la percepción dramática del tiempo la misma propiedad que un trémolo
orquestal (concentración). Esto hace pensar que lo que relaciona a un tremolo orquestal con
el sonido vibrátil de los insectos es una identidad acústica: la de una vibración aguda y ligera
que alerta en el tiempo haciendo que estemos ante un fenómeno natural universal.
Con todo, este efecto es frágil ya que su deficiente dosificación puede producir en el
espectador pérdida de confianza en la diégesis. Así sucede con todos los efectos de valor
añadido sustentados en una base sicológica que actúan sólo en ciertas condiciones
culturales, estéticas y afectivas.

Ejemplos de reciprocidad del valor añadido


Cuando el sonido hace ver la imagen de manera diferente y la imagen hace que el sonido se
oiga diferente existe esta reciprocidad.
Los sonidos impresionantes sobre los cuales la imagen proyecta sugestivamente un sentido
que ellos no poseen es una muestra de esta reciprocidad.
En el cine negro clásico se evitaba mostrar ciertas acciones acudiendo al sonido para
sugerir hechos impresionantes sin tenerlos a la vista.
Otro efecto traumático sería cuando una escena terrible no se muestra en su totalidad pero
el sonido la describe. En Psicosis (Hitchcok 1965) se ensayó apuñalando diferentes melones
para conseguir el sonido del cuchillo entrando en un cuerpo.
En La piel (Liliana Cavani 1981) un sonido como de sandía aplastada resuena cuando en la
escena la cabeza de un hombre es destripada por un tanque de guerra. Aunque no vemos el
hecho en detalle y el sonido puede no ser real, la suma de ambos elementos genera un
sentido.
De otro lado el valor relativo del ruido del aplastamiento sería impreciso sacado de contexto,
es decir, sin la imagen. Para el espectador, más que el realismo acústico, es importante el
sincronismo que convierte la verosimilitud en una convención.

2. LAS TRES ESCUCHAS


Oír es pasivo mientras que escuchar es activo. Mientras que oír involucra recibir información
sonora a través de los oídos, escuchar implica la capacidad de filtrar, enfocar, recordar y
responder a un sonido. Nuestros dos oídos juntos nos permiten una recepción estereofónica
que nos permite distinguir distancia, relación espacial y nuestra ubicación.
Nuestra habilidad de escuchar es polivalente, lo que significa que procesamos información
con diferentes criterios.
Cuando comentamos lo que oímos solemos interpretar diferentes propiedades del hecho
sonoro. Chion clasifica el sonido en tres tipologías básicas, la causal, la semántica y la
reducida. David Sonnenschein añade una cuarta que es la escucha referencial. Estas
clasificaciones son útiles además, para discutir el sonido en el marco audiovisual:

La escucha causal:
Es la más extendida, el sonido sirve para informarse de su posible causa. La fuente puede
ser visible o no ya que para deducir de donde proviene un sonido puede ayudarnos muy a
menudo la experiencia que hayamos tenido con situaciones similares.
Esta escucha nos da poca información ya que suele verse influida y puede engañarnos. De
hecho en el cine lo que oímos no está siendo producido por lo que suponemos, sino por una
grabación de sonidos, en la mayoría de los casos, simulados. La escucha causal se
aprovecha en lo audiovisual en la medida que refuerza el fenómeno causa/efecto que suele
estar en los primeros niveles de comunicación sonora.
Los humanos tenemos limitaciones en la escucha, reconocemos las cosas más por su
contexto que por información específica de lo escuchado.
Por ejemplo muchas voces o ladridos los reconocemos debido a la experiencia de la
cotidianidad más que por características propias de los sonidos.
No aprehendemos el timbre de una voz o de un ladrido, sólo la situación y el lugar en que
suele producirse y así completamos la información.
En casos ambiguos lo que reconocemos es la naturaleza de la causa, “debe ser un sonido
mecánico…”, “debe ser una voz femenina…”
La fuente de un sonido por demás no siempre es única. Pueden ser dos objetos que se
frotan y si están grabados y escuchamos su reproducción, la fuente es el parlante.
En un audiovisual por lo tanto la escucha causal es manipulada.
La escucha semántica:
Es la que se refiere a un código o lenguaje, por ejemplo el habla o la clave Morse. El término
semántico se usa para describir sonidos en los que la traducción literal es más importante
que el timbre.
Ha sido tema de estudio de la lingüística, en este caso un fonema no se estudia por su valor
acústico sino por los códigos y su contexto sintáctico, por tanto pueden pasar inadvertidas
diferencias de pronunciación, es decir, de sonido.
La pronunciación de una palabra en castellano por un angloparlante suele presentar
grandes diferencias sonoras que quedan obviadas cuando la escucha es semántica.
Cotidianamente se suele ejercitar esta escucha en conjunto con la causal y es por esta
razón que lo audiovisual se ocupa de ellas en un primer nivel.
La escucha reducida:
“La que afecta las cualidades y formas propias del sonido, independientemente de su causa
y sentido y que toma el sonido (verbal, instrumental…) como objeto de observación pura en
lugar de buscar otra cosa en él. (P. Schaeffer)
Es una observación del sonido en sí mismo, en sus propias cualidades y no de la fuente que
lo produce o su significado.
Para poder ejercitar esta escucha se necesita grabar el sonido de tal modo que éste acceda
al estatus de objeto. De otro modo podemos caer en descripciones ajenas u objetivaciones
de análisis físico.
Esta escucha es poco natural y abre nuevas preguntas sobre el sonido. La hacemos, por
ejemplo, cuando situamos la altura de una nota aunque ésta no sea la única característica
para definir de un sonido pues los hay que no se les distingue por la altura precisa como los
ruidos. Si esto fuera todo en la escucha reducida estaríamos hablando tan sólo de un solfeo.
Para ejercitar la escucha reducida se ha trabajado desde la acusmática y la repetición, como
se verá más adelante.
¿Para que sirve la escucha reducida?
En el ámbito audiovisual parecería no tener mucha utilidad pues el sonido se usa
generalmente por su valor figurativo y semántico, es decir, referido a causas y textos.
No obstante tiene la ventaja de ampliar nuestra capacidad de escucha, conocer el material y
sus valores afectivos, físicos y estéticos que no sólo están ligados a la causa.
Es importante perfeccionar el conocimiento de la materia y texturas visuales aunque no se
hagan películas abstractas.
Los términos reducida y acusmática describe un proceso mental en el que los sonidos son
liberados de los objetos que los producen para relacionarlos a otros con propósitos
expresivos.
Acusmática y escucha reducida:
Hay una relación entre estas dos situaciones ya que la escucha acusmática, definida como
aquella en que se oye el sonido sin ver su causa, ayuda a atraer nuestra atención hacia
caracteres sonoros que la visión nos enmascara.
Para lograrlo se recomienda la escucha repetida de un mismo sonido, algo que nos permite
separarnos gradualmente de la causa precisando mejor sus características propias. Esto se
consigue gracias a la grabación y reproducción del sonido.
La escucha referencial
Consiste en ser conciente o verse afectado por el contexto del sonido, ligándolo no sólo a la
fuente sino al significado dramático y emocional.
Puede ser instintivo y universal como por ejemplo el rugido de un león. Puede ser cultural y
relacionarse con cierta sociedad o período, como el sonido de los caballos caminando sobre
calles adoquinadas y puede hacer parte de un código cultural como cuando escuchamos la
música de Tiburón (Spielberg 1978) y sentimos ansiedad.

3. LÍNEAS Y PUNTOS

LA CUESTIÓN DE LO HORIZONTAL Y LO VERTICAL


¿Armonía o contrapunto?
En los años 20 al comienzo del cine sonoro se hacían muchas comparaciones entre cine y
música. Se usó el concepto de contrapunto para designar la fórmula ideal de relación entre
sonido e imagen.
En la música clásica occidental se llama contrapunto a la técnica que piensa las diferentes
voces simultáneas, compuestas horizontalmente no obstante coordinadas con las demás
voces pero conservando su individualidad con sentido propio. En el contrapunto una voz
aislada tiene una melodía totalmente coherente y autónoma.
La armonía considera la relación de las notas desde un punto de vista vertical, es decir, las
notas que se escuchan en el mismo momento formando un acorde. Así pues su sentido
horizontal no existe ya que no busca una coherencia melódica aislada.
El teórico Jean Mitry rechazó el uso del término contrapunto. Afirmaba que no se puede
exportar este concepto musical al cine así no más ya que el sonido y la imagen pertenecen
a categorías sensoriales diferentes. Sería mejor hablar de un contraste entre ellas pues el
contrapunto musical trabaja tonos y ritmos, no semantismos.
Chion resalta el caos que se formó en esta búsqueda contrapuntística. Se llegó incluso a
evitar los efectos de duplicación entre el elemento visual y el auditivo para evitar el
pleonasmo consiguiendo en lugar de contrapunto una armonía disonante como se verá más
adelante.
También advierte que el uso de la metáfora musical es recurrente y la utiliza siendo
conciente de su limitación dentro del fenómeno audiovisual.
Es importante anotar la posición de Rudolf Arheim quien al respecto de las primeras
propuestas horizontales que evitaban el sincronismo, se expresó en contra de tal
dogmatismo. El cine sonoro no podía reducirse a un número de efectos localizados; el ver la
fuente que produce un sonido es en ocasiones la solución normal. Este paralelismo no es
necesariamente pleonasmo y es compatible con el contrapunto, afirmaba Arheim.

La disonancia audiovisual
El autor afirma que el tan reclamado contrapunto audiovisual lo tenemos diariamente en la
televisión donde a menudo se hacen comentarios o coloquios sobre unas imágenes
relacionadas pero sin coincidencias puntuales. Los que hablan no miran las imágenes ni las
comentan, por ejemplo cuando en un programa deportivo se pasan imágenes de archivo de
algún equipo y sobre ellas se hace un diálogo.
Esto no se advierte debido a la horizontalidad “lisa” de las dos entidades y el contrapunto, o
mejor disonancia, sólo funciona eficazmente si se oponen sonido e imagen en un punto de
significación donde haya una conciencia de la contradicción, es decir que uno reflexione
diciendo. “debería oír eso u oigo eso”. Introduce el lenguaje en categorías de sí/no,
redundante/contradictorio.
La disonancia audiovisual es, dentro del conjunto de sonorizaciones posibles de una
imagen, cuando se opta por una que sin ser un desmentido formal desliza su percepción a
otro plano.

Predominio de las relaciones verticales en la cadena audiovisual (no hay banda


sonora)
El autor desmiente la existencia de una banda de sonido como entidad autónoma
argumentando que aislada de las imágenes no tiene ningún sentido. La prueba son los
sonidos fuera de campo que en la escucha normal no presentan ningún cambio en su
significado mientras que al superponer la imagen adquieren otro sentido.
El término banda sonora entonces tan sólo designa técnicamente la sucesión de los sonidos
de la película. Cada elemento sonoro establece con los elementos narrativos de la imagen
relaciones verticales simultáneas más fuertes que las que puedan establecer los sonidos
entre sí en su desarrollo horizontal.

EL SONIDO Y LA IMAGEN EN RELACION CON LA CUESTIÓN DEL MONTAJE

El montaje de los sonidos no ha creado una unidad específica


Los sonidos y las imágenes se montan, es decir, se añaden y se fijan cortándose, uniéndose
y desplazándose a voluntad.
Este procedimiento ha creado en la imagen la unidad específica más notable en el lenguaje
audiovisual que es el plano.
Aunque un plano en sí no sea una unidad narrativa estructural, sí representa una unidad
neutra definida que sirve de referencia para el montaje y para el visionado.
El sonido en cambio no presenta un concepto análogo, es decir, el montaje de sonidos no
ha creado una unidad o célula específica. Los cortes sonoros no nos permiten delimitar
entre sí bloques identificables.

Posibilidad de un montaje inaudible de los sonidos


Una banda sonora está constituida por varias capas independientes (diálogos, música,
efectos) que se superponen unas a las otras.
De otro lado tenemos que el sonido permite su unión sin que se noten los cortes, por
ejemplo un diálogo se puede manipular, cortar y rellenar sin que se advierta, mientras que
unir de manera invisible dos planos es muy difícil. Se suele recurrir a fundidos o a pantallas
negras.
El sonido también puede ser montado de manera audible haciendo notorios los cortes. Tal
estética fue bastante alentada por la crítica de los años 60’ y 70’ quienes veían en el
montaje invisible una posición ideológica propia del cine dominante que pretendía ocultar las
huellas de la elaboración en pro de la continuidad y transparencia.
Ejemplos de esta edición encontramos en varios trabajos de Godard quien cortaba los
sonidos e imágenes mostrando las discontinuidades y reduciendo el uso de artificios del
montaje como los fundidos y degradados.
Otro ejemplo de este montaje lo encontramos en Deconstructing Harry de Woody Allen.

¿Forma un plano de sonido un tramo de sonido audible?


Los planos visuales tienen un compromiso con el tiempo y el espacio. Si un plano es en
movimiento e implica una variación constante del encuadre la visión se sitúa mucho más
sobre el hilo del tiempo, pero si el plano es fijo o ligeramente reencuadrado, identificamos
entonces la disposición de los objetos y su perspectiva.
En sentido opuesto, para el sonido es la percepción secuencial en el tiempo la que domina.
Entonces, cuando se relacionan sonido e imagen, los cortes visuales siguen siendo el punto
de referencia de la percepción. Los cortes sonoros secos de Godard apenas si fracturan la
continuidad del plano sin ocasionar una destrucción o ruptura total.

El flujo sonoro: lógica interna, lógica externa


La banda sonora de una película comporta unos eventos más o menos ligados que fluyen y
se encadena con otros elementos sonoros sucesivos y superpuestos. También puede incluir
sucesos accidentados y rotos por cortes secos que interrumpen un sonido para continuar
con otro.
El flujo sonoro tiene que ver con la mezcla conjunta de las diversas capas de sonido y no
con las características individuales de cada capa. Jacques Tati utiliza efectos de sonido
extremadamente puntuales y artificiales añadidos y sincronizados con posterioridad. Si
escucháramos esta pista aislada tendríamos la impresión de una variedad de ruidos
percutidos fragmentados, pero el ambiente continuo añadido enlaza y suaviza la elaboración
fragmentada y puntual de los sonidos. En Las vacaciones de Monsieur Hulot (1953) se
consigue con el ambiente de playa y en Mi tío (1958) con el bullicio de mercado.

Dentro de este proceso de elaboración sonora propone el autor las categorías de lógica
interna y lógica externa. Se habla de la primera cuando sonido e imagen responden
simultáneamente a un proceso orgánico flexible donde el desarrollo fluye con naturalidad a
las situaciones y nace de ellas. Privilegia las modificaciones continuas y progresivas y no
utiliza las rupturas de forma deliberada sino cuando la situación lo amerita.
En la lógica interna el sonido se dilata, desaparece o reaparece; se reduce o amplifica según
procesos que derivan de los personajes y las situaciones.
Del otro lado está la lógica externa que hace evidente los efectos de discontinuidad y ruptura
como intervenciones externas al contenido representado. Los cambios de ritmo y los cortes
súbitos de la imagen o el sonido son ejemplo de dicha lógica.
Se puede encontrar tanto en filmes de acción que de esta manera refuerzan la tensión de
las situaciones, como en otros de tipo contemplativo que lo usa para expresar poéticamente
fragmentación existencial e impresiones.

EL SONIDO EN LA CADENA AUDIOVISUAL


Función unificadora
Unificar el flujo de las imágenes articulándolas, es la función básica y primaria del sonido.
Esto lo hace trabajando de tres maneras:
 En el nivel de tiempo, traslapándose sobre los cortes visuales (overlapping)
 En el nivel del espacio, creando un marco general que baña todo. Lo hace mediante
la adición de ambientes globales como el ruido del tráfico, cantos de pájaros o
insectos etc.
 Por la presencia eventual de una música que escapa a la noción de espacio y tiempo
reales, es decir, no diegética y que desliza las imágenes sobre un mismo flujo.

Función puntualizadora
Poner puntos, comas y demás signos para manejar el sentido y el ritmo de un texto, es un
concepto que se ha extrapolado también a las artes escénicas. Pausas, entonaciones y
respiraciones puntúan el continuum de los textos que a la vez forman un gran flujo total.
El cine mudo recuperó los procedimientos de puntuación tomando muchos de sus recursos
narrativos de la ópera con elementos musicales puntualizadores que utilizaban todos los
recursos de la orquesta.
En este cine la puntuación era gestual, visual y rítmica; pero los intertítulos también
constituyeron un elemento que regulaba el ritmo con sus apariciones.
Con la llegada del sonido sincrónico y la búsqueda del naturalismo, la puntuación se hizo
más discreta descargando a los actores y al montaje de esta función recargada. El ladrido
de un perro fuera de campo o una música en el vecindario sirven para subrayar, dar
cadencia o cerrar una escena sutilmente. Esta utilización puntuadota puede aparecer
previamente escrita o ser iniciativa a la hora del montaje.
La música y los efectos también pueden aparecer como elemento de puntuación.

Puntuación simbólica mediante la música


Muchos actos o movimientos han sido objeto de traducción en música, los efectos musicales
pueden imitar sonidos o adjetivarlos.
Aparece también otro procedimiento bastante utilizado en el trabajo musical y que proviene
de Wagner: el leit-motiv.
Esta técnica dota a cada personaje o idea o elemento clave de un tema musical que se
repetirá cada aparición creando una asociación entre ambos.
Históricamente podemos detectar una intención en los primeros trabajos por convertir el cine
en una ópera hablada creando una amalgama entre este género y la narrativa
decimonónica.
Por un lado se dieron tentativas imitativas donde la música subrayaba el ruido de los
elementos o gestos, algo muy común en los dibujos animados que dio origen al término
mickeymousing cuando se abusaba del pleonasmo.
De otro lado apareció una corriente estilizadora que intentaba recuperar el espíritu del cine
mudo mediante la puntuación en una búsqueda por arrebatar el cine de su carácter
puramente realista y momentáneo. La puntuación de gestos y réplicas por parte de la
orquesta busca hacer de ellos, elementos significativos dentro de la escenificación total.
Cabe aclarar que formalmente no se buscaba la imitación de la materialidad de los
acontecimientos si bien se trabajaba sobre ellos.
No obstante estas actuaciones aparecen como imitativas, independientemente de los
timbres o sonidos usados, debido a su carácter puntual y sobre todo sincrónico:

La sincronización es en el cine un criterio predominante que consigue superponer


sonidos e imágenes que, sin embargo, resultan opuestos por todos los conceptos. En
la ópera, este sincronismo música-acciones corrientemente utilizado, no plantea
problema alguno, puesto que se integra en cierta estilización gestual y decorativa del
conjunto. En el cine debe manejarse de manera más insidiosa, para que no se
perciba en una intención solamente imitativa, ni caiga en el puro gag de cartoon (...)
El cine es sin duda un arte realista en el que se acepta una cierta estilización de
modo distinto que en el escenario; es cierto, por otra parte que este arte realista no
ha progresado sino por medio de infracciones de su propio principio, y mediante
demostraciones de irrealismo. (Chion)

Utilización puntuadora de los elementos del decorado sonoro (EDS)


Los EDS son aquellos sonidos con una fuente más o menos puntual y una aparición
relativamente frecuente que contribuyen a poblar y a dar una sensación de espacio a la
película por medio de puntuales toques diferentes y localizados.
El ladrido lejano de un perro, el timbre telefónico del vecino o una sirena de policía, son
EDS. Habitan y definen un espacio a diferencia de sonidos permanentes como las olas del
mar o el canto de los pájaros que son el espacio mismo.
Uno de los papeles de estos elementos es narrativo, al recordar el marco de la acción y sus
dimensiones, pero también puede desempeñar un papel puntuador si se distribuye
adecuadamente en el ritmo de la escena.
Valga mencionar que en el análisis sonoro nos encontramos con la pluralidad de los
elementos que pueden llegar a tener sentido en varios niveles a la vez.

Convergencias/divergencias: la anticipación
La dinámica de una secuencia audiovisual se pone en marcha con un movimiento de
cámara, un ritmo sonoro, los actos de los protagonistas que desencadena en el espectador
una anticipación cuya expectativa será confirmada o negada por el siguiente paso.
Esta dinámica tiene una correspondencia auditiva que de igual manera transcurre
heterogéneamente. Marca tendencias, indica direcciones, posee leyes de evolución y
repetición, que mantienen la expectativa o la resuelven.
La música suele cumplir frecuentemente este papel, tiene una curva que deja esperar una
cadencia y la anticipación de esta cadencia por parte del oyente se sitúa en su percepción.
En la cadena audiovisual el espectador localiza consciente o inconscientemente la dirección
de evolución de ésta, detecta los acelerandos y crescendos para verificar si se resuelven
según lo previsto. El realizador maneja esta dinámica llevándola al desenlace previsto o por
el contrario desviándolo hacia otro lado.

Separar: el silencio
Ha sido necesaria la aparición del cine sonoro para que la interrupción de voces y ruidos
evidencien el silencio.
Pero el silencio no es necesariamente la interrupción técnica del flujo sonoro, de hecho es
importante grabar minutos en “silencio” de los espacios donde se rueda ya que cada lugar
aporta su ambiente por imperceptible que sea. A la hora de editar es importante usar
aquellas capturas para las transiciones y para dar uniformidad a escenas que aunque
rodadas en el mismo lugar han sido tomadas en tiempos diferentes presentando notorios y
molestos cambios en el fondo sonoro.
El silencio entonces es más que el vacío, siempre está inserto en un contexto, “…dicho de
otro modo, nunca es un vacío neutro; es el negativo de un sonido que se ha oído antes o
que se imagina; es el producto de un contraste.” (Chion)
Por ejemplo cuando se enmudece el ambiente y se dejan oír sonidos que normalmente son
imperceptibles como el tic-tac del reloj.
Otros ruidos utilizados como sinónimo de silencio son: animales en la lejanía, relojes de
pared, los roces que sugieren intimidad.
También añadir un poco de reverberación a los pasos solitarios en una calle pueden reforzar
el sentimiento de vacío y de silencio pues normalmente esta reverberación no sería
perceptible con otros ruidos sonando.
EL PUNTO DE SINCRONIZACIÓN, LA SÍNCRESIS
Definición
“Un punto de sincronización (PDS) es, en una cadena audiovisual un momento relevante de
encuentro síncrono entre un instante sonoro y un instante visual; un punto en el que el
efecto de síncresis (véase más adelante) está más acentuado: como un acorde musical más
afirmado y más simultáneo que los demás en una melodía.” (Chion)
La aparición significativa y acentuada de estos puntos en un audiovisual, responde en alto
grado a leyes gestalticas:
 Doble ruptura inesperada y sincrónica de audio e imagen. Son estos los cortes cut-
cut de sonido e imagen característicos de la lógica externa y frecuentes en películas
de suspenso.
 Puntuación premeditada en la que coinciden los caminos de sonido e imagen antes
separados. Se trata del punto de sincronización de convergencia.
 El carácter físico. Cuando el punto de sincronización recae en un primer plano
creando un intenso efecto visual o de otro lado cuando el sonido tiene más volumen
situándose en un primer plano sonoro.
 El carácter afectivo y semántico. Cuando una palabra en el diálogo que tiene un
significado importante se dice con cierta acentuación, puede conformar un punto de
sincronización con la imagen.
El sentido de los puntos de sincronización está dado por la relación con el contenido de la
escena y la dinámica de la película. Los encuentros verticales entre elementos son los que
imponen el fraseo y la cadencia de la cadena audiovisual.

Punto de sincronización evitado


El ejemplo es la típica escena de suicidio cuando el personaje se encierra en su despacho,
toma una pistola del cajón, súbitamente la imagen nos saca del despacho y luego
escuchamos el ruido de la detonación.
Aparte de evitarnos una escena sangrienta un punto de sincronización evitado puede crear
un efecto más poderoso que si se nos mostrara.
Si escuchamos un ruido repetido de splash sobre una toma de la superficie de un lago
donde no vemos los objetos cayendo, en nuestro interior hay un punto de sincronización
intenso pues el objeto en cuestión, acusmático, puede ser cualquier cosa.

El golpe, símbolo del punto de sincronización


El encuentro puntual, instantáneo, abrupto de un sonido y de un impacto visible se convierte
en la representación más directa del punto de sincronización.
Aunque en la realidad no se produzca un sonido significativo, el audio lo expresa ya que de
otra forma no sería verosímil a nuestro entendimiento.
“Abandonada a si misma, en efecto, la imagen ultrabreve del golpe no se fija en la memoria,
queda como perdida, mientras que un sonido ultrabreve pero bien definido tiene el privilegio
de fijar directamente su forma y su timbre en la conciencia en la que se repite como eco”
(Chion)
El sonido entonces hace que se vea lo que no se pudo ver ya que normalmente los golpes
no se ven y ni siquiera suceden.

PDS acentuados y elasticidad temporal


Con la llegada del cine sonoro la elasticidad temporal fue eliminada poco a poco por lo
drástico de la sincronía.
Posteriormente y sobre todo en las películas de acción, la ralentización de secuencias se
convirtió en recurso expresivo introducido en un contexto realista donde los golpes y
explosiones crean los necesarios puntos de encuentro y de referencia.
El los dibujos animados japoneses donde el tiempo es fragmentado a través de
ralentizaciones y secuencias de fotos fijas, el golpe, punto de conexión entre ojo y oído, es
el que permite que a su alrededor el tiempo se dilate, se tense, se estire casi hasta el infinito
como en las series de Animé.

La síncresis, el resorte de la sincronización


Chion introduce este neologismo combinando los términos “sincronismo” y “síntesis”. Se
define como la atracción o soldadura natural que se produce cuando un fenómeno sonoro y
uno visual coinciden en un mismo momento independientemente de toda lógica racional.
Dicho concepto hace que por ejemplo, en el prólogo de Persona nunca dudemos que los
sonidos que escuchamos sobre las manos clavadas, corresponden con los del martillo que
clava. Por tanto la síncresis es la que permite que exista el doblaje y la postsincromización
como técnicas audiovisuales también permite que para un rostro puedan existir infinidad de
voces o que para un martillazo puedan funcionar diferentes sonidos.
Aunque la cotidianidad nos la haga parecer algo natural, en el cine fue todo un
acontecimiento cuando apareció y aún hoy es algo llamado a redescubrir.
Su poder es tal que en películas experimentales puede funcionar asociando elementos
dispares e incluso antagónicos que terminan irremediablemente asociados. La síncresis es
pavloviana.
En Mi tío Tati utilizó variadas maneras de sonorizar los pasos, desde golpes a cristales,
hasta el bote de las pelotas de ping-pong.
Con todo, la síncresis no es completamente automática; si se arrojan sonidos al azar sobre
imágenes, funcionará para unos y para otros no. Está en función del sentido y se organiza
según leyes gestálticas y efectos de contexto o las características físicas del sonido.
Para situaciones previsibles como los pasos, la síncresis es incontestable e ineludible como
los demuestra Mi tío, funciona a la perfección.

Sincronismo amplio, medio, estrecho


La síncresis no es un concepto cerrado y a absoluto con un sólo nivel de existencia. Su
elasticidad, sobre todo en términos de sincronización labial puede marcar un estilo.
En este campo hay quienes son adeptos a un sincronismo estricto y fijo mientras que otros
más amplios que no se inquietan por los desfases adecuándose a la totalidad de los gestos
y la expresión corporal.
“En líneas generales, un sincronismo amplio da un efecto menos naturalista, más fácilmente
poético y más relajado, y un sincronismo muy rígido tensa más fuertemente el tejido
audiovisual.” (Chion)

4. LA ESCENA AUDIOVISUAL

Hay grandes diferencias entre la escena visual y la auditiva.


Primero que todo, la imagen está cortada por unos bordes y contenida en un marco, el
sonido es lo contrario, no es contenido por nada ni tiene bordes. Además no tiene un límite
en su composición, pueden añadirse tantos sonidos como se quiera simultáneamente unos
a otros, hasta el infinito.
Otra diferencia radica en que los sonidos se sitúan en diferentes niveles de realidad:
Pueden ser la música de acompañamiento convencional que es en off; o el diálogo
sincronizado, que es diegético.
El marco visual sólo se sitúa casi siempre en uno de estos niveles a la vez.

Por lo tanto se puede afirmar que el sonido no es contenido por nada mientras la imagen
tiene un marco que la contiene. No existe entonces un continente sonoro.
Ahora bien, cuando los sonidos se superponen a una imagen en movimiento pueden ocurrir
varias cosas:
 Unos sonidos quedan englobados como in y sincronizados.
 Otros quedan merodeando la superficie y por los bordes en un fuera de campo.
 Algunos otros claramente situados fuera de la diégesis, en un “foso de orquesta”
imaginario (la música en off), o sobre una especie de palco, como el de las voces en
off.

IMANTACIÒN ESPACIAL DEL SONIDO POR LA IMAGEN


La primera pregunta a la que nos remite un sonido es, ¿de dónde viene?, hablamos
entonces de su localización, o mejor, la de su fuente.
En el contexto audiovisual ocurre un fenómeno sensorial particular pues si observamos una
película cuyo sonido es monofónico y no procede exactamente del lugar de la pantalla
donde la imagen produce el sonido; nuestra percepción es que este sonido sí proviene de
allí.
Si se trata, por ejemplo, de un ruido de pasos y el personaje que camina atraviesa la
pantalla, los sonidos de sus pasos parecerán seguir su imagen, aunque en el espacio real
de la sala sigan saliendo del mismo altavoz fijo.
Si el personaje está fuera de la pantalla, los pasos se percibirán como fuera del campo, un
fuera de campo más mental que físico; pero en todo caso, no vendrán de la pantalla.
Más aun; si en la sesión a la que asistimos el altavoz no está situado tras la pantalla, sino
colocado en cualquier otro punto de la sala o incluso si los sonidos suenan en nuestra
cabeza por medio de los auriculares, estos sonidos no dejarán por ello de percibirse como
emanados de la pantalla, y eso a pesar de la evidencia de nuestros sentidos que, por simple
análisis espacial, podrían establecer que vienen, en realidad, de otro lugar.
Quiere decir entonces, que hay en el cine una imantación espacial del sonido por la imagen.
Con respecto a los diálogos y su localización dentro de la pantalla se presentaron ciertos
problemas, pues hubo tentativas de espacialización del sonido con la aparición de los
multipistas.
Tomlinson Holman explica el problema con un ejemplo del film Lawrence de Arabia:
En una escena en que el personaje habla desde el lado izquierdo de la pantalla con el audio
panoramizado, se viola el principio de continuidad cuando la escena siguiente es un close-
up donde el sonido tiene que dar un salto repentino al centro, para no quedarse a la
izquierda.
Otro factor que influye en nuestra percepción sonora se presenta si los altavoces muestran
diferencias tímbricas entre ellos. Los saltos de un lado a otro del audio pueden molestar y
ser notorios sacándonos de la diégesis. Es por esto que los diálogos suelen estar
generalmente en el centro y ser monofónicos.
Con todo, hay ocasiones en que se panoramizan para expresar voces fuera de campo o un
leve desfase si dos personas dialogan lado a lado.
Con el manejo actual del Dolby se ha aprendido la lección de los ensayos de espacialización
realista y de sus efectos. Actualmente las mezclas multipista que se realizan son muy a
menudo compromisos entre localización mental y localización real.

Influencia del sonido en la percepción espacial


El sonido puede acrecentar conceptos espaciales como profundidad, amplitud y altura. Las
tres dimensiones son definidas por medio del proceso de la señal, la panoramización
(panning) y la mezcla.
En el primer caso la reverberación que recrea las características de reflexión del sonido de
un lugar, unifica espacialmente la pista de audio. La manipulación de las frecuencias o
ecualización, también juega un papel importante en establecer la profundidad pues las altas
frecuencias, que son más fácilmente absorbidas en la distancia, producen un efecto de
alejamiento si se reducen. El volumen también influencia nuestra percepción de profundidad
ya que los sonidos fuertes indican cercanía
En segundo lugar la panoramización es usada para contraer o dilatar la sensación de
amplitud. Por ejemplo, si queremos en una escena dar la impresión de encierro (un
submarino), podemos reforzar la idea mezclando todos los sonidos hacia el centro. En el
momento que se abandona el submarino, los sonidos se mezclan abriendo el estéreo o el
surround para expresar un espacio narrativo más amplio.
En el caso de la altura, perspectivas desde arriba pueden ser resaltadas con el sonido. Es
sabido que las frecuencias bajas recorren nuestro cuerpo desde arriba hasta los pies, por lo
que tal respuesta psicológica puede ser usada cuando una imagen desciende, con sólo
agregar progresivamente bajas frecuencias a la mezcla.
En la animación es habitual usar frases musicales para dramatizar las perspectivas
superiores. Cuando la imagen asciende o desciende, la melodía se mueve en la misma
dirección.

LA ACUSMÁTICA
Acusmática es una antigua palabra de origen griego teorizada por Pierre Schaeffer. Significa
“que se oye sin ver la causa originaria del sonido”, o “que se hace oír sonidos sin la visión de
sus causas”. La radio, el disco o el teléfono, que transmiten los sonidos sin mostrar su
emisor, son por definición medios acusmáticos. La escucha contraria a la acusmática
propone Chion llamarla “escucha visualizada”.
Según el autor un sonido puede realizar en una película, desde su aparición dos clases de
trayectos:
 El sonido es de entrada visualizado y, seguidamente acusmatizado
 El sonido es acusmático para empezar y sólo después se visualiza.

El primer caso asocia desde el comienzo el sonido a una imagen precisa, que podrá
reaparecer más o menos clara en la cabeza del espectador cada vez que este sonido sea
oído de nuevo como acusmático: será un sonido encarnado, marcado por una imagen, sin
misterios.
El segundo caso es el favorito de las películas de misterio, preserva durante mucho tiempo
el secreto de la causa del sonido y del aspecto de la fuente, antes de revelarla. Mantiene
una tensión, una expectación, y constituye por tanto en sí mismo un procedimiento
dramatúrgico puro, análogo a una entrada en escena anunciada.
Un sonido o una voz conservados como acusmáticos crean en efecto un misterio sobre el
aspecto de su fuente y sobre la misma naturaleza, propiedades o poderes de esta fuente,
aunque sólo sea por el escaso poder narrativo del sonido en cuanto a su causa.

Fuera de campo in y off


El sonido fuera de campo es el sonido acusmático en relación con lo que se muestra en el
plano, es decir, la fuente es invisible en un momento dado, temporal o definitivamente.
Se llama, en cambio, sonido in a aquel cuya fuente aparece en la imagen y pertenece a la
realidad que ésta evoca.
En tercer lugar, Chion propone llamar sonido off a aquel cuya fuente supuesta es, no sólo
ausente de la imagen, sino también no diegética, es decir, situada en un tiempo y un lugar
ajenos a la situación directamente evocada.
Por ejemplo, las voces de comentario o de narración llamadas en inglés voice-over y, por
supuesto, la música orquestal.

Excepciones
Con todo, aparecen situaciones que son excepcionales y escapan a estas tres
clasificaciones:
Por ejemplo, ¿dónde hay que situar los sonidos (generalmente las voces) procedentes de
aparatos telefónicos, altavoces de radio, computadoras parlantes situados en la acción?
¿Qué hacer, además, con el caso en que el personaje presente en la escena habla de
espaldas a nosotros, de modo que, no le vemos hablar? ¿Es su voz acusmática (fuera de
campo)?
¿Y qué decir de las voces llamadas “interiores” de un personaje visible en la imagen: voz de
su conciencia, voces de sus recuerdos o de las escenas que fantasea?
¿Dónde se colocarán los sonidos de ambiente global tales como los cantos de pájaros y el
ruido del viento, que suenan, por ejemplo en los exteriores en plena naturaleza y que sería
ridículo caracterizar como fuera de campo, bajo pretexto de que no se “ve” a los pájaros piar
o al viento soplar?
Aunque estas situaciones escapan a la clasificación no invalidan la dialéctica entre dentro/
fuera de campo y acusmático/ visualizado, pero exigen nuevas categorías.

El sonido ambiente (sonido territorio)


Se trata del sonido que rodea una escena y habita su espacio sin que nos preguntemos por
la localización de su fuente: los pájaros, grillos o las campanas que repican quedan
englobadas bajo este concepto. Puede llamárseles también sonidos territorio, porque sirven
para explicar un lugar con su presencia continua y extendida por todas partes.

El sonido interno
Es el que, situado en el presente de la acción, corresponde al interior físico y mental de un
personaje: ya sean sus sonidos fisiológicos de respiración, de jadeos y de latidos del
corazón (que podrían bautizarse como sonidos internos-objetivos), o sus voces mentales,
sus recuerdos, etc. (que llamaremos internos-subjetivos o internos-mentales).

El sonido on the air


Chion llama sonidos en las ondas (on the air) a los sonidos supuestamente retransmitidos
eléctricamente, por radio, teléfono, amplificación, etc. Esos sonidos adquieren en la pantalla
un status particular y autónomo; en ocasiones son nítidos sin ningún efecto que recree el
aparato transmisor, en otras están coloreados simulando el sonido de la fuente y con
reverberaciones que dan cuenta de su alejamiento.

Vemos entonces que las diferentes combinaciones entre fuera de campo, in, off, y las
excepciones, entregan una compleja gama de posibilidades significativas:
 La oposición acusmático/visualizado.
 La oposición objetivo/subjetivo o real/imaginado,
 La diferencia pasado/presente/futuro.

Lugar del sonido y lugar de la fuente


Sonido y fuente son dos fenómenos distintos y están relacionados estrechamente con el
espacio en que se desarrollan. Un golpe fuerte sobre el suelo de un gran espacio
reverberado genera reflexiones de sonido en todas sus superficies; la fuente es claramente
puntual, pero el sonido en sí es la suma de todos los reflejos y se difunde en todas
direcciones por toda la superficie del recinto.
En el caso de los sonidos ambientales que se componen de múltiples fuentes (al agua,
cantos de pájaros, grillos) lo importante es el espacio que definen más que sus diversos
orígenes.
En la puesta en escena de un concierto hay varias posibilidades de dirigir el sonido. Se
puede acentuar la fuente del sonido, el instrumento o el cantante o también el sonido mismo
que habita todo el lugar independiente de las fuentes.
Tenemos entonces que los sonidos reverberados expresan más el lugar que los contiene
que un sonido seco, pero con la voz sucede un caso particular.
Una voz de narrador o voz interior o voz-yo, se expresa sin reverberación haciéndonos
sentir que proviene de los pensamientos del personaje pero insertada en el espacio
diegético.

5. EL PAPEL EXCEPCIONAL DE LA MÚSICA

Música de foso y música de pantalla


Es la que acompaña la imagen desde una posición off, fuera del lugar y del tiempo de la
acción. El término se inspira en el foso de la orquesta de la ópera clásica. También se le
conoce como música no-diegética.
Por el contrario, música de pantalla es la que produce una fuente situada directa o
indirectamente en el lugar y el tiempo de la acción, aunque esta fuente sea una radio o un
instrumentista fuera de campo. También se le conoce como música diegética.
Una música inscrita en la acción puede combinarse con otras generando nuevas categorías:
 La música de pantalla se complementa con la de foso. Es el caso de alguien que
canta y la orquesta de foso lo acompaña.
 La música comienza como música de pantalla y prosigue transformándose en
música de foso alejándose de la acción que la produjo. La opción contraria también
es posible como cuando un personaje o instrumentista retoma el tema que ha
servido de acompañamiento en off. Así sucede en Mi tío en la escena de la carretilla;
la pegadiza música de acompañamiento termina siendo tarareada por los personajes
al unísono con la orquesta.
 También está el caso de las músicas on the air que circulan entre las dos posiciones
antes mencionadas.

La música como plataforma espacio-temporal


La música de las películas tiene la particularidad de situarse en un lugar no sujeto a barreras
de tiempo y de espacio como los demás elementos visuales y sonoros que deben funcionar
dentro de la realidad diegética en un tiempo lineal y cronológico.
“La música en el cine es al mismo tiempo el pasaporte por excelencia, capaz de comunicar
instantáneamente con los demás elementos de la acción concreta (por ejemplo, acompañar
desde el off a un personaje que habla en el in) y de bascular instantáneamente del foso a la
pantalla, sin replantear por ello la realidad diegética o llenarla de irrealidad, como haría una
voz en off que interviniese en la acción…Fuera de tiempo y fuera de espacio, la música
comunica con todos los tiempos y todos los espacios de la película, pero los deja existir
separada y distintamente.” (Chion)
También ayuda a resumir temporalmente las acciones, es decir, una música de fondo sirve
de base para mostrar editadas, situaciones que toman mucho tiempo.
Inversamente también permite dilatar el tiempo como en los largos duelos del oeste en los
que escenas de gran inmovilidad la música resulta esencial para manejar la lentitud del
tiempo.

6. FUERA DE CAMPO RELATIVO Y FUERA DE CAMPO ABSOLUTO

El fuera de campo sólo es una relación


El fuera de campo no hace referencia a una cualidad del sonido mismo, basta con escuchar
sin ver un fragmento de film para darse cuenta que muchos sonidos off suenan igual que los
que están dentro del cuadro.
El fuera de campo del sonido es pues enteramente producto de la visión, combinada con la
audición. No es sino una relación entre lo que se ve y lo que se oye, y sólo existe en esta
relación; exige, pues, la presencia simultánea de los dos elementos.

Fuera de campo activo y fuera de campo pasivo


Se llama activo cuando el sonido acusmático genera una reacción y curiosidad al
espectador. Normalmente está constituido por sonidos localizables y puntuales.
Algunas películas como Psicosis se basan enteramente en la curiosidad creada por el fuera
de campo activo: ¿cómo es esa madre a la que oímos?
El fuera de campo pasivo es aquel en que el sonido crea un ambiente envolvente, está
esencialmente constituido por sonidos-territorio y por elementos de decorado sonoro.

Bibliografía complementaria

Beauchamp, Robin. Designing sound for animation. Focal Press, 2005.


Holman, Tomlinson. Sound for Film and Television. Focal Press, 2002
Metz, Christian. Ensayos sobre la significación en el cine (1968-1972). Ed Paidós.
Barcelona 2002
Sonnenschein, David. Sound design. The expressive power of music, voice and sound
effects in cinema. Michael Wiese Productions. 2001

También podría gustarte