Documentos de Académico
Documentos de Profesional
Documentos de Cultura
doc 1/7
EL CINE SONORO
El sonido se incorpora al cine en Estados Unidos a
finales de los años 20, desencadenando un proceso de
transformación industrial que acabará extendiéndose a
todas las cinematografías del mundo.
Entre 1926 y 1930, se resuelven los innumerables
problemas técnicos que plantea la sincronización de
imagen y sonido, y también la amplificación del volumen
a los niveles requeridos por las salas de grandes
dimensiones. Pero aunque estas innovaciones prometen
ser una inversión segura, todo el mundo parece estar de
acuerdo en que el cine sonoro es un completo disparate.
Se hablará de las películas sonoras con el nombre
despectivo de “talkies”. Hará que se eclipsen muchas
estrellas del cine mudo, y otras como Chaplin se
resistirán a rodar filmes sonoros.
“El cantor de jazz” 1927
Primer largometraje con música y diálogos
Al principio, sólo una productora menor, la WARNER BROS, mostrará interés por el cambio en su intento de competir
con las grandes compañías de Hollywood, estableciendo un acuerdo adquiere el derecho de explotación del sistema de
grabación y reproducción electrónica a través de discos fonográficos, al que denominarán Vitaphone.
Los primeros ensayos realizados en 1925, van encaminados a la grabación de breves números de variedades, cómicos o
musicales que la productora ofrece, como novedad, junto con su producción de largometrajes mudos. El estreno
definitivo del Vitaphone se realiza al año siguiente con la producción Don Juan (1926),con la música orquestada de la
ópera de Mozart; pero será El cantor de jazz (The Jazz Singer, 1927) el primer largometraje con música y palabras.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 2/7
La diversidad idiomática dificulta la distribución internacional de las películas. Para salvar este obstáculo, las
productoras filman la misma película en varios idiomas, sustituyendo a los actores y actrices, pero utilizando los
mismos decorados y el mismo equipo técnico. Entonces, se le abre a la industria cinematográfica española una
oportunidad de expansión a todos los países hispanohablantes, pero serán las productoras de Hollywood las que toman
esta iniciativa y, a partir de este momento, comienzan a importar también, artistas y técnicos españoles con los que
producirán la versión castellana de sus películas.
Sin embargo pasaron los años y el sonido magnético, que durante las décadas anteriores floreció con las
superproducciones de inmenso realismo, sufrió una grave crisis en los 70. Un declive generalizado acechó a la industria
y hubo que recortar gastos. El resultado fue la vuelta al sonido mono y óptico de baja fidelidad.
En ese momento de crisis fue una resolución muy inteligente: la cabeza lectora de sonido óptico era conocida,
económica y sencilla, y también resultan rentables los modos de captación, transporte y mantenimiento del sonido, a lo
que hay que añadir que el soporte es el mismo que el de la imagen sin añadidos de ningún tipo. Por su parte la banda
magnética cayó en desuso y quedó relegada a estrenos y grandes películas en sólo unas pocas salas. Los rodajes de
grandes producciones se seguían grabando con la mayor calidad posible, pero sólo se hacían contadas copias con esa
calidad, mientras que se optimizaba la calidad de la banda óptica en mono; por supuesto, hasta los evidentes límites que
ésta tiene. Curiosamente muchos hogares disfrutaban en aquellos momentos de los sistemas de alta fidelidad, con
mucha mayor calidad que las salas de cine.
Durante los 80 la industria estaba viviendo una recuperación financiera y se hizo necesario un modo de volver de algún
modo a la calidad de hacia 30 años. Surgieron los sistemas multicanal para algunas películas importantes. El gran
avance fue la investigación de Laboratorios Dolby de un formato de sonido estéreo para películas de 35 mm, cuyo
nombre es conocido por todos nosotros: Dolby Stereo. En el espacio ocupado por la pista convencional óptica mono
hay dos pistas que no sólo contienen información de canales izquierdo y derecho como en sonido estéreo doméstico,
sino que también contienen codificada la información para un tercer canal de pantalla (central) y un canal envolvente
para sonidos de ambiente y efectos especiales.
Este formato no sólo permitió usar el sonido multicanal sino que también mejoró la calidad del propio audio y
supuso un gran avance en cuanto al diseño de la banda sonora: Los sistemas tenían (y tienen) códigos para ser
comprendidos por lectores novedosos, pero también pueden ser asimilados por lectores antiguos para reproducir
el sonido sin las ventajas adicionales. Esto supone que no es necesario cambiar el sistema reproducción sonora de
un cine cada vez que surge una innovación.
En cuanto a la fidelidad, hubo muchas técnicas que la mejoraban, tanto en reproducción como en grabación. Lo
principales fueron la reducción del ruido Dolby A, que elimina el soplo y el sonido de fritura, característicos del
sonido óptico, y la ecualización de los altavoces para ajustar el sonido del sistema a una curva de respuesta estándar.
Como resultado, las películas Dolby Stereo podían reproducirse en los cines instalando procesadores Dolby, con una
respuesta en frecuencia mucho más amplia y una distorsión mucho mejor que las películas convencionales. Otra
ventaja del formato Dolby es que las bandas de sonido se imprimen simultáneamente con la imagen, al igual que
en las anteriores películas mono. De este modo, el coste de las copias ópticas con cuatro canales no es mayor que el
de las mono, y mucho menor que el de las magnéticas. El resultado, aún en los 80, fue la capacidad multicanal
equivalente al de las películas magnéticas de 35 mm, que enseguida quedaron obsoletas, con una mayor fidelidad,
mayor fiabilidad y menor coste.
En 1986, los Laboratoriso Dloby introdujeron un nuevo proceso de grabación denominado Dolby Spectral Recording.
Como sistema de reducción de ruido era un sistema de codificación-decodificación simétrico usado tanto en grabación
como en reproducción. Alcanzaba una reducción de ruido equivalente al doble que el sistema Dolby A. Las bandas de
sonido óptico de 35 mm tratadas con Dolby SR en lugar de Dolby A no sólo sonaban excelentemente en los cines con
los nuevos procesadores SR, sino que también se podían reproducir satisfactoriamente en todos los cines con Dolby
Stereo. Esto llevó a la situación actual en que prácticamente todas las copias con sonido analógico tengan el
formato Dolby SR.
El siguiente desarrollo de Laboratorios Dolby (que ya se había convertido en la máxima autoridad en el campo del
diseño de pistas de audio) fue presentado en 1992 y pasaba ya al sistema digital. El Dolby Digital consta de una banda
de sonido óptica compuesta por seis canales digitales, además de una banda analógica de cuatro canales SR. Todo
ello en una película de 35 mm. Este formato fue otro avance significativo en el sonido cinematográfico que permitía
cinco canales independientes (izquierdo, central, derecho, Surround izquierdo y Surround derecho) y un sexto canal
para efectos de baja frecuencia (los bajos de una orquesta, golpes, temblores de tierra y todos los sonidos que precisen
de un refuerzo en este campo). Además de seis canales, el formato Dolby Digital proporciona una gran capacidad
dinámica, amplia respuesta en todas las frecuencias, baja distorsión y la inmunidad al desgaste similar a las películas
actuales de celuloide. Hoy es el formato digital más conocido, con el que se han realizado un mayor número de
películas y el que más cines de todo el mundo tienen instalado.
El último avance del sistema Dolby ha sido el Dolby Digital Surround EX, que, como su propio nombre indica,
añade una pista Surround extra al Dolby digital. Este canal se reproduce por los altavoces Surround de la pared trasera
de las salas. Surgió en 1999 y ha sido un recurso muy solicitado para dotar de más espectacularidad a las producciones
de Hollywood.
LA MÚSICA
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 5/7
Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella
que pertenece al mundo de los personajes (por ejemplo, en una escena de baile en una película de los años 50, la música
de la orquesta que toca en la sala) y la música no diegética: la que existe fuera del mundo de los personajes, y por tanto
ellos no la pueden oír.
Aunque la función principal de la música diegética es la de suministrar apoyo y coherencia a aquello que se nos
muestra en la imagen el hecho de hacerla necesaria puede ir ligado a unas intenciones más complejas del realizador (y
no olvidemos que los grandes realizadores consiguen subvertir esta dicotomía -una música diegética se funde en una no
diegética). Sea o no necesaria, la música de una producción audiovisual puede cumplir alguna de las siguientes
funciones:
- Suministrar información: la letra de una canción puede explicarnos cosas que pasan, sentimientos de
los personajes, etc.; también el estilo musical nos puede informar de la época y el lugar en el que se
desarrolla la acción.
-Captar la atención del espectador: a base de golpes orquestales, fanfarrias, sintonías de programas.
-Establecer el ritmo: de la edición de la imagen o del diálogo.
- Mantener el flujo y la continuidad de la acción: la persistencia de una música suavizará cortes
abruptos, rupturas de raccord visual.
Pero lo más importante de la música es que diga algo. La música sugiere. Es un hecho innegable. Es más, por eso
existe. Como imagen auditiva que es, trae recuerdos de otras imágenes o de sentimientos.
- Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos
efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien su origen
sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la grabación de
sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales
tienen los inconvenientes de que es difícil hallar lugares lo suficientemente tranquilos y silenciosos que
garanticen una buena grabación, y que muchos eventos naturales son poco controlables y difícilmente
repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior
antes de incluirlos en la banda sonora.
- Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden
cuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a ser pasos,
roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación los estudios
disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a
partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre
un papel situado encima del micrófono, los sonidos de comida friéndose creados a partir de poner trapos
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 6/7
mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones
o bolitas de plomo, o el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que
ser lo que definitivamente vaya a sonar: posteriormente pueden procesarse o acumularse unos sobre otros
hasta conseguir el tipo de sonido que mejor se adecue.
- Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora
de construir la banda sonora de una producción audiovisual. Suelen venderse en sitios especializados y
están organizadas temáticamente con categorías tales como transporte, naturaleza, domésticos,
electrónicos, exteriores, humanos, etc.
- Efectos electrónicos o sintéticos: Ya en los años 50 algunos creadores de efectos de sonido
construyeron máquinas especiales para generar determinados tipos de efectos, y también son de aquella
época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y
otros dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el
denominado Sampler, que es un sistema electrónico para colocar efectos en tiempo real. Éstos están
almacenados en una base de datos y se insertan adecuadamente. Los sonidos pueden ser naturales, es
decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina
"sonido característico". Es una imitación del objeto que está sonando. Un sonido característico puede
reconocerse, pero no es el original de la fuente sonora sino aquél que se supone, o que se supone que el
oyente puede suponer, que ha de tener la fuente sonora.
- El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le
dota de más intensidad que al resto. La sensación resultante consiste en que sentimos que quien nos habla se encuentra
cerca. Ésta es la función principal de los compresores mencionados antes: Cuando oímos más altas las frecuencias de
poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas
con este sistema.
- El primer plano: Cuando vemos a alguien en pantalla y debe ser el centro de atención también debe tratarse con fuerza
su muestra de audio. Es la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que
sea a él a quien se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, también la música puede
estar en primer plano.
- El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una
conversación en secundaria a la que no prestamos atención (o no debemos). Gosford Park muestra numerosos ejemplos.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 7/7
Otro caso interesante ocurre Parque Jurásico, cuando se visita la celda de los velocirraptores. Se utiliza como recurso
expresivo dando un segundo plano a los personajes que están en primer plano y se va cediendo la atención a otros.
También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo
plano.
- El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es
el de gente en un bar hablando sin que nos demos cuenta de qué dicen.
Hay otros aspectos que tienen que tenerse en cuenta. Uno de ellos es la ambientación. Existen diferencias entre un
espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras,
generalmente, la voz en un espacio abierto suena natural, en un espacio cerrado suena reverberada dependiendo de los
materiales y la arquitectura del entorno. Existen diferentes modelos de reverberación para cada situación. Incluso los
hay prefijados para habitaciones, grandes salones, etc.
Otras situaciones en las que se utiliza el efecto de reverberación es para dotar de importancia a un personaje. Dios,
como personaje en obras audiovisuales, ha tenido reverberación casi siempre que se ha representado en el cine. Incluso
es digno de tener en cuenta el caso de El Show de Truman: Ed Harris (tanto en versión original como aquí, doblado por
Salvador Vidal) susurra al final de la película a Truman. La reverberación con que le oye Jim Carrey es inmensa, y se
ve un plano del cielo gigantesco, ante las palabras "soy el creador". Luego oímos la continuación de la frase "...del
programa de televisión que llena de esperanza y felicidad a millones de personas". Esta parte es más digna de un dios
paródico, y la reverberación desaparece, porque vemos a Ed Harris hablando por un micrófono.
También hay casos en los que las convenciones han dejado atrás el realismo. En las telecomedias no hay
reverberación, porque originalmente se graban ante el público.
La ecualización se utiliza mucho para restar calidad. Esto es un recurso expresivo también importante en algunos casos:
Mediante esta técnica se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva,
también tiene una función correctiva, porque ayuda a disminuir partes no deseables. Pero lo interesante es tratar la
música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más brillo, si se realzan los bajos,
quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales.
Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños
o cualquier aspecto que los realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un
segundo plano a través de una pared con suficiente calidad pero con algo de dificultad para que se le entienda.
Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo
se limita el volumen, se normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es
que las voces se entienden mejor, porque el oyente no tiene obstáculos que impidan reconocer bien la parte que capta
nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la composición musical.
RUIDO Y SILENCIO
En la Teoría de la Comunicación se considera ruido al exceso de información o a la información no deseada. Esta
definición es perfectamente aplicable al sonido. La forma en que el ruido se plasma en el audio es en ondas de sonido
adicionales que dificultan o molestan en mensaje.
De cualquier manera, el ruido de fondo es habitual y característico en las películas. No es lo mismo grabar un momento
de silencio en un parque que en un sótano. Es más, si eliminamos ese ruido, el resultado es irreal. Debe haber un ruido a
no ser que se pretendan dar unas circunstancias concretas.
El silencio podemos entenderlo como un tipo de sonido especial. Su uso dosificado puede generar expectación, o un
gran impacto emotivo cuando el desarrollo lógico de la escena hace esperar un sonido fuerte.
Un tratamiento objetivo del silencio es la ausencia real de sonido en la narración cuando no hay imagen que justifique
un ruido.
El tratamiento subjetivo es utilizar el silencio para crear un ambiente emocional concreto. Además de generar
expectación o de contrastar escenas o mensajes visuales puede llegar a comunicar situaciones de desolación, muerte,
emociones desagradables... pero también tranquilidad o distanciamiento. Matrix es una de las pocas películas que se
han hecho con fragmentos sin absolutamente nada de ruido. La sala blanca completamente vacía donde se encuentran
los dos protagonistas pretende resultar falsa, increíble, y lo consigue mediante diálogos completamente limpios de ruido
y silencios absolutos. En otros casos resulta interesante la necesidad de buscar un ruido de fondo para dar más
credibilidad. Esto ocurre con la restauración de los clásicos y en ocasiones, con nuevos doblajes que se hacen de ellos.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 8/7
Una de las muchas ventajas del nuevo formato DV (Digital Video), en su variante DVCAM o en
la más popular MiniDV, es su mejorada capacidad de grabación de audio. El estándar Digital
Video incluye grabación de audio PCM (Pulse Code Modulation). En la grabación de audio
analógica convencional, las ondas de sonido se registran como cambios en los campos
magnéticos de la cinta. La grabación digital graba el sonido como ceros y unos, tras haber
convertido las ondas en pulsos. La pista de sonido se graba en un tambor de grabación aparte
del de vídeo.
Las ondas de sonido son vibraciones en el aire con dos características básicas: FRECUENCIA
(que va desde los tonos más graves hasta los más agudos) y AMPLITUD, desde débil a fuerte.
Juntas forman lo que se conoce como una onda sinoidal.
La mayoría de las ondas de sonido son una compleja mezcla de ondas sinoidales. Sólo
necesitamos DOS muestras de la onda a su frecuencia más alta para poder reconstruirla más
tarde. La frecuencia de muestreo, pues, debe ser lo suficientemente alta para asegurar al
menos dos muestras a cualquier frecuencia del sonido original. Así, para grabar con esa
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 9/7
suficiente seguridad sonidos de hasta 22.600Hz (el límite audible por un oído humano)
necesitaríamos una frecuencia de al menos 44.100Hz, o 44,1KHz. Esta cifra os sonará a más
de uno como la frecuencia a la que suelen estar grabados los CDs musicales.
Los sistemas digitales de sonido usan el mismo esquema que los ordenadores. Eso significa
que cada dígito tiene solamente dos valores (0 y 1). Cada dígito añadido dobla el número de
valores que ese número puede manejar: Un número de un dígito tiene dos posibles valores (0
y 1); uno de dos dígitos tiene cuatro (00, 01, 10, 11), uno de tres dígitos tiene 8 valores, etc.
Los sistemas digitales miden en "trocitos", mientras que los analógicos miden en continuo. Una
señal digital que mide desde +1voltio a -1voltio oscila entre infinitos valores entre esos dos
puntos, mientras que un sistema digital solo puede "ver" un número finito de esos infinitos
valores. La diferencia entre los infinitos valores analógicos y los x (finitos) valores digitales
añade ruido y distorsión a la señal.
Pues bien, cuantos más dígitos tenga un sistema de grabación digital, más se acercará a la
calidad que es capaz de registrar un sistema analógico. Cada dígito extra, de hecho, corta por
la mitad esa diferencia. Ese aumento de "fidelidad" al original es equivalente a recortar ruido y
distorsión en 6dB (decibelios). En el caso de los sistemas de grabación DV, el modo de
grabación de 12 bits tiene un rango dinámico de 72dB, mientras que el modo 16bits (igual que
el de los CDs de audio) da un rango de 96dB, suficientes para acomodar el rango dinámico de
cualquier sonido.
Y si el sistema analógico de grabación es tan perfecto, ¿por qué no usarlo y olvidar el digital?
Pues la respuesta es bien sencilla: La ventaja FUNDAMENTAL de los sistemas digitales es que
no hay pérdida de información de generación en generación. Así como cuando duplicamos un
CD la copia es perfecta, bit a bit, del original, al copiar la información de una cinta DV a otra (o
al introducirla en el ordenador, editarla, y volver a volcarla a cinta) no perderemos ni un sólo
ápice de su calidad.
Además, la grabación digital tiene otra ventaja: no hay "wow and flutter" (diferencias de
sonido debidas a la irregular marcha del motor de arrastre de la cinta), debido a que los datos
se almacenan en un "buffer" de memoria, que se encarga de corregir las variaciones antes de
mandarlas a nuestro oído.
¿No es maravilloso lo que hemos aprendido hoy? Pues si no te has dormido antes de llegar
aquí, enhorabuena. Ahora sabrás mucho más sobre los principios del arte de la grabación
digital de sonido.
D:\IMAGEN CAV\1CAV\SONIDO\CINE SONORO.doc 10/7
La pista de sonido óptico analógico tradicional es una banda opaca situada junto a la imagen en la película. Las pistas
son una expresión gráfica del audio, unas pistas transparentes cuya anchura varía de acuerdo con las variaciones del
sonido. Al pasar la película, un haz de luz atraviesa las pistas, y una célula fotoeléctrica convierte la luz en una señal
eléctrica que conserva una variación similar. La señal eléctrica se procesa y se amplía hasta convertirla en el código que
los altavoces reproducen.