Está en la página 1de 53

RESUMEN FINAL SONIDO 1

ÍNDICE https://drive.google.com/file/d/1DaXUM9GDnk6RxjFQgVrPV9UAZLUqZAwj/view

Sonido: fenómeno que involucra la propagación radial (en todas las direcciones) de ondas mecánicas
longitudinales producidas por el movimiento vibratorio de un cuerpo (una fuente) que genera perturbaciones
de partículas (fluctuaciones de presión por compresión y descompresión de un medio elástico). Estas
variaciones de presión, captadas por el oído humano, producen en el cerebro la percepción del sonido.

Sonido y Grabación. Introducción a las técnicas sonoras. (Rumsey & McCormick)


Capítulo 1: ¿Qué es el sonido?
Fuente vibratoria
El sonido se produce cuando un objeto (la fuente) vibra y origina un movimiento en el aire que lo rodea. Con
esta pulsación, en el aire que le rodea se originarán alternativamente compresiones y descompresiones, que
irán alejándose. Estas se conocen como «ondas longitudinales», puesto que las partículas del aire se mueven
en la misma dimensión que la dirección en que viaja la onda. Como alternativa al movimiento longitudinal está
el movimiento «transversal» de la onda. Éste es el que tiene una cuerda que vibra cuando está sujeta por
ambos extremos: el movimiento de la cuerda forma ángulos rectos con la dirección del movimiento aparente
de la onda.

Características de una onda de sonido


-Frecuencia: velocidad con la que oscila la fuente. Se mide en hercios (Hz), o ciclos por segundo (cps). El
valor 1000 hercios se denomina 1 kilohercio (1 kHz).
-Amplitud: grado de compresión y descompresión del aire, resultado del movimiento de la esfera. Tiene que
ver con el nivel sonoro cuando es percibido finalmente por el oído.
-Longitud de onda: distancia entre dos picos adyacentes de compresión o descompresión, conforme la onda
viaja por el aire. Se representa normalmente con la letra griega lambda (A,). Depende de lo rápido que viaje el
sonido, puesto que, dado un tiempo fijo entre picos de compresión (o sea, una frecuencia fija), una onda que
se desplaza rápidamente producirá una distancia entre picos mayor que la de una onda de desplazamiento
lento.
Las características de una onda de sonido (la forma de onda) pueden representarse gráficamente mediante
un eje vertical para la amplitud y un eje horizontal que representa el tiempo. Los valores positivos como los
negativos se dibujan en el eje vertical: esto indica compresiones (+) y descompresiones (-) del aire.
Cuando la fuente vibra de forma elemental y regular se denomina «movimiento armónico simple». El
resultado de este movimiento es una onda simple conocida como «onda senoidal».
El oído humano es capaz de percibir sonidos con frecuencias comprendidas entre 20 Hz y 20 kHz,
aproximadamente, conocido como «margen de frecuencias» o «espectro de audio».

Cómo viaja el sonido en el aire


El aire se compone de moléculas de gas y tiene la propiedad de la elasticidad. Las ondas de sonido
longitudinales viajan a través del aire de manera análoga. El semiciclo de compresión creado por la fuente
vibratoria hace que se produzca un efecto de choque entre partículas de aire contiguas. A esto sigue
normalmente una descompresión del mismo calibre, que provoca un desplazamiento similar de partículas en
sentido opuesto.
El efecto neto resultante es que las partículas individuales no viajan realmente -oscilan alrededor de un punto
fijo- pero el resultado es que se genera una onda que parece moverse alejándose de la fuente. La velocidad a
la que se aleja depende de la densidad y elasticidad de la sustancia que atraviesa. En el aire esta velocidad
es relativamente baja, comparada con la velocidad a la que el sonido viaja a través de la mayoría de los
sólidos. La velocidad del sonido en el aire es, aproximadamente, 340 metros por segundo (m s“'), aunque ello
depende de la temperatura del aire. A la temperatura de congelación la velocidad se reduce hasta estar
próxima a los 330 m s'1. En el acero, para dar un ejemplo de sólido, la velocidad del sonido está alrededor de
los 5100 m s '.

1
Sonidos simples y sonidos complejos
Las ondas senoidales representan un sonido puro, puesto que tienen energía para una única frecuencia. Se
las denomina normalmente tonos puros. No son fáciles de encontrar en la vida real (aunque pueden
generarse eléctricamente) puesto que la mayoría de las fuentes sonoras no vibran de una manera tan simple.
La mayoría de los sonidos reales, sin embargo, están hechos a base de combinaciones de diferentes
modelos vibratorios, de los que resulta una forma de onda más compleja. Cuanto más compleja es una forma
de onda, más tiende a parecerse al ruido, y cuando la onda presenta un modelo muy aleatorio se dice que
dicho sonido es ruido.
La característica más importante de los sonidos que tienen un tono definido es que son repetitivos: la forma
de onda, no importa lo compleja que sea, repite su patrón a intervalos regulares y siempre de la misma
manera. Todas estas ondas pueden descomponerse en series de componentes conocidos como armónicos,
mediante un proceso matemático denominado análisis de Fourier (debido al matemático Joseph Fourier).
Esta figura muestra otra manera de representar gráficamente las características del sonido; a saber, mediante
las denominadas líneas espectrales, que indican la frecuencia en el eje horizontal y la amplitud en el vertical.

Espectro de frecuencias de los sonidos periódicos


La onda senoidal simple tiene una representación espectral que consiste en un único componente a la
frecuencia de la onda. Esta se conoce como la frecuencia fundamental de oscilación. El resto de las ondas de
la figura, como la onda cuadrada, tienen una frecuencia fundamental y además una serie de componentes
adicionales por encima de ella. Estos se conocen como armónicos, aunque también se les denomina
sobretonos o parciales.
Los armónicos son componentes de la frecuencia de un sonido situados a múltiplos enteros de la frecuencia
fundamental; o sea, la frecuencia doble, la triple, la cuádruple, etc. Así, un sonido cuya frecuencia
fundamental sea 100 Hz podría también tener armónicos a 200 Hz, 400 Hz y 600 Hz. La razón de la
existencia de estos armónicos está en el hecho de que la mayoría de las fuentes vibratorias simples son
capaces de vibrar en varios modos armónicos simultáneamente.
De acuerdo con la terminología en uso, el fundamental se denomina también primer armónico, el siguiente
componente segundo armónico, y así sucesivamente. De manera un tanto confusa, al segundo armónico se
le denomina también primer sobretono.
Por último, dentro del espectro de un determinado sonido también pueden existir sobretonos que no están
directamente relacionados con el fundamental mediante un simple múltiplo entero. En estos casos no es
correcto denominarlos armónicos y sería más apropiado llamarlos sobretonos o parciales inarmónicos Suelen
aparecer en mayor número en el caso de señales vibratorias que tienen una forma complicada, y que no
oscilan siguiendo un movimiento armónico simple, sino que tienen varios modos periódicos de vibración.

Espectro de frecuencias de sonidos no periódicos


Las formas de onda no periódicas no tienen una tonalidad definida y su sonido se asemeja de alguna manera
al ruido. Sus espectros de frecuencia podrán estar formados por una colección de componentes de
frecuencias no relacionadas entre sí, aunque algunas frecuencias pueden ser más dominantes que otras. El
análisis de estas ondas con el fin de representar su espectro de frecuencias se consigue gracias a una
técnica matemática llamada transformación de Fourier, de la que resulta una representación en el dominio de
la frecuencia a partir de una forma de onda en el dominio del tiempo.
Los pulsos cortos y aislados tienen un espectro continuo, que se extiende sobre un amplio margen de
frecuencias; cuanto menor es la duración del pulso mayor es el espectro de frecuencias y menor la energía
total. A medida que las ondas se hacen más aleatorias tienden a sonar como un soplo. A una señal
completamente aleatoria, en la que la frecuencia, amplitud y fase de sus componentes tienen la misma
probabilidad y varían constantemente, se le denomina ruido blanco. El espectro de una señal de ruido blanco,
promediado en un período de tiempo, es plano y se extiende sobre toda la banda de audiofrecuencia (y, en
teoría, por encima de ella). El ruido blanco posee la misma energía para un ancho de banda
dado, mientras que otro tipo de ruido, conocido como ruido rosa, se caracteriza por tener la
misma energía por octava. Por esta razón el ruido blanco parece tener más energía en alta frecuencia que el
ruido rosa.
2
Fase
Se dice que dos ondas de la misma frecuencia están «en fase» cuando sus semiciclos de compresión
(positivos) y descompresión (negativos) coinciden exactamente en el tiempo y en el espacio. Si se suman o
superponen dos señales en fase y de igual amplitud se obtiene otra señal de la misma frecuencia pero de
doble amplitud.
Se dice que dos señales están en contrafase cuando el semiciclo positivo de una coincide con el negativo de
la otra. Si se suman estas señales se cancelarán entre sí y el resultado será una ausencia de señal.
Las diferencias de fase entre señales pueden ser consecuencia de distintos retardos de tiempo entre ellas. Si
dos señales parten simultáneamente de sendas fuentes equidistantes de un observador, estarán en fase
cuando lleguen a él. Si una de las fuentes está más alejada que la otra, la señal procedente de la primera se
retrasará y la relación de fase entre ambas dependerá de la magnitud de este retraso.
Puede deducirse que:
(a) cuanto más alta es la frecuencia mayor es la diferencia de fase que resultaría de un retardo dado entre
dos señales.
(b) según esto es posible que exista una diferencia de fase mayor de 360° si el retardo es lo suficientemente
grande para retrasar la segunda señal más de un ciclo. Resulta difícil decir cuántos ciclos de retardo han
transcurrido -a menos que aparezca una discontinuidad en la señal- puesto que una diferencia de fase de
360° no puede distinguirse de una diferencia de fase de 0°.

El sonido en forma eléctrica


Aunque el sonido que oímos se debe a la compresión y enrarecimiento del aire, a menudo se necesita
convertirlo a forma eléctrica, de manera que permita operaciones tales como ampli­ficación, grabación o
mezcla. Es función del micrófono transformar el sonido de una forma acústica a una forma eléctrica. El
resultado es importante, puesto que si suponemos por un instante que el micrófono es perfecto, la onda
eléctrica resultante tendría exactamente la misma forma que la onda acústica que la originó.
El equivalente, en términos eléctricos, a la amplitud de la señal acústica es el voltaje de la señal eléctrica. Si
pudiésemos medir el voltaje de salida de un micrófono mientras capta
una onda acústica senoidal mediríamos una tensión que variaría también de forma senoidal.
Otro parámetro importante en términos eléctricos es la corriente que recorre el cable des-
de el micrófono. La corriente es el equivalente eléctrico al movimiento de las partículas del aire. De la misma
manera que la onda acústica se traslada por el movimiento de las partículas de aire, la onda eléctrica se
traslada por el movimiento de pequeños portadores de carga que forman parte del metal del cable (estos
portadores se denominan electrones). Cuando el voltaje es positivo la corriente se mueve en un sentido y
cuando es negativo se mueve en sentido contrario. Puesto que el voltaje que genera un micrófono alterna
continuamente entre positivo y negativo -en analogía con los ciclos de compresión y enrarecimiento de la
onda de sonido- la corriente cambia su sentido con cada semiciclo. Las partículas de aire no sufren un
desplazamiento real. De la misma manera los electrones que producen la corriente eléctrica tampoco se
trasladan: simplemente oscilan alrededor de un punto fijo. Esto se conoce como corriente alterna, CA.
Existe también una relación entre la potencia, el voltaje, la resistencia y la corriente. En sistemas de CA el
concepto de resistencia debe sustituirse por el de impedancia, un término complejo que contiene dos
componentes: resistencia y reactancia. La componente reactancia varía con la frecuencia de la señal; por
tanto, la impedancia de un dispositivo eléctrico varía también con la frecuencia.
Los condensadores son dispositivos eléctricos que presentan una alta impedancia para señales de
frecuencias bajas, y baja impedancia en altas frecuencias. No permiten el paso de la corriente continua. Las
bobinas son dispositivos eléctricos que presentan una alta impedancia para señales de frecuencias altas y
baja impedancia para frecuencias bajas. La característica que define a una bobina es su inductancia. La
capacidad se mide en faradios (F) y la inductancia en henrios (H).

Visualización de las características de una onda sonora


Existen dos aparatos capaces de mostrar gráficamente las diferentes características de las señales sonoras
vistas hasta ahora. Sería de gran utilidad poder representar en una pantalla: (a) la forma de onda y (b) su
3
espectro de frecuencias. En otras palabras: (a) la señal en el dominio del tiempo, y (b) la señal en el dominio
de la frecuencia.
Para visualizar la forma de onda se utiliza el osciloscopio, y para mostrar las frecuencias
que están contenidas en una señal y sus amplitudes se utiliza el analizador de espectros. Los dos aceptan a
su entrada señales eléctricas y, tras analizarlas, las presentan en pantalla.
El osciloscopio muestra un trazo móvil que barre la pantalla horizontalmente, de izquierda a derecha, con una
velocidad fija determinada. Por otro lado, la señal de entrada que se quiere analizar actúa sobre la deflexión
vertical del haz, llevándolo hacia arriba para voltajes positivos y hacia abajo para voltajes negativos. De este
modo se dibuja la forma de onda correspondiente a un determinado sonido, conforme éste varía con el
tiempo.
El analizador de espectros funciona de manera diferente, dependiendo del método de análisis espectral. Un
analizador en tiempo real muestra líneas espectrales, como las descritas anteriormente en este capítulo, que
son actualizadas constantemente para representar las componentes de frecuencia de la señal de entrada en
el eje horizontal, junto con sus correspondientes amplitudes en la escala vertical.

El decibelio
El decibelio es una unidad de uso muy extendido en ingeniería de sonido. Al hablar de decibelios se utilizan
números más pequeños, que dan una idea más aproximada de los cambios que representan en la amplitud
de la señal. Al mismo tiempo ayuda a comprimir el margen de valores entre los niveles de sonido máximo y
mínimo que pueden encontrarse en señales reales. El rango de intensidades de sonido que puede captar el
oído humano expresado en decibelios va sólo desde 0 a 140 dB.
Los decibelios no se emplean únicamente para indicar la relación entre dos señales o el nivel de una señal
con respecto a otra de referencia, sino que pueden utilizarse también para describir la ganancia en tensión de
un dispositivo.

Potencia sonora y presión sonora


Una fuente de sonido elemental radia su potencia sonora omnidireccionalmente, o sea, por igual en todas las
direcciones. La fuente de sonido genera una determinada cantidad de potencia, medida en vatios, que se
distribuye gradualmente sobre una extensa área. Esta área va aumentando a medida que el frente de onda se
aleja de la fuente. Así pues, la cantidad de potencia por metro cuadrado que atraviesa la superficie de la
esfera imaginaria que rodea la fuente va disminuyendo conforme aumenta la distancia.
Como dato práctico, la intensidad del sonido directo que parte de la fuente disminuye 6 dB
cada vez que se dobla la distancia a la fuente.
La cantidad de potencia acústica generada por fuentes de sonido real es sorprendentemente pequeña,
comparada con el número de vatios de potencia eléctrica necesarios para encender una bombilla, por
ejemplo. Una fuente acústica que radie 20 W produce un nivel de presión sonora próximo al umbral de dolor
si el oyente se sitúa cerca de la fuente. La mayoría de las fuentes sonoras que podemos encontrarnos a diario
generan potencias de sonido de fracciones de vatio, y esta energía se disipa normalmente en forma de calor.
La cantidad de calor producida por la disipación de energía acústica es relativamente insignificante: la
probabilidad de que se incremente la temperatura de una habitación gritando es mínima, al menos en el
sentido físico de temperatura (!).
La presión sonora es el efecto de la potencia del sonido en sus proximidades. Esto puede explicarse
mediante una analogía térmica: la potencia del sonido equivale a la energía calorífica generada por un
radiador en una habitación, mientras que la presión sonora equivale a la temperatura del aire en la habitación.
La temperatura es lo que apreciaría una persona que entrase en la habitación, si bien la fuente de potencia es
el propio radiador. El nivel de presión sonora («Sound Pressure Level», SPL) se mide en Newtons por metro
cuadrado (N m“2).
Los niveles de presión sonora se expresan normalmente en dB. El SPL expresado en dB puede no
representar con precisión un determinado nivel sonoro. Para ello se utiliza una unidad subjetiva, obtenida
experimentalmente, denominada fono.

4
La ley cuadrática inversa inversa determina el modo en que disminuye la potencia por unidad de superficie
(intensidad) de un frente de onda, conforme éste se aleja de la fuente: la intensidad disminuye de manera
inversamente proporcional al cuadrado de la distancia a la fuente.

Campo libre y campo reverberante


El campo libre, en términos acústicos, es un área en la que no hay reflexiones. Los campos
completamente libres son difíciles de encontrar en la práctica, puesto que siempre existe algún tipo de
reflexión próxima, aunque sea de nivel muy bajo. El resultado es un ambiente acústicamente «muerto».
En el campo libre toda la energía sonora de la fuente se radia desde la propia fuente: no hay energía
reflejada. Así pues, la ley cuadrática inversa determina completamente el nivel sonoro a cualquier distancia de
la fuente. Por supuesto, la fuente puede ser direccional, en cuyo caso deberá tenerse en cuenta el factor de
directividad. Una fuente con un factor de directividad de 2 en su eje de radiación máxima radia en esa
dirección el doble de potencia de la que tendría si estuviese radiando de forma omnidireccional. En cualquier
recinto están presentes tanto el sonido directo como el reflejado. A una cierta distancia de una fuente situada
dentro de un recinto se dice que el campo acústico es difuso o reverberante, puesto que la energía del sonido
reflejado predomina sobre el sonido directo. Un instante después de que la fuente haya empezado a generar
sonido se habrá formado dentro del recinto un modelo difuso de reflexiones, y la energía del sonido reflejado
será prácticamente constante en cualquier punto de la sala. En las proximidades de la fuente el sonido directo
tiene aún un nivel bastante alto, de forma que el reflejado contribuye mínimamente en el total. Esta región del
espacio se denomina campo próximo (en grabación de sonido es frecuente hacer uso de los denominados
«monitores de campo próximo», que son altavoces situados a poca distancia del oyente, de forma que el
sonido directo predomine sobre los efectos que produce la sala).
La distancia exacta a una fuente para la cual la energía reverberante comienza a dominar
sobre la directa depende del tiempo de reverberación del recinto; este, a su vez, depende de la absorción y
del volumen del propio recinto. La distancia crítica, para la cual se igualan los niveles del sonido directo y del
sonido reflejado, es mayor que en el caso de una sala muy reverberante. En un recinto reverberante el nivel
de presión sonora no varía mucho con la distancia a la fuente, puesto que la energía del sonido reflejado es
predominante a partir de poca distancia.

Absorción y reflexión
-Absorción: cuando una onda sonora alcanza una superficie, parte de su energía es absorbida y parte
reflejada. El coeficiente de absorción de una sustancia índica, en una escala de 0 a 1, cuánta energía es
absorbida. Un coeficiente de absorción de 1 significa absorción total. El coeficiente de absorción de las
sustancias varía con la frecuencia.
Los materiales porosos tienden a absorber las frecuencias altas más eficientemente que las bajas, mientras
que los absorbentes de tipo panel o membrana resonante tienden a ser mejores a frecuencias bajas. Para
eliminar dentro de un recinto energía a unas frecuencias determinadas pueden utilizarse absorbentes
artificiales altamente «sintonizados» (absorbentes Helmholtz).
-Reflexión: el tamaño de un objeto en relación con la longitud de onda de un determinado sonido es
importante para conocer si la onda sonora le rodeará o será reflejada por él. Cuando un objeto es grande en
relación a la longitud de onda se comportará como una barrera parcial para el sonido, mientras que cuando el
objeto es pequeño el sonido se curvará o se difractará alrededor de él. Puesto que las longitudes de onda en
el aire varían entre, aproximadamente, 18 metros para frecuencias bajas y algo más de 1 cm para frecuencias
altas, los objetos que podemos encontrarnos más a menudo actuarán como barreras para el sonido de altas
frecuencias, pero tendrán un efecto despreciable en las frecuencias bajas.

Ondas estacionarias
La longitud de onda del sonido varía de forma considerable en todo el margen de frecuencias audibles. En
frecuencias altas, donde la longitud de onda es pequeña, es apropiado considerar el frente de ondas como si
se tratase de luz; como un rayo. Son válidas las mismas leyes, como la de que el ángulo de incidencia de una
onda en una pared es el mismo que el ángulo de reflexión. En frecuencias bajas, donde la longitud de onda
es comparable con las dimensiones de la habitación, es necesario tener en cuenta otros factores, puesto que
5
la sala se comporta en mayor medida como un resonador complejo. En este caso puede haber ciertas
frecuencias para las cuales aparecen fuertes picos y valles de presión en diferentes puntos de la habitación.
Las ondas estacionarias, o eigentonos (llamadas también modos de la sala), pueden producirse cuando la
mitad de la longitud de onda del sonido, o un múltiplo de la misma, es igual a una de las dimensiones de la
sala (largo, ancho o alto). Para un determinado recin-
to, los modos están muy separados entre sí para bajas frecuencias, y más próximos para frecuencias altas.
Por encima de una determinada frecuencia aparecen tantos modos por octava que resulta difícil identificarlos
por separado. Como regla básica, los modos tienden a ser particularmente problemáticos solo hasta los 200
Hz. Cuanto mayor es la sala más próximos se sitúan los modos. En recintos con más de una dimensión igual
se producirán los llamados modos degenerados, en los cuales los modos entre dos dimensiones tienen lugar
a la misma frecuencia, resultando una resonancia más fuerte que en cualquier otro caso, para una
determinada frecuencia. Esto debe evitarse.
Puesto que no pueden evitarse los modos de baja frecuencia como no sea introduciendo una absorción total,
el objetivo a la hora de diseñar una sala es reducir sus efectos ajustando las proporciones entre dimensiones
para lograr una distribución uniforme. Las salas grandes son, generalmente más agradables que las
pequeñas, puesto que la distribución de modos los sitúa más próximos entre sí para bajas frecuencias, y los
modos aislados no tienden a sobresalir tanto. En cualquier caso, el tamaño de la sala debe estimarse en
función del tiempo de reverberación que se quiere conseguir. Construyendo paredes no paralelas no se evita
la formación de nodos; esta medida hace simplemente que sus frecuencias resulten más difíciles de predecir.

Ecos y reflexiones
-Primeras reflexiones: son aquellos ecos procedentes de las superficies más próximas en un recinto. Tienen
lugar a los pocos milisegundos (hasta 50 ms, aproximadamente) del sonido directo que llega al oyente
procedente de la fuente. Le dan al oyente la mayor idea sobre el tamaño de un recinto, puesto que el retardo
entre el sonido directo y las primeras reflexiones es proporcional a la distancia entre el oyente y las
principales superficies del recinto.
-Ecos: pueden considerarse como reflexiones discretas de sonido que llegan al oyente una vez
transcurridos más de 50 ms (aproximadamente) desde la llegada del sonido directo. Son percibidos como
sonidos independientes, mientras que las reflexiones dentro de los primeros 50 ms son normalmente
integradas por el cerebro junto con el sonido directo, no siendo percibidas conscientemente como ecos. Los
ecos se originan normalmente por superficies más distantes y muy reflexivas, como techos altos o paredes
traseras lejanas.
-Ecos pulsantes: ocurren a veces cuando se tienen dos de las paredes de un recinto con superficies paralelas
y reflectantes, mientras las otras dos son absorbentes. Puede suceder que el frente de onda se quede
«atrapado» en sucesivos rebotes entre ambas superficies (las reflectantes) hasta que decae, resultando un
efecto «zumbido» o «campanilleo» en los transitorios (al comienzo y al final de los sonidos impulsivos, como
el de una palmada seca, por ejemplo).
---------------------------------------------------------------------------------------------------------------------------
Capítulo 2: Percepción auditiva
El mecanismo de la audición
El oído humano modifica a menudo los sonidos que le llegan antes de que estos alcancen el cerebro. La
interpretación por parte del cerebro de lo que recibe de los oídos variará dependiendo de la información que
contienen las señales nerviosas.

Percepción de la frecuencia
El movimiento de la membrana basilar depende en gran medida de la frecuencia de la onda
sonora, existiendo un máximo de movimiento tanto más próximo a la ventana oval cuanto más alta es la
frecuencia.
Para frecuencias bajas se ha observado que la membrana se mueve como un todo, con la máxima amplitud
de movimiento en el extremo más alejado, mientras que a frecuencias más altas aparece un pico bien
definido. Por cada octava (cada vez que se dobla la frecuencia), la posición de este pico de vibración máxima
se desplaza una longitud equivalente sobre la membrana.
6
La información sobre la frecuencia se transmite al cerebro de dos formas. A bajas frecuencias las células
ciliadas del oído interno son estimuladas por las vibraciones de la membrana basilar que hace que aquellas
descarguen a lo largo del nervio auditivo pequeños impulsos eléctricos que van a parar al cerebro. Se ha
comprobado que estos impulsos son síncronos con la onda sonora, de forma que en el cerebro se tiene una
medida del período de la señal. No todas las fibras nerviosas son capaces de producir descargas una vez por
cada ciclo de la onda sonora. Así pues, para todas las frecuencias, excepto las más bajas, la información
sobre el período se envía mediante una combinación de señales de las fibras nerviosas junto con varias
descargas por cada ciclo. Se han hecho pruebas que sugieren que las fibras nerviosas vibran más
rápidamente cuanto más fuerte se las «golpea»; esto es, cuanto más fuerte es el sonido, más regularmente
pueden verse obligadas a producir descargas. Además, mientras a algunas fibras les es suficiente con un
bajo nivel de estimulación, otras únicamente se dispararán con niveles sonoros altos.
El límite superior de frecuencia para la cual las fibras nerviosas parecen dejar de descargar
sincronizadamente con la señal está alrededor de los 4 kHz. Por encima de esta frecuencia el cerebro se
basa cada vez más en la posición de máxima excitación de la membrana para
decidir sobre el tono de la señal. Existe una zona de solapamiento, claramente delimitada en el rango de
frecuencias medias -desde unos 200 Hz en adelante-, en la cual el cerebro dispone de dos tipos de
información: por un lado información sobre descarga síncrona, y por otro información sobre la «posición»; en
ambos datos basa sus medidas de frecuencia. Somos mucho menos capaces de determinar con precisión el
tono musical de una nota cuando su frecuencia está por encima del límite de descarga síncrona de 4 kHz.
La selectividad en frecuencia del oído ha sido comparada con un conjunto de filtros. Existe un efecto poco
corriente por el cual el tono que percibimos de una nota tiene relación con el nivel sonoro, de tal forma que el
tono se desplaza ligeramente cuando aquel aumenta. El efecto de los «batidos» también puede apreciarse
cuando hacemos sonar al mismo tiempo dos tonos puros de frecuencias muy parecidas, resultando en este
caso una serie de sumas y cancelaciones según estén entre sí en fase o en contrafase. La denominada
«frecuencia de batido» es la frecuencia diferencia entre las dos señales, de manera que con una señal de 200
Hz y una de 201 Hz, por ejemplo, resultaría un modulación cíclica del nivel general, o batido, de 1 Hz.
Combinando señales algo más separadas en frecuencia se produce una «aspereza» que desaparece una vez
que las frecuencias de las dos señales difieren entre sí por encima de una cierta banda crítica.

Percepción de la sonoridad
La cantidad subjetiva de «sonoridad» no está directamente relacionada con el SPL de un sonido. El oído no
es uniformemente sensible a todas las frecuencias; por ello, se ha ideado un conjunto de curvas que
representan las llamadas líneas isofónicas de audición.

Curvas isofónicas
Fletcher y Munson idearon un conjunto de curvas para representar la sensibilidad del oído a
diferentes frecuencias para todo el margen audible. El nivel sonoro se mide en fonios siendo la curva de cero
fonios aquella que pasa por 0 dB de SPL para 1 kHz; en otras palabras, esta es la curva de umbral de
audición. Cualquier punto a lo largo de la curva de 0 fonios, tendrá el mismo nivel sonoro, si bien, como puede
verse claramente, en los extremos del espectro se requiere un SPL mayor que en el centro. Las curvas de
nivel alto son más planas que las de nivel bajo, lo que indica que la respuesta en frecuencia del oído varía
con el nivel de la señal.

La unidad de nivel sonoro es el fon, o fonio, y varía según la distancia de la fuente sonora. Si un sonido está
en el umbral de audición (apenas perceptible) se dice que tiene un nivel sonoro de 0 ionios, mientras que si
está en el umbral de dolor tendrá probablemente un nivel sonoro de unos 140 ionios. El nivel de ruido
expresado en dB es muy similar al nivel sonoro en fonios.
El nivel sonoro depende en gran medida de la naturaleza del sonido. Los sonidos de banda ancha tienden a
parecer más fuertes que los de banda estrecha, puesto que cubren más bandas críticas. Por otro lado, los
sonidos distorsionados parecen, psicológicamente, ser más fuertes que los que no tienen distorsión, debido
quizás a que se asocia distorsión con sobrecarga del sistema. Si se reproducen dos señales musicales con

7
niveles idénticos, una de ellas con bastante distorsión y la otra sin ella, el oyente asegurará que la primera
suena más fuerte.
Otro factor importante es que, para una determinada frecuencia, el umbral de audición se incrementa en
presencia de otro sonido de frecuencia similar. En otras palabras, un sonido puede «enmascarar» a otro.
Para dar la sensación de que se dobla el nivel sonoro que se percibe de una señal se necesita un incremento
de 9 ó 10 dB. Aunque 6 dB equivalen a multiplicar por 2 la presión sonora real, el mecanismo de la audición
parece necesitar un incremento superior en la señal para crear la sensación de que se ha doblado el
volumen.

Percepción direccional
La percepción direccional puede dividirse, a grandes rasgos, en tres planos: el plano lateral de izquierda a
derecha, el plano delante/detrás o plano «mediano», y el plano vertical.
Al hablar de la percepción direccional se menciona a menudo la diferencia de fase entre los dos oídos,
cuando lo que realmente importa es la diferencia en los tiempos de llegada del sonido.La capacidad que
tenemos de percibir sonidos direccionales se debe casi por completo al hecho de estar implicados dos oídos,
si bien existen muchos efectos secundarios que podrían ser percibidos aunque solo interviniera un oído. La
localización lateral de la dirección se basa, principalmente, en la amplitud del sonido y en las diferencias entre
los tiempos de llegada a los dos oídos. Es evidente que la libertad de movimiento de la cabeza juega un papel
importante en la localización en este plano. La razón de esto es que, incluso un pequeño cambio en el ángulo
de rotación de la cabeza altera la diferencia en los tiempos de llegada a ambos oídos, y para una determinada
dirección de rotación, esta diferencia será más grande o más pequeña dependiendo de si la fuente está
delante o detrás de la cabeza.
Otro factor a tener en cuenta es el papel que juega la vista en esta distinción, puesto que los ojos se utilizan
mucho para determinar la localización de una fuente situada enfrente, mientras que si la fuente está detrás,
en esa tarea sólo intervienen los oídos.
Otro factor a considerar es el efecto de la oreja y la cabeza sobre los sonidos que proceden de la parte
trasera, debido a que el tamaño de la oreja es tal que actúa como una barrera parcial para sonidos de muy
alta frecuencia procedentes de la espalda; al mismo tiempo modifica el énfasis espectral de un sonido trasero,
comparado con el mismo sonido situado en el frente.
La localización en el plano vertical tiene que ver en parte con el efecto de las reflexiones en el suelo y en los
hombros, así como con los efectos de las orejas y de la función de transferencia con respecto a la cabeza.
Esto es debido a que los sonidos localizados a diferentes ángulos de elevación llegarán a los oídos por vía
directa y por reflexión, sufriendo en este último caso un ligero retardo. Para los sonidos procedentes de arriba
la diferencia entre los caminos recorridos por el sonido reflejado en los hombros y en el suelo, comparado con
la vía directa, dará como resultado cancelaciones y sumas a distintas frecuencias. Comparando estos
espectros de frecuencia con modelos que tiene almacenados, el cerebro logra localizar -en parte- los sonidos
situados en el plano vertical. La memoria de situaciones aprendidas, así como la expectación de que
determinados sonidos deben provenir de direcciones concretas, son aspectos importantes en la localización
en el plano vertical, puesto que, por regla general, no hay muchos sonidos que
surjan de «abajo».

Localización de una fuente lateral


El cerebro se basa en las diferencias entre las señales que le llegan de ambos oídos para detectar la posición
de una fuente en el plano lateral.
-Nivel: si la fuente está próxima a la cabeza, la distancia extra que recorre la onda sonora para llegar al oído
más alejado conllevará una ligera caída en el nivel, debido a la atenuación según la ley cuadrática inversa
(aunque a veces la caída de nivel puede considerarse insignificante).
-Respuesta en frecuencia: el oído más distante queda «ensombrecido» por la cabeza siendo este efecto más
importante para frecuencias medias/altas, donde la longitud de onda del sonido es similar o menor que las
dimensiones de la cabeza. Como resultado de este ensombrecimiento, el oído más alejado sufrirá una
modificación en su respuesta en frecuencia, trayendo consigo una atenuación del contenido de alta frecuencia
(AF) de la señal.
8
-Tiempo: debido a la separación entre oídos, las fuentes sonoras descentradas llegarán con retraso al oído
más distante. El retardo máximo tiene lugar a los 90° del frente, donde la diferencia en tiempo en ambos
oídos es, aproximadamente, 600 microsegundos (0’6 ms). El cerebro es capaz de medir la diferencia en el
tiempo de llegada de una descarga neuronal procedente de ambos oídos, y utilizar esta diferencia para
determinar la posición de la fuente.
-Fase: si la fuente está emitiendo una onda periódica continua, entonces es posible considerar la
diferencia de tiempo entre los oídos como una diferencia de fase. Por encima de la frecuencia para la cual la
distancia entre oídos equivale a la mitad de la longitud de onda la indicación de la fase se vuelve ambigua,
puesto que resulta difícil para el cerebro determinar qué oído esta retrasado y cuál adelantado.

El efecto Hass
Hasta ahora sólo hemos considerado el caso de una fuente puntual, resultando retardos de hasta 0’6 ms
entre ambos oídos (el denominado «retardo binaural»), pero también es necesario considerar situaciones en
las que existen más de una fuente.
Si dos fuentes emiten sonidos similares, la dirección que se percibe del sonido tiende hacia la fuente más
adelantada (en tiempo). Establecieron también que los retardos sobre los que se observa el fenómeno llegan
hasta los 50 ms; un retardo mucho mayor que el relacionado con el efecto binaural. Para retardos de hasta 50
ms los sonidos de las dos fuentes se «funden» en el cerebro, apareciendo como una única fuente que se
sitúa aparentemente desplazada hacia la que llega antes. Por encima de 50 ms el cerebro comienza a
percibir los sonidos de forma separada y el segundo de ellos aparece como un «eco» del primero. En el caso
de chasquidos aislados el efecto desaparece más rápidamente que con sonidos complejos, permitiendo
retardos de tan sólo unos 5 ms antes de que el efecto del «fundido» desaparezca.
La denominada «curva de efecto Haas» (ver figura 2.4) muestra que para que el sonido retardado aparente
tener la misma sonoridad que el no retardado, aquel debe superar a éste en unos cuantos decibelios en
amplitud, con el fin de compensar la ventaja que supone haber llegado el primero.

Reproducción de un sonido estereofónico


El objetivo de la reproducción del sonido estereofónico es dar la sensación de direccionalidad y espacio en el
sonido emitido por dos o más altavoces o auriculares.
En primer lugar, la sensación de direccionalidad en la reproducción de un sonido puede lograrse utilizando
una combinación de diferencias de tiempo y de nivel entre dos canales. Debido al efecto Haas, descrito
anteriormente, si la señal procedente del altavoz derecho se
retrasa ligeramente con respecto a la del altavoz izquierdo, se tendrá la sensación de que el sonido proviene
de algún lugar desplazado hacia la izquierda, dependiendo de la magnitud del retardo.

Acústica y sistemas de sonido (Federico Miyara)


Capítulo 1: acústica física
Introducción
La Acústica es la disciplina que se ocupa de estudiar el sonido en sus diversos aspectos; puede dividirse en
una gran cantidad de subdisciplinas, algunas de ellas son:
-Acústica física: análisis de los fenómenos sonoros mediante modelos físicos y matemáticos.
-Psicoacústica: estudio de las sensaciones evocadas por los sonidos y sus diversos parámetros.
-Acústica musical: estudio de los instrumentos musicales, las escalas, los acordes, la consonancia y la
disonancia, etc.
-Acústica arquitectónica: estudio de la acústica de salas y su influencia sobre la escucha de la palabra y la
música.

El sonido: un fenómeno ondulatorio


El sonido consiste en la propagación de una perturbación en el aire. Imaginemos un tubo muy largo lleno de
aire, con un pistón en un extremo. El aire está formado por una cantidad muy grande de pequeñas partículas
o moléculas. Inicialmente, el aire dentro del tubo está en reposo, o, más técnicamente, en equilibrio. Este
equilibrio es dinámico, lo cual significa que las moléculas no están quietas, sino que se mueven caóticamente
9
en todas las direcciones debido a la agitación térmica, pero con la particularidad de que están
homogéneamente repartidas en el interior del tubo. En otras palabras, en cada centímetro cúbico (cm3) de
aire, ya sea cerca del pistón o lejos de él, hay aproximadamente la misma cantidad de moléculas.
Supongamos ahora que se desplaza rápidamente el pistón hacia el interior del tubo. Las moléculas que se
encuentran junto al pistón serán empujadas por éste, mientras que las que se encuentran muy alejadas no.
Esto implica que en la zona del pistón el aire se encontrará más comprimido que lejos de él, es decir que la
misma cantidad de aire ahora ocupa menos espacio. En otras palabras, habrá ahora más moléculas por
centímetro cúbico cerca del pistón que lejos de él. Esta nueva compresión implica, otra vez, una tendencia a
descomprimirse, que se efectiviza a costa de comprimir el aire contiguo. El proceso se repite así en forma
permanente, con lo cual la perturbación original (la compresión del aire cercano al pistón) se propaga a lo
largo del tubo alejándose de la fuente de la perturbación (el pistón). Este proceso se denomina también
propagación de una onda sonora. Al aire libre, es decir sin la restricción de un tubo (y en ausencia de
superficies que reflejen el sonido), la perturbación se propaga, similarmente, en forma de una onda esférica
cuyo radio va aumentando a medida que transcurre el tiempo.

Velocidad del sonido


La onda se aleja de la fuente con una velocidad c que en el aire a 23ºC vale c = 345 m/s, o bie c = 1242 km/h.
Esta velocidad varía algo con la temperatura (un 0,17 %/oC). La velocidad del sonido es independiente de la
intensidad de la perturbación.

Sonidos periódicos
La mayor parte de los sonidos de la naturaleza son el resultado de múltiples perturbaciones sucesivas. Estos
sonidos se denominan periódicos, y pueden dividirse en ciclos, donde cada ciclo abarca todo lo que sucede
entre dos perturbaciones sucesivas del aire.
Análogamente, al aire libre, y lejos de toda superficie capaz de reflejar el sonido, las sucesivas perturbaciones
se propagarán como esferas concéntricas crecientes que se alejan de la fuente. En presencia de superficies
reflectoras, la onda deja de ser esférica para volverse sumamente compleja.
Muchas veces se habla de campo sonoro para referirse a la forma en que se distribuye el sonido en los
diversos puntos de un determinado espacio, por ejemplo dentro de una sala o al aire libre.

Longitud de onda
La longitud de onda, que se representa con la letra griega lambda, λ, y es la distancia entre dos
perturbaciones sucesivas en el espacio. Se mide en metros (m) o en centímetros (cm), y para los sonidos
audibles está comprendida entre los 2 cm (sonidos muy agudos) y los 17 m (sonidos muy graves).
La longitud de onda es importante en varias situaciones. En primer lugar, un objeto grande comparado con la
longitud de onda es capaz de alterar significativamente la propagación del sonido cuando se interpone entre
la fuente sonora y el oyente. Así, por ejemplo, los sonidos graves pueden “doblar la esquina” fácilmente
porque su longitud de onda es grande. Los agudos, en cambio, cuya longitud de onda puede ser de apenas
algunos cm, se ven considerablemente atenuados.
Otra situación en la cual la longitud de onda juega un papel importante es en la eficiencia de los altavoces.
Cuando la longitud de onda λ emitida por un parlante es mucho más pequeña que su propio tamaño, la
potencia emitida se reduce considerablemente. Por esa razón, los tweeters (altavoces de agudos) son mucho
más pequeños que los woofers (altavoces de graves).

Periodo
Un segundo parámetro es el periodo, T, que se define como el tiempo transcurrido entre una perturbación y la
siguiente. Se mide en segundos (s) o milisegundos (ms), es decir la milésima parte de un segundo. El periodo
de los sonidos audibles para el ser humano varía entre los 0,05 ms (sonidos muy agudos) y los 50 ms
(sonidos muy graves). Cabe destacar que son tiempos muy cortos que impiden en general que los ciclos
puedan percibirse como fenómenos separados. El cerebro tiende a integrarlos en una única sensación, la
sensación sonora.

10
Frecuencia
La frecuencia, f, se define como la cantidad de ciclos por segundo, o lo que es lo mismo, la cantidad de
perturbaciones por segundo, y se expresa en hertz (Hz), la cual es equivalente al ciclo por segundo (cps). La
frecuencia de los sonidos audibles está comprendida entre los 20 Hz (sonidos graves) y los 20.000 Hz
(sonidos agudos) ó 20 kHz (kilohertz, es decir 1.000 Hz).

Presión sonora
El sonido puede considerarse como una sucesión de ondas de compresión seguidas por ondas de
descompresión que se propagan por el aire a una velocidad de 345 m/s. Sin embargo, si nos ubicamos en
una posición fija, veremos que la presión atmosférica aumenta y disminuye periódicamente, conforme pasan
por el lugar las sucesivas perturbaciones. La unidad adoptada internacionalmente para la presión es el
Pascal, abreviada Pa. La presión atmosférica es del orden de 100.000 Pa. Los aumentos y las disminuciones
de presión debidas a las ondas sonoras son realmente muy pequeños comparados con este valor de presión
atmosférica. Los sonidos más intensos que se perciben como tales implican un aumento de unos 20 Pa. Para
distinguir este incremento de la presión atmosférica en ausencia de sonido, se lo denomina presión sonora,
abreviada p. La presión sonora es lo que se debe agregar a la presión atmosférica en reposo para obtener
el valor real de presión atmosférica.
Las presiones sonoras audibles varían entre 0,00002 Pa y 20 Pa. El valor más pequeño, también expresado
como 20 μPa, se denomina umbral auditivo.

Representación gráfica del sonido


Se utiliza un tipo de representación gráfica denominada oscilograma, que consiste en mostrar la evolución en
el tiempo de la perturbación en un par de ejes correspondientes al tiempo (eje horizontal) y a la presión
sonora (eje vertical). Para cada instante t, representado como un punto o posición en el eje horizontal,
corresponde una presión sonora p, representada por una altura medida en la escala del eje vertical. Los
valores positivos (arriba del eje t) representan compresiones y los valores negativos (debajo del eje t),
descompresiones.

Amplitud
El oscilograma nos permite interpretar fácilmente un parámetro del sonido vinculado a la fuerza o intensidad
del mismo: la amplitud. La amplitud se define como el máximo valor que alcanza una oscilación en un ciclo.
La amplitud se denomina también valor de pico o valor pico.

Envolvente
La amplitud de un sonido no es necesariamente constante, sino que puede variar en el tiempo. Se define la
envolvente de un sonido como la forma que se obtiene uniendo las ampli-
tudes de los ciclos sucesivos.

Algunas formas de onda


Virtualmente cada sonido implica una forma de onda diferente. Algunas de ellas son: la onda
cuadrada, la onda triangular, la onda diente de sierra y la onda senoidal.

Onda senoidal
La onda senoidal, también denominada senoide o sinusoide, corresponde a las oscilaciones más sencillas
posibles. Cualquier onda periódica puede considerarse como una superposición (suma) de ondas senoidales
de distintas frecuencias, todas ellas múltiplos de la frecuencia de la onda (propiedad conocida como Teorema
de Fourier). Dichas ondas se llaman armónicos. Esta superposición no se limita a ser un artificio de análisis
del sonido, sino que si se escucha atentamente es perfectamente audible en muchos casos. La onda senoidal
es la más simple precisamente porque consta de una sola frecuencia.

Espectro del sonido

11
Vimos que cualquier sonido periódico puede representarse como la suma de una serie de armónicos, es decir
de sonidos senoidales cuyas frecuencias son f, 2f, 3f, 4f, 5f, etc. Cada uno de estos armónicos puede tener su
propia amplitud. La información sobre las frecuencias que contiene un determinado sonido y sus respectivas
amplitudes constituyen lo que se denomina el espectro del sonido, el cual se puede especificar en forma de
tabla, o se puede representar gráficamente mediante un espectrograma, que es un gráfico con dos ejes: el
horizontal, graduado en frecuencia, y el vertical, en amplitud.

Espectros inarmónicos
Hasta ahora hemos analizado el caso de espectros armónicos, es decir en los cuales las frecuencias
presentes eran múltiplos de cierta frecuencia, denominada frecuencia fundamental. No hay impedimento, sin
embargo, para que los “armónicos” sean de frecuencias cualesquiera, por ejemplo 100 Hz, 235 Hz y 357 Hz.
En estos casos las ondas senoidales que constituyen el sonido en cuestión se denominan sonidos parciales
en lugar de armónicos. Este tipo de sonidos no es periódico, a pesar de lo cual también pueden representarse
gráficamente en un oscilograma. Sin embargo, lógicamente, no podrá identificarse una frecuencia ni un
periodo. El espectro correspondiente a estos sonidos se denomina espectro inarmónico. Puede representarse
un espectrograma, pero las líneas espectrales no están equiespaciadas. Puede existir una variación en el
tiempo, pudiendo en este caso inclusive variar no sólo la amplitud de los sonidos parciales sino también la
frecuencia.

Espectros continuos
Existe aún otro tipo de sonidos, formados por una cantidad muy grande de parciales muy próximos entre sí,
que se denominan genéricamente ruido. Debido a la gran cantidad de parciales, y al hecho de que cada uno
es de amplitud muy pequeña, lo más conveniente es representar el espectro no mediante líneas espectrales
individuales, sino como una curva continua denominada densidad espectral.
Existen dos tipos de ruido:
-Ruido blanco: se caracteriza por tener una densidad espectral constante, es decir igual para todas las
frecuencias. Esto significa que contiene parciales de todas las frecuencias con igual amplitud. El nombre de
ruido “blanco” proviene de realizar una analogía con la luz blanca, que contiene todos los colores del espectro
con la misma intensidad.
-Ruido rosa: contiene mayor proporción de bajas frecuencias Tiene la particularidad de que en cada octava
tiene la misma energía sonora.
-------------------------------------------------------------------------------------------------------------------------------------------
Capítulo 2: psicoacústica
Introducción
La Psicoacústica se dedica a estudiar la percepción del sonido, es decir, cómo el oído y el cerebro procesan
la información que nos llega en forma de sonido.

Sensaciones psicoacústicas
Cuando escuchamos un sonido, percibimos sensaciones que pueden ser clasificadas en tres tipos: la altura,
la sonoridad y el timbre.
-Altura: es la sensación que nos permite distinguir los sonidos graves de los agudos, y, más específicamente,
diferenciar los sonidos de una escala musical. → FRECUENCIA
-Sonoridad: es la sensación por la cual distinguimos un sonido fuerte de uno débil. → AMPLITUD
-Timbre: agrupa una serie de cualidades por las cuales es posible distinguir los sonidos de los diversos
instrumentos y voces. → ESPECTRO

Altura
La relación entre frecuencia y altura es bastante directa, correspondiendo las bajas frecuencias a sonidos
graves y las altas frecuencias a sonidos agudos. En realidad, la altura como parámetro psicofísico varía un
poco, además, con la intensidad del sonido, es decir que un sonido débil y otro fuerte de la misma frecuencia
parecen tener alturas ligeramente distintas. También varía un poco con el timbre, siendo que un timbre muy
brillante parece ser más agudo que uno más opaco, aún cuando la frecuencia y la intensidad sean iguales.
12
Sonoridad
La sensación de sonoridad, es decir de fuerza, volumen o intensidad de un sonido, está, en principio,
relacionada con su amplitud. Sin embargo su relación no es tan directa. La sonoridad resulta en realidad
fuertemente dependiente no sólo de la amplitud sino también de la frecuencia. Así, a igualdad de frecuencias
podemos afirmar que un sonido de mayor amplitud es más sonoro.
Los resultados anteriores obedecen al hecho de que el oído es más sensible en las frecuencias centrales, es
decir entre 500 Hz y 5 kHz, que en las muy bajas o muy altas. Se han realizado investigaciones para
demostrar este hecho, la primera de las cuales data de 1933, y fue llevada a cabo por los investigadores
norteamericanos Fletcher y Munson, quienes obtuvieron las curvas de igual nivel de sonoridad, o curvas de
Fletcher y Munson, las cuales permiten definir el nivel de sonoridad, NS, de un tono como el nivel de presión
sonora de un tono de 1 kHz igualmente sonoro que dicho tono. Para diferenciar el nivel sonoro del nivel de
presión sonora, se lo expresa en fon. Por ejemplo, un tono de 200 Hz y 40 dB se escucha igualmente sonoro
que uno de 1000 Hz y 20 dB, de donde el primero tiene NS = 20 fon. Las curvas extremas son los límites de
la audición humana. La correspondiente a 0 fon es el umbral de audición, por debajo del cual una vibración
del aire no es perceptible. Conviene aclarar que el umbral de audición depende realmente de la persona y del
estado de su oído. La curva de 0 fon es el umbral para personas de buena audición. Una pérdida de 10 a 20
dB respecto a este umbral se considera normal. Por encima de los 25 dB de pérdida, comienzan las
dificultades para la comprensión oral. La curva de 120 fon corresponde al umbral de dolor. De allí para arriba,
en lugar de sonido como tal comienza a percibirse un dolor intenso, además de empezar de inmediato el daño
irreversible del oído interno.

Timbre
El timbre de un sonido es una cualidad compleja, que depende de varias características físicas. Hay dos
enfoques para el análisis del timbre. El primero estudia los sonidos aislados, y se propone identificar todos los
elementos que los distinguen de otros sonidos. Aquí intervienen dos elementos: el espectro y las envolventes.
Hay una envolvente primaria, que es la que determina la forma en que varía en el tiempo la amplitud general,
y una serie de envolventes secundarias, que corresponden a las variaciones temporales relativas de los
armónicos o de los parciales (según que el espectro sea armónico o inarmónico respectivamente). La
envolvente primaria está fuertemente relacionada con la forma en que se produce el sonido, y caracteriza a
familias completas de instrumentos. Las envolventes secundarias dependen de la manera en que se
amortiguan las diferentes frecuencias del espectro. Las envolventes mencionadas varían con la altura del
sonido, es decir con su frecuencia, y también pueden variar con la intensidad, es decir con la amplitud del
sonido.
El segundo enfoque, clasifica los sonidos según la fuente (por ejemplo un instrumento), y asocia una cualidad
tímbrica con cada fuente.

Formantes
El segundo enfoque de análisis del timbre, en cambio, busca las características comunes a todos los sonidos
de un instrumento o de una voz, y las que los distinguen de los sonidos de otros instrumentos o voces. El
elemento fundamental de este análisis es la existencia de resonancias en los componentes accesorios al
mecanismo propiamente dicho de producción del sonido, resonancias que filtran el sonido, favoreciendo
determinadas frecuencias más que otras.
Las frecuencias de las resonancias se denominan formantes.Por simplicidad se ha supuesto que el sonido
original tiene un espectro compuesto por varios armónicos de igual amplitud. Luego de atravesar el filtro,
aquellos armónicos cuyas frecuencias son cercanas a los formantes F1, F2 y F3 predominan frente a las
otras. El cerebro es capaz de realizar (inconscientemente) un análisis tan elaborado de los sonidos que
percibe el oído como para detectar los formantes característicos de un instrumento o fuente sonora, y así
asociar como pertenecientes a un único timbre sonidos con espectros bastante diversos. Por esta razón, el
timbre puede reconocerse aún cuando debido a una deficiencia de un sistema de sonido el espectro se altere.
Sin embargo, los formantes, que habitualmente están en la región central del espectro, es decir entre los 200
Hz y los 4000 Hz, no son tan severamente afectados y por lo tanto “sobreviven” a la distorsión, permitiendo
13
reconocer el timbre. No obstante, conviene aclarar que la mera identidad tímbrica no es equivalente a la
fidelidad del sonido, aunque en muchos casos, como en el sistema telefónico, es suficiente con la primera
para lograr una buena inteligibilidad del mensaje.

Direccionalidad del sonido


Los sonidos reales se originan en fuentes que están ubicadas en algún lugar del espacio circundante, dando
origen a dos tipos de sensaciones: la direccionalidad y la espacialidad.
-Direccionalidad: se refiere a la capacidad de localizar la dirección de donde proviene el sonido. Esta
sensación es la que nos permite ubicar visualmente una fuente sonora luego de escucharla. Está vinculada
con dos fenómenos. El primero es la pequeña diferencia de tiempos que hay entre la percepción de un sonido
con el oído derecho y con el oído izquierdo, debido a que el recorrido de la onda sonora desde a la fuente
hasta cada oído es diferente. Así, un sonido proveniente de la izquierda llegará antes al oído izquierdo,
simplemente porque éste está más cerca de la fuente sonora. Esta diferencia es siempre menor que 0,6 ms.
El otro fenómeno es la diferencia de presiones sonoras (o intensidades), también causada por la diferencia
entre las distancias.
-Espacialidad: nos permite asociar un sonido con el ambiente en el cual éste se propaga, y estimar por
ejemplo las dimensiones de una habitación o una sala sin necesidad de recurrir a la vista.

Efecto Haas (de precedencia)


Un experimento interesante consiste en alimentar unos auriculares estereofónicos con dos señales iguales,
una de las cuales se encuentra ligeramente retardada respecto a la otra. Si se va aumentando el retardo
desde 0 a 0,6 ms, se crea la sensación de una fuente virtual (es decir aparente) que parece desplazarse
desde el frente hacia el lado que no experimenta retardo. Después de los 0,6 ms y hasta los 35 ms de
retardo, la fuente virtual permanece más o menos fija, pero parece ensancharse cada vez más. Para retardos
mayores de 35 ms la fuente virtual se divide en dos, percibiéndose separadamente ambos canales, como
provenientes de fuentes diferentes. A medida que el retardo se hace mayor, el segundo sonido aparece como
un eco del primero. Este experimento ilustra el denominado efecto de precedencia, o también efecto Haas,
que puede utilizarse para controlar de un modo más realista la ubicación aparente de una fuente en la imagen
estereofónica.

Espacialidad
La espacialidad del sonido depende de varios factores. El primero es la distancia entre la fuente y el oído.
Esto está vinculado a la familiaridad que se tenga con una fuente sonora específica (o un tipo de fuente). A
mayor distancia, la presión sonora es menor, lo que hace que si se conoce la fuente, se pueda tener una idea
de la distancia.
El segundo factor lo constituyen las reflexiones tempranas. En el descampado, la onda sonora generada por
una fuente se aleja indefinidamente atenuándose hasta volverse inaudible. En un ambiente cerrado, en
cambio, la onda sonora se refleja en las paredes múltiples veces. Las primeras reflexiones se denominan
reflexiones tempranas, y proveen al sistema auditivo una clave temporal que se relaciona con la distancia
entre las paredes, lo cual a su vez se vincula al tamaño del ambiente. Esto crea la sensación de ambiencia.
El tercer factor que hace a la espacialidad del sonido es la reverberación. El fenómeno de la reverberación se
produce como consecuencia de las numerosas reflexiones tardías del sonido. Mientras que las primeras
reflexiones están distanciadas considerablemente, las subsiguientes comienzan a superponerse entre sí,
debido a que aparecen las reflexiones de las reflexiones, y luego las reflexiones de las reflexiones de las
reflexiones, y así sucesivamente. Esto lleva a que al cabo de unos pocos instantes se combinen miles de
reflexiones que dan origen a la reverberación.
El efecto más conocido de la reverberación es el hecho de que el sonido se prolonga aún después de
interrumpida la fuente. El tiempo de permanencia, o tiempo de reverberación, depende de las características
acústicas del ambiente, y nos da una clara sensación de espacialidad que puede y debe ser aprovechada en
audio técnica para evocar ambientes de gran realismo.
El último factor que interviene en la sensación de espacialidad es el movimiento de la fuente. Muchas fuentes
son fijas, pero otras son móviles, y la movilidad es percibida a través no solo del desplazamiento evocado por
14
la dirección de procedencia del sonido, sino por el denominado efecto Doppler, por el cual la frecuencia de
una fuente móvil parece cambiar.

Enmascaramiento
Enmascarar a un sonido significa ocultarlo o hacerlo imperceptible. El enmascaramiento es una propiedad del
oído, no del sonido. A medida que aumenta el nivel de presión sonora del tono máscara, mayor resulta el
incremento del umbral, lo cual significa que los otros tonos deberán ser cada vez más intensos para no ser
enmascarados. Por otra parte, la región enmascarada se ensancha, vale decir que la zona de influencia de la
máscara crece. En otras palabras, al aumentar el nivel del tono máscara, se produce un incremento
cuantitativo (mayor nivel) y cualitativo (más frecuencias) del umbral.

Sensación y Percepción (Goldstein)


Capítulo 12: Percepción del volumen, el timbre y el sonido ambiental
Curva de audibilidad: función que indica las variaciones de nuestra sensibilidad a la presión sonora con la
frecuencia. Señala la intensidad, medida en decibeles, necesaria para apenas oír un sonido en las
frecuencias del rango de la audición. Con intensidades por debajo de la curva de audibilidad, no podemos oír
ningún sonido; con las que rebasan la curva del umbral de la sensación, los sonidos se vuelven dolorosos. El
rango efectivo de la audición está contenido en el área de respuesta auditiva que demarcan estas dos curvas,
es decir, entre 20 y 20 000 Hz.

Volumen: magnitud de la sensación auditiva. Cuando sostenemos la frecuencia de un sonido y aumentamos


su presión, se vuelve más fuerte.

Curvas de igual volumen: indican el número de decibeles que producen la misma percepción de volumen en
las frecuencias del rango de la audición.

Calidad sonora
Timbre: cualidad que hace que suenen distinto dos instrumentos que tocan la misma nota con igual volumen
y duración. Depende tanto de la estructura fija de los armónicos (los sonidos musicales están, compuestos
por una frecuencia fundamental más sus armónicos, que son múltiplos de la fundamental) como de su
momento de ataque y el transcurso del decaimiento.

Sonido directo: es el que llega directamente al oído siguiendo la trayectoria.

Sonido indirecto: es el que llega después por otras trayectorias (“rebota”)

Acústica: rama arquitectónica que se interesa ante todo en la forma en que el sonido indirecto modifica la
calidad de los sonidos que escuchamos en las salas. La principal influencia en el sonido indirecto es el grado
de absorción de paredes, techos y pisos. Si se absorbe la mayor parte del sonido, hay poca reflexión y
escuchamos poco sonido indirecto; pero si se absorbe poco, percibimos mucho sonido indirecto.

Reverberación: lapso que requiere el sonido indirecto para disminuir a un milésimo de su presión original. Si
el tiempo es corto, la música suena "sorda" porque la sala absorbe casi todo el sonido. Si el tiempo es largo,
la música suena "confusa" por la superposición de sonidos.

Efecto de procedencia: la percepción de la ubicación de los sonidos depende de cuál llega primero al oído.

Análisis del ambiente auditivo: proceso por el que el sistema auditivo separa los estímulos producidos por
las fuentes en percepciones independientes.

Principios de agrupamiento auditivo: organización perceptual según reglas basadas en la forma en que se
originan los sonidos en el medio. Factores:
15
-Ubicación de la fuente: sea fija o móvil, proceden de la misma fuente
-Semejanza de timbre: si tienen el mismo timbre, proceden de la misma fuente
-Semejanza de tono: si tienen frecuencia similares, proceden de la misma fuente
-Proximidad temporal: si ocurren en una progresión rápida, proceden de la misma fuente
-Inicio y fin: si comienzan y culminan en momentos diferentes, proceden de la misma fuente
-Buena continuación: si son constantes o cambian uniformemente, proceden de la misma fuente

Localización auditiva: determinación del lugar de las fuentes sonoras. Se localizan mejor los sonidos que
están justo al frente y mal los que vienen detrás de la cabeza. Se describe con estos tres sistemas de
coordenadas:
-La coordenada horizontal (o acimutal): especifica las localizaciones que varían a izquierda y derecha del
escucha.
-La coordenada vertical (o elevación): señala las localizaciones arriba y abajo del escucha.
-La coordenada de distancia: indica qué tan lejos está la fuente del escucha.

Diferencias interaurales: desigualdad con que los sonidos llegan a los oídos izquierdo y derecho. Son claves
binaurales (involucran ambos oídos). Las dos principales son:
-Diferencia interaural de tiempo: asincronismo de los sonidos que inciden en ambos oídos. Los sonidos que
proceden de muchos sitios llegan a un oído antes que al otro.
-Diferencia interaural de intensidad: variación de la intensidad sonora que llega a. ambos oídos debido a que
la cabeza crea una barrera que produce una sombra acústica, la cual impide que los sonidos de frecuencias
elevadas lleguen al oído lejano. Las ondas de frecuencia baja (longitudes de onda larga) no son afectadas por
la cabeza, mientras que las de frecuencia elevada (longitudes de onda cortas) rebotan en la cabeza y se crea
una sombra acústica.
Ambas ofrecen información acerca del acimut (posición izquierda o derecha) de las fuentes sonoras, pero no
se prestan a dar información sobre su localización vertical.

Claves del pabellón de la oreja: ofrecen claves monoaurales para la localización de sonidos en la
coordenada vertical. Algunas frecuencias se reflejan entre los pliegues del pabellón y adquieren una pauta
distintiva de ecos.

Claves de la distancia:
-Presión sonora: las presiones bajas indican distancias mayores.
-Frecuencia: los sonidos lejanos suelen ser más ricos en frecuencias bajas y por lo tanto son más graves.
-Paralaje de movimiento: los sonidos que están cerca desplazan su ubicación más rápido que los alejados.
-Reverberación: a medida que la distancia de una fuente sonora aumenta, la cantidad de sonido reverberante
(indirecto) también se incrementa en comparación con el sonido directo.

Percepción Auditiva (Basso, Gustavo)


Capítulo 7: Percepción auditiva del espacio
Percepción auditiva del espacio: para analizarla hay que distinguir entre:
-Localización: juicios vertidos sobre la dirección y distancia a la que se encuentra una fuente acústica, que
pueden, o no, coincidir con su ubicación física.
-Lateralización: localización aparente de un sonido en la cabeza del oyente. Es un componente central en el
diseño de campos acústicos virtuales.

Espacio acústico: para caracterizarlo se emplean coordenadas esféricas, cuyos parámetros son el ángulo de
azimut, el ángulo de elevación y la distancia a la fuente.

Localización de sinusoides: la sinusoide, al poseer una sola línea en su espectro, no aporta información
espacial relevante. Por ello, los datos empleados son binaurales. De ellos se destacan:

16
-La diferencia interaural de intensidad: ocurre cuando la intensidad de las señales llega a cada uno de sus
oídos de manera diferente. Esta desigualdad ocurre a causa de la sombra acústica generada por la cabeza al
interponerse entre la fuente y el oído más alejado. Los datos físicos que aporta son útiles para altas
frecuencias.
-La diferencia interaural de tiempo: ocurre como consecuencia de la diferencia en el tiempo que le lleva a la
onda alcanzar cada uno de los oídos. Los datos físicos que aporta son útiles para bajas frecuencias.

El cono de confusión y los movimientos de la cabeza: como la diferencia interaural de tiempo depende de
la diferencia de recorrido de las ondas entre ambos oídos, la línea que va de un tímpano al otro define un eje
de simetría axial alrededor del cual se encuentran lugares geométricos con el mismo itd. Se generan
ambigüedades que se resuelven moviendo la cabeza.

Batidos binaurales: se manifiestan al presentar dos señales sinusoidales de frecuencias apenas diferentes
una en cada oído. Su existencia depende de la interacción de la información de las señales que parten de
ambos oídos a niveles superiores en el procesamiento neuronal. Estos son menos emitidos que los batidos
monoaurales, oyéndose con grandes diferencias de intensidad entre los estímulos.

Localización de señales no sinusoidales


Localización monoaural: el rol del pabellón auricular es modificar el espectro del estímulo en función del
ángulo de incidencia de la onda en relación con el eje medio de la cabeza.

Empleo de datos espectrales en la localización binaural: en señales de espectros de banda las


diferencias interaurales de tiempo proveen información para localizar la fuente que no está sujeta a las
ambigüedades de fase típicas de las sinusoides. Si el espectro cubre un gran rango de frecuencias, las
ambigüedades de fase pueden ser superadas a través de comparaciones entre los canales del filtro auditivo
involucrados.

Efecto Hass/de procedencia: la audición se concentra en las fuentes acústicas antes que en las reflexiones
provocadas por los objetos del entorno. Como resultado de la investigación, surgieron reglas:
-Dos sonidos sucesivos se perciben como uno solo si el intervalo temporal entre ellos es lo suficientemente
corto.
-Aparece sólo para sonidos de carácter discontinuo.

Percepción de la distancia
Constancia de la sonoridad: si una fuente de intensidad constante se aleja, la intensidad que nos llega
disminuye proporcionalmente, o viceversa.

Percepción del movimiento


Mínimo ángulo de movimiento audible: con lo que se mide la habilidad para percibir el movimiento lateral
de una fuente acústica.
Efecto Doppler: fenómeno físico que hace que la frecuencia aparente en el punto de recepción aumente si
este se acerca a la fuente y que disminuya si se aleja de ella

Nuestra habilidad para localizar sonidos es muy buena en el plano horizontal, algo menor en el plano vertical
(elevación) y regular para la distancia. La localización espacial es el resultado del procesamiento combinado
de datos. Es esta riqueza de información, muchas veces redundante y reforzada por datos visuales, lo que
hace la localización más precisa y confiable.

Cadena Electroacústica de sonido (Asís Ferri, Paula)


Cadena Electroacústica de Sonido (CEAS): conjunto de dispositivos eléctrico-electrónicos que tienen como fin
el tratamiento de señales acústicas y eléctricas, ya sea para su captación, manipulación, almacenamiento y
reproducción. La interconexión entre dos o más dispositivos con entidad propia da origen a lo que
17
denominamos sistema. Hay dos razones básicas para pensar en términos de sistemas cuando se encara la
solución de un problema técnico:
1- Resulta práctico subdividir el problema en varios sub-problemas más simples y resolverlos
mediante herramientas y recursos específicos.
2- Las soluciones a los sub-problemas pueden tener otros usos.
No estamos frente a un problema estrictamente técnico o estético, sino que es una conjugación de ambos.
Esta concepción de herramientas técnico-estéticas permite confeccionar propuestas de producción
coherentes, posibles de llevar a la práctica, acordes a las ideas del director o productor de acuerdo con el
guión y el presupuesto disponible. Se representa con un diagrama de bloque
Es un sistema dinámico, complejo y heterogéneo, consecuencia de una serie de decisiones que conforman a
una producción entre las que se encuentran:
- Tipo de proyecto (ficción, documental, etc.),
- Medio para el cual se produce (cine, TV, video, multimedia),
- Presupuesto, conformación de equipos de trabajo, etc.
- Locaciones.

Consideraciones previas: planificación del sonido


La producción audiovisual en general parte de un elemento único: el guión. Este no cuenta una historia
literalmente, para ser leída, sino que aporta la información necesaria para todas las áreas y necesita de la
interpretación de todos los miembros del equipo para poder ser convertido en un audiovisual que sea
comprendido por el espectador.
Extraemos del guión los datos necesarios para determinar:
- El papel y el carácter que tiene cada una de las voces que aparecen en el texto.
- Encuadre y plano.
- El ambiente sonoro de cada toma (interior/exterior – estudio o paisajes existentes
(urbanos/naturales))
- Número de actores que intervienen en cada caso, y la acción o movimientos que
desarrollan.

Atendiendo al tipo de proyecto (ficción, documental, etc.), medio para el cual se produce (cine, TV, video,
multimedia), presupuesto, conformación de equipos de trabajo, etc. se establecen dos grandes tipos de
configuraciones para el registro de sonido y el equipo técnico necesario para la manipulación del
equipamiento y cobertura de todas la necesidades en rodaje.
1 - Configuración simple o directa: tanto el sonido como la imagen son registradas dentro del mismo soporte.
El equipo técnico necesario puede centrarse en una sola persona que hace las veces de jefe de sonido y
microfonista.
2 – Configuración Doble: la misma se establece en los siguientes casos:
a) El dispositivo de imagen no ofrece la posibilidad de registro de sonido (ej. Una cámara decine), ó
b) Se tomó la decisión de registrar el sonido de manera separada del lugar donde se almacena la imagen.

El sonido es una forma de energía que se manifiesta como perturbaciones en el aire, variaciones de presión
acústica que se encuentran dentro de un rango que conocemos como espectro audible. Consideraremos
entonces como primer elemento de nuestra CEAS el cuerpo sonoro que produce estas vibraciones. En
rodaje, nuestro foco de atención es exclusivamente el registro de sonido directo de la voz, siendo que el resto
de sonidos tienen otras etapas de desarrollo y construcción.

¿Qué elementos se necesitan para la conformación de la CEAS?


1 - Micrófonos. Todo comienza por el proceso de transducción. Este implica la transformación de la energía
acústica en energía eléctrica.
2 - Generadores de sonido. A través de diversos procesos producen señales eléctricas directamente y que
luego, por procesos de transducción inversa, podemos escuchar como sonidos. (ej. sintetizadores)

18
3 - Mixers. Son unidades dedicadas a la administración de las entradas y salidas de audio, con la posibilidad
de tomar decisiones sobre el nivel, el ruteo, el filtrado de todas las señales que entran y salen de estos
dispositivos.
4 – Procesadores. Dispositivos que permiten modificar alguna de las cualidades del sonido. Actualmente,
estos dispositivos no solo son físicos sino que su efecto puede ser emulado virtualmente por un software. En
líneas generales, podemos agruparlos según su comportamiento sobre algún atributo del sonido de la
siguiente:
-Procesadores de espectro (filtros, control de tonos, ecualizadores)
-Procesadores de dinámica (compresores, limitadores, compuertas, expanders...)
-Procesadores de tiempo (reverberadores, delay)
-Efectos de saturación y distorsión (distorsión, overdrive, pitch shift)
-Efectos de modulación: (flanger, chorus, trémolo, panners...)
5 – Sistemas de registro. Existen diversas soluciones para registrar el sonido en el audio para
audiovisuales que han evolucionado históricamente. La grabación se realiza sobre un disco rígido o algún
medio extraíble o intercambiable como por ejemplo tarjetas de memoria (SD o Compac Flash).
6 – Monitoreo. Puede realizarse a través de sistemas de parlantes o auriculares.

Elección de Equipos
A la hora de seleccionar equipos para nuestros rodajes debemos evaluar las ventajas y desventajas que
poseen cada uno de los dispositivos. Cuando de microfonía se trata podemos pensar en los siguientes
criterios:
Micrófonos condenser (boom) montados en una caña con sus accesorios
Ventajas:
- “Naturalidad” del sonido de la captura.
- Relación con el plano de cámara.
- Generalmente libre de ruidos de roce, golpes en el micrófono e interferencias en la transmisión.
- Relativa independencia del vestuario y los movimientos de los actores.
- Relativamente robustos, más resistentes a condiciones adversas que los corbateros.
- Mayor versatilidad frente a cambios de último momento, o aún durante la toma (especialmente en
documentales).
- Utilizados correctamente, y con los debidos accesorios, tienen gran resistencia al viento.

Desventajas:
- Mayor ruido (acústico) de fondo en situaciones comprometidas.
- Plano sonoro muy reverberante, con poco detalle y ruido de fondo, a veces inutilizable, dependiendo de las
características de la toma, el tamaño de plano de cámara, la iluminación (y las sombras), la interacción de los
actores.
- En diagramas polares muy cerrados, el sonido proveniente fuera de eje tiende a percibirse muy coloreado.
La inexperiencia o dificultades del microfonista se traduce en tomas con variaciones de “color”.
- Ruidos de manipulación de la caña y el cable.
- Necesidad de fuente de alimentación externa.
- Su tamaño hace que sea claramente visible y en determinadas situaciones dificulta la movilidad.

Micrófonos Corbateros Inalámbricos:


Ventajas:
- Debido a la cercanía con la fuente, consiguen la mejor relación “señal útil” vs. “señal no deseada”
(reverberación, ruido de fondo).
- Permiten microfonear en lugares donde el boom no puede acceder.
- Menor diferencia de plano entre los distintos actores.
- Indispensables en situaciones de fondos ruidosos o poco controlados.
- Independencia de cables. T x FM.
- Indiferentes al encuadre de cámara y puesta de luces.
19
- Independencia de la posición de los actores dentro del cuadro y la cantidad de actores con
texto.

Desventajas:
- Debido a la ubicación de la cápsula y su gran sensibilidad, es propenso a golpes y roces en
el registro.
- Gran dependencia del vestuario y los movimientos de los actores.
- El plano sonoro de la captura, puede resultar poco natural con respecto al plano de cámara.
- La calidad del registro es variable y muchas veces resulta inferior al obtenido con una caña.
- Menor rango dinámico, necesidad de atenuación anticipada desde el transmisor en situaciones de alta
presión sonora.
- Necesidad de ocultar dentro del vestuario, cápsula y transmisor de FM. Dificultad de
colocación.
- Problemas de interferencias y pérdidas de señal de transmisión.
- Fragilidad de las cápsulas y sistemas de transmisión.
- Alto consumo de pilas o baterías.
- Necesidad de un sistema por cada actor con texto en toma.
- Condicionan las modificaciones de último momento y textos de los actores.
- Generan incomodidad en los actores.

Cables y conectores (Asís Ferri, Paula)


Tipos de señal
Es sumamente importante saber, cuando estamos Armando nuestra CEAS, con qué tipo de señales se va a
trabajar, ya que el audio pasa por diferentes etapas de amplificación y la señal tiene diferentes niveles según
el punto en que se encuentra.
Los tipos de señales a tener en cuenta son:
- MIC (Micrófonos...)
- LINE (Previos, instrumentos musicales electrónicos, mp3, reproductores de
audio...)
- INSTRUMENTO (Pastillas eléctricas, guitarras, bajos...)

- RCA o PHONO (Bandejas de disco, reproductores de CD y MP3, etc.)
Cada señal tiene diferentes valores en función de en qué parte de la cadena de audio se encuentre, así que
en cada apartado se indicarán los valores de nivel e impedancia de la señal.Es importante entender la
diferencia entre una señal profesional y otra No profesional (home), la cual se da en el balanceado de la
señal.

Señal no-balanceada
La señal se lleva a través de un cable de dos conductores. Los conectores de señal no-balanceada tienen dos
pines, como el RCA y el Plug 1/4" no balanceado. Los conectores de más pines también pueden llevar
señal no-balanceada (aunque no usarán todos los pines).
Los equipos domésticos usan en su totalidad conexiones no balanceadas. Las conexiones no-balanceadas
son muy simples, y se usan habitualmente y sin problemas para la conexión de muchos instrumentos
musicales. La razón por la que este tipo de conexiones no son consideradas profesionales es que son muy
susceptibles de contaminarse por interferencia electromagnética, particularmente cuando las distancias de
cable son largas.

Balanceado de la señal
El objetivo principal del balanceado de la señal, es reducir el ruido inducido que pudiera interferir en el cable.
Para esto necesitamos un cable de tres conductores, 2 señales diferentes y malla.
La conexión está formada por dos cables apantallados, donde la señal activa (+ o vivo) viaja por un hilo y por
el otro viaja una señal en contrafase o invertida (- o neutro), más la malla que rodea al vivo y al neutro
protegiéndolos de las interferencia externas.
20
Lo que hacemos es llevar la misma señal por los 2 cables, pero una de ellas se invierte de fase (en
contrafase). Si una interferencia logra atravesar la malla (que será la masa de la señal), se induce a la vez en
ambos conductores en el mismo sentido. A la entrada del receptor (dispositivo al que llevamos la señal)
realizará el desbalanceado, suma las dos señales que le llegan tras invertir una de ellas (la señal invertida de
fase se vuelve a invertir). Al sumar las 2 señales en fase, se consigue eliminar totalmente las interferencias
(puesto que las interferencias estaban en fase) y se obtendrá el doble de la amplitud en el receptor. Debido a
esto, los cables balanceados pueden soportar tendidos mucho más largos, usándose frecuentemente en el
cableado para micrófonos, interconexión entre consolas, procesadores de señal, amplificadores, etc.

Conexionado
Cables
Naturalmente, la señal de audio es electricidad, y como electricidad necesita un conductor metálico para
transportarse. Se les llama conductores, porque están hechos con materiales metálicos que permiten el paso
de la corriente a través de ellos. En lo que concierne al audio, los cables nos darán la conexión entre
diferentes elementos de la CEA. En audio profesional es importante trabajar con cables de gran calidad, es
decir que sean capaces de transportar la señal sin provocar pérdidas de potencia, frecuencias ni introducir
distorsión. Deben soportar la manipulación, torsión y plegado, sin enroscarse ni quebrarse internamente, y por
último, tener una vida útil lo más extensa posible. Otro factor importante en el armado del sistema del
conexionado es la calidad de la
soldadura de los conectores y del estaño utilizado.

Tipos de cables
Dentro del mercado existen muchos tipos de cables, pero para el audio profesional solo sirven los llamados
cables blindados que se componen de 2 o 3 conductores separados entre sí mediante un plástico que
funciona como aislante. Su disposición permite evitar las interferencias electromagnéticas, a las que
llamaremos ruido eléctrico.
Esta reducción es gracias al funcionamiento del cable, compuesto por una capa exterior que hace de aislante,
seguido de una malla o pantalla conductora, a lo que le seguiría otro aislante... y así́ sucesivamente.
-Cables simples
-Cable de dos conductores: para que fluya electricidad tiene que haber una diferencia de cargas entre dos
puntos. Es por este motivo que un cable para audio se compone siempre, al menos, de dos conductores. Uno
de ellos se conoce como vivo y el otro como masa o tierra. El vivo, o positivo, es el que lleva la señal. Y la
masa o tierra sirve como punto cero o negativo y tiene, además, otra función que es servir de apantallamiento
para los ruidos, no permitiendo que lleguen al vivo. Este sería un cable simple de audio que nos sirve para
llevar una señalmono. Cable simple.
-Cable paralelo bifilar: se utiliza para la conexión de potencias a parlantes en equipos de sonido, aunque son
más gruesos para impedir pérdidas de señal. Suelen ir identificados con diferentes colores, negro y rojo.
Generalmente, mediante este tipo de cable se transportan señales que previamente han sido amplificadas
mediante una etapa de potencia o un amplificador. Son señales con un valor de potencia muy alto, por lo que
el ruido electromagnético afecta de manera insignificante. Este cable está compuesto por 2 (dos) conductores
paralelos cada uno con su correspondiente material aislante.

-Cables dobles
-Cable para conexión de equipos estéreo: está formado por la unión de dos cables simples pero, en realidad,
tendremos 4 conductores, ya que cada cable simple tiene su vivo y su masa. Sirve para conexiones estéreo.
Usamos un cable para la señal del canal derecho (rojo) y el otro para el izquierdo (blanco).

Existen también cables de tres conductores: son cables que vienen en la misma funda y traen dos vivos que
comparten una sola masa o tierra. Es el que se vende normalmente cuando pedimos un cable para
micrófono. Se podría usar también para un cable estéreo, (dos líneas de información independiente)
dividiendo la masa para ambas señales, pero su principal uso será para conexiones balanceadas.

21
Conectores
Los conectores sirven para unir el cable que transporta la señal desde un transmisor a un receptor eléctrico.

bye baby, no sos lo mío

9b. Asís Ferri, Paula (2018): Consideraciones generales para la grabación de sonido
directo en rodaje. Material teórico sistematizado de la Cátedra Sonido I (FA-UNC) y
SyMI (IAPCH-UNVM

Mixers o mesa de mezcla. (Asís Ferri, Paula y Conen, Hernán)


La consola de mezcla
La mixer, consola o mesa de mezcla es el alma de todo estudio. Todos los elementos que lo conforman
terminan en ella. Conceptualmente su función es muy simple: combinar diferentes tipos de señales eléctricas
juntándolas para obtener una definitiva en un determinado número de salidas, ya sea monofónica, estéreo o
más.
Es un conjunto de entradas sobre las que se puede actuar de forma independiente y que, mediante
encaminamientos y agrupaciones, dan lugar a un conjunto de salidas. Estas señales llegan a la mesa con
unos valores de tensión bajos, del orden de los microvoltios, por lo que una de las primeras funciones de la
consola será la de amplificarlas suficientemente para que podamos trabajar con ellas. En la práctica, otorgan
más posibilidades que una simple mezcla: pueden proporcionar alimentación fantasma para micrófonos de
condensador, control panorámico, filtrado y ecualización, funciones de monitoreo, etc.

Requisitos fundamentales:
- Fidelidad: hace referencia a la exactitud con la que se reproducen las señales entrantes. Viene determinada
por sus características técnicas, especialmente en lo que se refiere a respuesta en frecuencia, distorsión,
relación señal-ruido, etc.
- Prestaciones:
·Número de canales de entradas disponibles (principales y auxiliares),
·Posibilidad de mezclar cada señal de entrada con las demás en cualquier proporción (independientemente
del nivel con el que llegue al mixer) y Procesos por canal (Ecualización principalmente). El procesado habitual
de las mesas de mezclas incluye la variación del nivel sonoro de cada entrada, ecualización, efectos de
envío, efectos de inserción y panorámica.
·Salidas. Posibilidad de realizar varias mezclas diferentes con las señales de entrada, obteniendo así varias
salidas. Una vez las señales sonoras entran en la mesa estas pueden ser procesadas y tratadas de diversos
modos para dar como resultado de salida una mezcla de audio: mono, multicanal o estéreo. Todas las mixers
tienen, como mínimo, dos salidas (L-R), el resto de las salidas son auxiliares. También existe la posibilidad de
agrupar varias señales de entrada en grupos o subgrupos (buses) y mezclar esta suma con otras.
·Instrumentos de medición

¿Qué son todos esos botones?


Toda consola posee una serie de comandos en forma de potenciómetros (resistor eléctrico con un valor de
resistencia variable y, generalmente ajustable manualmente, que establecen el nivel de salida) e interruptores
1- Perillas: Son potenciómetros circulares giratorios (giran sobre su eje) usados en los controles de canal para
ajuste de la ganancia, ecualización, envío a auxiliares, etc.
2- Pulsadores o Switchers button: interruptores que activan o desactivan algunas funciones ya que permite
desviar o interrumpir el curso de una corriente eléctrica.
3- Faders: Son potenciómetros lineales, también llamados atenuadores deslizantes. Su función es aumentar o
disminuir el nivel de señal.

Secciones de una consola


Todas las consolas o mixers constan de dos secciones principales:

22
- Una sección de entradas, con un número variable que puede ir de 4 a 128 canales de entrada (monofónicas,
en su mayoría, y estéreo en menor número),
- Una sección de salida, que varía en número de canales de salida (2 a 128). Este parámetro constituye la
primera especificación técnica de una mesa: una mesa 6/2 tiene 6 entradas y dos salidas (estéreo); una mesa
20/8 tiene 20 entradas y 8 salidas, etc.

Descripción de los elementos de cada canal


1. Entrada de Micrófono o Línea. El módulo de entrada de la mesa de mezclas suele estar en la parte
superior o en un panel posterior. Básicamente existen dos tipos de señales que pueden llegar a la mesa: de
micrófono y de línea. Estas entradas pueden ser balanceadas o no balanceadas (simétricas o asimétricas).
En las mesas de mezcla multicanal de calidad todas las entradas son simétricas.
2. Alimentación Fantasma (Phantom Power) de +/-48V se utiliza para los micrófonos de condensador, y es
enviada a través de la conexión XLR balanceada. Puede activarse en algunos casos por canal o por módulos
(Conjunto de canales)
3. Inversor de Fase: desfasa la señal en 180º, se utiliza para evitar cancelaciones.
4. GAIN o TRIM: mas conocido como pre-amplificador, es el encargado de levantar la señal desde el nivel de
micrófono (del orden de los 0,001 [mV]) a nivel de línea (del orden 0,1 [mV]).
5. PAD o Atenuador: sirve para atenuar la señal cuando llega con demasiado nivel. Es un pulsador que, si
está oprimido, atenúa la señal a la entrada en -20 dB generalmente. Esto es muy útil en los casos en los que
el micrófono esté sometido a altos niveles de presión sonora debido al efecto de proximidad (ejemplo:
micrófonos sensibles de condensador que pueden saturar con fuertes golpes de voz)
6. Insert: algunas consolas incluyen un conector TRS o Jack que permite extraer la señal del canal para
procesarla externamente y luego reingresarla nuevamente. En definitiva este conector nos permite intercalar o
insertar un procesador externo en el recorrido de la señal. Esta prestación es prefader (ninguna modificación
que hagamos con el controlador de nivel de salida Fader afectará lo que se ha procesado por vía Insert).
7. Ecualizador: es una forma especial de amplificador que provee una ganancia que es dependiente de la
frecuencia. Los tipos específicos de ecualizadores comúnmente encontrados en consolas mezcladoras
incluyen al paramétrico, semi-paramétrico, y shelving. Los filtros paramétricos permiten al usuario ajustar la
frecuencia central, ancho de banda, y la cantidad de realce/corte para cada banda del filtro. Los EQ
Semi-paramétricos carecen del ajuste de ancho de banda que poseen los ecualizadores tipo paramétricos.
Los filtros shelving alzan o cortan todas las frecuencias por sobre o debajo de la frecuencia en la esquina y
son comúnmente utilizados como control de tono en equipos caseros y también en consolas.
8. AUX Sends. Ofrecen la posibilidad de realizar mezclas independientes separadas para los diferentes
buses de mezcla. Existen dos tipos: post-fader, después del deslizador de volumen, empleado para enviar la
señal a unidades de efectos tras ajustar el nivel de la señal (Gain) y haberla ecualizado (Eq); pre-fader, que
envía la señal antes de que pase por el control fader de volumen del canal, pudiendo enviarse algunas veces
"pre-eq" o "post-eq" , antes o después de la ecualización. Los pre fader son útiles para dar una mezcla de
monitor diferente a cada uno de los músicos durante la grabación en directo, de forma que cada artista pueda
tener una escucha particular por sus auriculares.
9. Panorámica: con este control se reparte en la proporción deseada la señal a los canales izquierdo y
derecho, bien de la salida principal L y R o de la pareja de buses a la que se vuelque la señal. Este control se
sitúa físicamente encima del fader, por comodidad a la hora de trabajar con el fader.
10. Asignación de subgrupos: Estos switches permiten redirigir el destino de la señal cuando salga del canal
de entrada hacia la sección de salidas de la mesa, salidas que están en grupos de 1-2, 3-4, 5-6 o al Master
L-R. La cantidad de subgrupos dependerá del número de canales individuales.
11. MUTE/ALT: cuando está activada la función MUTE el canal queda silenciado completamente. En ALT
enviamos este canal, junto a los demás canales que lo tengan pulsado, a la salida de ALT 3-4 (subgrupo)
para grabar, por ejemplo, sólo esas pistas en una computadora, mientras la salida general la sacamos al aire.
12. SOLO: permite silenciar todos los canales excepto aquel en que esté presionado este selector. Puede ser:
PFL (pre fader listen o CUE): Permite examinar un canal individual antes de que llegue al fader, enviando la
señal directamente la escucha de auriculares o al monitor. Así podemos monitorizar acústicamente cada
señal por separado para ajustar su nivel o su ecualización. Esta toma generalmente es opcional y se ajusta
23
mediante interruptor. Esta función tiene grandes ventajas en el trabajo en directo, dado que permite al
operador escuchar las diferentes fuentes de señal de entrada antes de que sean encaminadas hacia las
salidas principales. AFL (after fade listen o SIP solo in place): la señal se toma después del fader, por lo que
permite aislar un determinado canal tal como aparecerá en la mezcla.
13. Fader de canal: Cada módulo de canal consta de un potenciómetro deslizable, generalmente denominado
Fader (y no REMO!!), que controla el nivel de salida de cada canal, atenuando o amplificando la señal. En su
posición mínima el Fader impide la salida de señal. El Fader está graduado en dB.

Monitoreo
Consiste en la propalación de la señal resultante de una mezcla para su escucha.
Existen dos tipos de monitoreo:
- El monitoreo del operador que debe sonar exactamente como la mezcla principal y se proporciona de dos
formas: una salida para la sala de control por monitores, y una salida amplificada para auriculares;
- El monitoreo para intérpretes, que normalmente enfatiza algunas partes que facilitan su interpretación o
ejecución. Este último caso utiliza el envío por auxiliares pre fader.
También es posible informarse sobre lo que está sucediendo con las señales ingresantes de manera visual, a
través del empleo de tres tipos distintos de sistemas de medición:
Vúmetro: es un sistema analógico de agujas que nos informa del nivel de un canal, subgrupo o máster según
modelos, y diferencian dos zonas en el recorrido de la aguja. La zona de trabajo normal está graduada entre
-40 dB (a veces -20 dB) y 0 dB. La zona de saturación abarca de cero a 3 o 6 dB según el modelo y suele ser
de color rojo. El vúmetro nos marca la impresión subjetiva que percibe el oyente, sin marcar los numerosos
picos de nivel instantáneos que puedan producirse en la audición.
Peak Meter: es un sistema de barras luminosas que nos da los picos máximos de nivel, con la única
condición de que la duración de estos sea superior a 10 ms, por lo que a diferencia del vúmetro posee una
respuesta más rápida. Estas barras son de dos colores diferentes según estemos en la zona de trabajo o en
la saturación (habitualmente naranja y rojo), siendo su límite los 0 dB. Su margen de funcionamiento suele
estar entre -40 y 6 dB.
Indicadores de saturación o sobrecarga: Overload (OL) o Peak Led: son leds situados en algunos puntos
de la mesa que informan que en ese lugar hay una saturación (OVL; OVERLOAD o PEAK)

Salidas
Son la parte final de la mesa de mezclas. Permiten su comunicación con el resto de los elementos de estudio.
La salida básica es la que denominamos Master, que es estereofónica. Se envía al amplificador, y de éste a
los sistemas de parlantes o altavoces. En esta salida tenemos el resultado de la mezcla de todos los
subgrupos y todos los retornos de efectos en la proporción que sus faders hayan determinado.
Existen también salidas propias de los subgrupos (monofónicas) y las citadas de Estudio y Control Room.
Todas precisan un amplificador para funcionar y sus conectores habituales son RCA y Jack en los usos de
estudio y XLR en directos por la seguridad de su conexión.
Encontramos además las salidas de efectos y sus retornos (por esta vía podemos escuchar las señales que
regresan de un procesador que modificó o alteró la calidad del sonido que devuelven señal sobre el Master, y
las salidas auxiliares.
Salida de auriculares (Phones monitor): utilizado para enviar la información sonora a través de auriculares.

Técnicas de Grabación Sonora (Recuero López, Manuel y otros)


Capítulo 5: Micrófonos y altavoces
Micrófonos: introducción
24
Micrófono: transductor acústico-eléctrico que convierte la energía acústica en energía eléctrica. A su vez
este transductor puede considerarse dividido en dos: un transductor acústico-mecánico y otro
mecánico-eléctrico.
El transductor acústico-mecánico está formado por una membrana, o diafragma, que al recibir una onda de
presión p, se desplaza con una velocidad, u, comunicando una fuerza f a algún elemento móvil, por ejemplo
una bobina. Dentro de este transductor se encuentran los circuitos acústicos (tales como tomas posteriores
de presión, cavidades, etc.), que permiten dar diferentes directividades a los micrófonos.
El transductor mecano-eléctrico consiste, generalmente, en un dispositivo electromagnético o electrostático
que, según una ley física (movimiento de una bobina en un campo magnético, y carga o descarga de un
condensador, respectivamente), convierte el desplazamiento del diafragma en una señal eléctrica.

Tipos de micrófonos según el transductor empleado para la conversión de energía.


-Transductor acústico-mecánico: da lugar a las diferentes directividades de los micrófonos.
-Transductor mecánico-eléctrico: indica la eficiencia y bondad del micrófono en la conversión de la onda
acústica a señal eléctrica.

Tipos de micrófonos según el transductor mecano-eléctrico


Los tipos de micrófonos más usados son los dinámicos, ya sean de bobina o de cinta, y los electrostáticos,
que pueden ser de condensador o de electret, los cuales se basan en un fenómeno eléctrico diferente.
-Micrófonos dinámicos de bobina: una pequeña bobina recoge el movimiento del diafragma, y al moverse
ella misma, dentro de un campo magnético B, se origina una corriente I, proporcional a la fuerza mecánica.
Por la naturaleza del diafragma, su masa y suspensión presentan una resonancia en los márgenes de audio,
la cual origina que la respuesta a la presión, en función de la frecuencia, no sea lineal sino picuda, aplanada
mediante circuitos acústicos.
La masa de los elementos móviles, diafragma y bobina es bastante elevada comparada con la de otros tipos
de micrófonos. Ello origina que cuando reciban una onda de presión que varíe rápidamente en el tiempo, su
respuesta a los ataques será lenta, y además responderán con dificultad a las frecuencias superiores de
audio, es decir, serán bastante sensibles a la vibración y el golpeteo.
La bobina se comporta como una antena, captando perturbaciones eléctricas, como la red y señales de
radiofrecuencia. Esto se compensa situando en serie con la bobina móvil de audio, otra bobina fija (anti-hum)
con su arrollamiento en sentido inverso al de la primera. Así la acción del campo parásito, común a ambas
bobinas, será producir corrientes parásitas opuestas en cada bobina, que por tanto se anularán.

Son los más usados, por:


— Bajo coste y uso sencillo.
— Robustos y difíciles de averiar, lo que los hace útiles para exteriores.
— Salida de tensión de nivel medio, comparada con la de otros tipos.
— Admiten niveles altos de presión sin saturar (duros), por lo que suelen utilizarse para captar instrumentos
muy sonoros.
— Resistencia de salida baja ( < 200 ohmios), lo que permite utilizarlos con cables largos, conectándolos a
cualquier mesa sin problemas.

Micrófonos electrostáticos de condensador: consiste en un condensador, formado por una placa fija y otra
placa móvil, que es también el diafragma.
Para su funcionamiento debe recibir una polarización, o alimentación continua, que mantenga cargado el
condensador con una cierta energía electrostática.
Entonces, cuando el diafragma reciba una onda de presión se deformara, variando el volumen de aire en el
que se almacena la citada energía, obligando a que la energía eléctrica almacenada también varíe,
produciéndose una corriente que se cierra sobre la resistencia externa de carga. La caída de tensión
producida sobre esa carga externa es proporcional a la presión incidente.

25
La base del funcionamiento de este micrófono es la variación de la energía eléctrica almacenada entre las
placas, luego cuanto mayor sea esta energía, o lo que es igual, la tensión continua de polarización que la
produce, mayor será la salida de tensión (sensibilidad) del micrófono.
Su condensador es de muy baja capacidad, por lo que presenta una impedancia de salida elevada,
especialmente en baja frecuencia, lo que da lugar a fuertes pérdidas de tensión en la transmisión a través del
cable de conexión a la mesa, en cuanto este cable supere longitudes de aproximadamente un metro. Para
evitar estas pérdidas se inserta, inmediatamente detrás de la cápsula del condensador, un
preamplificador-adaptador de impedancias, que presenta al micrófono una muy alta impedanciay a la línea de
transmisión una baja impedancia, del orden de 200 ohmios.

Como inconvenientes de este tipo de micrófonos se pueden citar:


— Alto coste, debido a la necesidad de usar preamplificador y al mecanizado de precisión del micrófono.
— Necesidad de suministrar la polarización a través del cable de conexión.
— Poco robustos. Sobre todo su diafragma es muy frágil.
— Sensibles a la humedad, que puede destruirlos por descarga entre las placas. Poco fiables en exteriores.

Las ventajas de su uso son:


— Fundamentalmente su respuesta plana hasta las altas frecuencias, lo que les confiere una gran fidelidad
junto a un buen comportamiento en agudos y con los ataques.
— Salida de tensión (sensibilidad) elevada. Dan muy buenas relaciones señal/ruido, aunque también pueden
saturar tanto el previo como la entrada a la mesa, si la fuente emite presiones elevadas. Para prevenir esta
saturación suele insertarse entre cápsula y previo un atenuador conmutable de unos 10 dB, y además puede
disminuirse la ganancia del previo en unos 10 ó 20 dB, seleccionables con un conmutador externo.
— Por la pequeña masa del diafragma son poco sensibles a las vibraciones y al ruido de manipulación.
— Sus características son estables en el tiempo.
— Tamaño pequeño. Válidos como micrófonos de solapa.

Micrófonos electrostáticos de electret: tiene el mismo fundamento que los de condensador,


diferenciándose de ellos en que la cápsula no necesita polarización. Así la cámara de aire del condensador
ha sido sustituida, en parte, por un polímero llamado electret. Dicho polímero ha sido prepolarizado durante
su fabricación, es decir, se ha inducido en él una carga eléctrica permanente, que será la que suministre la
energía electrostática necesaria para mantener el condensador cargado. Con el empleo de este polímero se
ahorra la polarización de la cápsula, pero todavía sigue siendo necesario el preamplificador-adaptador de
impedancias, que requiere una alimentación de corriente continua. Sin embargo, esta alimentación (1,5 a 12
voltios) puede darla una simple pila, encerrada en la carcasa del micrófono.
Sus características son similares a las de los micrófonos de condensador, excepto en los puntos siguientes:
— Pueden tener una respuesta en agudos más pobre.
— Su sensibilidad es menor que la de los micrófonos de condensador, debido a que el electret suministra
menos energía que una polarización.
— Poco sensibles a la humedad.
— Menor coste que los de condensador

Micrófonos dinámicos de cinta: se basa en el mismo principio que los micrófonos de bobina, excepto que
ahora el conductor que se mueve en el campo magnético del imán es una cinta metálica de muy poco
espesor.
La propia cinta es el diafragma, que al estar expuesto a la presión por ambas caras, da una directividad en
forma de 8 (bidireccional).
La cinta presenta una resistencia eléctrica de menos de 1 ohmio, por ello, suelen incluir un
transformador-elevador en su salida que aumenta dicha resistencia hasta los 200 ohmios típicos. Dicho
transformador también aumenta la tensión de salida, a pesar de ello son los micrófonos de menor sensibilidad
y sin embargo,/Jos más fáciles de saturar, no siendo recomendable usarlos con instrumentos sonoros.

26
Su respuesta en frecuencia es irregular y pobre en agudos, mientras que refuerzan los graves-medios, por lo
que suelen dar tonalidades "cálidas" en la reproducción.
La cinta que constituye el diafragma está corrugada con el fin de presentar muy poca rigidez a las ondas de
presión; su masa es relativamente alta, lo que hace al micrófono sensible a la vibración y al movimiento,
pudiendo oscilar a su frecuencia de resonancia (sobre los 40 Hz) sólo con desplazar al micrófono
rápidamente (jirafa). Físicamente son grandes, robustos y pesados.

Tipos de micrófonos según el transductor acústico-mecánico: al variar la forma en que la onda de


presión llega al diafragma, se pueden obtener micrófonos con diferentes características direccionales:
-Micrófono de presión (omnidireccional): el diafragma está expuesto por una de sus caras a la presión
incidente, y por la otra a una cavidad cerrada en la que gracias a un tubo ecualizador, existe la presión
ambiente Po. Cuando llegue, desde cualquier dirección una onda de presión, la cara exterior del diafragma se
verá sometida a sobrepresiones y enrarecimientos, mientras la cara posterior permanece expuesta a la
presión ambiental. El resultado de esta diferencia de presiones es que el diafragma se desplazará,
comunicando su movimiento al transductor mecano-eléctrico.
Este micrófono siempre que el diafragma sea pequeño, responde al valor de la presión incidente,
independientemente de la dirección de donde provenga la onda de presión. Si el diafragma tiene un tamaño
grande será algo directivo en alta frecuencia, por dos razones:
-La propia carcasa del micrófono "tapa" la radiación posterior.
-Se producen interferencias sobre el diafragma, origen de coloración y directividad

-Micrófono de gradiente (bidireccional o en 8): el diafragma expuesto por su cara anterior a la onda de
presión incidente, y por su cara posterior a la misma onda, pero después de haberle obligado a recorrer un
camino acústico.
Por recorrer este camino, la onda que llega a la cara posterior tiene una presión y fase diferente de la onda
incidente, de forma que sobre el diafragma existe una diferencia o gradiente de presión, que lo hace moverse.
Este gradiente depende del ángulo 0, que forma el eje del micrófono con la dirección de llegada del frente de
ondas.
Responde con salida máxima si la onda de presión incide sobre él según el eje, ya sea frontal o
posteriormente; sin embargo, el micrófono da salida nula cuando la onda incide lateralmente (909), puesto
que entonces el recorrido de la onda a las dos caras del diafragma es el mismo, y por tanto no existe
diferencia de presiones que lo mueva.
Debido a esta relación entre tensión de salida y velocidad, los micrófonos que utilizan el efecto gradiente
presentan el "efecto proximidad", que dificulta su uso con tomas a poca distancia de las fuentes.

-Micrófono combinado de presión y gradiente (unidireccional o cardioide): son los que más se usan, por
sus características unidireccionales. Igual que en los anteriores, el diafragma se mueve por el gradiente de
presión que aparece entre sus caras. Así, la cara anterior recibe la onda directamente, mientras la cara
posterior recibe la onda con un desfase controlado, debido a que el camino recorrido por esta onda es
diferente según su dirección de incidencia.

-Micrófono con paraboloide concentrador del haz: si en el foco de un paraboloide se sitúa un micrófono
unidireccional, resulta que para los rayos de un frente plano, que incida según el eje del paraboloide, el
camino desde el frente hasta el micrófono es el mismo para cualquier rayo de ese frente.
Si el frente plano no incide según el eje, los caminos hasta el foco serán diferentes, y en lugar de refuerzo se
obtendrá interferencia destructiva de la onda.
De esta forma se consigue reducir el ángulo de captación a un haz muy estrecho, según el eje de la parábola,
por lo menos en alta frecuencia.
En baja frecuencia la longitud de onda del sonido es grande, comparada con las dimensiones de la parábola,
y por tanto, el desfase de los frentes laterales en el foco no es lo suficientemente grande para que se
produzca la interferencia destructiva. El sistema tenderá a hacerse omnidireccional.

27
-Micrófono de interferencia o de cañón: consigue su alta directividad por el método de interferencia
destructiva de las fuentes de onda laterales. En este caso la diferencia de caminos, que da el desfase, se
produce en un largo tubo de interferencia situado frente al diafragma de una cápsula cardioide. Las ranuras
del tubo obligan a que lleguen al micrófono rayos muy desfasados, cuando la incidencia es lateral, y rayos en
fase cuando el frente de onda incide según el eje.
Con estos micrófonos pueden obtenerse directividades agudas, en alta frecuencia. A baja frecuencia, igual
que sucedía con el paraboloide, su directividad se reduce a la del cardioide que lleva incorporado.
Son útiles en exteriores, o donde no exista un campo reverberante muy intenso, debido a que no rechazan el
campo reverberante todo lo que cabía esperar de su agudo diagrama de directividad.

Características de micrófonos dadas como especificaciones por el fabricante, definen las prestaciones que
se pueden obtener de ese micrófono.

-Sensibilidad: indica la eficiencia con que un micrófono transforma la presión sonora en tensión eléctrica.
La presión de referencia puede ser un Pascal o un microbar, con lo que la sensibilidad vendrá dada en
milivoltios por Pascal, o en milivoltios por microbar, respectivamente.
Los micrófonos de condensador son más sensibles que los de bobina.

-Curva de respuesta en frecuencia: los fabricantes suelen dar para cada tipo de micrófono, la curva de
variación de la sensibilidad en función de la frecuencia.
Si se busca fidelidad, interesa que la curva de respuesta sea plana y se extienda lo más posible en alta y baja
frecuencia, comportamiento que sólo es seguido por los buenos micrófonos de condensador.
En micrófonos directivos se suele dar la curva de respuesta a diferentes distancias de la fuente, con el fin de
apreciar el refuerzo producido por el efecto proximidad. En algunos tipos de micrófono
(lavalier) la respuesta en frecuencia se altera a propósito, con el fin de corregir algún problema de uso.

-Directividad: indica la capacidad de algunos micrófonos de captar el sonido procedente de algunas


direcciones y de rechazar el de otras. Para medirla se define el ángulo de captación 0 como el que indica la
dirección de incidencia sobre el micrófono, de la radiación máxima de una fuente.
La sensibilidad máxima aparece en el eje, es decir, para 0 = 0°.
Se la suele representar en decibelios, en función del ángulo 0 , en un diagrama polar.
En el diagrama, la curva polar indica la pérdida de sensibilidad, en dB, para los sonidos que lleguen de
direcciones distintas del eje del micrófono (0 dB).
Según los circuitos acústicos de los micrófonos se obtienen diferentes directividades, entre las cuales las más
típicas son:

-Distorsión: conjunto de señales que aparecen en la salida de un sistema y que no estaban en la entrada.
Señales que van a "ensuciar” la señal útil de salida, que están originadas porque el sistema no actúa
linealmente sobre la señal de entrada.
Posibles causas:
-Distorsión interna:
— Efecto proximidad.
— Resonancia internas, que colorean la curva de respuesta.
— Respuesta lenta a los ataques, en los de bobina y cinta.
— Vibraciones parciales, en diafragmas de superficie grande.

-Distorsión externa:
— Sobrecarga o saturación ante una presión elevada.
— Poping. La onda de choque del aire expulsado al pronunciar las consonantes explosivas p, t, b, deforma el
diafragma, produciendo un ruido característico (se corrige situando ante el diafragma un filtro "antipop")

28
— Ruido de viento. Las turbulencias del viento o las inducidas al situar el micrófono como un obstáculo en el
flujo del aire, producen variaciones de velocidad, que aparecen como un molesto ruido de baja frecuencia (se
reduce con un filtro de graves, o pantallas antiviento)
— Ruido de vibración o golpeteo.

-Impedancia de salida. Líneas de micrófono: es una medida de la resistencia interior que tendrá el
micrófono en función de su frecuencia.

-Alimentación de micrófonos de condensador


La polarización de un micrófono de condensador podría enviarse por dos hilos adicionales en el cable o
suministrarse a través de una pila.
Los dos tipos de alimentación en línea simétrica son:
-Alimentación fantasma: se aprovecha la capacidad de rechazo del modo común del transformador de
entrada a la mesa. Así al aplicar en común la tensión continua a los dos hilos de modulación, la tensión se
compensa en el primario del transformador de entrada, no perturbando el amplificador de entrada del canal de
la mesa.
-Alimentación A-B: las tensiones positiva y negativa se aplican a los hilos de modulación, estando el blindaje
aislado de ellas.

Audio Analógico – Audio digital (Asís Ferri, Paula & Conen, Hernán)
Las señales
El concepto de señal es aplicado en numerosas áreas. En el libro “Signals and systems”, una señal está
definida como el producto de la función de una o más variables independientes que contienen información
acerca del comportamiento de ciertos fenómenos. Pueden describir una gama muy amplia de fenómenos
físicos diversos y también pueden ser representadas de distintas maneras. En todos los casos, la información
en una señal está contenida de alguna forma dentro de un patrón de variaciones.

Lo analógico y lo digital
Una señal analógica es un tipo de señal generada por algún tipo de fenómeno electromagnético y que es
representable por una función matemática continua en la que es variable su amplitud y periodo
(representando un dato de información) en función del tiempo. En la naturaleza, el conjunto de señales que
percibimos son analógicas, así la luz, el sonido, la energía etc., son señales que tienen una variación
continua.
La señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético en que cada signo
que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que
representan valores discretos, en lugar de valores dentro de un cierto rango. Los sistemas digitales, como por
ejemplo las computadoras, usan lógica de dos estados representados por dos niveles de tensión eléctrica,
uno alto, H y otro bajo, L (de High y Low, respectivamente, en inglés). Por abstracción, dichos estados se
sustituyen por ceros y unos, lo que facilita la aplicación de la lógica y la aritmética binaria.

El sistema binario: bit, byte, word


En el sistema binario la unidad mínima es el bit, el cual admite dos valores: 0 y 1, que representan dos
estados: apagado (no) y encendido (si), respectivamente. Todas las cifras de este sistema representan
valores que dependen del valor que exprese en sí cada cifra y del lugar que ocupen dentro del número. Un
byte es un grupo de 8 bits. Con un byte se puede representar cualquier valor dentro de un rango de 256
unidades (de 0 a 255 ó de - 128 a 127 del sistema decimal) Cada uno de los ocho bits de un byte, de acuerdo
a su ubicación dentro del grupo, representa un valor. De derecha a izquierda los valores representados son 1,
2, 4, 8, 16, 32, 64, 128. El byte se utiliza también como medida de almacenamiento de información, sus
múltiplos son: el Kilobyte= 1024 bytes, el Megabyte= 1024 Kilobytes, el Gigabyte= 1024 Megabyte, el
Terabyte y el Petabyte.
Para representar números en la computadora se agrupan los bits en unidades más grandes llamadas words
(palabras: grupo de bits que representan una única muestra).
29
Los números binarios que una computadora manipula pueden representar no sólo números sino también
programas y datos de cualquier tipo. Los caracteres del alfabeto y los signos de puntuación se representan
codificados en forma de números, para lo cual hay varios sistemas, siendo el código ASCII el más extendido,
en éste cada carácter corresponde a un byte determinado, por ejemplo la A es 11000001, la B11000010, etc.
también hay normas como la MIDI para codificar la música.

Audio analógico / audio digital


Los aparatos que generan o procesan el sonido operan siempre sobre una representación del mismo. En la
actualidad los dos métodos más comunes para esta representación son el analógico y el digital.
En el caso de los aparatos analógicos, la variación de presión en el tiempo se representa como variación de
otra magnitud también continúa, normalmente la tensión o intensidad eléctrica. Se llama analógico porque las
mismas oscilaciones de la presión se reproducen de manera análoga en forma de oscilaciones de tensión
eléctrica.
En un aparato digital el sonido es representado como una serie de números, llamados muestras, que son las
medidas de la onda en instantes sucesivos. Es decir, el audio digital es la codificación digital de una señal
eléctrica que representa una onda sonora. Consiste en una secuencia de números binarios y se obtiene del
muestreo y cuantificación de la señal analógica. Posteriormente se puede codificar o comprimir, dando lugar a
formatos más compactos (compresión de audio).
Es decir que para registrar y manipular sonidos con un sistema digital es necesario que las ondas sonoras
transformadas en señales análogas (voltaje eléctrico) se conviertan en señales digitales, las señales de audio
analógicas deben ser codificadas de acuerdo a los métodos y patrones de los sistemas digitales. La onda
analógica, por tanto, es convertida en datos que la representan mediante dígitos binarios o bits.

Digitalización (conversión AD/DA)


La digitalización es el proceso de conversión de una señal analógica en información digital.
En este proceso la señal analógica llega en forma de corriente eléctrica a través de un cable hasta el
dispositivo donde se aloja el conversor A/D (CAD).
Los cambios de voltaje en el flujo de corriente eléctrica, propios de la señal analógica, son medidos por el
conversor A/D mediante una toma de muestras a intervalos regulares, a las que le corresponde un valor de
tensión, que se obtienen con el fin de convertirlas en valores digitales.
El proceso inverso, y complementario con el anterior, es el de convertir una señal digital en una señal
analógica, y lo realiza el conversor D/A (CDA). El mismo recibe la señal digital y convierte los valores binarios
en niveles de voltaje continuos, generando una nueva señal analógica.
Una de las técnicas de digitalización más adecuadas y utilizadas para la música es la modulación de código
de pulsos, conocida como PCM lineal (Pulse Code Modulation). El proceso de modulación de códigos de
pulsos consta de varias etapas, comenzando con la llegada de la señal analógica al dispositivo digitalizador.

Filtro pasa bajos: la señal es procesada por un Filtro Pasa bajos (FPB o LPF (low pass filter)); un filtro de
corte de frecuencias que se encarga de filtrar todas aquellas que estén por encima de un umbral determinado.
El objetivo es eliminar todos los componentes del espectro del sonido que se encuentren situados por encima
de 20.000 Hz (colas espectrales). Esto se debe a que, aunque son inaudibles, su presencia hace posible la
aparición por batimiento de frecuencias inferiores a la frecuencia de corte, que se ubican dentro del rango de
frecuencias audibles. Este fenómeno es conocido como aliasing. Se evita, precisamente, por medio de la
utilización de un FPB.

Muestreo: durante el proceso de digitalización se toman muestras a intervalos regulares de tiempo (tasa de
muestreo), y con cada una se obtiene el valor del nivel de voltaje de la señal analógica (amplitud de la señal
eléctrica) en el momento de hacer la muestra. Ese valor se mantiene constante hasta la próxima muestra (con
la consiguiente pérdida de información que se produce entre muestra y muestra en comparación con la señal
continua. Esta pérdida se atenúa en los pasos subsiguientes.

30
La frecuencia (o Tasa) de muestreo (Sample rate, en inglés) es la velocidad con que se toman las muestras.
Indica la cantidad de ellas tomadas en la unidad de tiempo que es el segundo. Se mide en Hz. La teoría del
muestreo o Teorema de Nyquist-Shannon dice que para poder muestrear fielmente una señal, la frecuencia
más aguda de su espectro ha de ser menor que la mitad de la velocidad de muestreo, conocida como
frecuencia Nyquist. Ésta es la mayor frecuencia que puede muestrearse con esa velocidad sin que se genere
aliasing.
Cuando la frecuencia de muestreo es menor al doble de la frecuencia muestreada, aparece una frecuencia
nueva aliasing, cuyo valor es igual a la diferencia entre la frecuencia de muestreo y la frecuencia muestreada
(frecuencia diferencial). En el caso de los sonidos complejos, los parciales agudos que superen la frecuencia
Nyquist se convertirán en otros más graves, con lo que se origina una distorsión en el timbre.

La cuantización y codificación: Una vez muestreada la señal, debe convertirse en series de números,
mediante un proceso conocido como cuantización. El resultado del muestreo es un tren de pulsos de amplitud
variable; la cuantización consiste en asignar un valor numérico a cada uno de los pulsos, de acuerdo con su
amplitud. El proceso de cuantización implica asignar a cada muestra un valor entero de rango finito y
predeterminado (o lo que es lo mismo, asignar un valor más próximo en una escala de niveles discretos de
amplitud). No se permiten valores fraccionarios o intermedios, por lo que durante
la cuantización, cada muestra se redondea al entero más próximo.
Podemos ver claramente que hay diferencias entre la amplitud original de la muestra y su correspondiente
representación numérica; esta diferencia se conoce como error de cuantificación. Como puede apreciarse, el
valor máximo del error de cuantificación es más/menos la mitad del escalón de cuantificación, puesto que
cuando la amplitud de la muestra supera medio escalón de cuantificación por encima de uno determinado, se
le asigna el valor correspondiente al intervalo inmediato siguiente.
Cuantos mayores niveles de cuantización tenga la escala, menor será el error o el ruido de cuantización, es
decir, el grado de ajuste o corrección sobre el valor original de las muestras. Depende de la cantidad de bits
utilizados en la digitalización que dicha escala discreta posea mayor o menor cantidad de grados. El
parámetro para ajustar este valor se denomina comúnmente resolución, profundidad o ancho de la muestra
(en inglés: Resolution, Sample Size o Bit Depth) en la codificación, el valor cuantizado de cada muestra es
representado por una secuencia de bits.

Conversión DA
Una vez que se ha llevado a cabo la conversión AD, la señal digital es plausible de ser manipulada de
diversas maneras por medio de la implementación de procesadores digitales. Para escuchar cualquiera de los
procesos llevados a cabo en la computadora es necesario que se realice con la señal el camino
inverso, es decir convertirla de digital a analógico.
Para lograr esto el conversor DA recibe sucesiva y regularmente las muestras cuantificadas y codificadas y
luego las transforma en un flujo de corriente por medio de un factor de escala. Como resultado se obtiene una
onda escalonada, gracias a que cada muestra representa un valor de tensión estable que se mantiene hasta
la siguiente muestra. Por este motivo, la onda obtenida no es idéntica a la onda analógica original (que es de
fluctuaciones constantes) se introduce de esta manera un ruido de digitalización, cuyas consecuencias se
atenúan a medida que aumenta la resolución en bits en la conversión AD.

Filtrado de la señal: para atenuar los efectos del escalonamiento de la onda y evitar la aparición de
frecuencias que produzcan batidos, se vuelve a filtrar la señal con un filtro FPB. La señal analógica obtenida
no es igual a la original, aunque sus diferencias pueden llegar a no ser percibidas auditivamente si se utilizan
valores altos en los parámetros de digitalización.

Dither: recibe este nombre un tipo de ruido aleatorio que se utiliza en determinados casos para ser agregado
con un nivel muy bajo a una señal, con el propósito de enmascarar y reducir el ruido de digitalización o error
de cuantificación.

31
Ruido digital: En las señales de poca amplitud el ruido de digitalización se hace más notorio debido a que
puede ocurrir que los saltos entre grados contiguos de la escala de cuantificación (que varían según la
resolución) superen la amplitud de la onda digitalizada introduciendo distorsión. También aparece ruido de
cuantificación cuando se trucan bits,

Archivos de audio: códecs y formatos


El audio digitalizado se almacena en forma de archivos. Resulta necesario que los datos que hay en ellos
estén organizados de alguna manera en particular. Las diferentes formas de guardar los datos que conforman
un archivo de sonido se conocen como FORMATOS. Existen diversos formatos que se ajustan a distintas
normas o que son específicos para diferentes plataformas, entornos, aplicaciones o soportes. Los formatos
son conocidos por la extensión que sigue al nombre del archivo; por ejemplo .wav (formato wave), .aiff
(formato Aiff), .mp3 (Formato MP3 Layer 3). Cada formato puede, a su vez, admitir varios CÓDECs.

Códec: apócope del inglés derivado de Coder/decoder (codificador/decodificador). Son archivos residentes
en el ordenador que permiten a uno o varios programas descifrar o interpretar el contenido de un determinado
tipo de archivo multimedia. Cada Códec define la manera en que está codificada una señal y cómo se
decodifica. También se denominan de este modo las técnicas de compresión y descompresión de datos. Este
proceso de codificación puede lograrse mediante programas (softwares), por medio de dispositivos físicos
(hardware) o por una combinación de ambos. El formato, en tanto, sirve para organizar los datos y para que
su estructura pueda ser identificada por los programas y por el hardware.

Sin comprimir y comprimidos


Se pueden diferenciar los formatos de audio que comprimen los datos para generar archivos más livianos, de
los formatos que almacenan audio sin comprimir. En este último caso no hay pérdidas en la información, lo
que permite trabajar en alta calidad. Se utilizan en audio profesional, y es recomendable emplear este tipo de
formatos cuando no hay limitaciones para almacenar o para transmitir y distribuir.
Con los formatos comprimidos, el objetivo consiste en lograr archivos más livianos, que ocupen menos
espacio de almacenamiento y que sean más fáciles de mover y de compartir. Los formatos comprimidos
mejor logrados son aquellos que equilibran la menor pérdida de calidad con la máxima compresión posible.
Un parámetro importante para estos formatos es el bit rate, que está referido al ancho de banda con que se
puede transmitir la información.

La compresión
Existen distintos métodos de compresión, los más utilizados se basan en modelos psicoacústicos, cuyo
principio es el de eliminar datos que el oído no es capaz de distinguir. Características perceptuales y
fenómenos como el enmascaramiento y la división del rango de frecuencias audibles en bandas críticas son
especialmente estudiados para definir algoritmos que permitan eliminar información que en forma un tanto
imprecisa se podría denominar redundante.
Uno de los pasos, como se da en uno de los métodos más difundidos de compresión: el MPEG (Motion
Picture Expert Group), consiste en analizar los componentes del espectro del sonido y dividir la señal en
sub bandas (codificación sub banda – sub band coding) el propósito es lograr codificaciones con menores
cantidades de bits a partir de una señal PCM, teniendo en cuenta que el largo de la palabra en la codificación
PCM está determinado por el rango dinámico de la componente espectral más alta. El resultado es que
disminuye el ancho de banda debido a la eliminación de frecuencias
enmascaradas. Estudios demuestran que la distorsión generada es imperceptible para el oído experimentado
en un ambiente óptimo desde los 256 kbps y en condiciones normales. Para el oído no
experimentado, o común, con 128 kbps o hasta 96 kbps basta para que se oiga "bien" (a menos que se posea
un equipo de audio de alta calidad donde se nota excesivamente la falta de graves y se destaca
el sonido de "fritura" en los agudos). Actualmente, el formato de audio comprimido más popular es
el MP3 o MPEG 1 layer 3.

Tasa de bits (bit rate)


32
Un parámetro importante para el intercambio de archivos por redes o sistemas de comunicación es la Tasa de
Bits o Bit Rate. Se refiere a la velocidad de bits, es decir la cantidad de bits que se transmiten en la unidad de
tiempo que es el segundo. Ésta es una medida cuya unidad, el Kbps (kilo bits por segundo), expresa el flujo
de datos con que se puede transmitir un archivo. Para anchos de bandas mayores se utiliza Mbps o Gbps
(M= mega; G= giga).

- Tasa de bits constante (CBR Constant Bit Rate). Es un control utilizado en la compresión de archivos de
audio -aparece entre las opciones de algunos formatos cuando se comprime- para establecer un mismo valor
de bit rate para todo el archivo, independientemente del nivel de compresión que cada una de las partes
requiere. Permite predecir con exactitud el peso final del archivo después de la compresión.

- Tasa de bits variable (VBR Variable Bit Rate). Este control – alternativa contrapuesta a la opción anterior-
establece un tipo de bit rate que se ajusta a las características del audio del archivo a comprimir. Su peso final
depende de cada archivo.

- Flujo de bits (Bitstream): flujo de datos codificados y organizados que se obtiene a la salida del proceso de
compresión de archivos de audio, de acuerdo al algoritmo de compresión. En la codificación de audio
comprimido para el flujo de bits adopta un formato para su almacenamiento y/o transmisión que,
posteriormente el decodificador recibe y debe interpretar. El decodificador tiene que recibir este flujo de bits
para procesarlo reconstruir la señal PCM.

Codificación MP3
MPEG-1 Audio Layer 3, más conocido como MP3, es un formato de audio digital comprimido con pérdida.
Desarrollado por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y posteriormente
ampliado en la versión 2) del formato de vídeo MPEG. El mp3 estándar es de 44 KHz y un bitrate de 128 kbps
por la relación de calidad/tamaño. Su nombre es el acrónimo de MPEG-1 Audio
Layer 3 y el término no se debe confundir con el de reproductor MP3.
La codificación MP3 soporta uno o dos canales dentro de alguna de las siguientes opciones:
- Mono: un solo canal de sonido
- Dual channel (canal doble): dos canales mono independientes.
- Stereo: los canales izquierdo y derecho se codifican independientemente
- Join Stereo: aprovecha la redundancia de datos entre los canales izquierdo y derecho que muchas veces
contienen la misma información para reducir la tasa de bits. acepta dos codificaciones posibles: Mid/side
stereo e Intensity stereo:
• La técnica M/S stereo, en vez de codificar los canales izquierdo y derecho, codifica la información de un
canal central (la que es igual en los canales izquierdo y derecho) y de uno lateral, que es el que contiene la
información diferencial entre ambos canales. Es decir, lo que queda en cada canal después de restarle a cada
uno la información que va al canal central. Los canales izquierdo y derecho se reconstruyen durante la
decodificación.
• La técnica Intensity Stereo se vale de la limitación del oído humano para reconocer la ubicación espacial de
determinadas frecuencias, por lo que estas son reducidas a una señal mono.
¿Cuánto espacio ahorra el MP3?
Aplicando las técnicas de MP3, se consigue reducir el tamaño que ocupa una pieza musical en un factor entre
10 y 12 a 1, es decir, que se reduce a menos de una décima parte.

Streaming
La traducción literal del término es corriente o flujo. Se denomina de este modo al método utilizado para
transferir archivos de audio y video con el fin de que se reproduzcan mientras se descargan. Se utiliza para
aligerar la descarga y ejecución de audio y vídeo en la web.

Acústica y sistemas de sonido (Miyara, Federico)


Capítulo 4: Acústica Arquitectónica
33
Acústica arquitectónica: estudia los fenómenos vinculados con una propagación adecuada, fiel y funcional
del sonido en un recinto, ya sea una sala de concierto o un estudio de grabación.

Cualidades acústicas de un recinto: serie de propiedades relacionadas con el comportamiento del sonido
en el recinto, entre las cuales se encuentran las reflexiones tempranas, la reverberación, la existencia o no de
ecos y resonancias, la cobertura sonora de las fuentes, etc.

Ecos: fenómeno más sencillo que tiene lugar en un ambiente con superficies reflectoras. Es una única
reflexión que retorna al punto donde se encuentra la fuente unos 100 ms (o más) después de emitido el
sonido. El sonido recorre de ida y de vuelta la distancia entre la fuente sonora y la superficie. La superficie
más próxima debe estar a unos 17 m. Cuando hay dos paredes paralelas algo distantes se puede producir un
eco repetitivo.

Reflexiones tempranas: cuando la fuente sonora está rodeada por varias superficies (piso, paredes, techo)
un oyente recibirá el sonido directo, y además el sonido reflejado en cada pared. Son las primeras reflexiones
recibidas, que se encuentran bastante separadas en el tiempo. En salas no demasiado grandes, las primeras
reflexiones están bastante cerca en el tiempo unas de otras, de manera que no se llegan a percibir como eco.

Ambiencia: sensación que permite al oyente identificar auditivamente el espacio en el que se encuentra a
partir de la distribución en el tiempo de las reflexiones tempranas.

Absorción sonora: las superficies de un recinto reflejan sólo parcialmente el sonido que incide sobre ellas; el
resto es absorbido. Según el tipo de material o recubrimiento de una pared, ésta podrá absorber más o
menos el sonido, lo cual lleva a definir el coeficiente de absorción sonora, el cual tiene una gran importancia
para el comportamiento acústico de un ambiente, y por esa razón se han medido y tabulado los coeficientes
de absorción para varios materiales y objetos. En general, los materiales duros, como el hormigón o el
mármol, son muy reflectores y por lo tanto poco absorbentes del sonido, y en cambio los materiales blandos y
porosos, como la lana de vidrio, son poco reflectores y por consiguiente muy absorbentes.

Reverberancia: permanencia del sonido después de interrumpida la fuente. Sucede cuando las reflexiones
se acumulan y densifican.

En cada reflexión, una parte del sonido es absorbido por la superficie, y otra parte es reflejada. La parte
absorbida puede transformarse en minúsculas cantidades de calor, o propagarse a otra habitación vecina, o
ambas cosas. La parte reflejada mantiene su carácter de sonido, y viajará dentro del recinto hasta
encontrarse con otra superficie, en la cual nuevamente una parte se absorberá y otra parte se reflejará. El
proceso continúa así hasta que la mayor parte del sonido sea absorbido, y el sonido reflejado sea ya
demasiado débil para ser audible, es decir, se extinga.

Tiempo de reverberación: tiempo que demora el sonido en bajar 60 dB por debajo de su nivel inicial.
Depende de cuán absorbentes sean las superficies de la sala. Si las paredes son muy reflectoras se
necesitarán muchas reflexiones para que se extinga el sonido, y entonces T será grande. Si, en cambio, son
muy absorbentes, en cada reflexión se absorberá una proporción muy alta del sonido, por lo tanto en unas
pocas reflexiones el sonido será prácticamente inaudible, por lo cual T será pequeño.

Tiempo de reverberación óptimo: para cada finalidad existe un tiempo de reverberación óptimo, que
aumenta al aumentar el volumen en m3 de la sala. Se observa que la palabra requiere menores tiempos de
reverberación que la música, incluso esta se beneficia con un tiempo de reverberación considerable, ya que
éste permite empalmar mejor los sonidos y disimular pequeñas imperfecciones de ejecución, a la vez que
aporta una espacialidad que es deseable.

Campo sonoro: valor que adquiere la presión sonora en cada punto del espacio. Se divide en dos
componentes: el campo directo y el campo reverberante.

Campo directo: contiene la parte del sonido que acaba de ser emitido por la fuente, y que por lo tanto aún no
experimentó ninguna reflexión.
34
Disminuye con la distancia a la fuente, y lo hace a razón de 6 dB por cada duplicación de la distancia. Así, si a
1 m de una fuente sonora se mide un nivel de presión sonora de 80 dB, a 2 m (el doble de 1 m) tendremos 74
dB; a 4 m (el doble de 2 m) habrá 68 dB; a 8 m (el doble de 4 m) existirá un campo directo de 62 dB, y así
sucesivamente.

Campo reverberante: incluye el sonido después de la primera reflexión. Es constante en los ambientes
cerrados ya que el sonido sufre multitud de reflexiones, y todas ellas se superponen entre sí, resultando una
distribución prácticamente uniforme del sonido. Es difuso. En una habitación el sonido se ve reforzado por el
campo reverberante, que acumula la energía sonora que no es absorbida en las reflexiones. En el
descampado, al no haber reflexiones, la energía sonora simplemente se aleja continuamente de la fuente, sin
posibilidad de acumularse. Será tanto mayor cuanto más reflectoras del sonido sean las superficies de un
ambiente (cuanto menor sea el coeficiente de absorción), ya que será mayor laenergía acumulada. Como
también el tiempo de reverberación aumenta cuando aumenta la reflexión, resulta que a mayor tiempo de
reverberación, mayor campo reverberante.

Distancia crítica: limita las regiones en las que predomina uno u otro campo. Para distancias menores que la
distancia crítica, predomina el campo directo, y para distancias mayores, predomina el campo reverberante.
Por esta razón se suele denominar también campo cercano y campo lejano a las componentes directa y
reverberante.

Resonancias: consecuencia de las reflexiones sucesivas en paredes opuestas. Si en una habitación se


genera una onda sonora que viaja perpendicularmente a dos paredes enfrentadas, al reflejarse en una de
ellas lo hará también perpendicularmente, de modo que volverá sobre sí misma y posteriormente se reflejará
en la pared opuesta, generándose una onda estacionaria, es decir, una onda que va y vuelve una y otra vez
entre las dos paredes, la cual se escuchará precisamente como un sonido.

Materiales absorbentes acústicos: materiales especialmente formulados para tener una elevada absorción
sonora. Existen varios tipos de materiales de esta clase:

- Lana de vidrio como fieltro o panel rígido. La absorción aumenta con el espesor, y también con la densidad.
Permite absorciones sonoras muy altas. Debe ser separada del ambiente acústico mediante paneles
protectores - Protectores. Planchas perforadas de Eucatex u otros materiales celulósicos que no tienen efecto
propio en la absorción, por lo tanto aplicadas directamente sobre la pared son poco efectivas.

- Espumas de poliuretano o de melamina. Se fabrican facetados en forma de cuñas anecoicas


comportándose como una trampa de sonido, el cual se refleja varias veces.

- Plafones fonoabsorbentes basados en fibras minerales (basalto), fibra de vidrio, fibras celulósicas, corcho,
etc. con diversas terminaciones superficiales de fantasía para el cielorraso. Se instalan suspendidas por
medio de bastidores a cierta distancia de la losa. Cuanto mayor es la separación, mejor es la absorción
resultante, sobre todo si se intercala algo de lana de vidrio.

- Alfombras para los pisos, las cuales son más efectivas si se colocan sobre bajo alfombras porosos de fibra
vegetal (arpillera, yute) o poliéster, atenuando los ruidos de pisadas u objetos que caen o rozan el suelo (por
ejemplo, cables de micrófonos).

-Cortinados, empleados como parte del diseño arquitectónico con algún fin estético o funcional, variando con
el plegado, fruncido o drapeado

Aislación acústica: impide que los sonidos generados dentro del mismo trasciendan hacia el exterior y,
recíprocamente, que los ruidos externos se perciban desde su interior. Se logra interponiendo una pared o
tabique entre la fuente sonora y el receptor. La aislación es tanto mayor cuanto mayor sea la densidad
superficial del tabique y cuanto mayor sea la frecuencia del sonido.

Para catalogar la aislación sonora de diferentes materiales y estructuras se usan dos parámetros:

35
- Pérdida de transmisión (PT): parámetro expresado en dB que depende de la frecuencia e indica en cuánto
se atenúa la energía sonora incidente al atravesar el tabique. Así, una pérdida de transmisión de 40 dB
significa que la energía sonora que pasa al otro lado es 40 dB menor que la incidente.

- Clase de transmisión sonora (STC): valor promedio de la pérdida de transmisión a varias frecuencias. Es un
valor único que permite evaluar rápidamente la calidad de la aislación sonora que ofrece un tabique.
Especialmente en lo referido a la privacidad de la palabra. Así, un valor de STC inferior a 25 implica que la
voz normal se entiende perfectamente, y un valor superior a 45 implica que la voz alta casi no se percibe.

Transmisión por flancos: el sonido que se filtra a través de fisuras, intersticios o juntas mal selladas, o que
se propaga por la estructura en forma de vibraciones, o que se transmite por tuberías de ventilación o aire
acondicionado, opor los caños de distribución de energía eléctrica.

Técnica del sonido cinematográfico (Roselló Dalmau, Ramón)


Capítulo VI: Planos sonoros
El movimiento
El cine da información mediante imágenes en movimiento. Se le presenta al espectador una sucesión de
imágenes y sonidos que cumplan ciertos requisitos, estáticas y él crea la ilusión del movimiento, manipulando
así el tiempo y el espacio.

Perspectiva sonora
Está relacionada con la impresión subjetiva de distancia que puede causar un sonido, es distinta según la
forma de escucha. Cuando se oye un sonido que proviene directamente de su fuente, la audición se realiza
con un mecanismo doble, dos oídos, lo que permite obtener dos datos: la dirección de que proviene un sonido
y la distancia, aproximada, a que parece estar la fuente. Cuando se produce, en nuestro entorno auditivo, un
ruido distinto en intensidad y especie, dirigimos nuestra atención visual, con un error mínimo, al punto donde
se ha producido el ruido. Ambos datos, dirección o ángulo y distancia son los necesarios para definir la
posición de un punto, en este caso la fuente, en coordenadas polares. En audición directa, por tanto, se
conoce la situación de una fuente sonora en el espacio, propiedad que se pierde cuando el sonido es
continuo.
Cuando un sonido llega al oyente, se produce una difracción de las ondas alrededor de su cabeza con lo que
parte del sonido llega a un oído y parte al otro. Esta distribución del sonido causa, principalmente, dos
efectos: que exista una diferencia de intensidad entre los sonidos que llegan a ambos oídos y que lleguen en
tiempos distintos. Comparando las dos intensidades percibidas por los oídos, el cerebro obtiene uno de los
datos que precisa para asignar una distancia a la fuente.
Sí la escucha se hace a través de un micrófono se pierde la noción de la dirección de llegada del sonido,
aunque la impresión de desplazamiento de la fuente, cuando varía su distancia al micrófono, queda mucho
más acusada que en la audición directa. Al no ser posible la orientación, resulta que la fuente puede ocupar
muchas posiciones que den. Sin embargo, la misma sensación de distancia aparente, con lo que, en escucha
microfónica, no se puede situar la fuente en un punto, sino en una superficie a la que se puede llamar plano
sonoro.
En la audición microfónica se puede decidir la distancia aparente de la fuente y el plano sonoro o conjunto de
puntos que dan impresión de la misma distancia microfónica. En audición directa se practica la escucha
inteligente y se puede precisar el lugar que ocupa la fuente sonora.

Plano sonoro
Es el lugar geométrico de los emplazamientos del micrófono para los que se percibe, en la audición, una
misma impresión de distancia para determinada posición de la fuente. Para todos estos posibles
emplazamientos de micrófono, la distancia real entre éste y la fuente varía según las características del lugar
de la toma y las del micrófono.

36
Matemáticamente se define como aquel conjunto de emplazamientos del micrófono, en un local cerrado para
los que la relación se mantiene constante. El valor de esta relación da idea del tamaño aparente de la fuente
de sonido.
Dado que uno de los elementos a considerar es la intensidad del sonido reflejado, para grabaciones en
exteriores el concepto varía sustancialmente, ya que la impresión de distancia, en este caso, va asociada a
intensidad del sonido.
El sonido que acompaña a la imagen, debe corresponder a planos sonoros coherentes con el contenido de la
pantalla. Será un acompañamiento correcto de la imagen si la impresión de distancia que traduzca se
corresponde con la proximidad o lejanía de su fuente.

En sonido se presentan tres aspectos perfectamente diferenciados tres tipos de planos:


-Primer plano: el espectador ve la fuente sonora, en la pantalla, muy próxima. Puede apreciar todos sus
detalles. Como consecuencia de la gran área de pantalla ocupada por la fuente, el ambiente escénico pierde
valor. La intimidad es tanto más acusada cuanto más próximo es el término del personaje en la imagen, cuya
voz llega a ser susurrante, dicha directamente a cada espectador. Este y el personaje se identifican. Esto se
consigue con la ausencia de sonidos reflejados, en medida proporcional a la proximidad del actor. El
micrófono está, por tanto, muy próximo a la boca, con los consiguientes problemas de captar faltas de
uniformidad de emisión de energía en la dicción, aumento aparente de las bajas frecuencias, con la
consiguiente deformación de la voz, emisión de aire al respirar o hablar, etc. La toma de sonido es
especialmente delicada y requiere una colaboración consciente por parte del actor. Dado que los sonidos
reflejados tienden a cero, el valor de la relación G, para el primer plano sonoro, tiende a infinito. sonido
directo>sonido reflejado
-Plano medio: imagen, un personaje en este tamaño de plano concuerda con la visión consciente que se
tiene, en la vida real, de una persona con la que se habla a distancia, y condiciones normales. sonido
directo=sonido reflejado
-Plano general: el personaje, en este caso, tiene un tamaño menor que el real; está alejado del espectador. El
entorno del personaje se muestra en su totalidad o considerablemente, con lo que adquiere un valor máximo.
Puede ser un plano de situación, un plano que permita identificar el lugar donde se desarrolla la acción, con lo
que la atmósfera del escenario, en su aspecto acústico, adquiere un valor específico muy elevado, oyéndose
sonidos reflejados. sonido directo<sonido reflejado

Procedimientos para la obtención de planos sonoros


-Procedimientos directos: juega con la distancia entre el micrófono y la fuente sonora. Cuando se habla muy
cerca del micrófono la energía del sonido directo es mucho mayor que la correspondiente a los sonidos
reflejados con lo que éstos quedan sin ningún valor eliminados, porque para la regulación de niveles prima el
sonido de más intensidad. A medida que se aleja el micrófono, pierde intensidad el sonido directo, pudiendo
llegar a no tener ningún valor frente a los sonidos reflejados.
-Procedimientos a posteriori: partiendo de un sonido válido, en los procesos finales se pueden introducir
algunas correcciones que lo equilibren. Los medios para reformar el sonido consisten en aumentar la
reverberación aparente, con el empleo de los filtros adecuados para resaltar aquellas frecuencias que lo
precisan, o en la utilización de procedimientos de reverberación artificial, con cámaras o sistemas-electrónicos
y mecánicos.
-------------------------------------------------------------------------------------------------------------------------------------------
Capítulo IX: Planificación del sonido
Preparación
La producción cinematográfica, tanto en el cine convencional como en el programa filmado para televisión,
parte de un elemento único: el guión. Todos los planteamientos, tanto económicos, artísticos, como técnicos,
se inician con la lectura del guión, ya que la película es la narración, en imágenes; de la historia contada por
el guión.
El guión cinematográfico describe situaciones de un forma absolutamente funcional: enumera los elementos
que contiene el decorado, alguno con indicación de su posición relativa (está al fondo, en el centro de la
habitación, etc.) e insinúa los estados de ánimo o pensamiento de los personajes.
37
Una vez que ha sido comprendida la historia y se ha decidido el lenguaje cinematográfico a emplear, el
director concreta el lenguaje en imágenes, para lo que previamente ha elegido los escenarios o decorados.
Generalmente, el responsable del sonido de la película no participa en esta etapa anterior al rodaje. Como
mucho, en producciones en las que previamente se da gran importancia al sonido, es invitado a reconocer
determinado escenario en función de que pueda presentar dificultades acústicas muy importantes. Aunque un
buen trabajo de sonido, al igual que en las otras especialidades que concurren en la producción necesita una
planificación y preparación de la grabación. El técnico de sonido debe leer el guión las veces que sea
necesario para entrar en el espíritu de su contenido y así poder contribuir a la creación del ambiente
adecuado para transmitir al espectador todas las circunstancias que dan, a la obra, su carácter particular.

Planificación
La planificación del sonido empieza, como se ha apuntado, con la lectura del guión que, entre muchos otros,
contiene los datos necesarios para determinar el papel y, especialmente, el carácter que tiene cada una de
las voces que aparecen en el texto. Si en la acción intervienen instrumentos musicales también es preciso
conocer el papel que juegan.
El técnico de sonido tiene la posibilidad de predeterminar el ambiente sonoro de cada toma. Este dato, junto
con el conocimiento del número de actores que intervienen en cada caso, así como la acción o movimientos
que desarrollan, permite decidir, con bastante aproximación, el número de micrófonos necesarios para hacer
la toma así como sus características de respuesta y direccionalidad.

El equipo técnico
Hasta ahora, al hacer referencia a la persona que toma el sonido en una producción cinematográfica se le ha
dado el tratamiento de técnico de sonido y en alguna ocasión, de responsable de sonido. Lo habitual es que
el equipo esté compuesto por dos personas, aunque en alguna ocasión es suficiente una sola y en otras se
necesitan tres o más.
El jefe de sonido o responsable del equipo, toma todas las decisiones en lo referente al sonido tanto en su
planificación, como en la elección de equipos y materiales, como en la forma de hacer las tomas. Depende
del jefe de producción y recibe instrucciones del equipo de realización, con el que debe discutir necesidades y
planteamientos artísticos. Es responsable de los resultados de la grabación que, generalmente, realiza él
mismo. Decidè el número de micrófonos y su tipo, el emplazamiento de los mismos y los niveles de
grabación, de acuerdo con las características del sonido que debe obtener. Puede cortar el rodaje, antes de
terminar la toma, si la grabación, que está monitoreando, no cumple los requisitos de calidad que debe
alcanzar.
Está asistido por uno o más ayudantes, en función de las dificultades que plantea el rodaje. Cuando es uno
sólo, maneja el micrófono o lo lleva con una pértiga o una jirafa. El microfonista es un elemento clave para la
obtención de un sonido de calidad cuando los personajes de la acción no son estáticos y se necesita su
seguimiento, que es lo habitual.
El proceso consta de más etapas, como grabación de música y efectos, mezclas, etc. El jefe de sonido sigue
siendo el responsable de las mismas aunque, por la naturaleza de la empresa de producción, estos otros
trabajos se contraten, como servicios, a empresas especializadas.

Tipos de sonido
La banda sonora cinematográfica está compuesta por la mezcla de una serie de bandas de sonido parciales
que corresponden a palabra sincrónica, a palabra no sincrónica, efectos sincrónicos y no sincrónicos y a
músicas, también sincrónicas o no.
Los sonidos que están directamente asociados al rodaje son la palabra y la música sincrónicas con la acción,
no con el ritmo de la imagen. Estos sonidos pueden tomarse durante el rodaje, antes o después del mismo.
El sonido que se toma al mismo tiempo que la imagen se llama sonido directo o sonido de referencias, según
la aplicación que se pretenda. El sonido tomado antes que la imagen recibe el nombre de playback, y el
proceso de registro posterior al rodaje, en una etapa avanzada de la elaboración de la película, se conoce
como doblaje y, por extensión, el sonido recibe la calificación de doblado.

38
Sonido directo es el que, tomado durante el rodaje, en sincronía con imagen, va a estar presente en la banda
final de sonido. No siempre es posible por razones de tipo diverso: técnicas, ambientes ruidosos o plan de
trabajo. En este caso se toma sonido sincrónico, igual que si se tomara sonido directo, y se llama de
referencia. El sonido de referencia no forma parte de la banda sonora final pero es necesario para poder
hacer el montaje de la película y para utilizarlo en el proceso de doblaje con vistas a que los actores puedan
decir su texto en la forma más parecida posible a la seguida durante la interpretación. En películas o escenas
de carácter musical surge, para el sonido, una complicación adicional: la grabación de música. Se graba
antes del rodaje y durante el mismo se reproduce para que músicos y actores, cantantes y bailarines, mimea
su actuación de acuerdo con la. música grabada en mejores condiciones.

Pensar el sonido. Una introducción a la teoría y práctica del lenguaje sonoro cinematográfico. (Larson
Guerra, Samuel)
Capítulo 4: El lenguaje cinematográfico
Los elementos de la banda sonora cinematográfica
Sonido directo: es aquel que se registra "en directo" o "en vivo", en el momento de la filmación. También se
le conoce como sonido sincrónico o sonido de producción. Contiene lo que esté sonando en ese momento en
el set o locación correspondiente a cada plano que se filma. Puede contener --en teoría- todo lo que se
necesita de sonido en un plano: diálogos, ambiente, incidentales, efectos y hasta música. Sin embargo,
también suele contener sonidos no deseados o carecer de sonidos deseados, por lo que comúnmente la
banda sonora de una película suele tener una mezcla entre sonido directo y sonido adicional grabado antes o
después del rodaje, o bien tomado de un archivo de sonidos.

Diálogos: presencia de la palabra hablada. Tienen como función principal la de transmitir información. Dicha
información es de diferentes tipos, que coexisten en distintos grados según el caso. Podemos hablar de
información semántica: aquella que transmite ideas y datos acerca de la trama, de los personajes o de
cualquier tema que se aborde por medio de las diálogos; podemos hablar también de información prosódica:
aquella que nos transmite las emociones o las intenciones de los personajes; información fisiológica: el
timbre, la enunciación y la respiración de una voz puede delatar el estado de salud de una persona; también
podemos hablar de información espacial: aquella que nos informa acerca de las condiciones físicas del
espacio en que resuenan las voces.
Suelen ser registrados como el elemento principal del sonido directo, pero también pueden ser doblados en
estudio en su totalidad o en parte. La voz en off o fuera de cuadro, como la de un narrador, también se puede
decir que forma parte de los diálogos, aunque en sentido estricto se trate de un monólogo, mismo que suele
ser grabado en estudio posteriormente al rodaje.

Incidentales: sonidos producidos por la acción de los personajes, tales como pasos, abrazos, ruido de ropa,
manipulación de objetos como cubiertos, vajillas, puertas, cajones, etcétera. Su función principal es la de
darle realismo y corporalidad a la presencia física de los personajes. Normalmente se registran como parte
del sonido directo, pero suelen grabarse incidentales adicionales en estudio, para apoyar momentos del
sonido directo donde los incidentales no quedaron registrados de la manera deseada. Son los famosos foley
de la industria estadounidense

Efectos: sonidos producidos por la acción de todo tipo de artefactos, vehículos, criaturas reales o fantásticas
y elementos de la naturaleza. Así como aquellos sonidos no realistas usados para dar espectacularidad,
dramatismo o comicidad. Incluye también todo tipo de sonidos de diseño en diferentes categorías, tales como
espacial, caricaturas, terror, comedia, etcétera. En la categoría de efectos tenemos disparos, explosiones,
aparatos electrodomésticos o industriales, automóviles y aviones, animales y truenos, y demás sonidos
onomatopéyicos. Su función principal es la de dar realismo, dramatismo, comicidad y/o espectacularidad a los
eventos que acompañan. Algunos efectos puede ser que formen parte del sonido directo. Normalmente los
efectos no pueden ser doblados en estudio, sino que se registran in situ o se elaboran a través de
procesamientos sonoros, es decir se sintetizan o se crean.

39
Ambientes: sonidos que pertenecen al entorno y que lo definen espacialmente. Pueden ser de diseño, es
decir elaborados a partir de sonidos sintetizados procesados digitalmente. Su función principal es la de dar
realismo (o verosimilitud) y profundidad a los espacios que aparecen en pantalla. Pero pueden también ser
parte importante de la narrativa y las atmósferas emocionales de una película.
.
Música: puede dividirse en tres grandes categorías: en primer lugar incluye, potencialmente, toda la música
de todos los tiempos y culturas, al ser susceptible. de ser utilizada como parte de la banda sonora de una
película; en segundo lugar está la música original para cine, la que existe porque fue compuesta o realizada
para una película específica; y en tercer lugar está la utilización musical de elementos sonoros no
estrictamente musicales -es decir, no producidos por un instrumento musical-, lo que a veces lleva el nombre
de diseño sonoro. La función principal de la música en el cine suele ser la de proveer apoyo o sustento
emocional. Pero además puede cumplir muchas otras funciones, tales como establecer o clarificar el tono o
carácter dramático, apoyar o establecer el ritmo, agregar o modificar sentidos y significados, ser parte de la
narrativa, ser en sí misma un personaje o, también, ambientar, ser parte del fondo, de las atmósferas.

Silencio: nunca hay una ausencia total de sonidos y siempre se oye algo, por leve que sea. La ausencia
absoluta de sonidos sólo existe en el vacío sideral o en la muerte: el silencio absoluto es por lo tanto una
abstracción, no una experiencia. Cuando estamos en una situación de silencio, ocurre una de dos cosas, o
nos escuchamos a nosotros mismos o escuchamos cosas muy lejanas. Así que el silencio es una condición
relativa: sentimos silencio cuando cierto sonido cesa súbitamente y sentimos el alivio de su ausencia. O bien
percibimos el silencio cuando el nivel de ruido de nuestro entorno es tan bajo que podemos escuchar cosas
muy lejanas o bien a nosotros mismos, es decir los sonidos producidos por el funcionamiento de nuestro
cuerpo, que normalmente son enmascarados por el ruido de fondo ambiental. Entonces podríamos definir al
silencio como la ausencia relativa de sonidos. Una tercera condición del silencio tiene que ver con nuestra
conciencia activa, es decir lo que queremos o no escuchar. El silencio en el cine puede ser también
considerado una atmósfera. Las atmósferas sonoras, a diferencia de los ambientes específicos, tienen como
una de sus características la de no ser percibidas normalmente sino a un nivel muy subliminal, de manera que
sólo suelen ser percibidas cuando se cambia de una a otra.

Conceptos y reflexiones para una aproximación al estudio del lenguaje sonoro cinematográfico.
El predominio de lo visual sobre lo sonoro es como el predominio de lo masculino sobre lo femenino, es decir
una relación asimétrica e injusta sustentada en falsos supuestos de superioridad.
Así, el sonido de los medios audiovisuales, predominantemente usado de esta manera empirista-funcional
subordinada a la imagen, es una construcción ideológica que cumple su papel de coadyuvar, no a la
observación crítica de la realidad, sino al mantenimiento de una visión acrítica del sistema dominante. El
sonido cinematográfico es así un factor poderosísimo de sincronización emocional de los espectadores,
quienes son (con)movidos y manipulados emocionalmente, lo quieran o no, por las vibraciones de la banda
sonora, particularmente la música.
Me parece importante exponer y explicar algunos términos y conceptos -de la manera en que yo los entiendo
y utilizo- antes de poder profundizar en otros aspectos del lenguaje sonoro cinematográfico.

Diégesis: término griego usado desde los tiempos de Aristóteles para denominar aquello que es relatado por
un narrador, a diferencia de la mímesis, que es aquello que se muestra. Aplicado en la actualidad al cine, la
diégesis puede ser definida como todo aquello que pertenece al mundo creado o formado por un relato, sea
éste de ficción o no. Otra manera de definir la diégesis es como el contínuum espacio-temporal de la acción
dramática, es decir el lugar (los lugares) y el tiempo (los tiempos) en que ocurre la historia que nos cuenta
cada película. La diégesis también incluye el universo interno de los personajes (sueños, pensamientos,
fantasías), así como lo que ellos a su vez relatan. Cuando en una película un personaje cuenta una historia
que sucede en otro tiempo y/o espacio, tenemos una diégesis dentro de otra diégesis.

Música diegética, extradiegética y metadiegética

40
Aplicado a los elementos de la banda sonora, este concepto es utilizado sobre todo en relación a la música: la
música cinematográfica puede ser calificada de diegética o extradiegética. Así, la música diegética es aquella
que pertenece a la diégesis; es decir, es música que sucede dentro de la escena y que puede ser escuchada
por los personajes. La música extradiegética es aquella que no pertenece a la diégesis y que por lo tanto sólo
es escuchada por el espectador. También se le suele llamar también música "no diegética" o música
incidental,
Haciendo una analogía con la terminología del teatro, se puede decir que la música diegética es la música "de
la escena" y la música extradiegética es la música "para la escena".
Existe otra categoría correspondiente a la música que es escuchada por un personaje, pero que no está
sonando objetivamente en la escena. Es decir, es música que un personaje imagina, sueña, evoca o
simplemente escucha "dentro de su cabeza". En estos casos, podemos designar a la música como
metadiegética. Así, de la misma manera en que podemos decir que la música diegética es objetiva, en el
sentido de que sucede objetivamente dentro de la escena, también podemos decir que la música
metadiegética es subjetiva, puesto que sucede dentro de la subjetividad del personaje (o de los personajes)
que la escucha(n).

Sonido sincrónico vs. sonido asincrónico


Se le llamó sonido sincrónico a aquel que se registraba de manera simultánea con la filmación de una toma y
que después de haber pasado por un proceso de resincronización y regrabación, finalmente acompañaba de
manera sincrónica lo que sucedía en la pantalla.
Sin embargo, muy temprano, en Hollywood particularmente, a ese sonido sincrónico se le fueron agregando
elementos tales como incidentales (foley) y diálogos doblados posteriormente en estudio. Con el tiempo, esta
idea del sonido sincrónico se ha vuelto más una referencia a aquello que se oye (o parece que se oye)
"natural" -en el sentido de naturalmente perteneciente al universo visual y diegético de una película- e
independientemente de si estos sonidos son "naturales" (el sonido directo) o "artificiales" (grabados en
estudio).

Acusmática, síncresis, audiovisión, contrato audiovisual, vococentrismo, efecto empático-anempático


Acusmática: término usado por Pierre Schaefer en su Tratado de los objetos sonoros, trabajo que en algún
momento pensó nombrar como Tratado de los Objetos Acusmáticos. Los sonidos acusmáticos son aquellos
cuya fuente emisora no es visible. En el caso específico del sonido cinematográfico, se usa para referirse a
los mal llamados sonidos fuera de cuadro,

Síncresis: consiste en percibir, como un único y mismo fenómeno que se manifiesta a la vez visual y
acústicamente, la concomitancia de un acontecimiento sonoro y de un acontecimiento visual puntuales, en el
instante en que ambos se producen simultáneamente. Es fundamental para el cine sonoro, puesto que nos
permite asumir como "reales" dentro del universo de cada película los sonidos sincronizados con una acción,
aunque evidentemente no correspondan en algún otro nivel.

Audiovisión: es propuesto como concepto fundamental en contraposición a la forma más común que
tenemos de referirnos al hecho de asistir a la proyección de una película: hablamos de ir a ver una película o
de que vimos una película. La dimensión sonora queda excluida por el propio uso del lenguaje. Por esta
razón, deberíamos decir: "audioví" o voy a "audiover" una película.

Contrato Audiovisual: es la suspensión de la incredulidad que el espectador adopta al asistir a la proyección


de una película, al asumir que los sonidos que salen detrás de pantalla y las imágenes que en ésta se
proyectan, son reales y se corresponden.

Vococentrismo: se refiere al imperio de la palabra por encima de los demás elementos que conforman la
banda sonora de una película.

41
Efecto empático y anempátíco: estos términos complementarios se aplican particularmente a la música.
Una música empática es aquella que trabaja en el mismo sentido drámatico de la escena, es como la
objetivación emocional de la misma y por lo tanto su fortalecimiento y confirmación. La música anempática es
aquella que sigue su propia línea emocional, indiferente o contraria a la línea emocional de la escena.

Sonido corpbralizado - sonido codificado


Esquema de Murch: hay sonidos codificados (las palabras) y sonidos corporalizados (los sonidos musicales),
y que en medio están los efectos de sonido, los cuales por un lado son los más universales de los sonidos,
pero por otro lado son los que menos prestigio tienen. En el aspecto narrativo-racional las palabras mandan y
en el aspecto expresivo-emocional la música domina. Pero los efectos sonoros pueden acercarse a la música
o al lenguaje, pueden ser como palabritas o como acentos musicales. Y el lenguaje también puede acercarse
a la música (ser más emocional) y viceversa (cuando la música es más racional.)

Imagen y Sonido: dialéctica de la mutua transformación


Si la imagen y la narrativa corresponden a un estilo de representación realista, difícilmente podrá el sonido
escapar a las constricciones del realismo que dicha imagen propone. Por otro lado, en la medida que la
imagen responde a estilos y narrativas menos realistas, el sonido adquiere mayor libertad, su abanico de
posibilidades aumenta.
Randy Thom parte de la idea de que si la imagen es cien por ciento explícita, si describe todo o intenta
hacerlo, entonces los elementos sonoros tienen poco espacio para moverse, se ven obligados a ser esclavos
de la imagen. Algunos de los tratamientos o estrategias-visuales para propiciar una mayor libertad a lo
sonoro, son los siguientes:
1) Planos extremos: la utilización de planos muy cercanos o muy lejanos permite una gran libertad al sonido.
En el caso de planos muy cerrados de objetos cercanos el espacio no visible es amplísimo y por lo tanto
permite al sonido ser el que lo establezca y describa. Los planos muy abiertos de cosas lejanas, al no
mostrarnos detalles, permite que el sonido tenga su propia línea narrativa, pues no tiene un objetivo en
movimiento al que complementar.
2) Tipo de lente: los diferentes lentes que se pueden utilizar para filmar un plano son determinantes para el
impacto visual de la imagen. Los lentes extremos, los angulares y los largos, deforman la perspectiva de la
imagen, nos muestran la realidad de una forma diferente a la que nuestros ojos lo hacen. Estas distorsiones
alteran nuestra percepción de la narrativa propiciando un uso subjetivo, menos realista, del sonido.
3) El tiempo: la alteración del tiempo real, es decir la modificación del flujo normal, haciéndolo lento o
acelerándolo, produce también un alejamiento del realismo, que permite un uso más subjetivo del sonido.
4) Claroscuros: una imagen con zonas oscuras en los bordes de la pantalla, con límites indefinidos, con
personajes, objetos y espacios no siempre visibles en su totalidad, propone un atmósfera de misterio, de
cosas no vistas, que el sonido puede a su vez sugerir, potenciando dicha atmósfera, aumentando
y conduciendo el suspenso.
5) Blanco y negro: en cierto sentido, el color es un elemento distractor; así como puede colaborar fuertemente
con el establecimiento de una atmósfera determinada, también puede, por exceso de información, meter ruido
y hacer más difícil la continuidad emocional. El blanco y negro, o ciertos tratamientos monocromáticos, en
contraste con el color naturalista, son percibidos más claramente como el punto de vista de alguien, admiten
con mayor facilidad un acercamiento subjetivo al sonido.
6) Puntos de vista: ciertos puntos de vista también pueden propiciar mayor libertad sonora.
7) Indefinición visual: alteraciones de la definición de la imagen, tales como fueras de foco, que también
rompen el código realista abriendo la puerta a lo subjetivo.

Funciones narrativas y/o expresivas de los elementos sonoros


De manera general, podemos decir que todos los elementos sonoros de una película cumplen funciones tanto
narrativas como expresivas, pero también podemos decir que algunos elementos tienen mayor tendencia a
ser más narrativos (los diálogos) y otros a ser más expresivos (la música), mientras que otros suelen tener
una cierta neutralidad (ambientes e incidentales).

42
Ambientes: proveen de realismo a los espacios visuales, los dotan de profundidad. Cuando un ambiente es
sólo la correspondencia sonora realista, podemos decir que es narrativamente redundante. Sonarán distinto
según el género. También sirven para unificar imágenes por medio de un espacio común y para informar
acerca de la magnitud de un espacio o para apoyar el tono emocional de una escena. Si no son realistas,
pueden adquirir mayor valor expresivo.

Incidentales: su función primordial es la de dar realismo -corporalidad, presencia física- a los personajes.
Son redundantes en términos narrativos y relativamente neutros en términos expresivos, son simples
acompañantes de la acción. Por otro lado, en cuanto un sonido incidental suena fuera de cuadro, nos
transmite información narrativa que la imagen no nos está dando. Si no suenan de manera realista,
comienzan a adquirir mayor potencialidad expresiva, se convierten en efectos: pueden sonar más grandes,
más amenazantes o más cómicos.

Efectos: según el caso, pueden pasar de ser simplemente realistas o naturalistas. Varían según el estilo o el
género de la película. Pueden ser incidentales; ruidos incidentales de máquinas, artefactos y vehículos; de
violencia (armas de todo tipo, golpes); de géneros específicos (clichés). Tienden a clasificarse en conjuntos
contextuales o grupales, por ejemplo: guerra (en diferentes épocas), industria (en sus distintas ramas), hogar,
ciudades, parques, oficinas, granjas, bosque tropical, bosque de montaña, desierto, selva, mar, reino animal,
los elementos de la naturaleza, etcétera. Cualquier efecto puede ser procesado para hacerlo todavía más
expresivo.

Música: tiene múltiples posibilidades de uso en el cine, por lo que puede cumplir muchas funciones.
En primer lugar podemos mencionar la música extradiegética y de índole fundamentalmente emocional, es
aquella cuya función fundamental es apoyar, conducir o establecer el tono o la atmósfera emocional. Puede
también introducir elementos estilísticos de época o región cultural, jugando así una función adicional de
contextualización, colaborando en la definición o construcción de la diégesis. Puede respetar o no las
constricciones establecidas por la diégesis de cada película.
Existe un uso de la música, llamada mickey mousing, que nos permite hablar de efectos musicales como una
categoría específica. No se refiere a las caricaturas- en aquellos casos en que la música es tan
exageradamente explícita y redundante en su acompañamiento de una acción, que en vez de ayudar se
convierte en un artificio grosero.
En el caso de la utilización de música diegética, además del impacto expresivo, es decir emocional, que
pueda tener cada pieza, lo más común es que haya una clara función narrativa o por lo menos
contextualizadora, aunque también puede ser simplemente ambiental o atmosférica.
Es importante considerar las connotaciones de todo tipo que la música puede traer consigo. La música
original puede tener connotaciones de tipo cultural o de época por el uso de ciertas instrumentaciones o por
incursionar en determinados géneros. Por su parte la música de archivo o de fuente (source music) puede
tener una variedad más amplia de connotaciones, ya que puede estar asociada a eventos o a épocas o a
grupos específicos.

Diálogos: suelen ser siempre diegéticos. Su función básica es la de transmitir información racional acerca de
la propia historia y de los personajes. El carácter más o menos informativo de los diálogos varía mucho de
película a película: en primer lugar hay que tomar en cuenta el siguiente factor: lo dado y lo retenido. Es decir,
en ciertas películas los diálogos se utilizan para contar la historia y para darnos mucha información acerca de
los personajes, mientras que en otras películas pueden ser considerados como parte de la acción,
contribuyendo a la creación de personajes verosímiles y profundos, caracterizados más por sus actos que por
sus palabras. Por otro lado, más allá de lo que las propias palabras signifiquen, la manera en que están
dichas, es decir su prosodia, estará determinando el significado verdadero. Tampoco hay que olvidar la
cuestión del vocabulario y la sintaxis como factores de estilo que identifican a los personajes como
pertenecientes a un grupo social o a una región. Nunca pierden su carácter racional en tanto lenguaje, pero
pueden estar tratados sonoramente de maneras muy diferentes. La diferencia principal entre diferentes

43
diálogos es quizás su tratamiento espacial: es decir, si los diálogos respetan el plano sonoro de la imagen y si
reflejan el espacio físico donde se desarrolla la acción.

El modelo de representación institucional y la banda sonora industrial


Este lenguaje cinematográfico -conocido como modelo de representación institucional- es pues un lenguaje
hegemónico, conservador, manipulador, maniqueo, colonizador, alienante, etcétera. Y, simultáneamente, muy
eficaz, poderoso y atractivo.
En cuanto al sonido, podemos resumir algunas de estas prácticas y convenciones de manera esquemática en
los siguientes puntos:
1) Inteligibilidad: limpieza telefónica o radiofónica de los diálogos y uso estandarizado de un eterno primer
plano en las voces.
2) Vococentrismo: tendencia al abuso en la utilización de los diálogos y presencia siempre protagónica de los
mismos dentro de la jerarquía sonora.
3) Tendencia al abuso en la musicalización, tanto en términos de su formato (grandiosas orquestaciones
sinfónicas), con1o de su duración (música de principio a fin de la película) y estilo melódicas y armónicas
predominantemente basadas en el romanticismo sinfónico del siglo XIX europeo). Fundamentalmente
extradiegética.
4) Uso casi exclusivamente naturalista y funcional de sonidos incidentales y ambientales.
5) Uso de efectos sonoros casi exclusivamente con el propósito de aumentar la espectacularidad de escenas
de acción, o el suspenso en las de terror.
6) Ocultamiento del artificio implícito en la sonorización de una película (cortes sonoros inaudibles, ausencia
de silencio).
Estas normas o tendencias forman en conjunto los parámetros relativos de lo que podemos llamar una banda
sonora convencional (recordemos que el término banda sonora es usado en este libro para referirnos a todos
los elementos sonoros de una película, y no sólo a la música) o también puede responder a la denominación
de sonido del modelo de representación institucional o modo clásico del sonido.

La audiovisión. Introducción a un análisis conjunto de la imagen y del sonido (Chion, Michael)


Capítulo 2: las tres escuchas
Primera Actitud de Escucha: La Escucha Causal
Definición
Cuando hacemos hablar a alguien sobre lo que ha oído, sus respuestas suelen impresionarnos por el carácter
heteróclito de los niveles en los que se sitúan. Y es que hay -al menos- tres actitudes de escucha diferentes,
que apuntan a tres objetos diferentes: la escucha causal, la escucha semántica y la escucha reducida.
La escucha más extendida es la primera, la escucha causal, la cual consiste en servirse del sonido para
informarse, en lo posible, sobre su causa. Puede que esta causa sea visible y que el sonido pueda aportar
sobre ella una información suplementaria. La causa puede además ser invisible, pero identificada por un
saber o una suputación lógica a: propósito de ella. En realidad, esta escucha causal, que es la más extendida,
es también la más susceptible de verse influida... y engañada.

Naturaleza de la identificación causal


La escucha causal puede realizarse en diferentes niveles. Unas veces reconocemos la causa precisa e
individual: la voz de una persona determinada, el sonido de un objeto único entre todos. Pero este
reconocimiento se hace pocas veces sólo a partir del sonido, fuera de todo contexto. Al mismo tiempo, una
fuente reconocida no siempre puede nombrarse.
Segundo caso: no reconocemos un ejemplar, un individuo o un ítem único y particular, sino una categoría con
causa humana, mecánica o animal. De modo más general, en casos aún más ambiguos -y mucho más
numerosos de lo que se cree- lo que reconocemos es sólo una naturaleza de causa, la naturaleza misma del
agente. Se localizan entonces, a falta de algo mejor, ciertos indicios, en especial temporales, de los que
intentamos servirnos para deducir esta naturaleza de la causa. También podemos, sin identificar la fuente en
el sentido de la naturaleza del objeto causal, seguir con precisión la historia causal del propio sonido.

44
La fuente es un cohete de varios cuerpos
No hay que olvidar, finalmente, que un sonido no siempre tiene una fuente única, sino al menos dos, incluso
tres o aún más.
En el cine, la escucha causal es manipulada constantemente y por completo por el contrato audiovisual, y
especialmente por la utilización de la síncresis. Se trata, en efecto, la mayoría de las veces, no de las causas
iniciales de los sonidos, sino de causas en las que se nos hace creer.

Segunda actitud de escucha: la escucha semántica


Llamamos escucha semántica a la que se refiere a un código o a un lenguaje para interpretar un mensaje: el
lenguaje hablado, por supuesto, y también códigos tales como el morse.
Esta escucha, de funcionamiento extremadamente complejo, es la que constituye el objeto de la investigación
lingüística y ha sido mejor estudiada. Se ha observado, en particular, que es puramente diferencial. Un
fonema no se escucha por su valor acústico absoluto, sino a través de todo un sistema de oposiciones y de
diferencias.
De suerte que, en esta escucha, podrán pasar desapercibidas diferencias importantes de pronunciación, y por
tanto de sonido, si no son pertinentes en el seno de una lengua dada.
Desde luego, la escucha causal y la escucha semántica pueden ejercitarse paralela e independientemente en
una misma cadena sonora.

Tercera actitud de escucha: la escucha reducida


Definición
Pierre Schaeffer ha bautizado como escucha reducida a la escucha que afecta a las cualidades y las formas
propias del sonido, independientemente de su causa y de su sentido, y que toma el sonido -verbal,
instrumental, anecdótico o cualquier otro- como objeto de observación, en lugar de atravesarlo buscando otra
cosa a través de él.

Exigencias de la escucha reducida


La escucha reducida es una gestión nueva, fecunda. ..y poco natural. Altera las costumbres y las perezas
establecidas, y abre a quien la aborda un mundo de preguntas que antes ni siquiera imaginaba plantearse.
¿Puede formularse algo descriptivo sobre los sonidos, haciendo, al mismo tiempo, abstracción de su causa?
Schaeffer ha mostrado que era posible, pero sólo pudo abrir el camino, proponiendo un sistema de
clasificación en su Tratado de los objetos musicales, sistema que, ciertamente, no está terminado ni al abrigo
de toda crítica, pero que tiene el inmenso mérito de existir.

¿Para qué sirve la escucha reducida?


En efecto, si el cine y el vídeo emplean los sonidos, es, parece, sólo por su valor figurativo, semántico o
evocador, en referencia a causas reales o sugeridas o a textos, pero pocas veces en cuanto formas y
materias en sí.
No obstante, la escucha reducida tiene la inmensa ventaja de ampliar la escucha y de afinar el oído del
realizador, del investigador y del técnico, que conocerán así el material de que se sirven y lo dominarán mejor.
En efecto, el valor afectivo, emocional, físico y estético de un sonido está ligado no sólo a la explicación
causal que le superponemos, sino también a sus cualidades propias de timbre y de textura, a su vibración.

Acusmática y escucha reducida


La escucha reducida y la situación acusmática están en concordancia, pero de una manera más ambigua de
lo que dejaba entender Pierre Schaeffer, a quien debemos el haber establecido estas dos nociones.
Schaeffer, en efecto, subrayaba hasta qué punto la situación de escucha acusmática, definida más abajo
como aquella en la que se oye el sonido sin ver su causa, puede modificar nuestra escucha y atraer nuestra
atención hacia caracteres sonoros que la visión simultánea de las causas nos enmascara, al reforzar la
percepción de ciertos elementos del sonido y ocultar otros. La acusmática permite revelar realmente el sonido
en todas sus dimensiones.

45
Al mismo tiempo, Schaeffer pensaba que la situación acusmática podía alentar por sí misma la escucha
reducida, es decir, alejarse de las causas o de los efectos en beneficio de una localización consciente de las
texturas, de las masas y de las velocidades r sonoras.
Contrariamente, muchas veces, se produce lo inverso al menos en un primer momento, ya que la acusmática
empieza por exacerbar la escucha causal privándola del socorro de la vista.

Oír / escuchar y ver / mirar


La cuestión de la escucha es inseparable del hecho de oír, igual que la de la mirada está ligada al ver. Dicho
de otro modo, para describir los fenómenos perceptivos es obligatorio tener en cuenta que la percepción
consciente y activa no es sino una elección en un dado más amplio que está ahí imponiendo su presencia.
En el cine, la mirada es una exploración, espacial y temporal a la vez, en un dado a la vista delimitada que se
mantiene en el marco de una pantalla. Mientras que la escucha, por su parte, es una exploración en un
dado-al-oído e, incluso, un impuesto- a/-oído mucho menos delimitado en todos los aspectos, con unos
contornos inciertos y cambiantes.
Por razón de hechos naturales conocidos de todos (la ausencia de párpados para las orejas, la
omnidireccionalidad de la escucha, y la naturaleza física misma del sonido), pero también de una ausencia de
verdadera cultura auditiva, este impuesto-al-oído es tal que difícilmente podemos excluir, seleccionar y cortar
en él cosa alguna. En el sonido siempre hay algo que nos invade y nos sorprende, hagamos lo que hagamos.
y que, incluso y sobre todo cuando nos negamos a prestarle nuestra atención consciente, se inmiscuye en
nuestra percepción y produce en ella sus efectos. La percepción consciente puede, por supuesto, ejercitarse
esforzadamente por someter todo a su control, pero, en la situación cultural actual, el sonido tiene, más
fácilmente que la imagen, el poder de saturarla y cortocircuitarla.
Sus consecuencias, para el cine, son que el sonido es, más que la imagen, un medio insidioso de
manipulación afectiva y semántica. Sea que el sonido actúe en nosotros fisiológicamente (ruidos de
respiración); o sea que, por el valor añadido, interprete el sentido de la imagen, y nos haga ver en ella lo que
sin él no veríamos o veríamos de otro modo. Por eso, el sonido no se puede investir y localizar del mismo
modo que la imagen.
-------------------------------------------------------------------------------------------------------------------------------------------
Capítulo 4: La escena audiovisual
¿Hay una escena sonora?
La imagen es el marco
Lo que se designa con la palabra “imagen” en el cine es, de hecho, no el contenido, sino el continente. Es el
marco. Este marco, que puede incluso ser negro y permanecer vacío durante unos
segundos, o incluso durante unos minutos en algunas experiencias extremas, sigue siendo perceptible para el
espectador, presente para él, como lugar de proyección delimitado y visible, con sus cuatro lados. Un marco
que se afirma así como un continente preexistente a las imágenes, que estaba allí antes que ellas, y podrá
persistir una vez que ellas se hayan desvanecido.

No hay continente sonoro de los sonidos


¿Qué sucede, en comparación, con el sonido? Pues todo lo contrario. Para él no hay ni marco ni continente
preexistente: pueden añadirse, además, tantos sonidos como se quiera simultáneamente, unos a otros, hasta
el infinito, sin encontrar límites. Por añadidura, estos sonidos se sitúan en diferentes niveles de realidad,
mientras que el marco visual sólo se sitúa casi siempre en uno de estos niveles a la vez.
¿Qué hacen los sonidos cuando se superponen a una imagen en el cine? Se disponen en relación con el
marco visual y su contenido, es decir, se distribuyen los sonidos en relación con lo que se ve en una imagen,
distribución susceptible de replantearse en todo momento apenas cambie lo que se ve. Puede decirse así que
la forma clásica del cine se define como «un lugar de imágenes y de sonidos», siendo el sonido «lo que busca
su lugar» en él (Le Son au cinéma).
Si puede hablarse de una escena audiovisual, hay que afirmar entonces que esta escena está delimitada,
estructurada, por los bordes del marco visual. El sonido en el cine es lo contenido o lo incontenido de una
imagen: no hay lugar de los sonidos, ni escena sonora preexistente ya en la banda sonora; no hay, por tanto,
banda sonora.
46
Imantación espacial del sonido por la imagen
La pregunta espacial que nos plantea habitualmente un sonido es ¿de dónde viene? El problema de la
localización de un sonido, pues, la mayoría de las veces, se limita al de la localización de su fuente.
El cine monopista clásico nos propone una experiencia sensorial extraña, puesto que el punto del que los
sonidos llegan físicamente al espectador es muchas veces distinto del punto de la superficie de la pantalla en
el cual figuran los objetos de los que estos sonidos se supone que emanan. Y de donde, sin embargo, los oye
venir.
Observemos, sin embargo, que el sonido proveniente de un punto distinto a la pantalla no es «imantable» por
esta última salvo si conserva cierta fijeza espacial. Si se desplaza constantemente entre varios altavoces,
será más difícil que la imagen lo absorba y conservará una fuerza centrífuga que le permitirá resistir a la
atracción visual. Incluso en el caso clásico del altavoz único, existe sin embargo una dimensión sonora real a
la que el cine parlante recurrió en sus inicios, y que poco después abandonó: la de la profundidad, la del
sentimiento de lejanía de la fuente, detectado por el oído a partir de indicios tales como un espectro armónico
decolorado, el carácter difuminado y menos presente de las acometidas y de las transiciones, la mezcla entre
sonido directo -en sentido acústico- y sonido reflejado, la presencia de reverberación, etc. Dicho de otro
modo, un sonido lejano puede interpretarse, según los momentos, como situado lejos hacia la izquierda del
marco, lejos hacia la derecha, lejos hacia delante, lejos hacia atrás, etc., siempre, pues, según una
localización que sigue siendo parcialmente mental.
A esta localización mental, dictada más por lo que se ve que por lo que se oye, o más bien por la relación
entre las dos cosas, podría oponerse, pues, la espacialización absoluta del cine multipistas.

La acusmática
Definición
Acusmática significa «que se oye sin ver la causa originaria del sonido», o «que se hace oír sonidos sin la
visión de sus causas». La radio, el disco o el teléfono, que transmiten los sonidos sin mostrar su emisor, son
por definición medios acusmáticos.
¿Cómo puede llamarse lo contrario de esta escucha? Schaeffer proponía hablar de escucha directa, pero
siendo la palabra «directo» propicia a todas las ambigüedades, preferimos hablar aquí de escucha visualizada
(es decir, acompañada de la visión de la causa/fuente).

Visualidad / Acusmática
Un sonido puede realizar en una película, desde sus primeras apariciones dos clases de trayectos:
-o es de entrada visualizado y, seguidamente acusmatizado (asocia y marca de entrada el sonido a una
imagen precisa)
-o es acusmático para empezar y sólo después se visualiza (preserva durante mucho tiempo el secreto de la
causa y de su aspecto, antes de revelarla, mantieniendo una tensión, una expectación).

La cuestión del fuera de campo


Fuera de campo in y off: el tricírculo
En sentido estricto, el sonido fuera de campo en el cine es el sonido acusmático en relación con lo que se
muestra en el plano, es decir, cuya fuente es invisible en un momento dado, temporal o definitivamente. Se
llama, en cambio, sonido in a aquel cuya fuente aparece en la imagen y pertenece a la realidad que ésta
evoca. En tercer lugar, proponemos llamar específicamente sonido off a aquel cuya fuente supuesta es, no
sólo ausente de la imagen, sino también no diegética, es decir, situada en un tiempo y un lugar ajenos a la
situación directamente evocada: caso, muy extendido, de las voces de comentario o de narración, llamadas
en inglés voice-over y, por supuesto, de la música orquestal.

El sonido ambiente (sonido-territorio)


Se llamará sonido ambiente al sonido ambiental envolvente que rodea una escena y habita su espacio, sin
que provoque la pregunta obsesiva de la localización y visualización de su fuente. Puede llamárseles

47
también sonidos-territorio, porque sirven para marcar un lugar, un espacio particular, con su presencia
continua y extendida por todas partes.

El sonido interno
Se llamará sonido interno al que, situado en el presente de la acción, corresponde al interior tanto físico como
mental de un personaje: ya sean sus sonidos fisiológicos de respiración, de jadeos y de latidos del corazón
(que podrían bautizarse como sonidos internos-objetivos), o sus voces mentales, sus recuerdos, etc. (que
llamaremos internos-subjetivos o internos-mentales).

El sonido “on the air”


Llamaremos sonidos en las ondas (on the air) a los sonidos presentes en una escena, pero supuestamente
retransmitidos eléctricamente, por radio, teléfono, amplificación, etc. y que escapan, pues, a las leyes
mecánicas llamadas «naturales» de propagación del sonido.

Lugar del sonido y lugar de la fuente


Sonido y fuente del sonido son, en efecto, desde el punto de vista espacial, dos fenómenos distintos. En una
película puede ponerse el acento en uno o en el otro, y la cuestión del campo y del fuera de campo se plantea
entonces de manera diferente según lo que se designa al espectador como situado en la imagen o fuera de
ella: ¿el sonido o su causa? Dado que estas dos cuestiones, muy distintas, se confunden casi siempre en una
sola, pueden producirse malentendidos.
Mientras que la fuente de un sonido puede, en efecto, localizarse aunque no siempre lo sea, el sonido en sí
mismo es por definición un fenómeno que tiende a extenderse, como un gas, a todo el espacio disponible.
Ahora bien, en el caso de los sonidos ambientales, que son muchas veces producto de una multiplicidad de
fuentes puntuales (arroyo, cantos de pájaros), lo importante es el espacio habituado y delimitado por el
sonido, más que su origen multipuntual.
De manera general, cuanto más reverbera el sonido, más expresivo resulta con respecto al lugar que lo
contiene. Cuanto más «seco», más susceptible es de remitir a los límites materiales de su fuente,
representando la voz aquí un caso particular, puesto que, por el contrario, cuando se la priva de toda
reverberación y se oye muy de cerca, es cuando, cinematográficamente, es capaz de ser la voz que el
espectador interioriza como suya, y la que, al mismo tiempo, toma totalmente posesión del espacio diegético:
completamente interna e invadiendo a la vez todo el universo. Es lo que hemos llamado la Voz- Yo. La voz
debe este status particular, por supuesto, a que es por excelencia el sonido que nos llena proviniendo de
nosotros mismos.

La excepción de la música
Música de foso y música de pantalla
Llamaremos música de foso a la que acompaña a la imagen desde una posición off, fuera del lugar y del
tiempo de la acción. Este término hace referencia al foso de la orquesta de la ópera clásica.
Llamaremos música de pantalla, por el contrario, a la que emana de una fuente situada directa o
indirectamente en el lugar y el tiempo de la acción, aunque esta fuente sea una radio o un instrumentista
fuera de campo.

La música como plataforma espacio-temporal


Toda música que interviene en una película es susceptible de funcionar en ella como una plataforma
espacio-temporal; esto quiere decir que la posición particular de la música es la de no estar sujeta a barreras
de tiempo y de espacio, contrariamente a los demás elementos visuales y sonoros, que deben situarse en
relación con la realidad diegética y con una noción de tiempo lineal y cronológico.
La música en el cine es al mismo tiempo el pasaporte por excelencia, capaz de comunicar instantáneamente
con los demás elementos de la acción concreta y de bascular instantáneamente del foso a la pantalla, sin
replantear por ello la realidad diegética o llenarla de irrealidad, como haría una voz en off que interviniese en
la acción. Fuera de tiempo y fuera de espacio, la música comunica con todos los tiempos y todos los espacios
de la película, pero los deja existir separada y distintamente.
48
Fuera de campo relativo y fuera de campo absoluto
El fuera de campo sólo es una relación
El fuera de campo del sonido, en el caso del cine monopista es, pues, enteramente producto de la visión
combinada con la audición. No es sino una relación entre lo que se ve y lo que se oye, y no existe sino en
esta relación; exige, pues, la presencia simultánea de los dos elementos.

Efecto de bastidores y fuera de campo-cubo de basura (en el cine multipistas)


Característico de la espacialización real y de los primeros ensayos de sonido multipistas en el cine, y más
bien evitado después, el efecto de bastidores se produce cuando un sonido ligado a una causa susceptible de
aparecer en el campo o que acaba de salir de él, permanece aún en uno de los altavoces laterales situados
fuera de la pantalla.
Tenemos entonces el sentimiento, turbador en relación con nuestros hábitos de espectador, de que se nos
quiere hacer creer que la escena audiovisual se prolonga realmente por la sala, fuera del marco de la
pantalla, y que, por encima del letrero «salida de emergencia» o de la puerta de los aseos, están los
personajes o los vehículos que preparan su entrada o culminan su salida.
Es evidente que este procedimiento ha sido cada vez más evitado después, es decir, que los efectos sonoros
de entrada y de salida del campo se efectúan ahora de manera más discreta o rápida, o se ahogan
oportunamente en un relleno (numerosos ruidos de ambiente, música) que intenta no revelar el bastidor
sonoro.
El fuera de campo cubo de basura es un caso particular de fuera de campo pasivo, ligado al sonido
multipistas, y que se crea cuando los altavoces situados fuera de los límites del campo cinematográfico
recogen, por decirlo así, ruidos (de silbidos, de caída, de explosión, de estruendo) producto de una catástrofe
o de una caída que tiene lugar en el centro de la imagen. Las películas de acción utilizan a menudo este
efecto, especie de concreción sonora fugitiva, a veces muy poética y algunas veces voluntariamente burlesca,
de los objetos representados, que empiezan a existir casi físicamente para el espectador de cine en el
momento mismo en que mueren.

Fuera de campo activo y fuera de campo pasivo


Se llamará fuera de campo activo a aquel en el cual el sonido acusmático plantee preguntas (¿Qué es? ¿Qué
sucede?) que reclamen respuesta en el campo e inciten a la mirada para que vea en él. El sonido crea
entonces una atención y una curiosidad que empujan la película hacia adelante y mantienen la anticipación
del espectador. Está esencialmente constituido por sonidos cuya fuente es puntual o, dicho de otro modo,
corresponde a objetos cuya visión puede ser localizada.
Se llamará fuera de campo pasivo, por el contrario, a aquel en el cual el sonido cree un ambiente que
envuelva la imagen y la estabilice, sin suscitar en modo alguno el deseo de ir a mirar a otra parte o de
anticipar la visión de su fuente y de cambiar , pues, de punto de vista. El fuera de campo pasivo no contribuye
a la dinámica del montaje y del découpage, sino por oposición, puesto que sitúa para el oído un lugar estable.
Está esencialmente constituido por sonidos-territorio y por elementos de decorado sonoro.

La extensión
Modulación del campo y del fuera de campo visual por el sonido-Las variaciones de la extensión
El sonido es, pues, susceptible de crear un fuera de campo de extensión variable.
Se llamará extensión del ambiente sonoro al espacio concreto más o menos amplio y abierto que los sonidos
evocan y hacen sentir alrededor del campo, y también en el interior de ese campo, alrededor de los
personajes.
Podría hablarse de extensión nula cuando el universo sonoro se limita a los ruidos que oye un personaje dado
y sólo él, y no implica a ningún otro. En el otro extremo, de extensión amplia, cuando oímos todos los sonidos
que rodean al personaje.
La extensión ambiental no tiene límites reales, sino los del universo, a poco que se encuentren sonidos
capaces de dilatar hasta el máximo la percepción del espacio que envuelve la acción.

49
El punto de escucha
Punto de escucha en sentido espacial y en sentido subjetivo
Observemos ante todo que el concepto de punto de escucha ha sido calcado sobre el de punto de vista.
Ahora bien, punto de vista en el cine significa dos cosas diferentes, enlazadas a menudo pero no siempre:
-desde dónde veo, yo espectador (desde qué punto del espacio se considera la escena, desde arriba, desde
abajo, desde el techo, desde el interior de un frigorífico, etc.). Es la
acepción estrictamente espacial de la palabra;
-qué personaje, en la acción, se supone que ve lo que yo veo; es la acepción subjetiva.
En la mayor parte de los planos de una película corriente, el «punto de vista» de la cámara no es de un
personaje particular. Lo que no quiere decir que sea necesariamente arbitrario: puede obedecer a ciertas
limitaciones y leyes específicas. Por ejemplo, la cámara nunca se colocará en un lugar en el que no podría
encontrarse el ojo humano de un personaje normal; o bien no filma sino según ciertos ejes privilegiados que
excluyen los demás.
La noción de punto de vista, en este primer sentido espacial, descansa en la posibilidad de deducir con mayor
o menor precisión el lugar de un «ojo» a partir de la composición de la imagen y de su perspectiva.
Recordemos también que el punto de vista, en sentido subjetivo, puede ser un puro efecto de montaje.
Examinemos ahora, por comparación, la noción de punto de escucha. También puede tener dos sentidos que
están ligados pero no necesariamente:
-un sentido espacial: ¿desde dónde oigo? , ¿desde qué punto del espacio representado en la pantalla o en el
sonido?
-un sentido subjetivo: ¿qué personaje, en un momento dado de la acción, se supone que
oye lo que yo mismo oigo?

Dificultades de definir criterios acústicos para un punto de escucha


En el primer sentido, se observará ante todo que la naturaleza específica de lo auditivo no permite en la
mayor parte de los casos, frente a un sonido o a un conjunto de sonidos, deducir un lugar de escucha
espacialmente privilegiado, y eso en razón de la naturaleza omnidireccional del sonido (que se propaga en
diversas direcciones) y de la escucha (que capta los sonidos circularmente), así como de diferentes
fenómenos de reflexión.
Muchas veces, pues, no puede hablarse de punto de escucha en el sentido de posición precisa en el espacio,
sino más bien de lugar de escucha, o incluso área de escucha.

Es la imagen la que crea el punto de escucha (subjetivo)


En el segundo sentido, subjetivo, dado a la expresión «punto de escucha», se encuentra el mismo fenómeno
que para la vista: es, desde luego, la representación visual en primer plano de un personaje la que, al
asociarse simultáneamente a la audición de un sonido, sitúa este sonido como oído por el personaje
mostrado.
Un caso particular de punto de escucha es el definido por los sonidos de reducido alcance, supuestamente de
tal naturaleza que hay que estar muy cerca para oírlos. A partir de la audición de estos sonidos, o de indicios
sonoros de proximidad (respiración en la voz), el espectador puede ya situar el punto de escucha como el
supuesto de un personaje que él ve en escena, a condición, desde luego, de que la imagen, el découpage
visual y la interpretación del actor, le confirmen las suposiciones que pueda formular a este propósito.

Voz de frente y voz de espaldas


Es posible sin embargo atribuir una dirección a la escucha. Los agudos de un sonido, en efecto se propagan
de manera más direccional que los graves y, cuando alguien nos habla volviéndonos la espalda, percibimos
menos los armónicos agudos de su voz, la cual nos parece menos presente. Puede entonces hablarse de una
diferencia audible entre la voz de frente y la voz de espaldas.
Estas fluctuaciones de color contribuyen a dar al sonido directo su vida propia, y funcionan también como
«indicios materializadores».
Observemos no obstante que:

50
-nada impide simular o reconstruir tales variaciones en la post sincronización, por medio de desplazamientos
del actor o del micro.
-inversamente, puede disponerse el micro en el rodaje para seguir constantemente al actor «de frente», en
especial cuando se trata de un micro de corbata que transporta el actor mismo, cerca de su garganta.

Escotomización del micro-oído


Esta importante cuestión de la escotomización del papel del micro no es por otra parte válida sólo para la voz,
sino también, más generalmente, para todos los sonidos de una película; y no sólo para el cine, sino
igualmente para la mayor parte de las creaciones radiofónicas, musicales y audiovisuales, realizadas a partir
de la grabación sonora.
Mientras que la cámara, en efecto, aunque excluida del campo visual, no por ello deja de ser un personaje
activo de las películas, personaje del que es consciente el espectador, el micro; por el contrato, debe quedar
excluido, no sólo del campo visual y sonoro (ruidos de micro, etc.), sino también de la representación mental
del espectador. Queda excluido de ella, desde luego, porque en las películas, incluidas las rodadas con
sonido directo, todo se ha hecho con este objeto. Y eso siempre con esa óptica naturalista señalada más
arriba, que sigue ligada al sonido, cuando la óptica de la imagen se ha liberado de ella desde hace mucho
tiempo, a pesar de las teorías predominantes en los años 60 y 70 sobre la «transparencia», preconizada o
discutida, de la escenificación.
-------------------------------------------------------------------------------------------------------------------------------------------
Capítulo 9: Hacia una audiologovisual
Libertad del texto en el cine mudo
El cine parece haber sido inventado para permitir la representación de todo esto, puesto que nos muestra los
cuerpos en la sombra y la luz, abandona los objetos y los recupera, los aísla mediante un travelling hacia
adelante o los restituye mediante un travelling hacia atrás.
Sólo hay un elemento que no ha podido tratar de esta manera y que, aún hoy, sigue condenado a una nitidez
y a una estabilidad perpetuas: el diálogo.
Antes de esto, y a pesar de su nombre, el cine mudo no estaba privado del lenguaje. Este estaba presente en
él de una manera doble: explícitamente en el texto de los rótulos, que se alternaban con las imágenes; e
implícitamente por la manera misma en que estas imágenes eran desglosadas, filmadas y montadas, es decir,
de manera que constituyesen un discurso, en el cual un plano o un gesto era el equivalente de una palabra o
de un sintagma. Autorizaba una gran flexibilidad narrativa, puesto que podía utilizarse el texto de los rótulos
tanto para situar el marco temporal y espacial como para resumir una parte de la acción, o para emitir un
juicio sobre los personajes. Sin olvidar, por supuesto, la transcripción libre de los diálogos pronunciados: en
general, en efecto, el texto no proporcionaba sino un resumen de lo que se decía, no se presentaba como
exhaustivo. El cine hablado puso fin a todo eso, al menos en un primer momento, reconduciendo el texto de la
película a una fórmula casi única: los diálogos emitidos en presente por los personajes. Esto no se hizo, sin
embargo, en un solo instante. En un período de transición de cinco a seis años, se ensayaron diversas
fórmulas, antes de que la casi totalidad de las películas se viese reducida a ese paradigma de filme
dialogado.
Distinguimos, en efecto, tres modos de presencia de la palabra en el cine, en el caso en que la palabra es
realmente oída. Tres modos que llamamos palabra-texto, palabra-teatro y palabra-emanación.

La palabra-teatro
En la palabra-teatro —el caso más corriente— el diálogo oído tiene una función dramática, psicológica,
informativa y afectiva. Se percibe como emanado de seres humanos captados en la acción misma, sin poder
sobre el curso de las imágenes que los muestran, y se oye palabra por palabra, ofrecido a una total
inteligibilidad. A esta palabra-teatro es a la que el cine hablado recurrió en sus comienzos, y sigue recurriendo
masivamente. En caso extremo, en este tipo de figura puede hacerse oír en presente la voz «interior» de los
personajes, una voz análoga a un aparte teatral. La palabra-teatro no hace sino reinar sobre el sonido,
puesto que condiciona toda la escenificación de la película en el más amplio sentido. La fórmula,
universalmente empleada en el cine clásico, y según la cual los personajes hablan-mientras-hacen-algo, sirve
para reestructurar el filme mediante la palabra y alrededor de ella.
51
La palabra-texto
La palabra-texto, por su parte —en general la de la voz en off de los comentarios—, hereda ciertas
atribuciones de los rótulos intercalados del cine mudo, ya que, al contrario de la palabra-teatro, actúa sobre el
curso de las imágenes. La palabra proferida tiene el poder de evocar la imagen de la cosa, del momento, del
lugar, de los personajes, etc. Las imágenes y los sonidos realistas que las acompañan están a su merced.
Está estrechamente restringida en las películas que la emplean, es decir, reservada a un personaje
privilegiado de la narración, no habiéndosele concedido a éste, por añadidura, sino por tiempo limitado, en
relación con la duración de conjunto de la película. No se nos recuerda que se trata de una narración sino al
cabo de un cuarto de hora o, digamos, una hora más tarde. Y muchas veces, en el intervalo, el relato se ha
independizado totalmente de esta palabra-texto creando su duración dramática propia y mostrándonos
escenas a las que no ha podido asistir el narrador, sea este último, por su parte, protagonista significativo o
personaje secundario pero testigo, o incluso un narrador-novelista exterior pero omnividente.

Desafío entre palabra-texto e imagen


En el cine, en relación con la literatura, la palabra-texto se enriquece, pues, con un poder suplementario: no
sólo suscitar la presencia de las cosas en el espíritu, sino ante la vista y el oído. Un poder que tiene su
contrapartida, inmediatamente sensible: tan pronto como se evoca algo visual y auditivamente por el verbo
que lo hace nacer, enseguida vemos que lo que surge escapa a la abstracción: es concreto, rico en detalles y
creador de sensaciones de las que el discurso no podría dar cuenta aunque se hablase durante mil años. El
texto crea imágenes aparentemente a su capricho, pero la imagen dice inmediatamente al texto: «Tú no eres
capaz de narrarme toda».

La palabra-emanación
La palabra-emanación consiste en que la palabra no es necesariamente oída e íntegramente comprendida y,
sobre todo, no está ligada al corazón y al centro de lo que podría llamarse la acción en sentido amplio. Este
efecto de palabra-emanación puede estar ligado, por una parte, a que el diálogo de los personajes no sea
totalmente inteligible, y, por otra parte, a la manera en que el realizador dirija a los actores y utilice el
encuadre y el découpage, evitando subrayar las articulaciones del texto, el juego de las preguntas y de las
respuestas, las vacilaciones y las palabras importantes, contrariamente a la regla aplicada en casi todas las
películas. La palabra se convierte entonces en una emanación de los personajes, un aspecto de ellos
mismos, al mismo título que su silueta, significativa, pero no central para la puesta en escena y la acción.

Modos de relativización de la palabra en el cine hablado


Entendemos por claroscuro verbal una grabación de la palabra humana en la cual unas veces se entiende lo
que se dice y otras se entiende menos o nada en absoluto. La escasez de la palabra-emanación es, pues,
más bien un problema estético y cultural.
Pueden evocarse, sin embargo, algunas tentativas dispersas de relativización de la palabra, en especial en
los comienzos del cine hablado.
—Rarefacción: el modo más sencillo consistía en rarificar la presencia de la palabra. Una opción que permitía,
en principio, conservar en gran número valores visuales del cine mudo, pero implicaba dos grandes
inconvenientes. Por un lado, obligaba a crear situaciones (personajes tras un cristal, distancia, multitud, etc.)
que hiciesen aceptar más o menos artificialmente la ausencia de voces; por otro lado se experimentaba en la
película un cierto sentimiento de vacío entre las pocas secuencias habladas, o, por el contrario, estas últimas
resonaban en la película como un cuerpo extraño.
—Proliferación y adlibs: emplea, para un efecto semejante, la elección contraria: acumulándose,
superponiéndose y proliferando, las palabras se anulan por sí mismas, o más bien anulan su peso sobre la
estructura del film. Varios personajes intervienen a la vez, encadenan sus réplicas muy deprisa o dicen cosas
«sin importancia».
—Poliglotía o empleo de una lengua extranjera: algunas películas, necesariamente aisladas, han pretendido
relativizar la palabra utilizando una lengua extranjera, no entendida por la mayoría de sus espectadores, o
bien mezclando idiomas diversos, lo que viene a ser relativizar las lenguas recíprocamente.
52
—Palabra inmersa: ciertas escenas están igualmente basadas en la idea de un baño sonoro, en el cual se
hunden las conversaciones y del cual emergen seguidamente. En esta fórmula, es la situación misma la que
sirve de coartada —escena de multitudes o marco natural— para hacer alternativamente oír y luego no oír ya
las palabras, lo que contribuye a situar la palabra humana en el espacio y a relativizarla.
—Pérdida de inteligibilidad: a veces, no sólo hay un flujo y un reflujo de la palabra en la totalidad sonora, sino
incluso la clara conciencia, en el espectador, de una pérdida de inteligibilidad de la voz, que él observa de
manera localizada.
—Descentrado: hay que evocar, finalmente, un modo de relativización de la palabra mucho más sutil y que no
se refiere a la calidad acústica, sino que se sirve del conjunto de la puesta en escena. Se respeta la claridad y
la inteligibilidad del texto, pero se realiza un filme en el cual todos los elementos (movimientos e interpretación
de los actores, encuadre, découpage e incluso guión), no están centrados
en los diálogos y no ayudan, pues, a escucharlos; de modo que éstos parecen ir por un lado y el resto por el
suyo.

El relato cinematográfico (Goudreault, André & Jost, Francois)


Capítulo 6: auricularización
La focalización en Genette
Las relaciones de conocimiento entre narrador y personaje se pueden resumir en este sistema de igualdades
o desigualdades propuesto por Todorov:
— Narrador > Personaje
— Narrador — Personaje
— Narrador < Personaje
Genette propone el término focalización, que recuerda que la cuestión consiste, ante todo, en determinar cuál
es el foco del relato (focus en inglés). A partir de ahí, llegamos a la siguiente tripartición:
— relato no focalizado o de focalización cero, cuando el narrador es «omnisciente», es decir, dice más de lo
que sabe cualquiera de los personajes;
— relato en focalización interna: fija , cuando el relato da a conocer los acontecimientos como si estuviesen
filtrados por la conciencia de un solo personaje; variable, cuando el personaje focal cambia a lo largo de la
novela; múltiple, cuando el mismo acontecimiento se evoca en distintas ocasiones según el punto de vista de
diversos personajes;
— relato en focalización externa, cuando no se permite que el lector o espectador conozca los pensamientos
o los sentimientos del héroe

Cómo escuchar la música (Copland, Aaron)


Cómo escuchamos
TODOS escuchamos la música según nuestras personales condiciones. Pero para poder analizar más
claramente el proceso auditivo completo lo dividiremos, por así decirlo, en sus partes constitutivas. En cierto
sentido, todos escuchamos la música en tres
planos distintos.
1) el plano sensual: el modo más sencillo de escuchar la música es escuchar por el puro placer que produce
el sonido musical mismo. Es el plano en que oímos la música sin pensar en ella ni examinarla en modo
alguno.
2) el plano expresivo: toda música tiene poder de expresión, una más, otra menos; siempre hay algún
significado detrás de las notas, y ese significado que hay detrás de las notas constituye, después de todo, lo
que dice la pieza, aquello de que trata la pieza. "¿Quiere decir algo la música?" "Sí." Y "¿Se puede expresar
con palabras lo que dice la música?” "No." En eso está la dificultad. Expresa cada uno de esos estados de
ánimo y muchos otros, con una variedad innumerable de sutiles matices y diferencias. Puede incluso expresar
alguno para el que no exista palabra adecuada en ningún idioma.
3) el plano puramente musical: la música existe verdaderamente en cuanto las notas mismas y su
manipulación. La mayoría de los oyentes no tienen conciencia suficientemente clara de este tercer plano.

53

También podría gustarte