Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ÍNDICE https://drive.google.com/file/d/1DaXUM9GDnk6RxjFQgVrPV9UAZLUqZAwj/view
Sonido: fenómeno que involucra la propagación radial (en todas las direcciones) de ondas mecánicas
longitudinales producidas por el movimiento vibratorio de un cuerpo (una fuente) que genera perturbaciones
de partículas (fluctuaciones de presión por compresión y descompresión de un medio elástico). Estas
variaciones de presión, captadas por el oído humano, producen en el cerebro la percepción del sonido.
1
Sonidos simples y sonidos complejos
Las ondas senoidales representan un sonido puro, puesto que tienen energía para una única frecuencia. Se
las denomina normalmente tonos puros. No son fáciles de encontrar en la vida real (aunque pueden
generarse eléctricamente) puesto que la mayoría de las fuentes sonoras no vibran de una manera tan simple.
La mayoría de los sonidos reales, sin embargo, están hechos a base de combinaciones de diferentes
modelos vibratorios, de los que resulta una forma de onda más compleja. Cuanto más compleja es una forma
de onda, más tiende a parecerse al ruido, y cuando la onda presenta un modelo muy aleatorio se dice que
dicho sonido es ruido.
La característica más importante de los sonidos que tienen un tono definido es que son repetitivos: la forma
de onda, no importa lo compleja que sea, repite su patrón a intervalos regulares y siempre de la misma
manera. Todas estas ondas pueden descomponerse en series de componentes conocidos como armónicos,
mediante un proceso matemático denominado análisis de Fourier (debido al matemático Joseph Fourier).
Esta figura muestra otra manera de representar gráficamente las características del sonido; a saber, mediante
las denominadas líneas espectrales, que indican la frecuencia en el eje horizontal y la amplitud en el vertical.
El decibelio
El decibelio es una unidad de uso muy extendido en ingeniería de sonido. Al hablar de decibelios se utilizan
números más pequeños, que dan una idea más aproximada de los cambios que representan en la amplitud
de la señal. Al mismo tiempo ayuda a comprimir el margen de valores entre los niveles de sonido máximo y
mínimo que pueden encontrarse en señales reales. El rango de intensidades de sonido que puede captar el
oído humano expresado en decibelios va sólo desde 0 a 140 dB.
Los decibelios no se emplean únicamente para indicar la relación entre dos señales o el nivel de una señal
con respecto a otra de referencia, sino que pueden utilizarse también para describir la ganancia en tensión de
un dispositivo.
4
La ley cuadrática inversa inversa determina el modo en que disminuye la potencia por unidad de superficie
(intensidad) de un frente de onda, conforme éste se aleja de la fuente: la intensidad disminuye de manera
inversamente proporcional al cuadrado de la distancia a la fuente.
Absorción y reflexión
-Absorción: cuando una onda sonora alcanza una superficie, parte de su energía es absorbida y parte
reflejada. El coeficiente de absorción de una sustancia índica, en una escala de 0 a 1, cuánta energía es
absorbida. Un coeficiente de absorción de 1 significa absorción total. El coeficiente de absorción de las
sustancias varía con la frecuencia.
Los materiales porosos tienden a absorber las frecuencias altas más eficientemente que las bajas, mientras
que los absorbentes de tipo panel o membrana resonante tienden a ser mejores a frecuencias bajas. Para
eliminar dentro de un recinto energía a unas frecuencias determinadas pueden utilizarse absorbentes
artificiales altamente «sintonizados» (absorbentes Helmholtz).
-Reflexión: el tamaño de un objeto en relación con la longitud de onda de un determinado sonido es
importante para conocer si la onda sonora le rodeará o será reflejada por él. Cuando un objeto es grande en
relación a la longitud de onda se comportará como una barrera parcial para el sonido, mientras que cuando el
objeto es pequeño el sonido se curvará o se difractará alrededor de él. Puesto que las longitudes de onda en
el aire varían entre, aproximadamente, 18 metros para frecuencias bajas y algo más de 1 cm para frecuencias
altas, los objetos que podemos encontrarnos más a menudo actuarán como barreras para el sonido de altas
frecuencias, pero tendrán un efecto despreciable en las frecuencias bajas.
Ondas estacionarias
La longitud de onda del sonido varía de forma considerable en todo el margen de frecuencias audibles. En
frecuencias altas, donde la longitud de onda es pequeña, es apropiado considerar el frente de ondas como si
se tratase de luz; como un rayo. Son válidas las mismas leyes, como la de que el ángulo de incidencia de una
onda en una pared es el mismo que el ángulo de reflexión. En frecuencias bajas, donde la longitud de onda
es comparable con las dimensiones de la habitación, es necesario tener en cuenta otros factores, puesto que
5
la sala se comporta en mayor medida como un resonador complejo. En este caso puede haber ciertas
frecuencias para las cuales aparecen fuertes picos y valles de presión en diferentes puntos de la habitación.
Las ondas estacionarias, o eigentonos (llamadas también modos de la sala), pueden producirse cuando la
mitad de la longitud de onda del sonido, o un múltiplo de la misma, es igual a una de las dimensiones de la
sala (largo, ancho o alto). Para un determinado recin-
to, los modos están muy separados entre sí para bajas frecuencias, y más próximos para frecuencias altas.
Por encima de una determinada frecuencia aparecen tantos modos por octava que resulta difícil identificarlos
por separado. Como regla básica, los modos tienden a ser particularmente problemáticos solo hasta los 200
Hz. Cuanto mayor es la sala más próximos se sitúan los modos. En recintos con más de una dimensión igual
se producirán los llamados modos degenerados, en los cuales los modos entre dos dimensiones tienen lugar
a la misma frecuencia, resultando una resonancia más fuerte que en cualquier otro caso, para una
determinada frecuencia. Esto debe evitarse.
Puesto que no pueden evitarse los modos de baja frecuencia como no sea introduciendo una absorción total,
el objetivo a la hora de diseñar una sala es reducir sus efectos ajustando las proporciones entre dimensiones
para lograr una distribución uniforme. Las salas grandes son, generalmente más agradables que las
pequeñas, puesto que la distribución de modos los sitúa más próximos entre sí para bajas frecuencias, y los
modos aislados no tienden a sobresalir tanto. En cualquier caso, el tamaño de la sala debe estimarse en
función del tiempo de reverberación que se quiere conseguir. Construyendo paredes no paralelas no se evita
la formación de nodos; esta medida hace simplemente que sus frecuencias resulten más difíciles de predecir.
Ecos y reflexiones
-Primeras reflexiones: son aquellos ecos procedentes de las superficies más próximas en un recinto. Tienen
lugar a los pocos milisegundos (hasta 50 ms, aproximadamente) del sonido directo que llega al oyente
procedente de la fuente. Le dan al oyente la mayor idea sobre el tamaño de un recinto, puesto que el retardo
entre el sonido directo y las primeras reflexiones es proporcional a la distancia entre el oyente y las
principales superficies del recinto.
-Ecos: pueden considerarse como reflexiones discretas de sonido que llegan al oyente una vez
transcurridos más de 50 ms (aproximadamente) desde la llegada del sonido directo. Son percibidos como
sonidos independientes, mientras que las reflexiones dentro de los primeros 50 ms son normalmente
integradas por el cerebro junto con el sonido directo, no siendo percibidas conscientemente como ecos. Los
ecos se originan normalmente por superficies más distantes y muy reflexivas, como techos altos o paredes
traseras lejanas.
-Ecos pulsantes: ocurren a veces cuando se tienen dos de las paredes de un recinto con superficies paralelas
y reflectantes, mientras las otras dos son absorbentes. Puede suceder que el frente de onda se quede
«atrapado» en sucesivos rebotes entre ambas superficies (las reflectantes) hasta que decae, resultando un
efecto «zumbido» o «campanilleo» en los transitorios (al comienzo y al final de los sonidos impulsivos, como
el de una palmada seca, por ejemplo).
---------------------------------------------------------------------------------------------------------------------------
Capítulo 2: Percepción auditiva
El mecanismo de la audición
El oído humano modifica a menudo los sonidos que le llegan antes de que estos alcancen el cerebro. La
interpretación por parte del cerebro de lo que recibe de los oídos variará dependiendo de la información que
contienen las señales nerviosas.
Percepción de la frecuencia
El movimiento de la membrana basilar depende en gran medida de la frecuencia de la onda
sonora, existiendo un máximo de movimiento tanto más próximo a la ventana oval cuanto más alta es la
frecuencia.
Para frecuencias bajas se ha observado que la membrana se mueve como un todo, con la máxima amplitud
de movimiento en el extremo más alejado, mientras que a frecuencias más altas aparece un pico bien
definido. Por cada octava (cada vez que se dobla la frecuencia), la posición de este pico de vibración máxima
se desplaza una longitud equivalente sobre la membrana.
6
La información sobre la frecuencia se transmite al cerebro de dos formas. A bajas frecuencias las células
ciliadas del oído interno son estimuladas por las vibraciones de la membrana basilar que hace que aquellas
descarguen a lo largo del nervio auditivo pequeños impulsos eléctricos que van a parar al cerebro. Se ha
comprobado que estos impulsos son síncronos con la onda sonora, de forma que en el cerebro se tiene una
medida del período de la señal. No todas las fibras nerviosas son capaces de producir descargas una vez por
cada ciclo de la onda sonora. Así pues, para todas las frecuencias, excepto las más bajas, la información
sobre el período se envía mediante una combinación de señales de las fibras nerviosas junto con varias
descargas por cada ciclo. Se han hecho pruebas que sugieren que las fibras nerviosas vibran más
rápidamente cuanto más fuerte se las «golpea»; esto es, cuanto más fuerte es el sonido, más regularmente
pueden verse obligadas a producir descargas. Además, mientras a algunas fibras les es suficiente con un
bajo nivel de estimulación, otras únicamente se dispararán con niveles sonoros altos.
El límite superior de frecuencia para la cual las fibras nerviosas parecen dejar de descargar
sincronizadamente con la señal está alrededor de los 4 kHz. Por encima de esta frecuencia el cerebro se
basa cada vez más en la posición de máxima excitación de la membrana para
decidir sobre el tono de la señal. Existe una zona de solapamiento, claramente delimitada en el rango de
frecuencias medias -desde unos 200 Hz en adelante-, en la cual el cerebro dispone de dos tipos de
información: por un lado información sobre descarga síncrona, y por otro información sobre la «posición»; en
ambos datos basa sus medidas de frecuencia. Somos mucho menos capaces de determinar con precisión el
tono musical de una nota cuando su frecuencia está por encima del límite de descarga síncrona de 4 kHz.
La selectividad en frecuencia del oído ha sido comparada con un conjunto de filtros. Existe un efecto poco
corriente por el cual el tono que percibimos de una nota tiene relación con el nivel sonoro, de tal forma que el
tono se desplaza ligeramente cuando aquel aumenta. El efecto de los «batidos» también puede apreciarse
cuando hacemos sonar al mismo tiempo dos tonos puros de frecuencias muy parecidas, resultando en este
caso una serie de sumas y cancelaciones según estén entre sí en fase o en contrafase. La denominada
«frecuencia de batido» es la frecuencia diferencia entre las dos señales, de manera que con una señal de 200
Hz y una de 201 Hz, por ejemplo, resultaría un modulación cíclica del nivel general, o batido, de 1 Hz.
Combinando señales algo más separadas en frecuencia se produce una «aspereza» que desaparece una vez
que las frecuencias de las dos señales difieren entre sí por encima de una cierta banda crítica.
Percepción de la sonoridad
La cantidad subjetiva de «sonoridad» no está directamente relacionada con el SPL de un sonido. El oído no
es uniformemente sensible a todas las frecuencias; por ello, se ha ideado un conjunto de curvas que
representan las llamadas líneas isofónicas de audición.
Curvas isofónicas
Fletcher y Munson idearon un conjunto de curvas para representar la sensibilidad del oído a
diferentes frecuencias para todo el margen audible. El nivel sonoro se mide en fonios siendo la curva de cero
fonios aquella que pasa por 0 dB de SPL para 1 kHz; en otras palabras, esta es la curva de umbral de
audición. Cualquier punto a lo largo de la curva de 0 fonios, tendrá el mismo nivel sonoro, si bien, como puede
verse claramente, en los extremos del espectro se requiere un SPL mayor que en el centro. Las curvas de
nivel alto son más planas que las de nivel bajo, lo que indica que la respuesta en frecuencia del oído varía
con el nivel de la señal.
La unidad de nivel sonoro es el fon, o fonio, y varía según la distancia de la fuente sonora. Si un sonido está
en el umbral de audición (apenas perceptible) se dice que tiene un nivel sonoro de 0 ionios, mientras que si
está en el umbral de dolor tendrá probablemente un nivel sonoro de unos 140 ionios. El nivel de ruido
expresado en dB es muy similar al nivel sonoro en fonios.
El nivel sonoro depende en gran medida de la naturaleza del sonido. Los sonidos de banda ancha tienden a
parecer más fuertes que los de banda estrecha, puesto que cubren más bandas críticas. Por otro lado, los
sonidos distorsionados parecen, psicológicamente, ser más fuertes que los que no tienen distorsión, debido
quizás a que se asocia distorsión con sobrecarga del sistema. Si se reproducen dos señales musicales con
7
niveles idénticos, una de ellas con bastante distorsión y la otra sin ella, el oyente asegurará que la primera
suena más fuerte.
Otro factor importante es que, para una determinada frecuencia, el umbral de audición se incrementa en
presencia de otro sonido de frecuencia similar. En otras palabras, un sonido puede «enmascarar» a otro.
Para dar la sensación de que se dobla el nivel sonoro que se percibe de una señal se necesita un incremento
de 9 ó 10 dB. Aunque 6 dB equivalen a multiplicar por 2 la presión sonora real, el mecanismo de la audición
parece necesitar un incremento superior en la señal para crear la sensación de que se ha doblado el
volumen.
Percepción direccional
La percepción direccional puede dividirse, a grandes rasgos, en tres planos: el plano lateral de izquierda a
derecha, el plano delante/detrás o plano «mediano», y el plano vertical.
Al hablar de la percepción direccional se menciona a menudo la diferencia de fase entre los dos oídos,
cuando lo que realmente importa es la diferencia en los tiempos de llegada del sonido.La capacidad que
tenemos de percibir sonidos direccionales se debe casi por completo al hecho de estar implicados dos oídos,
si bien existen muchos efectos secundarios que podrían ser percibidos aunque solo interviniera un oído. La
localización lateral de la dirección se basa, principalmente, en la amplitud del sonido y en las diferencias entre
los tiempos de llegada a los dos oídos. Es evidente que la libertad de movimiento de la cabeza juega un papel
importante en la localización en este plano. La razón de esto es que, incluso un pequeño cambio en el ángulo
de rotación de la cabeza altera la diferencia en los tiempos de llegada a ambos oídos, y para una determinada
dirección de rotación, esta diferencia será más grande o más pequeña dependiendo de si la fuente está
delante o detrás de la cabeza.
Otro factor a tener en cuenta es el papel que juega la vista en esta distinción, puesto que los ojos se utilizan
mucho para determinar la localización de una fuente situada enfrente, mientras que si la fuente está detrás,
en esa tarea sólo intervienen los oídos.
Otro factor a considerar es el efecto de la oreja y la cabeza sobre los sonidos que proceden de la parte
trasera, debido a que el tamaño de la oreja es tal que actúa como una barrera parcial para sonidos de muy
alta frecuencia procedentes de la espalda; al mismo tiempo modifica el énfasis espectral de un sonido trasero,
comparado con el mismo sonido situado en el frente.
La localización en el plano vertical tiene que ver en parte con el efecto de las reflexiones en el suelo y en los
hombros, así como con los efectos de las orejas y de la función de transferencia con respecto a la cabeza.
Esto es debido a que los sonidos localizados a diferentes ángulos de elevación llegarán a los oídos por vía
directa y por reflexión, sufriendo en este último caso un ligero retardo. Para los sonidos procedentes de arriba
la diferencia entre los caminos recorridos por el sonido reflejado en los hombros y en el suelo, comparado con
la vía directa, dará como resultado cancelaciones y sumas a distintas frecuencias. Comparando estos
espectros de frecuencia con modelos que tiene almacenados, el cerebro logra localizar -en parte- los sonidos
situados en el plano vertical. La memoria de situaciones aprendidas, así como la expectación de que
determinados sonidos deben provenir de direcciones concretas, son aspectos importantes en la localización
en el plano vertical, puesto que, por regla general, no hay muchos sonidos que
surjan de «abajo».
El efecto Hass
Hasta ahora sólo hemos considerado el caso de una fuente puntual, resultando retardos de hasta 0’6 ms
entre ambos oídos (el denominado «retardo binaural»), pero también es necesario considerar situaciones en
las que existen más de una fuente.
Si dos fuentes emiten sonidos similares, la dirección que se percibe del sonido tiende hacia la fuente más
adelantada (en tiempo). Establecieron también que los retardos sobre los que se observa el fenómeno llegan
hasta los 50 ms; un retardo mucho mayor que el relacionado con el efecto binaural. Para retardos de hasta 50
ms los sonidos de las dos fuentes se «funden» en el cerebro, apareciendo como una única fuente que se
sitúa aparentemente desplazada hacia la que llega antes. Por encima de 50 ms el cerebro comienza a
percibir los sonidos de forma separada y el segundo de ellos aparece como un «eco» del primero. En el caso
de chasquidos aislados el efecto desaparece más rápidamente que con sonidos complejos, permitiendo
retardos de tan sólo unos 5 ms antes de que el efecto del «fundido» desaparezca.
La denominada «curva de efecto Haas» (ver figura 2.4) muestra que para que el sonido retardado aparente
tener la misma sonoridad que el no retardado, aquel debe superar a éste en unos cuantos decibelios en
amplitud, con el fin de compensar la ventaja que supone haber llegado el primero.
Sonidos periódicos
La mayor parte de los sonidos de la naturaleza son el resultado de múltiples perturbaciones sucesivas. Estos
sonidos se denominan periódicos, y pueden dividirse en ciclos, donde cada ciclo abarca todo lo que sucede
entre dos perturbaciones sucesivas del aire.
Análogamente, al aire libre, y lejos de toda superficie capaz de reflejar el sonido, las sucesivas perturbaciones
se propagarán como esferas concéntricas crecientes que se alejan de la fuente. En presencia de superficies
reflectoras, la onda deja de ser esférica para volverse sumamente compleja.
Muchas veces se habla de campo sonoro para referirse a la forma en que se distribuye el sonido en los
diversos puntos de un determinado espacio, por ejemplo dentro de una sala o al aire libre.
Longitud de onda
La longitud de onda, que se representa con la letra griega lambda, λ, y es la distancia entre dos
perturbaciones sucesivas en el espacio. Se mide en metros (m) o en centímetros (cm), y para los sonidos
audibles está comprendida entre los 2 cm (sonidos muy agudos) y los 17 m (sonidos muy graves).
La longitud de onda es importante en varias situaciones. En primer lugar, un objeto grande comparado con la
longitud de onda es capaz de alterar significativamente la propagación del sonido cuando se interpone entre
la fuente sonora y el oyente. Así, por ejemplo, los sonidos graves pueden “doblar la esquina” fácilmente
porque su longitud de onda es grande. Los agudos, en cambio, cuya longitud de onda puede ser de apenas
algunos cm, se ven considerablemente atenuados.
Otra situación en la cual la longitud de onda juega un papel importante es en la eficiencia de los altavoces.
Cuando la longitud de onda λ emitida por un parlante es mucho más pequeña que su propio tamaño, la
potencia emitida se reduce considerablemente. Por esa razón, los tweeters (altavoces de agudos) son mucho
más pequeños que los woofers (altavoces de graves).
Periodo
Un segundo parámetro es el periodo, T, que se define como el tiempo transcurrido entre una perturbación y la
siguiente. Se mide en segundos (s) o milisegundos (ms), es decir la milésima parte de un segundo. El periodo
de los sonidos audibles para el ser humano varía entre los 0,05 ms (sonidos muy agudos) y los 50 ms
(sonidos muy graves). Cabe destacar que son tiempos muy cortos que impiden en general que los ciclos
puedan percibirse como fenómenos separados. El cerebro tiende a integrarlos en una única sensación, la
sensación sonora.
10
Frecuencia
La frecuencia, f, se define como la cantidad de ciclos por segundo, o lo que es lo mismo, la cantidad de
perturbaciones por segundo, y se expresa en hertz (Hz), la cual es equivalente al ciclo por segundo (cps). La
frecuencia de los sonidos audibles está comprendida entre los 20 Hz (sonidos graves) y los 20.000 Hz
(sonidos agudos) ó 20 kHz (kilohertz, es decir 1.000 Hz).
Presión sonora
El sonido puede considerarse como una sucesión de ondas de compresión seguidas por ondas de
descompresión que se propagan por el aire a una velocidad de 345 m/s. Sin embargo, si nos ubicamos en
una posición fija, veremos que la presión atmosférica aumenta y disminuye periódicamente, conforme pasan
por el lugar las sucesivas perturbaciones. La unidad adoptada internacionalmente para la presión es el
Pascal, abreviada Pa. La presión atmosférica es del orden de 100.000 Pa. Los aumentos y las disminuciones
de presión debidas a las ondas sonoras son realmente muy pequeños comparados con este valor de presión
atmosférica. Los sonidos más intensos que se perciben como tales implican un aumento de unos 20 Pa. Para
distinguir este incremento de la presión atmosférica en ausencia de sonido, se lo denomina presión sonora,
abreviada p. La presión sonora es lo que se debe agregar a la presión atmosférica en reposo para obtener
el valor real de presión atmosférica.
Las presiones sonoras audibles varían entre 0,00002 Pa y 20 Pa. El valor más pequeño, también expresado
como 20 μPa, se denomina umbral auditivo.
Amplitud
El oscilograma nos permite interpretar fácilmente un parámetro del sonido vinculado a la fuerza o intensidad
del mismo: la amplitud. La amplitud se define como el máximo valor que alcanza una oscilación en un ciclo.
La amplitud se denomina también valor de pico o valor pico.
Envolvente
La amplitud de un sonido no es necesariamente constante, sino que puede variar en el tiempo. Se define la
envolvente de un sonido como la forma que se obtiene uniendo las ampli-
tudes de los ciclos sucesivos.
Onda senoidal
La onda senoidal, también denominada senoide o sinusoide, corresponde a las oscilaciones más sencillas
posibles. Cualquier onda periódica puede considerarse como una superposición (suma) de ondas senoidales
de distintas frecuencias, todas ellas múltiplos de la frecuencia de la onda (propiedad conocida como Teorema
de Fourier). Dichas ondas se llaman armónicos. Esta superposición no se limita a ser un artificio de análisis
del sonido, sino que si se escucha atentamente es perfectamente audible en muchos casos. La onda senoidal
es la más simple precisamente porque consta de una sola frecuencia.
11
Vimos que cualquier sonido periódico puede representarse como la suma de una serie de armónicos, es decir
de sonidos senoidales cuyas frecuencias son f, 2f, 3f, 4f, 5f, etc. Cada uno de estos armónicos puede tener su
propia amplitud. La información sobre las frecuencias que contiene un determinado sonido y sus respectivas
amplitudes constituyen lo que se denomina el espectro del sonido, el cual se puede especificar en forma de
tabla, o se puede representar gráficamente mediante un espectrograma, que es un gráfico con dos ejes: el
horizontal, graduado en frecuencia, y el vertical, en amplitud.
Espectros inarmónicos
Hasta ahora hemos analizado el caso de espectros armónicos, es decir en los cuales las frecuencias
presentes eran múltiplos de cierta frecuencia, denominada frecuencia fundamental. No hay impedimento, sin
embargo, para que los “armónicos” sean de frecuencias cualesquiera, por ejemplo 100 Hz, 235 Hz y 357 Hz.
En estos casos las ondas senoidales que constituyen el sonido en cuestión se denominan sonidos parciales
en lugar de armónicos. Este tipo de sonidos no es periódico, a pesar de lo cual también pueden representarse
gráficamente en un oscilograma. Sin embargo, lógicamente, no podrá identificarse una frecuencia ni un
periodo. El espectro correspondiente a estos sonidos se denomina espectro inarmónico. Puede representarse
un espectrograma, pero las líneas espectrales no están equiespaciadas. Puede existir una variación en el
tiempo, pudiendo en este caso inclusive variar no sólo la amplitud de los sonidos parciales sino también la
frecuencia.
Espectros continuos
Existe aún otro tipo de sonidos, formados por una cantidad muy grande de parciales muy próximos entre sí,
que se denominan genéricamente ruido. Debido a la gran cantidad de parciales, y al hecho de que cada uno
es de amplitud muy pequeña, lo más conveniente es representar el espectro no mediante líneas espectrales
individuales, sino como una curva continua denominada densidad espectral.
Existen dos tipos de ruido:
-Ruido blanco: se caracteriza por tener una densidad espectral constante, es decir igual para todas las
frecuencias. Esto significa que contiene parciales de todas las frecuencias con igual amplitud. El nombre de
ruido “blanco” proviene de realizar una analogía con la luz blanca, que contiene todos los colores del espectro
con la misma intensidad.
-Ruido rosa: contiene mayor proporción de bajas frecuencias Tiene la particularidad de que en cada octava
tiene la misma energía sonora.
-------------------------------------------------------------------------------------------------------------------------------------------
Capítulo 2: psicoacústica
Introducción
La Psicoacústica se dedica a estudiar la percepción del sonido, es decir, cómo el oído y el cerebro procesan
la información que nos llega en forma de sonido.
Sensaciones psicoacústicas
Cuando escuchamos un sonido, percibimos sensaciones que pueden ser clasificadas en tres tipos: la altura,
la sonoridad y el timbre.
-Altura: es la sensación que nos permite distinguir los sonidos graves de los agudos, y, más específicamente,
diferenciar los sonidos de una escala musical. → FRECUENCIA
-Sonoridad: es la sensación por la cual distinguimos un sonido fuerte de uno débil. → AMPLITUD
-Timbre: agrupa una serie de cualidades por las cuales es posible distinguir los sonidos de los diversos
instrumentos y voces. → ESPECTRO
Altura
La relación entre frecuencia y altura es bastante directa, correspondiendo las bajas frecuencias a sonidos
graves y las altas frecuencias a sonidos agudos. En realidad, la altura como parámetro psicofísico varía un
poco, además, con la intensidad del sonido, es decir que un sonido débil y otro fuerte de la misma frecuencia
parecen tener alturas ligeramente distintas. También varía un poco con el timbre, siendo que un timbre muy
brillante parece ser más agudo que uno más opaco, aún cuando la frecuencia y la intensidad sean iguales.
12
Sonoridad
La sensación de sonoridad, es decir de fuerza, volumen o intensidad de un sonido, está, en principio,
relacionada con su amplitud. Sin embargo su relación no es tan directa. La sonoridad resulta en realidad
fuertemente dependiente no sólo de la amplitud sino también de la frecuencia. Así, a igualdad de frecuencias
podemos afirmar que un sonido de mayor amplitud es más sonoro.
Los resultados anteriores obedecen al hecho de que el oído es más sensible en las frecuencias centrales, es
decir entre 500 Hz y 5 kHz, que en las muy bajas o muy altas. Se han realizado investigaciones para
demostrar este hecho, la primera de las cuales data de 1933, y fue llevada a cabo por los investigadores
norteamericanos Fletcher y Munson, quienes obtuvieron las curvas de igual nivel de sonoridad, o curvas de
Fletcher y Munson, las cuales permiten definir el nivel de sonoridad, NS, de un tono como el nivel de presión
sonora de un tono de 1 kHz igualmente sonoro que dicho tono. Para diferenciar el nivel sonoro del nivel de
presión sonora, se lo expresa en fon. Por ejemplo, un tono de 200 Hz y 40 dB se escucha igualmente sonoro
que uno de 1000 Hz y 20 dB, de donde el primero tiene NS = 20 fon. Las curvas extremas son los límites de
la audición humana. La correspondiente a 0 fon es el umbral de audición, por debajo del cual una vibración
del aire no es perceptible. Conviene aclarar que el umbral de audición depende realmente de la persona y del
estado de su oído. La curva de 0 fon es el umbral para personas de buena audición. Una pérdida de 10 a 20
dB respecto a este umbral se considera normal. Por encima de los 25 dB de pérdida, comienzan las
dificultades para la comprensión oral. La curva de 120 fon corresponde al umbral de dolor. De allí para arriba,
en lugar de sonido como tal comienza a percibirse un dolor intenso, además de empezar de inmediato el daño
irreversible del oído interno.
Timbre
El timbre de un sonido es una cualidad compleja, que depende de varias características físicas. Hay dos
enfoques para el análisis del timbre. El primero estudia los sonidos aislados, y se propone identificar todos los
elementos que los distinguen de otros sonidos. Aquí intervienen dos elementos: el espectro y las envolventes.
Hay una envolvente primaria, que es la que determina la forma en que varía en el tiempo la amplitud general,
y una serie de envolventes secundarias, que corresponden a las variaciones temporales relativas de los
armónicos o de los parciales (según que el espectro sea armónico o inarmónico respectivamente). La
envolvente primaria está fuertemente relacionada con la forma en que se produce el sonido, y caracteriza a
familias completas de instrumentos. Las envolventes secundarias dependen de la manera en que se
amortiguan las diferentes frecuencias del espectro. Las envolventes mencionadas varían con la altura del
sonido, es decir con su frecuencia, y también pueden variar con la intensidad, es decir con la amplitud del
sonido.
El segundo enfoque, clasifica los sonidos según la fuente (por ejemplo un instrumento), y asocia una cualidad
tímbrica con cada fuente.
Formantes
El segundo enfoque de análisis del timbre, en cambio, busca las características comunes a todos los sonidos
de un instrumento o de una voz, y las que los distinguen de los sonidos de otros instrumentos o voces. El
elemento fundamental de este análisis es la existencia de resonancias en los componentes accesorios al
mecanismo propiamente dicho de producción del sonido, resonancias que filtran el sonido, favoreciendo
determinadas frecuencias más que otras.
Las frecuencias de las resonancias se denominan formantes.Por simplicidad se ha supuesto que el sonido
original tiene un espectro compuesto por varios armónicos de igual amplitud. Luego de atravesar el filtro,
aquellos armónicos cuyas frecuencias son cercanas a los formantes F1, F2 y F3 predominan frente a las
otras. El cerebro es capaz de realizar (inconscientemente) un análisis tan elaborado de los sonidos que
percibe el oído como para detectar los formantes característicos de un instrumento o fuente sonora, y así
asociar como pertenecientes a un único timbre sonidos con espectros bastante diversos. Por esta razón, el
timbre puede reconocerse aún cuando debido a una deficiencia de un sistema de sonido el espectro se altere.
Sin embargo, los formantes, que habitualmente están en la región central del espectro, es decir entre los 200
Hz y los 4000 Hz, no son tan severamente afectados y por lo tanto “sobreviven” a la distorsión, permitiendo
13
reconocer el timbre. No obstante, conviene aclarar que la mera identidad tímbrica no es equivalente a la
fidelidad del sonido, aunque en muchos casos, como en el sistema telefónico, es suficiente con la primera
para lograr una buena inteligibilidad del mensaje.
Espacialidad
La espacialidad del sonido depende de varios factores. El primero es la distancia entre la fuente y el oído.
Esto está vinculado a la familiaridad que se tenga con una fuente sonora específica (o un tipo de fuente). A
mayor distancia, la presión sonora es menor, lo que hace que si se conoce la fuente, se pueda tener una idea
de la distancia.
El segundo factor lo constituyen las reflexiones tempranas. En el descampado, la onda sonora generada por
una fuente se aleja indefinidamente atenuándose hasta volverse inaudible. En un ambiente cerrado, en
cambio, la onda sonora se refleja en las paredes múltiples veces. Las primeras reflexiones se denominan
reflexiones tempranas, y proveen al sistema auditivo una clave temporal que se relaciona con la distancia
entre las paredes, lo cual a su vez se vincula al tamaño del ambiente. Esto crea la sensación de ambiencia.
El tercer factor que hace a la espacialidad del sonido es la reverberación. El fenómeno de la reverberación se
produce como consecuencia de las numerosas reflexiones tardías del sonido. Mientras que las primeras
reflexiones están distanciadas considerablemente, las subsiguientes comienzan a superponerse entre sí,
debido a que aparecen las reflexiones de las reflexiones, y luego las reflexiones de las reflexiones de las
reflexiones, y así sucesivamente. Esto lleva a que al cabo de unos pocos instantes se combinen miles de
reflexiones que dan origen a la reverberación.
El efecto más conocido de la reverberación es el hecho de que el sonido se prolonga aún después de
interrumpida la fuente. El tiempo de permanencia, o tiempo de reverberación, depende de las características
acústicas del ambiente, y nos da una clara sensación de espacialidad que puede y debe ser aprovechada en
audio técnica para evocar ambientes de gran realismo.
El último factor que interviene en la sensación de espacialidad es el movimiento de la fuente. Muchas fuentes
son fijas, pero otras son móviles, y la movilidad es percibida a través no solo del desplazamiento evocado por
14
la dirección de procedencia del sonido, sino por el denominado efecto Doppler, por el cual la frecuencia de
una fuente móvil parece cambiar.
Enmascaramiento
Enmascarar a un sonido significa ocultarlo o hacerlo imperceptible. El enmascaramiento es una propiedad del
oído, no del sonido. A medida que aumenta el nivel de presión sonora del tono máscara, mayor resulta el
incremento del umbral, lo cual significa que los otros tonos deberán ser cada vez más intensos para no ser
enmascarados. Por otra parte, la región enmascarada se ensancha, vale decir que la zona de influencia de la
máscara crece. En otras palabras, al aumentar el nivel del tono máscara, se produce un incremento
cuantitativo (mayor nivel) y cualitativo (más frecuencias) del umbral.
Curvas de igual volumen: indican el número de decibeles que producen la misma percepción de volumen en
las frecuencias del rango de la audición.
Calidad sonora
Timbre: cualidad que hace que suenen distinto dos instrumentos que tocan la misma nota con igual volumen
y duración. Depende tanto de la estructura fija de los armónicos (los sonidos musicales están, compuestos
por una frecuencia fundamental más sus armónicos, que son múltiplos de la fundamental) como de su
momento de ataque y el transcurso del decaimiento.
Acústica: rama arquitectónica que se interesa ante todo en la forma en que el sonido indirecto modifica la
calidad de los sonidos que escuchamos en las salas. La principal influencia en el sonido indirecto es el grado
de absorción de paredes, techos y pisos. Si se absorbe la mayor parte del sonido, hay poca reflexión y
escuchamos poco sonido indirecto; pero si se absorbe poco, percibimos mucho sonido indirecto.
Reverberación: lapso que requiere el sonido indirecto para disminuir a un milésimo de su presión original. Si
el tiempo es corto, la música suena "sorda" porque la sala absorbe casi todo el sonido. Si el tiempo es largo,
la música suena "confusa" por la superposición de sonidos.
Efecto de procedencia: la percepción de la ubicación de los sonidos depende de cuál llega primero al oído.
Análisis del ambiente auditivo: proceso por el que el sistema auditivo separa los estímulos producidos por
las fuentes en percepciones independientes.
Principios de agrupamiento auditivo: organización perceptual según reglas basadas en la forma en que se
originan los sonidos en el medio. Factores:
15
-Ubicación de la fuente: sea fija o móvil, proceden de la misma fuente
-Semejanza de timbre: si tienen el mismo timbre, proceden de la misma fuente
-Semejanza de tono: si tienen frecuencia similares, proceden de la misma fuente
-Proximidad temporal: si ocurren en una progresión rápida, proceden de la misma fuente
-Inicio y fin: si comienzan y culminan en momentos diferentes, proceden de la misma fuente
-Buena continuación: si son constantes o cambian uniformemente, proceden de la misma fuente
Localización auditiva: determinación del lugar de las fuentes sonoras. Se localizan mejor los sonidos que
están justo al frente y mal los que vienen detrás de la cabeza. Se describe con estos tres sistemas de
coordenadas:
-La coordenada horizontal (o acimutal): especifica las localizaciones que varían a izquierda y derecha del
escucha.
-La coordenada vertical (o elevación): señala las localizaciones arriba y abajo del escucha.
-La coordenada de distancia: indica qué tan lejos está la fuente del escucha.
Diferencias interaurales: desigualdad con que los sonidos llegan a los oídos izquierdo y derecho. Son claves
binaurales (involucran ambos oídos). Las dos principales son:
-Diferencia interaural de tiempo: asincronismo de los sonidos que inciden en ambos oídos. Los sonidos que
proceden de muchos sitios llegan a un oído antes que al otro.
-Diferencia interaural de intensidad: variación de la intensidad sonora que llega a. ambos oídos debido a que
la cabeza crea una barrera que produce una sombra acústica, la cual impide que los sonidos de frecuencias
elevadas lleguen al oído lejano. Las ondas de frecuencia baja (longitudes de onda larga) no son afectadas por
la cabeza, mientras que las de frecuencia elevada (longitudes de onda cortas) rebotan en la cabeza y se crea
una sombra acústica.
Ambas ofrecen información acerca del acimut (posición izquierda o derecha) de las fuentes sonoras, pero no
se prestan a dar información sobre su localización vertical.
Claves del pabellón de la oreja: ofrecen claves monoaurales para la localización de sonidos en la
coordenada vertical. Algunas frecuencias se reflejan entre los pliegues del pabellón y adquieren una pauta
distintiva de ecos.
Claves de la distancia:
-Presión sonora: las presiones bajas indican distancias mayores.
-Frecuencia: los sonidos lejanos suelen ser más ricos en frecuencias bajas y por lo tanto son más graves.
-Paralaje de movimiento: los sonidos que están cerca desplazan su ubicación más rápido que los alejados.
-Reverberación: a medida que la distancia de una fuente sonora aumenta, la cantidad de sonido reverberante
(indirecto) también se incrementa en comparación con el sonido directo.
Espacio acústico: para caracterizarlo se emplean coordenadas esféricas, cuyos parámetros son el ángulo de
azimut, el ángulo de elevación y la distancia a la fuente.
Localización de sinusoides: la sinusoide, al poseer una sola línea en su espectro, no aporta información
espacial relevante. Por ello, los datos empleados son binaurales. De ellos se destacan:
16
-La diferencia interaural de intensidad: ocurre cuando la intensidad de las señales llega a cada uno de sus
oídos de manera diferente. Esta desigualdad ocurre a causa de la sombra acústica generada por la cabeza al
interponerse entre la fuente y el oído más alejado. Los datos físicos que aporta son útiles para altas
frecuencias.
-La diferencia interaural de tiempo: ocurre como consecuencia de la diferencia en el tiempo que le lleva a la
onda alcanzar cada uno de los oídos. Los datos físicos que aporta son útiles para bajas frecuencias.
El cono de confusión y los movimientos de la cabeza: como la diferencia interaural de tiempo depende de
la diferencia de recorrido de las ondas entre ambos oídos, la línea que va de un tímpano al otro define un eje
de simetría axial alrededor del cual se encuentran lugares geométricos con el mismo itd. Se generan
ambigüedades que se resuelven moviendo la cabeza.
Batidos binaurales: se manifiestan al presentar dos señales sinusoidales de frecuencias apenas diferentes
una en cada oído. Su existencia depende de la interacción de la información de las señales que parten de
ambos oídos a niveles superiores en el procesamiento neuronal. Estos son menos emitidos que los batidos
monoaurales, oyéndose con grandes diferencias de intensidad entre los estímulos.
Efecto Hass/de procedencia: la audición se concentra en las fuentes acústicas antes que en las reflexiones
provocadas por los objetos del entorno. Como resultado de la investigación, surgieron reglas:
-Dos sonidos sucesivos se perciben como uno solo si el intervalo temporal entre ellos es lo suficientemente
corto.
-Aparece sólo para sonidos de carácter discontinuo.
Percepción de la distancia
Constancia de la sonoridad: si una fuente de intensidad constante se aleja, la intensidad que nos llega
disminuye proporcionalmente, o viceversa.
Nuestra habilidad para localizar sonidos es muy buena en el plano horizontal, algo menor en el plano vertical
(elevación) y regular para la distancia. La localización espacial es el resultado del procesamiento combinado
de datos. Es esta riqueza de información, muchas veces redundante y reforzada por datos visuales, lo que
hace la localización más precisa y confiable.
Atendiendo al tipo de proyecto (ficción, documental, etc.), medio para el cual se produce (cine, TV, video,
multimedia), presupuesto, conformación de equipos de trabajo, etc. se establecen dos grandes tipos de
configuraciones para el registro de sonido y el equipo técnico necesario para la manipulación del
equipamiento y cobertura de todas la necesidades en rodaje.
1 - Configuración simple o directa: tanto el sonido como la imagen son registradas dentro del mismo soporte.
El equipo técnico necesario puede centrarse en una sola persona que hace las veces de jefe de sonido y
microfonista.
2 – Configuración Doble: la misma se establece en los siguientes casos:
a) El dispositivo de imagen no ofrece la posibilidad de registro de sonido (ej. Una cámara decine), ó
b) Se tomó la decisión de registrar el sonido de manera separada del lugar donde se almacena la imagen.
El sonido es una forma de energía que se manifiesta como perturbaciones en el aire, variaciones de presión
acústica que se encuentran dentro de un rango que conocemos como espectro audible. Consideraremos
entonces como primer elemento de nuestra CEAS el cuerpo sonoro que produce estas vibraciones. En
rodaje, nuestro foco de atención es exclusivamente el registro de sonido directo de la voz, siendo que el resto
de sonidos tienen otras etapas de desarrollo y construcción.
18
3 - Mixers. Son unidades dedicadas a la administración de las entradas y salidas de audio, con la posibilidad
de tomar decisiones sobre el nivel, el ruteo, el filtrado de todas las señales que entran y salen de estos
dispositivos.
4 – Procesadores. Dispositivos que permiten modificar alguna de las cualidades del sonido. Actualmente,
estos dispositivos no solo son físicos sino que su efecto puede ser emulado virtualmente por un software. En
líneas generales, podemos agruparlos según su comportamiento sobre algún atributo del sonido de la
siguiente:
-Procesadores de espectro (filtros, control de tonos, ecualizadores)
-Procesadores de dinámica (compresores, limitadores, compuertas, expanders...)
-Procesadores de tiempo (reverberadores, delay)
-Efectos de saturación y distorsión (distorsión, overdrive, pitch shift)
-Efectos de modulación: (flanger, chorus, trémolo, panners...)
5 – Sistemas de registro. Existen diversas soluciones para registrar el sonido en el audio para
audiovisuales que han evolucionado históricamente. La grabación se realiza sobre un disco rígido o algún
medio extraíble o intercambiable como por ejemplo tarjetas de memoria (SD o Compac Flash).
6 – Monitoreo. Puede realizarse a través de sistemas de parlantes o auriculares.
Elección de Equipos
A la hora de seleccionar equipos para nuestros rodajes debemos evaluar las ventajas y desventajas que
poseen cada uno de los dispositivos. Cuando de microfonía se trata podemos pensar en los siguientes
criterios:
Micrófonos condenser (boom) montados en una caña con sus accesorios
Ventajas:
- “Naturalidad” del sonido de la captura.
- Relación con el plano de cámara.
- Generalmente libre de ruidos de roce, golpes en el micrófono e interferencias en la transmisión.
- Relativa independencia del vestuario y los movimientos de los actores.
- Relativamente robustos, más resistentes a condiciones adversas que los corbateros.
- Mayor versatilidad frente a cambios de último momento, o aún durante la toma (especialmente en
documentales).
- Utilizados correctamente, y con los debidos accesorios, tienen gran resistencia al viento.
Desventajas:
- Mayor ruido (acústico) de fondo en situaciones comprometidas.
- Plano sonoro muy reverberante, con poco detalle y ruido de fondo, a veces inutilizable, dependiendo de las
características de la toma, el tamaño de plano de cámara, la iluminación (y las sombras), la interacción de los
actores.
- En diagramas polares muy cerrados, el sonido proveniente fuera de eje tiende a percibirse muy coloreado.
La inexperiencia o dificultades del microfonista se traduce en tomas con variaciones de “color”.
- Ruidos de manipulación de la caña y el cable.
- Necesidad de fuente de alimentación externa.
- Su tamaño hace que sea claramente visible y en determinadas situaciones dificulta la movilidad.
Desventajas:
- Debido a la ubicación de la cápsula y su gran sensibilidad, es propenso a golpes y roces en
el registro.
- Gran dependencia del vestuario y los movimientos de los actores.
- El plano sonoro de la captura, puede resultar poco natural con respecto al plano de cámara.
- La calidad del registro es variable y muchas veces resulta inferior al obtenido con una caña.
- Menor rango dinámico, necesidad de atenuación anticipada desde el transmisor en situaciones de alta
presión sonora.
- Necesidad de ocultar dentro del vestuario, cápsula y transmisor de FM. Dificultad de
colocación.
- Problemas de interferencias y pérdidas de señal de transmisión.
- Fragilidad de las cápsulas y sistemas de transmisión.
- Alto consumo de pilas o baterías.
- Necesidad de un sistema por cada actor con texto en toma.
- Condicionan las modificaciones de último momento y textos de los actores.
- Generan incomodidad en los actores.
Señal no-balanceada
La señal se lleva a través de un cable de dos conductores. Los conectores de señal no-balanceada tienen dos
pines, como el RCA y el Plug 1/4" no balanceado. Los conectores de más pines también pueden llevar
señal no-balanceada (aunque no usarán todos los pines).
Los equipos domésticos usan en su totalidad conexiones no balanceadas. Las conexiones no-balanceadas
son muy simples, y se usan habitualmente y sin problemas para la conexión de muchos instrumentos
musicales. La razón por la que este tipo de conexiones no son consideradas profesionales es que son muy
susceptibles de contaminarse por interferencia electromagnética, particularmente cuando las distancias de
cable son largas.
Balanceado de la señal
El objetivo principal del balanceado de la señal, es reducir el ruido inducido que pudiera interferir en el cable.
Para esto necesitamos un cable de tres conductores, 2 señales diferentes y malla.
La conexión está formada por dos cables apantallados, donde la señal activa (+ o vivo) viaja por un hilo y por
el otro viaja una señal en contrafase o invertida (- o neutro), más la malla que rodea al vivo y al neutro
protegiéndolos de las interferencia externas.
20
Lo que hacemos es llevar la misma señal por los 2 cables, pero una de ellas se invierte de fase (en
contrafase). Si una interferencia logra atravesar la malla (que será la masa de la señal), se induce a la vez en
ambos conductores en el mismo sentido. A la entrada del receptor (dispositivo al que llevamos la señal)
realizará el desbalanceado, suma las dos señales que le llegan tras invertir una de ellas (la señal invertida de
fase se vuelve a invertir). Al sumar las 2 señales en fase, se consigue eliminar totalmente las interferencias
(puesto que las interferencias estaban en fase) y se obtendrá el doble de la amplitud en el receptor. Debido a
esto, los cables balanceados pueden soportar tendidos mucho más largos, usándose frecuentemente en el
cableado para micrófonos, interconexión entre consolas, procesadores de señal, amplificadores, etc.
Conexionado
Cables
Naturalmente, la señal de audio es electricidad, y como electricidad necesita un conductor metálico para
transportarse. Se les llama conductores, porque están hechos con materiales metálicos que permiten el paso
de la corriente a través de ellos. En lo que concierne al audio, los cables nos darán la conexión entre
diferentes elementos de la CEA. En audio profesional es importante trabajar con cables de gran calidad, es
decir que sean capaces de transportar la señal sin provocar pérdidas de potencia, frecuencias ni introducir
distorsión. Deben soportar la manipulación, torsión y plegado, sin enroscarse ni quebrarse internamente, y por
último, tener una vida útil lo más extensa posible. Otro factor importante en el armado del sistema del
conexionado es la calidad de la
soldadura de los conectores y del estaño utilizado.
Tipos de cables
Dentro del mercado existen muchos tipos de cables, pero para el audio profesional solo sirven los llamados
cables blindados que se componen de 2 o 3 conductores separados entre sí mediante un plástico que
funciona como aislante. Su disposición permite evitar las interferencias electromagnéticas, a las que
llamaremos ruido eléctrico.
Esta reducción es gracias al funcionamiento del cable, compuesto por una capa exterior que hace de aislante,
seguido de una malla o pantalla conductora, a lo que le seguiría otro aislante... y así́ sucesivamente.
-Cables simples
-Cable de dos conductores: para que fluya electricidad tiene que haber una diferencia de cargas entre dos
puntos. Es por este motivo que un cable para audio se compone siempre, al menos, de dos conductores. Uno
de ellos se conoce como vivo y el otro como masa o tierra. El vivo, o positivo, es el que lleva la señal. Y la
masa o tierra sirve como punto cero o negativo y tiene, además, otra función que es servir de apantallamiento
para los ruidos, no permitiendo que lleguen al vivo. Este sería un cable simple de audio que nos sirve para
llevar una señalmono. Cable simple.
-Cable paralelo bifilar: se utiliza para la conexión de potencias a parlantes en equipos de sonido, aunque son
más gruesos para impedir pérdidas de señal. Suelen ir identificados con diferentes colores, negro y rojo.
Generalmente, mediante este tipo de cable se transportan señales que previamente han sido amplificadas
mediante una etapa de potencia o un amplificador. Son señales con un valor de potencia muy alto, por lo que
el ruido electromagnético afecta de manera insignificante. Este cable está compuesto por 2 (dos) conductores
paralelos cada uno con su correspondiente material aislante.
-Cables dobles
-Cable para conexión de equipos estéreo: está formado por la unión de dos cables simples pero, en realidad,
tendremos 4 conductores, ya que cada cable simple tiene su vivo y su masa. Sirve para conexiones estéreo.
Usamos un cable para la señal del canal derecho (rojo) y el otro para el izquierdo (blanco).
Existen también cables de tres conductores: son cables que vienen en la misma funda y traen dos vivos que
comparten una sola masa o tierra. Es el que se vende normalmente cuando pedimos un cable para
micrófono. Se podría usar también para un cable estéreo, (dos líneas de información independiente)
dividiendo la masa para ambas señales, pero su principal uso será para conexiones balanceadas.
21
Conectores
Los conectores sirven para unir el cable que transporta la señal desde un transmisor a un receptor eléctrico.
9b. Asís Ferri, Paula (2018): Consideraciones generales para la grabación de sonido
directo en rodaje. Material teórico sistematizado de la Cátedra Sonido I (FA-UNC) y
SyMI (IAPCH-UNVM
Requisitos fundamentales:
- Fidelidad: hace referencia a la exactitud con la que se reproducen las señales entrantes. Viene determinada
por sus características técnicas, especialmente en lo que se refiere a respuesta en frecuencia, distorsión,
relación señal-ruido, etc.
- Prestaciones:
·Número de canales de entradas disponibles (principales y auxiliares),
·Posibilidad de mezclar cada señal de entrada con las demás en cualquier proporción (independientemente
del nivel con el que llegue al mixer) y Procesos por canal (Ecualización principalmente). El procesado habitual
de las mesas de mezclas incluye la variación del nivel sonoro de cada entrada, ecualización, efectos de
envío, efectos de inserción y panorámica.
·Salidas. Posibilidad de realizar varias mezclas diferentes con las señales de entrada, obteniendo así varias
salidas. Una vez las señales sonoras entran en la mesa estas pueden ser procesadas y tratadas de diversos
modos para dar como resultado de salida una mezcla de audio: mono, multicanal o estéreo. Todas las mixers
tienen, como mínimo, dos salidas (L-R), el resto de las salidas son auxiliares. También existe la posibilidad de
agrupar varias señales de entrada en grupos o subgrupos (buses) y mezclar esta suma con otras.
·Instrumentos de medición
22
- Una sección de entradas, con un número variable que puede ir de 4 a 128 canales de entrada (monofónicas,
en su mayoría, y estéreo en menor número),
- Una sección de salida, que varía en número de canales de salida (2 a 128). Este parámetro constituye la
primera especificación técnica de una mesa: una mesa 6/2 tiene 6 entradas y dos salidas (estéreo); una mesa
20/8 tiene 20 entradas y 8 salidas, etc.
Monitoreo
Consiste en la propalación de la señal resultante de una mezcla para su escucha.
Existen dos tipos de monitoreo:
- El monitoreo del operador que debe sonar exactamente como la mezcla principal y se proporciona de dos
formas: una salida para la sala de control por monitores, y una salida amplificada para auriculares;
- El monitoreo para intérpretes, que normalmente enfatiza algunas partes que facilitan su interpretación o
ejecución. Este último caso utiliza el envío por auxiliares pre fader.
También es posible informarse sobre lo que está sucediendo con las señales ingresantes de manera visual, a
través del empleo de tres tipos distintos de sistemas de medición:
Vúmetro: es un sistema analógico de agujas que nos informa del nivel de un canal, subgrupo o máster según
modelos, y diferencian dos zonas en el recorrido de la aguja. La zona de trabajo normal está graduada entre
-40 dB (a veces -20 dB) y 0 dB. La zona de saturación abarca de cero a 3 o 6 dB según el modelo y suele ser
de color rojo. El vúmetro nos marca la impresión subjetiva que percibe el oyente, sin marcar los numerosos
picos de nivel instantáneos que puedan producirse en la audición.
Peak Meter: es un sistema de barras luminosas que nos da los picos máximos de nivel, con la única
condición de que la duración de estos sea superior a 10 ms, por lo que a diferencia del vúmetro posee una
respuesta más rápida. Estas barras son de dos colores diferentes según estemos en la zona de trabajo o en
la saturación (habitualmente naranja y rojo), siendo su límite los 0 dB. Su margen de funcionamiento suele
estar entre -40 y 6 dB.
Indicadores de saturación o sobrecarga: Overload (OL) o Peak Led: son leds situados en algunos puntos
de la mesa que informan que en ese lugar hay una saturación (OVL; OVERLOAD o PEAK)
Salidas
Son la parte final de la mesa de mezclas. Permiten su comunicación con el resto de los elementos de estudio.
La salida básica es la que denominamos Master, que es estereofónica. Se envía al amplificador, y de éste a
los sistemas de parlantes o altavoces. En esta salida tenemos el resultado de la mezcla de todos los
subgrupos y todos los retornos de efectos en la proporción que sus faders hayan determinado.
Existen también salidas propias de los subgrupos (monofónicas) y las citadas de Estudio y Control Room.
Todas precisan un amplificador para funcionar y sus conectores habituales son RCA y Jack en los usos de
estudio y XLR en directos por la seguridad de su conexión.
Encontramos además las salidas de efectos y sus retornos (por esta vía podemos escuchar las señales que
regresan de un procesador que modificó o alteró la calidad del sonido que devuelven señal sobre el Master, y
las salidas auxiliares.
Salida de auriculares (Phones monitor): utilizado para enviar la información sonora a través de auriculares.
Micrófonos electrostáticos de condensador: consiste en un condensador, formado por una placa fija y otra
placa móvil, que es también el diafragma.
Para su funcionamiento debe recibir una polarización, o alimentación continua, que mantenga cargado el
condensador con una cierta energía electrostática.
Entonces, cuando el diafragma reciba una onda de presión se deformara, variando el volumen de aire en el
que se almacena la citada energía, obligando a que la energía eléctrica almacenada también varíe,
produciéndose una corriente que se cierra sobre la resistencia externa de carga. La caída de tensión
producida sobre esa carga externa es proporcional a la presión incidente.
25
La base del funcionamiento de este micrófono es la variación de la energía eléctrica almacenada entre las
placas, luego cuanto mayor sea esta energía, o lo que es igual, la tensión continua de polarización que la
produce, mayor será la salida de tensión (sensibilidad) del micrófono.
Su condensador es de muy baja capacidad, por lo que presenta una impedancia de salida elevada,
especialmente en baja frecuencia, lo que da lugar a fuertes pérdidas de tensión en la transmisión a través del
cable de conexión a la mesa, en cuanto este cable supere longitudes de aproximadamente un metro. Para
evitar estas pérdidas se inserta, inmediatamente detrás de la cápsula del condensador, un
preamplificador-adaptador de impedancias, que presenta al micrófono una muy alta impedanciay a la línea de
transmisión una baja impedancia, del orden de 200 ohmios.
Micrófonos dinámicos de cinta: se basa en el mismo principio que los micrófonos de bobina, excepto que
ahora el conductor que se mueve en el campo magnético del imán es una cinta metálica de muy poco
espesor.
La propia cinta es el diafragma, que al estar expuesto a la presión por ambas caras, da una directividad en
forma de 8 (bidireccional).
La cinta presenta una resistencia eléctrica de menos de 1 ohmio, por ello, suelen incluir un
transformador-elevador en su salida que aumenta dicha resistencia hasta los 200 ohmios típicos. Dicho
transformador también aumenta la tensión de salida, a pesar de ello son los micrófonos de menor sensibilidad
y sin embargo,/Jos más fáciles de saturar, no siendo recomendable usarlos con instrumentos sonoros.
26
Su respuesta en frecuencia es irregular y pobre en agudos, mientras que refuerzan los graves-medios, por lo
que suelen dar tonalidades "cálidas" en la reproducción.
La cinta que constituye el diafragma está corrugada con el fin de presentar muy poca rigidez a las ondas de
presión; su masa es relativamente alta, lo que hace al micrófono sensible a la vibración y al movimiento,
pudiendo oscilar a su frecuencia de resonancia (sobre los 40 Hz) sólo con desplazar al micrófono
rápidamente (jirafa). Físicamente son grandes, robustos y pesados.
-Micrófono de gradiente (bidireccional o en 8): el diafragma expuesto por su cara anterior a la onda de
presión incidente, y por su cara posterior a la misma onda, pero después de haberle obligado a recorrer un
camino acústico.
Por recorrer este camino, la onda que llega a la cara posterior tiene una presión y fase diferente de la onda
incidente, de forma que sobre el diafragma existe una diferencia o gradiente de presión, que lo hace moverse.
Este gradiente depende del ángulo 0, que forma el eje del micrófono con la dirección de llegada del frente de
ondas.
Responde con salida máxima si la onda de presión incide sobre él según el eje, ya sea frontal o
posteriormente; sin embargo, el micrófono da salida nula cuando la onda incide lateralmente (909), puesto
que entonces el recorrido de la onda a las dos caras del diafragma es el mismo, y por tanto no existe
diferencia de presiones que lo mueva.
Debido a esta relación entre tensión de salida y velocidad, los micrófonos que utilizan el efecto gradiente
presentan el "efecto proximidad", que dificulta su uso con tomas a poca distancia de las fuentes.
-Micrófono combinado de presión y gradiente (unidireccional o cardioide): son los que más se usan, por
sus características unidireccionales. Igual que en los anteriores, el diafragma se mueve por el gradiente de
presión que aparece entre sus caras. Así, la cara anterior recibe la onda directamente, mientras la cara
posterior recibe la onda con un desfase controlado, debido a que el camino recorrido por esta onda es
diferente según su dirección de incidencia.
-Micrófono con paraboloide concentrador del haz: si en el foco de un paraboloide se sitúa un micrófono
unidireccional, resulta que para los rayos de un frente plano, que incida según el eje del paraboloide, el
camino desde el frente hasta el micrófono es el mismo para cualquier rayo de ese frente.
Si el frente plano no incide según el eje, los caminos hasta el foco serán diferentes, y en lugar de refuerzo se
obtendrá interferencia destructiva de la onda.
De esta forma se consigue reducir el ángulo de captación a un haz muy estrecho, según el eje de la parábola,
por lo menos en alta frecuencia.
En baja frecuencia la longitud de onda del sonido es grande, comparada con las dimensiones de la parábola,
y por tanto, el desfase de los frentes laterales en el foco no es lo suficientemente grande para que se
produzca la interferencia destructiva. El sistema tenderá a hacerse omnidireccional.
27
-Micrófono de interferencia o de cañón: consigue su alta directividad por el método de interferencia
destructiva de las fuentes de onda laterales. En este caso la diferencia de caminos, que da el desfase, se
produce en un largo tubo de interferencia situado frente al diafragma de una cápsula cardioide. Las ranuras
del tubo obligan a que lleguen al micrófono rayos muy desfasados, cuando la incidencia es lateral, y rayos en
fase cuando el frente de onda incide según el eje.
Con estos micrófonos pueden obtenerse directividades agudas, en alta frecuencia. A baja frecuencia, igual
que sucedía con el paraboloide, su directividad se reduce a la del cardioide que lleva incorporado.
Son útiles en exteriores, o donde no exista un campo reverberante muy intenso, debido a que no rechazan el
campo reverberante todo lo que cabía esperar de su agudo diagrama de directividad.
Características de micrófonos dadas como especificaciones por el fabricante, definen las prestaciones que
se pueden obtener de ese micrófono.
-Sensibilidad: indica la eficiencia con que un micrófono transforma la presión sonora en tensión eléctrica.
La presión de referencia puede ser un Pascal o un microbar, con lo que la sensibilidad vendrá dada en
milivoltios por Pascal, o en milivoltios por microbar, respectivamente.
Los micrófonos de condensador son más sensibles que los de bobina.
-Curva de respuesta en frecuencia: los fabricantes suelen dar para cada tipo de micrófono, la curva de
variación de la sensibilidad en función de la frecuencia.
Si se busca fidelidad, interesa que la curva de respuesta sea plana y se extienda lo más posible en alta y baja
frecuencia, comportamiento que sólo es seguido por los buenos micrófonos de condensador.
En micrófonos directivos se suele dar la curva de respuesta a diferentes distancias de la fuente, con el fin de
apreciar el refuerzo producido por el efecto proximidad. En algunos tipos de micrófono
(lavalier) la respuesta en frecuencia se altera a propósito, con el fin de corregir algún problema de uso.
-Distorsión: conjunto de señales que aparecen en la salida de un sistema y que no estaban en la entrada.
Señales que van a "ensuciar” la señal útil de salida, que están originadas porque el sistema no actúa
linealmente sobre la señal de entrada.
Posibles causas:
-Distorsión interna:
— Efecto proximidad.
— Resonancia internas, que colorean la curva de respuesta.
— Respuesta lenta a los ataques, en los de bobina y cinta.
— Vibraciones parciales, en diafragmas de superficie grande.
-Distorsión externa:
— Sobrecarga o saturación ante una presión elevada.
— Poping. La onda de choque del aire expulsado al pronunciar las consonantes explosivas p, t, b, deforma el
diafragma, produciendo un ruido característico (se corrige situando ante el diafragma un filtro "antipop")
28
— Ruido de viento. Las turbulencias del viento o las inducidas al situar el micrófono como un obstáculo en el
flujo del aire, producen variaciones de velocidad, que aparecen como un molesto ruido de baja frecuencia (se
reduce con un filtro de graves, o pantallas antiviento)
— Ruido de vibración o golpeteo.
-Impedancia de salida. Líneas de micrófono: es una medida de la resistencia interior que tendrá el
micrófono en función de su frecuencia.
Audio Analógico – Audio digital (Asís Ferri, Paula & Conen, Hernán)
Las señales
El concepto de señal es aplicado en numerosas áreas. En el libro “Signals and systems”, una señal está
definida como el producto de la función de una o más variables independientes que contienen información
acerca del comportamiento de ciertos fenómenos. Pueden describir una gama muy amplia de fenómenos
físicos diversos y también pueden ser representadas de distintas maneras. En todos los casos, la información
en una señal está contenida de alguna forma dentro de un patrón de variaciones.
Lo analógico y lo digital
Una señal analógica es un tipo de señal generada por algún tipo de fenómeno electromagnético y que es
representable por una función matemática continua en la que es variable su amplitud y periodo
(representando un dato de información) en función del tiempo. En la naturaleza, el conjunto de señales que
percibimos son analógicas, así la luz, el sonido, la energía etc., son señales que tienen una variación
continua.
La señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético en que cada signo
que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que
representan valores discretos, en lugar de valores dentro de un cierto rango. Los sistemas digitales, como por
ejemplo las computadoras, usan lógica de dos estados representados por dos niveles de tensión eléctrica,
uno alto, H y otro bajo, L (de High y Low, respectivamente, en inglés). Por abstracción, dichos estados se
sustituyen por ceros y unos, lo que facilita la aplicación de la lógica y la aritmética binaria.
Filtro pasa bajos: la señal es procesada por un Filtro Pasa bajos (FPB o LPF (low pass filter)); un filtro de
corte de frecuencias que se encarga de filtrar todas aquellas que estén por encima de un umbral determinado.
El objetivo es eliminar todos los componentes del espectro del sonido que se encuentren situados por encima
de 20.000 Hz (colas espectrales). Esto se debe a que, aunque son inaudibles, su presencia hace posible la
aparición por batimiento de frecuencias inferiores a la frecuencia de corte, que se ubican dentro del rango de
frecuencias audibles. Este fenómeno es conocido como aliasing. Se evita, precisamente, por medio de la
utilización de un FPB.
Muestreo: durante el proceso de digitalización se toman muestras a intervalos regulares de tiempo (tasa de
muestreo), y con cada una se obtiene el valor del nivel de voltaje de la señal analógica (amplitud de la señal
eléctrica) en el momento de hacer la muestra. Ese valor se mantiene constante hasta la próxima muestra (con
la consiguiente pérdida de información que se produce entre muestra y muestra en comparación con la señal
continua. Esta pérdida se atenúa en los pasos subsiguientes.
30
La frecuencia (o Tasa) de muestreo (Sample rate, en inglés) es la velocidad con que se toman las muestras.
Indica la cantidad de ellas tomadas en la unidad de tiempo que es el segundo. Se mide en Hz. La teoría del
muestreo o Teorema de Nyquist-Shannon dice que para poder muestrear fielmente una señal, la frecuencia
más aguda de su espectro ha de ser menor que la mitad de la velocidad de muestreo, conocida como
frecuencia Nyquist. Ésta es la mayor frecuencia que puede muestrearse con esa velocidad sin que se genere
aliasing.
Cuando la frecuencia de muestreo es menor al doble de la frecuencia muestreada, aparece una frecuencia
nueva aliasing, cuyo valor es igual a la diferencia entre la frecuencia de muestreo y la frecuencia muestreada
(frecuencia diferencial). En el caso de los sonidos complejos, los parciales agudos que superen la frecuencia
Nyquist se convertirán en otros más graves, con lo que se origina una distorsión en el timbre.
La cuantización y codificación: Una vez muestreada la señal, debe convertirse en series de números,
mediante un proceso conocido como cuantización. El resultado del muestreo es un tren de pulsos de amplitud
variable; la cuantización consiste en asignar un valor numérico a cada uno de los pulsos, de acuerdo con su
amplitud. El proceso de cuantización implica asignar a cada muestra un valor entero de rango finito y
predeterminado (o lo que es lo mismo, asignar un valor más próximo en una escala de niveles discretos de
amplitud). No se permiten valores fraccionarios o intermedios, por lo que durante
la cuantización, cada muestra se redondea al entero más próximo.
Podemos ver claramente que hay diferencias entre la amplitud original de la muestra y su correspondiente
representación numérica; esta diferencia se conoce como error de cuantificación. Como puede apreciarse, el
valor máximo del error de cuantificación es más/menos la mitad del escalón de cuantificación, puesto que
cuando la amplitud de la muestra supera medio escalón de cuantificación por encima de uno determinado, se
le asigna el valor correspondiente al intervalo inmediato siguiente.
Cuantos mayores niveles de cuantización tenga la escala, menor será el error o el ruido de cuantización, es
decir, el grado de ajuste o corrección sobre el valor original de las muestras. Depende de la cantidad de bits
utilizados en la digitalización que dicha escala discreta posea mayor o menor cantidad de grados. El
parámetro para ajustar este valor se denomina comúnmente resolución, profundidad o ancho de la muestra
(en inglés: Resolution, Sample Size o Bit Depth) en la codificación, el valor cuantizado de cada muestra es
representado por una secuencia de bits.
Conversión DA
Una vez que se ha llevado a cabo la conversión AD, la señal digital es plausible de ser manipulada de
diversas maneras por medio de la implementación de procesadores digitales. Para escuchar cualquiera de los
procesos llevados a cabo en la computadora es necesario que se realice con la señal el camino
inverso, es decir convertirla de digital a analógico.
Para lograr esto el conversor DA recibe sucesiva y regularmente las muestras cuantificadas y codificadas y
luego las transforma en un flujo de corriente por medio de un factor de escala. Como resultado se obtiene una
onda escalonada, gracias a que cada muestra representa un valor de tensión estable que se mantiene hasta
la siguiente muestra. Por este motivo, la onda obtenida no es idéntica a la onda analógica original (que es de
fluctuaciones constantes) se introduce de esta manera un ruido de digitalización, cuyas consecuencias se
atenúan a medida que aumenta la resolución en bits en la conversión AD.
Filtrado de la señal: para atenuar los efectos del escalonamiento de la onda y evitar la aparición de
frecuencias que produzcan batidos, se vuelve a filtrar la señal con un filtro FPB. La señal analógica obtenida
no es igual a la original, aunque sus diferencias pueden llegar a no ser percibidas auditivamente si se utilizan
valores altos en los parámetros de digitalización.
Dither: recibe este nombre un tipo de ruido aleatorio que se utiliza en determinados casos para ser agregado
con un nivel muy bajo a una señal, con el propósito de enmascarar y reducir el ruido de digitalización o error
de cuantificación.
31
Ruido digital: En las señales de poca amplitud el ruido de digitalización se hace más notorio debido a que
puede ocurrir que los saltos entre grados contiguos de la escala de cuantificación (que varían según la
resolución) superen la amplitud de la onda digitalizada introduciendo distorsión. También aparece ruido de
cuantificación cuando se trucan bits,
Códec: apócope del inglés derivado de Coder/decoder (codificador/decodificador). Son archivos residentes
en el ordenador que permiten a uno o varios programas descifrar o interpretar el contenido de un determinado
tipo de archivo multimedia. Cada Códec define la manera en que está codificada una señal y cómo se
decodifica. También se denominan de este modo las técnicas de compresión y descompresión de datos. Este
proceso de codificación puede lograrse mediante programas (softwares), por medio de dispositivos físicos
(hardware) o por una combinación de ambos. El formato, en tanto, sirve para organizar los datos y para que
su estructura pueda ser identificada por los programas y por el hardware.
La compresión
Existen distintos métodos de compresión, los más utilizados se basan en modelos psicoacústicos, cuyo
principio es el de eliminar datos que el oído no es capaz de distinguir. Características perceptuales y
fenómenos como el enmascaramiento y la división del rango de frecuencias audibles en bandas críticas son
especialmente estudiados para definir algoritmos que permitan eliminar información que en forma un tanto
imprecisa se podría denominar redundante.
Uno de los pasos, como se da en uno de los métodos más difundidos de compresión: el MPEG (Motion
Picture Expert Group), consiste en analizar los componentes del espectro del sonido y dividir la señal en
sub bandas (codificación sub banda – sub band coding) el propósito es lograr codificaciones con menores
cantidades de bits a partir de una señal PCM, teniendo en cuenta que el largo de la palabra en la codificación
PCM está determinado por el rango dinámico de la componente espectral más alta. El resultado es que
disminuye el ancho de banda debido a la eliminación de frecuencias
enmascaradas. Estudios demuestran que la distorsión generada es imperceptible para el oído experimentado
en un ambiente óptimo desde los 256 kbps y en condiciones normales. Para el oído no
experimentado, o común, con 128 kbps o hasta 96 kbps basta para que se oiga "bien" (a menos que se posea
un equipo de audio de alta calidad donde se nota excesivamente la falta de graves y se destaca
el sonido de "fritura" en los agudos). Actualmente, el formato de audio comprimido más popular es
el MP3 o MPEG 1 layer 3.
- Tasa de bits constante (CBR Constant Bit Rate). Es un control utilizado en la compresión de archivos de
audio -aparece entre las opciones de algunos formatos cuando se comprime- para establecer un mismo valor
de bit rate para todo el archivo, independientemente del nivel de compresión que cada una de las partes
requiere. Permite predecir con exactitud el peso final del archivo después de la compresión.
- Tasa de bits variable (VBR Variable Bit Rate). Este control – alternativa contrapuesta a la opción anterior-
establece un tipo de bit rate que se ajusta a las características del audio del archivo a comprimir. Su peso final
depende de cada archivo.
- Flujo de bits (Bitstream): flujo de datos codificados y organizados que se obtiene a la salida del proceso de
compresión de archivos de audio, de acuerdo al algoritmo de compresión. En la codificación de audio
comprimido para el flujo de bits adopta un formato para su almacenamiento y/o transmisión que,
posteriormente el decodificador recibe y debe interpretar. El decodificador tiene que recibir este flujo de bits
para procesarlo reconstruir la señal PCM.
Codificación MP3
MPEG-1 Audio Layer 3, más conocido como MP3, es un formato de audio digital comprimido con pérdida.
Desarrollado por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y posteriormente
ampliado en la versión 2) del formato de vídeo MPEG. El mp3 estándar es de 44 KHz y un bitrate de 128 kbps
por la relación de calidad/tamaño. Su nombre es el acrónimo de MPEG-1 Audio
Layer 3 y el término no se debe confundir con el de reproductor MP3.
La codificación MP3 soporta uno o dos canales dentro de alguna de las siguientes opciones:
- Mono: un solo canal de sonido
- Dual channel (canal doble): dos canales mono independientes.
- Stereo: los canales izquierdo y derecho se codifican independientemente
- Join Stereo: aprovecha la redundancia de datos entre los canales izquierdo y derecho que muchas veces
contienen la misma información para reducir la tasa de bits. acepta dos codificaciones posibles: Mid/side
stereo e Intensity stereo:
• La técnica M/S stereo, en vez de codificar los canales izquierdo y derecho, codifica la información de un
canal central (la que es igual en los canales izquierdo y derecho) y de uno lateral, que es el que contiene la
información diferencial entre ambos canales. Es decir, lo que queda en cada canal después de restarle a cada
uno la información que va al canal central. Los canales izquierdo y derecho se reconstruyen durante la
decodificación.
• La técnica Intensity Stereo se vale de la limitación del oído humano para reconocer la ubicación espacial de
determinadas frecuencias, por lo que estas son reducidas a una señal mono.
¿Cuánto espacio ahorra el MP3?
Aplicando las técnicas de MP3, se consigue reducir el tamaño que ocupa una pieza musical en un factor entre
10 y 12 a 1, es decir, que se reduce a menos de una décima parte.
Streaming
La traducción literal del término es corriente o flujo. Se denomina de este modo al método utilizado para
transferir archivos de audio y video con el fin de que se reproduzcan mientras se descargan. Se utiliza para
aligerar la descarga y ejecución de audio y vídeo en la web.
Cualidades acústicas de un recinto: serie de propiedades relacionadas con el comportamiento del sonido
en el recinto, entre las cuales se encuentran las reflexiones tempranas, la reverberación, la existencia o no de
ecos y resonancias, la cobertura sonora de las fuentes, etc.
Ecos: fenómeno más sencillo que tiene lugar en un ambiente con superficies reflectoras. Es una única
reflexión que retorna al punto donde se encuentra la fuente unos 100 ms (o más) después de emitido el
sonido. El sonido recorre de ida y de vuelta la distancia entre la fuente sonora y la superficie. La superficie
más próxima debe estar a unos 17 m. Cuando hay dos paredes paralelas algo distantes se puede producir un
eco repetitivo.
Reflexiones tempranas: cuando la fuente sonora está rodeada por varias superficies (piso, paredes, techo)
un oyente recibirá el sonido directo, y además el sonido reflejado en cada pared. Son las primeras reflexiones
recibidas, que se encuentran bastante separadas en el tiempo. En salas no demasiado grandes, las primeras
reflexiones están bastante cerca en el tiempo unas de otras, de manera que no se llegan a percibir como eco.
Ambiencia: sensación que permite al oyente identificar auditivamente el espacio en el que se encuentra a
partir de la distribución en el tiempo de las reflexiones tempranas.
Absorción sonora: las superficies de un recinto reflejan sólo parcialmente el sonido que incide sobre ellas; el
resto es absorbido. Según el tipo de material o recubrimiento de una pared, ésta podrá absorber más o
menos el sonido, lo cual lleva a definir el coeficiente de absorción sonora, el cual tiene una gran importancia
para el comportamiento acústico de un ambiente, y por esa razón se han medido y tabulado los coeficientes
de absorción para varios materiales y objetos. En general, los materiales duros, como el hormigón o el
mármol, son muy reflectores y por lo tanto poco absorbentes del sonido, y en cambio los materiales blandos y
porosos, como la lana de vidrio, son poco reflectores y por consiguiente muy absorbentes.
Reverberancia: permanencia del sonido después de interrumpida la fuente. Sucede cuando las reflexiones
se acumulan y densifican.
En cada reflexión, una parte del sonido es absorbido por la superficie, y otra parte es reflejada. La parte
absorbida puede transformarse en minúsculas cantidades de calor, o propagarse a otra habitación vecina, o
ambas cosas. La parte reflejada mantiene su carácter de sonido, y viajará dentro del recinto hasta
encontrarse con otra superficie, en la cual nuevamente una parte se absorberá y otra parte se reflejará. El
proceso continúa así hasta que la mayor parte del sonido sea absorbido, y el sonido reflejado sea ya
demasiado débil para ser audible, es decir, se extinga.
Tiempo de reverberación: tiempo que demora el sonido en bajar 60 dB por debajo de su nivel inicial.
Depende de cuán absorbentes sean las superficies de la sala. Si las paredes son muy reflectoras se
necesitarán muchas reflexiones para que se extinga el sonido, y entonces T será grande. Si, en cambio, son
muy absorbentes, en cada reflexión se absorberá una proporción muy alta del sonido, por lo tanto en unas
pocas reflexiones el sonido será prácticamente inaudible, por lo cual T será pequeño.
Tiempo de reverberación óptimo: para cada finalidad existe un tiempo de reverberación óptimo, que
aumenta al aumentar el volumen en m3 de la sala. Se observa que la palabra requiere menores tiempos de
reverberación que la música, incluso esta se beneficia con un tiempo de reverberación considerable, ya que
éste permite empalmar mejor los sonidos y disimular pequeñas imperfecciones de ejecución, a la vez que
aporta una espacialidad que es deseable.
Campo sonoro: valor que adquiere la presión sonora en cada punto del espacio. Se divide en dos
componentes: el campo directo y el campo reverberante.
Campo directo: contiene la parte del sonido que acaba de ser emitido por la fuente, y que por lo tanto aún no
experimentó ninguna reflexión.
34
Disminuye con la distancia a la fuente, y lo hace a razón de 6 dB por cada duplicación de la distancia. Así, si a
1 m de una fuente sonora se mide un nivel de presión sonora de 80 dB, a 2 m (el doble de 1 m) tendremos 74
dB; a 4 m (el doble de 2 m) habrá 68 dB; a 8 m (el doble de 4 m) existirá un campo directo de 62 dB, y así
sucesivamente.
Campo reverberante: incluye el sonido después de la primera reflexión. Es constante en los ambientes
cerrados ya que el sonido sufre multitud de reflexiones, y todas ellas se superponen entre sí, resultando una
distribución prácticamente uniforme del sonido. Es difuso. En una habitación el sonido se ve reforzado por el
campo reverberante, que acumula la energía sonora que no es absorbida en las reflexiones. En el
descampado, al no haber reflexiones, la energía sonora simplemente se aleja continuamente de la fuente, sin
posibilidad de acumularse. Será tanto mayor cuanto más reflectoras del sonido sean las superficies de un
ambiente (cuanto menor sea el coeficiente de absorción), ya que será mayor laenergía acumulada. Como
también el tiempo de reverberación aumenta cuando aumenta la reflexión, resulta que a mayor tiempo de
reverberación, mayor campo reverberante.
Distancia crítica: limita las regiones en las que predomina uno u otro campo. Para distancias menores que la
distancia crítica, predomina el campo directo, y para distancias mayores, predomina el campo reverberante.
Por esta razón se suele denominar también campo cercano y campo lejano a las componentes directa y
reverberante.
Materiales absorbentes acústicos: materiales especialmente formulados para tener una elevada absorción
sonora. Existen varios tipos de materiales de esta clase:
- Lana de vidrio como fieltro o panel rígido. La absorción aumenta con el espesor, y también con la densidad.
Permite absorciones sonoras muy altas. Debe ser separada del ambiente acústico mediante paneles
protectores - Protectores. Planchas perforadas de Eucatex u otros materiales celulósicos que no tienen efecto
propio en la absorción, por lo tanto aplicadas directamente sobre la pared son poco efectivas.
- Plafones fonoabsorbentes basados en fibras minerales (basalto), fibra de vidrio, fibras celulósicas, corcho,
etc. con diversas terminaciones superficiales de fantasía para el cielorraso. Se instalan suspendidas por
medio de bastidores a cierta distancia de la losa. Cuanto mayor es la separación, mejor es la absorción
resultante, sobre todo si se intercala algo de lana de vidrio.
- Alfombras para los pisos, las cuales son más efectivas si se colocan sobre bajo alfombras porosos de fibra
vegetal (arpillera, yute) o poliéster, atenuando los ruidos de pisadas u objetos que caen o rozan el suelo (por
ejemplo, cables de micrófonos).
-Cortinados, empleados como parte del diseño arquitectónico con algún fin estético o funcional, variando con
el plegado, fruncido o drapeado
Aislación acústica: impide que los sonidos generados dentro del mismo trasciendan hacia el exterior y,
recíprocamente, que los ruidos externos se perciban desde su interior. Se logra interponiendo una pared o
tabique entre la fuente sonora y el receptor. La aislación es tanto mayor cuanto mayor sea la densidad
superficial del tabique y cuanto mayor sea la frecuencia del sonido.
Para catalogar la aislación sonora de diferentes materiales y estructuras se usan dos parámetros:
35
- Pérdida de transmisión (PT): parámetro expresado en dB que depende de la frecuencia e indica en cuánto
se atenúa la energía sonora incidente al atravesar el tabique. Así, una pérdida de transmisión de 40 dB
significa que la energía sonora que pasa al otro lado es 40 dB menor que la incidente.
- Clase de transmisión sonora (STC): valor promedio de la pérdida de transmisión a varias frecuencias. Es un
valor único que permite evaluar rápidamente la calidad de la aislación sonora que ofrece un tabique.
Especialmente en lo referido a la privacidad de la palabra. Así, un valor de STC inferior a 25 implica que la
voz normal se entiende perfectamente, y un valor superior a 45 implica que la voz alta casi no se percibe.
Transmisión por flancos: el sonido que se filtra a través de fisuras, intersticios o juntas mal selladas, o que
se propaga por la estructura en forma de vibraciones, o que se transmite por tuberías de ventilación o aire
acondicionado, opor los caños de distribución de energía eléctrica.
Perspectiva sonora
Está relacionada con la impresión subjetiva de distancia que puede causar un sonido, es distinta según la
forma de escucha. Cuando se oye un sonido que proviene directamente de su fuente, la audición se realiza
con un mecanismo doble, dos oídos, lo que permite obtener dos datos: la dirección de que proviene un sonido
y la distancia, aproximada, a que parece estar la fuente. Cuando se produce, en nuestro entorno auditivo, un
ruido distinto en intensidad y especie, dirigimos nuestra atención visual, con un error mínimo, al punto donde
se ha producido el ruido. Ambos datos, dirección o ángulo y distancia son los necesarios para definir la
posición de un punto, en este caso la fuente, en coordenadas polares. En audición directa, por tanto, se
conoce la situación de una fuente sonora en el espacio, propiedad que se pierde cuando el sonido es
continuo.
Cuando un sonido llega al oyente, se produce una difracción de las ondas alrededor de su cabeza con lo que
parte del sonido llega a un oído y parte al otro. Esta distribución del sonido causa, principalmente, dos
efectos: que exista una diferencia de intensidad entre los sonidos que llegan a ambos oídos y que lleguen en
tiempos distintos. Comparando las dos intensidades percibidas por los oídos, el cerebro obtiene uno de los
datos que precisa para asignar una distancia a la fuente.
Sí la escucha se hace a través de un micrófono se pierde la noción de la dirección de llegada del sonido,
aunque la impresión de desplazamiento de la fuente, cuando varía su distancia al micrófono, queda mucho
más acusada que en la audición directa. Al no ser posible la orientación, resulta que la fuente puede ocupar
muchas posiciones que den. Sin embargo, la misma sensación de distancia aparente, con lo que, en escucha
microfónica, no se puede situar la fuente en un punto, sino en una superficie a la que se puede llamar plano
sonoro.
En la audición microfónica se puede decidir la distancia aparente de la fuente y el plano sonoro o conjunto de
puntos que dan impresión de la misma distancia microfónica. En audición directa se practica la escucha
inteligente y se puede precisar el lugar que ocupa la fuente sonora.
Plano sonoro
Es el lugar geométrico de los emplazamientos del micrófono para los que se percibe, en la audición, una
misma impresión de distancia para determinada posición de la fuente. Para todos estos posibles
emplazamientos de micrófono, la distancia real entre éste y la fuente varía según las características del lugar
de la toma y las del micrófono.
36
Matemáticamente se define como aquel conjunto de emplazamientos del micrófono, en un local cerrado para
los que la relación se mantiene constante. El valor de esta relación da idea del tamaño aparente de la fuente
de sonido.
Dado que uno de los elementos a considerar es la intensidad del sonido reflejado, para grabaciones en
exteriores el concepto varía sustancialmente, ya que la impresión de distancia, en este caso, va asociada a
intensidad del sonido.
El sonido que acompaña a la imagen, debe corresponder a planos sonoros coherentes con el contenido de la
pantalla. Será un acompañamiento correcto de la imagen si la impresión de distancia que traduzca se
corresponde con la proximidad o lejanía de su fuente.
Planificación
La planificación del sonido empieza, como se ha apuntado, con la lectura del guión que, entre muchos otros,
contiene los datos necesarios para determinar el papel y, especialmente, el carácter que tiene cada una de
las voces que aparecen en el texto. Si en la acción intervienen instrumentos musicales también es preciso
conocer el papel que juegan.
El técnico de sonido tiene la posibilidad de predeterminar el ambiente sonoro de cada toma. Este dato, junto
con el conocimiento del número de actores que intervienen en cada caso, así como la acción o movimientos
que desarrollan, permite decidir, con bastante aproximación, el número de micrófonos necesarios para hacer
la toma así como sus características de respuesta y direccionalidad.
El equipo técnico
Hasta ahora, al hacer referencia a la persona que toma el sonido en una producción cinematográfica se le ha
dado el tratamiento de técnico de sonido y en alguna ocasión, de responsable de sonido. Lo habitual es que
el equipo esté compuesto por dos personas, aunque en alguna ocasión es suficiente una sola y en otras se
necesitan tres o más.
El jefe de sonido o responsable del equipo, toma todas las decisiones en lo referente al sonido tanto en su
planificación, como en la elección de equipos y materiales, como en la forma de hacer las tomas. Depende
del jefe de producción y recibe instrucciones del equipo de realización, con el que debe discutir necesidades y
planteamientos artísticos. Es responsable de los resultados de la grabación que, generalmente, realiza él
mismo. Decidè el número de micrófonos y su tipo, el emplazamiento de los mismos y los niveles de
grabación, de acuerdo con las características del sonido que debe obtener. Puede cortar el rodaje, antes de
terminar la toma, si la grabación, que está monitoreando, no cumple los requisitos de calidad que debe
alcanzar.
Está asistido por uno o más ayudantes, en función de las dificultades que plantea el rodaje. Cuando es uno
sólo, maneja el micrófono o lo lleva con una pértiga o una jirafa. El microfonista es un elemento clave para la
obtención de un sonido de calidad cuando los personajes de la acción no son estáticos y se necesita su
seguimiento, que es lo habitual.
El proceso consta de más etapas, como grabación de música y efectos, mezclas, etc. El jefe de sonido sigue
siendo el responsable de las mismas aunque, por la naturaleza de la empresa de producción, estos otros
trabajos se contraten, como servicios, a empresas especializadas.
Tipos de sonido
La banda sonora cinematográfica está compuesta por la mezcla de una serie de bandas de sonido parciales
que corresponden a palabra sincrónica, a palabra no sincrónica, efectos sincrónicos y no sincrónicos y a
músicas, también sincrónicas o no.
Los sonidos que están directamente asociados al rodaje son la palabra y la música sincrónicas con la acción,
no con el ritmo de la imagen. Estos sonidos pueden tomarse durante el rodaje, antes o después del mismo.
El sonido que se toma al mismo tiempo que la imagen se llama sonido directo o sonido de referencias, según
la aplicación que se pretenda. El sonido tomado antes que la imagen recibe el nombre de playback, y el
proceso de registro posterior al rodaje, en una etapa avanzada de la elaboración de la película, se conoce
como doblaje y, por extensión, el sonido recibe la calificación de doblado.
38
Sonido directo es el que, tomado durante el rodaje, en sincronía con imagen, va a estar presente en la banda
final de sonido. No siempre es posible por razones de tipo diverso: técnicas, ambientes ruidosos o plan de
trabajo. En este caso se toma sonido sincrónico, igual que si se tomara sonido directo, y se llama de
referencia. El sonido de referencia no forma parte de la banda sonora final pero es necesario para poder
hacer el montaje de la película y para utilizarlo en el proceso de doblaje con vistas a que los actores puedan
decir su texto en la forma más parecida posible a la seguida durante la interpretación. En películas o escenas
de carácter musical surge, para el sonido, una complicación adicional: la grabación de música. Se graba
antes del rodaje y durante el mismo se reproduce para que músicos y actores, cantantes y bailarines, mimea
su actuación de acuerdo con la. música grabada en mejores condiciones.
Pensar el sonido. Una introducción a la teoría y práctica del lenguaje sonoro cinematográfico. (Larson
Guerra, Samuel)
Capítulo 4: El lenguaje cinematográfico
Los elementos de la banda sonora cinematográfica
Sonido directo: es aquel que se registra "en directo" o "en vivo", en el momento de la filmación. También se
le conoce como sonido sincrónico o sonido de producción. Contiene lo que esté sonando en ese momento en
el set o locación correspondiente a cada plano que se filma. Puede contener --en teoría- todo lo que se
necesita de sonido en un plano: diálogos, ambiente, incidentales, efectos y hasta música. Sin embargo,
también suele contener sonidos no deseados o carecer de sonidos deseados, por lo que comúnmente la
banda sonora de una película suele tener una mezcla entre sonido directo y sonido adicional grabado antes o
después del rodaje, o bien tomado de un archivo de sonidos.
Diálogos: presencia de la palabra hablada. Tienen como función principal la de transmitir información. Dicha
información es de diferentes tipos, que coexisten en distintos grados según el caso. Podemos hablar de
información semántica: aquella que transmite ideas y datos acerca de la trama, de los personajes o de
cualquier tema que se aborde por medio de las diálogos; podemos hablar también de información prosódica:
aquella que nos transmite las emociones o las intenciones de los personajes; información fisiológica: el
timbre, la enunciación y la respiración de una voz puede delatar el estado de salud de una persona; también
podemos hablar de información espacial: aquella que nos informa acerca de las condiciones físicas del
espacio en que resuenan las voces.
Suelen ser registrados como el elemento principal del sonido directo, pero también pueden ser doblados en
estudio en su totalidad o en parte. La voz en off o fuera de cuadro, como la de un narrador, también se puede
decir que forma parte de los diálogos, aunque en sentido estricto se trate de un monólogo, mismo que suele
ser grabado en estudio posteriormente al rodaje.
Incidentales: sonidos producidos por la acción de los personajes, tales como pasos, abrazos, ruido de ropa,
manipulación de objetos como cubiertos, vajillas, puertas, cajones, etcétera. Su función principal es la de
darle realismo y corporalidad a la presencia física de los personajes. Normalmente se registran como parte
del sonido directo, pero suelen grabarse incidentales adicionales en estudio, para apoyar momentos del
sonido directo donde los incidentales no quedaron registrados de la manera deseada. Son los famosos foley
de la industria estadounidense
Efectos: sonidos producidos por la acción de todo tipo de artefactos, vehículos, criaturas reales o fantásticas
y elementos de la naturaleza. Así como aquellos sonidos no realistas usados para dar espectacularidad,
dramatismo o comicidad. Incluye también todo tipo de sonidos de diseño en diferentes categorías, tales como
espacial, caricaturas, terror, comedia, etcétera. En la categoría de efectos tenemos disparos, explosiones,
aparatos electrodomésticos o industriales, automóviles y aviones, animales y truenos, y demás sonidos
onomatopéyicos. Su función principal es la de dar realismo, dramatismo, comicidad y/o espectacularidad a los
eventos que acompañan. Algunos efectos puede ser que formen parte del sonido directo. Normalmente los
efectos no pueden ser doblados en estudio, sino que se registran in situ o se elaboran a través de
procesamientos sonoros, es decir se sintetizan o se crean.
39
Ambientes: sonidos que pertenecen al entorno y que lo definen espacialmente. Pueden ser de diseño, es
decir elaborados a partir de sonidos sintetizados procesados digitalmente. Su función principal es la de dar
realismo (o verosimilitud) y profundidad a los espacios que aparecen en pantalla. Pero pueden también ser
parte importante de la narrativa y las atmósferas emocionales de una película.
.
Música: puede dividirse en tres grandes categorías: en primer lugar incluye, potencialmente, toda la música
de todos los tiempos y culturas, al ser susceptible. de ser utilizada como parte de la banda sonora de una
película; en segundo lugar está la música original para cine, la que existe porque fue compuesta o realizada
para una película específica; y en tercer lugar está la utilización musical de elementos sonoros no
estrictamente musicales -es decir, no producidos por un instrumento musical-, lo que a veces lleva el nombre
de diseño sonoro. La función principal de la música en el cine suele ser la de proveer apoyo o sustento
emocional. Pero además puede cumplir muchas otras funciones, tales como establecer o clarificar el tono o
carácter dramático, apoyar o establecer el ritmo, agregar o modificar sentidos y significados, ser parte de la
narrativa, ser en sí misma un personaje o, también, ambientar, ser parte del fondo, de las atmósferas.
Silencio: nunca hay una ausencia total de sonidos y siempre se oye algo, por leve que sea. La ausencia
absoluta de sonidos sólo existe en el vacío sideral o en la muerte: el silencio absoluto es por lo tanto una
abstracción, no una experiencia. Cuando estamos en una situación de silencio, ocurre una de dos cosas, o
nos escuchamos a nosotros mismos o escuchamos cosas muy lejanas. Así que el silencio es una condición
relativa: sentimos silencio cuando cierto sonido cesa súbitamente y sentimos el alivio de su ausencia. O bien
percibimos el silencio cuando el nivel de ruido de nuestro entorno es tan bajo que podemos escuchar cosas
muy lejanas o bien a nosotros mismos, es decir los sonidos producidos por el funcionamiento de nuestro
cuerpo, que normalmente son enmascarados por el ruido de fondo ambiental. Entonces podríamos definir al
silencio como la ausencia relativa de sonidos. Una tercera condición del silencio tiene que ver con nuestra
conciencia activa, es decir lo que queremos o no escuchar. El silencio en el cine puede ser también
considerado una atmósfera. Las atmósferas sonoras, a diferencia de los ambientes específicos, tienen como
una de sus características la de no ser percibidas normalmente sino a un nivel muy subliminal, de manera que
sólo suelen ser percibidas cuando se cambia de una a otra.
Conceptos y reflexiones para una aproximación al estudio del lenguaje sonoro cinematográfico.
El predominio de lo visual sobre lo sonoro es como el predominio de lo masculino sobre lo femenino, es decir
una relación asimétrica e injusta sustentada en falsos supuestos de superioridad.
Así, el sonido de los medios audiovisuales, predominantemente usado de esta manera empirista-funcional
subordinada a la imagen, es una construcción ideológica que cumple su papel de coadyuvar, no a la
observación crítica de la realidad, sino al mantenimiento de una visión acrítica del sistema dominante. El
sonido cinematográfico es así un factor poderosísimo de sincronización emocional de los espectadores,
quienes son (con)movidos y manipulados emocionalmente, lo quieran o no, por las vibraciones de la banda
sonora, particularmente la música.
Me parece importante exponer y explicar algunos términos y conceptos -de la manera en que yo los entiendo
y utilizo- antes de poder profundizar en otros aspectos del lenguaje sonoro cinematográfico.
Diégesis: término griego usado desde los tiempos de Aristóteles para denominar aquello que es relatado por
un narrador, a diferencia de la mímesis, que es aquello que se muestra. Aplicado en la actualidad al cine, la
diégesis puede ser definida como todo aquello que pertenece al mundo creado o formado por un relato, sea
éste de ficción o no. Otra manera de definir la diégesis es como el contínuum espacio-temporal de la acción
dramática, es decir el lugar (los lugares) y el tiempo (los tiempos) en que ocurre la historia que nos cuenta
cada película. La diégesis también incluye el universo interno de los personajes (sueños, pensamientos,
fantasías), así como lo que ellos a su vez relatan. Cuando en una película un personaje cuenta una historia
que sucede en otro tiempo y/o espacio, tenemos una diégesis dentro de otra diégesis.
40
Aplicado a los elementos de la banda sonora, este concepto es utilizado sobre todo en relación a la música: la
música cinematográfica puede ser calificada de diegética o extradiegética. Así, la música diegética es aquella
que pertenece a la diégesis; es decir, es música que sucede dentro de la escena y que puede ser escuchada
por los personajes. La música extradiegética es aquella que no pertenece a la diégesis y que por lo tanto sólo
es escuchada por el espectador. También se le suele llamar también música "no diegética" o música
incidental,
Haciendo una analogía con la terminología del teatro, se puede decir que la música diegética es la música "de
la escena" y la música extradiegética es la música "para la escena".
Existe otra categoría correspondiente a la música que es escuchada por un personaje, pero que no está
sonando objetivamente en la escena. Es decir, es música que un personaje imagina, sueña, evoca o
simplemente escucha "dentro de su cabeza". En estos casos, podemos designar a la música como
metadiegética. Así, de la misma manera en que podemos decir que la música diegética es objetiva, en el
sentido de que sucede objetivamente dentro de la escena, también podemos decir que la música
metadiegética es subjetiva, puesto que sucede dentro de la subjetividad del personaje (o de los personajes)
que la escucha(n).
Síncresis: consiste en percibir, como un único y mismo fenómeno que se manifiesta a la vez visual y
acústicamente, la concomitancia de un acontecimiento sonoro y de un acontecimiento visual puntuales, en el
instante en que ambos se producen simultáneamente. Es fundamental para el cine sonoro, puesto que nos
permite asumir como "reales" dentro del universo de cada película los sonidos sincronizados con una acción,
aunque evidentemente no correspondan en algún otro nivel.
Audiovisión: es propuesto como concepto fundamental en contraposición a la forma más común que
tenemos de referirnos al hecho de asistir a la proyección de una película: hablamos de ir a ver una película o
de que vimos una película. La dimensión sonora queda excluida por el propio uso del lenguaje. Por esta
razón, deberíamos decir: "audioví" o voy a "audiover" una película.
Vococentrismo: se refiere al imperio de la palabra por encima de los demás elementos que conforman la
banda sonora de una película.
41
Efecto empático y anempátíco: estos términos complementarios se aplican particularmente a la música.
Una música empática es aquella que trabaja en el mismo sentido drámatico de la escena, es como la
objetivación emocional de la misma y por lo tanto su fortalecimiento y confirmación. La música anempática es
aquella que sigue su propia línea emocional, indiferente o contraria a la línea emocional de la escena.
42
Ambientes: proveen de realismo a los espacios visuales, los dotan de profundidad. Cuando un ambiente es
sólo la correspondencia sonora realista, podemos decir que es narrativamente redundante. Sonarán distinto
según el género. También sirven para unificar imágenes por medio de un espacio común y para informar
acerca de la magnitud de un espacio o para apoyar el tono emocional de una escena. Si no son realistas,
pueden adquirir mayor valor expresivo.
Incidentales: su función primordial es la de dar realismo -corporalidad, presencia física- a los personajes.
Son redundantes en términos narrativos y relativamente neutros en términos expresivos, son simples
acompañantes de la acción. Por otro lado, en cuanto un sonido incidental suena fuera de cuadro, nos
transmite información narrativa que la imagen no nos está dando. Si no suenan de manera realista,
comienzan a adquirir mayor potencialidad expresiva, se convierten en efectos: pueden sonar más grandes,
más amenazantes o más cómicos.
Efectos: según el caso, pueden pasar de ser simplemente realistas o naturalistas. Varían según el estilo o el
género de la película. Pueden ser incidentales; ruidos incidentales de máquinas, artefactos y vehículos; de
violencia (armas de todo tipo, golpes); de géneros específicos (clichés). Tienden a clasificarse en conjuntos
contextuales o grupales, por ejemplo: guerra (en diferentes épocas), industria (en sus distintas ramas), hogar,
ciudades, parques, oficinas, granjas, bosque tropical, bosque de montaña, desierto, selva, mar, reino animal,
los elementos de la naturaleza, etcétera. Cualquier efecto puede ser procesado para hacerlo todavía más
expresivo.
Música: tiene múltiples posibilidades de uso en el cine, por lo que puede cumplir muchas funciones.
En primer lugar podemos mencionar la música extradiegética y de índole fundamentalmente emocional, es
aquella cuya función fundamental es apoyar, conducir o establecer el tono o la atmósfera emocional. Puede
también introducir elementos estilísticos de época o región cultural, jugando así una función adicional de
contextualización, colaborando en la definición o construcción de la diégesis. Puede respetar o no las
constricciones establecidas por la diégesis de cada película.
Existe un uso de la música, llamada mickey mousing, que nos permite hablar de efectos musicales como una
categoría específica. No se refiere a las caricaturas- en aquellos casos en que la música es tan
exageradamente explícita y redundante en su acompañamiento de una acción, que en vez de ayudar se
convierte en un artificio grosero.
En el caso de la utilización de música diegética, además del impacto expresivo, es decir emocional, que
pueda tener cada pieza, lo más común es que haya una clara función narrativa o por lo menos
contextualizadora, aunque también puede ser simplemente ambiental o atmosférica.
Es importante considerar las connotaciones de todo tipo que la música puede traer consigo. La música
original puede tener connotaciones de tipo cultural o de época por el uso de ciertas instrumentaciones o por
incursionar en determinados géneros. Por su parte la música de archivo o de fuente (source music) puede
tener una variedad más amplia de connotaciones, ya que puede estar asociada a eventos o a épocas o a
grupos específicos.
Diálogos: suelen ser siempre diegéticos. Su función básica es la de transmitir información racional acerca de
la propia historia y de los personajes. El carácter más o menos informativo de los diálogos varía mucho de
película a película: en primer lugar hay que tomar en cuenta el siguiente factor: lo dado y lo retenido. Es decir,
en ciertas películas los diálogos se utilizan para contar la historia y para darnos mucha información acerca de
los personajes, mientras que en otras películas pueden ser considerados como parte de la acción,
contribuyendo a la creación de personajes verosímiles y profundos, caracterizados más por sus actos que por
sus palabras. Por otro lado, más allá de lo que las propias palabras signifiquen, la manera en que están
dichas, es decir su prosodia, estará determinando el significado verdadero. Tampoco hay que olvidar la
cuestión del vocabulario y la sintaxis como factores de estilo que identifican a los personajes como
pertenecientes a un grupo social o a una región. Nunca pierden su carácter racional en tanto lenguaje, pero
pueden estar tratados sonoramente de maneras muy diferentes. La diferencia principal entre diferentes
43
diálogos es quizás su tratamiento espacial: es decir, si los diálogos respetan el plano sonoro de la imagen y si
reflejan el espacio físico donde se desarrolla la acción.
44
La fuente es un cohete de varios cuerpos
No hay que olvidar, finalmente, que un sonido no siempre tiene una fuente única, sino al menos dos, incluso
tres o aún más.
En el cine, la escucha causal es manipulada constantemente y por completo por el contrato audiovisual, y
especialmente por la utilización de la síncresis. Se trata, en efecto, la mayoría de las veces, no de las causas
iniciales de los sonidos, sino de causas en las que se nos hace creer.
45
Al mismo tiempo, Schaeffer pensaba que la situación acusmática podía alentar por sí misma la escucha
reducida, es decir, alejarse de las causas o de los efectos en beneficio de una localización consciente de las
texturas, de las masas y de las velocidades r sonoras.
Contrariamente, muchas veces, se produce lo inverso al menos en un primer momento, ya que la acusmática
empieza por exacerbar la escucha causal privándola del socorro de la vista.
La acusmática
Definición
Acusmática significa «que se oye sin ver la causa originaria del sonido», o «que se hace oír sonidos sin la
visión de sus causas». La radio, el disco o el teléfono, que transmiten los sonidos sin mostrar su emisor, son
por definición medios acusmáticos.
¿Cómo puede llamarse lo contrario de esta escucha? Schaeffer proponía hablar de escucha directa, pero
siendo la palabra «directo» propicia a todas las ambigüedades, preferimos hablar aquí de escucha visualizada
(es decir, acompañada de la visión de la causa/fuente).
Visualidad / Acusmática
Un sonido puede realizar en una película, desde sus primeras apariciones dos clases de trayectos:
-o es de entrada visualizado y, seguidamente acusmatizado (asocia y marca de entrada el sonido a una
imagen precisa)
-o es acusmático para empezar y sólo después se visualiza (preserva durante mucho tiempo el secreto de la
causa y de su aspecto, antes de revelarla, mantieniendo una tensión, una expectación).
47
también sonidos-territorio, porque sirven para marcar un lugar, un espacio particular, con su presencia
continua y extendida por todas partes.
El sonido interno
Se llamará sonido interno al que, situado en el presente de la acción, corresponde al interior tanto físico como
mental de un personaje: ya sean sus sonidos fisiológicos de respiración, de jadeos y de latidos del corazón
(que podrían bautizarse como sonidos internos-objetivos), o sus voces mentales, sus recuerdos, etc. (que
llamaremos internos-subjetivos o internos-mentales).
La excepción de la música
Música de foso y música de pantalla
Llamaremos música de foso a la que acompaña a la imagen desde una posición off, fuera del lugar y del
tiempo de la acción. Este término hace referencia al foso de la orquesta de la ópera clásica.
Llamaremos música de pantalla, por el contrario, a la que emana de una fuente situada directa o
indirectamente en el lugar y el tiempo de la acción, aunque esta fuente sea una radio o un instrumentista
fuera de campo.
La extensión
Modulación del campo y del fuera de campo visual por el sonido-Las variaciones de la extensión
El sonido es, pues, susceptible de crear un fuera de campo de extensión variable.
Se llamará extensión del ambiente sonoro al espacio concreto más o menos amplio y abierto que los sonidos
evocan y hacen sentir alrededor del campo, y también en el interior de ese campo, alrededor de los
personajes.
Podría hablarse de extensión nula cuando el universo sonoro se limita a los ruidos que oye un personaje dado
y sólo él, y no implica a ningún otro. En el otro extremo, de extensión amplia, cuando oímos todos los sonidos
que rodean al personaje.
La extensión ambiental no tiene límites reales, sino los del universo, a poco que se encuentren sonidos
capaces de dilatar hasta el máximo la percepción del espacio que envuelve la acción.
49
El punto de escucha
Punto de escucha en sentido espacial y en sentido subjetivo
Observemos ante todo que el concepto de punto de escucha ha sido calcado sobre el de punto de vista.
Ahora bien, punto de vista en el cine significa dos cosas diferentes, enlazadas a menudo pero no siempre:
-desde dónde veo, yo espectador (desde qué punto del espacio se considera la escena, desde arriba, desde
abajo, desde el techo, desde el interior de un frigorífico, etc.). Es la
acepción estrictamente espacial de la palabra;
-qué personaje, en la acción, se supone que ve lo que yo veo; es la acepción subjetiva.
En la mayor parte de los planos de una película corriente, el «punto de vista» de la cámara no es de un
personaje particular. Lo que no quiere decir que sea necesariamente arbitrario: puede obedecer a ciertas
limitaciones y leyes específicas. Por ejemplo, la cámara nunca se colocará en un lugar en el que no podría
encontrarse el ojo humano de un personaje normal; o bien no filma sino según ciertos ejes privilegiados que
excluyen los demás.
La noción de punto de vista, en este primer sentido espacial, descansa en la posibilidad de deducir con mayor
o menor precisión el lugar de un «ojo» a partir de la composición de la imagen y de su perspectiva.
Recordemos también que el punto de vista, en sentido subjetivo, puede ser un puro efecto de montaje.
Examinemos ahora, por comparación, la noción de punto de escucha. También puede tener dos sentidos que
están ligados pero no necesariamente:
-un sentido espacial: ¿desde dónde oigo? , ¿desde qué punto del espacio representado en la pantalla o en el
sonido?
-un sentido subjetivo: ¿qué personaje, en un momento dado de la acción, se supone que
oye lo que yo mismo oigo?
50
-nada impide simular o reconstruir tales variaciones en la post sincronización, por medio de desplazamientos
del actor o del micro.
-inversamente, puede disponerse el micro en el rodaje para seguir constantemente al actor «de frente», en
especial cuando se trata de un micro de corbata que transporta el actor mismo, cerca de su garganta.
La palabra-teatro
En la palabra-teatro —el caso más corriente— el diálogo oído tiene una función dramática, psicológica,
informativa y afectiva. Se percibe como emanado de seres humanos captados en la acción misma, sin poder
sobre el curso de las imágenes que los muestran, y se oye palabra por palabra, ofrecido a una total
inteligibilidad. A esta palabra-teatro es a la que el cine hablado recurrió en sus comienzos, y sigue recurriendo
masivamente. En caso extremo, en este tipo de figura puede hacerse oír en presente la voz «interior» de los
personajes, una voz análoga a un aparte teatral. La palabra-teatro no hace sino reinar sobre el sonido,
puesto que condiciona toda la escenificación de la película en el más amplio sentido. La fórmula,
universalmente empleada en el cine clásico, y según la cual los personajes hablan-mientras-hacen-algo, sirve
para reestructurar el filme mediante la palabra y alrededor de ella.
51
La palabra-texto
La palabra-texto, por su parte —en general la de la voz en off de los comentarios—, hereda ciertas
atribuciones de los rótulos intercalados del cine mudo, ya que, al contrario de la palabra-teatro, actúa sobre el
curso de las imágenes. La palabra proferida tiene el poder de evocar la imagen de la cosa, del momento, del
lugar, de los personajes, etc. Las imágenes y los sonidos realistas que las acompañan están a su merced.
Está estrechamente restringida en las películas que la emplean, es decir, reservada a un personaje
privilegiado de la narración, no habiéndosele concedido a éste, por añadidura, sino por tiempo limitado, en
relación con la duración de conjunto de la película. No se nos recuerda que se trata de una narración sino al
cabo de un cuarto de hora o, digamos, una hora más tarde. Y muchas veces, en el intervalo, el relato se ha
independizado totalmente de esta palabra-texto creando su duración dramática propia y mostrándonos
escenas a las que no ha podido asistir el narrador, sea este último, por su parte, protagonista significativo o
personaje secundario pero testigo, o incluso un narrador-novelista exterior pero omnividente.
La palabra-emanación
La palabra-emanación consiste en que la palabra no es necesariamente oída e íntegramente comprendida y,
sobre todo, no está ligada al corazón y al centro de lo que podría llamarse la acción en sentido amplio. Este
efecto de palabra-emanación puede estar ligado, por una parte, a que el diálogo de los personajes no sea
totalmente inteligible, y, por otra parte, a la manera en que el realizador dirija a los actores y utilice el
encuadre y el découpage, evitando subrayar las articulaciones del texto, el juego de las preguntas y de las
respuestas, las vacilaciones y las palabras importantes, contrariamente a la regla aplicada en casi todas las
películas. La palabra se convierte entonces en una emanación de los personajes, un aspecto de ellos
mismos, al mismo título que su silueta, significativa, pero no central para la puesta en escena y la acción.
53