Está en la página 1de 63

Aprende a comprimir tus señales

Introducción: la dinámica de una señal


¿Qué es lo básico? Antes siquiera de hablar de compresión, debemos dejar claros algunos
conceptos sobre la dinámica de una señal de audio; por "dinámica" entendemos las
variaciones de nivel de una señal en el tiempo (una cantante de ópera que haga continuos
crecendos y decrecendos tendrá una dinámica muy acusada; un pitido de silbato mantenido al
mismo volumen no tendrá dinámica alguna).

· Nivel de ruido de fondo: este es el nivel donde encontramos el ruido de cinta y de línea,
los ruidos eléctricos, etc.

· Nivel nominal: sería el nivel más apropiado para grabar tu señal de manera que haya una
mínima distorsión (el momento en que la señal "pica" en el rojo; es decir, sobrepasa el umbral
máximo admitido) y que el nivel de ruido de fondo sea superado.

· Relación señal-ruido: la distancia entre el nivel de ruido y el nivel nominal.

· Nivel máximo: se alcanza cuando la señal entrante comienza a distorsionar.

· Headroom: la diferencia entre el nivel nominal y el nivel máximo; es tu "zona de


seguridad", el último espacio que tienes antes de que suceda la distorsión.

· Rango dinámico: todo el nivel que puede ocupar la señal, desde el nivel de ruido hasta el
nivel máximo.
La compresión
Ahora que hemos explicado estos conceptos elementales, podemos empezar a hablar de
compresión. Supongamos que estas en tu estudio grabando unas tomas de sintetizadores,
voces o instrumentos. Has ajustado un nivel adecuado para grabarlos, es decir, deberías estar
cerca del nivel nominal (superando el ruido de fondo y cerca de la distorsión, pero sin tocarla).
Esto es un escenario ideal, pero lo más normal es que, si prestas atención a tu indicador de
señal, veas como se pone en el rojo alguna vez (distorsión).

Esto dependerá de la naturaleza de la fuente que estés grabando: por ejemplo, imagina que
grabas una voz muy sentida, con momentos de murmullo y repentinas subidas de nivel. Es
muy fácil que saltes al rojo en estas circunstancias. Podrías pensar "bueno, si estoy atento a
los cambios de nivel, puedo anticiparme y subir y bajar el volumen de entrada cuando se
requiera"... Has pensado bien, pero no eres del todo práctico: deja que te ayude un
compresor.

Un compresor monitoriza la señal de entrada y actúa bajando el nivel cuando se alcanza la


distorsión, o subiéndolo si la señal cae demasiado baja. Esta es la definición de andar por
casa; para completarla, podemos decir que el compresor lee la señal de entrada, y luego, de
acuerdo con el ratio de compresión que tú has configurado, reduce la señal que de otra
manera distorsionaría. Esto te permite mantener la señal a un nivel manejable y grabable sin
picos imprevistos.

Alto, ¿qué es eso del "ratio"? Es uno de los parámetros esenciales de un compresor. Pasamos
a explicarte cuáles son los controles básicos de los compresores, y así irás descubriendo cómo
funcionan (en la foto, el Nanocompressor de Alesis)
· Threshold: este es el nivel (en decibelios, dB) a partir del cual el compresor empieza a
actuar. Para que entiendas cómo actúa, debemos hablar un momento de los niveles de una
señal. Quédate con la idea de que un fader colocado en la marca de 0 dB está dejando pasar
toda la señal "tal cual", sin restarle o añadirle ganancia. Digamos que 0 dB se identifica con la
imagen "real" del sonido que entra. Los valores positivos (+1 dB, +2 dB...) indican que
estamos añadiendo ganancia a la señal original, y los negativos (-1 dB...) que estamos
restándosela. Si ajustamos el threshold del compresor a -5 dB por ejemplo, le estamos
diciendo que, cuando la señal entrante alcance ese nivel, empezará a ser comprimida. Por
ello, cuanto mas bajemos el threshold, más comprimiremos la señal.

· Ratio: se da en valores de proporción, como 2:1, 3:1, 4:1, etc. Supongamos que colocas el
ratio en 3:1. Lo que sucederá es que por cada vez que tu señal entrante supere en 3 dB al
nivel de threshold, el compresor sólo permitirá que pase 1 dB de señal. Tu pensarás "de
acuerdo, pero si está dejando pasar un decibelio cada vez, entonces sobrepasará de todos
modos el nivel de threshold". Evidentemente; el threshold es una marca de referencia, no una
"guillotina" que corta todo lo que pasa por ella. Se da por hecho que el threshold y el ratio
deben ir relacionados; debes configurar un nivel de threshold lo bastante bajo, teniendo en
cuenta el ratio, para que los dB que pasen no lleguen a distorsionar, saliéndose por encima
den? 0 dB. Aquí entra en juego el concepto de headroom; el "espacio de seguridad" al que nos
referíamos. Si tienes un headroom amplio, podras jugar con ajustes más extremos. Si estás
en trance permanente de distorsionar la señal, tendras que manejar estos controles con
mayor precisión.

La técnica más recomendable es ajustar el ratio primero, y luego ir moviendo el threshold


hasta que notes que la señal empieza a comprimirse (esto lo verás fácilmente en los
medidores de tu mesa, cuando veas que las distorsiones de la señal empiezan a desaparecer,
cayendo el nivel a un rango más uniforme). Ten clara una cosa: si tu señal es demasiado
débil, y el threshold está demasiado alto, nunca funcionará el compresor. Si tu señal,
digamos, solo alcanza cotas de -5 dB y el threshold está a -2 dB, es evidente que el
compresor no actuará.

· Ataque (attack): Este parámetro decide con qué rapidez actuará el compresor cuando
aparezcan los picos (cuando la señal supere el umbral de threshold). Nos servirá para adaptar
el funcionamiento del compresor a la naturaleza de la fuente de sonido. Por ejemplo: algunos
instrumentos tiene un ataque muy rápido (es decir, suenan de inmediato, tan pronto como
son tocados). Así pues, para este tipo de sonidos (como los de bajo o bombo), necesitarás
que el compresor actúe rápidamente, para que no se le escape ningun pico (tendrías que
ajustar el ataque a un valor bajo o nulo).

· Liberación (release): El parámetro de liberación marca la velocidad con que el compresor


deja de actuar sobre la señal una vez que ésta, despues de picar, ha bajado ya del nivel de
threshold (cuando ya no necesita ser comprimida). Si ajustas la liberación a un valor largo,
conseguirás una señal más sostenida. Si es corto, la señal caerá de nivel más rapidamente.

· Ganancia de salida (output gain): Cuando has ajustado ya el threshold y el compresor


está actuando, tu nivel nominal se verá reducido dependiendo de la cantidad de compresión
que apliques, y así la señal, aunque comprimida, se escuchará con menor volumen. Este
parámetro se utiliza para corregir ese efecto y restablecer el nivel de nuevo. Usa este ajuste
con cuidado: aumentando de nuevo el nivel, estás aumentando también el nivel de ruido de
fondo que llega aumentado después de la compresión. Para evitar esto, procura que llegue la
mayor cantidad de señal pura posible al compresor, con el mínimo ruido.

· Knee: Este parámetro no lo llevan todos los compresores, pero no es raro encontrárselo.
Hay dos tipos de "knee" (rodilla): hard-knee y soft-knee. El ajuste hard-knee supone que la
señal será comprimida de inmediato en la proporción marcada por el ratio tan pronto alcance
el nivel de threshold. El ajuste soft-knee hace esto de una manera más suave, aplicando la
compresión no toda de golpe, consiguiendo así un sonido menos abrupto. Típicamente, los
sonidos que requieren pegada, como el bajo y el bombo, se comprimen con "hard-knee".
Algunos compresores te permiten también escoger valores intermedios entre estos dos
extremos, para controlar mejor el sonido.
Comprimiendo en la práctica
El uso de la compresión dependerá mucho de tus gustos personales. En la música de baile
actual y en ciertos estilos se utilizan configuraciones extremas para darle gran pegada a los
sonidos, pero puede n?que tú no necesites eso. Una compresión extrema puede hacer una
mezcla demasiado agresiva, pero también, una compresión escasa puede hacer muy "blando"
el sonido. Como siempre, la solución está en probar distintas configuraciones hasta alcanzar
un resultado que te satisfaga.

Para darte una guía, aquí tienes algunos ajustes recomendados, en general, para distintos
tipos de señales:

· Bajo: Prueba a empezar con un ratio de 4:1 y


un ataque y liberación rápidos. Normalmente se
prefiere la compresión hard-knee porque el
sonido del bajo suele requerir pegada y potencia,
pero también depende del estilo. Quizás te
convenga una soft-knee para un bajo de jazz en
un tema suave y tranquilo.

· Guitarra: Empieza con un ratio de 2:1 para


guitarras acústicas, o un 3:1 o 4:1 para guitarras
distorsionadas. Para conseguir un sonido más sostenido, intenta un ratio de 4:1 ratio, con un
ataque rápido y liberación lenta. Cuando tengas esos ajustes preparados, toca la nota que
quieres sostener, y aumenta el ratio hasta que el sonido se sostenga tanto como deseabas.

· Percusión: Las señales de percusión se comprimen muy a menudo debido a sus ataques
rápidos. Prueba a comprimir la caja, que es el sonido que más suele distorsionar porque cada
gope de caja sobresale por encima de todos los demás con mucha facilidad. Intenta un ratio
de 3:1, y usa un ataque y liberación rápidos. Si la señal continúa distorsionando, prueba ratios
mayores (la foto que te incluimos aquí muestra un compresor de Logic configurado para una
caja). Este método es válido también para los timbales. Para lon?s platillos, prueba un ratio de
2:1 con ataque rápido y liberación lenta, para mantener así el desvanecimiento natural del
sonido de los platillos.

· Voces: Como en la percusión, es habitual comprimir las señales de voz. El ratio varía con
cada cantante, dependiendo del tipo de voz (gritona y potente, suave y tranquila, etc). Los
cantantes que no hacen grandes altibajos con su voz tendrán una dinámica mas pequeña y
requerirán por ello menos compresión. Prueba para empezar un ratio de 2:1, con el ataque
rápido, y liberación media-larga. Aumenta luego el ratio hasta que tengas dominados los picos
de distorsión.
Conclusión
En general, debes usar la compresión para situar las señales correctamente en la mezcla, para
darles la presencia necesaria y para dominar sus subidas y bajadas de nivel. Otros la utilizan
también con intenciones creativas, o para conseguir un efecto deliberado, como por ejemplo
una gruesa y potente línea de bajo que marque el ritmo.

Podría decirse que la compresión es un arte que solo dominarás con mucha práctica. Tu oído
será la mejor guía: prueba diferentes ajustes y configuraciones hasta alcanzar el sonido que
estabas buscando.
Conceptos básicos sobre la mezcla

Introducción

La mezcla es uno de los procesos más delicados y creativos de la producción de una canción. El
objetivo es conseguir un reparto equilibrado de las frecuencias, volúmenes y planos de los
instrumentos/voces de forma que la escucha sea agradable y/o apropiada a lo que se intenta
transmitir con cada canción. Para ello se controla el espectro de cada instrumento (ecualización), la
dinámica (volumen, compresión, expansión, limitación) y la profundidad (reverberación, retardo).

Hay varios factores a tener en cuenta, muy importantes, antes de adentrarnos en el proceso de la
mezcla...

Reproducción y monitorización

Muchas veces olvidado, el sistema de reproducción y monitorización


(tarjeta de sonido + amplificador + altavoces) es lo más importante del
sistema. El tener una correcta referencia es la mejor de las ayudas para
determinar el sonido de una pista. Debido a que cada sistema de
escucha es diferente y no existe ni habitación perfecta ni monitores
infalibles, en los estudios se suele tener varias parejas de monitores de
diferentes tamaños y calidades para conseguir el mejor sonido posible.
Un amplificador que no distorsione la señal (algunos monitores los
trae incorporado) y una tarjeta de sonido con una buena señal ruido y
respuesta en frecuencia (la mayoría) completan el paquete.

La colocación de los monitores y las reflexiones en la sala son factores


muy importantes. Unos altavoces muy cerca de la pared sobrecargarán
de graves tu escucha, de forma que las mezclas sonarán faltas de esas frecuencias. Así mismo, una
habitación con reflexiones incontroladas creará eco o realzará alguna frecuencia.

Los efectos

Existen un grupo de efectos básicos y de su calidad dependerá en mayor o menor medida la calidad
del resultado. Como antes se comentó, los más importantes son la dinámica, ecualización y
retardo/reverberación, imprescindibles para acometer cualquier mezcla. Debido al auge de la
informática, la mayoría de las veces se usan efectos software o la combinación de ambos.

No existen reglas fijas sobre su uso, aunque daré a lo largo del tutorial ajustes “estándar”. Para
profundizar más, recomiendo la lectura de otros artículos de la web.

Los efectos se pueden usar de dos formas, como inserción o como envío. En el primer caso el
efecto sólo actúa sobre la señal de entrada (una pista o un grupo de ellas). En el segundo caso,
puedes elegir de cada pista qué cantidad de esta debe ser afectada por el efecto mediante un control
de envío.

Efectos de inserción suelen ser los compresores, la ecualización o distorsión. Efectos de envío
suelen ser la reverberación, retardo (delay) o el coro (chorus), aunque insisto en que no hay reglas
fijas.

El factor humano

La mezcla no es un proceso científico, depende del tipo de canción y del gusto del ejecutante.
Además, hay otros factores importantes que influyen negativamente, como el cansancio auditivo o
el consumo de drogas. El entrenamiento es el arma más poderosa y, en tiempos en donde la
tecnología está al alcance de todos, decisiva.

Preparación

Hay una serie de pasos útiles antes de comenzar una mezcla. En primer lugar es muy recomendable
escuchar unos minutos de tu música favorita para ir “calibrando” tu audición con respecto a los
monitores que tengan. Esto es especialmente útil cuando el sistema a usar no es el habitual o estás
fuera de casa.

Las pistas del tema deberían estar bien alineadas y organizadas dentro del sistema multipistas a
utilizar. Para acelerar el proceso se puede “patchear” o configurar algún efecto general, tipo reverb
o delay.

Hoy en día todo el material, exceptuando el dirigido a televisión o cine, suele estar mezclado en
estéreo. Tras muchos años experiencia y varios centenares de mezclas a mis espaldas puedo decir
sin temor a equivocarme que se debe mezclar siempre en mono. La razón es que en mono es más
sencillo ajustar la ecualización y equilibro de todas las pistas. Además, se ocupa todo el espectro
antes, de forma que al volver al estéreo el sonido es más amplio y espacioso. Si se realiza el proceso
directamente en estéreo, es más sencillo sobrecargar la mezcla. Una vez que se haya ajustado los
volúmenes y el espectro, se puede continuar en estéreo y hacer las correcciones pertinentes.

Los pasos que voy a describir están orientados para una mezcla pop-rock más o menos estándar y
pueden ser aplicados a todos los demás estilos. La mejor forma de aprender es trabajar con
referencias, es decir, siguiendo estos pasos ir buscando el sonido de un disco con sonido similar a lo
que buscas.

¡Comencemos!

La voz

Hay muchas formas de enfrentar una mezcla. Hay quien prefiere empezar por la percusión y otros
por la voz. Aunque suelo cambiar el enfoque dependiendo del material a mezclar, yo suelo empezar
por esta última, ecualizando, comprimiendo y ajustando todos los detalles hasta que suena de forma
correcta y con un volumen más o menos constante. Un poco de reverberación y retardo nunca le
vienen mal, pero es algo que suelo añadir más adelante.

Un defecto importante es la silibancia, que se corrige con un deeser . El deeser es un compresor


encadenado ( side chain ), en el que la señal de disparo es la misma de entrada filtrada para resaltar
la silibancia. De esta forma, cuando se produce el defecto, actúa el compresor. La silibancia suele
darse entre 5 y 8 Khz.

Cuando la voz va haciendo coros lo mejor es tener un bus con todos las pistas y comprimirlos y
ecualizarlos juntos.

Panoramización (Pan): La voz principal debe ir siempre al centro. Los coros se suelen abrir en
estéreo un poco, pero no demasiado.
Ecualización (EQ) recomendada: un recorte de graves (filtro paso alto), sobre 200 con una curva
suave para mejora la definición y entre 7.5 y 10 Khz para darle brillo. En el caso de los coros, se
puede cortar más arriba (400-500 Hz). Esto hará que se empasten mejor.

Dinámica (Din) recomendada: compresor, ratio de entre 2,5:1 a 4:1, con un ataque y
desvanecimientos moderados. Deeser para corregir la silibancia.

Efectos (FX) recomendados: Reverberación tipo placas ( Plate ), predelay 30 ms y tiempo de


reverberación de 1.5 segundos. Recorte de graves de la reverberación hasta 400 Hz. Retardo estéreo
sin realimentación ( feedback ), con tiempos de 20 y 30 ms. La voz puede llevar otros retardos o
reverberaciones a la vez, para adecuarla al estilo del tema.

La voz suele ser el elemento principal, por lo que es recomendable usar el mejor compresor y
ecualizador disponible.

La percusión

En la mayoría de los estilos musicales, la percusión y el bajo son los elementos que llevan el peso
de la canción y más concretamente la batería, por lo que será nuestro siguiente elemento a tener en
cuenta.

La batería, acústica o electrónica, consta habitualmente de los siguientes elementos: bombo, caja,
plato de charles (o hi-hat), timbales y platos, que suelen ser microfoneados indivudalmente (incluso
con varios micrófonos, como la caja o el bombo). Además, cuando estamos mezclando una batería
acústica contaremos con las señales de overhead (micros situados sobre la batería), ambiente (mono
o estéreo) y PZM (micrófonos piezoeléctricos que se usan para grabar ambientes).

Hay cientos de formas de mezclar una batería. La más sencilla empieza ajustando el bombo con la
siguiente cadena:

Puerta de ruido -> EQ -> Compresor

La puerta de ruido sirve para cortar aislar los bombos y evitar que se cuele el resto de los
instrumentos. No existen ajustes mágicos, pero se puede obtener mejor resultado si tiene una
función de encadenado (sidechain) ajustada para actuar sólo con las frecuencias graves.

Bombo

Pan: Siempre al centro, para evitar el cambio de peso de la canción. Antiguamente, con el
nacimiento del estéreo se situaba en alguno de los lados, muy abiertos. Hoy en día sólo se hace
cuando se busca un sonido retro.

EQ: 80Hz es la zona de la pegada, por lo que se puede realzar si le falta. 250 Hz es una frecuencia
bastante delicada, suele chocar con el bajo, por lo que se puede recortar si vemos problemas. 1 – 5
Khz es ideal para darle presencia.

Din: Puerta de ruido y compresor. El compresor debe tener ataque y decaimiento rápidos, con un
ratio alrededor de 4:1.
La caja suele grabarse con dos micrófonos, uno para recoger la parte superior y otro para la
bordonera y se tratan independientemente. Un detalle a tener en cuenta es la fase, pues a veces se
producen cancelaciones entre los dos micros, por lo que habría que invertirla en uno de ellos. La
cadena de efectos es la misma al bombo y el tratamiento de dinámica es similar.

Caja

Pan: Al centro.

EQ: Cada caja es un mundo, pero hay frecuencias clave. 100 Hz para darle más cuerpo, entre 250 y
750 Hz para cajas que suenen acartonadas y 5 Khz para darle brillo

Din: Puerta de ruido y compresor con valores similares a los del bombo.

FX: Un poco de reverberación brillante, la misma que el bombo pero en mayor cantidad. En ciertos
estilos se suele usar también una reverberación de tipo “ gated ” con un retardo de unos 40 ms. Este
tipo de reverb se hizo popular gracias a la canción “In the air tonight” de Phil Collins. Consiste en
una reverberación con una puerta de ruido, que corta la cola.

Los timbales son bastante problemáticos debido a que esos micros recogen el resto del set . Parte
del problema se resuelve mediante una puerta de ruido, aunque lo más recomendable en un sistema
por ordenador es editar cada pista recortando los momentos donde no aparezcan.

Para el resto, el tratamiento es similar al de la caja.

Timbales

Pan: Se recrea la posición natural de los timbales.

EQ: 100 Hz para darle cuerpo. Recortar entre 300 y 750 Hz para evitar que los timbales suenen
acartonados.

FX: Igual que la caja.

Los overheads es una pista estéreo (o dos mono) que contiene el sonido de toda la batería desde
arriba. Dependiendo de su colocación y del tipo del micro, lo contendrá de forma más o menos
equilibrada, por lo que su utilidad es variada. En muchos casos se usa sólo para recoger el sonido de
los platos (cortando graves hasta 1 Khz) o para añadir ambiente al resto de los elementos, en
combinación con los otros micros más lejanos.

Overheads

Pan: Totalmente abiertos o en estéreo.

EQ: Se pueden reforzar sobre 8 Khz o más para darle más aire. Dependiendo de su uso, se suele
cortar por debajo de 250 Hz para evitar cancelaciones de fase o más arriba si se quiere sólo los
platos.

Din: Un poco de compresión con ataque y decaimiento largos y no mucho más de 3:1 de ratio
mejoran la dinámica.

FX: Nada o un poco de reverb .

Si tenemos pistas individuales para cada plato y para el charles, podemos usarlas para reforzar los
overheads .

Todos se tratan de forma similar: se recorta hasta 400 Hz y un poco de reverberación.


Platos

Pan: replicando su posición real.

EQ: Recorte hasta 400 Hz. Se puede reforzar entre 8 y 15 Khz para darles más brillo o aire.

Din: No precisan compresor en muchos casos, pero se puede hacer para controlar más la dinámica o
añadir más sostenimiento.

FX: Nada o un poco de reverberación.

Las pistas de ambiente y PZM sitúan la batería en el contesto de la habitación donde fue grabada, y
en muchos casos sustituye a la adicción de reverberación. El tratamiento es idéntico al de los
overheads.

El bajo

El elemento conductor de la armonía y posiblemente uno de los más sencillos de mezclar. Es muy
importante que la grabación sea la correcta y aplicar una buena dosis de compresión durante la
mezcla. Al contrario de lo que muchos piensan, no hay que recortar nunca en graves (a menos que
sature, claro). Un refuerzo en 100 Hz para darle más cuerpo y entre 2 y 3 Khz para darle más
presencia en la mezcla. Importante no forzar sobre 250 Hz demasiado porque, aunque en unos
altavoces pequeños suene mejor, embarraría la mezcla.

Pan: Centrado, junto al bombo, la caja y la voz, son la base de la canción.

EQ: 100 Hz para darle más cuerpo. Entre 2 y 3 Khz para darle más presencia.

Din: Ataque y decaimiento largos. 4:1 de ratio es un buen punto de partida.

FX: Un poco de saturación de válvulas suele hacer mucho bien. En algunos estilos en los años 80 se
le agregaba efecto de coro o flanger, etc, que no le hace demasiado bien en la mayoría de los casos,
exceptuando el wah-wah.

Las guitarras eléctricas


Debido a la diversidad de estilos y técnicas, sería muy difícil establecer reglas para colocarlas
correctamente en la mezcla. Como norma general, se deben cortar por debajo de 150-200 Hz para
evitar que choquen con el bajo y el bombo.

Pan: Depende de su uso. Si son rítmicas y están grabadas dobles, se pueden usar totalmente
panoramizadas. Si es un riff o un solo quizás al centro. Si va de acompañamiento a un lado.
Demasiadas opciones J

EQ: El recorte de graves le viene bien. Si no, la mezcla se enturbia. El resto de los ajustes de EQ
depende del estilo y pueden ir desde la famosa curva en V del metal hasta las guitarras funky llenas
de medios.

Din: Un poco de compresión, ataque y decaimiento medios y ratio sobre 2:1 a 3:1, facilitan su
integración en la mezcla.

FX: De todo un poco.

Resto de instrumentos

En general, estos instrumentos van acompañando al resto, por lo que suelen estar recortados en
graves para que empasten mejor en la mezcla y panoramizados fuertemente para no restarle peso a
la canción, a excepción en los momentos en los que son solistas.

La mezcla

Tal como comentábamos, lo más importante de una mezcla es el equilibrio entre la voz y la parte
rítmica, por lo que prestaremos especial atención al balance voz-bombo-caja-bajo que es donde
reside la magia de la canción

Una vez que están equilibrados, situamos el resto de los elementos de la batería exceptuando los
micros generales de ambiente. Cuando todo suene a nuestro gusto, levantamos los overheads y
ambientes poco a poco y se corrige el sonido del resto de los instrumentos para mantener el mismo
equilibrio con la voz, momento para introducir el bajo y tener el corazón de la canción.

En este punto lo ideal es agregar las guitarras y darles el protagonismo deseado. Como hemos
comentado antes, las guitarras rítmicas suelen ir fuertemente panoramizadas. Como estamos
haciendo todo este proceso en mono, podremos comprobar la fuerza relativa de la suma de las
guitarras en comparación con la base rítmica + voz. Después de introducir las guitarras, podremos
introducir los sintes, colchones de cuerdas, etc, e ir recortando su espectro acomodándolos con la
ecualización.

Cuando la mezcla suene correctamente y equilibrada, es el momento de escucharlo en estéreo.


Notaremos cómo hay ciertos instrumentos, como las guitarras, que suenan demasiado alto y algunos
efectos (reverberación y retardo, por ejemplo) suenan demasiado evidentes, por lo que
procederemos a hacer las pertinentes correcciones, comprobándolas constantemente en mono para
tener una mezcla coherente en ambos formatos.
Trucos

¡Automatiza!

Durante la mezcla, se suele automatizar muchos parámetros, como volúmenes y envíos de efectos,
dándole énfasis a distintas partes o, simplemente, equilibrando la dinámica. Especialmente
interesante es añadir eco o reverberación a ciertas palabras de la voz, o mover objetos en el
panorama.

Compresión en el master.

Este es un tema muy peliagudo, pero lo cierto es que el sonido del compresor es el sonido de
muchos estilos musicales, desde el Rock hasta el Trip-Hop y, además, la mezcla será comprimida
durante la masterización. Mi preferencia personal es comprimir un poco, hasta unos -3dB de
corrección y luego enviar la mezcla limpia a masterizar con mi pista original como referencia,
excepto donde la compresión es fundamental para el sonido de mezcla. El motivo de mezcla con
compresión es que el balance de los instrumentos suele ser bastante diferente al aplicarla,
constituyendo a veces una desagradable sorpresa.

Por Antonio Escobar


La reverb y otros efectos

Introducción

Los procesadores de efectos son el condimento para nuestros guisos musicales, tanto en la mezcla
de sabores y pistas como en la transformación y búsqueda de nuevos sonidos en nuestros samples.
Su utilización, bien sea en forma de hardware alojado en nuestro rack o bien en forma de software,
nos permite dar ese toque personal a nuestro particular menú sonoro.

LEXICON PSP-42 - Procesador software de efectos basados en delay para VST desarrollado por
PSP imitando el mítico modelo hardware de LEXICON

Etiquetas como “reverb”, “delay”, “chorus” o “flanger” son conocidas y utilizadas por todos
nosotros a la hora de crear una carta musical en forma de mezcla. Lo que debemos preguntarnos es
si realmente somos capaces de crear un plato de alta cocina sonora o simplemente nos dedicamos a
usar recetas básicas en forma de presets con las que todo termina sabiendo y sonando igual y que
convierten nuestro proyecto musical en un simple menú del día.

Por lo tanto para que nuestro Restaurante Sonoro pueda figurar en las mejores guías gastronómicas
y musicales del mundo hay que huir de las recetas fáciles y presets preestablecidos para buscar
nuevos sabores y sonidos. Pero para comprender a la perfección el funcionamiento y aplicación de
estos condimentos contenidos en nuestros procesadores de efectos es necesario comenzar por el
principio...

Un poco de Teoría

No quiero en este artículo adentrarme en los abismos de la Acústica de Recintos ni hacer un repaso
exhaustivo de los fundamentos básicos del sonido, pero si que creo que es necesario explicar un par
de conceptos que seguro os ayudarán a comprender un poco mejor todo esto.

La reverberación es un fenómeno acústico natural que se produce en recintos más o menos


cerrados por el cual a la señal original se le van sumando las diferentes ondas reflejadas en las
paredes del recinto con un retardo o “delay” generado básicamente por la distancia física entre la
fuente de sonido original y las paredes del recinto. Pero entonces, ¿Cuál es la diferencia entre eco
y reverberación?

Hay algunos autores que para definir el fenómeno de la “reverberación” usan el término “eco”
como repetición de un sonido en el tiempo, de forma que la reverberación es un conjunto de ecos
producidos por las paredes del recinto que se van sumando a la señal original. En cambio, otros
autores más técnicos, prefieren diferenciar claramente ambos conceptos. Y esa diferenciación se
basa en una simple cuestión de percepción auditiva. Nuestro oído posee una característica
denominada persistencia acústica por la cual es incapaz de distinguir un sonido de sus reflexiones
siempre y cuando la diferencia de tiempo entre ambas sea menor a 1/15 de segundo. También es
importante conocer el efecto HAAS, por el cual cuando el oído capta unas reflexiones con un
retardo superior a 35ms es incapaz de integrarlos como “ecos” consecutivos y los asocia a la fuente
original reforzándola.

A efectos prácticos que es lo que nos interesa, esto se traduce en que nuestro oído no diferencia
entre el sonido puro y su reverberación, sino que lo percibe como un “todo”, un mismo sonido
que además presenta unas características diferentes del sonido original.
Hay quien defiende la teoría de que en la naturaleza no existen sonidos puros, que todos los
sonidos que percibimos están alterados por este proceso de reverberación. Un ejemplo curioso es el
de la voz humana, ¿quién no se ha sorprendido la primera vez que ha escuchado su voz grabada? La
sensación suele ser de que suena distinta. La razón hay que buscarla en que nuestra boca hace de
cámara reverberante y nuestros oídos no solo recogen el sonido externo que producimos y que los
demás escuchan, a la vez percibimos esa señal reverberada desde dentro y que sumamos a la
original. Lo cierto es que es bastante más complejo que esta explicación pero tampoco quiero irme
mucho del tema.

Otro ejemplo claro de reverberación a “pequeña escala” puede ser perfectamente una guitarra
española. Uno de los aspectos que define el sonido de la guitarra es la forma de la caja, que
realmente hace de cámara reverberante del sonido producido al tañer las cuerdas. Obviamente si
variamos la forma, las dimensiones o el material del cuerpo de la guitarra, estamos cambiando por
completo el sonido que produce esa guitarra.

Pero para poder simplificar el proceso, otros autores prefieren centrar el proceso de la reverberación
en los recintos mas o menos cerrados, entendiendo que en un espacio abierto la reverberación
producida por el entorno es mínima y por lo tanto inapreciable. En el caso de los recintos cerrados
las variables que definen el proceso de reverberación son tan diversas que es muy difícil crear dos
recintos más o menos amplios con una misma acústica.

Aparte de las variaciones atmosféricas (temperatura, humedad, viento...) que afectan a la


velocidad de propagación del sonido y por tanto influyen también en el fenómeno de la
reverberación, existen una serie de variables arquitectónicas básicas que definen en gran medida
el tipo de reverberación que se produce en cada recinto como pueden ser las dimensiones y la planta
de la sala o los materiales que revisten las paredes. Estas variables forman parte básica de los
parámetros que rigen los procesadores digitales de efectos como veremos un poco mas adelante.

Algo de historia

Esta claro que el fenómeno de la reverberación vinculado a la Arquitectura o a la Acústica de


Recintos no es algo nuevo, las catedrales góticas son un claro ejemplo de que muchas culturas han
“manejado” e incluso dominado la acústica de recintos pudiéndonos remontar incluso a
civilizaciones tan antiguas como los sumerios. Pero lo que realmente nos interesa es como recrear
esas condiciones acústicas en nuestro estudio.

Dejando a un lado las grabaciones en directo realizadas en teatros y auditorios (aprovechando la


acústica propia de los recintos y los grandes estudios de radio de los años 20 y 30, precedente
obligado de los estudios de grabación y que en muchos casos se construían sobre antiguos teatros o
imitando a estos), el camino hasta los actuales procesadores digitales de efectos no ha sido fácil.

El primer paso, allá por 1930, fue la creación de cámaras de reverberación, habitaciones o salas
de grandes dimensiones (hasta 100m3) normalmente con las paredes vacías y con un
funcionamiento relativamente simple. Un altavoz emite el sonido original desde un punto
determinado de esa sala y un micrófono omnidireccional recoge el sonido reverberado de la sala.
Las variables o parámetros son relativamente simples, el modelo de altavoz y micrófono y su
colocación en la sala. Con el tiempo se fue experimentando con nuevos materiales colocados o
distribuidos por la sala para intentar modular las características del sonido reverberado.
Camara de reverberación variable de los Estudios DISCOREY en Monterrey (Mexico, 1974)

La reverberación magnética fue el siguiente paso. Nos encontramos en la década de los 50 y el


Rock & Roll empieza a hacer furor en el mundo de la música y los magnetofones se han instalado
definitivamente en los estudios de grabación de todo el mundo. Probablemente fruto de la
experimentación surge el primer procesador electromecánico de efectos. Como supongo que sabéis,
los magnetofones poseen tres cabezales, borrado, grabación y reproducción, separados por una
cierta distancia. Esta separación provoca un retardo entre la señal que se graba y la que se
reproduce, de forma que si mientras grabo un instrumento en el magnetófono levanto el canal de la
mesa donde tengo conectado la salida del magnetófono, estaré añadiéndole la misma señal pero
retardada. Es decir, lo que hoy llamamos un delay. El tiempo de retardo depende de la velocidad de
la cinta y de la distancia física entre los cabezales que cambia de un fabricante a otro. Si además
disponía de la función de variación de velocidad (pitch) podías modular el tiempo de retardo a tu
voluntad. Aún hoy en las emisoras de radio y en algunos estudios de grabación se pueden encontrar
magnetófonos de la marca REVOX que ha sido un autentico estándar en los magnetófonos de _ de
pulgada bipista y con los cuales se han creado los efectos y Reverbs de la gran mayoría de cuñas
publicitarias de los últimos treinta años. Solo la informatización de las emisoras de radio ha
conseguido relegarlos, aunque os puedo garantizar que aún hoy algún técnico de la vieja escuela
suele usarlo como procesador de efectos como si de un elemento más de su rack se tratase.

ELOTTRONIX - Procesador VST desarrollado por ELOGOXA que emula el efecto “Flippertronix”
creado por Robert Fripp y que simula dos STUDER REVOX B77 haciendo un loop continuo

Las cámaras de muelles y las placas de eco fueron otros sistemas de reverberación natural
aprovechando las cualidades físicas del metal, en especial el acero para retardar la señal
(lógicamente cualquier metal es mucho más denso que el aire) y para crear reverbs mediante
vibraciones sobre una placa recogidas por un micrófono piezoeléctrico.

Con las primeras unidades de retardo electrónico basadas en dispositivos de transferencia de


carga constituidos por filas de transistores “Mos”, a principios de los 80 se abrió el campo de las
reverberaciones artificiales cuyo funcionamiento era similar al de los actuales procesadores
digitales pero sin conversión A/D. Si bien cayeron muy pronto en desuso, son el precedente directo
de la mayoría de las unidades digitales que hoy conocemos.

Procesadores digitales de efectos

Hoy en día los procesadores digitales de efectos, tanto en Hardware como mas recientemente en
aplicaciones software, forman parte fundamental de cualquier Estudio de Grabación y por extensión
de cualquier producción musical. Reverb, delay, flanger, phaser, chorus o vocoder forman parte de
nuestro vocabulario actual a la hora de diseñar un sonido. Pero, ¿realmente somos capaces de
definir su funcionamiento o simplemente asociamos esas etiquetas a un resultado sonoro que
preestablecemos como explicación?

La inmensa mayoría de las veces, nos acogemos mas bien a la segunda opción. Ese
desconocimiento de las bases teóricas que rigen y modulan estos efectos es nuestra principal
limitación a la hora de experimentar con nuevas formas sonoras, reduciendo nuestra capacidad
experimental a girar los diferentes potenciómetros, analógicos o virtuales, con la esperanza de
acertar con algo diferente. Algunas veces, este rudimentario sistema trae consigo resultados
realmente interesantes, pero la mayoría de las veces terminamos como “gallinas sin cabeza”
correteando de un lado a otro sin saber de donde venimos o a donde vamos, concluyendo en un
hastío experimental que acaba en el momento en el que nos rendimos y cargamos el mismo preset
que tantas veces nos ha dado un resultado aceptable pero que condena nuestras producciones a la
vulgaridad sonora.

MODOS OPERATIVOS

Antes de iniciarnos en este farragoso viaje a través de tipos de procesadores, parámetros,


nomenclatura, o presets, creo que es más que necesario tener claro de que forma y manera vamos a
cargar estos procesadores en nuestra mezcla, ya que en gran medida depende de ello el resultado
final.

· Seco o Mojado
Aunque parezca un anuncio de pañales, Seco o Mojado sería la traducción al castellano de los
términos “Dry” y “Wet”. El término “Dry” (Seco) hace referencia a la señal original que entra en el
procesador, es decir, la señal sin procesar. En un lenguaje menos técnico se suele denominar “señal
limpia” en contraposición a “señal procesada”. Algunos fabricantes también se refieren a esta señal
como “Direct” o como “Input”.

El término “Wet” (Mojado) se refiere a la señal una vez aplicado el procesador. A veces, sobre todo
si se trabaja con procesadores Hardware, se suele confundir con la señal que sale del procesador, lo
cual no es correcto. La explicación es simple, la mayoría de los procesadores de efectos incorporan
la posibilidad de mezclar la señal original con la procesada, con lo cual la señal resultante no tiene
por que coincidir con la procesada.

La opción “bypass”, en el ámbito operativo actúa como un conmutador que activa o desactiva el
procesador, de forma que nos permite comparar la señal original con la resultante.

Hay algunos fabricantes que en vez de usar los términos Dry y Wet, utilizan un parámetro que
suelen denominar “Mix” y que se expresa en porcentaje (%) de señal. Realmente este parámetro lo
que esta modulando es la relación existente entre la señal original y la procesada. Esta característica
es común a muchos procesadores de efectos software.
Normalmente, los procesadores también nos permiten realimentar el sistema, es decir volver a
enviar la señal procesada para que vuelva a ser procesada de nuevo. Es el llamado Feedback,
(realimentación) que viene expresado a su vez en porcentaje de señal. Hablando en cristiano para no
perdernos, determina que cantidad de señal volvemos a procesar en el sistema. Por eso cuando
movemos este parámetro hasta el 100% lo que sucede es que estamos creando un bucle de señal
cuyo resultado auditivo es, en el mejor de los casos, una distorsión realmente desagradable.

· Inserto o Envío
Aunque la mayoría de nosotros trabajamos con los llamados “estudios virtuales”, la nomenclatura y
los modos operativos usados en este tipo de aplicaciones de software provienen de los sistemas
analógicos tradicionales. Es el caso de los insertos (inserts) y envíos (sends).

Un inserto es, básicamente, un punto en la cadena de audio donde la señal puede ser enviada a un
procesador externo de la mesa y retornada a ese mismo punto una vez procesada. Esto implica que
la señal original se transforma por completo. En este caso para determinar la relación entre la señal
original y la procesada solo lo podemos realizar desde el propio procesador de efectos. Una vez
retornada la señal al punto de inserto no se puede disociar.

El envío es un concepto que se suele asociar al término “auxiliar”. Realmente se trata de una salida
auxiliar del canal de la mesa, que nos permite enviar la señal a un procesador externo sin cortar la
cadena de audio. Es decir, en el canal de la mesa seguirá estando la señal original o seca. ¿Entonces
como incluimos en nuestra mezcla la señal procesada? Sencillo, retornaremos la señal procesada a
un canal de la mesa diferente, de forma que en el canal 1, por ejemplo, tendremos la señal original y
en el canal 24 tendremos la señal procesada. La relación entre ambas la determinaremos con los
Faders de cada canal. En algunas mesas digitales, cuando se usan los procesadores de efectos de la
propia mesa, el canal al que se retorna la señal procesada es fijo e invariable y se suele denominar
“return” (retorno). Un ejemplo es la Yamaha 01V donde los dos canales de retorno de efectos en
vez de modularse mediante un Fader como el resto de canales de la mesa, utilizan un potenciómetro
de botón.

La diferencia entre envío y envío auxiliar es mas bien poco clara por que depende en gran medida
de la nomenclatura que use cada fabricante. A grandes rasgos podemos decir que un Envío es
individual de cada canal y un Envío Auxiliar nos permite “routear” varios canales a un mismo
Envío. La mayoría de los fabricantes se refiere a los Envíos individuales como Envíos Directos
(Direct Output). Lo que definiría los Envíos Directos es que la señal se toma justo después del
previo de entrada a la mesa, antes de ser ecualizada o regulada por el Fader, lo que en términos
técnicos se define como PreEQ y PreFader.

Vista de Rack de Insertos y Envíos de la Consola MACKIE 24:8 Bus Series

PreEQ, postEQ, prefader y postfader


Estos conceptos creo que son un poco más sencillos. En algunas mesas, tanto digitales como
analógicas, y en algunos programas software, tenemos la posibilidad de elegir desde que punto de la
cadena de audio de la mesa queremos realizar el envío. Si seleccionamos un envío preEQ (Previo a
la ecualización) la señal que enviamos al procesador de efectos externo o interno de la mesa ira sin
ecualizar, en cambio, un envío postEQ (Posterior a la ecualización) implicará que la señal que
enviamos al procesador llevará la misma ecualización que la señal original.

Entiéndase que hablamos de la señal que enviamos, una vez que la señal pasa por el procesador y la
retornamos a la mesa podemos ecualizarla como cualquier otro canal de la mesa. A efectos
prácticos esto se traduce en que si en el canal de la señal original estamos usando una ecualización
mas bien correctiva (que tiene como objetivo corregir defectos o ruidos de la señal) el envío será
postEQ, de forma que la señal que le llegue al procesador de efectos no presente esas deficiencias
que intentamos subsanar en el canal original. En cambio, si la ecualización del canal original es mas
bien expresiva (que busca realzar o dar brillo a la señal en determinadas frecuencias) el envío será
preEQ por que es preferible ecualizar la señal una vez procesada en el canal donde retorne. Esta
aplicación practica es meramente orientativa, ya que existen multitud de excepciones y
posibilidades, la más simple es que nuestro sistema no nos permita elegir entre un envío preEQ y
postEQ.

Las opciones prefader y postfader funcionarían con la misma metodología. Un envío prefader
implica que la señal es tomada antes del fader del canal original, lo que se traduce en que las
diferentes variaciones del fader no le afectan. Por el contrario, en un envío postfader la señal esta
sujeta a las diferentes modificaciones del fader del canal original.

· Usos y Costumbres
A estas alturas mas de uno os estaréis preguntando “Este buen hombre ¿qué me esta contando de
Envíos, si a mí lo que me interesa es saber como hacerme una Reverb guapa para un tema que estoy
mezclando?”. Para que más o menos veáis la importancia del tipo de envío a la hora de aplicar un
Procesador de Efectos nos vamos a quedar con un ejemplo fácil.

Imaginemos un tema pop donde existe una voz principal y dos voces que van doblando esa voz o
haciendo coros. Además de jugar con la panoramización dejando la voz principal en el centro de la
mezcla stereo y abriendo mas o menos los panorámicos de los coros, un truco básico es alejar los
coros de la voz principal dando la sensación de que se encuentran mas atrás. Podríamos hablar de
darle mas profundidad a esos coros. Para ello usaremos una reverb (mas adelante veremos que tipo
de reverb nos puede interesar para esto). Lo normal a la hora de usar reverbs es utilizar un envío,
rara vez se utilizan Insertos que suelen destinarse mas bien a procesadores de dinámica o
ecualizadores externos donde es necesario procesar la señal por completo. Por limitación de medios,
solo puedo usar una reverb para las dos pistas o los dos canales con coros, por lo tanto en principio
prescindiré de los envíos directos (direct output) y usaré un envío auxiliar para que a un mismo
procesador pueda enviar la señal de dos canales. La señal procesada la retornaré, si las señales
originales ocupan los canales 12 y 14, pongamos al canal 18 de la mesa que me ha quedado libre.
Este efecto de profundidad se consigue reduciendo la señal original y dándole caña a la señal
procesada.

Cuanta menos señal original y más señal procesada, en este caso reverberada, mas sensación de
profundidad tendremos con respecto a la voz principal y por tanto del primer plano sonoro. A partir
de aquí será nuestro oído o nuestro criterio el que determine la profundidad sonora en la que
queremos sumergir las voces de los coros. Para conseguir este efecto, el envío deberá ser prefader.
¿Por qué? Sencillo. Si usamos un envío postfader, cuando bajamos los canales 12 y 14 que
corresponderían a la señal original estamos también bajando la señal que enviamos a la reverb, de
forma que bajamos también el nivel de salida. Con un envío PreFader independizamos la señal que
enviamos al procesador de forma que será mucho más fácil conseguir el efecto de profundidad
deseado.

Un par de matices rápidos al ejemplo. Como hemos comentado hace unos párrafos algunos
procesadores incluyen la posibilidad de mezclar la señal original con la procesada, para conseguir
este efecto lógicamente a la hora de confeccionar o de cargar el preset de la reverb es necesario
desactivar o mutear esta opción de forma que la señal que sale del procesador de efectos es solo la
señal reverberada. El otro matiz tiene que ver con el aumento de volumen, si a una señal original le
sumamos la señal reverberada la resultante tendrá un volumen superior lógicamente a la señal
original por lo cual tendremos que retocar ligeramente los volúmenes de la mezcla de voces.

La ventaja de utilizar este truco (por otro lado muy simple) es que para crear los planos sonoros
entre las voces no hay que recurrir a modular los volúmenes de forma exagerada. Dándole
profundidad a los coros nos permite que tengan un volumen muy superior, incluso de primer plano,
que tendrían si no las hubiésemos alejado mediante la reverb. De esta forma ganamos sonoridad y
presencia de todas las voces en la mezcla final y lo que es más importante, esa sensación de
“empaste” que muchas veces echamos de menos.

Reverbs

Probablemente sea el procesador de efectos más habitual en cualquier tipo de producción


independientemente del estilo musical en el que nos movamos. A priori, el uso o la utilización de
las reverbs es la simulación de un recinto acústico concreto modelando este recinto mediante una
serie de parámetros. Pero en muchos casos es más bien una herramienta de creación y modelado de
nuevos sonidos que nos permite enriquecer o personalizar un sonido o una pista completa.

Quizá el único dogma técnico existente y donde parece que hay cierto consenso entre técnicos e
ingenieros es que es extremadamente complicado variar o eliminar la reverb natural de un
sonido grabado. Desde luego existen posibilidades pero los resultados rara vez son óptimos. Por
eso la tendencia en el acondicionamiento acústico de salas de grabación es a crear espacios “sordos”
o “secos” donde el sonido tenga una reverberación mínima y luego, en la mezcla, recrear mediante
procesadores digitales el entorno sonoro más adecuado a nuestra producción. Aunque bien es cierto
que grandes estudios o por lo menos con grandes medios, suelen disponer de alguna sala “brillante”
o “semi-brillante” destinada principalmente a la grabación de percusiones e instrumentos acústicos.

Hay quien piensa que la sonoridad que produce un buen diseño acústico de una sala es de difícil
recreación mediante procesadores digitales ya que estos tienden a ser muy metálicos o irreales. Y
probablemente no les falta su parte de razón, pero conseguir esa acústica de sala perfecta no es fácil
y sobre todo, no es barato.

En el uso y utilización de reverbs habría que comenzar por los casos donde es necesaria. Cuando
solo disponemos de una sala “seca” y afrontamos grabaciones mas o menos clásicas como puede ser
un solo de piano o de guitarra, un cuadro flamenco o grabaciones de música clásica y opera, es
necesario crear una atmósfera común que simule un recinto real con unas condiciones acústicas
óptimas. En estos casos se suele usar un mismo procesador para toda la mezcla o varios
procesadores con unas configuraciones muy similares, para que se cree esa atmósfera que la propia
grabación te pide.

Por extensión serán los instrumentos acústicos los que casi demandan la utilización de una reverb.
La guitarra española es un claro ejemplo. Es un instrumento que podríamos declarar “agradecido”
al uso de reverbs que le dotan de la sonoridad natural que tiene el instrumento y que a veces se
pierde en el registro o la grabación. Además, con el uso de reverbs muy cortas (tiempo de
decaimiento o decay muy bajo) le confiere una sonoridad que parece “engordar” el sonido. El uso
de las reverbs así como de otros procesadores digitales esta íntimamente relacionado al tempo del
tema musical. Un tempo mas bien lento como puede ser un adagio nos permite usar Reverbs muy
largas (tiempo de decaimiento o decay con valores muy altos). En cambio, ese mismo tiempo de
decaimiento tan largo en una producción muy viva o veloz (alegro), puede fácilmente emborronar
demasiado la ejecución del intérprete y probablemente también la mezcla. En el apartado dedicado
a las unidades de retardo o delay profundizaremos en el tema de la sincronía tempo-efectos.
MASTERVERB - Reverb Software VST y DX desarrollado por WAVE ARTS

Una referencia habitual en los libros y manuales técnicos se refiere al espectro sonoro de los
instrumentos o incluso de la pista para modular los parámetros de una reverb. Parece claro que
las frecuencias más graves se propagan de una manera mucho más abierta y lenta que las agudas
que tienen una propagación mucho mas rápida y direccional. Pues bien, según este criterio para
instrumentos o sonidos muy graves, el uso de estos procesadores debe centrarse simplemente en
“engordar” el sonido mediante programas muy cortos o en muchos casos no usar ningún tipo de
reverberación. La razón esta en esa misma capacidad de propagación que con el uso de Reverbs
puede enturbiar el sonido y por tanto la mezcla. Por el contrario, los instrumentos o sonidos muy
agudos son mucho más receptivos al uso de procesadores de efectos, no solo reverbs, ya que tienen
la claridad necesaria para el lucimiento de los efectos sin que enmarañe la mezcla. Como ejemplo
de este criterio aplicado de forma consciente o inconsciente es el bombo o el bajo. Es realmente
difícil encontrar producciones donde se hayan aplicado programas de reverberación largos a estos
instrumentos. De todas formas, todas estas consideraciones son meras orientaciones puesto que la
capacidad de experimentación en un técnico o en un productor deben estar por encima de dogmas o
principios y su oído debe ser el juez supremo.

Al igual que hablábamos de la querencia de la guitarra española sobre este tipo de procesadores, es
aplicable a la mayoría de instrumentos acústicos como puede ser piano, la familia de los metales
(trompeta, trombón, saxo), maderas (flauta y clarinete), pequeña percusión y cuerdas (violín y
viola), con la excepción de cello y contrabajo que necesitan un tratamiento muy cuidadoso para no
perder la definición tan completa que suelen tener ambos instrumentos. En la mayoría de estos
instrumentos se tiende simplemente a recrear un espacio sonoro donde puedan destacar sus propias
propiedades tímbricas y solo en raras excepciones se busca modificar el sonido original mediante el
uso de reverbs.

El caso de la batería acústica es bastante más complejo en gran medida por que claramente
abandonamos una estética mas bien clásica y nos adentramos en nuevas formas de expresión técnica
donde la creatividad sonora es parte fundamental del proceso. El bombo, debido a su forma y
propiedades físicas no suele necesitar del uso de reverbs, aunque si en la grabación se han usado
reductores de ruido que han diezmado en exceso el decaimiento natural del instrumento es
recomendable usar programas muy cortos para redondear el sonido aunque no suele ser lo habitual
por que el resto de pistas de la batería suele recoger también parte del sonido del bombo. El caso de
los timbales es similar aunque cuanto menos diámetro tiene el timbal o tom, mas demandaría una
reverb tipo hall, room o stage con un decaimiento inversamente proporcional a su diámetro. Influye
mucho que normalmente los toms son instrumentos de corte sin una carga rítmica constante con lo
que se puede ganar mucha sonoridad mediante programas más largos ya que no enturbian tanto la
mezcla como ocurriría en el caso del bombo. Para el tratamiento de platos y charles se tiende a usar
programas tipo plate que como veremos son muy metálicos y lógicamente resaltan la sonoridad de
estos instrumentos. La caja es el caso más complejo. De su sonido depende en gran medida la
identidad musical de la producción que estamos mezclando y la variación que puede producirse a la
hora de usar un programa u otro es tan amplía que es muy difícil marcar una pauta que nos pueda
servir de base. Algunos autores indican un programa tipo plate como punto de partida, pero esta es
una apreciación que no es muy afortunada en algunos estilos musicales.

En sintetizadores y samplers, la utilización de procesadores de efectos, no sólo reverbs, forma


parte del proceso de creación de un sonido. En este sentido es complicado sentar alguna base de
trabajo.

Algo similar ocurre con la guitarra eléctrica, cuyo amalgama de posibilidades sonoras relacionan
íntimamente el uso de procesadores con el sonido que el intérprete busca. Existe la creencia mas o
menos generalizada de que un sonido más analógico y cálido es mas bien seco y que las reverbs y
otros efectos implicarían otra concepción musical más fría o digital. Aunque esto no siempre es así
y dependería del tiempo de decaimiento de los efectos.

El caso de la voz humana es un poco particular. Como ya vimos, tenemos que partir de la base que
a nosotros mismos nos escuchamos con una reverb natural generada en la cavidad bucal que actúa
como cámara reverberante y cuyo sonido se transmite por las mandíbulas y otros conductos hasta
nuestros oídos. Esa es la causa principal por la cual la primera vez que escuchamos una grabación
de nuestra voz no suena “raro”. De hecho hay muchos interpretes que incluso para ensayar o para
grabar necesitan escucharse con mucha reverb. Algo que también sucede de forma natural en
cualquier ducha o lavabo cuyas paredes estén recubiertas de azulejos. De ahí que lo de cantar en la
ducha tenga mucho sentido. Además, no será el primer estudio de grabación que ha usado los aseos
como sala brillante. Por lo tanto parece claro que toda voz debe llevar algo de reverberación. Otro
tema es que esa reverberación se deje notar o tan solo sirva para “engordar” o dar empaque a la voz.
Dentro del apartado de “dejarse notar” desde luego me quedaría con la reverb de 7 segundos,
perfectamente estudiada, con la que Julio Iglesias deleita a sus feligreses en sus recitales.

Parámetros Principales

· REV TIME (Tiempo de Reverberación) es el tiempo expresado en segundos o fracciones de


segundo que es necesario para que el nivel de reverberación disminuya unos 60dB convirtiéndose
en inapreciable.

· PRE-DELAY o INITIAL DELAY es el tiempo que transcurre desde que llega el sonido directo o la
señal original hasta que llegan las primeras reflexiones que corresponden a la pared opuesta a la
fuente de sonido. Suele variar entre 0 y algunos cientos de milisegundos. Cuanto mayor sea, más
grande parecerá la sala simulada, al dar la impresión de que la pared opuesta esta mas alejada.

· EARLY REFLECTIONS primeras reflexiones o reflexiones primarias, en algunos procesadores


permite desactivarlas. En principio son las que mayor carga sonora poseen y que más cerca de la
señal original se situarán.
TRUEVERB Reverb TDM desarrollada por WAVES

· REV DELAY es el tiempo que transcurre entre las primeras reflexiones y el inicio de la
reverberación.

· DIMENSION nos permite configurar las dimensiones del recinto. En algunos casos viene
expresada directamente en metros cúbicos, aunque algunos modelos permiten configurar por
separado la anchura (WIDTH), la altura (HEIGHT) y la profundidad (DEPHT). También suele
aparecer como ROOM SIZE que siempre va expresado en metros cúbicos.

· DIFUSSION esta relacionada con el contenido de una supuesta sala, es decir si es una sala llena o
vacía. Cuanto mayor sea más rica y compleja será la reverb.

· DENSITY determina la densidad de las reflexiones, entendiendo por densidad, el numero y


secuencia temporal entre todas las reflexiones que componen la reverberación. Cuanto más alta es
la densidad mas “pesada” o contundente será la reverb.

· LIVENESS está relacionado con los materiales con los que van revestidas las paredes de la sala.
Realmente expresa la vivacidad de la sala. Si queremos simular una sala con paredes de piedra el
valor será muy alto, mientras que si queremos una sala mas muerta como si hubiese moqueta en las
paredes, su valor será ciertamente muy bajo. Hay que tener en cuenta que este parámetro tiende a
actuar solo sobre las frecuencias más agudas.

Presets más habituales

· HALL - En principio simula una gran sala, tipo auditorio. Suelen ser bastante largas y poco densas.
Hay fabricantes que distinguen entre SMALL HALL o LARGEST HALL.

· ROOM - Simula las condiciones acústicas de una sala pequeña o una habitación.

· PLATE - Realmente es una reverberación mecánica, como si colocásemos una plancha metálica
frente a la fuente de sonido, de forma que sobre todo las reflexiones primarias son muy brillantes.
· CATHEDRAL - Intenta recrear las condiciones acústicas de la típica catedral gótica, una reverb
muy larga y densa llena de matices y poco recomendable para las mezclas por que tiende a
enturbiarlo todo.

· BATHROOM - Como su nombre indica, simula las condiciones de un cuarto de baño típico, un
espacio mas bien reducido y muy brillante puesto que las paredes son de azulejo y ya se sabe de las
propiedades acústicas de la bañera. Hay fabricantes que también incluyen una variante STATE
BATHROOM, que viene a ser un baño de grandes dimensiones.

Procesador Hardware Multiefectos TC ELECTRONICS M6000

· TEATHRE - En teoría simula las condiciones acústicas de un teatro, aunque en la práctica viene a
ser una reverb hall un poco menos densa y matando un poco las reflexiones primarias.

· STUDIO - En principio un estudio no debería tener ningún tipo de reverb, pero algunos fabricantes
incluyen un preset donde han dejado las reflexiones primarias y han eliminado el resto. Incluso
diferencian entre STUDIO A y STUDIO B, cuya diferencia viene a ser las dimensiones del estudio.
Aunque otros fabricantes usan configuraciones distintas.

· VOICE ROOM - De verdad que hay fabricantes osados en esto de hacer presets, en principio es
una reverb tipo ROOM adaptada para voz (?) Pero no queda ahí la cosa, también te puedes
encontrar DRUMS ROOM o GUITAR ROOM.

· MILLENIUM - Es similar a la CATHEDRAL pero incluyendo muchos más retardos. No simula


ningún tipo de recinto conocido, es muy espectacular aunque poco práctica.

· Por último algunos fabricantes en determinados modelos (por ejemplo en la Yamaha 01V)
incluyen diseños particulares para cada instrumento para que no tengas que pensar mucho: HIT-
HAT, TOM1, TOM2, SNARE, CRASH, etc, etc...

Delay: unidades de retardo

Dejando a un lado su utilización en la sonorización de eventos y espacios, lo que se denomina


“refuerzo de sonido” o “Public Address” (P.A.), las unidades de retardo o delay son una
herramienta muy potente en aplicaciones musicales.

Como vimos en la introducción a los principios teóricos al principio de este artículo, la definición
de eco (echo) vendría dada por la capacidad de nuestro oído de diferenciar la señal original de la
reflejada y por lo tanto, según el efecto Haas, el retardo mínimo deberá ser superior a 50
milisegundos. En la práctica, hablamos de delay para referirnos a cualquier retardo sobre la señal
original y a eco (Echo), cuando este retardo si que es identificado por nuestro oído como una señal
diferente a la original.
SPINDELAY - Delay Stereo VST desarrollado por SPINAUDIO

Hay que distinguir dos vertientes del efecto, el llamado eco simple, donde la señal sólo se dobla una
vez y que simplemente retarda la señal respecto a la original, y el eco múltiple. En el eco múltiple
hay que definir cual será el tiempo de realimentación (feedback delay), el numero de veces que se
va a producir la realimentación (a veces se expresa en % de señal) y el nivel de salida.

Pero para que un delay o eco múltiple se integre perfectamente en nuestra mezcla hay que pensar
que es un elemento rítmico más de la producción y que su uso debe ser sincrónico al tempo y
compás del tema musical. Para calcular esta sincronía en los retardos, podemos tirar de calculadora
o bien, recurrir a las tablas de retardos sincrónicos que nos muestran las relaciones entre la
velocidad del tema y el tiempo de retardo, si queremos que nuestro delay sea a negras o bien a
corcheas, tresillos, semicorcheas, etc... Un ejemplo a 120 b.p.m. el retardo expresado en
milisegundos en negras será de 500, en corcheas 250, en tresillos 166,6 etc...

- [ Bájate aquí una tabla de delays en formato Excel ]

Hoy en día muchos procesadores de efectos incluyen esta función en sus procesadores donde
defines el tempo musical del tema y el valor de duración de la nota que representará el delay.

El empleo de delays se ha centrado tradicionalmente en guitarras como apoyo rítmico y en menor


medida en teclados y sintetizadores. En el caso de las voces se ha usado para doblar la voz
principal aunque hay ejemplos de muchas mezclas que revelan que es una herramienta creativa con
infinidad de posibilidades pese a su simplicidad. Quizá sea debido a que es un efecto que se deja
notar, que al oído no le pasa inadvertido. Y esta virtud le permite asociarse con otros procesadores
de forma que si aplicamos un delay simple a una reverb conseguiremos que esa reverb se deje notar
de una manera más evidente, dependiendo del tiempo de retardo. Y viceversa, si al usar un retardo
múltiple insertamos después una reverb, la sensación de “empaste” del delay será mayor.

DDBPM - Doble Delay Sincronico desarrollado por DSOUND para VST

Uno de los programas más curiosos es el delay ping-pong, un programa múltiple donde cada
repetición se panoramiza a un lado de la mezcla, creando un efecto de cruce estéreo entre las
repeticiones. Hay algunos procesadores que usan etiquetas como slap, short, medium o long, que
hacen alusión a los tiempos de retardo, teniendo siempre en cuenta que para hablar de eco (Echo)
hay que moverse en valores superiores a 50 milisegundos.

Efectos de modulación: chorus, flanger y phaser


Son los efectos que afectan a la modulación en frecuencia de las señales. Esta modulación se basa
en las diferentes sensaciones que percibe nuestro cerebro en función de las diferencias de volumen,
afinación o procedencia de la música. Las señales son repetidas con un ligero retardo y sometidas a
una pequeña variación de frecuencia.

· CHORUS: Es un efecto que persigue dar mayor profundidad a la señal tratada dotándola de una
sensación de profundidad. Se suele aplicar para engordar o engrandecer las secciones de cuerda,
teclados o guitarras. Básicamente se trata de dividir la señal tratada en tres señales diferentes que se
colocan en el centro, izquierda y derecha del panorama estéreo. Cada señal es retrasada ligeramente
por un oscilador de baja frecuencia (LFO) para que las variaciones de tono sean mínimas.

· FLANGER: Es un efecto típico de las guitarras eléctricas. Se logra efectuando una combinación
de retardo y oscilador de baja frecuencia. Los valores de ese retardo oscilan entre 1 y 15 ms y la
baja frecuencia entre 0,03 y 1 hz. Para obtener el efecto, una parte de la señal de baja frecuencia se
ingresa en el circuito de retardo sumándose a la señal directa. Su funcionamiento se basa en un
ligero retardo que se alterna constantemente con la modulación producida por el LFO, consiguiendo
un cambio de fase de la señal procesada con la original. Es necesario que ambos niveles de salida o
de mezcla, original y procesado, sean similares y se consigue una mayor expresividad cuanto mayor
sea el espectro de frecuencias tratado.

· PHASER o PHASING: Hay quien opina que es una versión suave del flanger, pero básicamente
se trata de invertir la frecuencia de la señal procesada respecto a la original y retardarla ligeramente
lo que provoca cancelaciones continuas de la señal y un efecto muy concreto y también muy
apreciados por guitarristas y guitarreros.

· TREMOLO: Es un efecto muy similar al producido por un programa chorus, pero mucho más
marcado, tanto en la profundidad como en la variación del retardo. Clemente Tribaldos en su libro
“SONIDO PROFESIONAL” (ED Paraninfo 1993) lo define como “una modulación cíclica y
aleatoria de la señal de entrada, pudiendo controlar el retardo introducido...” ahí es nada.

Procesador Hardware Multiefectos YAMAHA SPX 1000

Otros tipos de procesadores

Vocoders
Se trata de un efecto muy característico en las producciones ochenteras de Pink Floyd o Tangerine
Dream y más recientemente, el tema “Believe” de Cher. Se trata de dividir la señal mediante una
red de filtros pasa banda en un determinado numero de bandas muy estrechas en distintas
frecuencias, por lo que podemos acceder a modificar el ancho de banda o actuar sobre los
armónicos centrales, modificando las características de la señal tratada. Es un efecto muy complejo
que utiliza osciladores y generadores de ruido y cuya resultante es realmente particular.

Efectos de Tono: Pitch y Octaver


Realmente han quedado un poco trasnochados con la llegada de procesadores digitales por software,
pero la mayoría de los multiefectos siguen incorporándolos. El Octaver, como su nombre indica
permite disminuir una o dos octavas la señal original y ha sido muy usado en guitarras y bajos.
Pitch Blend o Pitch Change es una aplicación que cualquiera manejamos en un Editor de audio y
que nos permite realizar ajustes de afinación en la señal original. Ahora bien, si usamos estos
efectos con un cierto delay o retardo, mezclando la señal procesada con la original, los resultados
pueden ser sorprendentes. Un ejemplo seria aumentar una octava una pista de voz, darle un delay
corto y un programa de reverb con poca densidad.

Efectos de timbre: Overdrive y Excitadores


El Overdrive o distorsión es un efecto característico de las Guitarras Eléctricas y por extensión, de
los Pedales o Pedaleras de Efectos. Como su nombre indica, se trata de producir una distorsión al
sonido que lo convierte en agresivo y potente. Lo más habitual es que nos permita seleccionar el
rango de frecuencias que someteremos a la distorsión y el grado de la misma.

Hablar de Excitadores es hablar de APHEX que ya en 1975 introdujo en el mercado el primer


excitador aural. Estos procesadores tienen una doble función, actúan sobre las frecuencias medias y
agudas generando armónicos y realzándolos y por otro lado amplían, de una forma aparente, el
espectro estéreo enmascarando la escucha. Esta supuesta ampliación se debe a que estimulan los
procesos pisco-acústicos de la escucha humana para crear ese efecto.

Trabajando con procesadores

A lo largo de las explicaciones hemos ido introduciendo algunos trucos y aplicaciones, mas bien
simples, de uso y utilización de diversos procesadores de Efectos. Reconozco que muchas veces es
complicado salirse de los presets y programas habituales e intentar buscar nuevos sonidos que le
den personalidad a nuestra mezcla. Supongo que en cierta manera, al igual que con los
ecualizadores, existe una tendencia correctiva y otra expresiva a la hora de aplicar determinados
procesadores.

Dentro de esa tendencia correctiva incluiríamos por ejemplo, recrear unas supuestas condiciones
acústicas de las que carece nuestro Estudio o dotar de mas peso o rotundidad a una voz solista.

En la tendencia expresiva irían todas las configuraciones dirigidas a conjugar mejor los sonidos en
una mezcla, utilizando los procesadores a la hora de efectuar planos sonoros o ampliar el espectro
estéreo de un instrumento.

Quizá uno de los errores o carencias mas habituales es utilizar los procesadores de una forma
aislada. Probablemente el secreto para personalizar el sonido de una mezcla o de una pista esta en
utilizar varios procesadores en cadena combinándolos con ecualizadores y procesadores de
dinámica. Ejemplos hay muchos, desde la clásica reverb de caja sesgada con una puerta de ruido
(noise gate) al estilo Phill Collins hasta la última moda Pop de doblar la voz mediante un delay
simple sincronizado y filtrado por un Ecualizador que simule el sonido de los antiguos receptores de
onda media (AM) con un programa de reverb largo y poco denso. Desde luego las posibilidades son
infinitas ya que en este caso el orden de los factores si que altera el sonido final. No es lo mismo
ecualizar una señal reverberada que reverberar una señal ecualizada, aunque en algunos casos el
resultado final puede ser muy similar, en otros las diferencias son muy evidentes.

El otro gran error es el abuso de efectos y procesadores que a veces llega a desvirtuar el sentido
musical de un tema rebajándolo a un mero ejercicio o demostración técnica. La frontera entre el uso
y el abuso, en ocasiones, es muy fina y en el fragor de una mezcla es fácil dejarse llevar por la
experimentación y la tecnología. Por eso siempre es positivo dejar enfriar una mezcla e intentar ser
críticos a la hora de retomarla.

10 consejos rapidos

1. La mejor reverb del mundo no es siempre la más espectacular, sino la que mejor se adapta a tu
mezcla o al estilo musical que estas mezclando.

2. Los presets son como la comida rápida, están bien cuando tienes poco tiempo y necesitas algo
rápido, pero donde este un buen entrecot a la brasa con una buena guarnición asado con tiempo y
paciencia, que se quite un Big Mac. Aunque a veces, por no cocinar, apetezca más un Mac Menú y
otras que, con tanto tiempo y paciencia, se te queme el entrecot.

3. Ten siempre en cuenta que una pista o un instrumento va integrado en una mezcla de forma que,
aunque pueda parecer que esta muy alto el efecto, luego en la mezcla apenas se deje sentir y
viceversa. Por eso siempre es bueno escuchar como se integra el sonido procesado en la mezcla
para evitar sorpresas de ultima hora.

4. El mejor procesador de efectos no es siempre el más caro sino el que conoces mejor. Dominar un
procesador implica una capacidad mayor para encontrar con el efecto más idóneo para cada
ocasión, por eso no es necesario tener decenas de efectos diferentes en el ordenador. Con unos
pocos bien “crrados” se obtienen mejores resultados que con muchos que en algunos casos nos
viene justo para saber como funcionan.

5. El mayor pecado de un técnico es que su trabajo se deje notar. A la hora de diseñar un efecto
nunca esperes que el oyente piense “que reverb más estupenda ha insertado en tal pista”. Una
mezcla es un concepto global.

6. Los procesadores de efectos, como el resto de la tecnología, están al servicio de las ideas o
conceptos musicales. Cuando te dejas llevar y la música acaba por estar al servicio de la
tecnología, tu música acaba pareciéndose a la demo de cualquier fabricante, aunque hay que
reconocer que hay algunas demos que son autenticas joyas.

7. El volumen de escucha es fundamental a la hora de valorar un efecto. Si tienes los monitores


muy “cañeros” escucharas los efectos perfectamente. Pero sucede que el consumidor final de la
mezcla no tiene por que tener semejante volumen de escucha, mas bien al contrario, por lo que
siempre es positivo hacer una escucha con un volumen mínimo para ver como se comportan o como
quedan esos efectos en la mezcla. Por desgracia lo que antes era espectacular, a bajo volumen ni se
aprecia.

8. Sentarte a oír música y escuchar que han hecho otros incluyendo que tratamiento han dado a
sus pistas, es mucho más practico y constructivo que leer artículos como este en la red. Escuchar es
siempre la mejor herramienta de creación de que disponemos.

9. La ausencia de efectos también es un efecto. No te sientas obligado a partir de ahora a procesar


todas las pistas a diestro y siniestro, un sonido seco y limpio puede ser un efecto tan valido como la
mejor combinación de procesadores.

10. Lo que al final determina si un efecto es apropiado para una mezcla es tu criterio y tu oído.
Cuando te enfrentes a una mezcla de nada servirán ni libros, ni artículos ni siquiera consejos en los
Foros (que los hay muy buenos). Al final, lo que te queda es tu criterio y lo que tu oído escucha. El
resto, como este artículo o cualquiera de los de la amplia Biblioteca de Hispasonic, son meras guías
o consejos que pueden estar muy bien y ayudarte un montón, pero lo que cuenta es lo que escuchas
cuando le das al play del secuenciador o del multipistas.

Por Proty
Reverb inversa

Muchas veces habrás oído este tipo de efecto: una reverberación que va in crescendo y se
engancha con el sonido que la produjo, exactamente al revés de como actúa una reverb
normal, que nace a partir de un sonido y va decreciendo.

Evidentemente esto no puede hacerse a tiempo real; no hay reverbs que "viajen en el
tiempo" y se adelanten al sonido del que dependen. Pero la cosa es muy sencilla; abre tu
editor de audio y ten a mano la muestra sobre la que quieres hacer el efecto; vale cualquier
cosa, incluso mezclas completas. Con todo se puede experimentar; nosotros te daremos un
ejemplo tratando un sample corto de voz.

Tratando la muestra original

Escucha [aquí] nuestra toma original, antes de ser retorcida...

Como es un efecto que se utiliza a manera de "Reverse Cymbal", es decir, para dar una
entrada sorprendente y espectacular a un momento concreto, trabajaremos sólo sobre el
momento inicial de la muestra. En nuestro caso, haremos el efecto sobre la primera sílaba de
la frase "de nuevo vuelvo a vivir".

Cargamos esta muestra en el editor e insertamos una buena cantidad de silencio al


principio, dejando así espacio para que luego suene la cola de reverberación.

Dándole la vuelta y añadiendo reverb

Selecciona toda la onda y ejecuta la función reverse de tu editor de audio. Esto hará que
suene todo al revés, claro; la cosa da risa, pero es necesario...

Escucha [aquí] la toma en reverse.

Ahora haz una selección que empiece en el pedazo a procesar (en nuestro caso esa
sílaba) y que llegue hasta el final de la muestra tal como la tienes ahora. Como hemos dado la
vuelta a la onda, ahora el inicio original estará al final, seguido de los segundos de silencio
que aplicamos antes.

Con este segmento seleccionado, aplica reverb y guarda los cambios a la onda. Usa la
reverb que más te guste -cuanta más cola tenga, más tiempo durará el efecto y más silencio
deberás añadir previamente-. Recuerda: añade reverb sólo a la parte seleccionada.

Otra vuelta y... ¡al plato!

Selecciona ahora toda la muestra de nuevo. Ejecuta otra vez la función reverse para
poner las cosas en su sitio. Dale a play y... ¡ya lo tienes!

¡Ahora a practicar!

Por Xabier Blanco


La ecualización

La ecualización es una de las tareas de estudio más desconocidas; sin embargo, su uso es
fundamental para conseguir un sonido realista y natural. En este artículo partimos de lo básico y te
damos una visión general para que empieces a trabajar sobre ella.

Breve introducción al sonido: la frecuencia

El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Las ondas
generadas por la fuente sonora producen ciertas variaciones de presión en el medio (por
ejemplo, el aire o el agua), y esto es lo que permite que sean percibidas por el ser humano (si
bien no percibe cualquier variación; si es demasiado rápida o demasiado lenta no la
escuchará). Es por ello que en el espacio cósmico no hay sonidos, ya que falta el medio por el
que deben discurrir: en el espacio sólo hay vacío, y por ello no pueden haber variaciones de
presión audibles.

Partiendo de esto, podemos definir la frecuencia del sonido como el número de vibraciones
(ciclos) que produce una señal sonora por unidad de tiempo (el segundo). La unidad
correspondiente a un ciclo por segundo es el herzio (Hz). Las frecuencias más bajas en herzios
se corresponden con lo que habitualmente llamamos sonidos "graves?, sonidos de vibraciones
lentas. Las frecuencias más altas en herzios se corresponden con lo que llamamos "agudos" y
son por ello vibraciones muy rápidas.

Como hemos insinuado antes, el ser humano no puede captar cualquier vibración; el espectro
de frecuencias audible variará según cada persona, pero se acepta como media el intervalo
entre 20 Hz y 20 kHz. Así que en este rango de frecuencias existe todo lo que nosotros
podemos oír; más alla están los ultrasonidos (por encima de 20 Khz) y los infrasonidos (por
debajo de 20 Hz), que sí pueden captar algunos animales con un sistema auditivo más
desarrollado.

Cada instrumento musical, como cualquier otra fuente sonora, produce sonido en una zona
determinada de este espectro de frecuencias audibles; unos abarcan más espacio y otros
menos. Y aquí es donde entran los ecualizadores: estos dispositivos alteran la respuesta en
frecuencia de un sonido, aumentando o atenuando ciertas frecuencias.

Tipos de ecualizadores

Existen varios tipos de ecualizadores; el más simple es el de tipo shelving, que tiene
solamente control de graves y agudos; se encuentra en cualquier equipo común.
Normalmente, estos ecualizadores aumentan o atenúan 15 db en 100 Hz (graves) y en 10 KHz
(agudos), aunque pueden variar según cada modelo. Con un ecualizador de tres bandas
puedes ya aumentar o atenuar bajos, medios y agudos, también sólo en frecuencias fijas: por
ejemplo, en 100Hz (bajos), 2 KHz (medios) y 10 KHz (agudos).

Los ecualizadores semiparamétricos son los que te permiten elegir la frecuencia a ecualizar;
de esta manera puedes aumentar o atenuar las frecuencias que te parezcan convenientes. En
un ecualizador paramétrico tienes, además, la posibilidad de elegir el ancho de banda (rango
de frecuencias afectadas a partir de la elegida) que quieres aumentar o atenuar. Este
parámetro es conocido como "Q".

Por último, los más comunes son los ecualizadores gráficos, que van por lo normal desde 5
hasta 31 bandas de frecuencia fijas, aunque a veces te encuentras con aparatos más
complejos, con más bandas (en la foto que sigue puedes ver uno de 10 bandas por canal).
Los ecualizadores tienen básicamente estas dos aplicaciones:

Resolver problemas
Los ecualizadores se pueden utilizar como filtros, para atenuar o eliminar frecuencias que
molestan, ruidos o interferencias que se mezclan con el sonido. Por ejemplo, el hum producido
por una mala fuente de alimentación se reduce atenuando en 50-60 Hz aproximadamente. El
hiss, tan común en los cassettes, se puede disminuir atenuando las altas frecuencias. Por lo
general, los problemas ocurren en un rango determinado de frecuencias, por esto es que los
ecualizadores paramétricos son los ideales para este propósito. Otro problema común es el del
enmascaramiento: un instrumento con una resonancia o un pico en una frecuencia. Si bien
este instrumento suena bien solo, al mezclarlo con otros puede interferir en la claridad de
éstos, por lo que es recomendable atenuar estas frecuencias, comprimirlas o limitarlas.

Afectar a la personalidad de un sonido


Los EQ también pueden variar el carácter de un instrumento. Esto se logra alterando la
frecuencia fundamental o los armónicos, teniendo en cuenta siempre que si se alteras
todos los instrumentos por separado y luego los mezclan no se asegura un buen resultado de
la mezcla. Para ecualizar correctamente un instrumento puede servirte como guía nuestra
tabla referida al rango de frecuencias de los instrumentos musicales; para consultarla, pulsa [
aquí ].

Ideas para el uso práctico de los ecualizadores

Como norma general, a cada instrumento se le puede dar cuerpo aumentando su frecuencia
fundamental. Atenúa ésta si el sonido es muy grave o indefinido. Aumentando los armónicos le
das mas presencia y definición, así que atenúalos también si el sonido es muy violento. Por
otra parte, ten en cuenta que ecualizaciones extremas reducen fidelidad, pero pueden crear
efectos interesantes: por ejemplo, cortando bruscamente los graves y los agudos de una voz
se consigue el sonido telefónico.

Las siguientes son algunas sugerencias de frecuencias que puedes ajustar con los
ecualizadores. Si quieres lograr el efecto deseado, aumenta en esa frecuencia; si no lo quieres,
atenúala (en la foto, una EQ de Cubase configurada para reducir los hiss y hums de una pista
de voz).

· Bajo: Cuerpo y profundidad en 60 Hz, áspero en 600 Hz,


presencia en 2.5 kHz y ruido de cuerda a partir de los 3 kH.

· Guitarra acústica: Cuerpo en 80 Hz, presencia en 5 kHz,


sonido de púa por encima de 10 kHz.

· Guitarra eléctrica: Pegada en 60 Hz, cuerpo en 100 Hz,


estridente en 600 Hz, presencia en 2-3 kHz, latosa y rasposa
arriba de los 6 kHz.

· Batería: Cuerpo en 100 Hz, apagada en 250-600 Hz, trash de


1 a 3 kHz, ataque en 5 kHz, seca y enérgica en 10 kHz.

· Bombo: Cuerpo y potencia por debajo de los 60 Hz,


acartonado 300-800 Hz (corta de 400 a 600 para conseguir un
mejor tono), y el kick o ataque en 2-6 kHz.

· Percusión: Brillo y presencia en 10 kHz.

· Saxo: Cálido en 500 Hz, duro en 3 kHz, sonido de llaves por encima de 10 kHz.
· Voz: Cuerpo en 100-150 Hz (hombre), cuerpo en 200-250 (mujer), sonido nasal en 500-
1000 Hz, presencia en 5 kHz, y sonido de 's' arriba de 6 kHz.

¿Hay que usar los EQ cuando grabas o cuando mezclas?


Si se graban todos los canales por separado, lo que usualmente se hace es grabar con todos
los EQ planos y ecualizar durante la mezcla. Esta es la mejor solución, porque las cosas
cambian cuando se escuchan todos los instrumentos al mismo tiempo. Si, en cambio, tienes
que hacer premezclas antes de grabar, debes ecualizar antes de premezclar. También debes
saber que, en tomas de micro, antes de usar un EQ debes intentar lograr ese cambio de tono
cambiando de lugar los micrófonos. Esto le da un efecto más natural que utilizando el EQ. Para
acabar, recuerda que los EQ suelen trabajar mejor cuando se utilizan sutilmente (variaciones
de 2 o 3 db pueden ser suficientes).

El error más común es comenzar agregándole graves a todo; así la mezcla sonará grave y
turbia. Si haces eso podrías pensar que subiendo los agudos se arreglará el fiasco, pero verás
enseguida como los medios suenan débiles... y se descontrolará todo. Un buen consejo es
utilizar la EQ con bypass para ir escuchando y controlando la ecualización en todo momento.

· Tutorial cedido por Tamaba (Taller de Música y Arte de Buenos Aires) [


http://www.tamaba.com.ar ]
· Aumentado y adaptado por Xabier Blanco
La masterización

"La masterización es el arte del compromiso; saber qué es lo posible y lo imposible, y tomar
decisiones sobre lo que es más importante en la música"

Bob Katz

El proceso de masterización

Así pues, ¿qué es lo más importante en tu música? Quizás quieras destacar la voz, o a lo
mejor trabajas un estilo muy rítmico y quieres primar la presencia de los bombos y bajos. No
hay una misma regla para todos; tu música y tus oídos son los que mandan.

De cualquier modo, el proceso de masterización en general sigue unos pasos determinados;


nosotros seguiremos el esquema que marca una de las unidades de mastering más reputadas,
el TC Electronic Finalizer:

I1 e I2 se refieren a las inserciones de efectos que ofrece el Finalizer; hablando en general,


antes de pasar a la fase de compresión/limitación, lo normal es aplicar una EQ general e
incluso alguna puerta o de-esser para filtrar sibilantes o ruidos si están presentes.

Un punto vital a la hora de masterizar es tener unos monitores que ofrezcan nitidez y
precisión en el sonido. Si no escuchamos claramente todos los aspectos de la mezcla,
difícilmente e?corregiremos los errores y potenciaremos los aciertos; esto es particularmente
importante a la hora de ecualizar.

El mastering actual usa cada vez más los compresores y limitadores multibanda, que
afectan selectivamente a bandas de frecuencias seleccionadas. Son muy eficaces, pero su
manejo requiere cierta destreza y, aunque no lo notes al principio, los ajustes extremos
pueden provocar fatiga auditiva con más facilidad que en ajustes suaves, buscando mayor
naturalidad.

El TC Finalizer; un nombre realmente apropiado

<!-- pagebreak -->


La ecualización

Como sabes, la EQ puede cambiar el trazado espectral del sonido; sin embargo, el
mayor trabajo de EQ se lleva a cabo en la fase de mezcla, resaltando las características
deseadas de cada pista, equilibrándolas y situando cada cosa en su sitio sin producir confusión.
En el mastering, la EQ nos servirá para darle un toque final al material; si no has hecho un
buen trabajo con la EQ en la fase de mezcla, seguramente ya será tarde para corregirlo.
Repásate nuestro artículo sobre [ la ecualización ] si quieres recordar sus principios.

La EQ en la masterización tiene tres objetivos primordiales:

· Ajustar el nivel general de bajos, medios y agudos. · Hacer que el nivel general de esas tres
bandas de frecuencia suene más uniforme. · Atenuar ciertas frecuencias que causan
distorsión, o al revés, potenciar frecuencias que consiguen un sonido más natural.

Escucha atentamente la mezcla e intenta captar sus debilidades; ¿demasiado oscura y sin
aire? Haz pequeños ajustes en las frecuencias altas. ¿Poco cuerpo? Actúa sobre los rangos
medios. ¿Están demasiado embarullados los graves o retumban los subgraves? Haz cortes o
atenúa en esa zona. Como ves, no estamos hablando aquí de resaltar o solapar un
instrumento concreto o una voz; como hemos dicho, eso debe hacerse en la mezcla. Ahora
debes centrarte en el sonido general, considerado como un todo.

Un truco es que el contraste de rangos tiene un efecto interactivo; por ejemplo, una
pequeña atenuación en el rango inferior de medios (alrededor de 250 Hz) puede tener un
efecto similar que potenciar el rango de presencia (alrededor de 5 Khz). Otro truco es
restaurar el "aire" que puede ser perdido incluso dando cortes de medio dB a 7 Khz; esto
puede arreglarse a menudo aumentando el rango de 15 a 20 Khz; un cuarto de dB puede
solucionar las cosas.

No hay magia en esto; debes guiarte por tus oídos. Pero una buena manera de aprender la
ofrecen herramientas como el [Steinberg Freefilter], que "copia" los parámetros de EQ de una
onda dada y te permite usarlos en tus producciones. Escoge pues una mezcla profesional
e?que tenga características similares a la que tienes entre manos y pásale el FreeFilter; fíjate
en los parámetros resultantes y adáptalos a tu mezcla.

La normalización

Una vez que hemos ajustado la EQ, se habrán producido cambios en la ganancia general del
sonido. La normalización aumenta o reduce la amplitud general o nivel de loudness de una
señal a un punto seleccionado. Generalmente, sirve para llevar el pico de amplitud más alto de
la señal justo por debajo del nivel de distorsión (0 dB)

Normalizando conseguimos sacar el máximo partido del rango dinámico que dispongamos
(en audio digital, es mayor el rango de un archivo de 24 bit que el de otro a 16 bit). Sin
embargo, no afecta al rango dinámico relativo de la propia señal de audio; en otras palabras,
el rango dinámico entre el material de menor y mayor volumen de la propia señal queda
inalterable, pero la señal suena a más volumen en general (aumentan en la misma proporción
las partes de poco y mucho volumen). Para afectar a esa dinámica de la señal tendremos que
acudir a la compresión.

Señal sin normalizar (arriba) y normalizada (abajo)

<!-- pagebreak -->


El expansor

Un expansor funciona como una puerta y te ayudará a eliminar ruido de fondo. Prueba a
escuchar el principio de tu mezcla, ¿hay algún ruido de grabación o de cinta? Si tiene algo de
esto y quieres eliminarlo, utiliza el expansor de la siguiente forma: ajusta el ratio a 1:32 (esto
es, la profundidad del expansor). Ahora ajusta el umbral. El expansor comienza a funcionar
cuando la señal cae por debajo del punto de umbral; ve jugando con este parámetro mientras
reproduces la música desde el principio un par de veces, hasta que el inicio ya no contenga
ruidos. Si solo quieres eliminar el ruido de cinta, puede que sea suficiente con utilizar un
expansor multibanda en las bandas agudas.
El compresor

Un compresor añade pegada extra a tu material (en la foto,


el compresor del software T-Racks), dándole cuerpo y ajustando
la dinámica general. Si no estás familiarizado con los
fundamentos de la compresión, deberías leerte antes nuestro
artículo [ Aprende a comprimir tus señales ]; aunque está orientado al proceso de mezcla, los
principios del compresor son los mismos.

Un truco general para el ajuste del compresor a la hora de masterizar es este: busca el threshold aproximado en
primer lugar, con un ratio alto y un tiempo de liberación rápido. Asegúrate de que el medidor de reducción de ganancia
se mueve a medida que pasan las "sílabas" o partes que quieres afectar. Entonces reduce el ratio a un ajuste muy bajo y
coloca el tiempo de liberación a unos 250 ms para empezar. Ahora se trata de ajustar con precisión el ataque, liberación
y ratio, quizás con algún reajuste en el threshold; el objetivo es situar el threshold entre la dinámica mas baja y más alta,
de manera que haya una alternancia constante entre compresión alta y baja (o no-compresión) en la música. Y cuidado:
un ajuste de threshold muy bajo y un ratio demasiado alto hará que todo suene al mismo nivel constantemente.

Esto para los compresores simples; cuando estás aplicando una compresión multibanda
tienes que analizar con más detalle la señal a procesar; ¿hay demasiado extremo grave o
agudo, o demasiado poco? ¿Está el rango medio bien definido?

Si quieres realizar cambios en la relación global de las bandas grave, media y aguda usando
el compresor multibanda, tienes dos rutas a tomar:

· La primera forma es modificar los niveles de banda, usándolos como en un ecualizador ·


La segunda forma es comprimir individualmente las bandas. Es aquí donde oirás grandes
diferencias.

Como regla de oro, la banda grave actúa mejor con tiempos de ataque rápidos y con
tiempos de liberación algo lentos dado que las frecuencias graves tienen una longitud de onda
larga. En la banda de medios puedes usar prácticamente el mismo tiempo de ataque, pero el
tiempo de liberación debería ser algo más rápido dado que el oído humano es muy sensible en
esta zona. Si ajustas la liberación de medios demasiado larga sonará artificial. La banda de
agudos actúa mejor con un tiempo de ataque un poco más lento que en las otras dos bandas,
dado que esto permitirá que las transiciones de frecuencias altas pasen por el compresor. El
dejar que estos picos pasen por el compresor evita el que se produzca el sonido tensionado y
sobrecomprimido. El tiempo de liberación de la banda aguda debería ser rápido, como el de los
medios, por la misma razón, para aumentar la apertura del compresor.

El compresor multibanda software de Waves

El limitador
El limitador debe estar situado a continuación del compresor; esto implica que si usas el
compresor en ajustes extremos, harás que el limitador también vaya a tope. Déjale al
limitador un poco de espacio para hacer el trabajo para el que está pensado, que es sujetar
el nivel de vez en cuando.

Si haces que los niveles de salida del bloque de compresor queden demasiado cerca del
techo del limitador, tu mezcla sonará aplastada. Un uso racional del limitador, especialmente
usando los valores de ratio más suaves posibles, hará que tu mezcla siempre suene natural.

Notas finales

Utiliza tus oídos en todos los procesos; confía en ellos cuando te dicen que la mezcla suena
bien. Juega con el bypass para observar los cambios que producen tus ajustes. Descansa
cuando lleves demasiado tiempo trabajando en la mezcla; si te agotas perderás la noción de
las cosas importantes y cometerás errores.

Por Xabier Blanco


Técnicas avanzadas de masterización

Introducción

Hay quien opina que la masterización no existe, que es un parche a una mala mezcla.
Realmente, aunque no estoy totalmente de acuerdo, no deja de tener razón. En general, una
buena mezcla requiere un proceso posterior mínimo. El problema es que, durante el
proceso de la mezcla, se tiende a equilibrar unas pistas con otras sin tener claro cómo debe
sonar el conjunto ?acrecentado por la fatiga auditiva?. Esto se evitaría en gran medida
teniendo una pista como referencia constante durante la mezcla o usando un analizador de
espectros.

Entonces, ¿cuál es el objetivo de la masterización? En primer lugar, conseguir


uniformidad entre las pistas, de forma que no existan grandes diferencias de sonido dentro
de un mismo trabajo; conseguir que suenen igual en cualquier equipo de audio,
corrigiendo picos que han pasado desapercibidos en los monitores de referencia usados en las
mezclas; y ganar algunos dB de volumen medio. En este último punto hay una gran
polémica, pero esta nueva tendencia de apurar al máximo el volumen de una canción tiene su
explicación en la psicoacústica. Para el oído humano, una canción que tiene más volumen
que otra es percibida como mejor de forma inconsciente. Este curioso efecto es el motivo por
el que se tiende a comprimir y limitar al máximo posible cada pista, consiguiendo, en muchos
casos, que la pieza pierda toda la dinámica, siendo este un terrible error.

Propongo una situación real y habitual: acabas de terminar de mezclar unos temas y te
gustaría que sonasen correctamente en cualquier sistema de audio y que tuvieran coherencia
entre ellas. Sin duda necesitan una masterización, un ajuste común y preciso. Por tanto, coges
tus pistas y las cargas en tu editor de audio y te dispones con tus bien conocidos monitores de
campo cercano a masterizarlas... Sin duda estás comiendo de entrada tres errores bastante
importantes: primero, nunca se debe masterizar sin descansar los oidos. Unos oídos viciados
tenderán a destacar frecuencias en la mezcla; en segundo lugar, unos monitores de campo
cercano no son lo más apropiado para masterizar, al no ofrecer una respuesta clara y amplia
de todo el espectro; y en tercer lugar, tú no deberías nunca masterizar tus propias
mezclas, puesto que hay detalles que ya pasas por alto por el vicio de escucharlos una y otra
vez. Por tanto, lo mejor es recurrir a un buen profesional siempre que se pueda.
Las condiciones ideales de masterización distan en muchos casos de la mayoría de los
estudios de grabación de cualquier categoría. Para estos menesteres se requiere una sala
tratada acústicamente, para ofrecer una respuesta equilibrada en todas las frecuencias. No
se trata de crear una cámara anecoica; consiste en evitar realces de frecuencias y rebotes
dañinos para una correcta audición. Los altavoces son un punto clave: necesitamos escuchar
todas las frecuencias sin coloraciones. Es un error habitual en los monitores de campo cercano
y, en menor medida, en los de medio campo, su incapacidad para reproducir frecuencias
graves, siendo atenuadas las frecuencias por debajo de los 70 Hz. Por tanto, unos monitores
de campo lejano, multivía y habitualmente empotrados, serían el punto de partida ideal
para la masterización. Es muy importante, además, disponer de escuchas de distintos tamaños
y calidades para poder chequear el material en condiciones cercanas a las que dispondrá el
receptor final.

La gran polémica surge en cuanto a qué elementos (y en qué orden son adecuados) para
una masterización. En el artículo anterior se sugería el sistema del Finalizer. Sin duda hay
cosas fundamentales que no deben faltar en una cadena de masterización: un ecualizador, un
compresor y un limitador. Personalmente, no podría vivir sin un compresor multibanda y un
par de conversores M-S (este elemento lo analizaremos más adelante) y, sin duda, es muy
socorrido un excitador aural, pero la gran pregunta es ¿software o hardware? La respuesta:
da igual, pero ha de ser de primera calidad. En general, la alternativa software suele ser más
barata a igual calidad. Hoy en día, la solución software es la que ofrece mejor calidad-precio.
Existen numerosos paquetes de primerísima línea de Waves, Spectral Design y TC, entre otros.
Un ecualizador mediocre o un compresor de baja calidad puede destrozar una mezcla. En
cualquier caso, la clave de todo el proceso es que la masterización no arregla una mala
mezcla.

<!-- pagebreak-->
La normalización

Uno de los objetivos principales de la masterización de un disco es que las canciones sean
percibidas a un mismo nivel medio. Cuando empiezas el ajuste de varias pistas, el primer
paso lógico es normalizarlas de forma que el pico de volumen más grande coincida con el
máximo permitido. En principio esto es innecesario puesto que, mediante la compresión y
limitación, vamos a ajustar las pistas para que suenen todas a un volumen medio similar y al
normalizar podemos perder sutilezas. Sólo cuando una pista muestre un volumen demasiado
bajo se requeriría una normalización. Además, en ese caso, si la pista fue mezclada a 16 bits,
la normalización puede aumentar el nivel general del ruido de la pista, con lo que es más
conveniente volver a la mezcla y subir el nivel de la mezcla.

Compresión multibanda

Con un compresor multibanda se pueden hacer ajustes muy precisos sobre las distintas
bandas. Son útiles para destacar o atenuar instrumentos o frecuencias descontroladas. La
diferencia más importante con la ecualización es que la ecualización recorta las frecuencias
seleccionadas en todos los casos, mientras que un compresor ajustado a una banda de
frecuencias sólo actuará cuando el volumen de esa banda supera el umbral
establecido. El compresor multibanda es muy útil para retocar el equilibrio espectral, pero
adquiere su mayor esplendor cuando se usa en modo M-S.

Modo M-S

Sin duda uno de los procesos más útiles para hurgar en las entrañas de la mezcla. La
conversión M-S consiste en convertir una mezcla de dos canales L-R (izquierda ? derecha,
una mezcla estéreo normal) en el formato de dos canales M-S (centro-estéreo), de forma
que el canal M contiene la información que se escucha en el centro de la mezcla y el canal S
sólo la información estéreo. El canal S consiste en la señal resultante de restar al canal
izquierdo el derecho. El canal M es la suma de la señal resultante de sumar el resultado de
restar a cada canal la señal S.

M = (L-S)+(R-S) ; S= L-R

Para devolverlo al formato L-R, sólo hay que hacer pasar de nuevo el audio por otro
conversor M-S.
Generalmente, en una mezcla solemos disponer en el canal central de la voz, el bajo, el
bombo, la caja y algún instrumento solista y en el canal del estéreo suelen estar charles,
rebotes de los ecos, reverberación e instrumentos de adorno. Supongamos que tenemos una
mezcla en la que la voz suena demasiado alta; es un gran problema. Si intentamos
atenuarla mediante ecualización, probablemente perdamos las guitarras ?panoramizadas a los
lados?. Si montamos la siguiente cadena...

...y ajustamos el compresor multibanda en la banda de la voz, podremos atenuar únicamente


la voz sin dañar el resto de los instrumentos.

Excitador aural

Este elemento fue en el pasado utilizado ampliamente. Cuando la tecnología musical estaba
bajo mínimos, las mezclas eran bastante opacas y llegó a ser tan imprescindible que su
inventor sólo los alquilaba. Su principio activo se basa en la restauración de armónicos
perdidos durante el proceso de la mezcla, añadiendo brillo. En la actualidad, basándose en
el mismo principio, han aparecido un nuevo tipo de excitadores que añaden presencia en el
espectro de los graves o incluso los que permiten la selección de la frecuencia central. Con la
mejora de los procesos de grabación y mezcla, su uso ya no está tan justificado, aunque en
muy pequeña cantidad puede añadir ese brillo que suele faltar en los masters. Es un efecto
con el que es muy fácil pasarse, porque el oido se acostumbra muy rápidamente y se tiende a
añadir más de lo necesario.

Los medidores

Para poder ajustar el nivel entre canciones, es necesario usar medidores fiables. Los
vúmetros incorporados en las mesas de mezclas y en los programas suelen ser medidores que
reaccionan muy rápido a los transitorios, ideales para evitar distorsión y saturación que, por
otro lado, es tan peligrosa en la grabación digital y aparece en cuanto superas los 0dBFS (FS =
fondo de escala). Realmente, nuestro oído no escucha así. Aunque tengamos dos canciones
cuyos picos máximos llegan al mismo nivel, el volumen medio puede ser diferente. Para poder
medir eso, es necesario la utilización de medidores que funcionen en modo RMS (Root Mean
Square). Una medidor en modo RMS proporciona el valor eficaz del volumen. Esta forma de
medir es más parecida a la forma que tiene el oído humano de escuchar, motivo, además, por
el que los medidores analógicos se siguen usando aún en nuestros días.

<!-- pagebreak -->


Software de masterización

Como comenté al principio del artículo, las soluciones en software para masterización
ofrecen mayores ventajas que sus equivalentes en hardware. Realmente, se puede masterizar
con cualquier programa que permita añadir plugins de efectos y modificar sus parámetros en
tiempo real, con lo que abre mucho nuestro abanico, pudiendo ser desde un secuenciador
(Pro Tools, Nuendo, Logic, etc.) hasta un editor de audio (Spark, WaveLab, SoundForge, etc.)
o un programa especializado (T-Racks).

Entre los editores de audio, los más especializados son Spark y WaveLab. Spark permite
el ruteo de la señal a través de distintos efectos, pudiendo separar los canales y procesarlos
independientemente de formas muy complejas. WaveLab trae un rack que permite la carga de
varios efectos simultáneos y tienes opciones avanzadas de análisis del audio. Existen otras
opciones como Peak o SoundForge, pero dan menos facilidades a la hora de masterizar.

El T-Racks 24 es un programa de masterización integrado completamente autónomo. Se


basa en la emulación de procesadores de válvulas y no soporta plugins de ningún tipo.
Dentro de los paquetes de efectos en plugins, confesaré que tres son mis favoritos: DSP-FX,
Steinberg Mastering Edition (diseñados por Spectral Design) y los de Waves.

DSP-FX es un paquete con algunos años que funciona como plugin DirectX y Saw que
contiene varios procesadores (reverbs, chorus, eco) y, en especial, un excitador aural
(Enhancer) y un limitador (Optimizer) fabulosos. Su interfaz es bastante antiguo, pero su
sonido es fantástico. En particular, el medidor del limitador es muy útil para ajustar el volumen
relativo entre las pistas.

El Steinberg Mastering Edition es un paquete de plugins DirectX, VST y WaveLab que


contienen un buen surtido de procesadores especialmente dedicados para la masterización que
contienen todos los elementos necesarios para realizar una masterización completa. Son
plugins de primera calidad entre los que se encuentran el popular FreeFilter (un ecualizador
gráfico con funciones de adaptación de curvas de ecualización), el Loudness Maximizer (un
limitador bastante musical) y el MultiBand Compressor es un buen compresor/expansor
multibanda.

Waves proporciona varios paquetes de plugins, algunos de ellos muy apropiados para la
masterización. En particular, es muy popular el L1-Ultramaximizer, un limitador maximizador
para masterización y el Ressinance Compressor, un estupendo compresor que puede emular
varios tipos de compresores, muy suave y cálido. El L1 me resulta demasiado bruto con la
limitación y, de todos los limitadores comentados en este apartado, es el que más deteriora el
sonido, cortando muchas veces los picos. Recientemente, Waves ha presentado el L2,
descendiente de su versión en rack y que mejora mucho en musicalidad el resultado.

Existen otras opciones de muy buena calidad, como el paquete de plugins TC Native
Bundle, que ofrece un surtido de herramientas aptas para masterización y, en forma de
programa autónomo, Emagic Waveburner Pro, ideado para la masterización y grabación de
masters en CDs.

Hardware de masterización

En este apartado existen numerosas opciones posibles, siendo muy habituales los equipos
antiguos a válvulas. Últimamente han ido apareciendo algunas soluciones ?todo en uno? de
mano de dbx (Quatum y Quatum II), Drawmer (Masterflow DC2476) y los más populares de
TC Electronic con su gama Finalizer, Finalizer 96K y Plus.

Por Antonio Escobar


Introducción a la síntesis substractiva

Para empezar...

A diferencia del resto de instrumentos, que tienen un timbre propio cuya esencia no puede
modificarse sin afectar a la naturaleza del instrumento, los sintetizadores pretenden construir
nuevos sonidos. Un piano puede tocarse de diversas maneras, pero siempre sonará como un
piano; los sintetizadores aspiran a crear su propio sonido, algo completamente original en el
más amplio sentido de la palabra. Por hacer una comparación, podemos decir que el sonido de
un piano es un rompecabezas ya montado que puede pintarse de mil colores, y el de un
sintetizador es un rompecabezas que está por hacer.

Hay muchas maneras de crear sonidos a partir de la nada o de pocos elementos (esto es,
de sintetizarlos), pero la síntesis substractiva se ha mostrado como la más popular. A partir
de su nombre (sustraer = restar) podemos intuir su esencia: un sintetizador substractivo parte
de una señal dada y la modifica y filtra para alcanzar un sonido concreto mediante una serie
de procesos.

En un principio, esta cadena de procesos estaba separada; es por


esto que los primeros sintetizadores eran modulares. Cada módulo
realizaba una función en la síntesis, y los módulos podían
interconectarse entre sí de muchas maneras. Sin embargo, siendo
esta una solución muy flexible, resultaba demasiado complicada, y
poco a poco pasó a estandarizarse una serie fija de módulos que se
utilizaban siempre, conectados de la misma manera, y se integraron
juntos en un solo sistema y un solo aparato. Seguramente esta fue
la mayor aportación del Moog Minimoog (en la foto), el substractivo más famoso de la
historia; así funcionan ahora la mayoría de los sintetizadores.

En esta cadena de procesos, el sonido básico nace de un oscilador, al que pueden


aplicársele filtros con los que se seleccionan las frecuencias deseadas. Esta señal puede ser
afectada por las envolventes y el LFO, que les dan dinámica y expresividad. Finalmente, el
sonido se amplifica y sale al exterior. Y pasamos a explicar todo esto...

Partes de la síntesis substractiva

Los osciladores

Son las fuentes primarias del sonido de un sinte substractivo. Los osciladores de los
primeros tiempos producían ondas eléctricas controladas por voltaje (eran los VCO, Voltage
Controlled Oscillator). Estos componentes eléctricos, al oscilar, generaban ondas sonoras
básicas que luego podían ser filtradas y procesadas para resultar en el timbre deseado. Mucha
gente hoy busca sintetizadores basados en VCOs por su calidez sonora y su comportamiento a
veces impredecible, dado que los VCO solían ser inestables en cuanto a su afinación.

El problema de la inestabilidad se resolvió en los primeros años 80 con la aparición de los


DCO (Digital Controlled Oscilator). Estos osciladores seguían produciendo ondas eléctricas,
pero eran controladas por un chip digital que evitaba las variaciones imprevistas de tono. La
famosa saga Juno de Roland pertenece a esta familia de sintes. Actualmente, los sintetizadores
digitales han eliminado la necesidad de incluir componentes eléctricos para los osciladores,
recreándolos mediante simulaciones o muestras.

Podemos encontrarnos con diversos tipos de onda generados por los osciladores. Las más
básicas son estas (pulsa sobre ellas para escuchar un mp3; y cuidado, que "pitan" a bastante
volumen):
Senoidal Cuadrada Sierra Pulso

Con ciertos aparatos digitales no estamos anclados a ondas de tipo eléctrico, ya que nos
permiten utilizar muestras. Esto abre nuevas posibilidades: por ejemplo, si usamos muestras
de instrumentos acústicos, procesándolos de la manera adecuada, podemos conseguir
imitaciones de gran realismo.

Los filtros

Son circuitos que sólo dejan pasar una serie de frecuencias seleccionadas. Como en el caso
de los osciladores, inicialmente eran controlados por voltaje (VCF), y más adelante por chips
digitales (DCF). Los filtros totalmente digitales cumplen la misma función, pero simulándola a
base de cálculos matemáticos. En general, nos encontramos con distintas clases de filtros
según el efecto que produzcan; estos son los más elementales:

· Paso-alto: deja pasar todas frecuencias que superen un valor dado (el llamado cutoff o corte
de filtro), eliminando las que queden por debajo.

· Paso-bajo: deja pasar todas frecuencias que no superen el cutoff, y elimina todas las demás
que quedan por encima.

· Paso-banda y banda eliminada: Deja pasar solamente o elimina las frecuencias comprendidas
en un rango determinado (el llamado ancho de banda o Q).

Muchas veces se incluye en el filtro un circuito de realimentación al que llamamos


resonador; lo que hace es aumentar o disminuir la amplificación en las frecuencias más
cercanas al punto de corte. Si añadimos más o menos resonancia, esas frecuencias destacarán
con mayor o menor intensidad. Un efecto ya clásico de la música electrónica moderna es el
barrido de filtro, que normalmente se realiza configurando una resonancia alta y abriendo el
cutoff de un filtro paso-bajo desde las frecuencias más bajas a las más altas, descubriendo así
gradualmente todo el espectro del sonido.

> Pulsa [aquí] para escuchar un barrido de filtro de un sonido arpegiado básico. Advierte
como empieza a sonar sólo en las frecuencias bajas y progresivamente se van incorporando
las medias y altas (MP3 247 Kb).

Otro factor a destacar de los filtros es el número de polos o su pendiente. Esta


característica se refiere a la la capacidad del filtro para atenuar o aumentar un mayor o menor
número de frecuencias, es decir, a su suavidad o agresividad. Actualmente los más habituales
son los de 2, 4 o 6 polos, ya que ir más allá de los 8 polos resulta complejo y caro. Un filtro de
2 polos tiene una pendiente de 12dB por octava; uno de 4, 24dB por octava, y el de 6, 48 dB
por octava.

<!-- pagebreak --> Las envolventes

Como las ondas generadas por los osciladores son continuas y sin matices, necesitamos un
generador de envolvente para dotarles de dinámica y expresividad. Con el filtro podemos
variar el contenido armónico, pero las envolventes nos permiten además aplicar cambios en el
tiempo (dinámicos), afectando a distintos parámetros. Actúan por "pasos" progresivos, y los
más básicos son:

· Ataque (attack): indica el tiempo que tardará un parámetro en alcanzar su nivel máximo,
partiendo del nivel cero.

· Decaimiento (decay): una vez que el parámetro llega al nivel máximo, transcurrido el tiempo
de ataque, entra en la fase de decaimiento; se refiere al tiempo que tarda el parámetro en
caer a un nivel ya sostenido.

· Sostenimiento (sustain): marca el nivel al que permanece el parámetro durante el tiempo de


sustain.
· Liberación (release): transcurrido el tiempo de sostenimiento, llega la fase final; la liberación
nos marcará el tiempo que tarda el parámetro en caer del nivel sostenido al nivel cero.

Por las iniciales de estos pasos decimos que esa envolvente es de tipo ADSR; hay
envolventes más complejas, con más pasos intermedios, pero en general son variaciones del
mismo concepto. Por otra parte, según cuáles sean los parámetros a los que afectan las
envolventes, pueden clasificarse de esta manera:

· Envolvente de tono: afecta a la afinación de los osciladores. Por ejemplo, si configuramos


esta envolvente con un ataque largo, el sonido tardará cierto tiempo en alcanzar su tono
normal, haciendo así un efecto de glissando.

· Envolvente de amplitud: afecta al volumen de salida del amplificador. Si escogemos aquí un


ataque rápido, el sonido comenzará a sonar a su máxima potencia de inmediato (apropiado
para un bajo). Si elegimos un ataque largo, el sonido empezará a escucharse a un volumen
bajo e irá subiendo poco a poco (característico de los pads o de un oboe, por ejemplo).

· Envolvente de filtro: afecta al funcionamiento del filtro. Esto permite controlarlo para que
actúe no en todo momento, sino en diferentes puntos en el tiempo y de diversas maneras. Si
configuramos un filtro paso-bajo con el corte situado en las frecuencias más bajas, y elegimos
un tiempo de ataque largo para esta envolvente, el sonido comenzará mostrando todas sus
frecuencias y gradualmente irá eliminando las medias y altas, sin necesidad de actuar
manualmente sobre el filtro.

El oscilador de baja frecuencia (LFO, Low Frequency Oscillator)

Este oscilador difiere de los comentados anteriormente en que produce su sonido en las
frecuencias subsónicas (las más graves), y se utiliza para modular y controlar al resto de
parámetros del sintetizador, más que para crear sonido tonal. El hecho de que sea un oscilador
nos permite modular el sonido de manera repetitiva, en bucles. Por ejemplo, si aplicamos un
LFO al amplificador, podemos conseguir un efecto de tremolo, que será mas o menos rápido
según cómo configuremos la velocidad de oscilación del LFO. De la misma manera, y
aplicándolo al tono, conseguiremos un vibrato. Estos efectos serán más o menos intensos
dependiendo del ratio que escojamos para el LFO.

Por Xabier Blanco


Grabación de guitarras: Nociones básicas

Tu guitarra

Tengas una Paul Reed Smith de Luthier o una imitación de Telecaster de 100 euros, tu
guitarra siempre tiene que estar a punto para tocar, y esto supone una serie de detalles que
no dejaremos aparte por obvios que nos parezcan.

Siempre que vayas a grabar utiliza cuerdas nuevas; las cuerdas usadas pierden su color
por determinados factores. Tampoco hay que ser neuróticos con esto, pero si tienes una
grabación importante y quieres que tu guitarra esté en las mejores condiciones, debes usar
cuerdas nuevas.

Chequea tu afinación siempre que puedas, antes de cada toma incluso. Lo ideal es poner
un afinador que tenga salida thru y tenerlo conectado siempre. Si eres un guitarrista amante
del vibrato, tus cuerdas se desafinarán con facilidad. Comprueba siempre que la guitarra esté
bien octavada, es decir que la afinación sea igual en el traste 12 que con la cuerda al aire.

Pon especial atención a las interferencias, sobre todo las causadas por los monitores de
ordenador. Busca en la sala la posición adecuada en donde las interferencias sean menores, y
en la medida de lo posible apaga esos monitores para matar el problema.

Usa diferentes tipos de guitarras o de sonidos cuando quieras tenerlos bien separados
en la mezcla, y ecualízalos de manera que no se estorben en el espectro de frecuencias,
dándole espacio en la mezcla a cada uno de los sonidos atenuando o realzando frecuencias.

Si tenemos pistas de sobra, las técnicas modernas de grabación en disco duro nos permiten
hacer varias tomas de un mismo solo para así elegir después la mas acertada o una
combinación de ellas. Habitualmente, los efectos en el estudio se aplican durante la mezcla;
sin embargo, en el caso concreto de los guitarristas es importante que el sonido se grabe
procesado para comodidad del ejecutante, especialmente si lleva un wah wah, un delay o
algo que influya sobremanera a la hora de interpretar. Efectos como una reverb se pueden
monitorizar durante la grabación grabando la señal seca y aplicándola después. Lo importante
es que el guitarrista se sienta cómodo con su sonido mientras lo ejecuta. <!-- pagebreak -->

La grabación

Experimenta. Esto es esencial, no hay una técnica correcta a la hora de grabar una
guitarra. Los factores a tener en cuenta una vez tengamos nuestra guitarra a punto son
principalmente:

· Microfonía
· Multiefectos
· Amplificadores
Aquí hay todo un mundo de técnicas, posiciones,
trucos... trataremos de sugerir unos cuantos, pero lo
esencial es que cojas tu equipo y que juegues con él. El
mejor truco es el que uno mismo ha descubierto, ha
probado y ha visto que es el adecuado para conseguir el
sonido que persigue en cada situación. Nos limitaremos a
exponer unas cuantas propuestas a modo de puntos de
partida, para llegar al fin deseado: tener nuestro propio
sonido y controlar todos sus aspectos.

Juega con las posiciones de los micros. Utiliza uno o


varios. Ponlos en ángulo recto apuntando hacia el altavoz,
pon uno detrás, mezcla las diferentes señales... Todo es
posible, lo importante es experimentar

Si quieres que tu ampli suene con menos graves, levántalo del suelo y ponlo en alto. Por el
contrario si lo que buscas es un sonido con graves demoledores, ponlo en una esquina. En este
sentido, la distancia entre el micro y el ampli suele desempeñar un papel esencial.

Habitualmente, situar el micro enfrente del altavoz a un palmo (o menos) de distancia,


dará como resultado un sonido grave, con cuerpo y "punch" ("pegada"). Conforme vayamos
aumentando la distancia, el sonido se hará más ligero, brillante y "ventilado".

Y ahora una cuestión: ¿es posible conseguir un sonido redondo, lleno, sin hacer un uso
abusivo de los graves y la saturación? La respuesta es... difícil lo tienes. Pero puedes intentar
un truco usado por Eddie Van Halen, y que consiste en la utilización de dos micros
simultáneamente. Uno de ellos lo colocas enfrente del cono del altavoz, dejando una distancia
suficiente para evitar el desagradable zumbido del exceso de graves. El otro micrófono,
enfócalo hacia la esquina del altavoz... dejando un espacio mayor que en el otro caso. De esta
manera obtendrás un sonido más rico y denso, muy apropiado para que tus solos guitarreros
no recuerden al cascajo de Extremoduro, Reincidentes, y demás pandilla.

Resulta desconcertante observar cómo muchos guitarristas no se desprenden de su Shure


SM57 ni para ir a la ducha. Sin embargo, otros rastrean hasta en los cubos de basura para
encontrar micros o accesorios deliberadamente viejos, con la intención de sonar parecido a
alguien, en algún disco, editado algunas décadas atrás.

Toca en la sala de control si es que tienes la posibilidad, y así podrás oir por los monitores
lo que se esta grabando exactamente a través de los micros. De lo contrario, puedes llevarte
una gran decepción (con el consiguiente cabreo), al comprobar que ese magífico riff que
acabas de interpretar, lleno de destreza y
sentimiento... debe ser repetido porque no ha sonado
exactamente como tú pensabas que estaba sonando. O
mejor dicho: al cacharro que graba no le ha sonado
igual que a ti. Así que asegúrate bien y experimenta
desde la cabina, antes de dar pasos en falso. Graba la
señal del ampli con los micros y a la vez, graba la
guitarra por linea o con algún efecto y experimenta
con ambas señales en la mezcla

Si buscas engordar tu sonido, trata de tocar lo


mismo en dos pistas diferentes; es una alternativa
menos artificial que un chorus, y puede dar resultados
interesantes paneando las tomas. Pero cuidado, ya lo dijo Yngwie Malmsteen en una de las
célebres entrevistas/vaciladas que solía conceder... "demasiado a menudo, 2 pistas
simúltaneas no se suman... sino que se restan".

Otro experimento curioso es colocar un micro en la guitarra y recoger el sonido de la púa y


de las cuerdas; conseguirás una pista brillante para añadir a la mezcla. Como ejemplo
práctico, escucha Been Caught Stealin, tema de los alucinantes Jane's Addiction, donde Dave
Navarro aplica esta técnica. Cuidado con las puertas de ruido, utilízalas con cabeza; si
decides usar una, ponla después de la distorsión, pero antes de un delay o una reverb, para
que la puerta no se coma la cola de la reverb o la cola del delay.
En definitiva, todo esto es papel mojado si lo aplicas de forma autómata. Lo importante es
escuchar atentamente lo que estás tocando; lo ideal sería tener a un técnico que ponga
micrófonos mientras tocas y que vaya cambiando el tipo de micrófono y la dirección hacia
donde apunta, hasta que oigas que el sonido se adapta a lo que quieres conseguir.

Esperamos haber abierto vuestra curiosidad con estas 4 pinceladas sobre grabación de
guitarras. Es tu turno; te toca ir al estudio y empezar a crear tu propio mundo de sonidos.

Por Pablo Surja


El protocolo MIDI

Nociones básicas: el lenguaje MIDI


MIDI (Musical Instruments Digital Interface) es el lenguaje que utilizan
actualmente muchos instrumentos para comunicarse entre ellos, enviar y
recibir datos y sincronizarse. Nació dentro del mundo de los sintetizadores
como respuesta a una necesidad de los músicos: controlar varios equipos con sus dos
manos y hacer capas de varios sonidos entre ellos. Los primeros resultados de esta nueva
tecnología se mostraron en el North American Music Manufacturers Show de 1983 en Los
Ángeles. La demostración consistió en dos sintetizadores de distintos fabricantes conectados
por MIDI con un par de cables; el representante de una de esas dos compañías tocó uno de
los sintetizadores... ¡y el público se alborotó entre muecas de asombro al ver como los
teclados sonaban juntos! Al igual que dos ordenadores pueden conectarse por módem, dos
instrumentos que soporten el protocolo MIDI pueden comunicarse. La información MIDI tiene
un carácter netamente musical: se refiere a comandos play-stop, activación de nota, tempo,
volumen, etc, aunque su uso avanzado permite muchas mas posibilidades.

En este punto vale la pena hacer una aclaración para los más novatos. Uno de los mitos más
recurrentes entre los no iniciados es que el MIDI es algo material, un formato de sonido
en sí mismo. Eso ha llevado a las tópicas y erróneas expresiones "escucha este MIDI que
acabo de hacer", "estoy buscando el MIDI de esta canción", y el más inocente de todos ellos,
"quiero pasar este WAV a MIDI". Todos estos conceptos se basan en una mala comprensión
del MIDI. El MIDI es un protocolo de comunicación, un conjunto de comandos que circulan
entre dispositivos MIDI dando órdenes a los mismos respecto a lo que deben hacer. Lo que
suena son los aparatos, no "el MIDI" que, además, tiene otras funciones aparte de controlar la
ejecución de sonidos. Cuando alguien pregunta "cómo pasar de WAV a MIDI", está en la
misma situación que aquel que tiene una foto digital (un JPG por ejemplo) de un texto y
quiere que esa foto se convierta en formato TXT para usarlo en un procesador de textos. Así
como el WAV y el JPG son "fotos" digitales de una realidad material (el sonido y la imagen), el
MIDI y el TXT son lenguajes que indican a ciertos dispositivos qué deben hacer. En el caso de
un sintetizador, el MIDI le dice qué notas deben sonar, a qué volúmenes, etc; y en el caso de
un procesador de textos, el TXT le dice qué caracteres deben presentarse, en qué formato...
Es cierto que existen las tecnologías OCR para leer caracteres a partir de una foto, pero esta
técnica está implementada en el audio digital con menos fortuna. Existen programas que
pueden identificar tonos a partir de un wav y construir mensajes MIDI a partir de ellos, pero
normalmente solo funciona con WAVs monofónicos y no muy complejos.

Volviendo al tema que nos ocupa, conviene hablar un poco del funcionamiento interno de este
lenguaje para entender cómo se comporta. La base de la comunicación MIDI es el byte (una
unidad de información digital). Cada comando MIDI tiene una secuencia de bytes específica. El
primer byte es el byte de estado (status byte), que le dice al dispositivo MIDI qué función
activar. Codificado en ese byte de estado va el canal MIDI. El MIDI opera en 16 canales
diferentes, numerados del 0 al 15. Las unidades MIDI aceptarán o ignorarán un byte de
estado dependiendo de en qué canal estén configuradas para recibir datos. Sólo este byte de
estado tiene codificado el número de canal, ya que los demás bytes de la cadena se asume
que circulan en el canal indicado por el byte de estado.

Algunas de las funciones que puede activar el byte de estado son estas: Note On, Note Off,
System Exclusive (SysEx), Patch Change, y otras. Así pues, dependiendo del byte de estado,
le seguirán un numero diferente de bytes. Por ejemplo, el estado Note On le dice al dispositivo
MIDI que empiece a hacer sonar una nota. Así pues, se requerirán dos bytes adicionales al de
estado; uno que indique el tono de la nota (pitch byte) y otro que marque la velocidad de la
misma (velocity byte). Este último byte de velocidad es el que determina con que fuerza ha
sido pulsada esa nota. Aunque no todos los dispositivos MIDI aceptan el byte de velocidad -
especialmente los aparatos antiguos o algunos modernos de gama baja-, sigue siendo un byte
requerido para completar la cadena.

Y ¿para qué citamos aquí todo este farragoso sistema de datos? Es importante hacer notar
ahora una limitación del lenguaje MIDI, y es su transmisión en serie. Por un cable MIDI
discurren todos esos bytes que hemos citado... pero uno detrás de otro, no todos a la vez.
Esto tiene implicaciones prácticas: por ejemplo, si tenemos un teclado controlador conectado
a un sampler y estamos enviando datos MIDI al sampler desde el teclado, al pulsar un acorde
de varias notas no llegarán todas juntas al sampler, sino una detrás de otra. El proceso se
hace a gran velocidad y no hay retardos audibles en este ejemplo, pero en una cadena
interconectada de dispositivos MIDI sí podrían surgir problemas, como indicaremos a
continuación. Por todo esto, es importante tener una idea de lo que realmente transmiten los
datos MIDI: qué bytes y en qué orden.

Conexiones y cadenas MIDI


Seguramente ya estás familiarizado con esas conexiones de 5
pines de tus teclados o aparatos MIDI, etiquetadas como IN,
OUT y THRU. Alrededor de estos tres conectores girará todo
nuestro sistema MIDI.

Por los puertos MIDI IN de un aparato se recibirán todos los


mensajes MIDI y por el MIDI OUT cada aparato enviará los
suyos. La conexión MIDI THRU es algo que desconcierta a los más novatos, pero no tiene
ningún misterio y es de gran utilidad para configurar una cadena. Lo que hace el MIDI THRU
es copiar los datos que se reciben por el MIDI IN de ese aparato y enviarlos de nuevo hacia
fuera. Aunque del MIDI THRU salgan datos MIDI, no debe confundirse con el MIDI OUT; de
este último salen solamente los datos enviados por el mismo aparato, mientras que del THRU
sale la copia de los datos recibidos por el aparato en su MIDI IN.

¿Cuál es la utilidad de este MIDI THRU? Básicamente, enlazar unos aparatos con otros en una
cadena, de manera que todos respondan a una fuente de datos MIDI inicial. Como ejemplo
práctico, si tenemos un secuenciador MIDI del que nacen todos nuestros mensajes de control
y queremos enviarlos a 2 aparatos distintos, tendríamos que establecer la siguiente cadena:

En nuestro esquema, el secuenciador envía sus datos MIDI por la salida MIDI OUT (A); estos
datos son recibidos por el sintetizador a traves de su MIDI IN (B), y reenviados por el MIDI
THRU (C) hacia el sampler, que los recibe, lógicamente, por su MIDI IN (D). Así pues, los
datos del secuenciador estarían siendo recibidos por los dos aparatos, ya que el primero
(sintetizador) los recibe directamente por su MIDI IN, y al mismo tiempo los copia y los
reenvía por su MIDI THRU hacia el sampler.

Como ya habrás imaginado, podríamos seguir conectando dispositivos MIDI en esta cadena,
simplemente enlazándolos con el MIDI THRU. Por ejemplo si queremos añadir otro
sintetizador, podríamos enviar el MIDI THRU del sampler hacia su MIDI IN. De todos modos,
por la cuestión antes mencionada de que el MIDI se transmite en serie, no conviene enlazar
una cadena demasiado larga por MIDI THRU, ya que el último aparato de esta cadena podría
sufrir retardos al recibir los mensajes. Por esta razón, muchos secuenciadores tienen varias
salidas MIDI, para poder enviar los mismos datos en distintas series a diferentes aparatos sin
utilizar las conexiones THRU, o al menos reduciéndolas. Por ejemplo, si nuestro secuenciador
tuviese dos MIDI OUT, el esquema anterior no necesitaría el uso de la cadena THRU:
simplemente conectariamos el sintetizador y el sampler a cada una de esas dos salidas, y
ambos recibirían los datos del secuenciador al mismo tiempo.
Mensajes MIDI: teoría
Ya sabemos que gracias al MIDI podemos controlar varios equipos, establecer relaciones
entre ellos y sincronizarlos. Imaginando que nuestros aparatos MIDI son los componentes de
una tropa de soldados, y nosotros los capitanes, lo más importante ahora será conocer qué
ordenes podemos enviar para que cumplan su misión. Al igual que una tropa obediente,
nuestro equipo de dispositivos MIDI funcionará correctamente si sabemos qué mensajes
enviarles y si estos son correctos.

De esta manera, nos encontramos con las siguientes categorías de mensajes que podemos
enviar:

Se llaman así porque actúan solamente en el canal que se


determine. Son de dos tipos:

· Mensajes de voz: Se basan en la interpretación; por


ejemplo: Note on (activación de una nota), Note off
(desactivación), Program Change (cambio de timbre) o
Control Change (cambio de controlador, también llamado
Mensajes CC; estos se enumeran de 0 a 127, y algunos están
de canal determinados como estándar, p.e: el CC 7 es el control de
volumen y el CC 10 es el pan)

· Mensajes de modo: Indican a un sintetizador como debe


distribuir las voces internas; básicamente son estos: Omni
on/off (si se reciben mensajes por todos los canales -on- o
solo por uno predeterminado -off-) y Mono on/off (indica si
cada canal tocará solo una nota -on-, o será polifónico -off-)
No afectan solo a un canal, sino a todo el sistema, y son de
tres tipos:

· Mensajes comunes: por ejemplo, los de afinación general


de un sintetizador.

· Mensajes de tiempo real: pensados para secuenciadores


(start-stop, mensajes de reloj, etc)
Mensajes
de sistema
· Mensajes SysEx: su nombre deriva de "sistema
exclusivo". Sirven para que diferentes dispositivos de la
misma marca y modelo intercambien información (por
ejemplo, acerca de sonidos, síntesis, efectos, etc.). Cada
dispositivo MIDI suele traer funciones propias, no generales
a todos los demás dispositivos, y por ello son necesarios
estos mensajes, que son "exclusivos" de esa marca y
modelo.
Mensajes MIDI: práctica
Todo esto está muy bien, pero ¿lo necesito para mi trabajo práctico? Descartando los tipos de
mensajes más elementales y de menor importancia (por ejemplo, no hace falta pararse
demasiado sobre los evidentes usos del Note on-off o la afinación), la respuesta es sí: por eso
nos centraremos ahora en aquellos que es necesario dominar para controlar nuestros
equipos con precisión.

· Cambio de banco y programa: Tenemos un sintetizador o


sampler repleto de sonidos interesantes, pero ¿cómo acceder a
ellos desde el exterior, p.e. desde un secuenciador u otro teclado?
La respuesta nos la dan estos dos mensajes: Bank Change y Patch
Change. Son los que indicarán al dispositivo MIDI qué timbre debe
sonar por cada canal (recordemos que son mensajes de canal y
sólo afectarán al canal que determinemos).

-Patch Change: Como en el resto del protocolo MIDI, disponemos de la numeración 0 a 127
para escoger cualquier sonido de una fuente externa. Si tuvieramos un sintetizador con 32
memorias para patches (por ejemplo, el clásico Yamaha DX7), para escuchar el sonido
número 20 mandaríamos un mensaje Patch Change 19 (no el 20, porque el 0 ya cuenta como
primer número). Pero claro, esto nos limitaría a escoger 128 sonidos, cuandos los aparatos
actuales pueden contener muchos más. Es por ello que estos aparatos ordenan sus sonidos en
distintas series de 128 sonidos, llamadas "bancos". Así pues, un sintetizador con 512 patches
tendría que dividirlos en 4 bancos de 128.

-Bank Change: Este es el mensaje que nos da definitivamente un acceso total a los patches de
un dispositivo con mas de 128 sonidos. Siguiendo con nuestro ejemplo de un sintetizador que
tenga 512 sonidos, organizados en 4 bancos: si quisiéramos seleccionar el sonido 138, o para
entendernos mejor, el décimo sonido del segundo banco, tendríamos que mandar un mensaje
de Bank Change 1 y a continuación, un Patch Change 9. Date cuenta de que ésta es una
explicación simplificada; la mayoria de los sintetizadores tienen números específicos para
designar sus bancos; por ejemplo, el banco A de un sinte podría requerir un Bank Change 64
u otro, no tendría por qué ser el 0. Lo hemos explicado así para hacerlo de una manera más
gráfica. Para saber qué mensajes de banco debes enviar a tu sinte, consulta en su manual.

· Controladores: los mensajes CC (Control Change) nos dan acceso a un montón de


funciones importantes que afectan a cada canal. Podemos mandar -lo adivinaste- 128
mensajes CC distintos, y a cada uno asignarle un valor. Por ejemplo, un mensaje CC 7
(volumen) con valor 120 subirá el volumen de ese canal a 120. Un mensaje CC 10 (pan) con
valor 80, colocará la panoramización de ese canal ligeramente a la derecha, dado que 64 se
considera el centro. Algunos CC han sido estandarizados, y tienen la misma función en
cualquier dispositivo MIDI que te encuentres. El resto no tienen ninguna función asignada en
principio, de modo que cada fabricante puede dársela a su gusto. Para saber a qué mensajes
CC responde tu dispositivo, tendrás que consultar su tabla de implementación MIDI. Por lo
pronto, nosotros te ofrecemos aqui nuestra tabla de mensajes de control MIDI.

· SysEx: Dado que estos mensajes dependen de cada fabricante, no vamos a citar ninguno en
concreto aquí porque, por ejemplo, un mensaje SysEx que variase la profundidad del efecto
"chorus" en un Roland no valdría para un Yamaha. Pero sí los destacamos porque son los que
permiten acceder a las "tripas" de tus dispositivos. Los SysEx asustan a todo el mundo, y
realmente tienen cierta complejidad, pero si se dominan abren un mundo nuevo de control
total sobre tus máquinas. Aquí te animamos a curiosear e investigar acerca de los SysEx, pero
no es el objeto de este artículo profundizar sobre ellos.
Equipo MIDI básico
Sin duda, los dispositivos MIDI más tradicionales son los sintetizadores. El
MIDI se diseñó para comunicarlos entre sí, y esa función desde luego sigue
vigente. El MIDI te permite utilizar varios teclados o módulos de sonido a la
vez; de esta manera puedes hacer que un sonido de un sinte sea reforzado
por el sonido de otro, o simplemente hacer arreglos polifónicos y
multitímbricos con varias máquinas sincronizadas.

Hay que aclarar aquí la típica confusión de principiante entre sintetizador y teclado. El
sintetizador (o sampler, dado el caso) es el generador de sonido, y el teclado simplemente
envía mensajes MIDI indicando qué notas deben tocarse y con qué fuerza. Como la mayoría
de sintetizadores llevan teclado incluido, mucha gente cree que son inseparables. Pero no es
así; hay sintetizadores sin teclado (los llamados "módulos de sonido") y teclados sin
sintetizador. Estos últimos son los teclados maestros.

Con la simplificación de los estudios caseros actuales, mucha gente utiliza los llamados
teclados maestros o controladores, que no incorporan ningún sonido. Simplemente envían
datos MIDI para controlar a otros aparatos (por ejemplo, sintes virtuales). Esto abarata su
precio y hace que la producción musical sea más accesible a todos, si bien los teclados
maestros de gama alta pueden ser muy caros. Algunos fabricantes famosos son FATAR (su
modelo SL-161 en la foto de abajo), Oberheim, Midiman, Roland o Yamaha.

Domina tu equipo externo


El centro de una instalación MIDI es el secuenciador, que
centraliza la grabación y reproducción de todos los mensajes
MIDI, su edición y sincronización. Lo normal es que esté
basado en un programa de ordenador, dado que los
ordenadores ofrecen mayor potencia que cualquier sistema de
secuenciación hardware, y muestran sus datos en monitores de
gran tamaño que facilitan las tareas. Sin embargo, para actuar
en directo muchos prefieren la seguridad de los secuenciadores
hardware; algunos ejemplos clásicos de estos aparatos son el
Alesis MMT-8 (foto izquierda) o el Roland MC-50. También
se utilizan los viejos ordenadores Atari y Amiga para este fin.

Los secuenciadores software más famosos son sin duda Logic (foto abajo), Cubase y
Cakewalk (o su reciente actualización, SONAR). Cakewalk es el más extendido en América,
y los otros dos son líderes en el mercado europeo. Cualquiera de ellos es altamente capaz,
destacando especialmente Logic por su environment configurable. Otros programas famosos
son el Digital Performer de MOTU o la saga Orchestrator de Voyetra; ciertos editores de
partituras como Finale tienen funcionalidades de secuenciador MIDI, así como algunos
sistemas multipista de audio como Pro Tools o Nuendo. Todos ellos manejan un gran número
de pistas a la vez, así que esto no será un límite.

Si dispones de varias máquinas MIDI y quieres tener un


control absoluto sobre ellas, todo debe estar bien
conectado y debe gestionarse principalmente desde el
secuenciador. Desde este programa podrás grabar
todos tus equipos por pistas, y luego cortar, copiar y
editar las secuencias. Tú solo podrás completar un
arreglo complejo de muchas pistas. Lo normal es
comenzar grabando una pista base, y luego ir grabando
las demás por encima, mientras suenan las anteriores
que has grabado. Así el tema se irá "construyendo" y
solo se requiere la intervención
de una persona.

Una primera idea para conectar varios equipos entre ellos es la


cadena THRU, ya explicada en la primera parte de este tutorial. Sin
embargo, si tienes muchos equipos, se producirá latencia en los
últimos dispositivos de la cadena. La solución a esto es utilizar un
interface MIDI dotado de varios puertos de salida y no de uno sólo.
Esto evita las cadenas THRU, o al menos las minimiza: si tu interface
MIDI tiene cuatro salidas, puedes dominar cuatro dispositivos
directamente, y todos los mensajes les llegarán a un mismo tiempo.
Como hemos dicho, el protocolo MIDI funciona de una manera serial, pero esto es así por
cada puerto; es decir, si disponemos de varios puertos, actuarán de manera separada, sin
acumular sus datos unos a otros. Existen muchos interfaces de este tipo en el mercado;
algunas marcas fabricantes son Midiman (a la izquierda, su Midisport 2x2), Egosys, MOTU,
Steinberg y Emagic. Todas ellas ofrecen diversos modelos dependiendo de sus salidas y
entradas MIDI. También algunas tarjetas de sonido incorporan dos o más puertos MIDI de
entrada y salida, pero es raro y lo normal es que solo lleven uno o ninguno.

Para gestionar las librerías de sonidos de tus sintetizadores y editar sus patches vía
MIDI existen también soluciones software muy útiles, que evitarán en muchas ocasiones el
enfrentamiento con esos pequeños displays de tus máquinas. ¿Cuántos se han atrevido a
editar los sonidos un DX7 desde el frontal de la máquina? Utilizando estos programas podrás
hacer esas tareas de manera remota, aprovechándote de la capacidad de almacenamiento y
organización de tu ordenador y una mayor claridad y comodidad gracias a la pantalla grande.
Sound Diver de Emagic y SoundQuest son dos ejemplos de gestores-editores totales, que
incluyen plantillas para un amplio número de aparatos, pero hay también una multitud de
editores más sencillos, que sólo se ocupan de una máquina concreta. La mayoría de estos
últimos son gratuitos; busca por la red el que corresponda a tu sintetizador.
Domina tu equipo virtual
Con la implantación cada vez mayor de los sintetizadores y
samplers virtuales, muchos usuarios han empezado a
demandar un control más manual sobre ellos. El ratón no
parece convencer a la hora de controlar con precisión estos
programas, y es por ello que los fabricantes han dado una
alternativa: los controladores MIDI externos. Estos
dispositivos adoptan la forma de mesas o consolas con faders o
knobs configurables, y se limitan a enviar datos MIDI como CCs
o sysex, que controlan las funciones del software. Así como para tocar un sintetizador virtual
necesitarás un teclado maestro que le envíe mensajes MIDI, para controlarlo como si fuera
hardware, con botones, deslizadores y demás, necesitarás una de estas máquinas. Su
principal ventaja es que no se limitan a un solo sintetizador virtual; al utilizar el protocolo
universal MIDI, pueden dominar cualquier dispositivo software que siga estas
especificaciones. Esto incluye, por supuesto, a las máquinas hardware que admitan su
control a partir de mensajes CC o sysex externos.

La oferta de controladores va en aumento, y desde el ya clásico Keyfax Phatboy (foto


izquierda) han aparecido muchos otros, como el Doepfer Pocket, Native Instruments
4Control, Phillip Rees C16 o ya a un nivel más ambicioso, el Kenton Control Freak,
Peavey 1600 o Doepfer Drehbank.
Flautas, guitarras... y otras rarezas MIDI
Se han fabricado toda una diversidad de aparatos MIDI muy "especiales", sobre todo
en lo referente a controladores. El hecho de que el MIDI sea un protocolo estándar,
universal, hace que cualquier dispositivo compatible pueda integrarse en la cadena, y
las posibilidades son múltiples.

Por ejemplo, Yamaha ofrece su controlador de viento WX5 (a la izquierda), que es


una especie de saxofón-flauta que envía datos MIDI basándose en el soplido. Hay
módulos de sonido especiales para este controlador, como el Yamaha VL-70m, que
imita los timbres de viento reales mediante modelado físico. Pero como el WX5 es
MIDI, puede controlar cualquier cosa... podrías tocar un violín o unas marimbas usando
este curioso aparato.

Los guitarreros también tienen sus propios dispositivos MIDI. Acoplando una pastilla
MIDI a tu guitarra puedes convertir su señal en datos MIDI que podrán controlar un
sintetizador de guitarra (como el Roland GR-30 o 50)... o lo que tú quieras.

El mundo de los controladores MIDI se ha ido convirtiendo en toda una caja de


sorpresas, y cada vez nos topamos con máquinas mŽsa innovadoras y originales. Si te
gustaron las arpas láser de Jarre, Roland te ofrece sus sistemas D-Beam en muchos
de sus teclados y sintetizadores; se trata de un rayo que, al ser interrumpido a
diferentes alturas y ángulos, genera diferentes mensajes MIDI que modifican el sonido.

Tabla: mensajes de controladores MIDI

0 Bank select
1 Modulation wheel
2 Breath control
3 Indefinido
4 Foot controller
5 Portamento time
6 Data Entry
7 Channel Volume
8 Balance
9 Indefinido
10 Pan
11 Expression Controller
12 Effect control 1
13 Effect control 2
14 Indefinido
15 Indefinido
16 General Purpose Controller #1
17 General Purpose Controller #2
18 General Purpose Controller #3
19 General Purpose Controller #4
20 Indefinido
21 Indefinido
22 Indefinido
23 Indefinido
24 Indefinido
25 Indefinido
26 Indefinido
27 Indefinido
28 Indefinido
29 Indefinido
30 Indefinido
31 Indefinido
32 Bank Select
33 Modulation wheel
34 Breath control
35 Indefinido
36 Foot controller
37 Portamento time
38 Data entry
39 Channel Volume
40 Balance
41 Indefinido
42 Pan
43 Expression Controller
44 Effect control 1
45 Effect control 2
46 Indefinido
47 Indefinido
48 General Purpose Controller #1
49 General Purpose Controller #2
50 General Purpose Controller #3
51 General Purpose Controller #4
52 Indefinido
53 Indefinido
54 Indefinido
55 Indefinido
56 Indefinido
57 Indefinido
58 Indefinido
59 Indefinido
60 Indefinido
61 Indefinido
62 Indefinido
63 Indefinido
64 Damper pedal on/off (Sustain)
65 Portamento on/off
66 Sustenuto on/off
67 Soft pedal on/off
68 Legato Footswitch
69 Hold 2
70 Sound Controller 1 (Sound Variation)
71 Sound Controller 2 (Timbre)
72 Sound Controller 3 (Release Time)
73 Sound Controller 4 (Attack Time)
74 Sound Controller 5 (Brightness)
75 Sound Controller 6
76 Sound Controller 7
77 Sound Controller 8
78 Sound Controller 9
79 Sound Controller 10
80 General Purpose Controller #5
81 General Purpose Controller #6
82 General Purpose Controller #7
83 General Purpose Controller #8
84 Portamento Control
85 Indefinido
86 Indefinido
87 Indefinido
88 Indefinido
89 Indefinido
90 Indefinido
91 Effects 1 Depth
92 Effects 2 Depth
93 Effects 3 Depth
94 Effects 4 Depth
95 Effects 5 Depth
96 Data entry +1
97 Data entry -1
98 Non-Registered Parameter Number LSB
99 Non-Registered Parameter Number MSB
100 Registered Parameter Number LSB
101 Registered Parameter Number MSB
102 Indefinido
103 Indefinido
104 Indefinido
105 Indefinido
106 Indefinido
107 Indefinido
108 Indefinido
109 Indefinido
110 Indefinido
111 Indefinido
112 Indefinido
113 Indefinido
114 Indefinido
115 Indefinido
116 Indefinido
117 Indefinido
118 Indefinido
119 Indefinido
120 All Sound Off
121 Reset All Controllers
122 Local control on/off
123 All notes off
124 Omni mode off (+ all notes off)
125 Omni mode on (+ all notes off)
126 Poly mode on/off (+ all notes off)
127Poly mode on (incl mono=off +all notes off)

Tabla: conversión para delays

Aquí tenéis una útil tabla de conversión para ajustar los delays digitales al tempo.
BPM
1/4 1/8 1/16
(Tempo)
60 1000.00 500.00 250.00
61 983.61 491.80 245.90
62 967.74 483.87 241.94
63 952.38 476.19 238.10
64 937.50 468.75 234.38
65 923.08 461.54 230.77
66 909.09 454.55 227.27
67 895.52 447.76 223.88
68 882.35 441.18 220.59
69 869.57 434.78 217.39
70 857.14 428.57 214.29
71 845.07 422.54 211.27
72 833.33 416.67 208.33
73 821.92 410.96 205.48
74 810.81 405.41 202.70
75 800.00 400.00 200.00
76 789.47 394.74 197.37
77 779.22 389.61 194.81
78 769.23 384.62 192.31
79 759.49 379.75 189.87
80 750.00 375.00 187.50
81 740.74 370.37 185.19
82 731.71 365.85 182.93
83 722.89 361.45 180.72
84 714.29 357.14 178.57
85 705.88 352.94 176.47
86 697.67 348.84 174.42
87 689.66 344.83 172.41
88 681.82 340.91 170.45
89 674.16 337.08 168.54
90 666.67 333.33 166.67
91 659.34 329.67 164.84
92 652.17 326.09 163.04
93 645.16 322.58 161.29
94 638.30 319.15 159.57
95 631.58 315.79 157.89
96 625.00 312.50 156.25
97 618.56 309.28 154.64
98 612.24 306.12 153.06
99 606.06 303.03 151.52
100 600.00 300.00 150.00
101 594.06 297.03 148.51
102 588.24 294.12 147.06
103 582.52 291.26 145.63
104 576.92 288.46 144.23
105 571.43 285.71 142.86
106 566.04 283.02 141.51
107 560.75 280.37 140.19
108 555.56 277.78 138.89
109 550.46 275.23 137.61
110 545.45 272.73 136.36
111 540.54 270.27 135.14
112 535.71 267.86 133.93
113 530.97 265.49 132.74
114 526.32 263.16 131.58
115 521.74 260.87 130.43
116 517.24 258.62 129.31
117 512.82 256.41 128.21
118 508.47 254.24 127.12
119 504.20 252.10 126.05
120 500.00 250.00 125.00
121 495.87 247.93 123.97
122 491.80 245.90 122.95
123 487.80 243.90 121.95
124 483.87 241.94 120.97
125 480.00 240.00 120.00
126 476.19 238.10 119.05
127 472.44 236.22 118.11
128 468.75 234.38 117.19
129 465.12 232.56 116.28
130 461.54 230.77 115.38
131 458.02 229.01 114.50
132 454.55 227.27 113.64
133 451.13 225.56 112.78
134 447.76 223.88 111.94
135 444.44 222.22 111.11
136 441.18 220.59 110.29
137 437.96 218.98 109.49
138 434.78 217.39 108.70
139 431.65 215.83 107.91
140 428.57 214.29 107.14
141 425.53 212.77 106.38
142 422.54 211.27 105.63
143 419.58 209.79 104.90
144 416.67 208.33 104.17
145 413.79 206.90 103.45
146 410.96 205.48 102.74
147 408.16 204.08 102.04
148 405.41 202.70 101.35
149 402.68 201.34 100.67
150 400.00 200.00 100.00
151 397.35 198.68 99.34
152 394.74 197.37 98.68
153 392.16 196.08 98.04
154 389.61 194.81 97.40
155 387.10 193.55 96.77
156 384.62 192.31 96.15
157 382.17 191.08 95.54
158 379.75 189.87 94.94
159 377.36 188.68 94.34
160 375.00 187.50 93.75
161 372.67 186.34 93.17
162 370.37 185.19 92.59
163 368.10 184.05 92.02
164 365.85 182.93 91.46
165 363.64 181.82 90.91
166 361.45 180.72 90.36
167 359.28 179.64 89.82
168 357.14 178.57 89.29
169 355.03 177.51 88.76
170 352.94 176.47 88.24
171 350.88 175.44 87.72
172 348.84 174.42 87.21
173 346.82 173.41 86.71
174 344.83 172.41 86.21
175 342.86 171.43 85.71
176 340.91 170.45 85.23
177 338.98 169.49 84.75
178 337.08 168.54 84.27
179 335.20 167.60 83.80
180 333.33 166.67 83.33
Tabla: cuadrar diferentes unidades de tiempo

Esta tabla sirve para cuadrar unidades de medida diferentes, ya que el tempo se mide en beats
por minuto (BPM), el tiempo en segundos y la longitud en compases. ¿Cómo usar la tabla?
Por ejemplo, si queremos encajar 18 segundos en 9 compases, necesitaremos segun la tabla
un tempo de 120 BPM.

BPM Compases
Segundos 4 5 6 7 8 9 10 11 12 13 14
16 60.0 75.0 90.0 105.0 120.0 135.0 150.0 165.0 180.0 195.0 210.0
17 56.5 70.6 84.7 98.8 112.9 127.1 141.2 155.3 169.4 183.5 197.6
18 53.3 66.7 80.0 93.3 106.7 120.0 133.3 146.7 160.0 173.3 186.7
19 50.5 63.2 75.8 88.4 101.1 113.7 126.3 138.9 151.6 164.2 176.8
20 48.0 60.0 72.0 84.0 96.0 108.0 120.0 132.0 144.0 156.0 168.0
Segundos 9 10 11 12 13 14 15 16 17 18 19
26 83.1 92.3 101.5 110.8 120.0 129.2 138.5 147.7 156.9 166.2 175.4
27 80.0 88.9 97.8 106.7 115.6 124.4 133.3 142.2 151.1 160.0 168.9
28 77.1 85.7 94.3 102.9 111.4 120.0 128.6 137.1 145.7 154.3 162.9
29 74.5 82.8 91.0 99.3 107.6 115.9 124.1 132.4 140.7 149.0 157.2
30 72.0 80.0 88.0 96.0 104.0 112.0 120.0 128.0 136.0 144.0 152.0
Segundos 14 15 16 17 18 19 20 21 22 23 24
36 93.3 100.0 106.7 113.3 120.0 126.7 133.3 140.0 146.7 153.3 160.0
37 90.8 97.3 103.8 110.3 116.8 123.2 129.7 136.2 142.7 149.2 155.7
38 88.4 94.7 101.1 107.4 113.7 120.0 126.3 132.6 138.9 145.3 151.6
39 86.2 92.3 98.5 104.6 110.8 116.9 123.1 129.2 135.4 141.5 147.7
40 84.0 90.0 96.0 102.0 108.0 114.0 120.0 126.0 132.0 138.0 144.0

Tabla: rango de frecuencias de los instrumentos musicales

Instrumento Fundamental Armónicos


Flauta 261-2349 3-8 KHz
Oboe 261-1568 2-12 KHz
Clarinete 165-1568 2-10 KHz
Fagot 62-587 1-7 KHz
Trompeta 165-988 1-7.5 KHz
Trombón 73-587 1-4 KHz
Tuba 49-587 1-4 KHz
Tambor 100-200 1-20 KHz
Bombo 30-147 1-6 KHz
Platillos 300-587 1-15 KHz
Violín 196-3136 4-15 KHz
Viola 131-1175 2-8.5 KHz
Cello 65-698 1-6.5 KHz
Bajo acústico 41-294 1-5KHz
Bajo eléctrico 41-300 1-7 KHz
Guitarra acústica 82-988 1-15 KHz
Guitarra eléctrica (amplif.) 82-1319 1-3.5 KHz
Guitarra eléctrica (directa) 82-1319 1-15 KHz
Piano 28-4196 5-8 KHz
Saxo Soprano 247-1175 2-12 KHz
Saxo alto 175-698 2-12 KHz
Saxo tenor 131-494 1-12 KHz
Cantante 87-392 1-12 KHz

Calculo de los tiempos de retardo en los ecos

Si hay un cálculo recurrente, siempre que nos enfrentamos a ajustar un eco, es el del retardo de las
etapas. Este efecto debe estar sincronizado con el tempo del tema , tarea no demasiado sencilla de
entrada. Para facilitarnos las cosas, existe una sencilla fórmula:

T = (Divisiones x 240.000) / BPM

donde T = milisegundos (ms), Divisiones es la unidad de medida del compás (1/16 = semicorchea,
1/4 = negra) y BPM el tempo de la canción en beats per second (golpes por segundo).
A continuación, una tabla muestra, de forma orientativa, algunos tiempos de retardo.

Tiempo
1/16 1/12
(ms)
BPM 1 2 3 4 5 6 7 8 1 2 4 5
60 250 500 750 1000 1250 1500 1750 2000 333 667 1333 1667
65 231 462 692 923 1154 1385 1615 1846 308 615 1231 1538
70 214 429 643 857 1071 1286 1500 1714 286 571 1143 1429
75 200 400 600 800 1000 1200 1400 1600 267 533 1067 1333
80 188 375 563 750 938 1125 1313 1500 250 500 1000 1250
85 176 353 529 706 882 1059 1235 1412 235 471 941 1176
90 167 333 500 667 833 1000 1167 1333 222 444 889 1111
95 158 316 474 632 789 947 1105 1263 211 421 842 1053
100 150 300 450 600 750 900 1050 1200 200 400 800 1000
105 143 286 429 571 714 857 1000 1143 190 381 762 952
110 136 273 409 545 682 818 955 1091 182 364 727 909
115 130 261 391 522 652 783 913 1043 174 348 696 870
BPM 1/16 1/8 3/16 1/4 5/16 3/8 7/16 1/2 1/12 1/6 1/3 5/12
120 125 250 375 500 625 750 875 1000 167 333 667 833
125 120 240 360 480 600 720 840 960 160 320 640 800
130 115 231 346 462 577 692 808 923 154 308 615 769
135 111 222 333 444 556 667 778 889 148 296 593 741
140 107 214 321 429 536 643 750 857 143 286 571 714
145 103 207 310 414 517 621 724 828 138 276 552 690
150 100 200 300 400 500 600 700 800 133 267 533 667
155 97 194 290 387 484 581 677 774 129 258 516 645
160 94 188 281 375 469 563 656 750 125 250 500 625
165 91 182 273 364 455 545 636 727 121 242 485 606
170 88 176 265 353 441 529 618 706 118 235 471 588
175 86 171 257 343 429 514 600 686 114 229 457 571
180 83 167 250 333 417 500 583 667 111 222 444 556

Tabla: Marcas y modelos de micros para cada uso

AKG D112 (dinámico), AKG D12 (dinámico),


Bombo
Sennheiser MD421 (dinámico)
Shure SM-57 (dinámico), Sennheiser
Caja
MD421(dinámico), AKG 414 (condensador)
Hi-hat Shure SM-57, Shure SM-81, Neumann KM-184
Timbales Sennheiser 609s (dinámico), MD421, SM-57
Shure KSM-32 (condensador), Shure KSM-44
Superiores y (condensador), Neumann TLM 103 (condensador),
platillos Neumann U87 (condensador), Neumann U89, KM-184
(condensador), AKG 414
AKG-414, AT-4050, AT-4033, U-87, U-89, TLM-103,
Micros de sala
KM-184
SM-57, MD421, AKG 414, Sennheiser MD441
Guitarras
(dinámico)
AKG D112, AKG D12, Shure Beta 52 (dinámico),
Bajos
MD421
AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT-
Voz
4033, U-87, TLM-103, Rode N1, Rode N2
Piano U-87, TLM-103, KSM-32/44, AKG-414
Guitarra AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT-
acústica 4033, U-87, TLM-103

Por Ken Lanyon

Tabla de tiempos para Delay

Delay BPM Delay BPM Delay BPM Delay BPM

3.000 20 0.741 81 0.423 142 0.296 203

2.857 21 0.732 82 0.420 143 0.294 204

2.727 22 0.723 83 0.417 144 0.293 205

2.609 23 0.714 84 0.414 145 0.291 206

2.500 24 0.706 85 0.411 146 0.290 207

2.400 25 0.698 86 0.408 147 0.288 208

2.308 26 0.690 87 0.405 148 0.287 209


2.222 27 0.682 88 0.403 149 0.286 210

2.143 28 0.674 89 0.400 150 0.284 211

2.069 29 0.667 90 0.397 151 0.283 212

2.000 30 0.659 91 0.395 152 0.282 213

1.935 31 0.652 92 0.392 153 0.280 214

1.875 32 0.645 93 0.390 154 0.279 215

1.818 33 0.638 94 0.387 155 0.278 216

1.765 34 0.632 95 0.385 156 0.276 217

1.714 35 0.625 96 0.382 157 0.275 218

1.667 36 0.619 97 0.380 158 0.274 219

1.622 37 0.612 98 0.377 159 0.273 220

1.579 38 0.606 99 0.375 160 0.271 221

1.538 39 0.600 100 0.373 161 0.270 222

1.500 40 0.594 101 0.370 162 0.269 223

1.463 41 0.588 102 0.368 163 0.268 224

1.429 42 0.583 103 0.366 164 0.267 225

1.395 43 0.577 104 0.364 165 0.265 226

1.364 44 0.571 105 0.361 166 0.264 227

1.333 45 0.566 106 0.359 167 0.263 228

1.304 46 0.561 107 0.357 168 0.262 229


Delay BPM Delay BPM Delay BPM Delay BPM

1.277 47 0.556 108 0.355 169 0.261 230

1.250 48 0.550 109 0.353 170 0.260 231

1.224 49 0.545 110 0.351 171 0.259 232

1.200 50 0.541 111 0.349 172 0.258 233

1.176 51 0.536 112 0.347 173 0.256 234

1.154 52 0.531 113 0.345 174 0.255 235

1.132 53 0.526 114 0.343 175 0.254 236

1.111 54 0.522 115 0.341 176 0.253 237


1.091 55 0.517 116 0.339 177 0.252 238

1.071 56 0.513 117 0.337 178 0.251 239

1.053 57 0.508 118 0.335 179 0.250 240

1.034 58 0.504 119 0.333 180

1.017 59 0.500 120 0.331 181

1.000 60 0.496 121 0.330 182

0.984 61 0.492 122 0.328 183

0.968 62 0.488 123 0.326 184

0.952 63 0.484 124 0.324 185

0.938 64 0.480 125 0.323 186

0.923 65 0.476 126 0.321 187

0.909 66 0.472 127 0.319 188

0.896 67 0.469 128 0.317 189

0.882 68 0.465 129 0.316 190

0.870 69 0.462 130 0.314 191

0.857 70 0.458 131 0.313 192

0.845 71 0.455 132 0.311 193

0.833 72 0.451 133 0.309 194

0.822 73 0.448 134 0.308 195

0.811 74 0.444 135 0.306 196


Delay BPM Delay BPM Delay BPM Delay BPM

0.800 75 0.441 136 0.305 197

0.789 76 0.438 137 0.303 198

0.779 77 0.435 138 0.302 199

0.769 78 0.432 139 0.300 200

0.759 79 0.429 140 0.299 201

0.750 80 0.426 141 0.297 202

También podría gustarte