Documentos de Académico
Documentos de Profesional
Documentos de Cultura
UF 3.2 CONFIGURACIÓN DE
SISTEMAS DE EDICIÓN DE
SONIDO
Stéphane Carteaux
Índice
2
7. Dispositivos de almacenamiento
8. Copias de seguridad
9. Técnicas de valoración de archivos sonoros
10. Técnicas de edición de archivos de audio
1. Tipos de archivos y cambios de formatos
2. Funciones de las herramientas de edición
3. Mezcla estéreo
11. Procesadores de audio y carácterísticas
1. Frecuencia, dinámica, tiempo
2. Plugins de aplicación dedicada: denoiser, deesser, declicker,
dehisser, autotune entre otros
12. Formatos digitales de audio
Fundamentos y definiciones del sonido
4
¨ La altura
¤ La altura, o altura tonal, indica si el sonido es grave, agudo o medio y viene determinada por la
frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).
¤ Para que los humanos podamos percibir un sonido, este debe estar comprendido entre el rango de
audición de 20 y 20.000 Hz. A esto se le denomina rango de frecuencia audible. Cuanta más edad se
tiene, este rango va reduciéndose tanto en graves como en agudos.
¤ En la música occidental se fueron estableciendo tonos determinados llamados notas, cuya secuencia de
12 (C, C#, D, D#, E, F, F#, G, G#, A, A#, B) se va repitiendo formando octavas, en cada una de estas
se duplica la frecuencia. La diferencia entre distintas notas se denomina intervalo.
Fundamentos y definiciones del sonido
6
¨ La duración
¤ Es el tiempo durante el cual se
mantiene un sonido. Podemos
escuchar sonidos largos, cortos,
muy cortos, etc.
¤ En términos musicales, la duración
se representa por medio de las
figuras musicales asignadas a los
diferentes sonidos.
¤ La figura que representa la
unidad es la redonda, y sirve
como punto de referencia para
conocer el valor del resto de las
figuras.
Fundamentos y definiciones del sonido
7
¨ La intensidad
¤ Es la cantidad de energía acústica que contiene un sonido, es
decir, lo fuerte o suave de un sonido.
¤ La intensidad viene determinada por la potencia, que a su vez
está determinada por la amplitud y nos permite distinguir si el
sonido es fuerte o débil.
Fundamentos y definiciones del sonido
8
¨ El timbre
¤ Si el tono permite diferenciar unos sonidos de otros por su frecuencia y la intensidad los
sonidos fuertes de los débiles, el timbre es la cualidad que permite distinguir los sonidos
producidos por los diferentes instrumentos.
¤ Más concretamente, el timbre o forma de onda es la característica que nos permitirá
distinguir una nota de la misma frecuencia e intensidad producida por instrumentos
diferentes.
¤ La forma de onda viene determinada por los armónicos, que son una serie de vibraciones
subsidiarias que acompañan a una vibración primaria o fundamental del movimiento
ondulatorio (especialmente en los instrumentos musicales).
Audio digital
9
¨ Tasa de muestreo
¤ De acuerdo con el Teorema de Nyquist, la tasa de muestreo es el número de
muestras con las que se realiza el proceso de muestreo en una unidad de
tiempo. Determina exclusivamente la frecuencia máxima de los componentes
armónicos que pueden formar parte del material a digitalizar).
Audio digital
11
¨ Cuantificación digital
¤ La cuantificación se encarga de convertir una sucesión de muestras de una
determinada señal analógica con amplitud continua en una sucesión de valores
discretos, preestablecidos según el código utilizado.
¤ Durante el proceso de cuantificación se mide el nivel de tensión de cada una de
las muestras, obtenidas en el proceso de muestreo, y se les atribuye un valor
finito (discreto) de amplitud, seleccionado por aproximación dentro de un
margen de niveles previamente fijado.
¤ Los valores preestablecidos para ajustar la cuantificación se eligen en función
de la propia resolución que utilice el código empleado durante la codificación.
Si el nivel obtenido no coincide exactamente con ninguno, se toma como valor el
inferior más próximo.
¤ En este momento, la señal analógica (que puede tomar cualquier valor) se
convierte en una señal digital, ya que los valores que están preestablecidos, son
finitos. No obstante, todavía no se traduce al sistema binario. La señal ha
quedado representada por un valor finito que durante la codificación (siguiente
proceso de la conversión analógico digital) será cuando se transforme en una
sucesión de ceros y unos.
Audio digital
12
¨ Wordclock:
¤ Una señal digital de audio está compuesta por bits agrupados en "palabras"
que representa el valor de cada sample.
¤ Wordclock es una señal para sincronización basada en la frecuencia de
muestreo o la velocidad a la que cada sample es enviado a través de una
conexión digital. Por ejemplo, en un sistema de 24 bit y 44,1 Khz, 44.100
samples de 24 bits cada uno, son enviados cada segundo. Wordclock es usado
por el dispositivo que recibe la señal para descifrar, en la gran cadena de unos
y ceros, donde empieza y termina cada sample (cuál es el primer y último bit
de cada sample) y si la palabra o sample pertenece a el canal derecho o
izquierdo en una señal estéreo.
¤ Cuando se transmiten señales digitales de un dispositivo a otro es muy
importante que sus relojes estén sincronizados para que las palabras de cada
sample estén bien "alineadas" en el dispositivo que recibe, de lo contrario se
puede degradar el audio con clicks, pops y otras aberraciones.
¤ La sincronización se logra ya sea haciendo esclavo el reloj interno del equipo
que recibe la señal a aquel del equipo que la envía, o conectando los dos
equipos (pueden ser más) a un reloj master.
Audio digital
14
¨ Latencia:
¤ Con latencia en los sistemas de audio, sean analógicos o digitales, nos referimos al retardo que sufre
una señal de audio en su transito a través de un sistema de procesado de audio, es decir el tiempo
que transcurre desde que la señal entra por una de sus entradas hasta que esta es entregada por una
de sus salidas. Esta latencia o retardo de la señal se debe al tiempo de proceso que el sistema
necesita hasta que nos devuelve de nuevo la señal.
¤ En el mundo analógico (mesas de mezcla analógicas, amplificadores, etc.) esta latencia también existe
aunque es tan pequeña que es irrelevante en términos musicales, por eso nunca ha sido una cuestión
importante en un entorno de proceso analógico de audio.
¤ Sin embargo, los procesadores digitales y en especial los ordenadores, pueden generar latencias muy
significativas, impidiendo en muchos casos su uso para la monitorización de las señales en tiempo real.
Por tanto, el tema de la latencia es un factor clave para que el procesado de audio mediante
ordenadores pueda considerarse de igual a igual con los sistemas analógicos y otros sistemas digitales
que carecen de latencia apreciable.
¤ Afortunadamente muchos de los equipos digitales por hardware (como mesas de mezcla y toda clase
de procesadores de efectos digitales) gracias a que trabajan con procesadores digitales de señal
(DSP) dedicados exclusivamente a procesar audio, pueden operar con buffers muy pequeños, por lo
que la latencia final resultante se mantiene en unos rangos tolerables en términos musicales que
normalmente no supera los 5 milisegundos.
Configuración y optimización del
sistema operativo
15
¨ Configuración de audio
¤ La mayoría de aplicaciones de audio ofrecen una opción
que permite ajustar la medida de latencia de audio (o
buffer de audio) en el menú de preferencias.
¤ La medida de latencia/buffer determina cuánto tiempo
tiene el ordenador a disposición para computar todas las
operaciones necesarias para la reproducción continua de
audio.
¤ Dependiendo de la capacidad de procesamiento del
ordenador y la cantidad de operaciones requeridas por la
aplicación, es recomendable utilizar medidas de latencia de
256 o 512 samples).
Configuración y optimización del
sistema operativo
16
¨ Suministro de energía
¤ Mantenga siempre el ordenador conectado a un suministro de energía
externa, especialmente cuando utiliza una interfaz de audio externa
y/o un controlador MIDI.
¨ USB Hub
¤ Debido a que la mayor parte de modelos de sistemas Mac están
provistos de dos puertos USB, podría necesitar un hub USB externo para
expandir el número de dispositivos externos USB. En este caso, hay que
considerar lo siguiente:
¤ Utilice tan solo hubs USB con suministro de energia externo.
¤ Si utiliza una interfaz de audio USB, no la conecte al hub USB. Las
interfaces de audio requieren la mayor cantidad de energía y
calculaciones, por ello deberán conectarse directamente hacia un puerto
USB libre. Puede conectar todos los otros dispositivos externos hacia el
otro puerto USB libre mediante el hub USB.
Configuración y optimización del
sistema operativo
17
¨ Otras aplicaciones
¤ Cierre todas las aplicaciones a excepción de la aplicación de audio a utilizar.
Esto se aplica a cualquier software que no sea requerido para el procesamiento
y/o reproducción de audio incluyendo navegadores de Internet, clientes de mail
y procesos secundarios.
¨ Wi-Fi y Bluetooth
¤ La actividad de red puede interferir con la reproducción de audio; por ello
recomendamos desactivar el Wi-Fi/Airport.
¤ Lo mismo se aplica a las conexiones de Bluetooth.
¨ Configuración de ahorro de energía
¤ El menú Economizador de Mac dispone de una serie de opciones para optimizar
el consumo de energía de su Mac. Para el uso de aplicaciones de audio, estas
deberán ser desactivadas. Vaya a Preferencias del Sistema > Economizador.
Mueva los deslizadores Reposo del ordenador y Reposo de la pantalla hacia
Nunca y desmarque la casilla Poner el disco en reposo cuando sea posible.
Maquinaria de audio digital
18
¨ Una estación de trabajo de audio digital o DAW por sus siglas en inglés
(Digital Audio Workstation) es un sistema electrónico dedicado a la
grabación y edición de audio digital por medio de un software de edición
de audio y del hardware compuesto por un ordenador y una interfaz de
audio digital, encargada de realizar la conversión analógica-digital y
digital-analógica dentro de la estación.
¨ Las DAW son utilizadas actualmente en casi toda la producción
discográfica a nivel mundial y para la posproducción de sonido para cine,
televisión y videojuegos. Debido a su relativa facilidad de adquisición,
están presentes tanto a nivel profesional como a nivel aficionado, dando
origen a los famosos Home Studios o estudios caseros de sonido.
¨ A continuación, describiremos los tres componentes principales de una
estación de audio digital:
Maquinaria de audio digital
19
¨ El anfitrión
¤ El anfitrión o equipo host es el ordenador encargado de brindar
el procesamiento de los algoritmos digitales dentro del software
de edición y así mismo, el encargado de hospedar la interfaz de
sonido y el software de edición.
¤ Los ordenadores actuales poseen una gran capacidad de
procesamiento interno, lo que ha posibilitado el desarrollo de
editores de audio más potentes y más variados en cuanto a
herramientas de edición y procesamiento.
¤ Si bien el anfitrión es el encargado de procesar digitalmente el
audio, no es él quien produce el sonido, puesto que los procesos
que se llevan a cabo en el anfitrión son operaciones binarias que
necesitan ser convertidas por la interfaz de sonido a variaciones
de voltaje análogas a la variaciones de presión que percibimos
como sonido.
Maquinaria de audio digital
20
¨ La interfaz de sonido
¤ La interfaz de sonido es la encargada de realizar la conversión analógica-digital y
digital-analógica durante el proceso de reproducción y grabación del audio.
¤ La interfaz puede contener múltiples entradas y salidas análogas y digitales
dependiendo de las características de fabricación. Las salidas de la interfaz se conectan
a unos monitores de audio que generan las variaciones de presión necesarias para
percibir el sonido y por otro lado, las entradas se conectan a micrófonos, amplificadores,
instrumentos musicales o todo aquello que necesite ser ingresado al Software.
¤ Las interfaces de sonido profesionales suelen tener mayores tasas de muestreo y mayor
profundidad de bits al momento de convertir la señal, garantizando una perdida mínima
de información durante el proceso. Así mismo se caracterizan por poseer entradas y
salidas MIDI para automatizar o "tocar" instrumentos virtuales dentro del software de
edición de audio así como entradas y salidas de sincronismo.
Maquinaria de audio digital
21
¨ El software
¤ El software de una DAW suele estar diseñado con múltiples interfaces de usuario pero
generalmente está basado en una analogía con los principles elementos de los estudios
tradicionales. En este sentido, suelen constar de dos ventanas principales:
n La grabadora multipistas
n El mezclador
Tarjetas y interfaces de audio/MIDI
22
Tarjetas y interfaces de
23
audio/MIDI
Características y posibilidades
24
Patch Bantam
Características y posibilidades
25
¤ Línea balanceada
n Una línea balanceada se realiza mediante dos conductores, uno de ellos
denominado vivo o caliente el cual porta la señal en fase (normalmente de
color rojo), el otro denominado retorno o frio porta la señal desfasada 180º
llamada contrafase (normalmente de color negro). Este par de conductores
va cubierto por una malla conectada a masa. Con esta disposición, se logra
mejorar la respuesta ante las interferencias que ofrece la línea no
balanceada.
n Dicha mejora se fundamenta en que si una interferencia logra atravesar la
malla, induce el transitorio en ambos conductores en el mismo sentido. En el
receptor, para desbalancear la línea, hay que invertir la señal que porta la
contrafase y sumarla a la fase (o sea restar ambas señales) logrando así
duplicar la amplitud de la señal resultante. Al invertir la contrafase, el
transitorio queda invertido también, y al sumarlo con la fase, coincidiendo
con el transitorio allí inducido, este se anula.
n Esta buena respuesta ante el ataque de interferencias es la razón por la que
las líneas balanceadas se utilizan en el campo profesional.
Características y posibilidades
27
¨ Conectores
¨ Preamplificadores
¤ El preamplificador es un circuito eléctrico que eleva el voltaje que proporciona
el transductor a su salida, para alcanzar el nivel de línea y así poder trabajar
con una correcta señal a través de nuestro estudio de grabación.
¤ El diseño del previo es muy importante: dado que maneja unas ganancias
elevadas, puede también amplificar su propio ruido eléctrico y distorsión; la
impedancia que conectemos a la entrada del previo y la impedancia de salida
de este es lo que determina el comportamiento del pre-amplificador.
¤ Un buen pre-amp estará diseñado para conseguir el mínimo ruido y distorsión.
Características y posibilidades
31
¨ Convertidores AD/DA
¤ Después del micro y del preamplificador, el dispositivo que más impacto tiene
sobre la calidad del sonido es el conversor analógico/digital (ADC, que
convierte la señal analógica en el lenguaje digital del DAW) y el conversor
digital/analógico (DAC, que vuelve a convertir la señal digital en señal
analógica para su reproducción).
¤ En la mayoría de las interfaces de bajo o medio coste, los ADC y DAC están
incorporados en la misma unidad que los preamplificadores pero en sistemas de
alta gama, como Pro Tools HD, los ADC y DAC son unidades separadas de más
alta fidelidad. Existen también dispositivos especializados de todavía más
fidelidad, fabricados por marcas como Apogee o Lavry.
Características y posibilidades
32
¨ Sincronización
¤ La sincronización describe el ajuste temporal de eventos. En audio se
utiliza la sincronización para que varios equipos puedan trabajar juntos
y siguiendo una misma referencia de tiempo. Eso permite por ejemplo
trabajar en un mismo proyecto con varios software de audio o video al
mismo tiempo y en perfecta sincronización.
¤ El estándar en la industria de audio, video y cinema es el SMPTE
timecode. En los DAW, encontramos el Midi timecode, que integra la
misma información que el citado SMPTE timecode a través de mensajes
Midi. El Midi Clock es otro tipo de señal de sincronización a través de
mensajes Midi que también encontramos en los DAW.
Características y posibilidades
33
¤ USB
n El Bus Universal en Serie (en inglés: Universal Serial Bus), es un bus de comunicaciones que sigue
un estándar que define los cables, conectores y protocolos usados en un bus para conectar,
comunicar y proveer de alimentación eléctrica entre ordenadores, periféricos y dispositivos
electrónicos.
n Existen varias versiones del bus USB, con velocidades de transmisión diferentes que detallaremos
a continuación.
n Las características básicas del USB incluyen:
n Los sistemas operativos actuales reconocen y configuran automáticamente cualquier aparato USB
que se vende junto con sus controladores.
n Los dispositivos son "conectables en caliente", esto significa que pueden añadirse (o quitarse)
mientras el ordenador está encendido y en funcionamiento.
n Los cables USB pueden ser de hasta 4,5 metros de longitud (hasta 3 metros para dispositivos de
baja velocidad) e incluir dos pares de hilos trenzados, uno para llevar los datos de la señal y el
otro para llevar un voltaje DC a un aparato que requiere alimentación del propio USB. Aquellos
que utilicen menos de 500 miliamperios pueden obtener la potencia directamente del soporte 5-V
DC de cable USB, mientras que aquellos que tienen demandas de corriente más alta necesitarán
ser alimentados de manera externa.
n La distribución del cable y la "red tipo anillo" se efectúan vía hub (concentrador USB) de datos.
Estos dispositivos gestionan el tráfico de datos y los transfieren a través de diferentes entradas de
USB de un modo secuencia, conduciendo los datos hacia una única línea de salida. Se debe tener
en cuenta que no todos los hubs se construyen de la misma forma. En algunas situaciones, el conjunto
de chips que se utiliza dentro de un hub podría no ser compatible con ciertos sistemas MIDI y de
interfaz de audio.
Características y posibilidades
35
¤ Thunderbolt
n La tecnología Thunderbolt, actualmente en su versión 3, ofrece ofrece tasas de transferencia de
hasta 40 Gbps. Esto lo convierte en una tecnología ultrarrápida y ultraversátil.
n Originalmente usaba conectores de tipo mini display port pero en la actualidad, la última versión
se aprovecha del omnipresente conector USB Tipo C.
n Cabe destacar que el conector USB tipo C, si bien nació como un estándar, se ha convertido en un
puerto algo confuso ya que la manera en la que los fabricantes utilizan las cararacteristicas del
puerto no siempre es clara.
n Cuentas con un ancho de banda suficiente para conectar varios dispositivos de alta velocidad en
cadena sin usar un hub o un conmutador y manteniendo un rendimiento máximo.
Características y posibilidades
36
Características y posibilidades
37
¤ FireWire
n FireWire mantiene dos modos de velocidad:
n Firewirw 400.
Tiene un ancho de banda de 400 Mbit/s similar a la del USB 2.0 (480
Mbit/s) y es capaz de distribuir datos a través de cables de hasta 4,5
metros de longitud.
n Firewire 800.
Tiene un ancho de banda de 800 Mbits/s. Es capaz de comunicar grandes
cantidades de datos a través de cables de hasta 100 metros de longitud y
posee compatibilidad retroactiva con Firewire 400.
Características y posibilidades
38
¤ Ópticos – CD/DVD/Blu-Ray
n Almacenan la información mediante un material que puede presentar diferentes tipos
de reflexión a la luz de un laser
n Los dispositivos suelen ser de lectura
n Los dispositivos de escritura pueden ser mecánicos grabadores
n Solo se pueden escribir una vez (excepto los RW)
n Diferentes densidades de información (CD/DVD/Blu-Ray)
n Ventajas
n Baratos
n Ligeros
n Portabilidad
n Facilidad de distribución
n Inconvenientes
n Poco aptos para sistemas portátiles
n Solo se pueden grabar una vez
n Baja densidad
n Se pueden rallar con facilidad
n Baja velocidad
Dispositivos de almacenamiento
42
¤ Magneto-ópticos – Mini-Disc
n Combinan lectura óptica con escritura magnética
n Solventan el problema de las múltiples escrituras
n Son más robustos que los ópticos simples
n Están actualmente en desuso a favor de los dispositivos de
estado solido
Dispositivos de almacenamiento
43
¤ Cinta
n Almacenamiento de la información en un material magnético
en forma de cinta
n Son de lectura y escritura secuencial
n Alta densidad de información
n Solo tienen sentido en sistemas de backup
Copias de seguridad
45
¤ Tiempo
n Los efectos basados en tiempo, a diferencia de los ecualizadores y procesadores de
dinámica, añaden material sonoro al las fuentes de audio que procesamos con ellos.
n Los principales son el delay y la reverberación.
n La reverberación es un efecto sonoro que se da en la realidad en espacios cerrados.
Cuando se emite un sonido, éste se propaga en forma esférica, rebotando sus ondas
en paredes, techo y suelo. Este sonido rebotado llega a nosotros (o al micrófono) en
forma de múltiples ecos diferenciados en tiempo y modificada su amplitud por los
materiales absorbentes de la sala. Puedes pensar que la reverb está básicamente
formada por cientos de delays.
n Dado que la evolución en las técnicas de grabación ha propiciado que las tomas con
micrófonos se hagan a distancias muy cortas de la fuente, atenuando así el ambiente
de la sala, como el uso cada vez mayor de sintetizadores y samplers en los que no son
necesarios los micrófonos, ahora tenemos que utilizar unidades de reverb y plugins
para recrear ese ambiente que no hemos capturado en la toma de sonido.
n Un buen uso del efecto de reverb, potencia la sensación de profundidad en la imagen
sonora de tu mezcla. La falta de reverb, ya sea natural o generada por una unidad o
plugin de reverb, puede provocar que tu producción suene sin esa profundidad de las
mezclas profesionales. Por supuesto, el mal uso del efecto de reverb puede arruinar
una magnífica producción.
Procesadores de audio
51
Los archivos de audio digital almacenan toda la información que ocurra en el tiempo.
Existen muchos formatos de archivo de audio digital, que se pueden dividir en dos
categorías: no comprimidos (PCM) y comprimidos.
¨ Formatos no comprimidos (PCM)
¤ Los formatos PCM contienen toda la información que salió del convertidor analógico a
digital, sin ninguna omisión y por eso, tienen la mejor calidad. Dentro de esta categoría se
encuentran los formatos WAV, AIFF, RAW entre otros. La diferencia principal que tienen
estos formatos es el encabezado.
¨ Formatos comprimidos
¤ Formatos comprimidos con perdida (Lossy)
n Para usar menos espacio que los archivos PCM, existen formatos de sonido comprimidos, como por
ejemplo el MP3 y el AAC. Ciertos algoritmos de compresión descartan información que no es
perceptible por el oído humano para lograr que el mismo fragmento de audio pueda ocupar
hasta la decima parte -o incluso menos- de lo que ocuparía un archivo PCM. La reducción en
tamaño implica una perdida de información y por esto a los formatos de este tipo se les llama
formatos comprimidos con perdida.
¤ Formatos comprimidos sin perdida (Lossless)
n Existen también formatos de archivo comprimido sin perdida, entre los que se cuentan el FLAC y el
Apple Lossless Encoder, cuyo tamaño suele ser de aproximadamente la mitad de su equivalente
PCM.