Está en la página 1de 52

1

UF 3.2 CONFIGURACIÓN DE
SISTEMAS DE EDICIÓN DE
SONIDO

Stéphane Carteaux
Índice
2

1. Fundamentos y definiciones del sonido


2. Audio digital
3. Configuración y optimización del sistema operativo
4. Maquinaria de audio digital
5. Tarjetas y interfaces de audio/MIDI
6. Características y posibilidades
1. Entradas y salidas de audio
2. Líneas balanceadas y no balanceadas
3. Conectores
4. Preamplificadores
5. Convertidores AD/DA
6. Sincronización
7. Conexión con el ordenador central
Índice
3

7. Dispositivos de almacenamiento
8. Copias de seguridad
9. Técnicas de valoración de archivos sonoros
10. Técnicas de edición de archivos de audio
1. Tipos de archivos y cambios de formatos
2. Funciones de las herramientas de edición
3. Mezcla estéreo
11. Procesadores de audio y carácterísticas
1. Frecuencia, dinámica, tiempo
2. Plugins de aplicación dedicada: denoiser, deesser, declicker,
dehisser, autotune entre otros
12. Formatos digitales de audio
Fundamentos y definiciones del sonido
4

¨ El sonido es la sensación percibida por el oído como resultado de variaciones rápidas de la


presión en el aire.
¨ En términos físicos, "sonido" es la vibración mecánica de un medio elástico gaseoso, liquido o
solido, a través del cual se transmite la energía, de un modo continuo, desde la fuente por
ondas sonoras progresivas. Cada vez que un objeto vibra o se mueve, una pequeña parte de
la energía relacionada con este proceso se pierde, siendo radiada al medio como sonido.
¨ Las cuatro cualidades básicas del sonido son la altura, la duración, la intensidad y el timbre.
Fundamentos y definiciones del sonido
5

¨ La altura
¤ La altura, o altura tonal, indica si el sonido es grave, agudo o medio y viene determinada por la
frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).
¤ Para que los humanos podamos percibir un sonido, este debe estar comprendido entre el rango de
audición de 20 y 20.000 Hz. A esto se le denomina rango de frecuencia audible. Cuanta más edad se
tiene, este rango va reduciéndose tanto en graves como en agudos.
¤ En la música occidental se fueron estableciendo tonos determinados llamados notas, cuya secuencia de
12 (C, C#, D, D#, E, F, F#, G, G#, A, A#, B) se va repitiendo formando octavas, en cada una de estas
se duplica la frecuencia. La diferencia entre distintas notas se denomina intervalo.
Fundamentos y definiciones del sonido
6

¨ La duración
¤ Es el tiempo durante el cual se
mantiene un sonido. Podemos
escuchar sonidos largos, cortos,
muy cortos, etc.
¤ En términos musicales, la duración
se representa por medio de las
figuras musicales asignadas a los
diferentes sonidos.
¤ La figura que representa la
unidad es la redonda, y sirve
como punto de referencia para
conocer el valor del resto de las
figuras.
Fundamentos y definiciones del sonido
7

¨ La intensidad
¤ Es la cantidad de energía acústica que contiene un sonido, es
decir, lo fuerte o suave de un sonido.
¤ La intensidad viene determinada por la potencia, que a su vez
está determinada por la amplitud y nos permite distinguir si el
sonido es fuerte o débil.
Fundamentos y definiciones del sonido
8

¨ El timbre
¤ Si el tono permite diferenciar unos sonidos de otros por su frecuencia y la intensidad los
sonidos fuertes de los débiles, el timbre es la cualidad que permite distinguir los sonidos
producidos por los diferentes instrumentos.
¤ Más concretamente, el timbre o forma de onda es la característica que nos permitirá
distinguir una nota de la misma frecuencia e intensidad producida por instrumentos
diferentes.
¤ La forma de onda viene determinada por los armónicos, que son una serie de vibraciones
subsidiarias que acompañan a una vibración primaria o fundamental del movimiento
ondulatorio (especialmente en los instrumentos musicales).
Audio digital
9

¨ El audio digital es la codificación digital de una señal eléctrica que


representa una onda sonora. Consiste en una secuencia de valores enteros
y se obtienen de dos procesos: el muestreo y la cuantificación digital de la
señal eléctrica.
¨ Muestreo
¤ El muestreo consiste en fijar la amplitud de la señal eléctrica a intervalos
regulares de tiempo (tasa de muestreo).
¤ Para reproducir un determinado intervalo de frecuencias se necesita una tasa
de muestreo de poco más del doble (Teorema de muestreo de Nyquist-
Shannon). Por ejemplo los CD, que reproducen hasta 20 kHz, emplean una tasa
de muestreo de 44,1 kHz (frecuencia Nyquist de 22,05 kHz).
¤ El formato más usado de audio digital PCM lineal es el del CD de audio: 44,1
kHz de tasa de muestreo y cuantificación lineal de 16 bits (que mide 65536
niveles de señal diferentes) y que, en la practica, permite registrar señales
analógicas con componentes hasta los 20 kHz y con relaciones señal a ruido de
más de 90 dB.
Audio digital
10

¨ Tasa de muestreo
¤ De acuerdo con el Teorema de Nyquist, la tasa de muestreo es el número de
muestras con las que se realiza el proceso de muestreo en una unidad de
tiempo. Determina exclusivamente la frecuencia máxima de los componentes
armónicos que pueden formar parte del material a digitalizar).
Audio digital
11

¨ Cuantificación digital
¤ La cuantificación se encarga de convertir una sucesión de muestras de una
determinada señal analógica con amplitud continua en una sucesión de valores
discretos, preestablecidos según el código utilizado.
¤ Durante el proceso de cuantificación se mide el nivel de tensión de cada una de
las muestras, obtenidas en el proceso de muestreo, y se les atribuye un valor
finito (discreto) de amplitud, seleccionado por aproximación dentro de un
margen de niveles previamente fijado.
¤ Los valores preestablecidos para ajustar la cuantificación se eligen en función
de la propia resolución que utilice el código empleado durante la codificación.
Si el nivel obtenido no coincide exactamente con ninguno, se toma como valor el
inferior más próximo.
¤ En este momento, la señal analógica (que puede tomar cualquier valor) se
convierte en una señal digital, ya que los valores que están preestablecidos, son
finitos. No obstante, todavía no se traduce al sistema binario. La señal ha
quedado representada por un valor finito que durante la codificación (siguiente
proceso de la conversión analógico digital) será cuando se transforme en una
sucesión de ceros y unos.
Audio digital
12

Las etapas del proceso de conversión analógico/digital


Audio digital
13

¨ Wordclock:
¤ Una señal digital de audio está compuesta por bits agrupados en "palabras"
que representa el valor de cada sample.
¤ Wordclock es una señal para sincronización basada en la frecuencia de
muestreo o la velocidad a la que cada sample es enviado a través de una
conexión digital. Por ejemplo, en un sistema de 24 bit y 44,1 Khz, 44.100
samples de 24 bits cada uno, son enviados cada segundo. Wordclock es usado
por el dispositivo que recibe la señal para descifrar, en la gran cadena de unos
y ceros, donde empieza y termina cada sample (cuál es el primer y último bit
de cada sample) y si la palabra o sample pertenece a el canal derecho o
izquierdo en una señal estéreo.
¤ Cuando se transmiten señales digitales de un dispositivo a otro es muy
importante que sus relojes estén sincronizados para que las palabras de cada
sample estén bien "alineadas" en el dispositivo que recibe, de lo contrario se
puede degradar el audio con clicks, pops y otras aberraciones.
¤ La sincronización se logra ya sea haciendo esclavo el reloj interno del equipo
que recibe la señal a aquel del equipo que la envía, o conectando los dos
equipos (pueden ser más) a un reloj master.
Audio digital
14

¨ Latencia:
¤ Con latencia en los sistemas de audio, sean analógicos o digitales, nos referimos al retardo que sufre
una señal de audio en su transito a través de un sistema de procesado de audio, es decir el tiempo
que transcurre desde que la señal entra por una de sus entradas hasta que esta es entregada por una
de sus salidas. Esta latencia o retardo de la señal se debe al tiempo de proceso que el sistema
necesita hasta que nos devuelve de nuevo la señal.
¤ En el mundo analógico (mesas de mezcla analógicas, amplificadores, etc.) esta latencia también existe
aunque es tan pequeña que es irrelevante en términos musicales, por eso nunca ha sido una cuestión
importante en un entorno de proceso analógico de audio.
¤ Sin embargo, los procesadores digitales y en especial los ordenadores, pueden generar latencias muy
significativas, impidiendo en muchos casos su uso para la monitorización de las señales en tiempo real.
Por tanto, el tema de la latencia es un factor clave para que el procesado de audio mediante
ordenadores pueda considerarse de igual a igual con los sistemas analógicos y otros sistemas digitales
que carecen de latencia apreciable.
¤ Afortunadamente muchos de los equipos digitales por hardware (como mesas de mezcla y toda clase
de procesadores de efectos digitales) gracias a que trabajan con procesadores digitales de señal
(DSP) dedicados exclusivamente a procesar audio, pueden operar con buffers muy pequeños, por lo
que la latencia final resultante se mantiene en unos rangos tolerables en términos musicales que
normalmente no supera los 5 milisegundos.
Configuración y optimización del
sistema operativo
15

¨ Configuración de audio
¤ La mayoría de aplicaciones de audio ofrecen una opción
que permite ajustar la medida de latencia de audio (o
buffer de audio) en el menú de preferencias.
¤ La medida de latencia/buffer determina cuánto tiempo
tiene el ordenador a disposición para computar todas las
operaciones necesarias para la reproducción continua de
audio.
¤ Dependiendo de la capacidad de procesamiento del
ordenador y la cantidad de operaciones requeridas por la
aplicación, es recomendable utilizar medidas de latencia de
256 o 512 samples).
Configuración y optimización del
sistema operativo
16

¨ Suministro de energía
¤ Mantenga siempre el ordenador conectado a un suministro de energía
externa, especialmente cuando utiliza una interfaz de audio externa
y/o un controlador MIDI.
¨ USB Hub
¤ Debido a que la mayor parte de modelos de sistemas Mac están
provistos de dos puertos USB, podría necesitar un hub USB externo para
expandir el número de dispositivos externos USB. En este caso, hay que
considerar lo siguiente:
¤ Utilice tan solo hubs USB con suministro de energia externo.
¤ Si utiliza una interfaz de audio USB, no la conecte al hub USB. Las
interfaces de audio requieren la mayor cantidad de energía y
calculaciones, por ello deberán conectarse directamente hacia un puerto
USB libre. Puede conectar todos los otros dispositivos externos hacia el
otro puerto USB libre mediante el hub USB.
Configuración y optimización del
sistema operativo
17

¨ Otras aplicaciones
¤ Cierre todas las aplicaciones a excepción de la aplicación de audio a utilizar.
Esto se aplica a cualquier software que no sea requerido para el procesamiento
y/o reproducción de audio incluyendo navegadores de Internet, clientes de mail
y procesos secundarios.
¨ Wi-Fi y Bluetooth
¤ La actividad de red puede interferir con la reproducción de audio; por ello
recomendamos desactivar el Wi-Fi/Airport.
¤ Lo mismo se aplica a las conexiones de Bluetooth.
¨ Configuración de ahorro de energía
¤ El menú Economizador de Mac dispone de una serie de opciones para optimizar
el consumo de energía de su Mac. Para el uso de aplicaciones de audio, estas
deberán ser desactivadas. Vaya a Preferencias del Sistema > Economizador.
Mueva los deslizadores Reposo del ordenador y Reposo de la pantalla hacia
Nunca y desmarque la casilla Poner el disco en reposo cuando sea posible.
Maquinaria de audio digital
18

¨ Una estación de trabajo de audio digital o DAW por sus siglas en inglés
(Digital Audio Workstation) es un sistema electrónico dedicado a la
grabación y edición de audio digital por medio de un software de edición
de audio y del hardware compuesto por un ordenador y una interfaz de
audio digital, encargada de realizar la conversión analógica-digital y
digital-analógica dentro de la estación.
¨ Las DAW son utilizadas actualmente en casi toda la producción
discográfica a nivel mundial y para la posproducción de sonido para cine,
televisión y videojuegos. Debido a su relativa facilidad de adquisición,
están presentes tanto a nivel profesional como a nivel aficionado, dando
origen a los famosos Home Studios o estudios caseros de sonido.
¨ A continuación, describiremos los tres componentes principales de una
estación de audio digital:
Maquinaria de audio digital
19

¨ El anfitrión
¤ El anfitrión o equipo host es el ordenador encargado de brindar
el procesamiento de los algoritmos digitales dentro del software
de edición y así mismo, el encargado de hospedar la interfaz de
sonido y el software de edición.
¤ Los ordenadores actuales poseen una gran capacidad de
procesamiento interno, lo que ha posibilitado el desarrollo de
editores de audio más potentes y más variados en cuanto a
herramientas de edición y procesamiento.
¤ Si bien el anfitrión es el encargado de procesar digitalmente el
audio, no es él quien produce el sonido, puesto que los procesos
que se llevan a cabo en el anfitrión son operaciones binarias que
necesitan ser convertidas por la interfaz de sonido a variaciones
de voltaje análogas a la variaciones de presión que percibimos
como sonido.
Maquinaria de audio digital
20

¨ La interfaz de sonido
¤ La interfaz de sonido es la encargada de realizar la conversión analógica-digital y
digital-analógica durante el proceso de reproducción y grabación del audio.
¤ La interfaz puede contener múltiples entradas y salidas análogas y digitales
dependiendo de las características de fabricación. Las salidas de la interfaz se conectan
a unos monitores de audio que generan las variaciones de presión necesarias para
percibir el sonido y por otro lado, las entradas se conectan a micrófonos, amplificadores,
instrumentos musicales o todo aquello que necesite ser ingresado al Software.
¤ Las interfaces de sonido profesionales suelen tener mayores tasas de muestreo y mayor
profundidad de bits al momento de convertir la señal, garantizando una perdida mínima
de información durante el proceso. Así mismo se caracterizan por poseer entradas y
salidas MIDI para automatizar o "tocar" instrumentos virtuales dentro del software de
edición de audio así como entradas y salidas de sincronismo.
Maquinaria de audio digital
21

¨ El software
¤ El software de una DAW suele estar diseñado con múltiples interfaces de usuario pero
generalmente está basado en una analogía con los principles elementos de los estudios
tradicionales. En este sentido, suelen constar de dos ventanas principales:
n La grabadora multipistas
n El mezclador
Tarjetas y interfaces de audio/MIDI
22
Tarjetas y interfaces de
23
audio/MIDI
Características y posibilidades
24

¨ Entradas y salidas de audio


¤ Las entradas y salidas de audio permiten la transmisión de señales de audio entre
dispositivos. Pueden ser analógicas, digitales, mono, estéreo, balanceadas o no
balanceadas y con gran variedad de conexiones.
¤ Las conexiones más frecuentes en los equipos que componen un sistema de edición de
audio son XLR, jack y RCA para conexiones analógicas y XLR, RCA y TOSLINK para
conexiones digitales.
¤ A menudo, en estudio, las entradas y salidas de los varios equipos presentes están
centralizadas en un patch panel, desde el cual se realiza el ruteo de la señal de forma
cómoda.

Patch Bantam
Características y posibilidades
25

¨ Líneas balanceadas y no balanceadas


¤ Línea no balanceada
n Se trata de una línea de audio en la que el retorno de la señal
(señal retorno o frio) se produce a través de la malla exterior
que cubre el conductor de ida (señal vivo o caliente),
protegiéndolo contra interferencias electromagnéticas externas,
aunque no las elimina completamente.
n Las líneas no balanceadas terminan normalmente con conectores
RCA, DIN o jack.
n Normalmente, las líneas no balanceadas no se utilizan para el
audio profesional, porque cuando se requiere longitud de cable,
el efecto acumulativo de las interferencias puede producir tal
nivel de distorsión que el sonido final no sea emitible por su
pésima calidad.
Características y posibilidades
26

¤ Línea balanceada
n Una línea balanceada se realiza mediante dos conductores, uno de ellos
denominado vivo o caliente el cual porta la señal en fase (normalmente de
color rojo), el otro denominado retorno o frio porta la señal desfasada 180º
llamada contrafase (normalmente de color negro). Este par de conductores
va cubierto por una malla conectada a masa. Con esta disposición, se logra
mejorar la respuesta ante las interferencias que ofrece la línea no
balanceada.
n Dicha mejora se fundamenta en que si una interferencia logra atravesar la
malla, induce el transitorio en ambos conductores en el mismo sentido. En el
receptor, para desbalancear la línea, hay que invertir la señal que porta la
contrafase y sumarla a la fase (o sea restar ambas señales) logrando así
duplicar la amplitud de la señal resultante. Al invertir la contrafase, el
transitorio queda invertido también, y al sumarlo con la fase, coincidiendo
con el transitorio allí inducido, este se anula.
n Esta buena respuesta ante el ataque de interferencias es la razón por la que
las líneas balanceadas se utilizan en el campo profesional.
Características y posibilidades
27

Funcionamiento de una línea balanceada


Características y posibilidades
28

¨ Conectores

Conector RCA Conector jack TRS Conector jack TS Conector Bantam

Conector XLR macho Conector XLR hembra Conector DB 25 Conector toslink


Características y posibilidades
29

¤ Conectores: conexiones digitales AES/EBU


n AES3 (también conocida como AES/EBU) es un estándar para el intercambio de
señales audio digital entre equipos de audio profesionales. Una señal AES3 puede
transportar dos canales de audio PCM .
n La conexión estándar para AES/EBU en instalaciones profesionales utiliza una
cableado balanceado, de 3 conductores, 110 ohmios con par trenzados y conector
XLR.
¤ Conectores: conexiones digitales S/PDIF
n S/PDIF (Sony/Philips Digital Interface Format) es un tipo de conexión de audio digital
utilizado en equipos de gran consumo para la transmisión de audio en distancias
relativamente cortas.
n S/PDIF está basado en el estándar profesional AES/EBU, presentando pequeñas
diferencias que lo hace menos costoso a la hora de producir los componentes finales.
n La señal se transmite o bien a través de cable coaxial con conector RCA, o bien de
cable de fibra óptica con conector TOSLINK.
n Puede transmitir dos canales de audio digital PCM así como formatos 5.1/7.1
comprimidos (como el códec DTS por ejemplo).
Características y posibilidades
30

¨ Preamplificadores
¤ El preamplificador es un circuito eléctrico que eleva el voltaje que proporciona
el transductor a su salida, para alcanzar el nivel de línea y así poder trabajar
con una correcta señal a través de nuestro estudio de grabación.
¤ El diseño del previo es muy importante: dado que maneja unas ganancias
elevadas, puede también amplificar su propio ruido eléctrico y distorsión; la
impedancia que conectemos a la entrada del previo y la impedancia de salida
de este es lo que determina el comportamiento del pre-amplificador.
¤ Un buen pre-amp estará diseñado para conseguir el mínimo ruido y distorsión.
Características y posibilidades
31

¨ Convertidores AD/DA
¤ Después del micro y del preamplificador, el dispositivo que más impacto tiene
sobre la calidad del sonido es el conversor analógico/digital (ADC, que
convierte la señal analógica en el lenguaje digital del DAW) y el conversor
digital/analógico (DAC, que vuelve a convertir la señal digital en señal
analógica para su reproducción).
¤ En la mayoría de las interfaces de bajo o medio coste, los ADC y DAC están
incorporados en la misma unidad que los preamplificadores pero en sistemas de
alta gama, como Pro Tools HD, los ADC y DAC son unidades separadas de más
alta fidelidad. Existen también dispositivos especializados de todavía más
fidelidad, fabricados por marcas como Apogee o Lavry.
Características y posibilidades
32

¨ Sincronización
¤ La sincronización describe el ajuste temporal de eventos. En audio se
utiliza la sincronización para que varios equipos puedan trabajar juntos
y siguiendo una misma referencia de tiempo. Eso permite por ejemplo
trabajar en un mismo proyecto con varios software de audio o video al
mismo tiempo y en perfecta sincronización.
¤ El estándar en la industria de audio, video y cinema es el SMPTE
timecode. En los DAW, encontramos el Midi timecode, que integra la
misma información que el citado SMPTE timecode a través de mensajes
Midi. El Midi Clock es otro tipo de señal de sincronización a través de
mensajes Midi que también encontramos en los DAW.
Características y posibilidades
33

¨ Conexión con el ordenador


A continuación describiremos los principales protocolos
actuales que nos permiten conectar dispositivos hardware
como ratones, teclados, cámaras, tarjetas de sonido,
equipos MIDI, CD y unidades de disco duro,
reproductores MP3…
Estos protocolos suelen permitir conectar nuestros equipos
“en caliente” y tenerlos preparados para funcionar en
poco tiempo, con tasas de transferencia variables según
el protocolo o la versión de este y varios tipos de
conectores.
Características y posibilidades
34

¤ USB
n El Bus Universal en Serie (en inglés: Universal Serial Bus), es un bus de comunicaciones que sigue
un estándar que define los cables, conectores y protocolos usados en un bus para conectar,
comunicar y proveer de alimentación eléctrica entre ordenadores, periféricos y dispositivos
electrónicos.
n Existen varias versiones del bus USB, con velocidades de transmisión diferentes que detallaremos
a continuación.
n Las características básicas del USB incluyen:
n Los sistemas operativos actuales reconocen y configuran automáticamente cualquier aparato USB
que se vende junto con sus controladores.
n Los dispositivos son "conectables en caliente", esto significa que pueden añadirse (o quitarse)
mientras el ordenador está encendido y en funcionamiento.
n Los cables USB pueden ser de hasta 4,5 metros de longitud (hasta 3 metros para dispositivos de
baja velocidad) e incluir dos pares de hilos trenzados, uno para llevar los datos de la señal y el
otro para llevar un voltaje DC a un aparato que requiere alimentación del propio USB. Aquellos
que utilicen menos de 500 miliamperios pueden obtener la potencia directamente del soporte 5-V
DC de cable USB, mientras que aquellos que tienen demandas de corriente más alta necesitarán
ser alimentados de manera externa.
n La distribución del cable y la "red tipo anillo" se efectúan vía hub (concentrador USB) de datos.
Estos dispositivos gestionan el tráfico de datos y los transfieren a través de diferentes entradas de
USB de un modo secuencia, conduciendo los datos hacia una única línea de salida. Se debe tener
en cuenta que no todos los hubs se construyen de la misma forma. En algunas situaciones, el conjunto
de chips que se utiliza dentro de un hub podría no ser compatible con ciertos sistemas MIDI y de
interfaz de audio.
Características y posibilidades
35

¤ Thunderbolt
n La tecnología Thunderbolt, actualmente en su versión 3, ofrece ofrece tasas de transferencia de
hasta 40 Gbps. Esto lo convierte en una tecnología ultrarrápida y ultraversátil.
n Originalmente usaba conectores de tipo mini display port pero en la actualidad, la última versión
se aprovecha del omnipresente conector USB Tipo C.
n Cabe destacar que el conector USB tipo C, si bien nació como un estándar, se ha convertido en un
puerto algo confuso ya que la manera en la que los fabricantes utilizan las cararacteristicas del
puerto no siempre es clara.
n Cuentas con un ancho de banda suficiente para conectar varios dispositivos de alta velocidad en
cadena sin usar un hub o un conmutador y manteniendo un rendimiento máximo.
Características y posibilidades
36
Características y posibilidades
37

¤ FireWire
n FireWire mantiene dos modos de velocidad:
n Firewirw 400.
Tiene un ancho de banda de 400 Mbit/s similar a la del USB 2.0 (480
Mbit/s) y es capaz de distribuir datos a través de cables de hasta 4,5
metros de longitud.
n Firewire 800.
Tiene un ancho de banda de 800 Mbits/s. Es capaz de comunicar grandes
cantidades de datos a través de cables de hasta 100 metros de longitud y
posee compatibilidad retroactiva con Firewire 400.
Características y posibilidades
38

¤ SATA Externo (e-SATA)


n Fue estandarizado a mediados de 2004, con definiciones
específicas de cables, conectores y requisitos de la señal para
unidades eSATA externas.
n eSATA se caracteriza por tener la velocidad de SATA en los
discos externos. La longitud de cable se restringe a 2 metros; USB
y Firewire permiten mayores distancias.
Características y posibilidades
39

Comparativa protocolos y tasas de transferencia de datos


Dispositivos de almacenamiento
40

¨ Tipos de sistemas de almacenamiento


¤ Magnéticos - Disco duro
n Almacenan la información en un soporte ferromagnético
n Es un sistema de almacenamiento permanente
n El mismo dispositivo puede realizar tantas lecturas como escrituras
n Ventajas
n Baratos
n Alta densidad
n Buena velocidad
n Durabilidad
n Inconvenientes
n Frágiles
n Peso
Dispositivos de almacenamiento
41

¤ Ópticos – CD/DVD/Blu-Ray
n Almacenan la información mediante un material que puede presentar diferentes tipos
de reflexión a la luz de un laser
n Los dispositivos suelen ser de lectura
n Los dispositivos de escritura pueden ser mecánicos grabadores
n Solo se pueden escribir una vez (excepto los RW)
n Diferentes densidades de información (CD/DVD/Blu-Ray)
n Ventajas
n Baratos
n Ligeros
n Portabilidad
n Facilidad de distribución
n Inconvenientes
n Poco aptos para sistemas portátiles
n Solo se pueden grabar una vez
n Baja densidad
n Se pueden rallar con facilidad
n Baja velocidad
Dispositivos de almacenamiento
42

¤ Magneto-ópticos – Mini-Disc
n Combinan lectura óptica con escritura magnética
n Solventan el problema de las múltiples escrituras
n Son más robustos que los ópticos simples
n Están actualmente en desuso a favor de los dispositivos de
estado solido
Dispositivos de almacenamiento
43

¤ Estado solido – Flash/SSD


n Utilizan memorias electrónicas de tipo FLASH que permiten lectura, escritura
y almacenamiento permanente
n No involucran ningún sistema mecánico
n Son altamente miniaturizables
n Existen en múltiples formatos: SSD, tarjeta de memoria, pendrive, instalados
en dispositivos, etc
n Ventajas
n Alta velocidad
n Ligeros
n Portabilidad
n Bajo consumo
n Miniaturizados
n Inconvenientes
n Precio (según velocidad)
n Limite de escrituras
Dispositivos de almacenamiento
44

¤ Cinta
n Almacenamiento de la información en un material magnético
en forma de cinta
n Son de lectura y escritura secuencial
n Alta densidad de información
n Solo tienen sentido en sistemas de backup
Copias de seguridad
45

¨ Un sistema de backup o copia de seguridad garantiza que los datos guardados en


un soporte digital no se perderán por fallo o perdida del mismo.
¨ Un sistema de backup tiene que ser redundante.
¨ Tipos de sistemas de backup
¤ Basados en HD
¤ Basados en RAID (redundant array of independent disks)
¤ Basados en CD/DVD/Bluray
¤ Basados en cinta
¤ On-line
¨ Caracteristicas
¤ Compresión de datos
¤ Copias incrementales
¤ Control de cambios
¤ Accesibilidad
¤ Deduplicación
¤ Cifrado
Técnicas de valoración de archivos de
audio
46

¨ A la hora de valorar archivos de audio, hay que dividir los criterios


de evaluación en dos grupos principales:
¤ Características técnicas
n Son criterios objetivos, que nos permiten clasificar y acceder a los archivos
según criterios técnicos.
n La mayoría de DAW tiene algún espacio de trabajo que nos permite
navegar en nuestros archivos de audio según estos criterios.
n Tipo de archivo
n Tamaño
n Duración
n Fecha de creación
n Fecha de modificación
n Numero de canales
n Formato
n Frecuencia de muestreo
n Profundidad de bit
n Tempo
Técnicas de valoración de archivos de
audio
47

¤ Valoración del contenido


n Aquí, y según el objetivo de la valoración, algunos de los criterios que tendremos en
cuenta serán:
n Criterio temporal
n Época de producción
n Antigüedad
n Rareza
n Criterio de lugar
n Lugar de producción
n Lugar(es) o alcance geográfico
n Criterio o ámbito social
n Personas o sectores sociales registrados
n Criterios de forma y estilo
n Genero narrativo, musical, efectos de sonido…
n Calidad de producción y edición
n Valor técnico
n Valor artístico
n Valor cultural
n Valor histórico
Técnicas de edición de archivos de
audio
48

¨ Tipos de archivos y cambios de formato


¤ Existen numerosos tipos de archivos y formatos de audio.
¤ Las DAW nos permiten convertir formatos de audio y guardar archivos en
varios tipos.
¨ Funciones de las herramientas de edición
¤ Las principales herramientas de edición nos permiten:
n Seleccionar
n Dividir
n Consolidar
n Desplazar
¨ Mezcla etéreo
¤ Es el resultado de la suma de múltiples pistas de audio
¤ Se realiza gracias al mezclador, que nos permite controlar el volumen de cada
pista así como aplicar procesos de audio gracias a plugins o procesadores
externos
¤ El resultado final es un archivo de audio en formato estéreo
Procesadores de audio
49

¨ Frecuencia, dinámica, tiempo


¤ Frecuencia
n Un ecualizador es un dispositivo que modifica el volumen del
contenido en frecuencias de la señal que procesa. Para ello
modifica las amplitudes de sus coeficientes de Fourier, lo que
se traduce en diferentes volúmenes para cada frecuencia.
Con esto se puede variar de forma independiente la
intensidad de los tonos básicos.
¤ Dinámica
n Compresor
n Un compresor es un procesador destinado a reducir el margen
dinámico de la señal sin que se note demasiado su presencia.
Esta tarea, se realiza reduciendo la ganancia del sistema,
cuando la señal supera un determinado umbral.
n Puerta de ruido
n Una puerta de ruido o Noise Gate es un procesador de señal
diseñado principalmente para eliminar los ruidos durante las
pausas de manera automática. La función de una puerta de
ruido es cortar el paso de toda señal que no supere un umbral
prefijado.
Procesadores de audio
50

¤ Tiempo
n Los efectos basados en tiempo, a diferencia de los ecualizadores y procesadores de
dinámica, añaden material sonoro al las fuentes de audio que procesamos con ellos.
n Los principales son el delay y la reverberación.
n La reverberación es un efecto sonoro que se da en la realidad en espacios cerrados.
Cuando se emite un sonido, éste se propaga en forma esférica, rebotando sus ondas
en paredes, techo y suelo. Este sonido rebotado llega a nosotros (o al micrófono) en
forma de múltiples ecos diferenciados en tiempo y modificada su amplitud por los
materiales absorbentes de la sala. Puedes pensar que la reverb está básicamente
formada por cientos de delays.
n Dado que la evolución en las técnicas de grabación ha propiciado que las tomas con
micrófonos se hagan a distancias muy cortas de la fuente, atenuando así el ambiente
de la sala, como el uso cada vez mayor de sintetizadores y samplers en los que no son
necesarios los micrófonos, ahora tenemos que utilizar unidades de reverb y plugins
para recrear ese ambiente que no hemos capturado en la toma de sonido.
n Un buen uso del efecto de reverb, potencia la sensación de profundidad en la imagen
sonora de tu mezcla. La falta de reverb, ya sea natural o generada por una unidad o
plugin de reverb, puede provocar que tu producción suene sin esa profundidad de las
mezclas profesionales. Por supuesto, el mal uso del efecto de reverb puede arruinar
una magnífica producción.
Procesadores de audio
51

¨ Plugins de aplicación dedicada: denoiser, deesser, declicker,


dehisser, autotune entre otros
¤ Para la restauración de archivos de audio dañados o con presencia de
ruidos indeseables, existen plugins especializados en la eliminación de
dichos ruidos.
¤ Los plugins de afinación son otro tipo de procesador especializado muy
utilizado en las producciones musicales actuales. Utilizan algoritmos que
permiten corregir la afinación de voces o instrumentos monofónicos en
función de unos parámetros configurables.
Formatos de audio digital
52

Los archivos de audio digital almacenan toda la información que ocurra en el tiempo.
Existen muchos formatos de archivo de audio digital, que se pueden dividir en dos
categorías: no comprimidos (PCM) y comprimidos.
¨ Formatos no comprimidos (PCM)

¤ Los formatos PCM contienen toda la información que salió del convertidor analógico a
digital, sin ninguna omisión y por eso, tienen la mejor calidad. Dentro de esta categoría se
encuentran los formatos WAV, AIFF, RAW entre otros. La diferencia principal que tienen
estos formatos es el encabezado.
¨ Formatos comprimidos
¤ Formatos comprimidos con perdida (Lossy)
n Para usar menos espacio que los archivos PCM, existen formatos de sonido comprimidos, como por
ejemplo el MP3 y el AAC. Ciertos algoritmos de compresión descartan información que no es
perceptible por el oído humano para lograr que el mismo fragmento de audio pueda ocupar
hasta la decima parte -o incluso menos- de lo que ocuparía un archivo PCM. La reducción en
tamaño implica una perdida de información y por esto a los formatos de este tipo se les llama
formatos comprimidos con perdida.
¤ Formatos comprimidos sin perdida (Lossless)
n Existen también formatos de archivo comprimido sin perdida, entre los que se cuentan el FLAC y el
Apple Lossless Encoder, cuyo tamaño suele ser de aproximadamente la mitad de su equivalente
PCM.

También podría gustarte