Está en la página 1de 2

Buffer Size

Al incrementar la cantidad de canales y el procesamiento aplicado dentro del DAW, se exigirá


más capacidad de procesamiento por parte del CPU. Si la señal que estamos utilizando para la
referencia de un músico al grabar es la que sale del convertidor D-A, luego de pasar por la
computadora, es posible que experimentemos un retraso entre el momento en el que el
músico toca el instrumento y el momento en el que se escucha (Diapositiva 1). Esto fenómeno
es conocido como latencia.

Una opción para superar este inconveniente es que la señal que escucha el músico sea una
copia tomada luego de los preamplificadores de la interfaz, antes de que pase por el
convertidor A-D e ingrese a la computadora. A esto se le conoce como monitoreo directo. 

En algunos casos, requeriremos procesar la señal en la computadora para que luego el músico
la escuche. Por ejemplo, cuando aplicamos emulaciones virtuales de amplificadores de
guitarra, el músico suele preferir escuchar la señal luego de pasar por el amplificador. En este
caso, debemos realizar algunas configuraciones para asegurar que el tiempo de latencia sea el
mínimo posible. De lo contrario, esto podría dificultar el proceso de grabación. (Diapositiva 2)

El principal parámetro que se debe observar para modificar el tiempo latencia es el buffer size,
o tamaño del búfer. Dicho parámetro se ajusta en el software de control del driver de la
interfaz (Diapositiva 3). Un driver es un software que permite la comunicación entre un
dispositivo físico y el sistema operativo. 

El buffer size se mide en cantidad de muestras, por lo que su duración en milisegundos


depende del sample rate. Por ejemplo, un buffer size de 512 muestras dura 10.7 milisegundos
a un sample rate de 48 kHz, y 5.3 milisegundos a un sample rate de 96 kHz. Cuanto menor sea
el buffer size, menor será el tiempo de latencia. No obstante, un buffer size  muy bajo puede
provocar un flujo de señal inestable, lo que resulta en ruidos e interrupciones en la señal. 

Para comprender a profundidad el funcionamiento del buffer size, utilicemos una analogía.


Imaginemos que deseamos desplazar una cantidad de personas de una orilla de un río, hacia la
otra orilla. Para esto, disponemos de dos barcas.

Analogía: estado inicial


Las personas empiezan a subir a la primera barca. Cuando está llena, la barca se desplaza a la
otra orilla. Mientras tanto, las personas en la primera orilla suben a la segunda barca. Para
cuando la segunda barca está llena de personas y zarpa hacia la segunda orilla, la primera
barca ha regresado a la primera orilla.

Analogía: punto intermedio y final


Cuanto más grande sean las barcas, más personas pueden ser trasladadas en un solo viaje. No
obstante, hay que esperar una mayor cantidad de tiempo para que la barca se llene y las
primeras personas lleguen a la segunda orilla. De esta manera, se ahorra combustible para las
barcas, pero se toma un poco más de tiempo. El tiempo de espera para llegar a la otra orilla es
mayor, pero se consume menos recursos.

De manera similar, si las barcas fueran muy pequeñas, se llenarían rápidamente. Por lo tanto,
las primeras personas llegarían a la otra orilla, luego de un tiempo de espera más corto. No
obstante, se necesitaría realizar una mayor cantidad de viajes. En este caso, el tiempo de
espera para llegar a la otra orilla es menor, pero se consume más recursos.
El buffer size es el tiempo que se toma la computadora para procesar el audio entrante,
análogo al tiempo que se tarda cada barca en llenarse. Cuanto mayor sea el buffer size, más
tiempo dispone la computadora para procesar el audio, por lo que la exigencia de
procesamiento es menor y el tiempo de latencia es mayor. Lo contrario sucede al disminuir el
tamaño del buffer size.

Una latencia de menos de 3 milisegundos es imperceptible para el cerebro humano. El cerebro


interpreta una latencia de 6 o 7 milisegundos como dos señales ligeramente desfasadas, pero
no son percibidas como señales separadas. Periodos de latencia superiores a 10 milisegundos
generan un retraso notorio entre la emisión y la reproducción de la señal, lo cual vendría a
dificultar los procesos de grabación.

Es importante enfatizar que mantener un tiempo corto de latencia es importante únicamente


durante las sesiones de grabación. Durante las etapas de post-producción, incluyendo la
edición, la mezcla y la mastering, los niveles de latencia pierden su importancia, pues el
material que se reproduce no está siendo interpretado en vivo, por lo que el retraso entre el
momento en el que el DAW lee la información y el momento en el que se escucha a través de
los monitores no es relevante.

Por consiguiente, es recomendable configurar un buffer size tan bajo como sea posible al
grabar, y tan alto como sea posible al realizar otros procesos. De esta manera aliviaremos la
carga de procesamiento al CPU. Esto es importante durante la edición y mezcla, donde se
cargan numerosos plugins que demandan mucha capacidad de procesamiento.

También podría gustarte