Está en la página 1de 8

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/299453377

Sonido Digital

Chapter · January 2012

CITATIONS READS
0 2,126

1 author:

Francisco Jesús Martínez-Murcia


University of Malaga
93 PUBLICATIONS   626 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Special issue in Biomedical Signal Processing (SENSORS) View project

LAGRANGE - Multimodal and longitudinal biomarker analysis for diagnosis and prediction of Alzheimer's and Parkinson's View project

All content following this page was uploaded by Francisco Jesús Martínez-Murcia on 28 March 2016.

The user has requested enhancement of the downloaded file.


Sonido Digital

Francisco Jesús Martínez Murcia


Departamento de Arquitectura y Tecnología de Computadores,
Universidad de Granada

Resumen. En este artículo se tratan los dispositivos y estándares más utilizados


para la reproducción, transmisión y grabación de Audio Digital. En la Sección 1
comenzamos por una breve introducción al audio digital y a los conceptos de
muestreo y cuantización, así como los estándares de almacenamiento y transmi-
sión más utilizados. Posteriormente, en la Sección 2 se explican los periféricos
más utilizados para generación, reproducción y grabación de sonido. Por últi-
mo, en la Sección 3 se tratan las perspectivas de futuro de algunas tecnologías
de audio digital que no acaban de despegar.

Palabras clave: audio, digital, muestreo, transmisión, reproducción, grabación

1 Introducción

El sonido es cualquier fenómeno que involucre la propagación, generalmente a través


de un fluido, en forma de ondas elásticas de frecuencias audibles por el ser humano,
habitualmente comprendidas entre 20 y 20000 Hz, y producidas por el movimiento vi-
bratorio de un cuerpo. En oposición, llamamos infrasonidos a ondas de frecuencias
menores que 20 Hz y ultrasonidos a ondas de frecuencias mayores de 20 kHz [1].

1.1 Sonido digital


El oído es uno de los sentidos más desarrollados en el ser humano, y por tanto,
uno de los más ejercitados. Por ello, junto a los estímulos visuales, los auditivos han
sido los primeros en ser reproducidos, almacenados y transmitidos por el ser humano.
Las primeras grabaciones de sonido se remiten a 1857, cuando Édouard-Léon Scott de
Martinville patentó el fonoautógrafo, registrando la primera grabación conocida, reali-
zada sobre papel-carbón. Las primeras grabaciones comerciales llegaron con Thomas
Edison y el fonógrafo, hacia 1877, grabando en cilindros de cera las ondas de presión
que captaba un primitivo micrófono. Ya en el siglo XX, aparecieron diferentes forma-
tos de grabación: discos de vinilo, cintas magnéticas. Y con la llegada de los primeros
computadores se dieron los primeros pasos hacia la digitalización del sonido, apare-
ciendo el Compact Disc (CD) y otras versiones de discos compactos (Super Audio
CD, etc.), y evolucionando hacia soportes totalmente digitales, como los archivos
WAV o MP3.

Para comprender como funcionan estos formatos de audio, hay que conocer los
principios de muestreo y cuantización [2]. El muestreo (o sampling) consiste en fijar
la amplitud de la señal a intervalos periódicos de tiempo. Cada una de las amplitudes
medidas se denomina muestra. El numero de muestras que se toman por segundo vie -
ne dado por la frecuencia de muestreo, que a su vez, según el teorema de Nyquist,
debe ser el doble de la mayor frecuencia que queramos registrar. Como la máxima fre-
cuencia audible por el ser humano es de 20 kHz, nos bastará con tener una frecuencia
de muestreo de 40 kHz.

Por otra parte, la cuantización consiste en dividir la amplitud de la señal en inter-


valos (regulares o no), y asignar un identificador (normalmente, una cadena de bits) a
cada intervalo. El número de intervalos viene normalmente dado por el número de
bits que utilizamos en la cuantización. Con 16 bits podemos alcanzar 65536 valores
diferentes, lo que es más que suficiente para el oído humano, y nos da una relación se-
ñal-ruido de 90 dB.

En este trabajo, vamos a centrarnos en estándares y periféricos de sonido digital.


En la Sección 1.2 veremos los estándares básicos de audio digital, tanto de almacena-
miento como de transmisión. En la Sección 2 daremos un repaso a los periféricos que
se utilizan en la grabación y reproducción, y a las interfaces que utilizan con el orde-
nador para la transmisión de los datos. Finalmente, en la Sección 3 exploraremos el
abanico de futuro que se abre ante las posibilidades del audio digital.

1.2 Estándares de Sonido Digital


El primer y más lógico estándar de almacenamiento de audio que surge es el llamado
Pulse Code Modulation, PCM [3]. Este estándar simplemente almacena el valor cuan-
tizado (en bits) de la amplitud para cada muestra que se toma. Es la representación
más _el del sonido, y no tiene ninguna compresión (ni siquiera compresión sin pérdi-
das). Otros formatos, como WAV, se basan únicamente en este estándar, y otros,
como FLAC, utilizan predicción lineal y códigos Run-Length para reducir el número
de datos a almacenar.
Existen otros formatos de almacenamiento que intentan aprovechar fenómenos
psicoacústicos (como el enmascaramiento, ver Fig. 1) para reducir la cantidad de da-
tos a almacenar. Uno de los más conocidos es el MP3, que además, utiliza todos los
algoritmos anteriores de compresión para reducir drásticamente el tamaño de archi-
vos. Existen alternativas libres que utilizan también estas estrategias de compresión,
como el Ogg.
En los estándares de almacenamiento, se asume que el dispositivo reproductor es
el mismo en el que están almacenados (un ordenador, un equipo de música). Para
otros tipos de configuraciones, se han establecido estándares de transmisión de sonido
digitales. El primer intento se realizó con el protocolo MIDI (que también van a expli-
car en este curso). Este protocolo transmite las notas musicales pulsadas, duración, in-
tensidad, etc. a un dispositivo externo que las reproduce. En este caso, no es audio di-
gital estrictamente, pero sí una de las primeras aproximaciones que se han realizado.

Figura 1. Tono y umbral de enmascaramiento. En Mp3 se aprovecha que las frecuen-


cias bajo el umbral de enmascaramiento no son audibles para eliminarlas del archivo
final.

Hoy día, el estándar más utilizado de transmisión de audio digital es S/PDIF [4].
Se transmiten las muestras en modulación PCM para diferentes frecuencias de mues-
treo, según los dispositivos que utilicemos. _Estas pueden ser 48 kHz para los DAT,
44,1 kHz para CD audio, etc. El estándar no tiene definida una velocidad de transmi-
sión de datos por defecto, debido a la versatilidad que debe mostrar. Está basado en
los antiguos estándares DAT y AES, pero añadiendo una mayor versatilidad a las co-
nexiones (aunque la más utilizada es la fibra _óptica, debido a su inmunidad al ruido
electromagnético) y abaratando los elementos de reproducción.

2 Periféricos de Sonido Digital

El primer periférico utilizado para la reproducción de sonido digital fue el altavoz del
PC. Esto limitaba la reproducción a ondas cuadradas (llamadas "beeps"), aunque
algunas compañías desarrollaron diferentes técnicas para la reproducción de sonido,
que, aun teniendo un resultado funcional, sufría fuertes distorsiones.
En la década de los noventa aparecieron los primeros periféricos orientados a la
reproducción y grabación de sonido: las tarjetas de sonido [5]. Generalmente se
trataba de una placa con un chip sintetizador de sonido (que utilizaba datos MIDI para
generarlos), aunque poco a poco se le añadieron diferentes canales PCM, a diferente
profundidad de bits. Poco a poco, se fueron añadiendo más prestaciones, como los
canales estéreo, el mezclador interno, diferentes entradas (línea, micrófono -con
preamplificador-), efectos de sonido, etc. Y se redujo también el tamaño de las
mismas, logrando integrar las funcionalidades básicas en un chip. La transmisión de
los datos se realiza por buses internos del sistema, como PCI. En la Fig. 2 podemos
ver un esquema de cómo funcionan las tarjetas de sonido.

Figura 2. Esquema de una tarjeta de Sonido.

Hoy día, prácticamente todos los ordenadores vienen con un chip integrado de
sonido, no siendo necesarias las placas, salvo cuando se tienen grandes
requerimientos de canales de audio o de procesado del mismo.

Figura 3. Aspecto externo de una Interfaz de Audio.


Asimismo, con la llegada del sonido digital a los grandes estudios de música, se
comienzan a comercializar las interfaces de audio, como la que se muestra en la Fig.
3. Estas interfaces de audio son tarjetas de sonido integradas en un módulo externo,
con convertidores A/D de altas prestaciones, preamplificadores, varias entradas e
incluso chips DSP integrados. Los datos se comunican con el ordenador mediante
algún bus de alta velocidad (generalmente USB o Firewire).

Figura 3: Aspecto externo de una interfaz de audio

Así pues, actualmente podemos encontrar diferentes dispositivos para la


reproducción y grabación de audio, y que podemos clasificar según las
funcionalidades, el precio, y el uso que se suele hacer de ellos.

 Chips de sonido integrados. Es el estándar de facto en los ordenadores


personales (portátiles o sobremesa). Su precio es bastante bajo, y
ofrecen las prestaciones básicas (mezclador, entradas de micrófono y
línea y salida de auriculares). Son de propósito general.

 Tarjetas de sonido. Aunque fueron los primeros dispositivos de uso


general, con la llegada de los chips de sonido, la necesidad de disponer
de una tarjeta de sonido dedicada se redujo. Hoy día, sus grandes
funcionalidades están sobre todo orientadas a la reproducción multicanal
de audio (2.1, 5.1, 7.1) y el realismo de videojuegos, aunque diseñadores
de sonido y especialistas en audiovisuales también son usuarios de las
mismas.

 Interfaces de audio. Son los dispositivos más caros, pero también los
que más funcionalidades ofrecen. Aúnan DSPs de efectos, múltiples
entradas y salidas, preamplificadores, ADC de calidad, etc. Están
especialmente orientadas a la grabación de sonido de alta calidad.

3 Futuro del Audio Digital

El mundo del audio digital se ha impuesto totalmente en la tecnología del día a


día: reproductores de MP3, CDs de audio, ordenadores... Sin embargo, hay zonas en
las que el sonido digital no ha encontrado todavía suficiente impulso; es el caso de la
Radio Digital.

A diferencia de con la Televisión Digital, la radio digital no tiene todavía un gran


impacto. Sin embargo, como pasa con su hermana mayor, las características superan a
la radio analógica comercial actual [6]. La calidad de recepción es calidad de CD,
permite la transmisión de metadatos y la modulación utilizada para la transmisión es
mucho más robusta (basada en OFDM). Desde el punto de vista de la emisión,
requiere mucha menos potencia para la transmisión y permite configurar redes de
frecuencia única (SFN), como en la TDT, lo que hace que una determinada emisora se
pueda sintonizar en el mismo canal a lo largo de todo un país. El estándar que rige la
radio digital en España es DAB.

En cuanto a los formatos de reproducción de audio digital, se lleva tiempo


especulando sobre la posibilidad de sustitución del MP3 como estándar. En ese
sentido, nuevas tecnologías como iKlax y MT9 pretenden ocupar el hueco que dejaría
MP3 con las funcionalidades que atesoran, algunas muy interesantes [7]. El principal
punto en común, a parte del audio de alta calidad, es que son formatos de audio
multipista, en los que podemos controlar el volumen de cada instrumento por
separado e incluso intercambiar diferentes pistas entre canciones. Sin embargo, pese a
lo interesante de esta tecnología en karaokes y para estudiar música, no tiene mucho
sentido en el consumo de música diario que realiza la mayor parte de la gente, sino
más bien como experimento.

Conclusiones

En lo que se refiere al sonido digital, hemos dividido tres tareas: reproducción,


grabación y transmisión. Podríamos añadir al grupo el procesado, pero eso es materia
de un análisis más profundo, y toda una disciplina (la del tratamiento digital de seña-
les) se ocupa de dicha tarea.

Así pues, en lo que respecta a los medios de reproducción y grabación, los peri-
féricos utilizados se dividen en varias clases, según su uso. Para un uso básico y do-
méstico tenemos chips especializados que se integran ya en las placas bases de los or -
denadores con muy buenos resultados. Para la grabación y reproducción a nivel profe-
sional se utilizan las llamadas interfaces de audio, que incluyen numerosas caracterís-
ticas de utilidad, y para los más exigentes, pero que no requieren de tantas capacida-
des, todavía se siguen fabricando muchos modelos de tarjetas de sonido. Aunque la lí-
nea divisoria entre ambos grupos sigue siendo bastante difusa.

En lo que respecta al almacenamiento, el estándar sigue siendo el MP3 y el CD-


Audio. Nuevas alternativas con o sin patentes, como WMA, FLAC u OGG van co-
brando fuerza, aunque es muy difícil que consigan transformarse en estándares. El
caso de las tecnologías que aportan valor añadido, como MT9 o iKlax son por ahora
desarrollos experimentales, y cuyo valor añadido (la reproducción multipista) puede
ser orientado a un público demasiado especializado, lo que puede provocar una excasa
difusión.
Referencias

[1] Wikipedia (en). Digital Audio.

[2] Simon J. Godsill and Peter J.W. Rayner, Digital Audio Restoration - a statistical model
based approach. Springer-Verlag London, September 21, 1998.

[3] William Stallings, Digital Signaling Techniques. IEEE Communications Magazine, Vol.
22, No. 12, December 1984.

[4] J. Watkinson, The Art of Digital Audio. 3ª ed., Focal Press, 2001.
[5] Wikipedia (en). Sound Card.
[6] Antonio M. Peinado, Sistemas de Audio (Ejemplos). Apuntes de Tecnologías de Audio,
Ingeniero de Telecomunicación, Universidad de Granada. 2009

[7] Tomás García, iKlax y MT9: ¿Son realmente el futuro? NeoTeo, suplemento de ABC,
Viernes, 11 de Julio de 2008

View publication stats

También podría gustarte