Está en la página 1de 168

CAPACITACION TECNICA EN SONIDO Y AUDIO DIGITAL

Introducción a la Acústica y el
Sonido

Pablo Rabinovich

E
F

Y
Z

AA

AB

AC

AD

AE

AF

AG

AH

AI

AJ

AK

AL

AM

Derechos
O R I O N
capacitación técnica en sonido y audio digital

INTRODUCCION A LA ACUSTICA Y EL SONIDO:

Objetivos:

A través del conocimiento de los ítems correspondientes a esta materia, se comienza a analizar el evento
sonido. Este análisis permitirá comprender y manipular los datos contenidos en la forma de onda; a la
vez que le facilitará enormemente su trabajo frente a cualquier software de grabación, edición y
masterización de audio.

Del mismo modo, se comprenderán los principios y funcionamiento de dispositivos pilares, como ser
filtros, ecualizadores peack y shelving; y procesadores de dinámica, tales como compresores,
limitadores, expansores y noise gate.

Cualquier programa editor es simplemente una herramienta para manejar el sonido. Aquí se ve el idioma
mismo del sonido, por lo tanto ha de ser el paso previo para el uso apropiado no solo de editores, sino
también de consolas, grabadoras, procesadores de señal, micrófonos, sistemas de monitoreo, etc.

Programa de estudios:

1. Fuente sonora, medio de propagación y receptor (natural / artificial)

2. Velocidades para el sonido y la luz

3. Generación de ondas sonoras

4. Propagación del sonido

5. Comportamiento del aire a nivel molecular en la propagación de ondas sonoras

6. Comportamiento de una onda sonora al variar el medio o la temperatura

7. Sonido directo y sonido reflejado

8. Ecuaciones de Distancia y Potencia


9. Reflexión, refracción y difracción del sonido

10. Tiempo de permanencia del sonido en el oído

11. Early reflections, Eco y Reverberación

12. Vibración periódica de las moléculas del aire

13. Características de vibración (distancia, tensión, masa)

14. Generación de ondas simples (senoidal)

15. Representación gráfica para la forma de onda (oscilograma)

16. Adición y descomposición de ondas (Fourier)

17. Diferentes tipos de onda

18. Ciclo

19. Período (fórmulas asociadas)

20. Frecuencia (fórmulas asociadas)

21. Espectro de captación del oído humano

22. División del espectro en décadas

23. FX basados en tiempo

24. Longitud de onda

25. Ondas estacionarias

26. Resonancia

27. Decibel (dB) SPL

28. Rango dinámico del oído humano

29. Rango dinámico en sistemas de sonido


30. Relación señal/ruido

31. Fase (sus diversos aspectos y consideraciones)

32. Empleo de Oosciloscopios

33. Envolvente

34. Timbre

35. Acústica fisiológica

36. Ruido blanco y ruido rosa

37. Empleo de Analizadores de Espectro

38. Efecto Doppler

39. Efecto Haas

40. Inteligibilidad de la palabra

41. Curvas de Fletcher y Munson

42. Valor RMS

43. Batimiento

44. Tonos de combinación

45. Problemas de enmascaramiento de señal

46. Frecuencias compartidas durante la mezcla

47. Posición adecuada para monitoreo

48. Nociones generales para la acústica y tratamiento de una sala de monitoreo

49. Diferentes niveles SPL para las etapas de monitoreo


50. Tiempos establecidos para las sesiones de monitoreo y escucha

PRINCIPIOS DE MAGNETISMO Y ELECTRICIDAD:

1. Fundamentos de la electricidad

2. Campo magnético y campo electromagnético

3. Fuentes de alimentación

4. Fuentes de señal

5. Corrientes Continua y Alterna (D/C - A/C)

6. Amperaje

7. Voltaje

8. Resistencia

9. Inductancia

10. Impedancia

11. Ley de Ohm

12. Diferentes niveles para la transmisión de señales de audio

13. Circuitos eléctricos

14. Circuitos en paralelos y series

15. Fórmulas para el cálculo de diferentes impedancias de carga

16. Tipos de cable empleados en audio profesional y semiprofesional

17. Ondas de radio (RF)

18. Transmisión alambica e inalámbrica


19. Ruido por inducción e interferencias RF

20. Jaula de Faraday

21. Transformadores

22. Sistemas no balanceados y balanceados

23. Mecanismo de funcionamiento de micrófonos dinámicos y a condensador

24. Mecanismo de funcionamiento de parlantes

25. Sensibilidad

26. Propiedades mecánicas, físicas y eléctricas del woofer

27. Propiedades mecánicas, físicas y eléctricas del Tweeter

28. Análisis del comportamiento del parlante a través del oscilograma

29. Problemas inherentes a las bobinas en parlantes

30. Diagrama eléctrico en configuraciones de sonido en vivo

31. El decibel como unidad: dBv / dBu / dBw / dBm / dBSPL / dBFS

32. Niveles operativos en sistemas de audio: +4dBu / -10dBv

33. Mediciones en Vúmetros digitales y analógicos

34. Calibración de Vúmetros (referencia de 0dB)

35. Calibración de Vùmetros entre sistemas analógicos y digitales

36. Medición del flujo de señal a través de una cadena de vúmetros

37. Tipos de conectores (fichas) usuales en audio profesional y semiprofesional

38. Etapas de preamplificación

39. Etapas de potencia


40. Opciones entre sistemas de monitoreo activos y pasivos

41. Divisores de frecuencia (crossover) activos y pasivos

42. Diagrama eléctrico en configuraciones de estudio

AUDIO DIGITAL:

Objetivos:

Se trata de la comprensión y el encaminamiento de los sistemas empleados durante la grabación digital


de sonido. Se verán los parámetros más importantes y determinantes en cuanto a la posibilidad y calidad
de grabación. Nuevamente, entraremos en el idioma mismo de la grabación digital, para así poder
predecir sus resultados.

Programa de estudios:

1. Sistemas de almacenamiento digital vs. sistemas analógicos

2. Diferentes soportes

3. Análisis, alcance y posibilidades de la computadora como herramienta de grabación

4. Encaminamiento de la señal

5. Conversores A/D y D/A

6. Velocidad de sampleo

7. Cuantización (medida de bits)

8. dBFS (Decibel empleado en audio digital)

9. Teorema de Nyquist (frecuencias máximas posibles para diferentes velocidades de sampleo)

10. Efecto Aliasing y filtros antialias

11. Dithering
12. Rango dinámico de un sistema

13. La compresión dinámica antes de la grabación

14. Relación señal error

15. Ruido de cuantización

16. Protocolos de transmisión S/PDIF y ADAT

17. Edición no lineal

18. Edición destructiva y no destructiva

19. Normalización de picos y RMS

20. El archivo .wav (compartiendo en un mismo archivo datos de diferente índole)

TECNICAS:

MICROFONOS:

1. Diferentes tipos de micrófonos (dinámicos, condensadores, electret, piezoeléctricos)

2. Micrófonos frontales y laterales

3. Respuesta en frecuencia

4. Sensibilidad

5. Patrones de captación (direccionalidad)

6. Técnicas de microfoneo: Par espaciado, Par coincidente, XY, ORTF, MS

7. Conceptos básicos sobre usos y aplicaciones, frente a diferentes situaciones

8. Regla de tres a uno


9. Mics PZM

10. Micrófonos especiales

11. Triggers

12. Interacción micrófono/ambiente

13. Captación de voces

14. Captación de instrumentos de cuerda (guitarra acústica, contrabajo, cello, viloín)

15. Captación de equipos de guitarra y bajo

16. Captación de instrumentos de percusión (bongó, tumbadoras, cajón, semillas, bar chimes,
timbaletas)

17. Captación de baterías

18. Captación de ambiente

FILTROS Y ECUALIZADORES:

1. Características y tratamiento de filtros (frecuencia de corte, pendiente y atenuación)

2. HPF (Filtro Pasa Altos)

3. LPF (Filtro Pasa Bajos)

4. Filtro Pasa Banda

5. Filtro Cortabanda / Notch

6. Efectos de rizado

7. Filtros resonantes

8. Fundamentos para la construcción de un ecualizador

9. Ecualización Peack o Bell


10. Ecualización Shelf o Shelving

11. Eq. Gráfico

12. Divisiones de octava, 1/2 octava y 1/3 de octava

13. Factor Q / Ancho de banda

14. Ecualizadores de Q constante y Q proporcional a la frecuencia

15. Eq. Semiparamétrico

16. Eq. Paramétrico / Paragráfico

DINAMICA:

1. Análisis ADSR

2. Fundamentos para el armado de un compresor

3. Circuitos detectores ópticos y VCA

4. Compresores

5. Técnicas de compresión

6. Compresores multibanda

7. De esser

8. Sidechain

9. Limitadores

10. Expansores

11. Noise Gate


12. Buscando peso en la masterización

13. Normalización RMS

14. Técnicas de ducking

15. Técnicas de gating

TECNICAS DE GRABACION:

1. Manejo y funcionamiento de las consolas de grabación y mezcla

2. Niveles operativos de señal

3. Ruteo de las señales

4. Asignaciones

5. Estructuras de ganancia

6. Ecualizadores de frecuencia fija, shelf , semi y paramétricos.

7. Manejo de Vúmetros de pico y de promedio

8. PFL, AFL, Mute

9. Envíos y retornos Auxiliares

10. Direct Outs

11. Inserts

12. Buses y Main Mix

13. Conexiones balanceadas y no balanceadas

14. Aplicación de filtros durante la grabación

15. Compresión durante la grabación

16. Grabación multitrack basada en sistemas analógicos y/o digitales


MEZCLA:

1. Filtros aplicados en mezcla

2. Separación de canales mediante curvas de ecualización

3. Manejo de analizadores de espectro y de fases

4. Niveles de mezcla

5. El peso (cuerpo) de la mezcla

6. Procesadores y efectos aplicados durante la mezcla

7. Mezclas automatizadas vía software

8. Plataformas compartidas (hardware / software)

Este programa consta de 185 ítems


Pablo Rabinovich

Docencia y asistencia técnica:

● IAC (Instituto Argentino de Computación): Desarrollo y docencia en los cursos de Audio Digital
(Sound Forge y Saw Pro), para la sucursal Belgrano. Laboratorio de sonido digital MEDIAC
● Capacitación técnica de personal estable en el área de sonido del Teatro Gran Rex
● Capacitación técnica para personal del cuerpo docente de la Escuela de Música Popular de
Avellaneda
● Capacitación técnica de personal estable en el área de sonido de Azul Televisión
● Capacitación técnica de personal estable en el área de sonido de T y C Sports y Utilísima
Satelital
● Capacitación técnica de personal estable en el área de sonido de Estevanez Producciones
● Capacitación técnica de personal estable en el área de sonido de 3PM Producciones - Música
Publicitaria - Sonido - Radio
● Capacitación técnica de personal estable en el área de sonido de Pomeranec Música
Producciones - Música Publicitaria y Postproducción
● Capacitación técnica de personal y propietarios de diversos estudios de grabación y radios de:
Interior del País( Río Negro, Mendoza, Jujuy, La Rioja, Bahía Blanca); Provincia de Buenos
Aires (Quilmes, Avellaneda, Hurlingam, Adrogué, San Martín, Pilar, Morón); Exterior (Bolivia,
Perú y Mexico)
● Asesoramiento técnico y consultoría en las instalaciones del ex estudio de grabación de Javier
Calamaro, a cargo de Pomeranec Producciones
● Capacitación técnica de personal en el área de sonido para producciones internas de Canal 26
● Sr. Sebastián Estevez, profesor de Acústica del Instituto Ecos
● Sr. Kike Muguetti (Virus). Capacitación técnica
● Sr. Marcelo Moura (Virus) -asistencia técnica-.

● Sr. Leo Perez (encargado del área de pantalla, video y proyección para Divididos, Las Pelotas,
Joaquín Sabina, Argentina en Vivo, Diego Torres, entre otros)

Grabación y Producciones:

● Fabiana Cantilo (Información Celeste - Premio Carlos Gardel 2003 mejor album pop artista
femenina)
● Hilda Lizarazu (Gabinete de Curiosidades Premio Carlos Gardel 2004 mejor album pop artista
femenina)
● Fabiana Cantilo (2006) en las etapas de "grabación, edición digital, mezcla y
masterización" para el inminente lanzamiento de "El Tiempo no Para" (Canal 9, Productora
Underground -Sebastián Ortega-)
● Domingo Cura
● Black Amaya (Pescado Rabioso)
● Dimitry Rodnoi (cellista: L.A.Spinetta, Fabiana Cantilo, Divididos)
● Miguel Botafogo
● Aitor (baterista de Virus y Juana la Loca)
● Sony editora de Argentina, junto a Gabriela Silva
● Sony discográfica filial Miami, junto a Gabriela Silva
● Edith Rosseti
● Melania Pérez
● Daniel Maza (Celia Cruz, Fattoruso, etc.) para Puerto Trío
● Jorge Gordillo (violín de Jaime Torres)
● Marcelo Perea (Autor de Lapachos en Primavera (recientemente grabado por Mercedes Sosa);
Piano de los Carabajal, Sixto Palavicino, Dúo Coplanacu)
● Tonio Rearte
● Fundación Desde América para Canal 13 y Blockbuster
● José Vélez (Compilado y remasterización)
● Esteban Castel (votado por la encuesta Sí de Clarín por Gustavo Cerati y Daniel Melero, para
producción independiente 2000)
● Orquesta Amarilla
● Ultramar (en la masterización del disco 15´ con The Smiths, edición simultánea Buenos Aires -
Londres)
● Fun People (en la masterización del disco 15´ con The Smiths, edición simultánea Buenos
Aires - Londres)
● UNICEF
● Medicus, medicina pre paga
● Secretaría de Salud y Acción Social de la República Argentina
● Estudio Faivre Hnos. (diseño y animación)
● Teatro De La Fábula
● Productora TV Disc
● Automotores Díaz, Renault
● Revista Músicos
● Puesta en escena de Macbeth
● Alma Maya
● Felipe Arriaga
● Amadeo
● Amanecer
● Círculo Eterno
● Nerón
● Mala Praxis
● Darshan
● Ironía
● La Bohemia
● La Curtiembre
● La Frontera
● Nostradamus
● Por lo menos
● Salvador
● Soloven
● Universo
● Viet Com
● Yoshinori Sakamoto
● María Gabriela Silva
● Sri Lanka
● Kamaruko Percusión
● Orquesta Amarilla
● El Buscasón
● El Eco
● Los Machaco
● Cristián Pablo
● Amelia Martín, junto a Quique Rassetto
● La Vuelta
● Gerión
● PH7
● Deja Vu
● Diskordia
● Leo Apelbaum
● Sonorus (Bolivia)
● Tomboctú
● Richter
● Parampará
● Pablo Aznarez (violín de Coplanacu)
● Negro Arguello y Gabriel Noe
● La Yerra
● Caravana
● La Cordobanda
● Las Tremendas
● Bronceado
● Miranda
● Katze Katz
● Porno
● Santiago Delgado
● Por lo Menos
● Baff
● Marea Roja
● Black Rose
● Darshan
● Cerveta y los del Cuetazo
● Resto
● Anonimato en Buenos Aires
● Tal Vez
● Osvaldo Dávoli
● Telefryzer
● Plan B
● Sebastián Pitré
● El Soberano
● Viviana Fortugno
● Puerto Trio
● Juan Cruz Perez Prado
● Maturana
● El Pájaro (Fernando Fresco)
● Mariana Bonifatti
● Alejandro Matos
● L´Hermite
● Pacha Runa
● Tato Díaz
● Tiki
● Milissa (USA)
● Irem Bekter
● Marisol
● Aito Pelleschi
● Soni-K
● Calycanto
● Gema
● Marisol
● 9 Látigos
● Alondra

Tareas de operación de sonido en:

● Teatro Municipal General San Martín –Salas A y B, Salón Naranja y Sala Mármol
● Teatro del Sindicato de Gastronómicos
● Museo de Arte Moderno de la Ciudad de Buenos Aires
● Asociación de Fotógrafos Publicitarios de la Rep. Argentina (FOP)
● Teatro de la Fábula
● La Trastienda
● La Vieja Casona
● Hillok
● La Vía
● Saint´s
● Mc. Donalds (eventos internos).
● Fundación Banco Patricios (eventos internos)
● Banco Francés (eventos internos)
● Alvear Palace Hotel (eventos internos)
● CityBank

Operación de sonido para:


● A Tirador Laser
● La Cofradía de la Flor Solar
● Sr. Carlos Riganti (ex Alas, con Rodolfo Mederos)
● Asistencia técnica para el Sr. Amílcar Gilabert
● Sr. Fito Mesina
● Sr. Miguel Cantilo
● Karina Alfie (Compañera de escenario de Steve Vai)
● Sr. Mario Sábato
● Sra. María Fux
● Tanger
● Sin Reyes
● La Morocha
● La Odiosa
● La Profana
● Demian Band
● Doble Tracción
● Tren Loco
● Fuego Indio
● 10000Toneladas
● Scherzo
● The Rocky Horror Ssow
● Cerveta y los del Cuetazo
Características de los medios de propagación del sonido:

Para que el fenómeno sonoro pueda darse, será necesaria la participación de tres factores:

1- La fuente: elemento perturbador de las partículas de aire.

2- El medio transmisor: es el vehículo a través del cual se desplaza la energía. Los medios conocidos
son tres -sólidos, líquidos y gaseosos-.

3- El receptor: Aquel elemento capaz de percibir -en forma de código nervioso o eléctrico- las rápidas
perturbaciones de las partículas de aire.

Ondas transversales: Son aquellas que vibran perpendicularmente a la dirección de propagación de la


onda.

Ondas longitudinales: Son aquellas que vibran en el mismo sentido que la dirección de propagación de
la onda.

Ondas planas: Se desplazan en una única dirección, paralela al plano de la fuente. Ejemplo: ondas
producidas por un pistón.

Ondas esféricas: Son aquellas que irradian su energía omnidireccionalmente.

LEY DE DISTANCIA Y LEY DE POTENCIA:

Existe una relación dada entre la fuente y el receptor, la cual condicionará los niveles de amplitud de
acuerdo a la distancia que se genere entre los mismos. La explicación de este fenómeno es análoga al
comportamiento de la luz.
Como ejemplo, el haz de luz que genera una linterna colocada muy cerca de una pared, abarcará una
superficie dada. Sin embargo, al alejar la linterna de la pared, observaremos cómo dicho haz abarca cada
vez más superficie, en tanto que la energía lumínica aplicada a cada punto de la superficie será cada vez
menor.
Podemos decir que el sonido se comporta de similar manera, siendo que tiende a expandirse en forma
omnidireccional. Este tipo de proyección generará, cada vez que se duplique la distancia, cuatro veces
más de cobertura de área, decayendo inversamente su amplitud.
Podemos decir, entonces, que el sonido decae según el inverso del cuadrado de la distancia, lo cual
corresponde a una variación del orden de los 6 dB.
En otras palabras, esto significa que cada vez que se doble la distancia entre la fuente y el receptor,
obtendremos una pérdida de 6 dB *

* Este fenómeno es válido para campo libre, y en función cálculos teóricos, ya que la naturaleza de las
ondas se verá, en la realidad, alterada por el medio circundante. No será equivalente la pérdida para
igual distancia entre un lugar a campo abierto y una sala limitada por paredes, piso, techo. A la vez que
habrá que tomar en cuenta los propios coheficientes de absorción de cada superficie reflectora.

Por ejemplo: Si la fuente se encuentra a 10 mts. del receptor, proporcionándole 80 dB SPL, al ubicarse
éste ahora a 20 mts. de distancia con respecto a la fuente, la percepción será de 74 dB SPL. Para una
nueva posición, ahora de 40 mts. (el doble de 20), corresponderán 68 dB SPL.

LEY DE POTENCIA:

La misma enuncia que el resultado de duplicar la potencia converge en un incremento de 3 dB. Esta
relación se mantendrá para cualquier nivel de potencia:

W x 2 = +3dB

W / 2 = -3dB

El cálculo aplicado al decibel para valores de potencia W es

dB = 10.Log10 (dato/referencia)

Por ejemplo, multiplicar la potencia por 4 equivale a la siguiente expresión:

10.Log10 (4/1) = 10.Log10 4 = 10 . 0.60 = 6 dB

Podemos recordar una regla que nos simplificará los cálculos en la mayoría de las situaciones, ya que de
no obtener el valor exacto, nos dará una aproximación:

W . 2 = 3 dB

W . 10 = 10 dB

De este modo, por ejemplo, sabremos que multiplicar W por 20 corresponderá a 13 dB,
o multiplicar W por 100 = 20 dB

¿A cuántos dB piensa Ud. que se llega multiplicando la potencia por 10.000?

Comentarios
VOLVER
VIBRACION PERIODICA DE LAS MOLECULAS DEL AIRE:

El aire conforma un medio muy elástico, en donde, como ya hemos visto, sus moléculas permanecen
repartidas homogéneamente, siempre y cuando nada las perturbe.

Ahora bien, si tomamos en cuenta que en la enorme mayoría de los casos los objetos productores de sonido se encuentran
en contacto directo con el aire, podremos contemplar el principio de generación de sonido a través de la interacción de
estos dos.

Tomaremos el caso de la cuerda de una guitarra para el ejemplo:

La cuerda de una guitarra permanece inmóvil La presión atmosférica permanece a un valor estable
Analogía 1: (siempre que nada la perturbe) y bajo una tensión
(presión) determinada y estable
Analogía 2: La cuerda posee cierta elasticidad El aire posee cierta elasticidad
La cuerda tenderá a permanecer en su estado de Las moléculas tenderán a distribuirse homogéneamente
Analogía 3:
origen (estabilidad)
Sólo una fuerza externa provocará un cambio en su La acción de un cuerpo externo provocará variaciones en el
Analogía 4:
nivel de tensión original nivel de presión
Al responder a la acción de la cuerda, alternará sus valores
Al responder a un impulso externo, alterará su
de presión, por sobre y debajo de su valor nominal
Analogía 5: posición de inicio, moviéndose por sobre y debajo
de su eje (vibración)

La amplitud de la vibración será proporcional a la Los desequilibrios de los valores de presión serán
Analogía 6:
intensidad del impulso proporcionales a la amplitud de la vibración de la cuerda

El resultado será que, por analogía, si la cuerda, al ser pulsada pasa por encima y por debajo de su posición inicial neutra,
por ejemplo, 100 veces, en el término de 1 (un) segundo, la presión del aire variará en valores de compresión y rarefacción
la misma cantidad de veces, en el mismo tiempo.

Así como la cuerda irá agotando su energía, hasta volver finalmente a su estado de origen, el aire disminuirá del mismo
modo sus desequilibrios de presión.

A su vez, el ir y venir de la cuerda, actuará como abanico, bombeando el aire que la circunda, generando ondas sucesivas,
que se desplazarán a velocidad C, alejándose permanentemente de su punto de origen, formando en su trayecto zonas
de presión, conocidas en acústica como frentes de onda, y otras zonas de descompresión, o valles.

Dos frentes de onda sucesivos generados por una misma fuente, conforman lo que se denomina Longitud de Onda λ.
Este concepto lo desarrollaremos más adelante.

El oído -a través de la membrana del tímpano- y el micrófono -mediante su diafragma- registrarán en forma mecánica
las variaciones de la presión del aire, dando información neuroquímica al cerebro, en el primer caso, o imprimiendo
valores relativos de voltaje a través del tiempo.
VOLVER
VELOCIDADES PARA EL SONIDO Y LA LUZ:

Velocidad del Sonido en el aire:

La velocidad del sonido "C" ó "V", físicamente, es la velocidad con la que las moléculas del aire
transmiten en cadena su valor de presión, a través de un frente de onda dado. A fines prácticos, C es la
velocidad a la que se desplaza una onda sonora en el aire. (Cabe destacar que aquí nos referiremos
únicamente al medio aire, omitiendo los valores C para otros gases, sólidos o líquidos).

C a 0ªC = 331 m/s

El recorrido del sonido gana 0.6 m. por cada grado ascendente. Esto equivale a decir que a medida que
aumenta la temperatura, el sonido se desplaza a mayor velocidad, o sea, que en el mismo tiempo recorre
más espacio.

C para 20ªC = 343 m/s, ya que:

(0.6 x 20) + 331 = 12 + 331 = 343

Es importante destacar que la velocidad a la que se desplaza una onda es independiente de la amplitud
de la onda. O sea, los sonidos débiles viajan a la misma velocidad que los sonidos fuertes.

Velocidad de la luz en el vacío:

La luz se desplaza en el vacío a una velocidad C de 300.000 Km./s, o, lo que es lo mismo, 300.000.000
de metros por segundo.

Un ejemplo: Debido a que la velocidad de la luz es un hecho casi instantáneo, es posible saber a qué
distancia se encuentra la tormenta, si medimos la diferencia de tiempo entre el rayo y el trueno.
Supongamos un día en el que la temperatura ambiente es de 20ºCent. (C343 m/s), vemos el destello de
un relámpago, y luego de 1 segundo escuchamos su correspondiente trueno. Entonces la tormenta se
encuentra a 340 metros de distancia respecto a nosotros.

Si bien la luz y el sonido en muchos aspectos tienen similar comportamiento, es de destacar que el
sonido precisa de un medio para desplazarse, en tanto que la luz no. Por ejemplo, una onda acústica no
podría desplazarse a través del espacio exterior, en tanto que la luz no ve en ello ningún inconveniente.

Algunas similitudes entre la luz y el sonido son:

Al encontrarse en un punto de su trayectoria con un medio diferente, ambos alteran su dirección.

Al rebotar contra una superficie, ambos lo harán en el mismo ángulo de la onda incidente

En ambos casos, la energía reflejada por una superficie dependerá en gran parte de las características de
absorción de la propia superficie reflectora. En el caso del sonido, el factor condicionante pasa por la
densidad molecular (dureza) de la superficie contra la que choca la onda. En el caso de la luz, la energía
lumínica reflejada dependerá del color de la superficie contra la que choca la onda. Habría una
equivalencia entre los colores claros y los materiales duros, y entre los colores oscuros y los materiales
blandos.

Otro hecho a tener en cuenta se vincula con la electricidad. La velocidad a la que circula la electricidad
por un cable es prácticamente igual a la velocidad de la luz, aunque un poco menor, por no tratarse de un
conductor al vacío.

VOLVER
SONIDO DIRECTO Y SONIDO REFLEJADO:

Ya que parte de la naturaleza del ser humano es permanecer con los pies sobre el suelo, sucederá que
cuando el receptor perciba un evento sonoro, en realidad estará recibiendo al menos dos eventos
sonoros, pero con diferentes tiempos de arribo hacia él. Se trata del rebote o reflejo de la onda incidente
en el mismo suelo.

Ejemplo de sonido directo y su reflejo en el suelo

En el caso de campo abierto, y para el ejemplo de dos personas conversando, cada una escuchará
primero el sonido procedente de la boca del otro, pero inmediatamente, recibirá el sonido proveniente de
la superficie (suelo) en donde ha sido reflejado. Como podrá apreciarse, las dos señales, siendo
prácticamente idénticas (salvo por los factores de amortiguación de la superficie reflectora y la
diferencia relativa de niveles debida a la ley del cuadrado inverso), recorrerán diferentes distancias. A
aquella señal que recorra la menor distancia entre la fuente y el receptor se la conoce como sonido
directo, mientras que a las señales inmediatas, provenientes de uno o más reflejos se les da el nombre de
early reflections o reflexiones primarias.

De acuerdo a la relación que exista entre estos dos tipos de sonido, podrán existir en la suma de ellos
desde variaciones tímbricas despreciables hasta cambios drásticos entre la fuente de origen y el sonido
percibido (efectos de filtro peine o comb filter).

Debemos recordar aquí la ya vista Ley de distancia. Esto nos dará una idea de cuánto puede intervenir el
sonido reflejado, por ejemplo, cuando un micrófono está captando una voz, de acuerdo a la altura del
interlocutor, la altura del micrófono, y la distancia de éste con respecto al micrófono.

A su vez, a esto deben agregarse las propiedades en particular de la o las superficies reflectoras, las que
dependerán de su capacidad de absorción para cierto tipo de frecuencias.

Gráficos

VOLVER
REVERBERACIÓN:

Para que exista este fenómeno, es necesaria la existencia de más de una superficie reflectante.

Si bien las early reflections son las que aportarán al cerebro datos fundamentales acerca de la ubicación
espacial (ambiente chico / grande; superficies duras / blandas; me encuentro cerca de una superficie, o
lejos de todas, etc.), estos rebotes no terminan de ninguna manera su recorrido al llegar hacia nosotros,
sino que por el contrario, siguen en su dirección determinada, hasta volver a encontrarse con una nueva
superficie, para volver a rebotar en ella.

Mientras más alejadas se encuentren entre sí las superficies reflectoras, la onda tardará más tiempo en
llegar de una hacia la otra, lo cual generará una sensación de acústica nebulosa, conocida como
reverberancia, producida, en definitiva, por la distancia entre superficies y capacidad de absorción de las
mismas.

La misma reverberación produce en el ambiente un grado de amplificación temporal de la señal, ya que


las ondas al ir y venir se acoplan, y crece entonces la presión acústica. En una sala anecoica (libre de
ecos) deberíamos hablar mucho más fuerte para ser oídos al mismo nivel que en una sala con un cierto
grado de reverberancia.

A su vez, la reverberancia es un factor muy importante a tener en cuenta en la construcción de un recinto


para aplicaciones sonoras. En salones destinados a la ejecución musical, un cierto grado de
reverberancia favorecerá la sensación de escucha, referido a la sensación por lo general agradable, que
facilita un mejor ensamblamiento de los diferentes instrumentos y sonidos. Sin embargo, en aquellos
salones destinados a la oratoria, un exceso de de reverberancia ocasionará problemas en la inteligibilidad
de la palabra. Tomemos en cuenta que cualquier palabra pronunciable consta de una parte fuerte
(acento) y el resto de componente débil. Utilicemos para el ejemplo la palabra "clásico" :

División silábica: clá - si - co

clá - si - co
Siendo que la "a" es la vocal fuerte (mayor nivel de amplitud con respecto al resto de las vocales), el
resto de las sílabas siguientes será enmascarado por ésta, complicando la interpretación del auditorio.
Esto se debe a que, cuando el orador esté pronunciando la sílaba "si", todavía permanecerá reverberando
en el ambiente la sílaba "clá".
Debemos tomar en cuenta que en los idiomas occidentales cada sílaba tiene un promedio de duración de
aproximadamente 200 ms., presentando un intervalo entre sílabas de 5 ms.

Este ejemplo es evidente en la acústica de grandes iglesias, en donde la distancias entre superficies es
muy grande, a la vez que los materiales reflectantes son duros, lo que conlleva a una menor absorción, y
por ende mayor cantidad de energía reflejada.

En cierto momento, la cantidad de rebotes producidos es tan numerosa, que la radiación de energía
omnidireccional se convierte caótica. Si la fuente no cesara, el aumento de energía (SPL) seguiría una
curva de crecimiento. Sin embargo, una vez que cesó la fuente, los rebotes tenderán a disminuir, en
cierto grado debido a la capacidad de absorción de los diferentes materiales, así como a la ley de
distancia.

El orden natural para las diferentes etapas por las que pasa una onda sonora esta dado por

1- Sonido directo: es la porción de la onda que recorre el menor trayecto entre la fuente y el receptor

2- Early reflections: son los primeros rebotes en las superficies adyacentes, imprescindibles para la
correcta percepción de ambiencia.

3 - Predelay: es el tiempo que tardan las ondas en condensar la suficiente energía, producto de la suma
de todos los rebotes ocasionados por las early reflections.

4 - Reverb: es la densidad acústica causada por la sucesión de rebotes, los cuales, por presentarse cada
vez en mayor cantidad, suceden cada vez a intervalos más cortos. El cerebro no puede separarlos, y los
une en la sensación de estiramiento del sonido.
RT60: A finales del siglo XIX el físico americano Wallace Clement Sabine propone que cualquier
sonido que caiga en 60 decibeles de su valor de origen se extinguirá. Por supuesto, esta teoría es válida
para la enorme mayoría de los sonidos que percibimos en nuestra vida cotidiana. Por lo tanto, sabine
encuentra una manera útil para medir el tiempo de reverberancia de un local. En la práctica, y sin
demasiadas complicaciones, podríamos medir el tiempo de reverberancia de una sala (RT60 ó T60)
simplemente con un micrófono, un vúmetro y un cronómetro.

Gráfico 1

Gráfico 2

Gráfico 3

Gráfico 4

Gráfico 5
VOLVER
TIEMPO DE PERMANENCIA DEL SONIDO EN EL OÍDO:

La onda sonora, al ingresar en el aparato auditivo, mantiene una serie de resonancias, las cuales
prolongan su estadía en el mismo. Este hecho se da al margen del tiempo que requiere una señal para
pasar por las diferentes etapas del oído, así como el tiempo requerido para descifrar el contenido de la
señal, en la etapa que va desde la variación de los niveles de presión acústica que provocan la reacción
análoga del tímpano, hasta su conversión en impulsos nerviosos que transportan al cerebro información
útil.

Entonces, así oigamos el sonido producido por un lápiz golpeando el escritorio, el cual produciría un
transitorio que duraría poquísimos milisegundos., lo retendremos en nuestros oídos por
aproximadamente 50 ms.

En consecuencia, cualquier early reflection que arribe nuevamente al oído en un término menor a
aproximadamente 50 ms. será tomado por el cerebro como parte del sonido original, aunque debido a su
variante en fases, provocará en mayor o menor medida, una variación en el espectro.

VOLVER
ECO:

Tomando en cuenta el tiempo de permanencia del sonido en el oído, ocurrirá que cuando una repetición
provocada por una reflexión se distancie del sonido directo en una razón mayor a 50 ms., ésta no será
incorporada por el cerebro como parte de la fuente original, provocándose la sensación conocida como eco.

Ejemplo: Si una persona dice Hola! frente a un paredón ubicado a cincuenta metros de distancia, (tomando en
cuenta V 340 m/s para una temperatura ambiente), el sonido tardará en llegar a la pared 147 ms., por lo que
llegará de nuevo a la misma persona, tras haber rebotado, en 294 ms., habiéndose producido eco.

Eco

Artificialmente, este efecto puede producirse a través de un dispositivo de delay (retardo), ajustando el
parámetro delay time en una medida mayor a 50 ó 100 ms.
VOLVER
VIBRACION DE UN CUERPO (INSTRUMENTOS DE CUERDA, VIENTO Y PERCUSIÓN):

Tomaremos para este ejemplo el caso de una cuerda.

Para que una cuerda pueda entrar en vibración, será necesario que se encuentre sujeta por dos puntos, a
una tensión T., y se le aplique una fuerza F (esto mismo está aclarado en características de vibración,
contenido en el hipervínculo La Fuente, correspondiente al punto A).

Para el caso de un instrumento de percusión, como ser un tambor, se mantienen las mismas
características, salvo que la sujeción por dos puntos pasa a ser perimetral.

En los instrumentos de viento, suele ser la corriente de aire vibrando dentro de un tubo o recipiente, la
que entrará en simpatía con las características cúbicas del mismo (longitud por diámetro).

VOLVER
REPRESENTACION GRÁFICA PARA LA VIBRACIÓN DE UN CUERPO (EDITORES DE AUDIO):

Cuando nos situamos frente a un editor de audio, estamos realmente "viendo" el sonido.

Existen dos formas para visualizar el sonido, conocidas como: dominio temporal y dominio frecuencial. Hablaremos
ahora del primer caso.

Ante todo, es importante aclarar que el sonido, como lo que realmente es, no puede almacenarse. No hay sonido en el
interior de un cassette, ni en los bits de un CD. Lo que en verdad hay es información puntual acerca del sonido, y esa
información contiene únicamente dos factores: tiempo y amplitud.

En un sistema digital, esta información se almacena en una serie comparable a una planilla de cálculos, en donde se
manejan dos columnas, una para valores de reloj (horas : minutos : segundos : milisegundos : millonésimas), y la otra
con su equivalencia en valores de voltaje.

Si bien estos dos códigos combinados nos proveen de toda la información necesaria para almacenar los valores captados
y traducirlos nuevamente a voltaje cuando reproducimos el audio, no termina siendo una forma cómoda de manipular la
señal. Por ejemplo, para corregir un pico de una fracción de segundo deberíamos sobreescribir miles de valores. Es por
eso que los editores de audio recurren a la visualización directa de la forma de onda, aunque en sí, esta misma, no sea
otra cosa que la representación de lo anterior.

Los dos estados posibles, dentro de los cuales existe infinita variación, corresponden a cada semiciclo.
El eje horizontal corresponde a tiempo. El eje vertical representa la amplitud, expresada en dB

¿Qué es realmente la forma de onda?:

Si queremos comprender finalmente qué estamos viendo cuando se nos presenta una forma de onda contenida en un
archivo de sonido, tomaremos como ejemplo la representación gráfica del movimiento vibratorio de una cuerda.

Sabemos que la cuerda vibra en dos direcciones posibles: hacia arriba y hacia abajo.

Sabemos que por cada vibración, la cuerda pasará por su estado neutro.

Sabemos que, en el caso de una cuerda punteada o percutida, su máxima amplitud se hallará al comienzo de la secuencia
vibratoria, y que su energía irá cesando hasta volver a su estado neutro, conocido como reposo, o cruce por cero.

Ahora bien, supongamos que soldamos en un punto de la cuerda un alfiler, en forma perpendicular a la misma, y
cargamos su punta con tinta.

Ahora, cuando la cuerda vibre, el alfiler se moverá en forma solidaria hacia arriba y hacia abajo.

Entonces, pongamos el alfiler en contacto con una tira de papel que se mueva en un sentido, siempre a la misma
velocidad, representando el paso del tiempo.

Si el papel permaneciera inmóvil, el alfiler dibujaría una línea siempre sobre sí misma, pero al correr la tira de papel, la
línea se irá desplazando en forma sinusoidal, permitiéndonos ver representado gráficamente el recorrido de la cuerda a
través del tiempo.

Esta forma primaria de movimiento representa a la oscilación más simple conocida, o sea, hacia un lado y luego hacia el
otro, dando por resultado una onda simple conocida como sinusoidal o senoidal, debido a la función seno en
trigonometría.

El punto exacto desde donde parte la línea será equivalente a la posición de reposo de la cuerda, por lo tanto, cada vez
que en el gráfico veamos que la línea pasa por el mismo nivel de amplitud, corresponderá a un nuevo semiciclo
vibratorio. A este nivel 0 de amplitud podríamos trazarle una línea horizontal, la cual nos daría la referencia del cruce
por cero.
Entonces, el reloj comenzaría a contar a partir del primer instante de movimiento de la cuerda, dando valores temporales
al eje horizontal, en tanto que el eje vertical mantendría, para el caso de la cuerda, valores de distancia, ya que la
amplitud demarcada no es otra cosa que la cantidad de milímetros que la cuerda pasó hacia arriba y hacia abajo de su
valor 0.

Como podremos observar, al iniciar el gráfico, los valores de distancia variarán infinitamente a través del tiempo. Así
podremos saber, por ejemplo, en qué momento exacto obtuvimos la mayor distancia con respecto al eje 0, y cuánto
tiempo duró la secuencia completa, así como cuánto tiempo le lleva decaer, hasta quedar nuevamente en reposo
absoluto, etc.

Sin embargo, la serie de datos que nos muestra el gráfico de ondas no termina aquí.

Si bien sabemos que para medir las diferentes posiciones temporales de una cuerda, el eje vertical representará valores
expresados en metros, no debemos olvidar que, al estar la cuerda en contacto directo con las moléculas de aire, éstas se
comprimirán y descomprimirán, en forma análoga al comportamiento de la cuerda. Entonces, la onda que vemos en el
gráfico también será válida para clasificar los diferentes estados de la presión del aire para cada momento. Entonces el
eje vertical debería enunciar valores de presión.

Ahora bien, si esta señal está en el gráfico de una pantalla, es porque ha sido captada por un micrófono. Este, al tener una
membrana terriblemente sensible a los cambios de presión del aire, genera un voltaje a la salida de la bobina acoplada a
la membrana (caso de los micrófonos dinámicos). Al tratarse de una corriente alterna, los valores de presión y
rarefacción del aire se corresponderán con valores que alternan entre estados de voltaje positivos y negativos.
Nuevamente encontraremos que ha variado la nomenclatura del eje vertical. Ahora debería mostrar amplitud expresada
en voltios.

Finalmente, este voltaje se amplifica y mueve a un nuevo diafragma acoplado también en este caso a una bobina, con su
respectivo imán. Esta membrana ahora es mucho más grande, más gruesa y más pesada, ya que su función, en vez de
moverse con el aire, será la de mover al aire. Efectivamente, se trata del parlante, el cual efectuará movimientos análogos
a los expresados por los valores de voltaje. En consecuencia, si los valores de voltaje son análogos a los cambios en la
presión del aire, y estos cambios son análogos al movimiento de la cuerda, el movimiento del parlante y el de la cuerda
serán análogos, provocando en el aire variaciones de presión, tal como lo hiciera la cuerda, lo que nos permitirá oír a
través del parlante, el sonido generado por la cuerda. Nuevamente, el eje vertical debería expresarse en relación a valores
métricos. O sea, el mismo eje presenta valores de: distancia, presión y voltaje. Sin embargo, como lo que realmente se
muestra es la posición actual comparada a la posición de origen, se utilizan decibeles para la lectura.

Si A=B y B=C entonces A=C

Este ejemplo tendrá la misma validez para cualquier fuente sonora, como ser la voz, un piano, una flauta o un trueno.

Para el caso puntual de la cuerda, no debemos esperar obtener una senoidal al hacer este experimento frente a un
micrófono, ya que el alfiler del cual hablamos más arriba se encuentra en un solo punto de la cuerda, en tanto que el
micrófono capta la vibración de toda la cuerda, obteniendo, en la mayoría de los casos, la suma de múltiples senoidales
para cada sector de la cuerda (componente armónico).
El movimiento de la forma de onda también representa las sucesivas posiciones del parlante.

VOLVER
GENERACION DE ONDAS SIMPLES:

La única onda simple es la que resulta del producto de un solo movimiento ondulatorio. A este tipo de
onda se la conoce como sinusoide o senoidal.

Es el equivalente del movimiento pendular, también conocido como M.A.S. (movimiento armónico
simple)

● Senoidal

Un ciclo de una onda senoidal

Existe otro tipo de ondas, que por su relación armónica también se las suele llamar simples, aunque en
realidad son compuestas. Estas son:

● Triangular
Un ciclo de una onda triangular

● Diente de sierra

Un ciclo de una onda diente de sierra

● Cuadrada
Un ciclo de una onda cuadrada

Tanto las ondas triangulares, como las de siente de sierra, así como las cuadradas están compuestas por
adiciones de series armónicas de senoidales, tal como lo expresó el matemático y físico francés Jean-
Baptiste-Joseph Fourier (1768 / 1830)

Fourier ha realizado enormes e invalorables aportes a la física del sonido. Es de destacar la


Transformada de Fourier, y las series de Fourier, ambos, pasajes matemáticos entre los dominios
frecuencial y temporal.

En la actualidad, una de las herramientas de análisis de audio más importantes de aplicación en el


estudio de grabación es el Analizador de espectro. herramienta basada en el cálculo FFT (Fast Fourier
Transform).

ESPECTRO ARMÓNICO:
Espectro de una senoidal de 1000 Hz. (único armónico en 1000 Hz.)

Espectro de una triangular de 1000 Hz. (1º armónico a 1KHz., 2º armónico a 3KHz., 3º armónico a
5KHz, etc.)
Espectro de una diente de sierra de 1000Hz. (1000, 2000, 3000, 4000Hz, etc)

Espectro de una cuadrada de 1000Hz. (1000, 3000, 5000, 7000, etc)


VOLVER
DIFERENTES TIPOS DE ONDAS:

Tal como lo hemos visto en el ítem anterior, encontramos a la senoidal como la única forma de onda
simple.

Ahora bien, ¿cómo están formadas las ondas que representan, por ejemplo a la voz humana, o a un
violín?. A este tipo de estructura se la denomina onda compuesta, la cual obedece a una adición de ondas
simples.

Para comprender la complejidad de la onda, utilizaremos en el ejemplo la adición de dos senoidales, a


una misma amplitud. En el gráfico podrá verse cómo la de menor período se acopla en la de mayor
período, resultando ser esta última la onda portadora. Esto siempre sucede de igual forma. La frecuencia
más baja presente en la señal será la portadora del resto, y la relación será de menor a mayor, en donde
100 Hz. portarán a 1.000 Hz., y estos a su vez portarán a los 10.000 Hz.

El resultado de la gráfica final dependerá de la cantidad de parciales armónicos o inarmónicos presentes,


amplitudes y sus fases relativas. Las bajas frecuencias serán las mayores canceladoras. Sin embargo,
una frecuencia de 100 Hz no cancelará a otra de 1000 Hz, pero puede tener enorme influencia en una de
120 Hz. El tema de las cancelaciones y sumas se lo abordará en el ítem referente a "fases".

En las etapas de grabación, mezcla, y, sobre todo masterización, la comprensión de este hecho es crucial,
ya que la presencia de frecuencias del tipo subsónicas a amplitudes considerables, serán un verdadero
obstáculo para una óptima obtención de RMS. Por otro lado, el eliminarlas mediante filtros, requerirán
un conocimiento previo acerca del funcionamiento de los mismos, y la posible necesidad de recurrir
posteriormente a la ecualización del tipo shelving para restaurar la variación en el espectro producida
por el filtro.

ADICION DE ONDAS:
1KHz Y 100 Hz.

La suma de 1KHz y 100Hz


ADICIONES MAS COMPLEJAS:

200 Hz. + 400 Hz. en fase


200 Hz. + 400 Hz. con fase inversa

200 Hz. + 400 Hz. con corrimiento de fase


100 Hz. + 200 Hz. + 400 Hz. en fase

VOLVER
ADICION Y DESCOMPOSICION DE ONDAS:

Este ítem está comprendido por los puntos "J" y "K"

Solamente cabría agregar que el traspaso del ámbito temporal al frecuencial a través de la transformada
de Fourier, es el que posibilita la descomposición de ondas complejas en ondas simples.

Este ejemplo se verá en el siguiente ejercicio:

1.En un editor de audio, como ser Sound Forge, abrir una ventana nueva a 16 bits, 44.1 KHz. Mono.
2.Ir al menú Tools / Synthesis / Simple.
3.Ubicar la amplitud de la nueva onda en 0 dB
4.El tipo de onda a armar: Square
5.Length (duración): 1 segundo
6.Frecuencia: 100 Hz.
7.Dar Enter
8.En la ventana de datos se presentará ahora la nueva onda cuadrada (BAJAR AL MINIMO EL
VOLUMEN DE MONITOREO). Hacer doble click dentro de la ventana para seleccionar toda la
data.
9. Ir nuevamente al menú Tools, (o al menú View en versiones posteriores a la V7) / Spectrum
Analysis, y maximizar esta nueva ventana.
10. En la ventana del analizador, entrar en el menú Options /Setings, y setear:

FFT ---------------------------------------- 2048

FFT Overlap ------------------------------ 75

Smoth...------------------------------------ Blakman Harris

Freq min ----------------------------------- 0 Hz.

Max ---------------------------------------- 10.000 Hz.

Ceiling ------------------------------------- 0 dB
Floor -------------------------------------- -96 dB

11. Dar Enter

12. Ahora deberíamos ver en la ventana del analizador la composición armónica de la onda cuadrada.
Apoyando el puntero del mouse en la cresta de cada armónico, aparecerá una etiqueta mostrando
amplitud y frecuencia.

13. El próximo paso consiste en tomar nota de la frecuencia y amplitud exactas de cada armónico y
armar en una ventana nueva una senoidal (siguiendo los mismos pasos que para la cuadrada) con la
frecuencia y amplitud correspondiente a cada uno. Será necesario la creación de tantas ventanas como
frecuencias a construir, por lo que habrá que organizar bien el escritorio de Sound Forge. No será
necesario armar todas las frecuencias. Solo con 12 ó 15 )los primeros armónicos) será suficiente. Nota: a
cada nueva frecuencia deberá agregarse 10 dB de amplitud adicional. Por ejemplo, para el tercer
armónico, corresponden -11 dB en lugar de -21 dB.

14. Cerrar la ventana del analizador, y minimizar la ventana con la cuadrada de origen.

15. Utilizando cualquiera de las ventanas presentes como anfitriona, mezclar el contenido de las
restantes a ésta. Podría ser la que contenga el armónico inferior (senoidal a 100 Hz.). Los pasos para el
mix son:

● Con dos ventanas a la vista (una la que se mezclará, y la otra, la anfitriona o de destino)
seleccionar con doble click a la que transferirá su data (source). Pinchar y arrastrar (drag and
drop) hasta colocar justo sobre la de destino (100 Hz.), al comienzo exacto de la data.
● Mientras se mantiene presionado el botón izquierdo del mouse, presionar el derecho, y de
observará que el puntero del mouse alternará entre P y C. Volver a presionar el derecho hasta que
se presente como M (mix), y liberar el mouse. Nota: cada vez que se presione el botón derecho,
sosteniendo el izquierdo, se alternará entre estas tres posiciones: Paste, Cross fade y Mix.
● En el seting del mix se deben poner los dos volúmenes en 0 dB (sin alteración).
● Ahora debería verse en la ventana correspondiente a 100 Hz. la suma de los dos armónicos.
● Tirar la ventana utilizada (source), para traer la siguiente y repetir esta operación, hasta mezclar
todos los armónicos en una sola ventana (la anfitriona).

16. Ya habiendo mezclado los primeros doce o quince primeros armónicos, y poniendo zoom in full,
desde la ventana de datos, botón derecho del mouse, se podrá apreciar cómo la suma de armónicos
volverá a formar una onda cuadrada, o al menos su clara insinuación, debido a la limitada cantidad de
armónicos seleccionados para la suma.

De esto se trata el pasaje entre los ámbitos temporal y frecuencial, al que J.B.Fourier hace referencia en
su transformada, la cual se utiliza permanentemente en las funciones de audio digital a través de la FFT,
por ser este un atajo matemático, debido a la complejidad de la transformada en sí.
Representación espectral de una onda cuadrada. Al frente, la ventana de settings del analizador de
espectro de Sound Forge
El gráfico muestra el extremo superior de una línea espectral, donde se destaca la etiqueta que denota
amplitud vs frecuencia

VOLVER
CICLO:

Existen diversas formas de clasificar los diferentes estados por los que pasa una cuerda cuando entra en
vibración, pero podríamos resumir estos estados a dos etapas: 1) por sobre su punto de reposo y B) por
debajo de su punto de reposo. Ya que existe infinidad de situaciones análogas al movimiento oscilatorio
de una cuerda, podríamos volver a simplificar las etapas como Positivo y Negativo

Esto ya lo hemos comprobado cuando analizamos el movimiento de una cuerda. Entonces, una cuerda
vibrando pasará, a través del tiempo, por varios estados de positivos y negativos. La secuencia será:
neutro - positivo - neutro - negativo -neutro. Y así sucesivamente.

A cada etapa completa de vibración N + N - N se le da el nombre de ciclo.

Un ciclo está compuesto por dos semiciclos: semiciclo positivo y semiciclo negativo.

Su amplitud puede medirse en:

Amplitud positiva: La distancia entre el punto neutro y el máximo valor positivo.

Amplitud negativa: La distancia entre el punto neutro y el máximo valor negativo.

Amplitud pico a pico: La distancia entre los valores máximo positivo y máximo negativo.
Un ciclo de una onda senoidal

Es interesante destacar que cada vez que la onda pasa por el punto neutro no se registra actividad. Si, por
ejemplo, la onda representa a la cuerda, el punto neutro es el mismo estado de quietud original de la
cuerda.

Si la onda representa al movimiento del parlante, el punto neutro (también reconocido como cruce por
cero) será el único momento en el que el parlante no registre actividad, por lo tanto no habrá generación
de calor en la bobina. Comprender esto es fundamental para evaluar el comportamiento de diferentes
tipos de parlantes ante las bajas frecuencias, las cuales reportan mayor recalentamiento en las bobinas, y
su consecuente traspaso de energía de eléctrica a térmica.
Tres ciclos de una onda senoidal

VOLVER
FRECUENCIA:

Cuando un cuerpo vibra, y no altera sus propiedades, lo hará siempre la misma cantidad de veces por segundo. Por
ejemplo, tomemos el caso de una cuerda: si no se altera la distancia entre puntos de sujeción, ni la tensión aplicada, ni altera
su masa, se cumplirá esta premisa.

De hecho, los instrumentos de cuerda varían estas cualidades para obtener su afinación. En un arpa, las notas más agudas
serán dadas por las cuerdas más finas (menor masa) y más cortas (menor distancia entre puntos). En una guitarra, las notas
más graves las darán las cuerdas más gruesas, etc.

Es de notar que la velocidad a la que vibra un cuerpo está directamente asociada con el tono que genera. A menor cantidad
de vibraciones, un tono más grave, a medida que aumenta la cantidad de vibraciones el tono se eleva. Esto es notorio,
por ejemplo, al pisar el acelerador de un automóvil, el cual produce una acción directa en el motor, que no hace otra cosa
que generar ciclos mediante un eje. A mayor aceleración, el motor gira más rápido, y el tono que se percibe aumenta. El
motor en estado de regulación generará su tono más bajo posible.

Dado que a un cuerpo al que no se le alteran las tres cualidades antedichas, generará un estado de vibración constante, o
sea, frecuente - hasta que su energía se agote -, se dice que a la cantidad de ciclos que ocurren en el término de un segundo se
le da el nombre de frecuencia.

f = ciclo/segundo

La unidad de la frecuencia es el Hertz. Por eso, si una cuerda vibra 440 veces / segundo, hace una frecuencia de 440
Hertz (abreviado Hz.).

Para denominar frecuencias de 1.000 Hz. o mayores, se suele emplear el término Kilo (1.000 en griego). Entonces, es lo
mismo decir 1.000 Hz. que decir 1 KHz. Lo mismo 12.500 Hz. que 12.5 KHz.

1000 Hz = 1 KHz

100 Hz = 0,1 KHz

10 Hz = 0,01 KHz

1 Hz = 0,001 KHz
En este punto, aclararemos algunos conceptos básicos acerca de división
temporaria y proporciones:

-Una (1) hora es divisible en 60 minutos

-1 minuto es a su vez divisible en 60 segundos

-1 segundo es divisible en 1.000 milisegundos (ms) -milésima parte-.

Por lo tanto, un minuto cuenta con 60.000 ms

También es posible subdividir el segundo en diezmilésimas, y hasta en


millonésimas, de ser necesario. En el empleo de fórmulas suelen
utilizarse los valores expresados en segundos, milisegundos, y, en
determinados casos, diezmilésimas de segundo.

1/1s = 1 segundo = 1.000 s = 1000 ms = 10000 diezmilésimas

1/2 s = 0.5 s = 0.500 s = 500 ms

1/1000 s = 0.001 s = 1 ms

A su vez, 10/1000 = 1/100

La fórmula temporal de la frecuencia establece que:

f = 1/t

Esto se debe a que, para una frecuencia, por ejemplo, de 100 Hertz, habrá 100 ciclos por segundo.

Entonces, si queremos conocer el tiempo (Período = T) que le llevará a cada ciclo de 100 Hz

100 Hz = 100 ciclos______________1 seg

1 ciclo = 1 . 1 / 100 = 1 / 100

Por lo tanto, podemos afirmar que T = 1/f

Si hacemos un pasaje de términos, obtendremos que


f = 1/T

a la vez que 1 = T . f

Donde T: tiempo (período)

Si bien el oído humano reconoce una altísima gama de frecuencias, existe también un límite tanto para las inferiores, como
para las superiores. A esta porción reconocida se la denomina espectro del oído humano. Aunque la percepción es una
cuestión personal, al espectro de frecuencias que abarca el oído humano se lo suele generalizar entre los 20 Hz. y los 20.000 Hz.

Ahora bien, existe una relación entre el evento físico (frecuencia) y el hecho perceptual (la audición). Se trata de la
relación Frecuencia - Tono. No todas las frecuencias serán percibidas de la misma forma por nuestro oído. Este vínculo
asocia a las frecuencias bajas como graves, y a las altas como agudos.

Para enmarcar a esta relación subjetiva se recurre a las denominadas TRES DECADAS:

Sin embargo esta relación no es lineal. La variación tonal decrementa según aumente la frecuencia.

No es igual la variación percibida entre 100 Hz. y 110 Hz. (diferencia de 10 Hz.), que entre 1.000 Hz. y 1.010 Hz..
Mucho menos aún entre 10.000 Hz. y 10.010 Hz.

Ejemplo: Al pulsar en cada una de las celdas se activaran los .wav. Cada frecuencia dura 3 segundos, con un lapso de
1 segundo entre una y otra. Los archivos tienen -10 dB FS (para evitar sobresaltos)

Nota: Los típicos parlantitos de PC no sirven para reproducir fielmente este ejemplo.
100 a 110 Hz. -10dB.wav

1000 a 1010Hz. -10dB.wav

10000 a 10010Hz. -10dB.wav

Asimismo, diferentes amplitudes, para una misma frecuencia, provocarán una variación en el tono percibido. Encontramos
que, para frecuencias desde el límite inferior del espectro, hasta los 1.000 Hz., baja el tono frente a grandes incrementos
de intensidad. Entre los 1.000 Hz. y los 5.000 Hz. se halla un impás, y de los 5.000 hasta el límite superior del espectro, sube
el tono con el incremento de la intensidad acústica.

1 Hz.
5.5 Hz

VOLVER
PERIODO:

Se conoce como período T al tiempo requerido para el armado de un ciclo completo.

Para diferentes frecuencias encontraremos diferentes períodos. Por ejemplo, en una frecuencia de 100
Hz. un parlante realizará 100 ciclos completos en el término de un segundo. Siendo que un ciclo es un
desplazamiento completo hacia adelante y atrás, cada desplazamiento completo llevará 1/100 s. en
realizarse. En tanto que para 1 KHz. el tiempo requerido será de 1ms.

Período T = 1/f

En donde f = frecuencia

1.000 Hz. = 1 / 1.000 = P 0.001 s

100 Hz. = 1 / 100 = P 0.010 s

1 Hz. = 1 / 1 = P 1.0 s

VOLVER
LONGITUD DE ONDA:

La longitud de onda (representada por la letra griega lambda λ) es la distancia recorrida por un ciclo, por
lo tanto se mide en metros.

Volvamos al ejemplo de la cuerda: Cuando una cuerda genera una frecuencia dada, provocará
alteraciones en el estado de las moléculas de aire, en donde habrá un primer paso de compresión en las
moléculas más cercanas a la cuerda, imprimiendo su energía en las adyacentes, y a su vez éstas en sus
vecinas, y así continuamente. A esta corriente uniforme se le da el nombre de frente de onda. Este
ejemplo es similar al del piletón de agua quieta al cual se le arroja una piedrita. La primer onda se
formará inmediatamente al lado de la piedra, la cual se irá desplazando, en forma concéntrica,
alejándose de su punto de origen a una velocidad dada. Ahora bien, si tirásemos muchas piedritas
iguales, de a una, a intervalos regulares, comenzaremos a ver tantas ondas en el agua como piedras
arrojadas haya. Cada onda efectuaría idéntico trayecto, y viajará a la misma velocidad, por lo que una y
otra no se tocarían, debido a que fueron generadas en momentos diferentes.

Saliendo del ejemplo acuático, y volviendo al medio gaseoso (aire), podremos comprobar que la energía
transportada por las moléculas de aire varía su nivel de acuerdo a su orden de desplazamiento, o sea, la
zona de mayor compresión cercana a la cuerda en cuestión se irá desplazando (como la onda en el agua)
en forma plana o esférica, a una velocidad constante. Al generarse una nueva zona de compresión -
debido a que la cuerda sigue vibrando- es posible hallar en el espacio dos puntos con un mismo estado,
aunque sus niveles varíen. Aquellas zonas del espacio en las que se encuentre un mismo tipo de estado
para las moléculas demarcarán la longitud de onda de la frecuencia emitida, siempre y cuando, aquellos
puntos sean generados por la misma fuente.

En consecuencia, hay una relación directa entre el período y la longitud de onda, ya que las bajas
frecuencias, con largos períodos, generarán largas longitudes de onda; en tanto que a medida que
aumenta la frecuencia, y disminuye el período, se acortan las longitudes de onda.

Existe una fórmula para conocer la longitud de onda correspondiente al ciclo de una frecuencia:

λ = c/f
En donde:

λ = Longitud de onda
c = Velocidad del sonido

f = Frecuencia

Por lo tanto, para averiguar λ es necesario conocer F.

Por ejemplo:

Para 100 Hz.

λ = 343 / 100

λ = 3.43 m.

Asimismo, es posible averiguar la frecuencia conociendo λ:

f=c/λ

Por lo que para una longitud de onda de 3.43 m.:

f = 343 / 3.43

f = 100 Hz.
VOLVER
AMPLITUD:

El término amplitud es aplicable a varios eventos.

Observemos la cadena de audio: La fuente genera energía acústica (el aire vibra), ésta es captada por el
micrófono, y en la membrana se convierte en energía mecánica, la cual, debido al acoplamiento
solidario de una bobina alrededor de un imán polarizado, se transduce en energía eléctrica, pasando por
las diferentes etapas de pre y amplificación (manteniendo sus características), hasta llegar al parlante. el
cual generará energía mecánica, gracias a su cono - imán - bobina, terminando la cadena nuevamente en
energía acústica (el aire vibra)

Energía = acústica - mecánica - eléctrica - mecánica - acústica

A cada tipo de energía le corresponde una unidad de medición:

Acústica: presión

Desplazamiento mecánico: metros

Tensión eléctrica: voltios

Todos estos valores representan cambios con respecto a un nivel o estado de referencia. Por ejemplo, 10
metros adquieren sentido a partir de 0 metros. Un determinado valor de presión será grande o pequeño
de acuerdo a su valor de referencia.

Cuando vemos una señal representada en el gráfico de un editor digital de audio, al observar los
diferentes estados de la señal a través del tiempo, conocemos su amplitud, pero esa amplitud representa
en sí misma a varias cosas, tal como lo hemos visto en ítems anteriores, puede ser el desplazamiento de
la cuerda, los diferentes estados de presión por los que atraviesan las moléculas de aire, valores de
tensión eléctrica, o las distancias recorridas por la excursión de un parlante. Sin embargo, el indicador de
nivel del eje vertical no marca ni presión, ni metros, ni voltios, sino decibeles, Por lo tanto, la amplitud
expresada en dB será común a todos ellos.

VOLVER
REFLEXION, REFRACCION Y DIFRACCIÓN:

REFLEXION: Cuando una onda choca contra una superficie mayor que su propia longitud de onda, una parte
de esta será absorbida por la superficie, en tanto que otra porción de la onda incidente rebota en la superficie.
El rebote será coincidente con el ángulo de incidencia.

Si la densidad del medio reflectante es mayor que la densidad por la cual circulaba la onda, el sonido rebotará
con un retardo que generará un desfasaje de 180ª. Si la superficie es de menor densidad, no habrá alteración.

La onda se refleja en el mismo ángulo en que incide

REFRACCION: Cuando una onda incide de forma oblicua sobre una superficie perteneciente a otro medio,
con diferente densidad, la atravesará, desviando su dirección. Este hecho sucede debido a que al cambiar de
medio, varía la velocidad de desplazamiento. No sucederá lo mismo con las ondas que se presenten normales a
la superficie, las que no modificarán su dirección al atravesarla. Pasado un determinado ángulo crítico,
simplemente, se reflejará, y no atravesará el medio.
DIFRACCION: Se presenta cuando una onda se topa con un obstáculo de menor longitud de onda que la
propia. Esta sencillamente lo abraza, curvándose, y sigue su recorrido, ignorando al obstáculo. Por lo tanto es
de esperar que este evento suceda mucho más con frecuencias bajas que con altas.
VOLVER
RELACION DE FASES:

Cuando dos ondas de idéntica frecuencia y amplitud son generadas simultáneamente, desde una misma
fuente, darán por resultado un acoplamiento, generando un incremento en su amplitud. Por el contrario,
si las dos ondas son de idénticas características, pero parten distantes en el tiempo, la suma producida
alcanzará un resultado menor, e incluso, por el producto de la suma de sus amplitudes, existe la
posibilidad de que sean por completo anuladas. Unicamente llegado un retardo en el tiempo entre una y
otra onda equivalente a su período volverán a alcanzarse los posibles valores máximos para la suma.

Existen dos formas de medir este evento. Una es calculando la diferencia de tiempo entre una y otra. Sin
embargo este modo carece de practicidad. Para ello se implementa un segundo modo, que divide al ciclo
en grados, por lo que el inicio del ciclo coincide con los 0º; para 1/4 ciclo corresponden 90º; para 1/2
ciclo 180º; para 3/4 ciclo 270º; y para la conclusión del ciclo los 360º.

Entonces, podemos decir que para dos ondas idénticas generadas simultáneamente, hay una relación de
fases de 0º. Por lo tanto, cuando la diferencia temporal sea igual a su propio período, la relación de fases
será de 360º (o sea 0º para el siguiente ciclo). Es en estos únicos 2 casos en los que se conseguirá el
máximo incremento posible para la suma. En tanto que para dos ondas idénticas generadas con una
diferencia temporal equivalente a la mitad de su propio período la relación será de 180º. Este caso se
conoce como cancelación de fases, ya que cuando la onda A tenga un valor 2, la onda B tendrá un valor -
2; cuando A sea 5, B será -5, y así sucesivamente.
100 Hz. - P 0.010s

200 Hz. - P 0.005s


Sin embargo, la misma diferencia temporal no generará el mismo corrimiento en fases para diferentes
frecuencias. Por ejemplo, sabemos que el período del ciclo de una frecuencia de 100 Hz. es de 0.010s,
por lo que un corrimiento de 0.005s para dos ondas de 100 Hz. provocarán un desfase de 180º,
provocando su total anulación (en el caso que sus amplitudes sean idénticas). En cambio, para una
frecuencia de 200 Hz., el mismo corrimiento temporal equivale a su propio período, con el consecuente
incremento de amplitud.

Un corrimiento de 0.005s para para frecuencias de 100, 200 y 300 Hz.. Puede apreciarse que para los
100 y 300 Hz. habrá cancelación (180º), en tanto que los 200 Hz. se acoplarán en fase (0º)

Es de fundamental importancia para el técnico en sonido comprender el alcance de este tema, ya que es
muy fácil encontrar problemas de fases en las diferentes etapas de grabación, mezcla y masterización.

Una regla esencial en el empleo de más de un micrófono para una misma toma es la conocida como 3 a
1. Se establece que la distancia mínima entre dos micrófonos deberá ser al menos tres veces la distancia
entre cada micrófono y su objetivo. Esto se debe a que cuando dos micrófonos están captando una
misma fuente, la relación de distancia entre cada micrófono y la fuente provocará diferentes tiempos de
arribo de la señal, con sus consecuentes problemas de fase.

Si los dos micrófonos se encuentran cercanos entre sí, pero la señal llega a cada uno en diferente tiempo,
se formarán una serie de sumas y restas para las diferentes frecuencias captadas. Este efecto se conoce
como filtro peine o comb filter.

Efecto de comb filter

Es de notar que para que ocurra cancelación es necesario que las amplitudes sean iguales (10 - 10 = 0).

Si las amplitudes no son las mismas, el resultado será una resta, pero no se cancelará (10 - 7 = 3).

Sabiendo que cada vez que se duplica la distancia la amplitud decae en 6 dB, una ubicación para los dos
micrófonos mayor a tres veces la distancia entre sí, con respecto a la fuente, generará una diferencia
suficiente entre las amplitudes captadas por ambos en el sector común, como para minimizar
considerablemente el efecto peine.

Situaciones de este tipo podrían darse al microfonear una batería con dos over head situados a cada lado,
para conseguir una toma ambiental estéreo. Es muy común hallar cambios drásticos en la ecualización de
la batería cuando se la reproduce en mono, ya que mientras las señales permanezcan en estéreo, no hay
suma.

No es necesario tener más de un micrófono abierto para conseguir problemas con respecto a las fases. De
hecho, con un solo micrófono podría suceder lo mismo: Si la fuente se encuentra lejos del micrófono que
captará su voz, éste a su vez captará el rebote del sonido en la superficie más próxima, convirtiéndose
ahora en dos señales iguales arribando en tiempos diferentes a un mismo captor, que generará un voltaje
de salida provocado por la suma de las señales directa y reflejada, con su correspondiente consecuencia.
Es por eso que la fuente siempre debe estar lo más próxima posible al elemento captor (micrófono). -Sin
embargo, más adelante veremos cómo para diferentes tipos de micrófonos, una excesiva cercanía con
respecto a la fuente también genera cambios en la linealidad de su respuesta-.

Es importante aclarar que lo que para un micrófono resultaría en determinadas circunstancias una
cancelación de fases, con su consecuente anulación, no sucederá con nuestro sistema auditivo, ya que
por ser biaural, siempre existe diferencia en los tiempos de arribo, y aunque así no sucediera (en el caso
de encontrarse la fuente justo frente, sobre, bajo o detrás nuestro), en un sistema biaural no existe
sumatoria. Por lo tanto, no debemos creer que el micrófono captará el sonido en la misma forma en que
nosotros lo percibimos, pudiendo éste tener cancelaciones, y nosotros no percibirlas.

Sin embargo, aún para nuestro sistema biaural, el hecho de percibir el sonido opuesto en fase, tendrá sus
consecuencias. La primera será la pérdida de percepción de frecuencias graves, que debido a sus grandes
longitudes de onda, se cancelan entre sí con mayor facilidad. La segunda consecuencia será la pérdida
del sentido de la procedencia de la fuente.

Debido a esto, se emplean diferentes técnicas para el microfoneo estéreo.

direct-1-2-3ms.wav

En el ejemplo del botón rojo se presenta:

1º- sonido directo (sin diferencias de fase, pues no hay rebote)

2º- Sonido directo y sonido reflejado con una diferencia de tiempo de arribo de 1ms.

3º- Sonido directo y sonido reflejado con una diferencia de tiempo de arribo de 2ms.

4º-Sonido directo y sonido reflejado con una diferencia de tiempo de arribo de 3ms.
La figura de arriba muestra que una ubicación del oyente, frente a un sistema estéreo, que no sea
equilátera o isósceles, provocará diferencias de fases en la percepción.
En la figura de arriba se observa cómo es posible en la práctica llegar a situaciones de filtros peine por
no tomar los recaudos necesarios.

FILTROS EN PEINE O COMB FILTER:

Por lo antevisto, sabemos que las diferencias temporales son las que producen el efecto de filtro peine.
Sin embargo, es de notar, que las diferencias temporales están directamente asociadas con las diferencias
espaciales, y esto queda demostrado por la relación que existe entre el período T y la longitud de onda λ .

Recordemos:

dominio
dominio espacial
temporal
f=1/T f=c/λ

T=1/f λ=c/f

1=T.f c=λ.f

Esto, por ejemplo, quiere decir que 100Hz = 0.01 seg = 3,43 m
Por lo que se deduce que si todo ciclo perteneciente a una frecuencia dura una cantidad de tiempo,
abarcará un determinado espacio

La anterior deducción hace posible que podamos preestablecer qué cambios ocurrirán en la ecualización
cuando se produzca un filtro en peine, simplemente si conocemos el dato tiempo, o el dato espacio.

Supongamos el caso en el que una señal idéntica sale de dos parlantes, pero uno de ellos (A) se
encuentra más cerca del oyente que el otro (B), lo cual produce que la señal proveniente de "A" llegue 5
milisegundos antes que "B" al oyente. Sucederá que toda vez que de ambos parlantes salga una
frecuencia de 200Hz (recordemos que T para 200Hz es de 5ms), las señales se sumarán en el espacio, ya
que la demora entre los tiempos de arribo coincide justamente con 200Hz. Sin embargo, y debido a que
T es inversamente proporcional a f, sucederá que cuando de ambos parlantes salga una frecuencia que
resulte ser la mitad de 200Hz, o sea, 100Hz, los mismos 5 ms coincidirán con 180º para dicha
frecuencia, provocando su consecuente resta.

Ahora bien, resultará ser 100Hz, para esta situación, la que denominaremos primera frecuencia de
cancelación, a partir de la cual, todos sus múltiplos pares, se sumarán, por quedar en fase, y todos sus
múltiplos impares se restarán por quedar en contrafase (180º).

Del mismo modo, podríamos calcular en base a la demora establecida, cual es la separación que existe
entre los dos parlantes:

T = 5ms

Entonces f = 1 / 0.005 = 200Hz

por lo que λ = c / f

lo que nos lleva a λ = 343 / 200

λ = 1.715 metros

O sea que la distancia entre ambos parlantes, respecto del oyente, es de 1.715 metros.

volver
EFECTO DOPPLER:

Christian Andreas Doppler (1803-1853)

El efecto Doppler hace referencia a la variación tonal con respecto a una fuente que genera frecuencia
continua, al pasar la fuente a una determinada velocidad frente a un receptor inmóvil, o bien al pasar la
fuente a una determinada velocidad frente a un receptor en movimiento.

Supongamos que estamos manejando un automóvil por una autopista, a una velocidad constante. En ese
caso, el motor mantendrá un tono continuo debido a la frecuencia de rotación. Esto es perfectamente
apreciable para quien viaje en el interior del automóvil. Sin embargo, si hubiese alguna persona parada a
un costado de la autopista, cuando el vehículo pase a velocidad V frente a él, éste percibirá cómo varía el
tono generado por el motor a medida que el auto se acerca, pasa por delante suyo, y siguiendo su
camino, se aleja. El tono, a medida que el auto se acerca irá aumentando, llegando a su sensación más
aguda al pasar frente al receptor estático, y luego, a medida que el auto se aleja, el tono irá descendiendo
gradualmente, de forma proporcional a la distancia.

Esto se debe a que el motor del automóvil, al comportarse como un generador de frecuencia, esparce
sonido omnidireccionelmente, y a una R.P.M. continua, las longitudes de onda serán iguales, sin
embargo, al ser la velocidad del sonido de alrededor de 340 m/s, deberá tomarse en cuenta la velocidad
de desplazamiento del vehículo, por lo que en su misma dirección de desplazamiento, las longitudes de
onda se irán acortando, por anteponerse el auto a las mismas, en tanto que en el sentido contrario a su
dirección de desplazamiento, las longitudes de onda serán cada vez mayores = frecuencias más bajas.
El efecto Doppler (denominado así en honor a su descubridor) será más notorio a medida que la
velocidad del objeto en movimiento aumenta, produciéndose una mayor variación tonal.

Es importante tener en cuenta este fenómeno, sobre todo, en aplicaciones de postproducción de sonido
contra imagen, ya que de lo contrario, podría no coincidir lo que se ve con lo que se oye.

VOLVER
TIEMPO DE ARRIBO:

Se establece como tiempo de arribo al tiempo que le toma a una señal llegar al elemento captor (oído o
micrófono).

Este tiempo estará condicionado por la naturaleza del medio transmisor, y entre más de una señal, será
determinante para establecer la relación de fases para las diferentes frecuencias.

En un ambiente de monitoreo de audio, es de fundamental importancia que el tiempo de arribo para las
señales procedentes de L y R sea idéntico, para lo cual, la posición adecuada será la que forma un
triángulo equilátero, o en su defecto, isósceles. JAMÁS ESCALENO!!!
A: posición correcta. B: Posición incorrecta

VOLVER
ENVOLVENTE:

Se denomina envolvente a la línea imaginaria trazada entre los puntos de máxima amplitud de cada ciclo
comprendido en una señal.

De esta forma, es posible graficar los diferentes niveles de amplitud de una señal a través del tiempo.

La envolvente simple es divisible en:

Ataque: es el tiempo que le toma a una señal, desde que se origina, hasta llegar a su máxima amplitud.

Caída: es el tiempo que le toma a una señal, desde su máximo nivel de amplitud, en caer hasta
extinguirse.

La envolvente compleja es a su vez divisible en:

Ataque: es el tiempo que le toma a una señal, desde que se origina, hasta llegar a su máxima amplitud.

Decaimiento: es el tiempo que le toma a una señal, desde el momento de máxima amplitud, en nivelarse.

Sostenimiento: es el tiempo durante el cual la amplitud de la señal permanece estable, una vez que se
niveló, luego de haber pasado por su máxima amplitud.

Liberación o relajamiento: es el tiempo que perdura el sonido una vez que la fuente haya cesado de
producirlo.
Diferentes sonidos tendrán diferentes envolventes. Así, el sonido producido por una cuerda punteada de
guitarra tendrá un ataque muy corto, y un relajamiento relativamente largo. Lo mismo sucederá con una
nota de piano. En general, todos los instrumentos de cuerda y de percusión tendrán esta característica,
salvo en el caso de los de cuerda por frotación (violín, cello, etc.). En cambio, los instrumentos de
viento, tendrán envolventes más suaves, sobre todo en el área de ataque.

Comprender el comportamiento de la envolvente en una señal es de verdadera utilidad no solo para el


empleo de la creación de sonidos a través de diferentes tipos de síntesis. El manejo correcto de
procesadores de dinámica -compresores, expansores y noise gates- requiere un seguimiento constante de
la envolvente, y su reconocimiento por parte del técnico.

Por otro lado, suele existir una relación muy marcada entre la envolvente y el timbre. Sucede que en el
ataque de muchos tipos de señal encontraremos su mayor componente tímbrico. Y no debemos olvidar
que únicamente dos cosas nos hacen distinguir una misma nota tocada en una flauta y en un piano:
envolvente y timbre. Cualquier variación desacertada en uno de estos dos factores, y perderemos
información fundamental acerca de su contenido original, llegando al caso extremo -pero absolutamente
posible- de no poder distinguir ni reconocer a un determinado instrumento. De ahí que el manejo en el
modo correctivo de procesadores de dinámica y de frecuencia (filtros y ecualizadores) debe ser de
extremo cuidado.

VOLVER
TIMBRE:

Se define como timbre a la relación establecida entre el componente en frecuencia presente en una señal
y la evolución en el tiempo de la energía de dicho componente. En la mayoría de los sonidos de la
naturaleza el contenido espectral varía a lo largo de su desarrollo, por lo que los niveles relativos de las
frecuencias que conforman un determinado sonido varían de un momento a otro.

En el caso de la mayoría de los instrumentos musicales las relaciones dadas entre las frecuencias que
generan sus sonidos característicos presentan una relación absolutamente matemática.

Fourier establece que toda señal periódica compleja puede ser descompuesta en series armónicas. Estos
armónicos pueden ser pares (múltiplos pares de la fundamental), impares (múltiplos impares de la
fundamental).

Se da el nombre de sobretono no armónico a aquel componente que no sigue una serie definida (ej: la
voz humana).

Una nota LA 440 en un piano y en una flauta pueden tener una misma fundamental, pero con diferentes
amplitudes. Igualmente sucederá con el resto del componente armónico de cada instrumento. Podríamos
encontrar el mismo componente, pero con diferencia entre sus amplitudes relativas, y ya sonarían
totalmente diferentes entre sí. Por otro lado, es absolutamente determinante para un instrumento el
momento de la ejecución en el que se generan los diferentes cambios de amplitudes para las diferentes
frecuencias.

El componente armónico presente en una señal, tal como lo hemos visto en el ítem anterior, junto con su
envolvente, son factores definitivos para el reconocimiento humano y su correcta definición.

Las herramientas más apropiadas para manipular el componente tímbrico son los ecualizadores y filtros.
Sin embargo, la compresión finalmente modifica al timbre, por lo tanto, habrá que tener cuidado al
comprimir. Es recomendable, en el trabajo de mezcla y masterización, hacer comparaciones A/B, para
poder apreciar las variaciones deseadas y no deseadas, sobre todo en el empleo de filtros, ecualizadores
y compresores.

Una noise gate mal seteada en sus parámetros de ataque y liberación, también puede modificar
drásticamente el timbre. El principal error del mal seteo de las gates suele ser el no comprender
adecuadamente a la envolvente de una señal.
VOLVER
RUIDO BLANCO Y RUIDO ROSA:

El ruido blanco es generado a partir de todo el componente del espectro, llevado a un mismo nivel de
energía promedio por frecuencia. Sin embargo, aquí se plantea un desencuentro entre el hecho físico,
objetivo -aquel que se puede medir y evaluar concretamente-, frente al hecho mismo de la audición,
relacionado al campo perceptivo, por lo tanto, subjetivo.

Debido a que el oído responde no solo a la amplitud sino también a la frecuencia de modo logarítmico,
la audición de ruido blanco no provocará en nosotros una percepción lineal con respecto al tono, sino
que por el contrario, sentiremos mucha mayor presencia de frecuencias altas con respecto a las bajas.

Para poder generar un tipo de ruido que nos provoque realmente la sensación de linealidad, es necesario
filtrar el ruido blanco con una pendiente en paso bajos de 3 dB por octava. A este se lo denomina "ruido
rosa".

Tanto los ruidos del tipo blanco y rosa suelen utilizarse para análisis y estudios diversos. En el campo
del sonido aplicado a la labor musical, el ruido rosa es de gran utilidad, ya que suele utilizarse para
comprobar la respuesta acústica de una determinada sala, tanto espectralmente, como en RT60 (tiempo
de reverberancia) para cada frecuencia.

Es posible medir la respuesta de un filtro al ver la pendiente generada en un analizador de espectro luego
de ser aplicado a una señal de ruido blanco.

RUIDO BLANCO
RUIDO ROSA
Espectro del ruido blanco

Espectro del ruido rosa


VOLVER
dB SPL:

El decibel en sí no es una medida, sino una comparación entre dos magnitudes. En realidad, la unidad es
el Bel (en honor a A.G.Bell),sin embargo, por manejar ésta proporciones gigantescas, se utiliza su
décima parte, es decir, el decibel (abreviado dB).

Cuando se estudia la respuesta del oído a las variaciones de amplitud de la presión sonora, se observa
que la misma no es lineal, sino que tiene una relación del tipo logarítmica. En otras palabras, para que
podamos percibir un aumento del doble de sensación en el nivel sonoro, es necesario que la intensidad
que lo produce se multiplique por diez.

En este plano nos manejaremos con dos ejes, el horizontal corresponderá a la intensidad, y el vertical a
la percepción.

En una función lineal, si la intensidad fuese 1, la percepción sería 1. Si la intensidad fuese 10, la
percepción sería 10, y para una intensidad 20, percibiríamos 20. Si uniéramos los puntos de las
intersecciones, trazaríamos una recta.
Escala lineal

En una función logarítmica, para una percepción del doble de un valor se necesita una intensidad diez
veces mayor, por lo tanto, una percepción que implique el doble del doble, requiere un incremento en la
potencia de 100 veces.

Escala logarítmica
Escala logarítmica

El decibel maneja este tipo de curva, por lo que su escala es comprimida.

Muchos tipos de escala pueden manejarse con esta relación:

Voltios ----------------------------dBV y dBu

Watts ------------------------------dBW

Miliwatts --------------------------dBm

Presión sonora ------------------dB SPL

Escalas de porcentaje ----------dB FS

En este ítem nos detendremos en el dB SPL (sound pressure level) o NPS (nivel de presión sonora).

Es el tipo de dB que se utiliza para estimar el nivel de sonoridad. Dicho nivel dependerá de la variación
de la presión del aire, cuando se trata de frecuencias comprendidas entre 20 Hz. y 20 KHz.

Para esto, deberíamos señalar que si tomamos al sonido como variaciones en el nivel de la presión del
aire, debemos entonces tener en cuenta que para poder presentar variaciones, un elemento debe tener un
estado de referencia. Tratándose del aire, se toma como referencia a la presión atmosférica, la que se
mide en Pascales (abreviado Pa). Este nivel suele alojarse en los 100.000 Pa, lo que es equivalente a
decir 1000 HectoPascales (Hecto = x100), o lo que es lo mismo, 1000HPa.

Para que estas variaciones puedan ser percibidas por el oído humano deben estar comprendidas entre
aproximadamente 0.000020Pa (20MicroPascales, o bien 20µPa) y 20Pa, correspondiendo a las
intensidades mínima perceptible y máxima tolerable. Si bien la distancia entre estos dos valores
demarcan una amplísima gama de niveles posibles para la audición humana (rango dinámico), son
insignificantes para el valor general de la presión atmosférica.

Para saber en qué forma debe incrementarse el nivel de presión del aire para percibir un cambio en la
apreciación subjetiva, se toma como referencia al valor mínimo indispensable para la audición
(0.000020 Pascal), obteniéndose de este modo la siguiente fórmula:

dB SPL = 20 Log10(nivel de presión instantánea / presión de referencia)

Para el mínimo nivel de audición:

dB SPL = 20 Log10(0.00002 / 0.00002)

dB SPL = 20 Log10(1)

dB SPL = 20 x 0 = 0dB SPL

0dB SPL = Umbral de Audición

Para un nivel muy grande de audición:

dB SPL = 20 Log10(20 / 0.00002)

dB SPL = 20 Log10(1.000.000)

dB SPL = 20 x 6 = 120

120 dB SPL = Umbral de molestia


Podríamos comprender de otra forma la función del decibel, viéndola a través de la potencia:

10º 1
101 10
102 100
103 1.000
104 10.000
105 100.000
106 1.000.000

140 dB SPL - Umbral de dolor


120 dB SPL - Umbral de molestia
0 dB SPL - Umbral de audición

VOLVER
RANGO DINAMICO:

Se entiende por rango dinámico (RD) del oído humano a la diferencia entre el nivel mínimo de amplitud
necesario para hacer audible un sonido, y el nivel máximo tolerado por nuestro sistema auditivo.

Para un sistema transmisor de señales audio, como ser una consola, el RD (rango dinámico) está
comprendido por la distancia entre la mínima y máxima amplitud capaz de manejar, en términos
generales, fuera del alcance de la distorción. La distancia entre el nivel nominal y el máximo nivel
tolerado por el sistema, antes de la sobrecarga, se denomina "Headroom"

En un sistema basado en audio digital, el RD está comprendido entre el escalón de bit más bajo, hasta el
nivel máximo soportado (0dBFS). Esta distancia está condicionada por el nivel de resolución utilizado
para la grabación. Hablaremos más en detalle acerca de esto cuando veamos Audio Digital.

Por último, nuestro sistema auditivo, tal como lo hemos visto en el ítem anterior, también posee un
rango dinámico, comprendido entre la mínima variación de la presión de aire necesaria para percibir
sonido, y la máxima tolerable. Nuestro RD es de aproximadamente 140 dB, aunque ya pasados los 120
dB SPL, el nivel de molestia presente impide una apreciación ideal. Es por eso que a veces se suele
encontrar en algunos libros de acústica, un valor efectivo de 120 dB para el rango dinámico del oído
humano. Sin embargo, sería un error creer que el riesgo de producirse trauma acústico se encuentra
únicamente sobrepasando un nivel de escucha superior a los 120 dB SPL. En realidad, la posibilidad de
dañar el sistema auditivo depende más bien de cuánto tiempo se permanece expuesto, en relación al
nivel de exposición. A continuación se representa una tabla con los tiempos máximos de exposición a
diferentes niveles, según un estudio realizado por la O.M.S.:
85 dBA SPL 16Hs.

90 dBA SPL 8Hs.

95 dBA SPL 4Hs.

100 dBA SPL 2Hs.

105 dBA SPL 1Hs.

110 dBA SPL 1/2Hs.

115 dBA SPL 15 minutos.

120 dBA SPL 7,5 minutos. (Altísimo riesgo de trauma acústico)

125 dBA SPL 3,75 minutos

130 dBA SPL 1.8 minutos

135 dBA SPL 90 segundos

140 dBA SPL 45 segundos (>Trauma acústico)

Si bien el tiempo establecido para 95 dBA SPL es de 4 hs. , es recomendable un descanso de 10 minutos
por hora.

Por otra parte, no debemos olvidarnos que el oído posee un enorme acostumbramiento, y termina siendo
muy sencillo perderse a través de las horas.

Otro factor a tener en cuenta es que lo primero en decaer es la correcta percepción de altas frecuencias.
Esto último podría llevarnos a subir el nivel de agudos a medida que transcurren las horas, y al escuchar
la misma melodía al día siguiente, encontrarnos con que todo suena demasiado brillante.

VOLVER
ESPECTRO DE CAPTACIÓN DEL OÍDO HUMANO:

El oído humano es capaz de percibir una gama muy amplia de frecuencias. En términos generales,
podríamos decir que estas van desde alrededor de los 16 Hz., para los tonos más graves, hasta cerca de
los 20 KHz., para los más agudos.

No todas las personas poseemos idéntico margen espectral. Esto está condicionado por
varios factores, entre los que se encuentran las características óseas y fisiológicas del
individuo, la edad, y el tiempo de exposición a altos niveles de SPL. Un niño es capaz de
percibir frecuencias más altas que un adulto, no solamente por la pérdida natural de la
recepción en alta frecuencia que se genera con el paso de los años, sino que también esto
se debe a su estructura craneal.

La continua exposición a altos niveles de SPL comienza por afectar al sistema auditivo en
el sector superior del espectro, desplazando la pérdida de recepción hacia las medias y
bajas frecuencias. Por lo tanto, los graves son los últimos tonos en desaparecer dentro de
los modos normales de la pérdida gradual de la audición.

Un hombre de entre 40 y 50 años, habitante de una ciudad con un alto nivel contaminante
acústico (Buenos Aires es un caso alarmante), verá reducido su extremo espectral a un
nivel cercano a los 15/17 KHz. (El proceso de compresión de audio MP3 tiene muy en
cuenta este factor).

Sin embargo, cuando se trata del empleo de sistemas dedicados al manejo de frecuencias para su
aplicación en el campo sonoro, es necesario llegar a un estándar. De modo contrario, imagínese que para
poder comprar un ecualizador Ud. debería hacerse una audiometría previa, y encargar un espectro para
el mismo de acuerdo a cada resultado. Es por eso que se decidió comprender al espectro audible del ser
humano, en razón de la estadística, entre los 20 y 20.000 Hz. Por lo tanto, de aquí en más, tomaremos
esta escala como referencia.

Los sonidos por debajo de 20 Hz. son considerados como subsónicos. Un tono por debajo de los 20 Hz.
permite la audición del ciclo, mas no del tono. Este tipo de frecuencias pueden sentirse físicamente,
aunque sean inaudibles, provocando en un individuo, sensaciones que van desde estremecimiento hasta
cosquilleo en la piel.

Los sonidos por encima de los 20.000 Hz. se llaman ultrasónicos. Este término no debe confundirse con
supersónico, dado que este último se refiere a una velocidad superior a la del sonido.

VOLVER
ACÚSTICA FISIOLOGICA: El oído

Aquí veremos en forma muy acotada la función anatómica del oído. Sugiero acceder a material
específico para recopilar una completa información. Una fuente práctica acerca del sistema auditivo, y
sus diversos aspectos, puede hallarse en Audiología Práctica, de Gonzalo de Sebastián, Editorial
Panamericana.

El oído es un tipo de transductor natural. Se encarga de convertir las vibraciones de las moléculas del
aire en movimientos mecánicos a través del tímpano, para traducir esta energía (mecánica) en impulsos
electroquímicos, para una asimilación final en el cerebro.
El oído humano está compuesto por tres sectores:

Externo: Comprendido por el pabellón, en primer término. Este se encarga de recolectar el sonido -tal
como un radar- y direccionarlo hacia el canal auditivo. El recorrido de la señal acústica por el oído
externo concluye en la membrana timpánica o tímpano. Esta es una membrana carnosa capaz de
reaccionar a las variaciones de la presión del aire, comprendidas entre 0.00002 y 20 Pa, y 20 a
20.000Hz. Es en el tímpano donde aparece la primer etapa de transducción, al convertirse la energía
acústica en mecánica.

Es fundamental resaltar que el oído posee una zona de resonancia entre los 2.000 y 4.000Hz., lo cual
conlleva al fundamento de las curvas isofónicas o de Fletcher y Munson.

Medio: Allí se encuentra la trompa de Eustaquio, la cual se abrirá y cerrará, permitiendo el paso del aire,
cada vez que bostezamos o tragamos saliva, con el fin de compensar las presiones de aire externa e
interna.

También en el oído medio se alojan los tres huesecillos llamados martillo, yunque y estribo, los cuales
cumplen un rol fundamental en la adaptación de impedancias entre el tímpano y el oído medio.

Interno: Allí se encuentran los canales semicirculares y la cóclea o caracol. Este sector del oído cumple
también la función de proporcionarle al cerebro el sentido del equilibrio.

Las vibraciones mecánicas, al entrar en contacto con el caracol, estimulan al líquido viscoso que se
encuentra en su interior, en forma de propagación de ondas. En el interior de la cóclea se aloja la
membrana basilar, con una longitud, desplegada, que ronda los 3 cm. En la membrana basilar se
encuentran las células ciliares, las que se estimularán mediante las vibraciones, proporcionando al
cerebro información electroquímica. Posteriormente, el cerebro asociará esta serie de estímulos
nerviosos con los planos emocional y racional, dando lugar al "sonido".

El cerebro será el encargado de establecer -a través de la información recibida- la idea del tono, la
formación del timbre y envolvente, la sensación de amplitud, y el sentido de procedencia del sonido.

En cuanto se refiere al tono, éste cumple un rol importantísimo en la comunicación oral. Nótese cómo
varía el tono de acuerdo al sentido de una oración. Puedo expresar enojo o alegría a través del tono, así
como admiración o interrogación. El tono se asocia a la vocal, y la vocal expresa la intención.

El timbre y la envolvente son, en sí mismos, los caminos del sonido. Es únicamente mediante estos dos
contenidos que nos es posible diferenciar, por ejemplo, un sonido de piano con uno de violín.
VOLVER
SENTIDO DE LA PROCEDENCIA DEL SONIDO:

El cerebro se basa principalmente en tres funciones comparativas para determinar la procedencia, en el


sentido espacial, de un sonido:

A. Tiempos de arribo relativos: Cuando una señal llega simultáneamente a los dos oídos, la
percepción se genera hacia el frente, o bien, en determinadas circunstancias, hacia atrás. En ambos
casos, podemos decir que la señal proviene del centro.

Cuando una señal llega primero al oído izquierdo, y luego al derecho, la percepción se genera hacia la
izquierda. La diferencia entre el tiempo de arribo que existe entre un oído y otro, es utilizada por el
cerebro para panoramizar la fuente.

B. Amplitudes relativas: Partiendo de la relación que existe entre la distancia y la amplitud entre
fuente y receptor, el sonido parecerá proceder de aquel costado que posea mayor intensidad. Aunque si
la fuente se encuentra demasiado lejos de los oídos, la diferencia entre la percepción de la amplitud entre
izquierda y derecha puede minimizarse al extremo de dejar de ser este un parámetro útil para el cerebro.

Si la amplitud es idéntica en ambos oídos, significa que la fuente está justo frente a nosotros, o detrás
nuestro.

C: Diferencia espectral: Cuando un objeto posee un diámetro dado, toda frecuencia de menor
longitud de onda que el diámetro del objeto será atenuada. A este efecto se lo conoce como efecto
obstáculo, o sombra acústica. La eficacia del obstáculo, dependerá en gran medida de su masa. En el
caso particular del ser humano, nuestra cabeza ejerce la función de sombra acústica, provocando una
variación en el espectro entre los dos oídos, siempre que la fuente provenga de uno de los lados. Si el
espectro es idéntico para ambos oídos, significa que la señal proviene del centro.

En situaciones normales en el plano cotidiano, cuando percibimos un sonido desde uno de los lados,
existirá una relación entre los puntos A,B y C.
Es posible modificar artificialmente estos tres parámetros, y provocar en el oyente sensaciones inciertas.

VOLVER
CURVAS DE FLETCHER Y MUNSON:

Sabemos que nuestro rango dinámico abarca alrededor de 140 dB. También sabemos que nuestro espectro
audible es capaz de reconocer frecuencias desde 20 a 20.000 Hz. Si vemos esto en razón de dos ejes,
ubicaríamos en el horizontal a la frecuencia, y en el vertical a la amplitud. Ahora bien, al ser dos ejes
independientes, que se cruzan en un punto, ¿qué influencia ejerce uno sobre el otro?.

En el campo de la física la actividad de "x" no presenta alteración en "y". Es perfectamente posible mantener
una frecuencia a diferentes amplitudes. O sea, la amplitud no modifica a la frecuencia, y la frecuencia no
interviene en la amplitud.

Sin embargo, en el campo perceptual, estos dos ejes están profundamente ligados y condicionados el uno
con el otro. Veamos:

Cuando en su ítem correspondiente hablamos del rango dinámico del oído humano, sostuvimos que el punto
mínimo para lograr la percepción auditiva es el 0dB SPL, denominado también umbral de audición, al cual
le corresponde un nivel de 0.00002Pa. Sin embargo, este 0dB SPL no será en absoluto igual para todas las
frecuencias.

En el ítem referente a Acústica Fisiológica (AB) mencionamos la zona de resonancia del canal auditivo,
dada entre los 2.000 y 4.000 Hz. Esto es debido básicamente a las cualidades cúbicas de dicho canal.

Si comparásemos el sonido generado por una guitarra acústica, con respecto al de una guitarra eléctrica,
comprenderíamos inmediatamente el porqué de la necesidad de conectar esta última a un amplificador. De
paso, estamos comprendiendo las propiedades de una caja de resonancia.

La resonancia en sí es un factor de amplificación, llegando a incrementar una señal en muchísimas veces su


valor de origen.

La resonancia del oído en el campo medio provoca, en consecuencia, un enorme incremento en la


percepción para este tipo de frecuencias, ocasionando, por descarte, una gran atenuación para la audición en
los sectores más bajo y más alto del espectro.

A mediados de 1900, los científicos Fletcher y Munson hicieron un estudio otológico con más de cien
personas jóvenes y en condiciones de sanidad. El estudio consistió en la aplicación de tonos de diferentes
frecuencias y su respectivo 0 dB SPL a través de diferentes niveles en la amplitud.

Así se pudo observar que las frecuencias que menor amplitud necesitan para llegar al 0dB se encuentran
alrededor de los 2/4 KHz. En tanto que para conseguir el mismo umbral para una frecuencia de 20 o 50 Hz.
es necesario un incremento abismal de la amplitud aplicada a la señal, creando un tipo de curva conocida
como isofónica o de Fletcher Munson.

Sin embargo, al ir incrementando los niveles se pudo comprobar que las curvas comenzaban a enderezarse,
y aunque en ningún nivel llegan a ser una recta, alcanzan valores aceptables de equilibrio solamente a
grandes niveles de SPL (por sobre los 90 dB SPL).

Sin embargo, estos valores no pueden tomarse como concretos, sino que son estadísticos.

Tener en cuenta la forma en que reacciona el oído a las diferentes frecuencias es un factor fundamental para
el trabajo en el estudio de grabación. Esto echa por tierra el concepto de que la mezcla ideal debe realizarse
a muy bajo SPL. Imagínese qué pasaría en este caso con instrumentos tan importantes como ser el bajo y el
bombo. Ud. tendería a creer que necesitarán más refuerzo en el sector de graves. Después, cuando escuche
su mezcla con el volumen fuerte, comprenderá lo que le digo.

Cierta vez escuché a un ingeniero argentino -tal vez uno de los que más años lleva trabajando en grandes
estudios de grabación- decir que la mejor forma de monitorear una batería es al mismo SPL que genera la
misma batería. Por eso, es importante contar con un buen sistema de monitores, sobre todo en el campo
cercano (near fill). Respuesta plana y capacidad de potencia son factores fundamentales en un monitor.
Lamentablemente, los sistemas hogareños no cumplen con estos requisitos, sobre todo en lo que respecta a
su linealidad, sin embargo, es en su viejo equipo HiFi de toda la vida en donde Ud. sabe cómo debe
escucharse la buena música. Es por eso que una mezcla debe escucharse en cuanto sistema sea posible, no
ajustándose solamente a los monitores profesionales de estudio. Escuche la mezcla en su casa, en casa de
amigos, en el auto, en un discman, en fin, donde pueda.

En las cadenas HiFi de los años 80 se solía encontrar un botón de activación llamado "Loudness". Esto
respondía a un cambio en la curva de ecualización del tipo shelving para incrementar los extremos del
espectro cuando se escuchaba música a bajo volumen, a fin de compensar las pérdidas generadas en el oído.

La continuación comercial de este botón la encontramos hoy día en la gran mayoría de los minicomponentes
hogareños, bajo diversos nombres, como ser Bass Expander, T Bass, Max Bass, etc. Sin embargo, debido a
la tendencia, con el paso de los años, a escuchar música cada vez a mayor SPL, se ha desvirtuado su
utilidad, aplicándoselo (incluso por recomendación de algunos fabricantes) a cualquier volumen. Esto
provoca sin duda una variación sustancial en el resultado de la ecualización, alejándose del principio
conceptual aplicado durante la masterización de un material sonoro.

No es de extrañar que el poder del marketing avasalle con todo lo que se le interponga en el camino, basta
con ver las ecualizaciones prefijadas que se encuentran en la mayoría de los equipos hogareños de la
actualidad: Rock, Classic, Jazz (¿?).

VOLVER
INTELIGIBILIDAD DE LA PALABRA:

Una de las causas responsables del resultado de una mala mezcla, tanto sea en vivo como en el estudio
de grabación, suele ser una mala ubicación de la voz.

Cuando se trata de música cantada, o de pasajes narrados, ya sea con música de fondo, o cualquier otro
tipo de sonidos acompañando al habla; con lo que abarcaríamos desde un recital, pasando por una
locución radial, hasta el proceso integral de la realización del sonido en un largometraje, se deberá dar
fundamental importancia a la transmisión del mensaje; y en todos estos casos el portador del mensaje es
la voz.

Mal entendido, significaría suponer que entonces debe haber una diferencia de volumen significativa
entre la voz y el resto del material. Evitando de este modo efectos de enmascaramiento. Esta apreciación
suele tener varios adeptos.

Básicamente, se trata de lograr un balance correcto entre la voz y todos los elementos sonoros que la
rodean o acompañan. En cuanto a los niveles individuales que caracterizan este balance, la opción es
más bien del tipo personal. Sin embargo, es de suponer que en todos los casos (o la gran mayoría) el
objetivo de la transmisión del mensaje suele ser el mismo: QUE SE ENTIENDA. Entonces,
inevitablemente, nos adentramos en el terreno de la inteligibilidad de la palabra.

Considero que una manera útil para comprender las cosas es desglosándolas, o sea, subdividiéndolas y
analizando cada sector por separado. Visto de otro modo, podré sacar mejor provecho de un automóvil si
conozco el funcionamiento de cada una de sus partes. Esto supone otra forma de ver las cosas. En
muchos aspectos estamos acostumbrados a contemplar los objetos como un todo. Entonces simplemente
las cosas son así (un auto es un auto).

Volviendo a nuestro terreno, este concepto global puede ser excelente para el auditorio, quien apreciará
la música en su contenido general, y simplemente le gustará o no la obra.

El problema aparece cuando de este lado - el técnico no tomamos en cuenta la cantidad de factores que
componen a un todo. Y por supuesto, es de entender que el último y gran componente del cual
dependerá nuestra decisión final será aquel que conforma la suma de todas las partes.

Si de lo que se trata nuestro tema puntual es de la inteligibilidad de la palabra, analicemos entonces el


espectro de frecuencias de la voz humana.

En este punto es bueno recordar que en términos generales nuestro oído percibe un componente de
frecuencia que va de los 20Hz. a los 20.000Hz. Otro aspecto a notar que -en la mayoría de las
situaciones que se presentan en la naturaleza- todo el tiempo están presentes todas las frecuencias,
mientras lo que varía es la cantidad de energía acústica contenida en cada una, lo cual dará mayor
ganancia a diversos sectores del espectro frente a otros, que podrán alcanzar incluso valores
imperceptibles para nuestros oídos.

En el habla, el espectro se genera a partir del paso del aire a través de las cuerdas vocales, generando un
muy rico y complejo componente tímbrico. En su paso por el tracto vocal, algunos armónicos se
atenuarán y otros se enfatizarán por resonancia, provocando los siguientes formantes (parciales de
mayor amplitud). El que sigue es un cuadro válido para el idioma castellano:

vocal A E I O U
Hz 660 530 270 730 300
Hz 1.720 1.840 2.290 1.090 870
Hz 2.410 2.480 3.010 2.440 2.240

Si tomamos, por ejemplo, una voz masculina, en una persona adulta, notaremos cuatro sectores muy
importantes en donde cada grupo de frecuencias cumple un papel decisivo para cada función:

● 120 Hz.: Alrededor de esta zona se ubica lo que conocemos como cuerpo de la voz. Un balance
justo de esta porción termina de redondear. Demasiado énfasis en este sector tiende a confundir.
Demasiada atenuación pierde peso y presencia.
● 400 / 800 Hz. Es una zona en la que las vocales poseen gran energía. Demasiada ganancia en la
ecualización de este sector produciría un sonido encajonado, en tanto que un excesivo recorte del
sector, adquiere un sonido del tipo nasal.
● 2500 Hz.: Zona de definición. Alrededor de esta zona se encuentra la articulación de la boca.
Componente importante en la consonancia. Sector de resonancia propia del oído humano.
Demasiado énfasis provoca estridencia. Demasiada atenuación, poca inteligibilidad del mensaje.
● 4.000 a 10.000 Hz.: Sector de las S. Demasiado énfasis facilita la sibilancia (silbido molesto que
generan en algunos casos la letra "s"). Demasiada atenuación produce un sonido opaco.
● 12.000 / 14.000 Hz.: Zona de aire. Ultimo sector donde la voz interactúa con el espacio físico.
No todos los sistemas de altavoces pueden representar correctamente este sector del espectro, por
lo tanto, en muchos casos, es muy difícil sentir la presencia, exceso o carencia de esta zona. El
énfasis de este sector tiende a acercar la voz, en tanto que un recorte genera sensación de
distancia.

De todos estos factores, podemos separar los que significarán una alta calidad de grabación, de los que
poseerán las cualidades indispensables necesarias para que la voz sea definida.
Es importante recordar que en muchísimos casos es más útil que se entienda bien a que el sonido sea Hi
Fi. Tal es el caso de los sistemas de altavoces ubicados en los aeropuertos, o estaciones de tren, como en
determinadas publicidades para radio y televisión. Lo mismo ocurre en la telefonía.

¿Qué pasa, por ejemplo, cuando el mensaje hablado va acompañado por una pista musical?

Si bien podríamos, efectivamente, hacer decaer el nivel de la música con cada entrada de la voz (método
de compresión a través del sidechain, conocido como ducking), existen a su vez variantes quizá más
interesantes. Como ser:

Si sabemos que la parte que contiene mayor información en el espectro acerca de la inteligibilidad de la
palabra se sitúa alrededor de los 2,5 KHz., podemos utilizar un ecualizador paramétrico para atenuar en
buena medida esta banda de frecuencias en la pista musical, manejando un ancho de banda lo
suficientemente grande como para liberar la zona en donde la voz lleva la consonancia. Aclaro que no en
todos los casos funcionarán los mismos sectores de frecuencia, pero el punto de partida ha de ser el
mismo.

Siguiendo esto, podríamos añadir un poco de ganancia al sector de 2.5 KHz. en la voz, cuidando de no
llegar a la estridencia.

En cuanto al sector de los 120 Hz. podría verse en conflicto con partes muy importantes de la pista
musical, por lo que un buen paso sería trabajar mas sobre los 400 / 500 Hz. que sobre la parte baja. Del
mismo modo, un filtro HPF a los 70 u 80 Hz. podrá ser de mucha utilidad, impidiendo que se pierda
energía en frecuencias que de ningún modo serán oídas, sobre todo al encontrarse la voz junto con la
música.

En cuanto a las "s", éstas deberán estar presentes, pues ayudarán a distinguir más a la voz. Pero habrá
que tener cuidado de manejar su energía de una forma equilibrada. A veces un ecualizador es la
solución, pero en muchos casos, los problemas que pudieran presenrarse con la sibilancia se solucionan
de mejor modo con un deesser.

Como se ve, el tratamiento de la voz ha de ser diferente cuando ésta se encuentra sola, de cuando
comparte la escena. Ya que lo ideal para una voz sola sería conservar todas sus características intactas
(aunque como vimos antes en el ejemplo de la estación de tren, tampoco es así en todos los casos). En
tanto que cuando la escena es compartida con otras fuentes sonoras, habrá que estudiar los principales
componentes de frecuencia de cada participante, para conseguir un sonido más abierto, nítido y legible.

En cuanto al medio transductor quien se encargará de recibir o transmitir la señal-, la mayoría de los
micrófonos y altoparlantes suelen captar y transmitir bastante bien el componente medio más importante
de la voz humana, lo cual no significa en absoluto alta fidelidad. Consecuentemente, tanto los
parlantitos de la PC como los bafles de un equipo Hi End serán adecuados para transmitir con claridad la
voz humana.
Siguiendo la línea propuesta acerca del desglosamiento de las cosas, podemos entonces observar que:

● En muchísimos casos las sílabas suelen comenzar con consonantes, lo cual contiene información
fundamental para la lectura del mensaje.
● La consonante, a su vez, no tiene peso ni carácter. Esta en sí misma lleva la definición, a la vez
que la parte racional u objetiva.
● Las vocales serán las que transmitirán el carácter y el modo de una frase, o una palabra, pero en
sí mismas no tienen definición.

● Las vocales mueven gran cantidad de energía alrededor de los 400 800 Hz. Pero no hay que
menospreciar el resto del espectro, ya que, por ejemplo, las vocales abiertas utilizan muchísimas
frecuencias medias altas.

● A su vez, la energía en las diferentes bandas de frecuencia va variando de acuerdo al modo,


carácter e intención del habla.
● Se dará mayor énfasis en cada palabra a una vocal (vocal fuerte o tónica).

ACÚSTICA DE UN RECINTO: Tratamiento para una buena inleligibilidad de la voz

Considero que tanto, e incluso igual de importante que la correcta elección del micrófono para el
momento mismo de la grabación de la voz, es el correcto acondicionamiento del recinto utilizado para la
sesión. El recinto será un factor determinante del resultado final, pudiendo desde incidir lo menos
posible en la toma, pasando por dar algún tipo de color que lo caracterice, hasta hacer verdaderamente
inútiles todos los procesos que puedan aplicarse con posterioridad.

Hay, en este caso, un primer factor a tomar en cuenta:

La duración media de cada sílaba es de aproximadamente 200 milisegundos, con un espacio entre
sílabas de alrededor de 5 milisegundos.

Un recinto tiene la capacidad de retener por mayor o menor tiempo la energía acústica en él concentrada.
Esta cualidad dependerá fundamentalmente de sus dimensiones y su capacidad de absorción. Esta
absorción no tiene por qué (ni suele) ser la misma para todas las frecuencias. Del mismo modo, puede no
ser la misma en todas las superficies.

En el hipotético caso de encontrarnos en el interior de una habitación con incapacidad total para
absorber cualquier frecuencia, aún en el más mínimo grado, frente a un sonido continuo obtendríamos
una potencialización gigantesca. Esto se debe a que el sonido en su viaje a través del aire rebota en todas
las superficies, generando más y más ondas sonoras; continuando una serie de rebotes sucesivos, los que
se esparcirán homogéneamente dentro del recinto conformando lo que se establece como tiempo de
reverberación, o RT60 (el tiempo que tarda un sonido en decaer 60 decibeles) fórmula descripta por
Sabine-.

Un buen ejemplo para comprender la influencia del ambiente es el caso de una catedral, en donde la gran
mayoría de los elementos son duros (poco absorbentes), y el espacio muy grande, alargando los tiempos
que se producen entre un rebote y otro; incluso llegando a percibirse rebotes con tiempos de arribo hacia
el oyente de más de 50 milisegundos, con lo cual comienza a conformarse el eco (Se considera que a
partir de los aproximados 50 milisegundos nuestro cerebro ya es capaz de reconocer una señal más su
rebote como dos señales individuales).

Para comprender mejor este efecto, este tipo de situaciones pueden simularse mediante software con el
Delay Multitap del editor Sound Forge.

A su vez, no todos los rebotes nos llegarán con la misma intensidad. Esto se debe a la capacidad de
absorción del elemento reflejante y a la distancia, tomando en cuenta que el sonido decae 6 dB cada vez
que se duplica la distancia.

Visto esto, habrá que tener especial recaudo frente a la duración y amplitud de la reverberancia, pues
podría suceder que la reverberancia creada por una vocal fuerte se sostenga a un nivel mayor que la
vocal débil siguiente, impidiendo de este modo una lectura de la voz correcta.

Sin embargo, al acustizar irracionalmente un ambiente para tomas vocales, podría conseguirse una
absorción excesiva para cierta porción del espectro, dejando libres a otras porciones de igual
importancia, consiguiendo un consecuente desequilibrio.

Al momento de adquirir paneles acústicos, se debe saber a qué sector del espectro afectarán, y en qué
medida. Para esto, todo fabricante medianamente serio le facilitará una tabla con los diferentes niveles
de absorción para cada modelo de panel.

A la hora de conocer la reverberancia de un recinto, mucha gente suele efectuar un aplauso, y eso no está
nada mal, puesto que durante el aplauso se genera gran energía en muchas frecuencias; sobre todo en el
sector medio, que es donde el oído humano posee una mejor percepción.

Se conoce como damero a una disposición alternada entre paneles absorbentes y paneles reflectantes, a
modo de tablero de damas. Este puede resultar útil a la hora de pretender controlar la acústica de un
ambiente. Por otra parte el quiebre de paredes paralelas, y evitar los radios continuos (2 x 2; 2 x 4; 4 x 8;
etc.) ayudará a evitar que se acrecienten los problemas de ondas estacionarias y resonancias indeseadas.

TIPOS DE MICRÓFONO, DISTANCIA Y POSICIÓN:


Primero que nada, es bueno recordar que sobre técnicas de microfoneo casi siempre suele reinar la
relatividad. O sea, que de ninguna manera está todo dicho. Sin embargo, existen ciertos puntos de
partida, los cuales podrán ser de gran utilidad:

● Tipos de micrófono: Dentro de los micrófonos más utilizados para captación de voces se
encuentran los dinámicos y los de condensador. A su vez, estos pueden tener diferentes tipos de
patrón de captación omnidireccionales, figura en ocho, cardioides, hiper cardioides y super
cardioides-.

En cuanto se refiere a dinámicos o condensadores, se suele obtener una respuesta mucho


más realista en los condensadores, sobre todo frente a los transitorios, pues no deben
arrastrar a una bobina cada vez que su diafragma se mueve. Sin embargo, este tipo de
mics suele ser de muy elevado precio, y en su estructura, demasiado delicados. O sea, no
son los adecuados para andar llevando al sonido de cada recital.

Por otro lado, los dinámicos se benefician por un resultado muy agradable en la captación
de la voz ( caso del Shure SM58, o Sennheiser E845), y sobre todo por su excelente
resistencia a los factores más diversos (todo terreno), y su precio mucho más accesible.

En otras palabras: para situaciones de sonido en vivo los dinámicos son ideales.

Para montajes fijos de estudio son insuperables los de condensador.

● Patrón de captación polar: Para sonido en vivo conviene usar mics del tipo cardioide o super
cardioide, de acuerdo a la posición de los monitores.

En estudio dependerá fundamentalmente del tipo de aplicación que se le pretenda dar a un


micrófono en especial:

Si hay un único micrófono para varios interlocutores Por ej. Programa radial) un
omnidireccional ubicado por sobre la altura de las cabezas, en el centro, sería lo
conveniente. Para el caso que todas las personas se encuentren alrededor de una mesa, esta
ubicación del mic puede ocasionar un filtro tipo peine. Entonces lo mejor será utilizar un
mic del tipo PZM (de superficie), apoyado en la misma mesa.

Si hay varios micrófonos (uno para cada interlocutor), los hipercardioides podrán evitar la
interferencia entre micrófonos.

Si se trata de solamente dos personas, una frente a la otra, el de figura en ocho será
excelente, pues atenuará todo sonido que no provenga de sus ejes de captación.
Si se trata de una sola persona en el estudio- un omnidireccional captará todas las
reflexiones del ambiente añadiendo un determinado color, el que dependería de las
condiciones acústicas del recinto. Eso no siempre tiene por qué ser malo, por el contrario,
puede ser un excelente recurso para conseguir una determinada sensación de ambiente.

Sin embargo, para una sola persona suelen usarse patrones del tipo cardioide, pues en
muchísimas aplicaciones no se querrá que el ambiente intervenga en la coloración del
sonido.

● Distancia: En sonido en vivo es altísimamente recomendable el empleo de distancias cortas entre


la fuente y el objeto captor. Sobre todo si en el escenario hay uno o más monitores que emitan lo
captado por el micrófono.

En el estudio la distancia dependerá nuevamente de la intención de sumar las


características acústicas del recinto al resultado de la toma. Sin embargo, es importante
saber que, salvo los omnidireccionales, todos los micrófonos variarán su ecualización de
acuerdo a la distancia con la fuente. Esto se conoce como efecto de proximidad.

Sin embargo, a este defecto puede sacársele un gran provecho. Y es que a medida que la
fuente se acerca al micrófono, éste realzará cada vez más su respuesta en bajas
frecuencias. Entonces, cuando lo que se está captando es la voz humana, ésta obtendrá un
mejor cuerpo con una distancia cercana al mic, consiguiendo, incluso, un sonido más
intimista. Mientras que el primer problema que habrá que resolver será el plopeo
(explosión grave causada por la P, la B y la F). Para controlar el plopeo se puede emplear
un filtro antipop, interpuesto entre la fuente y el captor.

Otro factor a tener en cuenta es el del cuadrado inverso (el sonido decae según el inverso
del cuadrado de la distancia). En otras palabras, el sonido decae 6dB con el doble de la
distancia. Esto quiere decir que si la fuente varía constantemente su posición con respecto
al micrófono, a la salida habrá grandes altibajos en el nivel. Un buen aliado para la toma y
captación de voces suele ser el compresor.

VOLVER
ANALISIS DE ESPECTRO:

Dijimos anteriormente que existen dos formas de graficar el sonido, conocidas como dominios temporal
y espectral. Los analizadores de espectro contemplan el sonido en este último terreno, en donde -para la
enorme mayoría de los casos- el eje horizontal corresponde a la frecuencia, en tanto que el vertical se
refiere a la amplitud, o cantidad de energía aplicada a cada frecuencia.

La forma más usual es repartir las frecuencias en barras verticales, ya sea en modo lineal (una barra para
cada frecuencia -o grupo de frecuencias-), logarítmica (formato comprimido), por octavas, o bien
presentando divisiones de octava. De entre las divisiones se destaca el tercio de octava, por mantener
cierta correspondencia con la percepción espectral del oído humano.

En el analizador convencional, se apreciará en tiempo real el comportamiento, con respecto a la


amplitud, para cada frecuencia, o sector. En aplicaciones software, es posible obtener el espectro de toda
una selección de audio. Esto puede ser muy útil para conocer las características generales de un sonido,
sin embargo, una mala interpretación del mismo puede terminar jugándonos en contra.

El análisis de espectro se realiza gracias a la transformada de Fourier (a quien ya hemos mencionado con
anterioridad), posibilitando el traspaso del dominio temporal al de la frecuencia. Recuerde: una forma de
onda compuesta puede subdividirse en la suma de las senoidales que la componen.

Debido a que la transformada de Fourier es en sí misma una ecuación gigantesca, se suele utilizar un
atajo matemático, conocido como Fast Fourier Transform (FFT), es decir, transformada rápida de
Fourier.

En la enorme mayoría de los analizadores de espectro, la FFT puede ajustarse de diferentes modos,
permitiendo desde una visión más generalizada del espectro, aunque muy veloz, hasta un detalle en
extremo, con su correspondiente peso en el procesado de la señal.

Los valores para el ajuste de la FFT se dan como potencias de 2, por lo tanto se corresponden con
valores de bits. En algunos casos arrancan en los 128 valores, hasta un análisis final dado en 65.536
niveles para FFT.

Un ajuste de 128 para la FFT, en un sampleo de 44.100 Hz. produce un análisis cada 0.003 segundos
(128/44100).

Un ajuste de 2048 para la FFT, en un sampleo de 44.100 Hz. produce un análisis cada 0.046 segundos
(2048/44100)
Los 128 puntos convergen en 64 (128/2) bandas de frecuencias discretas, con un ancho de banda de 345
Hz. (44100/128) por banda.

Para 2048 puntos el FFT resulta en 1024 bandas discretas, con ancho de banda de 21 Hz.

Si analizamos el ruido blanco con una relación de frecuencia lineal, o logarítmica, el gráfico nos dará la
tendencia a una recta, debido a que encontraremos la misma cantidad de energía para cada frecuencia,
independientemente del ajuste para la FFT. En este caso, lo que podremos observar en el analizador será
el componente real. Sin embargo, esta gráfica no será representativa para nuestro modo de audicionar
este tipo de ruido. Este es un detalle muy importante a tener en cuenta. No debe esperarse, en los casos
lineal y logarítmico que una respuesta plana en el analizador represente lo mismo en el oído. Por eso, ha
de ser absolutamente normal, para el caso del análisis de una mezcla completa, hallar una mayor
amplitud hacia las bajas frecuencias. Esto se relaciona con las curvas isofónicas.

Sabemos que el ruido rosa es básicamente ruido blanco filtrado, el cual nos proporciona una percepción
de respuesta lineal con respecto a la frecuencia. Por lo tanto, en los modos de frecuencia lineal o
logarítmico, podrá contemplarse la curva presente. Sin embargo, si ajustamos el analizador en una
división de tercio de octava, veremos la misma línea representativa que hallamos anteriormente para el
ruido blanco en los modos lineal y logarítmico.

Esto se debe a que cada barra contendrá solamente un tercio de su correspondiente octava. La amplitud
final de cada barra dependerá de la suma de la energía dada a cada frecuencia que la comprende, por lo
tanto, para el ruido blanco, en función de tercios de octava, la curva aumentará su amplitud hacia las
altas frecuencias, en tanto que para el ruido rosa, la variación de amplitudes producidas por la acción del
filtro, provocará un resultado final de amplitudes parejas para cada tercio de octava. Lo mismo sucederá
si dividimos el espectro en octavas o subdivisiones de octava.

Entonces, podríamos decir que en un analizador es posible ver no solo lo que sucede con las diferentes
frecuencias, sino que también podemos observar nuestra propia curva de audición.
Analizador software PAS: viendo una cuadrada de 100 Hz, con una FFT de 2048, en modo de barras.

Analizador software PAS: viendo una cuadrada de 100 Hz, con una FFT de 2048, en modo de líneas.
Analizador software PAS: viendo una cuadrada de 100 Hz, con una FFT de 512, en modo de contornos

Analizador de Sound Forge: Una nota tocada en un saxofón. FFT 2.048. Vista en líneas
VOLVER
Valor RMS Root Mean Square (Raíz Promedio Cuadrado):

Los niveles de amplitud de una señal pueden medirse en dos modos básicos. Estos son, los valores de pico, y el promedio.

Los valores de pico, por ejemplo suelen ser, en una canción de rock, los que se produjeron con instrumentos de percusión.
Básicamente, es el tambor (snare drum) el que suele reflejar todos los picos. Incluso un bombo (bass drum).

Una canción podría consistir en solamente una flauta y un golpe de S_D (snare drum). Esta situación daría como resultado
algo muy llamativo, y es que los picos pueden alcanzar enormes amplitudes, mientras que el promedio de la sonoridad
percibida sea realmente bajo.

En definitiva, los valores de pico no son indicadores tan definitorios en la percepción de la sonoridad, como lo serán los
niveles promedio que tuvo la señal.

Una cosa es segura, la música clásica, la expresión misma de la voz humana cargada de emoción, y la naturaleza misma,
son fuentes con un enorme rango dinámico

RMS (Root Mean Square, en inglés, referido a Raíz Cuadrática Media) es el cálculo que se efectúa para conocer el nivel
en el que promedia de una señal.

Si bien las amplitudes máximas de la forma de onda están dadas por el valor de los picos, éstos no llevan en sí el peso de la
mezcla. Incluso es posible que estos picos se encuentren a niveles de voltaje muy lejanos del promedio, y de ser este el
caso, los picos más altos delimitarían la mayor amplitud posible dentro de la escena general. Si el medio en el que estamos
almacenando la señal es un soporte digital, no podremos exceder los 0dB. Este tipo de situaciones nos llevaría al uso de
compresores, para emparejar el movimiento dinámico de la señal, para lo cual, hablaremos oportunamente cuando veamos
específicamente compresores dinámicos.

En la música contemporánea, dentro de los géneros del rock, el pop, y sus derivados, el peso de la pista es un factor
determinante. Se busca un sonido grande, el cual será totalmente independiente del volumen de salida del amplificador que
lo reproduzca.

Aquí nuevamente la compresión y la ecualización pisan fuerte, pero lo que en el fondo se busca es elevar el nivel RMS, o
sea el promedio, que es lo que en definitiva dará sensación de peso y poder a un tema.

Si durante los procesos de mezcla y masterización no se toman en cuenta estos factores, podríamos encontrarnos con
grabaciones de temas hermosos, pero que sonarán flaquitos, sin fuerza, y lo más posible, es que ese disco no se venda.

Es posible medir el valor RMS de una señal. El soft de edición y masterización Sound Forge contiene una aplicación
llamada Statistics (estadísticas), a través de la cual, mediante la selección de la parte que se desea analizar, nos dará en su
informe el RMS Power.

Puede ser interesante analizar varios temas dentro de un mismo género, y ver así si hay un estándar para este valor, y de
hecho lo hay, aunque no es para nada fijo, sino que se mueve entre un margen permisivo. Si efectuáramos el mismo
procedimiento con los diversos géneros de la música, e incluso locuciones aplicadas a la radiodifusión, podríamos obtener
puntos de partida para poder llevar a cabo un trabajo dentro del estándar de la industria.
La fórmula utilizada para este cálculo se encuentra en la suma de los cuadrados de los valores de amplitud instantáneos de
una señal, su promedio y la extracción de la raíz cuadrada de este último.

También podríamos efectuar un cálculo estimativo si dividimos una señal en su eje temporal en sectores discretos y
equidistantes, sumamos los valores de amplitud de la señal, los promediamos y los dividimos por la cantidad de valores
que se utilizaron para la medición. Por otra parte, la cantidad de valores utilizados para el cálculo dará mayor o menor
precisión al promedio.

Si utilizáramos una senoidal para el cálculo, cuyos picos alcanzaran un nivel 10#, su valor RMS sería siempre menor a 10,
puesto que para alcanzar este nivel debe realizar un recorrido ascendente, el cual se tomará en el promedio, y luego
descenderá hasta cumplir su etapa de semiciclo, para efectuar un similar recorrido en el semiciclo opuesto.

En cambio, si realizamos el mismo cálculo dentro de una onda cuadrada, notaremos que todos sus valores utilizados para el
promedio son máximos positivos y máximos negativos. Si este valor máximo fuese 10#, correspondería este valor a todo el
trayecto de la onda, por lo tanto su nivel RMS será equivalente a su cresta. No olvidemos, sin embargo, que estamos
hablando de una forma teórica, puesto que en la realidad, debería haber un lapso de tiempo, por más pequeño que este
fuera, para pasar de un semiciclo a otro, y este, debido a su inclinación, también se tomaría en el promedio.
VOLVER
EFECTO HAAS:

El efecto Haas, llamado así en honor a su descubridor, Helmut Haas, también conocido como "efecto de
precedencia", determina la capacidad que tiene el cerebro de determinar la dirección de procedencia de
una fuente, bajo determinadas circunstancias.

En principio, el efecto Haas se comprueba fácilmente con sonidos de muy corta duración. Y se hace
realmente notable si en la audición se emplean auriculares.

Cualquier sonido que llegue a ambos oídos en el mismo instante, y con la misma amplitud, producirá en
el oyente la sensación de estar ubicada la fuente en el centro de la imagen.

Si tomamos en cuenta que la separación promedio en un adulto entre ambos oídos es de 0.17m,
cualquier fuente que arribara al oído derecho en el orden de los 0.0005 segundos después que al
izquierdo dará la sensación que estuviera ubicada totalmente hacia la izquierda. En tanto, diferencias
temporales menores a este valor nos darán la sensación de que la fuente está ubicada del centro hacia
uno de los lados, obteniendo una mayor apertura panorámica, a medida que la diferencia temporal se
agranda.

Sin embargo, este efecto bien puede contrarestarse aplicando más ganancia al sonido que llega después.

VOLVER
DIFICULTAD DEL CEREBRO PARA RECONOCER FRECUENCIAS CERCANAS
SIMULTANEAMENTE:

Uno de los aspectos en los que no encontraríamos coincidencia entre un analizador de espectro y nuestra
forma de percibir el sonido se da al escuchar dos tonos simultáneos de frecuencias cercanas.

TONOS DE COMBINACION: Cuando la diferencia entre dos tonos simultáneos es mayor a 50 Hz., el
oído genera la suma y diferencia de los tonos originales.

1KHz.wav
1,5KHz.wav
1KHz + 1,5KHz.wav

BATIMIENTO: Cuando dos tonos de frecuencia muy cercana se escuchan al unísono, el cerebro no
puede sumarlos. El resultado será un tono producto de la diferencia de la suma de ambas frecuencias,
con intervalos, o batidos, dados por la diferencia de las dos frecuencias.

Por ejemplo, si oímos simultáneamente un tono de 100 Hz. y otro de 101 Hz., el Batimiento será de 1
Hz. en tanto que oiremos una frecuencia de (100 + 101) / 2 = 100,5 Hz

Entre 100 Hz. y 110 Hz. el Batimiento será de 10 Hz., a una frecuencia de 105 Hz.

Debido a que el Batimiento cesa al igualarse la frecuencia, este método es muy utilizado para la
afinación de instrumentos.

100 Hz..wav
101 Hz.wav
100 Hz.+ 101Hz.wav
100 Hz..wav
110 Hz.wav
100 Hz+110Hz.wav

VOLVER
ENMASCARAMIENTO:

Uno de los problemas más frecuentes en la mezcla de audio es el que se plantea cuando más de un
instrumento o componente de la pista comparte simultáneamente un mismo sector del espectro.

Si sus amplitudes son iguales se hará difícil la comprensión de cada una de las fuentes. Por otra parte, si
son varios los instrumentos que se alojan en el mismo sector del espectro, esto provocará una posible
sobrecarga de energía en ese sector de octava, planteando un problema para conseguir un buen balance
en la mezcla final. Imagínese una situación en la que dos guitarras distorsionadas hacen base en el
mismo acorde, de la misma octava, mientras que el bajo hace a su vez su propia base, pero en la misma
octava que las quitaras; y un teclado mete un pad siguiendo exactamente a los acordes de las guitarras,
en la misma octava. ¿Le parece algo raro? Preste atención a los arreglos de muchas bandas de rock
inexpertas, y verá que es algo más que común. Cualquiera que no estuviese ni si quiera vinculado con la
tecnología o la armonía musical, diría: suena a bola.

Primero que nada, es muy importante conocer con anticipación cuál es la intención del productor
artístico. No siempre la idea de un sonido limpio y comprensible es la adecuada para todos los estilos.

Sin embargo, es mucho más fácil generar una bola sonora que una mezcla en donde todo se entienda.
Pero a la hora de los gustos, ninguna opción es mejor que la otra.

Ahora bien, se conoce como enmascaramiento de señal a la propiedad del cerebro para no poder
distinguir simultáneamente dos señales que comparten el mismo sector en el espectro, cuando la
diferencia en su amplitud es superior a 20, o 30 dB; así como la imposibilidad de reconocer el pasaje
completo entre secciones de diferentes amplitudes, cuando sus variaciones son muy grandes, y los lapsos
de tiempo muy cortos.

Hay tres tipos básicos de enmascaramiento:

NO SIMULTÁNEO

A) PRE ENMASCARAMIENTO: Una señal de muy alto nivel podrá enmascarar a una anterior si es de
baja amplitud, encontrando una diferencia de niveles significativa. Esto se debe a que el cerebro no
procesa instantáneamente la información entrante, sino que tarda un lapso de tiempo en hacerlo,
tomando más tiempo para las señales de menor amplitud. Por lo tanto, una señal de gran amplitud
provocará sensación sonora antes de que se termine de procesar la información para la señal más débil.

Los períodos de tiempo necesarios para este tipo de enmascaramiento son de alrededor de 10 ms.
B) POST ENMASCARAMIENTO: Es la inversa del efecto anterior. Por cierto, más fácil de
comprender. Una señal de alto nivel enmascarará a la siguiente si esta es de muy bajo nivel, incluso
hasta 200 ms. luego de ocurrida la primera.

Sin embargo, el post enmascaramiento depende del contenido frecuencial de las dos señales, dándose
con mayor intensidad para las bajas frecuencias.

SIMULTANEO

Ocurre cuando dos señales que comparten el mismo sector en el espectro tienen una diferencia de
amplitud mayor a 20, ó 30 dB. Este tipo de enmascaramiento depende de la amplitud y el espectro de la
señal enmascarante.

VOLVER
FRECUENCIAS COMPARTIDAS DURANTE LA MEZCLA:

Situaciones propensas al enmascaramiento son comunes en una mezcla.

Es importante comprender que un buen resultado final dependerá en un 50% del trabajo en estudio, y el
otro 50 del arreglo orquestal. Cualquier tema musical dependerá enormemente de esta segunda mitad. El
buen arreglo no es sencillo; no obstante, el concepto que prevalece, no es difícil de entender. Por
empezar, cada instrumento posee su propio registro, salvo casos excepcionales, como el piano, que
abarca todos. Se supone que en un arreglo coherente, los cellos no harán su parte en el sector de los
violines. Lo mismo sucede con una guitarra y un bajo.

Muchas veces, en las formaciones típicas de rock, con dos guitarras, bajo y batería, nos encontramos con
que las dos guitarras hacen la misma base (igual acorde / misma octava), y luego resulta que en el
momento de la mezcla se le pide al técnico que cada guitarra se entienda en forma individual. En este
caso, dicho planteo presenta implícitamente la presencia de un mal arreglo, dado que no se han tomado
en cuenta aspectos básicos, como los que acabamos de mencionar.

Distinto sería que la idea original pretenda una pared de guitarras, o un ensamble, en cuyo caso este tipo
de recurso es más que apropiado. Pero lamentablemente, es muy común encontrarse con planteos que se
contradicen con el arreglo generado.

Esto no significa que la situación ya no tenga solución -aunque hubiera sido mejor un buen comienzo-.

Un recurso simplista, pero no por eso menos efectivo, es el de panoramizar a las dos guitarras, aunque
no sería recomendable llegar a paneos extremos, puesto que sonaría demasiado irreal.

Otro recurso, tal vez más complejo, consiste en analizar el componente tímbrico de cada instrumento en
conflicto, y filtrar en cada uno cierta parte del espectro que se realzará en el otro. A veces, ni siquiera es
necesaria la ecualización aditiva para este fin.

Sin embargo, independientemente del arreglo orquestal, existen conflictos de frecuencias compartidas
entre instrumentos tan disímiles como ser un bajo y un bombo. En este caso es conveniente comprender
y analizar la naturaleza de cada instrumento. Veamos:

Un bombo consiste básicamente de dos componentes, diremos que uno es A, y el otro B.


A: El golpe (kick), dado por el mazo pegando en el parche. Sus características esenciales dependerán de
tres factores: fuerza/velocidad del golpe, tensión del parche y estructura del mazo. Al aplicar mayor
fuerza, se generan más parciales inarmónicos, generando valores más altos en el espectro. Al
incrementar la tensión del parche ocurrirá lo mismo, aunque un parche demasiado flojo también
generará muchos parciales, debido a la gran cantidad de movimientos libres que será capaz de generar.
Por último, influirá en el kick el hecho de que el mazo sea de madera, o recubierto en fieltro.

El golpe, en un bombo, es lo primero que ocurre. Entonces, aquí se encuentra la parte de ataque del
instrumento. El ataque, en un instrumento de percusión, es el sector de mayor riqueza tímbrica. Por lo
tanto, el ataque de un bombo es el que se encarga de la definición. Es allí donde se encuentra la
información más importante acerca de su sonido y origen.

En términos de envolvente, el sector de ataque de un instrumento de percusión se aloja alrededor de los


5 a 10 ms.

La zona del espectro en la que suele encontrarse el golpe es alrededor de los 3 KHz.

B: La resonancia: Inmediatamente después de producirse el golpe sobre el parche, al estar este en


contacto con el cuerpo cilíndrico y hueco, ya sea tapado totalmente, en parte o no en el otro extremo, se
produce la segunda etapa, en donde el aire comprimido por el parche entra en resonancia dentro de la
caja. Por lo tanto, las medidas de la caja, tanto en diámetro como en profundidad, serán factor
fundamental para determinar el tipo de resonancia. El hecho de colocar un parche en la parte posterior
del cuerpo provocará diferentes tipos de turbulencia en el aire contenido en su interior, con su
consecuente variación sonora.

En la resonancia no hay definición alguna, pero es allí donde se encuentra el peso del instrumento, lo
que le dará sus características de contundencia.

La zona de resonancia posee un valor espectral muy importante alrededor de los 40 - 60 Hz.

Por lo tanto encontramos que:

A: Definición

B: Peso

Veamos ahora cómo se compone un sonido de bajo:

También encontramos dos factores esenciales


A: El pick, o pulsado de la cuerda, ya sea con los dedos o con una púa.

Aquí también se encuentra la zona del espectro con más riqueza armónica. Parte inicial del sonido, en
forma de transitorio. (Ataque. Definición).

B: A medida que va cesando la energía aplicada a la cuerda, el componente armónico se reduce,


quedando finalmente unas pocas senoidales aún vibrando. Es en este conjunto de formaciones senoidales
que suceden después del ataque inicial en donde se encuentra el peso de una nota. Es allí donde se sitúan
los graves.

Nuevamente

A: Definición

B: Peso

El conflicto, en este caso, se daría si el bajo y el bombo actúan simultáneamente.

Una forma de resolver este conflicto es recurrir a un efecto del tipo psicoacústico, mediante el uso del
filtrado y la ecualización, atenuando en el bombo las frecuencias graves que llevará el bajo, así como
atenuando en el bajo la parte de definición, que marcará el bombo. El resultado será una sensación de un
bajo y bombo completos, y poderosos. El resultado de este ejercicio dependerá del correcto uso y
elección de los ecualizadores.

VOLVER
RESONANCIA:

La resonancia, o vibración por simpatía, es el estado en el que un cuerpo obtiene las máximas
elongaciones con la mínima energía, al ser excitado por una fuerza exterior.

No todas las frecuencias afectarán por igual a un determinado cuerpo. Aquella que logre estas
condiciones, será la frecuencia de resonancia de dicho cuerpo.

Para que se dé la resonancia en un cuerpo, este deberá ser excitado por una frecuencia cercana o igual a
su propia frecuencia de resonancia.

Existen dos tipos básicos de resonancia:

Aguda: Se da cuando un cuerpo responde de manera muy marcada a una frecuencia igual o muy cercana
a la suya propia de resonancia, decayendo esta respuesta de manera muy sensible a medida que se aparta
de su centro la frecuencia que lo estimula.

Amplia: Se da cuando un cuerpo responde por simpatía a una amplia gama de frecuencias esparcidas por
el espectro.

La resonancia puede plantear una serie de problemas durante la etapa de grabación. Incluso la membrana
de un micrófono alterará su respuesta en frecuencia al entrar en resonancia con una fuente que la
estimule. Sin embargo, en la historia de la música, se le ha sacado un gran provecho a la resonancia, tal
es el caso del cuerpo de un bombo, o un tambor, o la caja de una guitarra.

VOLVER
ONDAS ESTACIONARIAS:

Se producen cuando dos ondas de una misma frecuencia se interfieren, por producto de rebotes en
superficies paralelas, en una misma dirección, pero en sentido contrario, obteniendo una amplitud
producto de la suma de las amplitudes de las ondas intercedentes.

A causa de las ondas estacionarias, se producen puntos fijos de máximas y mínimas amplitudes dentro
de un recinto, conocidos como vientres o antinodos, para las zonas de máxima amplitud, y nodos, para
las de mínima.
Ejemplos de ondas estacionarias

Para conocer las ondas estacionarias axiales en un ambiente dado, se recurre a la siguiente fórmula:

f1 = c / 2 L

f2 = 2 f1

f3 = 3 f1

En donde:

f1, f2, y f3 = frecuencias en las que se provocarán las estacionarias

c = velocidad del sonido

L= Longitud dada entre dos superficies paralelas.


VOLVER
Este material fue realizado durante los meses de mayo, junio y julio de 2002, como texto adicional
para los alumnos que concurren a mis clases de Capacitación Técnica en Sonido y Audio Digital,
referido únicamente al capítulo de Acústica y Sonido.

Tal como se podrá apreciar, he tratado de quitar, en la medida de lo posible, todo tecnicismo, a fin de
llegar a un acercamiento global de los principios fundamentales de la Acústica. Recomiendo a quien se
interese por esta apasionante materia, la lectura de textos más complejos.

Copyright 2002. Registro de propiedad intelectual. Todos los derechos reservados.

Este material no está a la venta. Puede utilizarlo libremente, con la única condición de mencionar al
autor de la obra.

La foto de la anatomía del oído humano no es de mi autoría.

Contacto con el autor: PABLO RABINOVICH

http://www.cursosdesonido.com.ar

volver
La fuente:

Todo elemento que impacte contra otro, frote un cuerpo, o entre en vibración provocará una
perturbación en el estado de origen de las moléculas del aire. Estas tenderán a comprimirse y
descomprimirse sucesivamente, de manera análoga al comportamiento del elemento perturbador.

Si tomamos como ejemplo a una cuerda sujeta en sus dos extremos, a una determinada tensión, veremos
que la misma permanece en un estado de equilibrio, el cual no se modificará hasta que una fuerza ajena
pulse de ella. Lo mismo sucede con las moléculas del aire. Estas se mantienen a un nivel dado de
presión. Concretamente, este valor corresponde al nivel nominal acústico representado por la presión
atmosférica, cuyo valor ronda los 100.000 Pascales, o lo que es igual, 1000HPa (hectopascal).

Ahora bien, si pulsamos de la cuerda, ésta abandonará transitoriamente su estado de reposo, alternando
sus posiciones por sobre y debajo de la línea de equilibrio. Entonces la cuerda entra en vibración. El
estado particular de la cuerda será factor decisivo para determinar las características de vibración.

Para que el oído humano pueda percibir estas vibraciones en forma de sonido, se deberán cumplir dos
normas básicas:

1. Las vibraciones deberán tener una cierta velocidad, comprendida por límites inferior y superior dados
en aproximadamente 20 y 20.000 vibraciones completas por segundo.

2. Las amplitudes de las vibraciones deben estar comprendidas entre un límite inferior y uno superior
para la variación de la presión atmosférica de alrededor de 0.000020 y 20 Pascal.

Este último factor se verá puntualmete durante el estudio del dB SPL.

VOLVER
El medio transmisor:

Para poder desplazarse, el sonido necesita un medio, el cual puede ser sólido, líquido o gaseoso. En el
vacío no hay transmisión de sonido.

El simple hecho de decir que el sonido se desplaza a través de un medio, lleva implícito el factor de la
velocidad.

V = E/T

E = V/T

T = E .V

donde V: velocidad

E: espacio

T: tiempo

Para el desplazamiento de una onda sonora el medio más veloz es el sólido. A este le sigue el líquido, y
finalmente el gaseoso No olvidemos que el aire es un medio gaseoso. A su vez, no todos los sólidos
presentan igual velocidad. Lo mismo ocurre con los líquidos y los gases.

La velocidad a la que se desplaza el sonido en el aire es de 331 metros por segundo. Esto es así a 0°
Centígrados.

El factor más importante para modificar esta velocidad es la temperatura, provocando un incremento en
la distancia recorrida de 0,6 metros por grado ascendente. O sea:

a 20°C = 331 + (20 x 0.6) = 343 m/s


Debido a las variaciones relativas de la temperatura, se tiende a estandarizar la velocidad del sonido (c)
entre 340 y 344 m/s para una temperatura ambiente.

La transmisión del sonido no se produce por desplazamiento de masa, sino de energía. No son las
moléculas las que avanzan, sino que se forma una reacción en cadena, en donde una molécula
comprimida afectará a la siguiente, al tiempo que la primera comienza a descomprimirse. Como este
evento tiende a darse en forma omnidireccional, se formará en el espacio una zona de mayor compresión
del aire, conocida como frente de onda. Este ejemplo se puede apreciar claramente al arrojar una piedrita
en un piletón de agua quieta: La presión ejercida por la piedra formará una onda circular que se irá
desplazando hacia afuera de su centro, manteniendo el mismo nivel de amplitud y presión en cada punto
que se encuentre a la misma distancia del centro (radio).

Sin embargo, si consideramos que la variación de la temperatura condiciona la velocidad de


desplazamiento de una onda, tranquilamente puede ocurrir que una onda acústica no sea del todo
esférica. Solamente basta tomar como ejemplo el hecho de que en su trayectoria puede atravesar, una
parte de la onda, una corriente de aire. El hecho es que en la corriente de aire habrá un cambio en la
temperatura, lo cual desviará a la onda.

La temperatura, a su vez, nos explica por qué de noche se perciben sonidos más lejanos que durante el
día. La explicación es que durante el día, las capas bajas de la atmósfera que cubre el planeta son más
cálidas que las capas superiores. A la vez que durante la noche sucede lo contrario. Las capas más bajas
se enfrían, y las superiores aumentan su temperatura.

Si tomamos en cuenta que la velocidad del sonido "c" aumenta con la temperatura, podemos imaginar
cómo el sonido puede variar su trayectoria. Por ejemplo, pensemos en como se direcciona un tanque de
guerra: Un tanque tiene 2 orugas, en lugar de ruedas. Las orugas no pueden girar lateralmente, tal como
lo harían las ruedas, entonces, se manejan 2 aceleradores. Si se quiere girar para la derecha, se le
aumenta la velocidad a la oruga izquierda
VOLVER
El receptor:

Finalmente, aquella vibración provocada por la fuente, desplazándose a través de un medio elástico se
transformará en sonido. Esto sólo se dará si en el área de actividad del suceso se encuentra alguno de los
dos receptores posibles:

A. El oído: Es el encargado, a través de sus tres sectores básicos (oído externo, medio e interno), de
convertir las vibraciones del aire en impulsos nerviosos capaces de llevar a nuestro cerebro los códigos
para descifrar e interpretar el mensaje.

B. El micrófono: Elemento de transducción artificial, capaz de convertir las variaciones de presión del
aire en variaciones de una tensión eléctrica de salida. Produciendo relaciones de amplitudes y
frecuencia análogas a las de la fuente.

VOLVER
LEYES PARA LA DISTANCIA Y LA POTENCIA:

Al duplicar la distancia con respecto a la fuente, el sonido abarca un área cuatro veces mayor, lo que
lleva a una pérdida de 6 dB respecto de la percepción subjetiva.

Tomemos en cuenta que en la proyección del sonido, tomando dos puntos A y B que representen una
distancia determinada y la duplicación de la misma respectivamente, observamos como la energía
contenida en A se repartirá en cuatro veces su superficie en B. Si consideramos que dos veces
corresponde al doble, podemos decir entonces que cuatro veces corresponden a dos veces el doble.
Debido a que en la superficie de A encontramos una cantidad determinada de energía acústica, el doble
de esa energía corresponderá a 3 decibeles, por lo que dos veces el doble equivaldrá a 6 dB. Sin
embargo, si nos interesa obtener el cálculo para el doble de distancia (y no para la mitad) debemos sacar
el inverso del cuadrado de la distancia, lo cual nos dará -6dB

LEY DE DISTANCIA:
Enunciado de la Ley de distancia:
"El sonido decae según el inverso del cuadrado de la distancia"

Para el doble de distancia:

1 / (2/1)2 = 1/4 = 0,25

entonces

10 . Log10 0.25 = 10 . -0,6 = -6dB


Existe una relación dada entre la fuente y el receptor, la cual condicionará los niveles de amplitud de
acuerdo a la distancia que se genere entre los mismos. La explicación de este fenómeno es análoga al
comportamiento de la luz.
Como ejemplo, el haz de luz que genera una linterna colocada muy cerca de una pared, abarcará una
superficie dada. Sin embargo, al alejar la linterna de la pared, observaremos cómo dicho haz abarca cada
vez más superficie, en tanto que la energía lumínica aplicada a cada punto de la superficie será cada vez
menor.
Podemos decir que el sonido se comporta de similar manera, siendo que tiende a expandirse en forma
omnidireccional. Este tipo de proyección generará, cada vez que se duplique la distancia, una cobertura
cuatro veces mayor de la superficie que abarca, decayendo en forma inversamente proporcional su
amplitud.
En otras palabras, esto significa que cada vez que se doble la distancia entre la fuente y el receptor,
obtendremos una pérdida de 6 dB *
* Este fenómeno es válido para campo libre, y estimativo para situaciones generadas en interiores.
Por ejemplo: Si la fuente se encuentra a 10 mts. del receptor, proporcionándole 80 dB SPL, al ubicarse
éste ahora a 20 mts. de distancia con respecto a la fuente, la percepción será de 74 dB SPL. Para una
nueva posición, ahora de 40 mts. (el doble de 20), corresponderán 68 dB SPL.
La pérdida de 6 dB cada vez que se dobla la distancia, así como el incremento en 6 dB si la misma se
divide en dos, es aplicable a cualquier relación. Por ejemplo: 2 metros con respecto a 1 metro, como 50
metros con respecto a 25 metros.
La ley de distancia está a su vez basada en otra ley: la "Ley de Potencia".

LEY DE POTENCIA:
La misma enuncia que el resultado de duplicar la potencia converge en un incremento de 3 dB en la
ganancia. Esta relación se mantendrá para cualquier nivel de potencia: por ej. 1w x 2 ó 10.000w x 2
Fórmula para la Potencia:
10 x Log 10 (V1/V2)
donde "10" es el múltiplo del logaritmo en base 10
"V1" es el valor a ser medido
"V2" es la referencia
Por ejemplo, para el caso de duplicación de la potencia (supongamos, de 100 a 200 w), necesitaremos
llevar esta relación a términos de V1/V2, por lo que, al ser 200w el doble de 100w, diremos que la
relación pasa a ser 2/1. Entonces "2" pasa a ser V1, y "1" será V2. Por lo tanto:
10 . Log10 (2/1)
o sea
[10] . [Log10 2]
El logaritmo en base 10 de 2 es: 0.3
Por lo tanto:
10 . 0.3 = 3 dB
Otro ejemplo:
Al multiplicar la potencia por 4
10 . Log10 (4/1)
[10] . [Log10 4]
El logaritmo en base 10 de 4 es: 0.6
Por lo tanto:
10 . 0.6 = 6 dB
Ahora bien, volvamos a la ley de distancia.
Si hiciéramos una proyección en el recorrido del frente de onda de un sonido, comprobaríamos que al
duplicar la distancia se multiplica por 4 el área de superficie, por lo que la energía que la onda lleva
deberá repartirse en el área que ocupa. De hecho, decir 4 veces una superficie, equivale a decir 2 veces
2, y si tomamos en cuenta que en decibeles, el doble de un valor para niveles de energía equivale a 3 dB,
entonces, 2 veces 2 pueden ser representados por 3dB + 3dB = 6dB
La fórmula de la distancia se expresa de la siguiente manera:
20 . Log10 (V1/V2)
De hecho, para todos los casos en que se expresen valores de presión, el múltiplo será "20" (distancia,
voltaje).
Recordemos que siempre V2 equivale a la referencia, por lo que al duplicar la distancia (4mts. con
respecto a 2, 100mts, respecto a 50), V1 resultará ser va cantidad de veces por la que se multiplique la
referencia. O sea, en el caso del doble de distancia = (V1=2 y V2=1)
20 . Log10 (2/1) = 20 . Log10 2 = 20 . 0,3 = 6 dB
Ejemplos:
· Si la fuente (F) se encuentra a 10 metros de Receptor 1 (R1), y a 30 metros del receptor 2 (R2)
20 . Log 3 = 20 . 0,47 = 9.5 dB
· Si F se encuentra a 1 metro de R1 y a 4 de R2
20 . Log 4 = 20 . 0,6 = 12 dB
· Si F se encuentra a 3 metros de R1 y a 8 de R2
8/3=2,66
20 . Log 2,66 = 20 . 0,42 = 8,5 dB
VOLVER
COMENTARIOS:

Mediante los ítems vistos en este tema podremos obtener, por ejemplo:

● La cantidad de dB SPL obtenidos con diferentes distancias hacia la fuente.


● El retardo necesario para arribar de forma coherente desde dos o más fuentes que irradian la
misma señal hacia un punto determinado (Ej.: sistemas demorados para sonido en vivo).
● Un aspecto objetivo acerca de la gráfica de las formas de onda de cualquier editor de audio
digital.

VOLVER
Ejemplo de sonido directo y sonido reflejado

VOLVER
Una onda siempre rebota en el mismo ángulo en que incide.

VOLVER
ABSORCIÓN DE SUPERFICIES:

Toda superficie tocada por una onda será atravesada en cierta medida por la misma, a la vez que
absorberá cierta proporción, y reflejará el resto de la onda. De diferentes factores dependerá el
grado de cada una de las etapas.

De acuerdo a su densidad molecular, una superficie absorberá mayor cantidad de energía a


determinadas frecuencias. Por lo general, las características de absorción de los diferentes
materiales no son parejas en el espectro, siendo las bajas frecuencias las más difíciles de ser
absorbidas.

Esta es una de las causas por las que, en ambientes grandes, es posible percibir cómo primero
dejamos de oír las frecuencias más altas, y por último las más bajas (damping). Otro factor está
vinculado a la pérdida natural de energía que presentan las altas frecuencias de manera más
rápida que en las bajas.

VOLVER
Capacidad de absorción, liberación y reflexión de energía:

VOLVER
La onda se refleja según el ángulo de incidencia

VOLVER
En un ambiente reverberante, la sílaba más fuerte tenderá a enmascarar a las más débiles

VOLVER
Seguimiento de una señal y parte de sus respectivos rebotes en las superficies laterales

VOLVER
VOLVER
Transitorio:

Se da este nombre, o el de transiente, a toda forma de onda cuando es de cortísima duración


(unos pocos milisegundos).

Encontramos transitorios, por ejemplo, en el sonido producido por un tambor, o en la parte inicial
de ataque de una cuerda al ser pulsada.

VOLVER
La cantidad de vibraciones que efectúe una cuerda en el término de tiempo comprendido por un
segundo, básicamente dependerán de tres factores:

A. Distancia entre los puntos que la sujetan: A mayor distancia menor cantidad de
vibraciones por segundo. A menor distancia mayor cantidad de vibraciones por segundo.

B. Tensión: Con el aumento de la tensión se incrementa la cantidad de vibraciones por segundo.

C. Masa: Una mayor cantidad de masa opone más resistencia al movimiento, por lo que se
obtendrá menor cantidad de vibraciones por segundo.

VOLVER a ítem A

VOLVER a ítem H
En el trabajo cotidiano con sonido recurrimos asiduamente a dos herramientas comprendidas
en estos dos dominios:

Dominio temporal: el "oscilograma"(representación gráfica de la actividad de una oscilación a


través del tiempo). Lo encontramos en las ventanas de datos de software de edición y
grabación, a modo de forma de onda.

Dominio frecuencial: el "analizador de espectro", o "análisis FFT" (representación de la


actividad -referida a niveles de energía- de las diferentes frecuencias que conforman una
forma de onda determinada).

NOTA: Si bien en la actualidad, gracias a los sistemas digitales y su posible representación


gráfica de los hechos, lo más habitual resulta ser el trabajo frente al oscilograma, es necesario
aclarar que la herramienta oscilograma es excelente para las tareas de edición (copy / paste),
pero en ningún modo resulta imprescindible para funciones de grabación, mezcla y mastering,
en donde las herramientas indispensables pasarán a ser: vúmetro, analizador de espectro y
analizador de fases u osciloscopio.

VOLVER
ADICIÓN DE ONDAS:
VOLVER
Los tonos se clasifican en Graves (frecuencias bajas), Medios (frecuencias medias) y Agudos
(frecuencias altas).

El tono, o altura tonal, refiere a la sensación percibida frente al estímulo de la frecuencia.

Los tonos se dividen en graves, medios y agudos, pudiendo, a su vez, subdividirse en


graves, medios graves, medios, medios altos, agudos.

No debe confundirse el tono con el timbre. Un tono puede ser el producto de la percepción
de una sola frecuencia, en tanto que el timbre el la sensación producida por la
combinación de frecuencias, y sus respectivas envolventes, que conforman un sonido
determinado.

En psicoacústica se dice que los tres factores determinantes de la percepción del sonido
son:

-Intensidad

-Altura tonal

-Timbre

VOLVER
ESPECTRO AUDIBLE:

Las frecuencias más bajas capaces de ser reconocidas por el oído humano, pueden comenzar en
los 14 ó 16 Hz.

Las más altas pueden llegar a superar los 20 KHz. Sin embargo, la exposición a altos niveles de
ruido (solamente basta con vivir en una ciudad) y la edad son factores que intervienen
definitivamente en la pérdida de altas frecuencias, por lo que sería muy difícil que una persona de
45* años que viva en un centro urbano realmente perciba frecuencias de 20 KHz. Incluso el
límite superior podría estar en los 16 KHz.

Sin embargo, estos valores tienden a estandarizarse, sobre todo, debido a la industria del sonido.
Imagínense que si no, habría que hacerse una audiometría en el momento de comprarse, por ej.
un ecualizador, o un parlante. Es por eso que de aquí en más hablaremos del espectro humano
como el comprendido entre los 20 y 20.000 Hz.

* No hace falta tener 45 años. En nuestra época, la adolescencia y juventud suelen ser las etapas
de mayor exposición a niveles nocivos de escucha, provocando pérdidas irreparables en la
correcta audición. Esta situación se presenta como un arma de doble filo para aquellas personas
que nos desarrollamos en medios vinculados al sonido, sobre todo para los sonidistas que trabajan
en el género rock. Incluso en el estudio de grabación es necesario efectuar ciertas escuchas a altos
niveles de volumen.

VOLVER
FOURIER:

Jean-Baptiste Joseph Fourier (1768-1830), ideó un análisis matemático, en donde es


posible descomponer una onda periódica en una serie armónica de senoidales, con
determinadas frecuencias, fases y amplitudes.

A este análisis se lo denomina Transformada de Fourier.

Sin embargo, al tratarse de un análisis en extremo complejo para situaciones en las que se
requiera una cierta velocidad en su pronóstico, suele utilizarse un atajo matemático, conocido
como FFT (Fast Fourier Transform, o Transformada Rápida de Fourier)

volver
PSICOACUSTICA:

Rama científica derivada de la interacción de la sicología y la acústica. Sin embargo, no debe


entenderse como la interpretación sicológica de la sensación provocada por un sonido.

Básicamente, se trata del estudio acerca de la forma en que el cerebro interpreta a un sonido. O
sea, cómo funciona la audición. Es la relación dada entre el sonido que ingresa en el aparato
auditivo y la información obtenida acerca del mismo.

VOLVER
Moléculas del aire:

El aire se caracteriza por ser un medio muy elástico. Cuando no hay nada que lo perturbe,
sus moléculas se mueven permanentemente sin una dirección determinada, sin embargo,
se encuentran repartidas homogéneamente. Esto quiere decir que habrá la misma cantidad
de moléculas por centímetro cúbico en cualquier punto del espacio. Esta última
característica se verá modificada con la aparición de un elemento perturbador, el cual
provocará sectores de mayor concentración de moléculas debido a la presión ejercida.

VOLVER
VOLVER

Nota: el gráfico que aparece no es de mi autoría. Agradezco a quien lo diseñó, y aclaro que no lo conozco, a la
vez que le agradezco, y supongo su aprobación para poder ser usada con fines puramente educativos, sin el
menor fin de lucro, ni sobre la misma, ni sobre el resto del material.

También podría gustarte