Está en la página 1de 175

Sonido para videojuegos, video-

Mapping y video-arte
¿Qué es el sonido para videojuegos?
● Un videojuego es un medio, como cualquier otro, con el que podemos
expresar historias, ideas o emociones. Y aunque es lógico pensar que en un
primer momento el sonido de los videojuegos heredara técnicas y
desarrollos propios del cine o la televisión, poco a poco ha ido tomando su
propio camino.
● Los videojuegos, al igual que el cine, nacieron mudos.
● En el año 1948 cuando Thomas T. Goldsmith y Estle Ray Mann creaban el
que para muchos es el primer videojuego conocido; basándose en la
tecnología de los radares y utilizando un tubo de rayos catódicos como
pantalla, se simulaba el disparo de misiles hacia unos objetivos, controlados
mediante una serie de botones y knobs.
¿Qué es el sonido para videojuegos?
● Entre los años 40 y los años 70 del siglo pasado vivimos lo que se denomina
la era muda de los videojuegos. Durante esta época, los videojuegos no
pasaban de ser meros experimentos universitarios, fuera del mercado
comercial. Los estudiantes de informática programaban los juegos en sus
propios ordenadores, como simples pruebas y proyectos de desarrollo.
● En 1966, Ralph Baer comienza a desarrollar la primera videoconsola, la
Magnavox Odyssey, que también era muda, aunque no saldría a la venta
hasta el año 1972.
¿Qué es el sonido para videojuegos?
● En 1971, Computer Space daba
inicio a una nueva forma de
entretenimiento. Llegaba el
primer gran videojuego de
masas, y lo hacía en una nueva
plataforma: el Arcade. No
obstante, el sonido aún tendría
que esperar un año más.
¿Qué es el sonido para videojuegos?
● El año 1972 nos trajo el primer videojuego sonoro de la historia: el
mítico Pong de Atari. Nolan Bushnell, fundador de la compañía, decidió
dotar al juego de algunos efectos sonoros que reportaran feedback a
los jugadores.

● En las primeras pruebas, en algunos bares, pudo comprobar como la


respuesta era extremadamente positiva. Los sonidos digitales atraían a
la clientela curiosa por comprobar cuál era la fuente de aquellos ruidos.
¿Qué es el sonido para videojuegos?
● Durante esta década de los 70, se desarrollan los videojuegos arcade y
las primeras consolas sonoras.

● Los sonidos eran creados con chips, programados mediante el uso de


osciladores y generadores de tonos de ondas senoidales y
cuadradas, que dotaban a los videojuegos de esos pitidos tan
característicos.

● En esta época, el sonido era un trabajo de ingenieros electrónicos y


programadores, y no se prestaba un especial cuidado a su desarrollo.
¿Qué es el sonido para videojuegos?
● La década de los 80 será conocida como la Edad de Oro del Arcade.
Aparecen juegos tan populares como el Space Invaders, Donkey Kong o el
Pac-Man. La calidad de los gráficos mejora a la par que lo irá haciendo el
sonido.

● Un innovador estilo musical estaba naciendo a partir de esas máquinas


llenas de ceros y unos, que afectaría a cómo los compositores crearían
música en el futuro.

● Comienza a utilizarse un diseño creativo para el sonido de los Juegos,


quedando muchas de esas bandas sonoras en nuestro imaginario colectivo.
● https://www.youtube.com/watch?v=WzG_JOkM0Y4

● https://www.youtube.com/watch?v=NDDTfs_V-hw
¿Qué es el sonido para videojuegos?

● A nivel técnico, las mejoras durante


esta década vendrán marcadas por
la evolución de los chips.
● En 1982 Atari lanza al mercado su
plataforma 5200, que incluía por
primera vez un chip dedicado al
sonido, denominado Pokey.
¿Qué es el sonido para videojuegos?

● Utilizaba cuatro canales de 8 bits, separados para manejar el tono (con


256 valores), el volumen (16 niveles), y valores de distorsión para cada
uno de ellos, lo que permitía contar con una banda de cuatro intérpretes
tocando a la vez de forma virtual por primera vez.

● Los 4 canales podían combinarse por parejas obteniendo 2 canales de 16


bits con 65.536 tonos.

● Los computadores Atari poseían un altavoz interno, a través de él se


simulaban los clics de teclado, pero con una programación adecuada podía
usarse como un quinto canal de sonido.
¿Qué es el sonido para videojuegos?
● En 1985, Nintendo presentaba la Nintendo Entertainment System (NES),
que incluía cinco canales monofónicos de sonido.
● La mejora era considerable, ya que conseguía tres voces musicales
sintetizadas (dos ondas de pulso y una onda triangular) más un canal de
ruido de síntesis por múltiples voces de forma de onda y la capacidad de
reproducir audio PCM (modulación de código de pulso) a 6 bits hasta 33
kHz.
¿Qué es el sonido para videojuegos?
● Sega añade en 1986 generadores de cuatro octavas, y antes de acabar la
década 10 voces y sonido estéreo con la Génesis.
¿Qué es el sonido para videojuegos?

● La década de los 90 supone la crisis del arcade, el asentamiento de las


consolas y el ascenso de los PC.
● En las consolas, los cartuchos ganan en capacidad y aparece un nuevo
formato: el CD-ROM. Se convierte en el mayor motor de cambio en el
mundo del sonido para videojuegos.
● Trae consigo la aparición del MIDI polifónico, mayores frecuencias de
muestreo y mayores tasas de bits, que mejorarán sustancialmente la
calidad sonora y sus posibilidades.
¿Qué es el sonido para videojuegos?

● La Super Nintendo Entertainment System (SNES), lanzada en 1991,


incluía una tarjeta de sonido Sony SPC700 de 8-bit, con ocho canales
independientes de 64 Khz cada uno. Por primera vez se pueden utilizar
música, voces en off, y pistas de SFX premezcladas y listas para ser
lanzadas en el juego.
● Koji Kondo, el más reputado compositor de música para videojuegos del
mundo, lo utilizaría para crear bandas sonoras inolvidables como las de
Super Mario Bros o The Legend of Zelda.
● Un cartucho de SNES tenía una capacidad de 6 MB, que incluía el juego
completo.
¿Qué es el sonido para videojuegos?
● La Sega CD, lanzada en 1992, utiliza por primera vez el formato CD-ROM,
con 500 MB de capacidad.
● A nivel sonoro, contaba con 18 canales de sonido y una frecuencia de
muestreo de 44.1 Khz, con salidas estéreo independientes.
● En 1995, Sony entra en el mercado de los videojuegos con la primera
Playstation.
● El chip de 24 canales que incluye proporcionaba sonido estéreo en calidad
CD, con soporte incorporado para efectos digitales como reverb y delay.
● El espacio de almacenamiento adicional, la velocidad y la memoria
realmente dieron a los compositores y diseñadores de sonido mayor espacio
para trabajar, permitiendo muestras de sonido más realistas.
¿Qué es el sonido para videojuegos?

● La llegada del CD-ROM también trajo consigo el ascenso de las


plataformas bajo PC.
● Pese a que en los 80 ya existían juegos para computadora, con algunos
modelos icónicos como el Commodore 64, Apple Macintosh, Atari ST o
Commodore Amiga, las mejoras en los chips de sintetizadores y los
procesadores de 16 bits trajeron consigo más voces, más memoria,
mejores algoritmos de compresión y descompresión, e incluso
procesadores de efectos internos.
● La mayor potencia, comparada con las videoconsolas, hizo que los
jugadores más exigentes se decantaran por esta plataforma.
¿Qué es el sonido para videojuegos?
Voyeur, el primer videojuego con una banda sonora
orquestal

● El juego de aventuras Voyeur, (1993) fue el pionero en


incluir una banda sonora orquestal.

● Lanzado junto al Phillips Interactive System, el intento


de Phillips por entrar en el mundo de lo videojuegos, fue
uno de los primeros en presentar vídeo en movimiento
completo de alta calidad, pero además tiene la distinción
de ser el primer título en utilizar una partitura
orquestal completa, compuesta por Garry Schyman,
quien más tarde se haría conocido por su trabajo en
juegos como Dante's Inferno y la serie BioShock.
¿Qué es el sonido para videojuegos?
● Los años 2000 van a suponer la era moderna de los videojuegos.

● Las mejoras en potencia de los equipos, la aparición de nuevos soportes


con más capacidad, como el DVD y el Blu- Ray, y la popularización de
internet y los servicios de streaming produjo un aumento en la calidad
tanto de gráficos como de sonido nunca antes vista.

● En las primeras dos décadas de este siglo hemos visto el nacimiento de


varias generaciones de Playstation, la apuesta de Microsoft con su
Xbox por el mundo de los videojuegos y la llegada de los móviles y los
juegos sociales.
¿Qué es el sonido para videojuegos?
● A nivel sonoro, los 16-bit y 48 Khz se han convertido en el estándar, con
salidas para 5.1, cientos de canales independientes y miles de filtros y
efectos, añadiendo sonido incluso en dos mandos del juego. Las
posibilidades sonoras ahora son infinitas.
● Hoy en día, un videojuego AAA invierte en su desarrollo más de 5 años
de trabajo, con presupuestos por encima del medio millón de dólares y
crea varios miles de puestos de trabajo. La banda sonora emplea entre
el 5% y 10% del presupuesto total. Sirva como ejemplo Red Dead
Redemption 2.
¿Qué es el sonido para videojuegos?
● Rockstar invirtió casi mil millones de dólares durante 7 años, con más
de 2.000 programadores trabajando en su desarrollo; solo en la parte
sonora, más de 1000 actores dieron voz a sus personajes, con 80
páginas de guion escritas para cada uno de ellos, lo que permite
interactuar con todos durante el juego.
● A nivel global, la industria de los videojuegos mueve un mercado que en
2020 se calcula en un valor de en torno a los 130 billones de dólares,
repartidos al 50% entre plataformas móviles (iOS-Android) y consolas y
PC3.
¿Qué es el sonido para videojuegos?
AAA versus III

● AAA es una clasificación informal de videojuegos para referirse a aquellos que han
sido producidos por un gran estudio. En el cine, serían el análogo a los blockbuster

● También se ha empleado el término AAA+ para denominar a aquellos juegos de moda


que aportaban un valor añadido, mediante la adquisición de pases de temporada o
packs de expansión.

● III se ha utilizado para referirse a los juegos indie. Son videojuegos desarrollados por
equipos pequeños de trabajo, sin el apoyo económico de un distribuidor, y que por ello
disfrutan de una mayor independencia y libertad artística. Es muy habitual el uso de la
financiación colectiva (crowdfunding) para sacar adelante este tipo de proyectos.
¿Qué es el sonido para videojuegos?
Audio Lineal/ No lineal

● El principal reto al que nos vamos a enfrentar a la hora de crear sonido


para videojuegos va a venir motivado por algunas de sus características
intrínsecas, como son la interactividad y las demandas técnicas
motivadas por un espacio finito en el juego.

● Tradicionalmente, en el mundo audiovisual, se ha utilizado el concepto de


audio lineal. En una película o serie de televisión, por poner un par de
ejemplos, todo sucede en un orden cronológico invariable.
¿Qué es el sonido para videojuegos?
Audio Lineal/ No lineal

● Imaginemos, por un momento, que nos encontramos en una película de


suspense, y un personaje entra en una antigua mansión empujando su
puerta. Esa puerta tendrá un sonido chirriante.

● Fácilmente, podemos grabar dicho sonido, sincronizarlo con nuestro


secuenciador en el momento en el que la mano acciona el pomo, editarlo y
mezclarlo con unas características acústicas definidas de acuerdo a un tipo
de plano determinado que vemos en pantalla. Sonido y tiempo, por tanto,
guardan una relación lineal. Están sincronizados y son iguales en cada
reproducción.
¿Qué es el sonido para videojuegos?
Audio Lineal/ No lineal

● En el mundo de los videojuegos, en cambio, esta relación es no lineal, dado


que viene motivada por la interactividad del propio juego y el uso que le dé
el jugador.

● Si el ejemplo anterior lo llevamos a un videojuego, el jugador puede entrar y


salir varias veces por la misma puerta, desde un lado u otro, acercándose
en diferentes tipos de plano, etc. Y el sonido debe dar una respuesta única
para cada una de esas situaciones.
¿Qué es el sonido para videojuegos?
Audio Lineal/ No lineal

● Por lo tanto, se rompe esa relación temporal y hablamos de un sonido no


lineal, que debe adaptarse a las situaciones de impredecibilidad e
indeterminación inherentes a la interactividad de los videojuegos, con
cientos de variables posibles dentro de un entorno 3D.

Cine Videojuegos
Duración 2 horas > 10 horas
Experiencias Única Muchas
Estructura Lineal No lineal
Música 1 hora > 3 horas
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

● La industria del videojuego va a seguir una serie de estructuras departamentales


organizativas.

● Los diferentes roles y estructuras que a continuación se van a describir variarán en


función del tipo de empresa y producto a desarrollar; no es lo mismo hacer un gran
videojuego multiplataforma en un gran estudio que un pequeño juego
independiente para móvil, ya que en este caso muchos de los roles serán
asumidos por una misma persona.

1. Departamento de negocio: son los dueños de la empresa, y se encargan de


su correcto funcionamiento económico. Dentro de este departamento nos
encontramos con perfiles como el CEO, los managers (ventas, negocio,
marketing, publicidad) y sus asociados.
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

2. Departamento de producción: son los gerentes del proyecto. Se encargan de


asignar las tareas, llevar el planning, cumplir los plazos previstos (deadlines),
no salirse del presupuesto marcado, así como de temas contractuales y
legales. Existen varios niveles, desde el Productor Ejecutivo hasta los
Productores Asociados, Ayudantes y Auxiliares.

○ A su vez, la producción se puede gestionar de modo externo (cuando


trabajamos para un publisher o gran estudio de desarrollo, que asegura que
el proyecto está encaminado y se cumplen los plazos) o de modo interno
(gestionando el equipo de desarrollo y representando al equipo y el producto
de cara al exterior).
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

3. Departamento de diseño: son quienes van a crear el juego en sí. El Game


Designer se encarga de crear el concepto del juego, elaborando el Game Design
Document (GDD) o Documento de Diseño del Juego, en el que se especificarán
las mecánicas del juego, los puzzles, el comportamiento de personajes y
objetos... En definitiva, establece las bases del juego, la "biblia" que define las
reglas.

○ El Level Designer se encarga del diseño de los mapas del juego,


asegurándose de que la colocación de las placeholders (cajas) es la
adecuada y dota de coherencia al juego.
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

○ Los escritores y guionistas, por su parte, se encargan de desarrollar la


historia del juego, el storytelling o hilo conductor que enlace cada uno de los
niveles del juego. También se encargan de los diálogos y de que el modo
historia esté desarrollado y argumentado.

4. Departamento de arte: dentro del departamento de arte nos vamos a


encontrar con artistas 2D, artistas 3D y animadores. Los artistas 2D se encargan
de los bocetos iniciales del juego.

○ Los Concept Artist diseñan el aspecto que tendrán los personajes, objetos y
escenarios, así como la paleta de colores a utilizar durante la fase de
preproducción del juego.
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

○ Los Pixel Artist crean el contenido gráfico para juegos en 2D, que irá
directamente dentro del juego.

○ Los UI Artist realizan el diseño de la interfaz del juego, los botones a pulsar,
menús, etc.

○ Los artistas 3D se dividen entre modeladores de personaje y de escenario.


Sus tareas son las mismas, el modelado, texturizado, iluminación y mapeado,
ya sea de personajes, objetos o escenarios.

○ Los animadores se encargan de dotar de movimiento a los elementos del


juego, creando los loops y cinemáticas necesarias.
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

○ Los Rigger se encargan de crear el esqueleto que va a permitir el


movimiento de los personajes y objetos.

5. Departamento de programación: se encarga de la programación del


juego. Encontramos programadores de frontend y backend. En el
frontend programan todo lo relacionado con el comportamiento del
juego (gameplay, IA, UI). En el backend, programan el cliente y servidor
necesario para juegos PvP, multiplayer, etc.
¿Qué es el sonido para videojuegos?
Estructura departamental de la industria de los videojuegos

6. Departamento de calidad: se asegura de que el juego no tiene fallos en la


interfaz y cumple con los estándares previstos. Los QA (Quality Assurance) o
tester son los encargados de probar el juego, analizar el rendimiento y buscar los
posibles errores y proponer mejoras a implementar.

7. Departamento de sonido: se encarga de crear los efectos de sonido (SFX),


componer, producir y grabar la música del juego, hacer los doblajes y voces en
off y mezclar y masterizar toda la banda sonora. Cada una de estas tareas suele
ser llevada a cabo por diferentes equipos de trabajo, organizados por el
diseñador de sonido.
¿Qué es el sonido para videojuegos?
Organización holística

● La palabra holística proviene del griego öλoc [hólos], que significa todo,
entero, completo, integro. Aplicado a la gestión empresarial y el desarrollo
creativo, como sucede en el campo de los videojuegos, este tipo de
organización debe tener en cuenta todos los puntos de vista a la hora de
crear un título.

● Desde una perspectiva holística, el todo va mucho más allá de la suma de sus
partes. Se trata por tanto de que un videojuego, desde su concepción, tenga
una visión conjunta e integradora de cómo será su desarrollo, que la
mecánica, gráfica, sonido y demás aspectos necesarios en un juego
funcionen al unísono y teniendo en cuenta todas sus capacidades.
¿Qué es el sonido para videojuegos?
Organización holística

● Un juego no debe ser solo la suma del trabajo de los distintos


departamentos implicados en su desarrollo y creación, sino que la visión
de conjunto del producto final que queremos conseguir será la que
determine el funcionamiento y forma de trabajo de dichos
departamentos.

● Esta relación entre el conjunto y los distintos departamentos va a generar


una interdependencia mutua, desarrollando nuevas relaciones,
interacciones y sinergias, que van a dota a la empresa de una
perspectiva integral.
¿Qué es el sonido para videojuegos?
Organización holística

● Un juego no debe ser solo la suma del trabajo de los distintos


departamentos implicados en su desarrollo y creación, sino que la visión
de conjunto del producto final que queremos conseguir será la que
determine el funcionamiento y forma de trabajo de dichos
departamentos.

● Esta relación entre el conjunto y los distintos departamentos va a generar


una interdependencia mutua, desarrollando nuevas relaciones,
interacciones y sinergias, que van a dota a la empresa de una
perspectiva integral.
¿Qué es el sonido para videojuegos?
Organización holística

● Dividir y separar tareas hasta reducirlas a la mínima expresión puede


provocar que al final el trabajador no conozca el resto de operaciones
necesarias ni se identifique con el producto final.

● Promover su participación, en cambio, provocará que se sienta partícipe


de ello pueda encontrar nuevas soluciones, flujos de trabajo e integración
de equipos más óptimos.
¿Qué es el sonido para videojuegos?
Organización holística

● Este tipo de organizaciones son mucho más habituales dentro del sector
en las denominados estudios indie, donde los equipos de trabajo son
mucho más pequeños (normalmente no más de 20 trabajadores), y la
libertad creativa y artística está por encima de la dependencia económica
y la dependencia de terceros de los grandes estudios.

● Desde las primeras reuniones del equipo de desarrolladores, es


fundamental en la construcción de cualquier videojuego que el equipo de
sonido se encuentre presente durante su fase de concepción.
¿Qué es el sonido para videojuegos?
Comunicación en el entorno profesional

● Como en cualquier otro proceso creativo, es muy frecuente que durante


esos primeros pasos se produzcan numerosos cambios, en ocasiones
importantes, y a gran velocidad. Pequeños cambios, que aunque en
ocasiones parecen insignificantes, pueden tener una gran impacto final
en la perspectiva sonora de un personaje o la ambientación de una
escena.

● La comunicación debe ser muy fluida y tenida en cuenta como un


aspecto fundamental de la empresa.
¿Qué es el sonido para videojuegos?
Comunicación en el entorno profesional

● A la hora de diseñar el sonido para un videojuego, debemos estar al


tanto de todos estos cambios que se puedan ir produciendo.

● Conocer de primera mano la personalidad de los personajes, el estilo y


ambientación con el que se le va a dotar, además de bocetos y artworks
para conocer físicamente esta visión.

● Son procesos que resultan fundamentales a la hora de avanzar en el


trabajo y no perder tiempo y dinero con pasos en falso.
¿Qué es el sonido para videojuegos?
Comunicación en el entorno profesional

● Cualquier posible cambio, por mínimo que parezca, debe ser conocido
cuanto antes por todo el equipo creativo, ya que de lo contrario puede
generar inconsistencias en el trabajo final.

● Todo el equipo debe de tener de primera mano toda la información más


reciente y centrarse en resolver los problemas que surjan y tomar
decisiones, con respuestas más rápidas e inmediatas.
Funciones del sonido en un videojuego
● Independientemente del tipo de plataforma, el sonido forma una parte
vital de la experiencia de juego.

● La producción de sonido para videojuegos ha adoptado procesos y


técnicas hasta ahora reservadas para los grandes estudios y
superproducciones de cine.

● El jugador se ha convertido en el eje central del juego, siendo él quien


toma las decisiones y conduce la historia, buscando la mejor experiencia
de juego posible.
Funciones del sonido en un videojuego
● Las nociones de tiempo y espacio quedan un tanto dispersas, pudiendo
el jugador manejarlas a su antojo. El sonido, en este aspecto, plantea
posibilidades narrativas y de manejo de emociones, manipulando
cómo el jugador actúa y siente en cada momento.

● Por lo general, al igual que en otros productos audiovisuales,


identificamos tres categorías morfológicas de sonidos dentro de los
videojuegos: la música, las voces y los efectos sonoros.

● Una excepción a esta regla serían los juegos anteriores a los años 70,
que como vimos en el apartado anterior, eran mudos.
Funciones del sonido en un videojuego
● Hoy en día no tendría demasiado sentido crear un videojuego
completamente no sonoro, aunque no debemos obviar el potencial del
silencio, utilizado con criterio, para resaltar determinados elementos
dentro del juego y captar la atención del jugador.

● La música ha estado presente casi desde los inicios de los videojuegos.


La música es una gran evocadora de recuerdos y sentimientos.
Funciones del sonido en un videojuego
● La música también tiene una función interactiva, modificándose en
función de las decisiones del jugador y los distintos niveles que alcance
en el juego.

● También sirve para introducir nuevos personajes, anticipar sucesos o


posibles cambios en los escenarios, para dar respuesta a las
interacciones del jugador o para mejorar la narrativa y dar forma a la
historia.

● La música de un videojuego puede ser creada desde cero, como cualquier


otra obra musical, o a partir de adaptaciones de otras obras completas,
dependiendo del tratamiento que se le quiera dar al juego.
Funciones del sonido en un videojuego
La música de videojuegos en los Grammy

● En el año 2011, el tema Baba Yetu de Cristopher Tin e interpretado por la


Soneto Gospel Choir, perteneciente a la banda sonora de Civilization IV,
fue nominado y resultó ganador del Premio Grammy a la Mejor
Interpretación Instrumental con Voces.

● Este hito supuso un reconocimiento al trabajo desarrollado en la


composición musical para videojuegos.

https://www.youtube.com/watch?v=IJiHDmyhE1A
Funciones del sonido en un videojuego
La música de videojuegos en los Grammy

● A partir de dicho año, se incluyó a la música para videojuegos como


candidata en 4 categorías:

○ Música para Medios Visuales.

○ Mejor Banda Sonora Compilada en Medios Visuales,

○ Mejor Banda Sonora Incidental en Medios Visuales.

○ Mejor Canción Escrita para Medios Visuales.


Funciones del sonido en un videojuego
● Algunas de las funciones de la música que podemos identificar en los
videojuegos son las siguientes:

○ Incrementar la inmersión del jugador: la música crea emociones e


influye en la percepción de una experiencia completa con el juego.

○ Establecer el ritmo: una aceleración en el tempo de los bajos implica


una subida en la acción.

○ Determinar la época y el lugar: una pieza musical nos lleva a una


determinada época tanto o más que un vestuario o un escenario.
Funciones del sonido en un videojuego
○ Aportar información al jugador: un cambio en la banda sonora
puede alertar al jugador de que se está acercando a un peligro.

○ Presentar a nuevos personajes: algunos pasajes musicales pueden


ir asociados a un determinado personaje (leitmotiv), pudiendo darnos
pistas sobre lo que puede suceder después.

○ Destacar cambios en los espacios y ajustes: la música ayuda al


jugador a identificar los ambientes y menús por los que se me mueve
en el juego.

○ Establecer el estado de ánimo y el tono general: la música ayuda a


mantener una conexión emocional con el jugador.
Funciones del sonido en un videojuego
¿Qué es esa voz dentro de mi cabeza?

● Conforme la evolución técnica fue llegando a las consolas, nuevos elementos


narrativos pudieron llegar a los títulos, en este caso en forma de narraciones con
voces reales.

● Antes de eso, las voces ya habían hecho su aparición, creadas a través de síntesis.
Berzerk, un juego arcade de 1980, fue el primer título en utilizarlas, siendo el Star
Wars de Atari, en 1983, el primero en digitalizar samples de voz reales.
Funciones del sonido en un videojuego
¿Qué es esa voz dentro de mi cabeza?

● https://www.youtube.com/watch?v=ev1Ce03E0vU

● https://www.youtube.com/watch?v=FCKl4bw6q2E
Funciones del sonido en un videojuego
¿Qué es esa voz dentro de mi cabeza?

● Las voces trajeron consigo nuevos componentes expresivos,


convirtiéndose en uno de los aspectos más importantes en los títulos
actuales.

● Partiendo del desarrollo artístico y creativo del juego, los guionistas


desarrollan los diálogos que estarán presentes posteriormente en el
juego.

● El doblaje se ha convertido en uno de los aspectos que más se ha


desarrollado en los últimos años, aumentando la inversión y contando
con actores de primer nivel.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

● La música es una de las herramientas más poderosas para manipular los


sentimientos de los jugadores.

● Debemos entender, además, que la música para videojuegos no es igual a


la música que se compone para otros productos audiovisuales. Tiene que
funcionar con el resto de elementos sonoros del juego, por lo que es necesario
que ambos se complementen.

● Los géneros de videojuegos se han asociado a determinados estilos


musicales. Las tradiciones siempre pueden ser desafiadas, pero debemos
tener presente que los jugadores van a poseer una serie de expectativas
sobre lo que se van a encontrar en determinado tipo de juego.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

● Del mismo modo, ingenieros y diseñadores sonoros lo tendrán en cuenta durante


su creación. Vamos a analizar la ambientación musical de un videojuego en
función del género:

○ Juegos sociales/casuales/puzzles: suelen utilizar una música muy repetitiva,


casi hipnótica. Utilizan mucho los loops temporales y suelen ser poco
exigentes en términos de procesamiento.

○ Juegos de plataforma/arcade: es lo que todos entendemos por música de


videojuegos en nuestro imaginario colectivo. Abusan de música sintetizada
que en ocasiones se retroalimenta, dibujando una delgada línea entre la
música y los sonidos interactivos del juego.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

○ Juegos de conducción/simulación/deportivos: conducir suele estar


ligado a escuchar tu propia música, por lo que es habitual que en
este tipo de juegos domine el uso de música con licencia comercial.

■ Apenas hay presencia de música interactiva, salvo en los


menús. El ambiente sonoro, en general, busca representar la
experiencia real en un evento deportivo, con sonido ambiente y
la inclusión de jingles de narraciones de estilo radiofónico.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

○ Juegos de estrategia/rol/multijugador (MMO-RPG-MMORPG): la música


en este tipo de géneros suele servir para definir la época y el lugar en el
entorno por el que se mueve el jugador. También sirven para responder a
la acción del juego.

■ La banda sonora cuenta con mucha mayor complejidad, al aumentar


el tiempo de juego hasta una cantidad indefinida y la representación
de personajes a través de su propia música (uso del leitmotiv). Este
tipo de géneros supone un reto a nivel de diseño sonoro.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

○ Juegos de aventura/acción/shooter: en este tipo de juegos, la música


sostiene las emociones de la narrativa del juego. La composición debe
contar con diseños más cinematográficos pero a la vez dar respuestas
propias de un medio no lineal, donde la situación puede cambiar en
cualquier momento por las decisiones del jugador.
Funciones del sonido en un videojuego
Contextualización sonora: ambientes

Duración de la
Tipo de juego Experiencia de juego
música

Casual 2 -3 horas 15 y 20 minutos

Consola > 10 horas 2 -3 horas

Rol > 50 horas > 15 horas


Funciones del sonido en un videojuego
Influencia emocional del sonido

● En el campo sonoro existe una delgada línea entre la emoción y la


sobreactuación (lo que en el argot se conoce como "Mickey
Mousing"). Una exageración a la hora de promover las emociones
nos puede llevar justamente a provocar el efecto contrario.

● La forma en la que la música y la narrativa de un videojuego


interactúan, en ocasiones luchando entre ellas y en otras trabajando
al unísono, tienen como objetivo mantener la emoción.
Funciones del sonido en un videojuego
Influencia emocional del sonido

○ Golpear la acción (Mickey Mousing): se sincronizan los momentos


musicales con las acciones en la pantalla.

■ https://www.youtube.com/watch?time_continue=7&v=BBgghnQF6
E4&embeds_euri=https%3A%2F%2Fsites.google.com%2F&feature
=emb_logo

■ https://www.youtube.com/watch?v=ELEPSzegT9w&t=3s

■ https://tn.com.ar/musica/noticias/2017/07/14/mickey-mousing-una-
perfecta-combinacion-de-dibujos-animados-y-musica/
Funciones del sonido en un videojuego
Influencia emocional del sonido

○ Tocar la emoción (Música Empática): la música empatiza con las


emociones del personaje en el juego.

○ Tocar la metaemoción (Música Narrativa): la música no refleja


directamente el momento emocional de los personajes, sino que
trabaja para reproducir la sensación que transmite la escena
completa o un punto narrativo mayor.

○ Contrapunto (Música Anempática): la música opera contra las


emociones o resulta indiferente.
■ https://www.youtube.com/watch?v=QwksATd9lXU

■ https://www.youtube.com/watch?v=NSRQESskbB4&t=1s
Funciones del sonido en un videojuego
¿Qué relación emocional o no, hay con respecto a la imagen?

○ https://www.youtube.com/watch?v=p4QYcrR4KGU

○ https://www.youtube.com/watch?v=W9GHR3EaRy8

○ https://www.youtube.com/watch?v=HBFcjDclwME

○ https://www.youtube.com/watch?v=Tpj8mfOWB5M&t=84s

○ https://www.youtube.com/watch?time_continue=17&v=s6v-
bUY_wS8&embeds_euri=https%3A%2F%2Fcova-
ruiz.wixsite.com%2F&feature=emb_logo
Funciones del sonido en un videojuego
Influencia emocional del sonido

● Escoger el grado en el que el sonido dará respuesta a la acción del


juego o a la emoción narrativa es una difícil decisión.

● Si la música es demasiado reactiva, los jugadores pueden llegar a


tener la sensación de que son ellos quienes la están interpretando,
rompiendo su inmersión en el juego; si hay pocas reacciones,
perdemos la oportunidad de profundizar en las emociones del
jugador a través de la música.
Funciones del sonido en un videojuego
Influencia emocional del sonido

● La música es efectiva si implica ciertos niveles de tensión, relajación,


conflicto y resolución.

● Se puede elegir entre tener un sonido para cada acción o buscar una
mayor influencia emocional en función de los objetivos que persiga la
banda sonora.

● Encontrar el equilibrio entre las respuestas sonoras a las acciones del


juego, la profundización de emociones y el aporte de información es
la clave.
Funciones del sonido en un videojuego
Tipos de inmersión

● El sonido cambia la forma en la que percibimos las cosas. En el


mundo de los videojuegos podemos encontrarnos con acciones y
animaciones que carecen de sonido, cuyo impacto será percibido de
forma muy diferente respecto a aquellos que sí lo tienen.

● La inmersión e interacción que se produce en los videojuegos trae


consigo una nueva jerarquía sonora, que toma al jugador como
centro de referencia. Así, podemos hablar de:
Funciones del sonido en un videojuego
Tipos de inmersión

○ Sonido dinámico: es aquel sonido que está construido con la


intención de poder modificar sus atributos de acuerdo a las
decisiones del jugador o los posibles cambios que se puedan
producir en el entorno del juego. Por ejemplo, la música puede
aumentar de intensidad conforme nos acercamos a una puerta,
o añadirse mayor reverberación cuando nos situamos en una
sala más amplia.
Funciones del sonido en un videojuego
Tipos de inmersión

○ Sonido interactivo: son los sonidos que se generan en respuesta


directa a decisiones del jugador. Cuando el jugador pulsa un
botón, el personaje se moverá, saltará o disparará, lo que irá
acompañado de su correspondiente sonido. Cada vez que el
jugador vuelva a realizar la misma acción, el sonido se repetirá.
Funciones del sonido en un videojuego
Tipos de inmersión

○ Sonido adaptativo: es aquel sonido en el que los cambios se


producen por el propio desarrollo del juego. Conforme el jugador
va avanzando pantallas o moviéndose por el entorno del juego,
la música se puede volver más oscura, cambiar de ritmo o de
tono. El sonido adaptativo cambia a medida que cambia el
juego, y no está tan afectado por las decisiones del jugador.
Preguntas de repaso
● ¿Cómo se llama el primer chip dedicado al sonido para videojuegos?

● En videojuegos ¿Cuál es el estándar de profundidad de bits y frecuencia?

● ¿El audio en los videojuegos es líneal?

● ¿El departamento de sonido se encarga de programar (con lenguaje informático)


dónde y cuando se van a escuchar la banda sonora?

● ¿Qué diferencias de función tiene el sonido en cine con respecto al videojuego?

● ¿Cuáles pueden ser las funciones de la música en un videojuego?

● En un juego deportivo ¿Suele haber música que ambiente el partido en sí?

● ¿En qué consiste la música anempática?

● ¿Qué es el sonido dinámico en videojuegos?


Análisis de secuencia
Tipo de Sonido
Sonido Postsincronizado Función Microfonía Mono/Esteréo
sonido directo

Voz Voz x Transmite Micro de


mensaje corbata
Disparo SFX x Verosimilitud al Cañón + pértiga
disparo
Grillos Ambiente x Envolver al Micro estéreo
espectador
Música Música x Transmitir la
emoción

https://www.youtube.com/watch?v=DWi2WTqD59A
Flujo de trabajo
● El trabajo sonoro en un videojuego comienza desde su concepción misma y es
muy importante que exista una comunicación fluida entre los distintos
departamentos y miembros del equipo.

● Director de sonido y jefe de sonido participan en el desarrollo conceptual de la


banda sonora a partir de los primeros bocetos y reuniones con los miembros del
equipo gráfico. Después, organizan a los equipos de trabajo para que música,
SFX y diálogos trabajen de forma coordinada y siguiendo una idea común.

● Antes de comenzar la grabación, debemos plantearnos algunas preguntas. ¿Qué


tipo de juego estamos desarrollando? ¿Para qué plataforma? ¿Cuál será el ritmo
de juego? ¿Y mi audiencia potencial? Y una muy importante, ¿de cuánto espacio
físico dispongo? La respuesta a todas estas preguntas nos marcará el estilo que
debe seguir el diseño sonoro del juego y los archivos que deberemos manejar.
Flujo de trabajo
● Teniéndolo todo lo anterior claro, elaboramos la lista de recursos
sonoros (Audio Assets List). En este documento, que suele venir incluido
en el GDD (documento que recopila toda la información de cómo se ha
creado y desarrollado un videojuego en particular), figuran todos los
sonidos que contendrá el juego y que, por tanto, debemos obtener
durante su producción.

● El modo de obtener sonidos para un videojuego suele ser similar al de


otras industrias audiovisuales. Por ejemplo, se pueden adquirir o llegar a
acuerdos para la utilización de los derechos comerciales de temas
musicales ya existentes, al igual que sucede en el cine, la radio o la
televisión.
Flujo de trabajo
● Otro modo de conseguir recursos sonoros es la utilización de librerías
sonoras. Sound Ideas y Hollywood Edge son dos de las más conocidas.
Son muy utilizadas en la industria audiovisual, por lo que si queremos
incluirlas en el diseño sonoro de un videojuego deberíamos procesar
dichos sonidos para diferenciarlos.
● https://www.hollywoodedge.com/all-collections.html

● https://www.sound-ideas.com/
Flujo de trabajo
● También existen librerías sonoras específicas para videojuegos. The
Game Creators, Sound Dogs y Sound Rangers son algunas de ellas.
Cuentan con un repositorio online, donde diseñadores de sonido
independientes pueden subir sus efectos para ser adquiridos
digitalmente y descargados.
● https://gamecreator.store/products/463

● https://www.sounddogs.com/

● https://www.soundrangers.com/
Flujo de trabajo
● También existen librerías sonoras libres. Freesound y FreeSFX, entre
otras, permiten descargar música y efectos de sus catálogos online.

● Al utilizar librerías gratuitas, al igual que sucede con librerías muy


conocidas, es recomendable procesar los efectos, para no sonar
demasiado repetitivos.

● Hay que tener cuidado con los derechos de dichos sonidos,


comprobando si permiten el uso comercial o bajo qué condiciones
podemos utilizarlos (normalmente, como mínimo, citar al creador).
Flujo de trabajo
Grabación en estudio

● El primer paso en la grabación será la elección de un estudio


adecuado para el trabajo que pretendemos realizar. Lo más
importante será la calidad acústica, el aislamiento de la cabina para
voces y la disponibilidad de micrófonos adecuados.

● El proceso de grabación musical para videojuegos es similar al del


cine y la televisión. El compositor entrega su obra a un director de
orquesta, que dirige a los intérpretes en el escenario.
Flujo de trabajo
Grabación en estudio

● En cuanto a los SFX, vamos a encontrarnos con notables diferencias


respecto al trabajo cinematográfico.

● En primer lugar, la grabación de efectos Foley deja de tener sentido


en el mundo interactivo de los videojuegos.

● Mientras que en el cine puedes grabar SFX en el estudio a la vez que


se reproducen las imágenes, especialmente los sonidos de pasos o
movimiento de objetos, en los videojuegos no tiene razón de ser, a
excepción de las secuencias cinemáticas.
Flujo de trabajo
Grabación en estudio

● Tampoco se pueden hacer mezclas con diálogos y música, como


sucede en la banda sonora final cinematográfica. Al trabajar en un
medio no lineal, necesitamos contar con cada uno de los archivos
por separado y tenerlos preparados para su activación en
cualquier evento del juego que lo necesite.

● En los videojuegos cada sonido debe ser por tanto renderizado


como un archivo individual y añadido a una base de datos
conectada con el código fuente del juego.
Flujo de trabajo
Grabación en estudio

● Con lo cual, el trabajo de los diseñadores de sonido en un


videojuego será realizar una librería de sonidos personalizada
para el juego, que contará tanto con los sonidos grabados por ellos
mismos como con otros prefabricados.

● La grabación de efectos sonoros en estudio para videojuegos será


asíncrona, con el único objetivo de conseguir los sonidos deseados
para nuestra librería.
Flujo de trabajo
Grabación en estudio
● Por lo que respecta a las voces, el principal objetivo de la grabación de
diálogos será la obtención de sonidos lo más claros y limpios posibles,
algo incluso más importante que en el cine y la televisión. Dado que los
archivos finales son comprimidos, el más mínimo ruido puede
posteriormente amplificarse y arruinar el trabajo.

● A la hora de la captación de diálogos, el ambiente debe ser lo más seco


posible, evitando cualquier tipo de eco o reverberación.
Flujo de trabajo
Grabación en estudio
● Para este trabajo, los micrófonos de condensador con patrón polar
cardioide son los preferidos por los ingenieros de sonido, ya que se
centran en la voz y evitan cualquier otro sonido no deseado proveniente
de la acústica de la sala.

● El actor dispondrá del guion en la cabina de grabación, dividido en takes


(frases cortas), que irá grabando de uno en uno de acuerdo a las
indicaciones del director y el ingeniero de sonido. Cada take será un
archivo distinto.
Flujo de trabajo
Grabación en estudio
● Pro Tools suele ser el EAD estándar a nivel profesional como software
de grabación en estudio, aunque para la grabación de efectos también
se utilizan mucho Nuendo y Reaper.

● Es muy importante acordar la elección de sistema que vamos a usar


antes de ponerse grabar, especialmente si trabajamos en formatos raw,
ya que de ello dependerá en gran medida el trabajo posterior del editor.
Flujo de trabajo
Grabación en estudio

● En cuanto al formato de la sesión, debemos trabajar siempre a la máxima calidad,


con archivos PCM sin compresión (ya sea aiff o wav), con al menos una
frecuencia de muestreo de 48 kHz y 24 bits de resolución como estándar (algo
que también habrá que discutir con el editor).

○ PCM es el formato estándar de audio para CDs, DVDs o discos Blu-ray y


todos los demás productos de audio de consumo digital. Es compatible con
cualquier fuente de audio digital y procesadores que utilicen fibra óptica,
cable coaxial digital y cables HDMI para transportar las señales.

○ "RAW" tiene el mismo significado que la palabra "raw" en inglés (crudo).


Envía señal de audio digital sin decodificar.
Flujo de trabajo
Organización de los recursos sonoros

● Es de vital importancia contar con una lista de recursos bien pensada y


utilizar una convención de nombrado de archivos adecuada en el
diseño sonoro de un videojuego. Sin esto, nos podemos encontrar con
cientos o incluso miles de archivos que no tendrán control ni
conoceremos la descripción de su función en el juego.

● Un buen nombrado de archivos para un videojuego debe contener el


nombre del personaje o categoría, descripción y número de control, y
no incluir espacios (añadir "_"). Por ejemplo, "Super_Mario_Line_1" o
"Music_Background_2" pueden servir de punto de partida.
Flujo de trabajo
Edición y normalización de archivos

● Después de la grabación, el siguiente paso en el flujo de trabajo para la


obtención de archivos sonoros de un videojuego será su edición básica y
normalización. En la edición, se realizarán los pasos habituales:

○ Analizar y seleccionar las mejores tomas (a partir de los partes de


grabación). Cortar los clips, eliminando ruidos y espacios
innecesarios.

○ Aplicar transiciones: fade-in, fade-out y crossfades.

○ Igualar los niveles de las tomas al estándar: normalización.


Flujo de trabajo
Edición y normalización de archivos

● Una vez que tenemos nuestro clip de audio en el EAD, observando su


forma de onda, podemos analizar posibles errores en la gráfica. Por
ejemplo, si la onda llega a saturar, se producirá clipping.

● También podemos observar pequeños ruidos que se hayan introducido


en la grabación, que bien podemos cortar, si son aislados, o tratar con
un plug-in de reducción de ruido si están presentes de forma persistente
en la grabación.
Flujo de trabajo
Edición y normalización de archivos

● Las transiciones resultan muy útiles para poder movernos con suavidad entre
diferentes sonidos, lo que ayudará a mantener la continuidad e inmersión en el
juego. Para cubrir los fade-out, es habitual recurrir a stingers, pequeñas piezas
musicales que se insertan en la transición entre un tema y otro para hacerla
prácticamente transparente, inaudible.

● Otro modo de realizar una transición entre dos temas musicales es realizar un
crossfade, de modo que un nuevo tema empieza a sonar mientras el anterior se
desvanece. Bien aplicado, es una transición casi perfecta, pero debemos ajustar
la duración del mismo para no arruinar la experiencia de juego.
Flujo de trabajo
Edición y normalización de archivos

● En la edición de diálogos y SFX también se suelen utilizar los fundidos


(fade-in y fade-out), para ayudar a que las transiciones entre diferentes
elementos sonoros sean más suaves y permitir solapamientos y
encabalgamientos mucho más integrados.

● El siguiente paso será el de ajustar los niveles de intensidad de cada


una de las tomas. Esto es especialmente importante en los diálogos, ya
que de lo contrario, las voz de un personaje podría sonar mucho más
alta que la de otro.
Flujo de trabajo
Edición y normalización de archivos

● Para realizar esta tarea, normalmente se procesan los archivos en lote,


aplicando un efecto denominado normalización. La normalización
escanea el archivo para subir su ganancia de forma global, hasta el nivel
que establezcamos, sin que se produzca clipping. Esto aumentará la
intensidad del archivo de forma proporcional, dejando un sonido fuerte y
sólido.
Preguntas de repaso
● A la hora de realizar la banda sonora de un videojuego ¿Quiénes son los encargado
de realizar el desarrollo conceptual de la misma?

● ¿Qué debe de contener la Audio Assets List?

● A la hora de exportar y organizar los sonidos en un videojuego ¿Debemos de exportar


todos los archivos de forma conjunta en un solo archivo y de forma cronológica? ¿Por
qué?

● A la hora de grabar diálogos ¿Lo haremos frase por frase? ¿Cómo se llama al archivo
resultante?

● ¿Cuál es la frecuencia de muestreo adecuada para grabar sonido para videojuegos?

● ¿Qué fases conforman la edición y normalización de archivos de sonido para


videojuegos?
Análisis de secuencia
Tipo de Sonido
Sonido Postsincronizado Función Microfonía Mono/Esteréo
sonido directo

Voz Voz x Transmite Micro de


mensaje corbata
Disparo SFX x Verosimilitud al Cañón + pértiga
disparo
Grillos Ambiente x Envolver al Micro estéreo
espectador
Música Música x Transmitir la
emoción

https://www.youtube.com/watch?v=zs5whN2QcGY&list=PLHr42J3X9GxzTFY
FiMDvYpqoHaGMw13OS
Flujo de trabajo
Creación de bucles temporales

● El sonido para videojuegos, en muchas ocasiones, se basa en la repetición.

● En las primeras bandas sonoras para videojuegos consistían en la repetición


continua de un tema musical, algo que sigue sucediendo hoy en día en
juegos retro o ciertos juegos indie de muy bajo presupuesto.

● En los juegos de mayor presupuesto, la repetición también es necesaria dado


que la propia interactividad del juego produce que no sepamos cuánto
tiempo va a estar un jugador en una determinada pantalla, o que tenga que
sonar siempre la misma música cada vez que accedemos a los menús de
interfaz.
Flujo de trabajo
Creación de bucles temporales

● En este sentido, podemos diferenciar dentro las librerías de sonidos de


un videojuego aquellos que son de reproducción única (one shoot) y
aquellos que son bucles (loops).

● Los sonidos de reproducción única se activan una sola vez cuando el


jugador realiza cierta acción en el juego. En este tipo de sonidos,
debemos cuidar con mucho mimo la edición, con fundidos de entrada y
salida suaves que permitan una cómoda interacción con el resto de la
banda sonora y evitando cualquier tipo de ruido (clicks y pops,
especialmente).
Flujo de trabajo
Creación de bucles temporales

● La creación de bucles, por supuesto es necesaria. Aparte de por la


propia necesidad derivada la interactividad del juego, tampoco podemos
almacenar archivos sonoros para el juego de forma infinita. Por tanto,
crear archivos sonoros que se puedan reproducir en bucle, sin saltos,
supondrá un reto para el diseñador de sonido.

● El modo más sencillo de realizar bucles es utilizando sonidos de


ambiente de fondo mezclados con efectos en primer plano.
Flujo de trabajo
Creación de bucles temporales

● Para evitar la aparición de los indeseados


clicks y pops, es necesario ajustar la forma
de onda del archivo de modo que esté
centrada lo más posible en torno a la línea
cero (zero baseline o zero crossing). Si no lo
estuviera, podemos utilizar herramientas de
edición de DC Offset para centrarlo.
Flujo de trabajo
Creación de bucles temporales

● Otras técnicas de creación de bucles temporales serían la copia de


archivos y su reproducción inversa, para mejorar las transiciones, el
establecimiento de crossfades, para suavizar la entrada y salida de una
nueva repetición o, como ya analizamos, la introducción de stingers que
suavicen el paso, entre otras muchas.
Flujo de trabajo
Estructuración de jerarquías

● La ventana de jerarquías, dentro de un middleware o motor de desarrollo de un


videojuego, es el lugar donde aparecerán los objetos de una determinada escena.
Cuando añadimos o quitamos un objeto de una escena, también lo hace de la
ventana de jerarquías.

● Los objetos aparecen colocados de arriba a abajo, de modo que los que estén
situados en la parte inferior se verán afectados por los superiores.

● Por ejemplo, el sonido ambiental de una escena que esté situado en el último
lugar de la ventana de jerarquía, se verá afectado por otros objetos que estén
situados por encima, como pueden ser paredes, puertas o ventanas, afectando al
rango dinámico y respuesta en frecuencia que recibirá el jugador de acuerdo su
posición en la escena.
Flujo de trabajo
Estructuración de jerarquías

● También se pueden crear carpetas o


emparentar ciertos objetos, de modo que
estén al mismo nivel dentro de una jerarquía.
Dentro de esta ventana y sus opciones, será
donde establezcamos las reglas con las que
se reproducirá un determinado sonido. En ella,
podemos fijar el trigger (momento en el que el
sonido se activará, por ejemplo, después de
que el jugador cruce una puerta), su posición
espacial o su comportamiento acústico
respecto a otros objetos, materiales y
superficies.
Flujo de trabajo
Buses de mezcla

● En la edición de sonido, un bus es un canal de


salida al que le asignas varias entradas de
audio. Dentro de la estructura sonora del diseño
de un videojuego podemos establecer diferentes
buses para mezclar el sonido que obtenemos en
una escena.

● En imagen podemos observar cómo están


asignados varios buses a una escena: una salida
master general, otra secundaria y otra de sonidos
que incluyen efectos de movimiento. Podemos
establecer tantas salidas como necesitemos de
acuerdo a la mezcla final que queramos realizar.
Flujo de trabajo
Buses de mezcla

● En el mundo del cine es muy común crear buses para diálogos, SFX, sonido
ambiente y música, de modo que el ingeniero de sonido pueda ir realizando
automatizaciones, cambiando niveles o localización de unos u otros de
acuerdo al momento de la escena.

● En los videojuegos la mezcla se hace en tiempo real, por lo que debemos


establecer las reglas que marcarán el modo en el que se debe realizar. Por
ejemplo, imagina una escena de un videojuego en la que un espía tiene que
colocar un micrófono oculto en una sala, para después escuchar desde una
furgoneta las conversaciones que allí sucedan.
Flujo de trabajo
Buses de mezcla

● Para poder reproducirlo y mezclarlo, necesitaríamos al menos cuatro


buses de mezcla con cada una de la salidas necesarias:

1. La mezcla del sonido ambiental que se escucha en la furgoneta

2. La mezcla del sonido ambiental de la sala donde se coloca el


micrófono

3. La mezcla del sonido que captará el micrófono

4. La mezcla del sonido procedente que se reproducirá por un altavoz


dentro de la furgoneta.
Flujo de trabajo
Buses de mezcla

● Cada uno de sus buses irá asociado a unos canales de entrada distintos
y se le aplicarán diferentes efectos según su salida, algo que podemos
aplicar en lote desde un bus
Grabación de SFX y material de recurso
● El diseño y grabación de efectos de sonido (SFX) para un videojuego es
muy similar al realizado en el trabajo cinematográfico. Obviamente,
dependerá del presupuesto de la envergadura del presupuesto y la
estructura del juego.

● En un videojuego se utilizan SFX grabados por el propio equipo,


sonidos de librerías y sonidos obtenidos a partir de síntesis.

● Cuando se van a grabar los SFX, normalmente se trabaja a partir de


pequeños renders del juego, secuencias cinemáticas o pequeños vídeos
donde podamos analizar el movimiento de los personajes, los objetos y
el ambiente de la escena. A partir de ahí, el diseñador de sonido
considerará la grabación del material que considere más oportuno.
Grabación de SFX y material de recurso
● Los SFX que suelen ser más demandados en la elaboración de la banda
sonora de un vídeojuego son aquellos que guardan relación con armas
de fuego, explosiones, destrucción de objetos y sonidos de motores de
máquinas y vehículos. También los sonidos de ambiente en diferentes
situaciones.

● Dado que los SFX suelen estar muy comprimidos y mezclados con
otros sonidos de librerías, la combinación de diferentes materiales suele
ser habitual y no existe ningún tipo de restricción.
Grabación de SFX y material de recurso
● Así, Stefan Strandberg, director de audio de la franquicia Battlefield: Bad
Company, aseguraba respecto al uso de micrófonos que tras las largas
sesiones realizadas para la grabación de armas para el juego, "fue
sorprendente escuchar que el material más barato podía superar al más
caro. La combinación de material barato y de alta gama pudo crear
resultados que no se esperaban inicialmente”.

● En un juego de este género (shooter), la repetición de sonidos puede resultar


terriblemente monótona para el jugador si cada vez que dispara obtiene
exactamente el mismo sonido. Es por ello que en el diseño sonoro siempre
se deben grabar varias muestras, con diferentes ambientes y propiedades
acústicas, para poder activarlas a lo largo del juego.
Generación de SFX electrónicos (MIDI)
● MIDI son las siglas de Musical Instrument Digital Interface. Se desarrolló
en 1983, tras el acuerdo alcanzado por varios fabricantes y productores
de la industria musical.

● Es un protocolo estándar que permite el uso de dispositivos de diferentes


fabricantes, que pueden comunicarse entre sí. En un primer momento, se
trataba de un protocolo para conectar aparatos entre sí, que incluían
controladores de todo tipo (teclados, guitarras, baterías, etc.), nodos de
conexión (midi box), instrumentos (samplers, cajas de ritmos,
sintetizadores) y el cable de conexión (cable MIDI con conector de 5
pines). Esto incluye también el software, por lo que la amplia mayoría de
las EAD hoy en día son compatibles con el protocolo MIDI.
Generación de SFX electrónicos (MIDI)
● Lo realmente importante en el MIDI es el protocolo, que permitirá
interpretar los datos recibidos desde otro dispositivo para intercambiar
información.

● Es un protocolo basado en eventos, que permiten almacenar una gran


cantidad de información digital acerca de cada nota musical. El tono, la
intensidad o la velocidad de cada nota se almacenan varios miles de
veces por segundo. Con ello, el protocolo MIDI nos permite, por ejemplo,
cambiar el sonido de una batería por otra, manteniendo el ritmo y la
intensidad del intérprete, o la melodía de una flauta por un violoncello.
Generación de SFX electrónicos (MIDI)
● Una de las ventajas del protocolo MIDI es el tamaño de los archivos.
Mientras que un archivo sonoro, aunque tenga compresión, como un
MP3, ocupa varios MB de información, un archivo MIDI apenas necesita
unos pocos KB.

● Desde muy temprano, ya en los años 80, se adoptó el MIDI en la creación


musical para videojuegos. Los grandes juegos de la era del arcade se
identifican fácilmente gracias a sus sonidos de sintetizador,
encapsulados en formato MIDI dadas las limitaciones de espacio físico
de la época.
Generación de SFX electrónicos (MIDI)

● En este sentido, Nobuo Uematsu, uno de los más reconocidos


compositores de música para videojuegos, comentaba respecto a su
trabajo en la saga Final Fantasy que "la Nintendo NES solo tenía tres
pistas, y cada uno de sus sonidos debía ser único. Tuve que
concentrarme en la melodía misma y pensar en cómo cada acorde podía
emocionar a los jugadores. Luché por producir música original con solo
tres tonos, al igual que cualquier compositor en esa época. Había una
originalidad en la música para videojuegos en aquel momento".
Generación de SFX electrónicos (MIDI)
● Al trabajar con pistas MIDI en una EAD o un
middleware, contamos con las mismas
herramientas y técnicas como si se tratara de
cualquier otra pista. Podemos mover los
archivos a otra posición, arrastrar y soltar o
copiar y pegar. Pero además, nos permite
trabajar directamente sobre la información que
el protocolo nos ofrece para alterar los sonidos a
nuestro antojo.

● Gracias a los eventos MIDI, podemos cambiar


notas de posición, la fuerza o velocidad de
ejecución, modificar el ritmo o la duración de
una nota, o la muestra a reproducir.
Generación de SFX electrónicos (MIDI)
● Visualmente, dentro de la interfaz, resulta sencillo diferenciar las pistas de audio y las
pistas MIDI. Mientras que las primeras aparecen representadas por su forma de onda,
en el caso de las pistas MIDI lo que vemos es la información con las notas
representadas.

● Cada una de esas notas se puede editar, mover, alterar su duración, etc. cambiando
con ello la melodía a reproducir.
Generación de SFX electrónicos (MIDI)

● La creación de SFX por MIDI suele venir propiciada por el uso de


sintetizadores, que nos permiten crear sonidos de forma electrónica,
mediante la modulación de muestras, tonos y otros sonidos generados
por síntesis, que podemos controlar y personalizar mediante el software.
Procesado básico: reducción de ruido, EQ y
dinámica
● Una vez que nuestros archivos sonoros han sido grabados y editados,
llega la hora de prepararlos para su mezcla final. Para ello,
normalmente, realizaremos 3 pasos: reducción de ruidos, ecualización
(EQ) y tratamiento de la dinámica.

● Los filtros de reducción de ruido tienen un funcionamiento similar. Si al


escuchar un clip de audio en tu EAD se comprueba la existencia de algún
ruido de fondo no deseado, se realiza una selección de una parte al
inicio o el final del clip que debería estar en silencio y se analiza con
un plug-in de reducción de ruido. El plug-in realiza un filtrado de las
frecuencias que contiene dicho ruido y las atenúa en el clip completo.
Procesado básico: reducción de ruido, EQ y
dinámica
● iZotope RX7 es hoy en día un estándar en la industria para la solución de
este tipo de problemas, además de permitir eliminar otros tipo de ruidos
no deseados como clicks, pops o sibilancias.

● Entre las alternativas libres destaca el efecto de reducción de ruido que


incluye el editor gratuito Audacity.
● https://www.youtube.com/watch?v=84yTnSf6jP0&t=02s
Procesado básico: reducción de ruido, EQ y
dinámica
● Un EQ es un dispositivo que permite modificar la intensidad de las
frecuencias de una señal sonora. Aunque existen como hardware
independiente, lo más común en un videojuego es utilizarlo como efecto
propio del EAD o middleware.

● En un EQ podemos modificar hasta 3 parámetros: la frecuencia central


o banda sobre la que vamos actuar, el ancho de dicha banda (factor Q)
y la ganancia que aplicaremos sobre cada una de las bandas.
Procesado básico: reducción de ruido, EQ y
dinámica
● En función de la cantidad
de parámetros que
podamos manejar se
distinguen:

○ EQ paramétricos: que
permiten personalizar
los 3 parámetros de
forma independiente
(ganancia, frecuencia
y ancho de banda).
Procesado básico: reducción de ruido, EQ y
dinámica

○ EQ semiparamétricos: que nos


permiten elegir la frecuencia
central y la ganancia. El ancho de
banda es fijo.
Procesado básico: reducción de ruido, EQ y
dinámica
○ EQ gráficos: tienen muchas más bandas que los paramétricos y que los
semiparamétricos, algunos de ellos pueden llegar a tener hasta 31
bandas. Es un tipo de ecualizador es que sus bandas son fijas, es decir,
no es posible modificar el ancho de banda o la frecuencia. La frecuencia
central viene predefinida, normalmente por octavas o tercios de octava, y
únicamente manejamos la ganancia.
Procesado básico: reducción de ruido, EQ y
dinámica
● Como norma general, para las voces y diálogos, se suelen aumentar la
ganancia en frecuencias graves (100-200 Hz) para dotar de más cuerpo,
los medios entre 1-6 kHz y los agudos por encima de 8 kHz, sin llegar a
ser demasiados cortantes; se suelen atenuar las frecuencias entre 200-
400 Hz, que opacan y oscurecen la voz, la zona nasal, entre 500-700 Hz
y las sibilancias buscando las frecuencias entre 3 y 8 kHz.

● Es conveniente ecualizar de forma sustractiva, es decir, pensando antes


en atenuar que en amplificar, dado que en la ecualización aditiva
también podemos aumentar la intensidad de los ruidos.
Procesado básico: reducción de ruido, EQ y
dinámica
● En cualquier ecualización siempre
hay que hacer un barrido de
frecuencias para buscar aquellas
que resulten problemáticas y
trabajar sobre ellas, si es posible
con anchos de banda altos que
mejorarán la transición.
Procesado básico: reducción de ruido, EQ y
dinámica
● Por último, estaría el tratamiento de la
dinámica. El paso final en el procesamiento
suele ser añadir un compresor.

● A diferencia de la normalización, que aumenta


el nivel de la señal de forma global, en un
compresor reducimos el rango dinámico al
elevar únicamente la ganancia de las señales
más débiles.

● El objetivo de utilizar un compresor suele ser el


de mejorar su definición y controlar la señal.
Adecuación de los recursos
● Uno de los factores limitantes a la hora de realizar el diseño sonoro
de un videojuego es el límite de espacio físico con el contamos. En la
época del arcade, el sonido apenas ocupaba unos pocos KBPS del
juego. Hoy en día, ese espacio ha aumentado pero sigue siendo
finito, y debemos saber con cuánto contamos antes de realizar el
diseño final.

● En un juego de gran presupuesto, suele ocupar más del 25% del


espacio final, mientras que un juego de bajo presupuesto será poco
más del 10%.
Adecuación de los recursos
● Otro factor importante será el formato final. Nos podemos encontrar
archivos sonoros en múltiple variedad de formatos. Algunas
plataformas de juegos utilizan formatos de archivo propietarios,
mientras que otras hacen uso de formatos abiertos. Dentro de la
enorme cantidad de formatos podemos distinguir entre formatos con
y sin compresión.

● Los formatos de audio PCM sin compresión ofrecen la mejor calidad


sonora, a costa de un mayor espacio físico. Los más habituales son
los clásicos wav (en Windows) y aiff (en Mac). Utilizan unos 10 MB
por minuto de grabación.
Adecuación de los recursos
○ Los formatos sin compresión PCM son los que debemos utilizar
durante el proceso de grabación y edición de sonido en un
videojuego, para mantener la mejor calidad posible durante todo
el proceso.

○ Utilizar uno u otro dependerá de las preferencias o el flujo de


trabajo de nuestro ingeniero o editor, con el que deberemos
acordarlo previamente.

○ También existe la posibilidad de utilizar el FLAC, un formato de


compresión sin pérdidas para audio.
Adecuación de los recursos

● Los formatos de compresión con pérdidas consiguen salvar una


gran cantidad de espacio a costa de reducir ligeramente la calidad
durante el proceso.

● La cantidad de pérdidas dependerá de la tasa de bits (bit rate). Estos


formatos requieren la presencia de un códec, una pequeña pieza de
código que se encarga de empaquetar el archivo y descomprimirlo
durante la reproducción.
Adecuación de los recursos
● Los formatos más populares utilizados en videojuegos son:

○ MP3: hoy en día es el formato más popular para almacenar y reproducir


música, también en videojuegos. Ocupan aproximadamente una décima
parte del espacio de un archivo PCM equivalente. Es el estándar en las
plataformas Android y también en muchos juegos de otras.

○ OGG Vorbis: el OGG es un contenedor libre que soporta gran variedad


de códecs, entre los cuales Vorbis es el más popular. Se utiliza mucho en
plataformas de juegos para consola y PC. No es compatible con
dispositivos iOS.

○ AAC: es el estándar de audio Dolby MPEG-4 propiedad de Apple. Es el


formato utilizado para almacenar sonidos en dispositivos iOS.
Documentación sonora para videojuegos
● El Game Design Document (GDD) es la "biblia" de un videojuego. Se trata
de una guía, elaborada en colaboración de diseñadores, artistas y
programadores, que se utiliza para mantener una visión global durante todo
el proceso de desarrollo del juego. Suele incluir textos, imágenes, artworks e
incluso prototipos de animación. A partir de este documento, el diseñador de
sonido trabajará en su propuesta sonora para el juego.

● Dentro de dicho documento irá incluido un epígrafe específico sobre sonido: el


Audio Assets List. Se trata de la lista de recursos sonoros, que incluye todos
aquellos sonidos que se producirán en algún momento durante el juego.
Resulta de vital importancia, ya que se trata de un listado maestro que
guiará el proceso de desarrollo sonoro del juego.
Documentación sonora para videojuegos
● El Audio Assets List se elabora en forma de tabla, normalmente a partir de
una hoja de cálculo, aunque algunos ingenieros de sonido prefieren crear una
base de datos ya que les ofrece mayor libertad. En ocasiones, se incluye en el
GDD. El listado de recursos debe incluir:

○ La categoría del archivo sonoro (música, diálogo o SFX).

○ El nombre del archivo, de acuerdo a la convención establecida.

○ Una descripción de la función del sonido (por ej. "explosión" o "sonido de


motor").

○ Una indicación de si el sonido es de reproducción única o un loop.


Documentación sonora para videojuegos
● El Audio Assets List se elabora en forma de tabla, normalmente a partir de
una hoja de cálculo, aunque algunos ingenieros de sonido prefieren crear una
base de datos ya que les ofrece mayor libertad. En ocasiones, se incluye en el
GDD. El listado de recursos debe incluir:

○ La categoría del archivo sonoro (música, diálogo o SFX).

○ El nombre del archivo, de acuerdo a la convención establecida.

○ Una descripción de la función del sonido (por ej. "explosión" o "sonido de


motor").

○ Una indicación de si el sonido es de reproducción única o un loop.


Documentación sonora para videojuegos
El pequeño gruñón

Example Games

Localización Trigger Tipo Nombre del archivo Descripción


Música
Pantalla Inicial Entrada Music_initial_01.wav Música
Loop
Push start SFX Push_start_01.wav Sintetizador

Inicio del juego SFX Beep_start_01.wav Sintetizador

Entrada créditos VO Am_line_01.wav ¡Bienvenidos!

Créditos

Continúa créditos VO Am_line_02.wav Vamos a aprender


Documentación sonora para videojuegos
● Voice-over Scripts: es el guion utilizado para los diálogos. A diferencia de
los guiones literarios, la estructura del guion suele ser en forma de frases
aisladas, denominadas takes o tomas, dentro de una tabla.

● Cada take se repite hasta conseguir la interpretación buscada, marcando la


toma buena, y pasando entonces a la siguiente frase.

Nombre de archivo Take Frase

Am_discusion_01.wav 2 ¡No saltes!

Am_discusion_02.wav 1 Me llaman Am.

Am_discusion_03.wav 4 ¡Estás loco!

Am_discusion_04.wav 3 Vamos a empezar.


Preguntas de repaso

● Según la cantidad de veces que se reproduce un sonido en un


videojuego ¿Cómo se pueden categorizar?
● ¿Por qué se utilizan los bucles musicales o de sonido en videojuegos?
● Con respecto a los eventos MIDI ¿Qué gran ventaja nos ofrece a la hora
de editar las notas musicales?
● ¿Cuáles son los tres pasos básicos a la hora de procesar los archivos de
sonido?
● ¿A la hora de ecualizar, debemos hacerlo de forma aditiva?
● ¿En qué consiste el formato AAC?
Análisis de secuencia
Tipo de Sonido
Sonido Postsincronizado Función Microfonía Mono/Esteréo
sonido directo

Voz Voz x Transmite Micro de


mensaje corbata
Disparo SFX x Verosimilitud al Cañón + pértiga
disparo
Grillos Ambiente x Envolver al Micro estéreo
espectador
Música Música x Transmitir la
emoción

https://www.youtube.com/watch?v=hxf-UHuGobI
Psicoacústica
● La psicoacústica es la rama de la Psicofísica que involucra el estudio científico
de la percepción del sonido, es decir, cómo las personas percibimos los sonidos.
Más específicamente, es la rama de la ciencia que estudia las respuestas
psicológicas asociadas con el sonido (incluido el ruido, el habla y la música).

● La psicoacústica es un campo interdisciplinario de muchas áreas, que incluyen


psicología, acústica, ingeniería electrónica, física, biología, fisiología e
informática.

● La psicoacústica y sus aplicaciones han sido utilizadas en el campo de la


informática permitiendo la creación de técnicas de compresión de datos como el
MP3 o el OGG Vorbis, muy populares en los archivos sonoros para videojuegos.
Psicoacústica
● El modelo psicoacústico proporciona una compresión con pérdida de alta
calidad al describir qué partes de una señal de audio digital pueden
eliminarse (o comprimirse más agresivamente) de forma segura, es decir, sin
pérdidas significativas en la calidad (consciente) percibida del sonido.

● Una campo de gran importancia en el mundo de la postproducción sonora


relacionado con la psicoacústica es el de los sistemas de reducción de ruido.

● El oído tiene una respuesta no lineal ante sonido de diferente intensidad; es


lo que conocemos como sonoridad. Los sistemas de reducción de ruido lo
utilizan para comprimir de forma no lineal muestras de datos para
después descomprimirlas durante la reproducción.
Psicoacústica
● Otro efecto de la respuesta no lineal del oído es que los sonidos que tienen
una frecuencia cercana producen notas de ritmo fantasma o ciertos sonidos
de distorsión.

● Otro de los campos de la psicoacústica de gran aplicación en los videojuegos


es el de la localización del sonido. En el proceso de determinar la
procedencia de una fuente sonora, el cerebro utiliza sutiles diferencia de
intensidad, tono y sincronización entre los dos oídos. En el posicionamiento
3D, podemos determinar el azimut o ángulo horizontal, el cénit o ángulo
vertical, la distancia o la velocidad de una fuente sonora.
Psicoacústica
● En un videojuego, el middleware se encarga de emular el comportamiento
del sonido en un entorno real 3D, a través de complejos procesos
matemáticos de programación.

● El sonido 3D está cada vez más presente en multitud de motores de


desarrollo de videojuegos hoy en día, ayudando al jugador a sumergirse en la
experiencia de juego y dotando de mayor realismo los ambientes sonoros.

● La localización de la posición de una fuente sonora es el primero de los


aspectos a trabajar en un sonido 3D. Una tarjeta de sonido puede emular la
posición de una fuente a través de la tecnología HRTF utilizando dos
altavoces o auriculares.
Psicoacústica
● La Head-Related Transfer Function (HRTF)
es una curva que describe cómo un oído
recibe un sonido desde un punto en el
espacio.

● A medida que el sonido llega al oyente, el


tamaño y forma de la cabeza, los oídos, el
canal auditivo y los canales nasales y orales
transforman el sonido a través de procesos
de filtrado por reflexión y difracción, y
afectan a cómo se percibe. Algunas
frecuencias aumentan y otras se atenúan.
Psicoacústica
● Hablando en términos generales, el HRTF impulsa las frecuencias entre 2 y 5
kHz, con una primera resonancia de +17 dBs a los 2700 Hz, aunque varía en
cada persona.

● Los efectos de prefiltrado específicos ayudan a determinar la ubicación de la


fuente, especialmente su altura.

● Los ingenieros de sonido para videojuegos utilizan esta función de


transferencia para situar las fuentes sonoras en espacios virtuales.
Psicoacústica
● La distancia y la intensidad de acuerdo al modelo psicoacústico son
inversamente proporcionales; cuanto más alejados estemos de una fuente
sonora, menos intensa será su percepción.

● El middleware nos permite configurar funciones simples que nos permiten


subir y bajar el nivel según la distancia del jugador a un objeto. El diseñador
de sonido fijará una distancia mínima a partir de la cual el sonido comenzará
a desvanecerse, estableciendo un determinado tipo de curva (normalmente
logarítmica, ya que es la que reproduce de forma más natural el modo en el
que escuchamos) para marcar el modo en el que se producirá.

● Igualmente, deberá fijar la distancia máxima a la que se escuchará el sonido,


con lo que determinará el radio de la longitud de escucha.
Psicoacústica
● Otro aspecto importante del sonido 3D dentro del modelo psicoacústico es la
oclusión. En ocasiones, los sonidos pueden ser absorbidos, bloqueados o
modificados al contactar con superficies de otros objetos.

● La oclusión altera especialmente las altas frecuencias.

● Si escuchamos el sonido de una habitación cerrada desde fuera, captaremos


el sonido muy amortiguado y con pérdidas en las altas frecuencias; sin
embargo, dentro de la sala la escucha sería clara y limpia.

● Para simular este ambiente sonoro, los motores de middleware filtran en


tiempo real los sonidos de acuerdo a la distancia del personaje y los
obstáculos que estén a su paso. Si éstos se eliminan, se escuchará el sonido
de la fuente en rango completo.
Psicoacústica
Psicoacústica
● Si en el ejemplo anterior la puerta de la habitación se encontrara abierta,
hablaríamos de obstrucción. En este caso, la ruta directa hacia el sonido
se encuentra bloqueada por algún objeto. Así, el sonido rebota en las
paredes y otros objetos antes de llegar al oído. Como resultado, el sonido
se transforma.

● En un juego, el motor de audio se puede configurar para tener en cuenta


esta variación, simulando tiempos de reflexión, superficies y distancia
con el uso de algoritmos complejos para realizar esta tarea.
Psicoacústica
● Un último aspecto a destacar dentro del sonido 3D del modelo
psicoacústico aplicado a los videojuegos es el de la ambientación de
espacios. En el mundo real, no escuchamos igual una voz cuando
estamos al aire libre que dentro de una catedral. La forma en la que
percibimos el sonido cambia radicalmente debido al tiempo de
reverberación.

● La reverb es un efecto que se utiliza ampliamente en los motores de


desarrollo de juego para simular este tipo de entornos. De acuerdo a los
requisitos y el enfoque de diseño sonoro del juego, podemos realizar
variaciones tranquilas y sutiles al cambiar de espacio o bien que se
produzcan de forma repentina y dramática.
Herramientas de trabajo: EAD y Audio
Middleware
● Antes de la aparición de los ordenadores, el método tradicional que se
utilizaba para ajustar un sonido a una imagen era el de cortar una
grabación de una tira magnética perforada y unirla con cinta adhesiva.

● Estas tareas requerían de un trabajo intensivo y lineal, que conllevaba una


gran pérdida de tiempo.

● Una estación de audio digital (EAD), también conocida por sus siglas en
inglés (Digital Audio Workstation - DAW), es un sistema electrónico
dedicado a la grabación y edición de sonido de forma digital mediante el
uso de un software de postproducción de audio, y el hardware necesario,
un ordenador y una interfaz digital encargada del proceso de conversión
analógico-digital, para su funcionamiento.
Herramientas de trabajo: EAD y Audio
Middleware
● Las EAD se utilizan en todas las áreas audiovisuales, desde la producción musical
hasta la postproducción de sonido para cine, televisión y videojuegos.
Habitualmente se suele utilizar el término EAD para referirse únicamente al
software utilizado para la edición y postproducción.

● El estándar de grabación y postproducción a nivel industrial es Pro Tools de Avid.


Integra la grabación, edición y mezcla multipista y MIDI.

● En el sistema operativo de Mac OS X existe el software Logic Pro X. Creado


originalmente por C-Lab, fue adquirida por Apple en el año 2002.

● Otros software de edición y postproducción muy reconocidos son el Nuendo,


desarrollado por Steinberg; Reaper, creado por Cockos, que permite la
programación y modificación de plug-in por código; Ableton Live o Reason.
Herramientas de trabajo: EAD y Audio
Middleware
● Entre las alternativas de software libre, se encuentra el potente Ardour y Qtractor,
entre otros muchos.

● Un plug-in, también conocido en castellano como complemento, es una aplicación


que trabaja dentro de un determinado software para añadirle algunas
funcionalidades. De este modo, se permite que desarrolladores externos
colaboren con el programa principal ampliando sus posibilidades, siempre que
cumplan con sus certificaciones y estándares.

● En el universo de las EAD son muy populares y existen infinidad de plug-in de


todo tipo. Algunos de los más conocidos son los plug-in de empresas como
Waves, iZotope o Native Instruments.
Herramientas de trabajo: EAD y Audio
Middleware
● En la edición de sonido para videojuegos, las EAD se utilizan para la
grabación y edición de sonido de todo tipo para su inclusión en la banda
sonora; sin embargo, a diferencia del cine o la televisión, la sincronización del
sonido con las imágenes no se suele llevar a cabo desde estos programas, ya
que el sonido de los videojuegos no es lineal y se adapta a las circunstancias
y decisiones de los jugadores.

● Las cutscenes o secuencias cinemáticas, intros y trailer serán una


excepción, ya que se trata de vídeos que previamente han sido renderizados
a partir de animaciones. Integrar este tipo de escenas dentro de la banda
sonora del juego requerirá de cierta habilidad por parte del diseñador de
sonido.
Herramientas de trabajo: EAD y Audio
Middleware
○ Las secuencias cinemáticas o cutscene son ciertas partes de un
vídeojuego en las que se rompe la interactividad dentro del juego. El
jugador pierde el manejo de ciertas funciones, o incluso el control
total del mismo.

○ Sirven para unir acciones y niveles y formar una historia coherente


de acuerdo al guion del juego.

○ Donkey Kong de Nintendo (1981) fue el primer videojuego en


introducir una secuencia cinemática, en la que podía verse a un
personaje conocido como Jumpman, que sería el precursor de Super
Mario.
Herramientas de trabajo: EAD y Audio
Middleware
● Los middleware suponen la principal diferencia en la postproducción sonora
de los videojuegos respecto al resto de productos audiovisuales. Son la base
del sonido adaptativo, la esencia sonora de los videojuegos.

● El middleware se encarga de coordinar la interacción sonora con la lógica


del juego.

● Antes de la existencia de los middleware, los diseñadores de sonido


producían sus archivos sonoros en un EAD dándole un formato determinado,
que después el programador debía tomar e ir colocando de forma manual en
los lugares donde supuestamente tenían que reproducirse mediante códigos
y herramientas propietarias de cada estudio.
Herramientas de trabajo: EAD y Audio
Middleware
● La llegada del middleware supone un nuevo motor de desarrollo para el
sondo que convive con el motor gráfico, de modo que permite al diseñador
de sonido, sin ser programador, decidir cómo, cuándo y dónde deben
reproducirse sus sonidos en el juego.

● Por tanto, la principal diferencia que va a aportar al diseñador de sonido de


un videojuego la utilización de un middleware es el control total sobre sus
sonidos. Con un middleware, el diseñador puede trabajar con una interfaz
gráfica, similar a la de cualquier EAD, y entregar la configuración final del
sonido al programador para su inclusión en el motor del juego.
Herramientas de trabajo: EAD y Audio
Middleware
Diseñador de sonido Programador

GUI API

Código fuente del middleware

Motor de desarrollo del juego


Herramientas de trabajo: EAD y Audio
Middleware
● El único parámetro que ambos deben manejar en común es lo que se
conocen como hooks, que permiten integrar el sonido dentro del código del
juego. Por ejemplo, en un juego de conducción, a medida que el vehículo va
acelerando, el sonido del motor irá aumentando en intensidad. El
programador del juego creará un hook que controle ese parámetro y se lo
remitirá al diseñador, que lo asociará a la velocidad del vehículo para que el
sonido cambie en tiempo real.

● Si además tenemos un archivo sonoro para cada una de las marchas del
motor, que vamos mezclando conforme acelera, y manejamos el tono u otros
parámetros, tendremos que hacer uso de un evento, que nos permite
modificar varios parámetros sonoros asociados al mismo tiempo.
Herramientas de trabajo: EAD y Audio
Middleware
● Las dos herramientas de middleware más utilizadas a nivel profesional son
Wwise y FMOD. Wwise, de Audiokinetic, permite la total integración tanto con
plataformas (Playstation, Xbox, Nintendo, iOS, Android, etc.) como con los
principales motores de desarrollo de juegos, incluidos Unity y Unreal Engine.
Ambos cuentan con plug-in para poder usar Wwise en sus motores,
aprovechando características como el soporte de oclusión hacia planos y objetos.
También tiene compatibilidad con EAD como Nuendo y Reaper.

Simulación acústica del audio de una sala.


Fuente: Wwise by Audiokinetik.
Herramientas de trabajo: EAD y Audio
Middleware
● FMOD también ofrece integración con los principales motores de desarrollo y
plataformas de juegos. Además ambos software cuentan con licencia educativa
gratuita, que incluso se extiende a proyectos indie de bajo presupuesto, así como
formación y certificación online gratuita a través de sus webs.
● https://www.fmod.com/learn#tutorials

Sandbox de una escena en FMOD Studio 2.1


Fuente: FMOD.
Herramientas de trabajo: EAD y Audio
Middleware
● Entre las funciones del middleware podemos destacar las siguientes:

○ Crear composiciones musicales dinámicas dirigidas por el juego.

○ Editar, mezclar y masterizar el sonido del juego en tiempo real.

○ Definir el comportamiento del sonido.

○ Crear entornos sonoros 3D.

○ Generar bancos de sonidos para juegos.

○ Implementar sonidos para múltiples plataformas.

○ Comprimir archivos sonoros en multitud de formatos.

○ Integrarse con los principales motores de desarrollo de juegos.


El sonido para vídeo-mapping y vídeo-arte
● El vídeo-mapping es una técnica de proyección utilizada para
convertir cualquier superficie, incluso con formas irregulares, en una
pantalla de proyección.

● Estas superficies pueden pertenecer a paisajes industriales


complejos, como edificios, naves o fábricas, pequeños objetos en
interiores o escenarios teatrales.
El sonido para vídeo-mapping y vídeo-arte
● Mediante el uso de un software especializado, la superficie, ya sea en dos o
tres dimensiones, se asigna espacialmente dentro del entorno virtual de un
software para imitar su desarrollo en el entorno real en el que se proyecta.

● La primera proyección de este tipo se realizó en el año 1969, en la


inauguración de la Mansión Encantada de Disneyland. Allí, una grabación
con cientos de tomas de cantantes, realizada en 16 mm, se proyectaba
sobre unos bustos simulando que estaban animados.
● https://www.youtube.com/watch?v=noriKrB3Cjw 09:20
El sonido para vídeo-mapping y vídeo-arte
Otras aplicaciones del vídeo-mapping

● Fuera del ámbito sonoro, el vídeo-mapping está teniendo otras aplicaciones en el


sector audiovisual.

● Por ejemplo, en la serie producida por Disney sobre el universo Star Wars llamada
The Mandalorian, los fondos digitales de los escenarios se obtenían con una
revolucionaria técnica denominada Stagecraft, proyectados a través de pantallas
LED curvas.

● Las imágenes se diseñaban con Unreal Engine 4, el motor gráfico del estudio de
videojuegos Epic Games. De este modo, los fondos eran dinámicos, modificándose
en función de la posición de las cámaras y la óptica empleada. Con esta
tecnología se ahorran costes al simplificar la búsqueda de localizaciones y la
fabricación de decorados.
El sonido para vídeo-mapping y vídeo-arte
Otras aplicaciones del vídeo-mapping
El sonido para vídeo-mapping y vídeo-arte
● El vídeo-arte, por otro lado, es una forma artística que se basa en el uso de vídeo
con imágenes y audio como medio.

● El vídeo-arte puede tomar muchas formas: grabaciones que se transmiten,


proyecciones en galerías y museos, streaming de contenidos en línea, distribución
de contenidos en soporte físico o actuaciones en vivo utilizando varios monitores
y proyectores para mostrar imágenes y sonidos, ya sea en directo o previamente
grabados.

● Este movimiento artístico surgió en los años 60, considerándose al


norteamericano Nam June Paik el pionero de esta corriente gracias a su obra The
Exposition of Music-Electronic Television, mostrada en la Galería Parnass de
Wuppertal, Alemania.
El sonido para vídeo-mapping y vídeo-arte
● El título que eligió Paik indica su transición de la música a la imagen
electrónica. En la exposición se podría encontrar cuatro pianos
'preparados', objetos sonoros mecánicos, varias instalaciones de discos
y cintas, doce televisores modificados y la cabeza de un buey recién
sacrificado sobre la entrada esperaban a los visitantes. El espectáculo
duró diez días y se abrió durante dos horas entre las 7:30 y las 9:30 p. m.
● http://www.medienkunstnetz.de/works/exposition-of-music/images/8/
El sonido para vídeo-mapping y vídeo-arte
● Por tanto, ambas corrientes confluyen en la utilización de múltiples
pantallas y espacios de proyección y, por otro lado, el uso del sonido
como elemento vertebrador de sus propuestas artísticas.

● La música, en ambos casos, cumple una función completamente


dinámica e interactiva, a menudo controlada en vivo mediante la
combinación de efectos y superposiciones.
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● Como veíamos en el apartado anterior, la música ocupa un papel


primordial en este tipo de manifestaciones artísticas. La gran pregunta
en estos casos suele ser ¿primero se desarrolla la música o las visuales?
Pese a que cada autor tiene su propio flujo de trabajo, la respuesta a
esta pregunta es que, en la mayoría de las ocasiones, ambos trabajos se
desarrollan de forma paralela.
Creación Producción Desarrollo
Situar la historia Grabación de sonidos Programación
Colaborar con la narración Producción musical Desarrollo interactivo
Corrección musical Diseño de sonido Implementación
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● De este modo, los encargados del diseño sonoro estarán presentes desde las
primeras fases creativas del espectáculo, participando y contribuyendo desde el
inicio.

● En grandes proyectos, lo habitual es que la banda sonora se diseñe desde cero,


creando la propia música original para el espectáculo 14 y, si fuera necesario,
adaptando y realizando arreglos de otras obras creadas con anterioridad.

Creación Producción Desarrollo


Situar la historia Grabación de sonidos Programación
Colaborar con la narración Producción musical Desarrollo interactivo
Corrección musical Diseño de sonido Implementación
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● Como podemos ver en la tabla, en estas primeras fases creativas el


diseño sonoro ayudará a cumplir varias funciones, como situar a los
espectadores en un determinado punto espacio-temporal y servir de
punto de apoyo en la narración de la historia que deseemos transmitir.

Creación Producción Desarrollo


Situar la historia Grabación de sonidos Programación
Colaborar con la narración Producción musical Desarrollo interactivo
Corrección musical Diseño de sonido Implementación
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● La aplicación de efectos en directo es otra de las técnicas más


habitualmente empleadas por los vídeo-DJs. Con ellos, se busca la
interacción con el público, dotando de mayor dinamismo el espectáculo
mediante la superposición de multitud de capas de sonido y
combinaciones de efectos superpuestos.

Creación Producción Desarrollo


Situar la historia Grabación de sonidos Programación
Colaborar con la narración Producción musical Desarrollo interactivo
Corrección musical Diseño de sonido Implementación
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● En el caso del vídeo-arte, la interacción con el espectador es


incluso mayor. El hecho de que se encuentre expuesto,
habitualmente en un museo o galería, y que el visitante se
pueda acercar e incluso tocar los elementos que allí se
encuentran, abre todo un abanico de posibilidad
interactivas.

● En su Exhibition unknown de 1963, Nam June Paik


introducía lo que él denominaba "Random Access Music".
Diferentes dispositivos sonoros e instrumentos musicales,
desde tocadiscos hasta flautas, se encontraban por la sala,
acompañando a los monitores que presentaban las visuales.
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● El espectador podía interactuar con ellos y elegir los sonidos con los que
quería acompañar a las imágenes.

● Para Paik, “el indeterminismo y la variabilidad son dos parámetros


subdesarrollados en las artes visuales, aunque han sido el problema
central de la música en los últimos años”.
● Exposición Electronic Superhighway de Nam June Paik.
El sonido para vídeo-mapping y vídeo-arte
Ambientación sonora

● Hoy en día, las posibilidades de interacción con el espectador son mucho mayores
que en aquella época. La llegada de placas inteligentes asequibles como Arduino,
junto con microordenadores como Raspberri Pi y plataformas de desarrollo de
software libre como Pure Data, nos permiten crear música por ordenador
interactiva y obras multimedia en las que el espectador puede ser partícipe y
obtener una inmersión más profunda en la obra.

● En ocasiones también se utilizan voces de figuración y narradores. Esto es muy


habitual dentro de actividades culturales y festivales de arte visual, como el Art
Vision de Moscú o el Festival of Lights de San Petersburgo. Las voces cumplen
una doble función, ambientadora y conductora de la historia. En este caso, la
grabación se realiza previamente en estudio, como cualquier voz en off o ADR.
El sonido para vídeo-mapping y vídeo-arte
Función gramatical

● En un espectáculo de vídeo-mapping, la música cumple diversas


funciones. Como ya hemos analizado en el apartado anterior, además de
contribuir con una función meramente estética, acompañando a las
imágenes proyectadas, el sonido también ayuda a situar la historia,
participar en su narración y a mejorar la inmersión e incluso a estimular
la participación de los espectadores.

● Otra de las funciones del sonido importantes en este tipo de


manifestaciones artísticas será la de ordenar y distribuir las distintas
partes del espectáculo.
El sonido para vídeo-mapping y vídeo-arte
Función gramatical

● Al igual que en la radio o la televisión, donde una sintonía o una ráfaga nos
recuerdan en qué momento del programa nos encontramos o en qué sección
del mismo, en una sesión de vídeo-mapping el sonido puede servir para
anticipar la transición entre sus distintas partes (al igual que el
encabalgamiento sonoro en el cine).

● Un ejemplo obvio sería el propio uso de transiciones, como un crossfade o un


fade out para señalar una transición o el final de una parte o sección; pero
musicalmente podemos hacer que los cambios sean mucho más ricos y
dinámicos. Una de las funciones más utilizadas por los vídeo-DJs son los
stems.
El sonido para vídeo-mapping y vídeo-arte
¿Qué son los stems?

● Los stems son reorganizaciones verticales de una pieza musical. Se


crean utilizando secciones musicales que se pueden silenciar por
intervalos y volver a combinar de muchas maneras diferentes para
aumentar la variación musical.

● Podemos agrupar en stems distintas secciones de una pieza musical


(por ejemplo: cuerda, percusión, teclados y voces) y elegir aquellas que
queramos que se escuchen y cuáles no.
El sonido para vídeo-mapping y vídeo-arte
Función gramatical

● Con los stems, podemos obtener nuevos recursos sin necesidad de


grabar más material musical por simple sincronización y combinación
entre ellos. Ir añadiendo o suprimiendo stems hará que la tensión vaya
aumentando o relajando entre el público.

● Otro de los elementos con el que podemos jugar es el tempo. Acelerar o


ralentizar la música genera efectos psicológicos en los oyentes. Reducir
el tempo nos evoca momentos siniestros y premonitorios, mientras que
un tempo rápido anticipa un aumento de energía y alegría.
El sonido para vídeo-mapping y vídeo-arte
Función gramatical

● Los cambios de tono y en la dinámica del sonido nos hacen prever de


momentos tristes o alegres, según si los cambios van hacia tonalidades
menores y niveles más suaves o, al contrario, tonalidades mayores y
niveles más altos.

● Las voces también contribuirán, mediante la narración, a estructurar los


espectáculos. En aquellos shows que utilicen la voz en off, ésta será un
elemento organizativo básico.
El sonido para vídeo-mapping y vídeo-arte
Integración sonora

● Integrar correctamente las visuales y sonidos es uno de los grandes retos a


los que nos enfrentamos en este tipo de espectáculos.

● Una buena integración sonora dota de mayor sensación de realismo a la


imagen, además de marcar el ritmo de la escena y alertar al espectador de lo
que está por llegar. Además de transmitir información, ayuda a crear la
atmósfera o el ambiente deseado para nuestra proyección.

● Uno de los aspectos que puede contribuir a una mayor integración es la


localización de nuestro proyecto. No dejar que el espacio sobre el que vamos
a proyectar sea una mera pantalla, sino que tratemos de añadir referencias
culturales, rítmicas y sonoras propias del lugar dentro de nuestra obra.
El sonido para vídeo-mapping y vídeo-arte
Integración sonora

● Cuando se vaya a preparar la banda sonora para un espectáculo de vídeo-


mapping o vídeo-arte, hay que tratar de grabar e integrar efectos sonoros
que formen parten del propio ambiente en el que se vaya a desarrollar.

● En la inauguración del Campeonato del Mundo de Karate, celebrado en


Madrid en 2018, se introdujeron en el diseño sonoro algunos sonidos
previamente grabados de los movimientos de diferentes katas, roces de
kimonos o las respiraciones y gemidos de los propios deportistas. Esto
ayudará a mejorar la inmersión del espectador y a que tu banda sonora
tenga mucha mayor riqueza expresiva.

También podría gustarte