Está en la página 1de 34

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA EDUCACION


UNIVERSITARIA

MINISTERIO DEL PODER POPULAR PARA LA CULTURA

UNIVERSIDAD NACIONAL EXPERIMENTAL DE LAS ARTES

AUDIO PERCEPTIVA I

EL MAL USO DE LA TECNOLOGÍA EN LA CREACIÓN


DE CANTANTES SIN PREPARACIÓN MUSICAL Y SU
INFLUENCIA EN LA SOCIEDAD

Profesor: Bachilleres:

Puerto La Cruz, 15 de junio del 2021

INDICE

INTRODUCCIÓN……………………………………………………………………………03

1
LA TECNÓLOGÍA Y EL ARTE……………………………………………………………05

EVOLUCIÓN DE LA MUSICA A TRAVÉS DEL DESARROLLO TECNOLÓGICO…07

LA TECNOLOGÍA MUSICAL………………………………………………………………08

PRODUCCIÓN MUSICAL…………………………………………………………………12

EL AUTO-TUNE………………………………………………………………………………26

EL MAL USO DE LA TECNOLOGÍA (PROBLEMÁTICA)……………………………28

SOLUCIÓN DEL PROBLEMA……………………………………………………………30

CONCLUSIÓN……………………………………………………………………………….32

BIBLIOGRAFÍA……………………………………………………………………………34

INTRODUCCIÓN

2
En las últimas décadas del siglo XX asistimos a una profunda innovación en la que las
nuevas creaciones tecnológicas originaron transformaciones en nuestras vidas y en las
relaciones sociales provocando el inicio de una nueva etapa de la evolución humana. La
tecnología hoy en día es parte de nuestras vidas diarias, ¿Cuántos de nosotros nos
levantamos en la mañana y lo primero que hacemos es revisar nuestro celular o abrir la
computadora para revisar el correo, etc.? Esto nos indica que la mayoría de nosotros
dependemos de la tecnología. Aunque hoy en día esto no es una cosa mala en su
totalidad, puede decirse que en lo que se refiere al mundo de la música, si le ha hecho
un cierto daño.

La música ha estado cambiando, evolucionando y desarrollándose durante miles de


años, y se sabe que cada vez que cambia la sociedad, también lo hace la música. La
música es la forma en que nos expresamos, nos da una voz y un escape. Es una parte de
nosotros, así que tiene sentido que cambie a medida en que nosotros también lo
hacemos.

Como ya se mencionó, en las últimas décadas, los mayores cambios han sido en los
avances tecnológicos, las nuevas tecnologías nos han traído nuevas maneras de
entretenimiento, pero si somos más específicos podemos decir que ha traído una nueva
forma de hacer e interpretar el arte. Estas dos disciplinas, aparentemente distintas, están
más relacionadas que nunca, siendo la tecnología una fuerza fundamental en el
desarrollo y evolución del arte.

En todo el mundo, hay gente diseñando nuestro futuro. Internet, la fabricación digital, la
nano y biotecnología, auto-modificación, la realidad aumentada o virtual, etc, todo esto
está alterando nuestras vidas y nuestra visión del mundo y de nosotros mismos.

A lo largo de la historia y hasta hace poco tiempo, era una élite o un grupo calificado de
personas las que participaban sobre todo en el desarrollo y creación del arte, mientras
que el resto de la sociedad simplemente disfrutaba de las obras maestras. El público solo
observaba de manera pasiva.

Hoy día, en nuestro mundo conectado, casi toda la gente crea. Con internet y las nuevas
tecnologías de fabricación, mezcla, edición, manipulación y distribución, se facilita
crear cosas y compartirlas con el mundo.

Ahora es importante resaltar que lo que está cambiando, y puede ser que
(discutiblemente) para peor, es que ahora es más fácil crear "arte" y vemos una gran
cantidad de arte "malo" que se crea y se expone. Una gran preocupación es que, como
resultado de tantas herramientas y técnicas nuevas, podamos perder el sentido y la
habilidad para evaluar qué es el arte de buena calidad.

En arte, (lo que se hace popular no es necesariamente bueno), muchas ideas y trabajos
artísticos nuevos fueron difíciles de digerir cuando aparecieron por primera vez.

Siendo específicos y refiriéndonos a la parte del canto, podemos decir que la tecnología
ha tenido un impacto que no es del todo bueno, tanto en el cantante como en la

3
sociedad, pues la producción actual de música se ha visto muy afectada, muchos artistas
confían en la tecnología de sintonización automática, por lo que cualquier imperfección
en su tono puede corregirse instantáneamente, se puede hacer que las voces suenen
completamente diferentes en un estudio de grabación, lo que le quita veracidad al arte
musical y a los artistas, este problema aunque parezca más bien beneficioso provoca en
la sociedad una idea errónea de lo que es el buen arte, y también un mal concepto de lo
que es el estudio y la preparación musical.

Aunque ya se ha estado utilizando este método, tal vez no de la manera en que debería
ser, por medio de estudios y argumentos podemos proponer la inclusión de la educación
musical en el sistema de educación pública y privada para de esa forma lograr un
entendimiento eficaz a la hora de interpretar o reconocer el verdadero concepto del
estudio y el empleo del arte. En este caso hablaremos centrándonos más en el tema
tratado que es: (la música y el cantante).

4
LA TECNÓLOGÍA Y EL ARTE

A lo largo de la historia, la tecnología ha ofrecido nuevas herramientas de expresión a


los artistas. Actualmente estas dos disciplinas, aparentemente distintas, están más
relacionadas que nunca, siendo la tecnología una fuerza fundamental en el desarrollo y
evolución del arte.

En el área musical las nuevas tecnologías han cambiado radicalmente los sonidos y
también el contacto que tenemos con la música en la forma en que la escuchamos. Hasta
hace poco tiempo, la única forma de escuchar música era verla y escucharla en vivo.
Pero con la invención de la tecnología de grabación, hemos pasado gradualmente de los
registros, a los casetes, a los CD, y a los servicios de transmisión de música.

Escuchar las pistas recién lanzadas ya no es tan emocionante como lo era anteriormente.
En lugar de la emoción de comprar un disco o CD, o incluso de ver al artista en vivo,
simplemente hacemos clic en un enlace y escuchamos la canción en cuestión de
minutos.

Los servicios de transmisión de música significan mucho para los artistas que pueden
hacer escuchar su música en cualquier parte del mundo, en cualquier momento. Cada
artista tiene acceso a potencialmente millones de oyentes, e incluso sin ninguna táctica
de marketing, puede encontrar nuevos oyentes que se topan con su trabajo cuando
buscan otras canciones o cuando escuchan “radios” a nivel mundial en los servicios de
transmisión de música.

Los científicos, programadores de software informático, inventores, emprendedores y


también músicos, artistas visuales, directores de cine y diseñadores están ocupados
creando nuevas experiencias humanas. Gracias a ellos, no sólo se está haciendo un arte
original en todas partes, sino que formas de arte completamente nuevas también están
evolucionando. Cada vez más artistas empujan los límites del arte, mirando más allá de
lo que se considera "tradicional" para incorporar otros aspectos en su trabajo y de esta
forma el arte se está haciendo cada vez menos estático, adoptando muchas formas
diferentes.

Conectar el uso de la tecnología con la música tiene un fin muy peculiar: derribar


cualquier barrera o límite a la creatividad antepuesto en una época anterior. El uso de la
tecnología en la música afecta tanto a la composición y grabación como a la
reproducción.

Como hemos dicho, en las últimas décadas del siglo pasado asistimos a una profunda
innovación tecnológica en la que se originaron transformaciones en nuestras vidas y en
las relaciones sociales provocando el inicio de una nueva etapa de la evolución humana
conocida con el nombre de Sociedad de la Información.

5
El motor que provoca estos cambios en la sociedad, la llamada revolución digital, es el
conjunto de innovaciones tecnológicas que han hecho posible que la información
(sonido, imagen, texto) se digitalice, es decir, que se transmita a gran velocidad gracias
a la simplificación de estos datos a combinaciones de ceros y unos integradas dentro de
un circuito electrónico. Estos avances tecnológicos convergieron todos sobre la misma
materia prima, la información, así como en la creación y el uso de redes de
comunicaciones.

La Sociedad de la Información, denominada también post-industrial, posmoderna o


sociedad del conocimiento, es una nueva etapa de desarrollo social dentro de la
evolución de la sociedad moderna, caracterizada por la capacidad de sus miembros para
obtener y compartir información. De la misma forma que la revolución industrial
modificó la sociedad agraria en el último cuarto del siglo XIX, en la actualidad se está
fraguando una nueva forma de organización económica y social. En ella, además de
acceder y utilizar los servicios prestados por otros para cualquier actividad, cada
persona dispone no sólo de sus propios almacenes de información, sino también de la
capacidad de acceder a la información generada por los demás, compartirla, modificarla
y participar activamente en la construcción social del conocimiento.

Los procesos de creación y consumo de información se han democratizado permitiendo


un acceso amplio y universalizado. Este cambio ha desencadenado un proceso de
transformación de los valores y actitudes sociales cuyo alcance es aún imprevisible. Por
otra parte, también ha hecho aparecer nuevos modelos de desigualdad relacionados con
el acceso a ese mundo de la información.

Si nos referimos específicamente a la estrecha relación entren música y tecnología


tenemos que decir que ya cuando a finales del siglo XIX se logra por primera vez
“capturar” el sonido registrándolo en un soporte, da comienzo un proceso trascendental
en la historia social de la Música.

La Tecnología, que como tal siempre había estado asociada al devenir y al desarrollo
musical, da un golpe de efecto y se instala, definitivamente, en el futuro de la Música.
El paso del tiempo no ha hecho sino confirmar esta realidad. Lo cierto es que la relación
de la Música con el desarrollo tecnológico es tan antigua como la propia existencia del
fenómeno musical. Desde el mismo instante en el que ser humano imagina una forma a
través de la cual producir sonidos que le resultan agradables valiéndose de medios e
instrumentos que residen fuera de sí; desde ese punto en el que la voz y el propio cuerpo
dejan de ser las únicas fuentes de producción musical, se inicia un camino de
“instrumentalización” de la realidad. Desde entonces, ya en dicho momento, se origina
la relación entre Música y desarrollo tecnológico.

Todas y cada una de las reflexiones que sobre este particular podamos hacer, todas y
cada una de las miradas que realicemos hacia nuestro entorno más inmediato habla de
ello. La relación entre Música y Tecnología es tan estrecha que ha transformado
profundamente no solo las estructuras de creación, producción y consumo musical, sino

6
que es un estímulo generativo incesante del escenario educativo y cultural en el que
vivimos.

Las nuevas tecnologías de la información y la comunicación suponen un trascendental


paso, un nuevo estadio evolutivo de esa provechosa relación. Sus aplicaciones, y la
incidencia social de estas, cubren todos los ámbitos relacionados con el fenómeno
musical: desde la interpretación, a la composición, pasando por el nuevo escenario de
consumo y ocio musical al que asistimos.

EVOLUCIÓN DE LA MUSICA A TRAVÉS DEL DESARROLLO


TECNOLÓGICO

El desarrollo y utilización que las Tecnologías de la Información y la Comunicación han


experimentado en las últimas décadas supone una auténtica revolución en los sistemas
de producción sonora, composición, interpretación y consumo musical. Pero conviene
recordar que esta estrecha relación entre el sonido y la tecnología no es nueva: la
Música siempre ha estado ligada estrechamente al devenir tecnológico. Como ya hemos
dicho en el mismo momento en el que el ser humano trasciende su propio cuerpo para
producir sonidos ya está usando una tecnología. La creación de artefactos que generaran
sonidos supuso, por tanto, un gran avance tecnológico. Los primeros luthiers fueron
capaces ya, desde el origen de la humanidad, de idear una gran diversidad de
instrumentos con los recursos de los que disponían.

Con el paso del tiempo, los instrumentos, los espacios de representación, las técnicas
compositivas o el conocimiento de los principios sonoros siguieron experimentado
cambios e innovaciones gracias a la mejora de las tecnologías, lo que provocó también
una mayor especialización de los profesionales de la música y una serie de cambios en
los hábitos de consumo musical (creación de públicos, nacimiento del concepto de
derecho de autoría, etc.) Hasta que llegó el momento en el que el ser humano, gracias a
los primeros sistemas de grabación sonora (fonógrafo, gramófono…) descubrió a finales
del siglo XIX una forma de registrar de forma perenne la música, dando comienzo, con
ello, una auténtica y progresiva revolución que aún continuamos experimentando. Y es
que, no cabe duda, la grabación musical es, en palabras de Solomos, una segunda
mutación evolutiva de la música por medio de las tecnologías: “la música se centra cada
vez más en el sonido, abandonando o dejando de lado categorías como la melodía, la
armonía, etc. La posibilidad gracias al surco cerrado, de aislar un sonido y repetirlo
hasta el infinito sitúa al “sonido” como la nueva categoría de la música”.

Es enorme la importancia que estos dispositivos han tenido para la evolución de la


música y cómo ha cambiado nuestra relación con la realidad musical gracias a los
medios tecnológicos: la percepción que tenemos de lo que escuchamos, la formas de

7
consumo musical, el modo de acercarnos a una audición, las capacidades creativas que
nos han otorgado, etc.

Algunos sonidos surgen de manipular o sintetizar electrónicamente realidades sonoras.


Pero hay otros casos, como el de una explosión en el espacio, que ni siquiera existen en
la realidad y que se crean para las películas de acción o los dibujos animados. Además,
cuando escuchamos una grabación musical raramente ponemos en tela de juicio la
veracidad de lo que oímos, aunque lo cierto es que el resultado sonoro es una
convención social, como tantas otras, que se basa en un pacto de verosimilitud. Por lo
tanto, una de las mayores ventajas que nos han proporcionado los dispositivos de
grabación/reproducción del sonido ha sido que nos ha abierto la posibilidad de
modificar, transformar o amplificar estos hasta tal punto de podremos llegar a crear
sonidos nuevos, lo que nos permite contar con una ilimitada paleta acústica con la que
desarrollar nuestra imaginación creativa.

LA TECNOLOGÍA MUSICAL

HISTORIA

La tecnología musical es un campo de conocimientos que se enfoca en el uso de


cualquier dispositivo, mecanismo, máquina o herramienta física o en software por parte
de un artista para hacer o interpretar música, para componer, anotar, reproducir o grabar
obras musicales, para analizar o editar música o para crear/reproducir fuentes sonoras
alternativas. Las primeras aplicaciones conocidas de la tecnología en la música fueron el
uso de una herramienta por parte de los pueblos prehistóricos para perforar agujeros en
los huesos con el fin de hacer flautas simples. Antiguos egipcios desarrollaron
instrumentos de cuerda, como arpas, liras y laúdes, que requerían hacer cuerdas
delgadas y algún tipo de sistema de clavijas para ajustar el tono de las cuerdas. Los
antiguos egipcios también usaban instrumentos de viento e instrumentos de
percusión como platillos. En la antigua Grecia, los instrumentos incluían los aulos
de doble caña y la lira. En la Biblia se hace referencia a numerosos instrumentos,
incluidos el cuerno, la pipa, la lira, el arpa y la gaita. Durante los tiempos bíblicos,
también se usaban cornetas, flautas, cuernos, órganos, pipas y trompetas. Durante
la Edad Media, la notación musical se utilizó para crear un registro escrito de las notas
de melodías sencillas.

Durante la era de la música del Renacimiento, se inventó la imprenta, lo que hizo


mucho más fácil producir música en masa (que previamente había sido copiada a
mano). Esto ayudó a difundir estilos musicales más rápidamente y en un área más
grande. Durante la era barroca (1600–1750), se desarrollaron tecnologías
para instrumentos de teclado, lo que condujo a mejoras en los diseños de órganos de
8
tubos y clavecines, y al desarrollo de un nuevo instrumento de teclado en
aproximadamente 1700, el piano. En la era clásica, Beethoven agregó nuevos
instrumentos a la orquesta para crear nuevos sonidos, como el flautín, el contrabajo,
los trombones y la percusión no afinada en su Novena Sinfonía. Durante la era de
la música romántica (c. 1810–1900), una de las formas clave en que las nuevas
composiciones se dieron a conocer al público fue mediante la venta de partituras, que
los amantes de la música aficionados interpretarían en casa en su piano u otros
instrumentos. En el siglo XIX, se agregaron a la orquesta nuevos instrumentos
como saxofones, bombardinos, tubas de Wagner y cornetas.

A principios del siglo XX, con la invención y popularización del disco de


gramófono (comercializado en 1892) y la transmisión de radio (a partir de una base
comercial hacia 1919-1920), hubo un gran aumento en la escucha de música, y fue más
fácil distribuir música a un público más amplio. El desarrollo de la
grabación de sonido tuvo una gran influencia en el desarrollo de géneros musicales
populares, ya que permitió que las grabaciones de canciones y bandas se distribuyeran
ampliamente.

La invención de la grabación de sonido dio lugar a un nuevo subgénero de la música


clásica, el estilo concreto de composición electrónica de Musique. La invención de la
grabación multipista permitió a las bandas pop sobregrabar muchas capas de pistas de
instrumentos y voces, creando nuevos sonidos que no serían posibles en una actuación
en vivo.

A principios del siglo XX, se utilizaron tecnologías eléctricas como pastillas


electromagnéticas, amplificadores y altavoces para desarrollar nuevos instrumentos
eléctricos como el piano eléctrico (1929), la guitarra eléctrica (1931), el órgano
electromecánico (1934) y el bajo eléctrico (1935). ) La orquesta del siglo XX ganó
nuevos instrumentos y nuevos sonidos. Algunas piezas de orquesta usaban
la guitarra eléctrica, el bajo eléctrico o el Theremin.

La invención del transistor en miniatura en 1947 permitió la creación de una nueva


generación de sintetizadores, que se utilizaron por primera vez en la música pop en la
década de 1960. A diferencia de las tecnologías de instrumentos de teclado anteriores,
los teclados de sintetizador no tienen cuerdas, tuberías ni dientes metálicos. Un teclado
sintetizador crea sonidos musicales utilizando circuitos electrónicos o,
posteriormente, chips de computadora y software.

Los sintetizadores se hicieron populares en el mercado masivo a principios de la década


de 1980. Con el desarrollo de potentes microchips, se introdujeron una serie de nuevas
tecnologías de música electrónica o digital en la década de 1980 y décadas posteriores,
incluidas las cajas de ritmos y los secuenciadores de música.

Las tecnologías de música electrónica y digital son cualquier dispositivo, como una
computadora, una unidad de efectos electrónicos o software, que es utilizado por un
músico o compositor para ayudar a hacer o interpretar música. El término generalmente

9
se refiere al uso de dispositivos electrónicos, hardware informático y software
informático que se utiliza en la interpretación,
reproducción, grabación, composición, grabación y reproducción de sonido, mezcla,
análisis y edición de música.

LA MUSICA EN LOS SIGLOS XX Y XXI

Con la música del siglo XX, hubo un gran aumento en la escucha de música, ya que la
radio ganó popularidad y los fonógrafos se usaron para reproducir y distribuir música.
La invención de la grabación de sonido y la capacidad de editar música dieron lugar a
nuevos subgéneros de la música clásica, incluidas las escuelas de composición
electrónica acústica y Musique concrète. La grabación de sonido también fue una
influencia importante en el desarrollo de géneros musicales populares, ya que permitió
que las grabaciones de canciones y bandas se distribuyeran ampliamente. La
introducción del sistema de grabación multipista tuvo una gran influencia en la música
rock, ya que podía hacer mucho más que grabar la actuación de una banda. Utilizando
un sistema multipista, una banda y su productor musical podrían sobregrabar muchas
capas de pistas de instrumentos y voces, creando nuevos sonidos que no serían posibles
en una actuación en vivo.

La orquesta del siglo XX fue mucho más flexible que sus predecesoras. En la época de
Beethoven y Felix Mendelssohn, la orquesta estaba compuesta por un núcleo bastante
estándar de instrumentos que rara vez se modificaba. A medida que pasaba el tiempo, y
a medida que el período romántico vio cambios en la modificación aceptada con
compositores como Berlioz y Mahler, el siglo XX vio que el compositor prácticamente
podía elegir la instrumentación. Los saxofones se usaron en algunas partituras de
orquesta del siglo XX, como las Sinfonías 6 y 9 de Vaughan Williams y la Fiesta de
Belshazzar de William Walton, y muchas otras obras como miembro del conjunto
orquestal. En la década de 2000, la orquesta moderna se estandarizó con la
instrumentación moderna que incluye una sección de cuerda, instrumentos de viento de
madera, instrumentos de metal, percusión, piano, celeste e incluso, para algunas obras
del siglo XX o XXI, instrumentos eléctricos como guitarra eléctrica, eléctrica. bajo y / o
instrumentos electrónicos como el Theremin o el sintetizador.

10
ELÉCTRICO Y ELECTROMECÁNICO

La tecnología de música eléctrica se refiere a instrumentos musicales y dispositivos de


grabación que utilizan circuitos eléctricos, que a menudo se combinan con tecnologías
mecánicas. Ejemplos de instrumentos musicales eléctricos incluyen el piano
eléctrico electromecánico (inventado en 1929), la guitarra eléctrica (inventada en 1931),
el órgano Hammond electromecánico (desarrollado en 1934) y el bajo eléctrico
(inventado en 1935). Ninguno de estos instrumentos eléctricos produce un sonido que
sea audible para el intérprete o la audiencia en un entorno de actuación a menos que
estén conectados a amplificadores de instrumentos y gabinetes de altavoces, lo que los
hizo sonar lo suficientemente alto como para que los intérpretes y la audiencia los
escuche. Los amplificadores y altavoces están separados del instrumento en el caso de la
guitarra eléctrica (que usa un amplificador de guitarra ), bajo eléctrico (que usa un
amplificador de bajo) y algunos órganos eléctricos (que usan un altavoz Leslie o un
gabinete similar) y pianos eléctricos. Algunos órganos eléctricos y pianos eléctricos
incluyen el amplificador y la caja del altavoz dentro de la carcasa principal del
instrumento.

ELECTRÓNICA O DIGITAL

La tecnología de música electrónica o digital es cualquier dispositivo, como una


computadora, una unidad de efectos electrónicos o software, que es utilizado por un
músico o compositor para ayudar a hacer o interpretar música. El término generalmente
se refiere al uso de dispositivos electrónicos, hardware informático y software
informático que se utiliza en la interpretación, reproducción, grabación, composición,
grabación y reproducción de sonido, mezcla, análisis y edición de música. La tecnología
de música electrónica o digital está conectada a la creatividad artística y tecnológica.
Los músicos y los expertos en tecnología musical se esfuerzan constantemente por idear
nuevas formas de expresión a través de la música, y físicamente están creando nuevos
dispositivos y software para que puedan hacerlo. Aunque en la década de 2010, el
término se usa más comúnmente en referencia a dispositivos electrónicos modernos y
software de computadora, como estaciones de trabajo de audio digital y software de

11
grabación de sonido digital Pro Tools, las tecnologías musicales electrónicas y digitales
tienen precursores en las tecnologías de música eléctrica de principios del siglo XX.,
como el órgano electromecánico de Hammond, que se inventó en 1929. En la década de
2010, el rango ontológico de la tecnología musical ha aumentado considerablemente, y
ahora puede ser electrónico, digital, basado en software o incluso puramente conceptual.

PRODUCCIÓN MUSICAL

La producción musical es el proceso por el cual se genera un producto sonoro a través


de la conceptualización creativa de la obra, su composición musical y su fijación (física
y/o digital) a través de sistemas de grabación, mezcla y masterización.

Por obra nos podemos referir a cualquier cosa que tenga como principio una idea
musical.

Puede ser una sóla canción o un grupo de canciones, un jingle para fines promocionales,
una cortinilla para algún programa de radio o televisión, o un audio branding para un
producto, servicio, o marca en particular.

En el proceso de producción musical participan diferentes profesionales para poder


ejecutar cada uno de los pasos para la mejor elaboración del producto final.

Sin embargo, el agente más importante en este proceso es el Productor Musical.

PRODUCTOR MUSICAL

Un productor musical es aquél profesional capaz de aterrizar la idea creativa detrás del
concepto musical de la obra y proponer la mejor estructura y su óptima ejecución con
fines comerciales.

Además de eso, el productor musical participa en los procesos de grabación y mezcla; e


incluso de masterización. Se apoya en profesionales como ingenieros y asistentes en
cada uno de los procesos, pero la realidad es que un productor musical es capaz de hacer
todas esas tareas.

Los tiempos han cambiado y a pesar de que antes en la industria musical era necesaria la
participación de todo un equipo para la adecuada producción musical, hoy en día
incluso los mismos músicos, artistas y creadores se han convertido en productores
musicales de sus obras.

Para entender mejor el papel del productor musical, hay que comprender las etapas que
componen el proceso de producción musical y cómo interviene el productor musical en
cada una de ellas.

12
ETAPAS DE LA PRODUCCIÓN MUSICAL

Conceptualización de la idea creativa

La conceptualización de la idea creativa es una de las etapas más importantes porque


sirve como hilo conductor sobre el cual se desarrollara el producto musical. No es
forzoso definirlo desde el inicio, ya que es posible que exista la obra en forma de demo
y el concepto creativo se puede ir desarrollando a lo largo del proceso de producción
musical. Incluso durante la grabación es posible que el concepto detrás de la obra
cambie y se hagan los ajustes pertinentes.

Ahora, el creador le da un sentido más humanista y artístico al concepto, el productor


musical se encarga de moldearlo para justificar su objetivo comercial. Es decir, buscará
que la obra suene a algo que la gente quiera escuchar y que genere dinero sonando lo
mejor posible.

En tiempos ancestrales, cuando las disqueras reinaban la industria musical, la


conceptualización artística se ponía en disputa dependiendo de los intereses del mismo
sello. Si lo que quería era vender más a costa de lo que el artista quisiera crear, la
conceptualización quedaba en segundo plano.

Y así comenzaron las diferencias entre artistas y las grandes corporaciones.

Por lo general se involucraba el manager, arreglistas, canta-autores, el representante


artístico, los asociados del sello, el productor y hasta el abogado. Afortunadamente, hoy
en día el creador (que suele ser el mismo artista) tiene más poder de decisión sobre lo
que quiere hacer con su obra. Y en la escena independiente, es común que el mismo
artista sea el productor musical de su obra.

13
La Composición en la Producción Musical

En el proceso de la producción musical, esta es la etapa de ejecución sobre el que el


concepto se va a sostener.

Aquí se estructura musicalmente la obra y se le da sentido. Arreglistas se pueden sumar


para darle fuerza a la obra y complementarla con más intrumentación, coros, etc.

Es posible que ya exista la composición como tal por parte de los músicos o creativos.
Al final, el papel del productor musical estará en darle estructura si es necesario y
propondrá mejoras para obtener un mejor producto.

Una de las habilidades que debe tener un productor musical es el de saber el lenguaje
musical. El productor musical es un visionario por naturaleza y por eso se le confía el
rumbo del producto final. Y la única forma de lograrlo es a través de la mejor
comunicación con el creador. Es decir, el productor musical debe saber de música para
entender lo que el creador quiere hacer con su obra. Si no habla su lenguaje, muy
difícilmente podrá convencerlo de que sus ideas son lo mejor para el producto final.

Es común que artistas amateurs tengan tantas ideas y entusiasmo por poner todo en una
canasta. Que al final resulta en canciones muy complejas, con excesos de sonidos y a
veces sin estructura. Incluso muchos creadores son líricos y no tienen formación
musical. Ahí el reto del productor musical para negociar que se queda y que se va a
favor del producto y en beneficio de los creadores.

Proceso de Grabación en la Producción Musical

Una vez que el tema o canción está compuesta y se ha ensayado lo suficiente, es


momento de grabar instrumentos, voces, efectos y todo lo necesario para que quede fijo
en un formato físico o digital. De manera estándar, los creadores y el productor musical
se apoyan en ingenieros y asistentes de grabación. Si bien el ingeniero de grabación es
aquel que conoce a detalle el trasfondo físico y operativo detrás del lugar donde se
grabará, el productor también debe entender estos aspectos.

El productor musical debe conocer de acústica, audio, software y hardware,


procesadores, sintetizadores, electrónica y sobre todo sobre el equipo involucrado en el
proceso de producción musical. Como instrumentos, micrófonos, tipos de cables,
consolas, mezcladoras, sistemas de PA, backline y demás. Así como el productor debe
ser capaz de comunicarse con músicos, éste también debe traducir las intenciones
artísticas a mensajes operativos en el proceso de grabación. Como proponer el uso de
ciertos amplificadores o micrófonos o técnicas de grabación para que suene a lo que
debe sonar según el concepto creativo. Y aunque él no sea forzosamente quien opere los
sistemas, al final debe estar vigilando que se esté llevando adecuadamente.

14
Hoy en día el mismo productor también puede ser el ingeniero de grabación y por ende,
el mismo artista o creador puede ser su mismo ingeniero de grabación. Los tiempos ya
son otros.

Etapa de Mezcla en la Producción Musical

El proceso de grabación termina cuando ya se tiene fijo todos los sonidos que formarán
parte de la obra. Actualmente el formato utilizado por excelencia es el digital, pero aún
existen lugares donde se fija en cintas electromagnéticas aunque ya no es muy común.

En el proceso de mezcla, ya sea el productor musical con o sin apoyo de un ingeniero de


mezcla, ambos visualizan el espacio sonoro sobre el cual se ubicaran todos los sonidos
grabados.

Lo importante es entender que en esta etapa se le da cuerpo y espacio a todo lo que se


grabó en la etapa anterior. Esto con ayuda de más procesamiento de audio,
direccionamiento del sonido (paneos), limpieza de las grabaciones, equilibrio sonoro,
ecualización y demás. Todo esto también debe ser parte de lo que es un productor
musical y por eso su importancia en todo este proceso que compone la producción
musical.

La Masterización en la Producción Musical

La última etapa para que esa obra musical quede bien pulida y hermosa. Así es, la
masterización es un proceso casi artesanal y de operación especializado. Este proceso es
como mágico, ya que es aquí donde se le da ese toque para que el resultado sonoro sea
como de otro mundo. Se utiliza tecnología especializada para acentuar frecuencias,
darle apertura sonora extrasensorial a la obra e incluso una independencia única a cada
sonido.

Al escuchar el producto en mezcla y luego en máster, es notorio el cambio. Los


especialistas en masterización se habían considerados gurús y maestros que requierían
años de experiencia para lograr un excelente nivel de especialización. Sin embargo, la
tecnología en la producción musical ha avanzado tanto, que existe software para
masterizar cualquier cosa en cuestión de minutos.

El nuevo milenio le dió un golpe muy fuerte a la industria musical y desde los años
2000’s hemos visto una serie de efectos que han transformado todos y cada uno de los
procesos y agentes involucrados en la producción de cualquier obra musical. Tales
como:

 La piratería y descarga ilegal de contenido digital (entre ellos obras musicales).

15
 La caída de grandes sellos discográficos.

 La desaparición de grandes estudios de grabación.

 El acceso a tecnología avanzada y práctica para producir música.

 El boom de las redes sociales y la promoción/distribución “gratuita”.

 Los servicios de streaming digital como la nueva forma de consumo.

 La aparición de más creadores digitales (artistas, vloggers, youtubers,


influencers).

 El desarrollo de home studios y la portabilidad en dispositivos para producir.

 El abaratamiento de la mano de obra en la industria musical.

 Devaluación en la producción musical.

 Independización de artistas y creadores digitales.

Y con todos estos fenómenos, la producción musical pasó de ser un proceso exclusivo y
hermético de la industria musical en espacios de ensueño, a ser un proceso que hoy en
día artistas independientes ya hacen sin esfuerzo alguno.

ALGUNOS DE LOS ELEMENTOS TECNOLÓGICOS BÁSICOS QUE SE


UTILIZAN PARA CREAR MÚSICA Y HACERLA MÁS ATRACTIVA AL
PÚBLICO

 Computadora:

Este es uno de los elementos esenciales para producir música, ya que sin él no
podríamos hacer nada. Sin embargo hay que tener en cuenta que aunque sea una
MAC o una PC, se necesitan o se requieren ciertos elementos para poder
empezar a producir.Por lo mínimo sedebe tener unos 8 gigas de memoria RAM,
un procesador de varios núcleos y un Board compatible, es decir, que pueda
tener una buena compatibilidad ya sea,con el sistema operativo, el software y los
componentes que se le coloquen.:

 Micrófonos:

Este es uno de los componentes claves para poder producir música o para un
estudio de grabación.

16
Un micrófono es básicamente un transductor: convierte un tipo de energía en
otra. En este caso, convierte las ondas sonoras en energía eléctrica. Ahora, hay
una cantidad variada de micrófonos, ya sean de distintas marcas, calidades y
precios. Pero todos tienen el mismo fin. Estos capturan el sonido de formas
similares, tienen un diafragma que se mueve con las ondas sonoras. Sin embargo
lo único que los diferencia es como el movimiento del diafragma es convertido
en señal eléctrica. Y de aquí, he de mencionar esos tipos de micrófonos para
explicar en que se diferencian y para que funcionan:

- Micrófonos Dinámicos: Estos son los micrófonos mas comunes. Son los
mas utilizados en sonido en vivo, pero también tienen uso en el estudio
de grabación. En este tipo de micrófonos el diafragma mueve una bobina
de alambre que esta suspendida en un campo magnético. Este
movimiento induce a variaciones eléctricas que representan la onda
sonora. Son micrófonos muy resistentes y durables. Son buenos para
manejar los niveles altos de volumen de guitarras eléctricas, baterías y
bajos.

- Micrófonos de Condensador: Estos son los micrófonos de estudio por


excelencia. Son muy sensibles y capturan el sonido con mucha calidad,
pero también son muy delicados. En estos micrófonos el diafragma es
parte de un capacitor (o condensador) que al moverse genera cambios en
la capacitancia (fluctuaciones en la carga eléctrica) que representan la
onda sonora. Estos micrófonos necesitan de una fuente externa de poder
(phantompower de 48V) para poder funcionar. Son excelentes para
capturar el sonido con gran detalle. Muy usados en guitarras acústicas,
pianos, cuerdas y para la voz.

- Otros Micrófonos: Existen otros tipos de micrófonos como los Ribbon y


los Piezoeléctricos. Los Ribbon son técnicamente parecidos a los
Dinámicos, pero usan un delgado pedazo de metal como su diafragma.
Son muy sensibles y tienen una calidad de sonido muy detallada y
calidad. Los piezoeléctricos son micrófonos de presión, donde las ondas
sonoras hacen vibrar un material en su interior que genera variaciones de
voltaje.

Por otra parte, hay que tener en cuenta también, que los micrófonos capturan el
sonido dependiendo de la dirección, a esto se le conoce como “Patrón Polar".
Ahora, existen cuatro patrones polares principales, que describen la respuesta
direccional de un micrófono:

- Omnidireccional: Los micrófonos con este patrón polar capturan bien el


sonido desde cualquier dirección. Capturan muy bien el sonido natural de
un instrumento y el ambiente de la habitación.

- Cardioide: Los cardioides capturan muy bien desde el frente, no tan bien
de los lados y muy poco desde atrás. Es el patrón polar mas común.
17
Funciona muy bien dirigido a la fuente que quieres grabar y evitando
feedbacks.

- Hipercardioide: Es muy similar al cardioide, pero con un énfasis en su


captura desde el frente.

- Figura 8: Este patrón es común en los micrófonos Ribbon. Capturan muy


bien el sonido que esta en frente y detrás del micrófono.

Seleccionar el tipo de micrófono dependerá del efecto o estilo que se quiera


reflejar en la pieza o canción que se realice.

Por otro lado, para hacer funcionar el micrófono se necesita otro componente
esencial para la producción musical, el cual es:

 Interfaz de audio:

Una interfaz de audio funciona como un traductor entre su equipo analógico


(micrófonos, guitarras, etc.) y su PC, convirtiendo la señal analógica en una
digital que su computadora pueda entender, para poder grabarla en un DAW o
cualquier otro software de grabación. Las características y componentes que
estas contienen son:

- Calidad de sonido:

Cuando vamos a grabar música, es de mucha importancia tener una


buena calidad de sonido. Las interfaces de audio ayudan con esto de
muchas maneras, pero probablemente el factor más importante son los
preamplificadores, ya que toman la señal entrante, que generalmente es
bastante baja, y aumentan el nivel hasta un punto donde se puede usar.
( se explicará de los preamplificadores más adelante).
Ahora, si los preamplificadores no son buenos, aún podrán aumentar el
nivel de la señal, claro, pero la calidad de audio no estará cerca de cómo
suena la fuente real.

Otro factor sumamente importante es la conversión de analógico a digital


y de digital a analógico de las interfaces de audio.

En resumen, una interfaz de audio toma la señal analógica entrante y la


convierte en digital para que su computadora pueda “entenderla”.

- Número de entradas y salidas:

18
El número de entradas es simplemente la cantidad de conectores de
entrada analógica (XLR, ¼” TRS, etc.) que tiene la interfaz.

Cuanto mayor sea el número, más instrumentos / micrófonos puede


conectar directamente a ella.

En la mayoría de los casos, los principiantes solo necesitan dos entradas;


Uno para un micrófono vocal y otro para un instrumento.

En cuanto a las salidas, generalmente tienen tomas para conectar


altavoces / monitores y también auriculares.

Tenga cuidado al elegir las interfaces de audio, porque algunas están


etiquetadas con 12 entradas, cuando en realidad solo proporcionan 8 o 10
analógicas.

Esto se debe a que MIDI y S / PDIF (entradas / salidas digitales) también


se cuentan, pero esto no significa que pueda conectarle 12 micrófonos
reales.

- PhantomPower:

PhantomPoweres simplemente una forma de transmitir voltaje de CC


desde la interfaz a los micrófonos, generalmente micrófonos de
condensador, para permitirles funcionar correctamente.

Los micrófonos de condensador tienen componentes electrónicos activos


dentro de ellos que necesitan corriente externa para funcionar, y la
interfaz de audio puede suministrarlo desde sus preamplificadores a
través de los cables XLR hasta el micrófono.

Cada interfaz de audio moderna de hoy viene con una fuente de


alimentación Phantom.

- Frecuencia de muestreo y profundidad de bits:

La frecuencia de muestreo es simplemente el número de muestras de


audio transportadas por segundo, medidas en Hz o kHz.

En otras palabras, es la cantidad de veces que su interfaz de audio toma


una muestra de la señal analógica que está grabando cada segundo.

Por ejemplo, 44100 muestras por segundo se pueden expresar como


44100 Hz o 44,1 kHz, y las frecuencias de muestreo utilizadas hoy
oscilan entre 44,1 kHz hasta 192 kHz.

19
Básicamente, lo que esto significa es que cuanto mayor sea la frecuencia
de muestreo, más muestras por segundo hay y mayor será la calidad de
audio. Sin embargo, dado que se toman más muestras por segundo, esto
significa que el tamaño del archivo de audio será mucho mayor y
ocupará mucho más espacio de almacenamiento.

La profundidad de bits, por otro lado, nos dice a qué resolución se está
grabando el audio, o en otras palabras, qué tan preciso es realmente el
sonido capturado.

Las grabaciones de bits más altos capturarán mucha más información


sobre el sonido que se está grabando, proporcionando una mejor
representación general de la fuente.

Las dos profundidades de bits habituales que se utilizan son; 16 bits y 24


bits, y recomiendo encarecidamente usar 24 bits para una mejor
grabación de sonido.

Entonces, para entender un poco mejor esto, La frecuencia de muestreo


sería similar a los cuadros por segundo en una cámara, lo que significa
que cuanto mayor sea la frecuencia de cuadros, más suave será la
imagen.

La profundidad de bits sería bastante similar a la resolución en el sentido


de que la grabación a 720p tendría menos detalles, mientras que la
grabación a 4k tendría más detalles.

Ahora, en la interfaz de audio dependiendo de qué conectores admita la PC, se pueden


encontrar el FireWire (está completamente desactualizado y obsoleto, pero hay algunas
interfaces de audio más antiguas en el mercado que todavía se venden a pesar de que
tienen esta tecnología), el USB y el Thunderbolt.

 Preamp:

Un preamp es un dispositivo que sirve para amplificar señales de bajo nivel a un


nivel estándar de grabación. Es decir, el objetivo principal del preamp es subir el
nivel de ganancia de manera limpia.
Preamp, en realidad, es una abreviación para pre-amplificador.

La razón por la que existen los preamps son debido a los micrófonos. Esto se
debe a que las señales de micrófono son más bajas que las de línea.
Es por eso que la función del preamp, es subir el nivel del micrófono a un nivel
estándar para grabar. La señal de un micrófono por lo general es de -60 a -40
dBu. Mientras que el nivel de señal de línea optimo para grabar es de +4 dBu.
Por lo que es un factor importante para grabar con micrófonos.

20
Pero, esto no significa que tengas que comprar un preamp adicional. De hecho,
casi todas las interfaces de audio incluyen preamp internos. Y no solo las placas
de sonido, también las consolas/mixers y otros dispositivos tienen preamps.

Las razones básicas por las que existen los preamps son:

•Más ganancia: La razón principal de los preamps es subir el nivel de ganancia


de los micrófonos. De este modo, puedes grabar un micrófono a un nivel de
línea estándar.

•Disminuir ruidos: Un buen preamp permitirá reducir los niveles de ruido. Es


por eso que resulta esencial chequear la calidad de los pre-amplificadores antes
de comprar una interfaz de sonido o consola.

•Mejorar la calidad de sonido: Este es un resultado de aumentar la ganancia y


disminuir el ruido. Como consecuencia, el nivel final del audio será mucho más
limpio y fuerte.

 Daw (o software de producción musical):

DAW (Digital Audio Workstation) en español, significa estación de trabajo de


audio digital, también es nombrado como secuenciador.El DAW es la base para
producir música.Este es un programa o software que permite grabar, editar,
procesar y mezclar múltiples pistas de audio de manera conjunta. Sin embargo
vamos a profundizar en cada una de estas características:

- Grabar audio:

Una de las funciones más básicas de cualquier DAW, es que puedes


grabar audio.
Para grabar audio, necesitarás una interface de audio en donde conectar
tus instrumentos o micrófonos.
Por lo general, los instrumentos tiene salida de línea (Plug), y los
micrófonos tienen salida canon (XLR).
Estos instrumentos o micrófonos se conectan a la placa de sonido, y la
placa de sonido se conecta al PC mediante USB.

- Editar:

Una vez que grabas o importas los audios, los puedes editar con cientos
de funciones.
Cada editor de audio tiene funciones diferentes, pero por lo general todos
incluyen tijera, dividir, unión, crossfrade, loopings, etc.

- Mezclar:

21
Luego de grabar y editar, empieza el proceso de mezclar.Mezclar hace
referencia al proceso de agregar efectos, panear audios, ajustar
volúmenes y pulir el proyecto.

- Plugins VST:

Los plugins VST son la función más interesante de los DAW.


Estos plugins se dividen en dos rubros:

•VST de Efectos: Estos son efectos que puedes aplicar a tus audios como
reverb, delay, distorsión, EQ y muchos más.

•VST Instrumentos: Con estos plugins puedes generar instrumentos


virtuales sin tener un instrumento físico. Puedes crear cualquier tipo de
instrumento como una guitarra, piano, sintetizadores, baterías, violines,
etc.

- Crear loops:

En el pasado, para crear una base de piano que se repetía por toda la
canción, debías tocarla y grabarla cientos de veces.
Con la función de looping, puedes crear una base de un instrumento, y
repetirla automáticamente mediante copiar y pegar (looping).Esto
también lo puedes hacer con sonidos y audios de librerías, o inclusive
con instrumentos VST.

- Post-producción:

El término post-producción, hace referencia a la masterización del


proyecto.Es el último toque de edición de la canción que potencia su
sonido.

Muchas veces, cuando escuchas una canción con tus parlantes, solamente
suenan bien solamente con tus parlantes. Pero luego, pasas la canción a
tu teléfono móvil y le falta mucha energía.

Es para esto que se realiza la post-producción, para asegurarse del mejor


sonido para el proyecto.

Algunos Daw o software de producción musical reconocidos para producir música


son:Reaper, Ableton, Pro tools, Cubase, FL Studio, Garage Band, entre otros.

 Monitores:

22
A la hora de hacer una producción musical es esencial tener buenos monitores
para poder ecualizar, balancear los instrumentos en el espacio y hacer ajustes
minuciosos que beneficien la mezcla.

-Ubicación

La ubicación de los monitores en el control room es clave para tener una imagen
stereo consistente.

La recomendación es que la distancia entre los dos monitores sea la misma que
entre el monitor y la cabeza del ingeniero, en su posición de escucha. Formando
un triángulo equilátero.

También es importante que los monitores este a la misma altura de los oídos. Y
se ubiquen verticalmente, preferiblemente sobre sus propios stands. Las
vibraciones de un par de monitores sobre la mesa pueden no solo ser molestas,
sino arruinar la fase y la respuesta plana en frecuencias del monitor.

 Controladores MIDI:

Un controlador MIDI es un medio generalmente en forma de teclado que


transmite una señal/es a la computadora informándole diferentes características
cómo: velocidad, sustain, duración, y más.

Es importante saber que un controlador MIDI no reproduce ningún tipo de


sonido, por lo que es muy diferente un teclado convencional, ya que viene con
sus propios sonidos integrados.

MIDI es el nombre corto que se le da a su nombre en inglés que es: Musical


Instrument DigitalInterface.

MIDI viene siendo un lenguaje. Es la manera en que diferentes dispositivos,


generalmente teclados y módulos de sonido se comunican uno con el otro.

MIDI se puede usar de diferentes tipos de maneras. Una de las funciones es que
se pueden conectar varios controladores MIDI en cadena y un controlador puede
funcionar como el controlador de comando. En pocas palabras un controlador
puede controlar varios dispositivos MIDI a la vez.

Cuando grabamos MIDI, el usuario tiene control total sobre la ejecución de la


grabación.

Puedes grabar MIDI directamente a una pista, igual que el audio. Pero, a
diferencia del audio, la magia del MIDI es que puedes cambiar la ejecución

23
después de que ya se haya grabado. Puedes agregar notas si es que necesitas
más, o a la vez puedes borrar notas que no tenias planeado ejecutar.

Otra de las ventajas de MIDI es, que una vez que ya hayan grabado digamos la
parte de un piano, y después quieren escuchar exactamente esa misma ejecución
en una Orquesta, pueden hacerlo simplemente cambiando el instrumento virtual
sin la necesidad de tener que volver a ejecutarlo.

 Audífonos:

Unosaudífonos garantizan una mejor toma. En el momento de grabar cantantes,


músicos o locutores es importante que se escuchen a sí mismos muy bien, así se
pueden sentir cómodos y ofrecer su mejor interpretación.

- Overdubs:

Cuando se graban partes adicionales sobre pistas ya grabadas son


necesarios audífonos. Para poder escuchar la pista y grabar junto con
ella.
Es importante no subirle demasiado al volumen de los audífonos para
que los micrófonos no registren la pista. Para que esto no pase es
necesario contar con audífonos con un buen aislamiento externo. Que no
produzcan lo que se conoce como “Headphonebleed”.
En la mezcla, el uso de noisegates puede minimizar el headphonebleed,
pero no es una solución ideal. Es solamente un forma de reparar un error.

- Mezcla

Para poder mezclar se necesitanaudífonos. Que tengan una respuesta


plana en frecuencias para que sean una buena referencia. Pero, a la hora
de finalizar una mezcla, es clave verificarla en monitores para comprobar
que tal se traduce en diferentes dispositivos.

 Tratamiento Acústico:

El objetivo del tratamiento acústico es lograr un entorno de escucha ideal para


realizar grabaciones y mezclas.
La sala de grabación y el control room deben estar aislados del ruido externo y
también estar acondicionados acústicamente en su interior, para que sean lugares
óptimos para capturar grabaciones limpias y hacer mezclas detalladas.

24
- Aislamiento

El proceso de aislamiento es costoso. Los estudios de grabación profesionales


invierten bastante en mediciones, estudios, diseño y construcción. Para obtener
altos niveles de aislamiento acústico se construyen muros y pisos flotantes y se
usan vidrios laminados y puertas herméticas.

Las superficies mas densas son las que mejor aislamiento sonoro ofrecen.
También se pueden obtener buenos resultados con métodos de construcción
liviana, como muros de drywall rellenos de fibra de vidrio.

- Acondicionamiento

El espacio donde haces tus mezclas tiene un papel muy importante en los
resultados que vas a obtener.

Si la acústica destaca las frecuencias altas, vas a compensarlo en tu mezcla y


puedes terminar con una canción con pocos brillos. Si retumban mucho los bajos
en tu control room, vas atenuar estas frecuencias y el resultado puede ser un mix
con poco peso, sin punch y con demasiados medios y altos.

En los 60s, muchos estudios fueron acondicionados totalmente con materiales


absorbentes. Pero esto es un error. La música en este tipo de salas suena opaca,
sin vida. Y mezclar en ambientes de esas características extremas resultaba en
grabaciones que no se escuchaban bien. Por eso, es ideal que el campo sonoro de
un control room sea difuso. Donde se escuchen los instrumentos y la música de
forma natural.

Por medio de materiales y herramientas se puede mejorar la acústica de una sala


y corregir errores como reflexiones tempranas con excesivo nivel, ondas
estacionarias y exceso de reverberación.

Los materiales absorbentes como la fibra de vidrio reducen el tiempo de


reverberación del lugar. Nunca usar espuma de poliuretano pues es un material
inflamable muy peligroso. En las esquinas del control room las trampas para
bajos manejan las frecuencias graves problemáticas y los difusores se encargan
de producir la sensación de espacio. Se pueden aplicar estas soluciones y
mejorar relativamente la acústica de un home studio.

Para el aislamiento y el acondicionamiento de estudios de grabación


profesionales es preferible consultar ingenieros acústicos para que realicen
mediciones, estudios del espacio y diseñen las salas.

25
EL AUTO-TUNE

¿QUE ES?

Auto-Tune es un procesador de audio creado por Antares Audio Technologies para


vocales e instrumentales. Es usado para enmascarar inexactitudes y errores, por lo que
ha permitido a muchos artistas producir grabaciones con afinación mucho más precisa.
El Auto-Tune es también utilizado como un recurso artístico con el que obtener efectos
y sonidos interesantes.

Auto-Tune fue utilizado para producir el efecto de distorsión vocal en la canción


«Believe» de la cantante Cher grabada en 1998. «Believe» fue la primera grabación
comercial en utilizar este software con ese propósito. Después del éxito de dicha
canción se le conoció también como el «efecto Cher».

Inicialmente fue creado por Andy Hildebrand, un ingeniero trabajador de Exxon. Auto-


Tune está disponible como un plugin para programas profesionales de audio usados en
entornos de estudio, tales como ProTools, Cubase, FL Studio y como "stand-alone",
unidad de "rackmount" para procesamiento en presentaciones en vivo.

USOS

La armonización está pensada para incrementar la calidad musical de las partes vocales
sin que sea evidente que el canto ha sido procesado. Sin embargo, con valores extremos
en los parámetros, voluntariamente, con fines creativos, el Auto-Tune se ha convertido
en un popular efecto de voz.

El artista estadounidense de R&B T-Pain ha relacionado este efecto con su estilo


utilizándolo recurrentemente en casi la totalidad de su música. También esto caracteriza
al grupo de eurodance Eiffel 65. El rapero estadounidense Kanye West lo ha usado en
varias de sus canciones, al igual que Lady Gaga con sus exitosas canciones "Poker
Face", "Eh Eh", "Bad Romance", "Aura" y "Venus". El sonido particular que da este
efecto se parece, por sus tonos precisos y de rápido cambio, a la sonoridad que se logra
mediante vocoder o talkbox. Los artistas que usan Auto-Tune suelen recibir críticas
negativas porque esto hace que se ponga en duda su talento vocal. Uno de los artistas
que se oponen totalmente al Auto-Tune es el rapero estadounidense Jay-Z, de tal manera
que el segundo sencillo de su disco The Blueprint 3 llevó por nombre «(D.O.A.) Death
Of Auto-Tune» (Trad. en español como, La Muerte del Auto-Tune).

Existe un software similar, llamado Melodyne, el cual le ha ido ganando campo al Auto-


Tune, sobre todo en el área de producción,[cita requerida] debido a que permite la
edición manual del tono, teniendo unos alcances menos limitados que el software de
Antares. Sin embargo, esta ventaja no existe cuando este se usa en vivo.

26
HISTORIA

Auto-Tune fue creado por Andy Hildebrand, un geofísico y músico aficionado que
desarrolló complejos algoritmos para Exxon para interpretar datos generados por
una onda sísmica para encontrar depósitos subterráneos de petróleo. Hildebrand
descubrió que sus métodos para interpretar datos sísmicos podía ser utilizado para
detectar, analizar y modificar el tono en archivos de audio. Su método para detectar el
tono incluía el uso de autocorrelación y prometía ser superior a intentos anteriores,
basados en la extracción, de características que tenían problemas procesando ciertos
aspectos de la voz humana, como los diptongos. La industria musical consideraba que el
uso de autocorrelación no era práctico debido al gran esfuerzo computacional requerido,
pero Hildebrand encontró una simplificación que redujo casi un millón de multipply
adds a solo cuatro. Después de varios meses, a principios de 1996, implementó el
algoritmo en un ordenador Macintosh personalizado y presentó el resultado en el
NAMM Show ese mismo año.

Hildebrand tuvo la idea de la tecnología correctora de tono para voz después la


sugerencia de un amigo de su mujer, que había estado bromeando que podría crear un
aparato para hacerla afinar. Originalmente, Auto-Tune estaba diseñado para corregir
discretamente entonaciones imprecisas, con el objetivo de hacer la música más
expresiva. La patente original afirmaba que “Cuando las voces o instrumentos están
desafinados, las cualidades emocionales de la actuación se pierden.”

De acuerdo con Chris Lee de Los Angeles Times, la canción “Believe”, interpretada por
Cher en el año 1998, inyectó las modulaciones mecánicas de Auto-Tune en el pop
conscientemente. Los productores de Cher utilizaron el programa para “exagerar la
artificialidad de una corrección de tono abrupta”, lo contrario a su propósito original.

En una entrevista, los productores de “Believe” afirmaron haber utilizado un


pedal DigiTech Talker FX, en lo que los editores de Sound on Sound consideraron un
intento por mantener un secreto comercial. Después del éxito de “Believe” esta técnica
fue inicialmente conocida cono “efecto Cher”. En el año 2000, el sencillo “Naive
Song”, interpretado por Mirwais Ahmadzai en su álbum Production fue el primer tema
en utilizar Auto-Tune en toda la letra.

El uso de Auto-Tune como un efecto vocal fue popularizado a finales de la década de


los 2000 por el artista de hip hop/R&B T-Pain, que elaboró el efecto e hizo un uso
activo del Auto-Tune en sus canciones. Este nombraba el uso de la Talk Box del
productor de new Jack swing Teddy Riley y al artista de funk Roger Troutman como
inspiraciones para su uso del Auto-Tune. Se empezó entonces a vincular a T-Pain con el
Auto-Tune hasta el punto de que tenía una app para iPhone que simulaba este efecto
llamada “I Am T-Pain”. Ahora apodado “efecto T-Pain”, el uso del Auto-Tune se
convirtió en un elemento habitual de la música de finales de la década de los 2000,
donde fue especialmente utilizado en la obra de otros artistas de hip hop/R&B,

27
incluyendo el sencillo de Snoop Dogg “Sexual Seduction”, “Lollipop” de Lil Wayne y
el álbum de Kanye West 8o8s & Heartbreak. En 2009, durante el auge de la popularidad
del Auto-Tune, The Black Eyed Peas hicieron un importante uso del Auto-Tune y otros
efectos artificiales de sonido en su hit número uno “Boom Boom Pow” para crear un
sonido futurista.

El grupo inglés Radiohead utilizó Auto-Tune en su álbum de 2001 Amnesiac para crear


un “sonido nasal y despersonalizado” y para convertir un discurso hablado en música.
De acuerdo con el cantante Thom Yorke, el software “intenta desesperadamente buscar
música en tu discurso, y produce notas aleatorias. Si les asignas una tonalidad, tienes
música”.

El uso de Auto-Tune en el hip hop ha resurgido a mitad de la década de 2010,


especialmente en la música trap. Los artistas de hip hop como Future, Migos, Travis
Scott y Lil Uzi Vert utilizan Auto-Tune para crear un sonido característico que les
diferencie.

El efecto también se ha popularizado en la música raï y otros géneros de África del


Norte. De acuerdo con el Boston Herald, las estrellas del country Faith Hill, Shania
Twain y Tim McGraw utilizan Auto-Tune en sus actuaciones en directo, llamándolo red
de seguridad que garantiza una buena actuación. De todos modos, otros artistas de
country como Allison Moorer, Trisha Yearwood, Vince Gill, Garth Brooks y Martina
McBride, han negado el uso de Auto-Tune.

EL MAL USO DE LA TECNOLOGÍA (PROBLEMÁTICA)

A lo largo de la historia y hasta hace poco tiempo, era una élite la que participaba sobre
todo en el desarrollo y creación del arte, mientras que el resto de la sociedad
simplemente disfrutaba de las obras maestras, el público era un observador pasivo. Hoy
en día, como ya se mencionó, en nuestro mundo conectado, casi toda la gente crea. Con
internet y las nuevas tecnologías de fabricación, mezcla, edición, manipulación y
distribución, se facilita crear cosas y compartirlas con el mundo.

Repetimos un hecho que debe resaltar, “ahora es más fácil crear arte" y vemos una gran
cantidad de arte "malo" que se crea y se expone.

Una gran preocupación es que, como resultado de tantas herramientas y técnicas nuevas,
podamos perder el sentido y la habilidad para evaluar qué es arte de buena calidad. En
arte, lo que se hace popular no es necesariamente bueno - y viceversa. Muchas ideas y
trabajos artísticos nuevos fueron difíciles de digerir cuando aparecieron por primera vez.

Los artistas tienen ante sí el desafío de, al mismo tiempo, estar más abiertos a las nuevas
tecnologías que conducen a nuevas formas de expresión y mantenerse verdaderamente

28
creativos e imaginativos, esto no quiere decir que deben perder la esencia de lo que es el
verdadero arte.

Pero aún sí, no hay límites. Y conforme la tecnología -especialmente la informática-


continúe progresando, siempre habrá personas dispuestas a experimentar, intentando
superar el límite de lo que se ha hecho previamente.

La problemática de esta tecnología golpea más fuerte en la parte producción de música


actual. Muchos artistas confían en la tecnología de sintonización automática, por lo que
cualquier imperfección en su tono puede corregirse instantáneamente. Se puede hacer
que las voces suenen completamente diferentes en un estudio de grabación, lo que le
quita veracidad al arte musical y los artistas. La tecnología es simplemente generadora
de novedades increíbles.

Hoy en día, el modo de pensar no es estudiar canto para lograr ser un artista (cantante),
hoy en día solo se piensa en invertir en una buena interfaz y micrófonos y la magia está
hecha.

Esto nos lleva inevitablemente al último punto: “Los artistas actuales no tienen talento”.
Tal vez suena a que se está generalizando, pero no es así, bien sabemos que existe gran
cantidad de artistas por allí, esperando ser descubiertos. Lo cierto es que el talento hoy
en día también se movió de posición y ahora no es el punto focal de lo que ofrece el
artista. La publicidad es hoy en día más importante que el talento que pueda tener el
artista, (¿Qué se compra y que se vende?). Es por eso que hoy en día los nuevos artistas
se enfocan en crear videos virales en plataformas como Youtube con la finalidad de
obtener exposición y visitas, un ejemplo de ellos fue el famoso baile del caballo que
obtuvo más visitas en youtube que habitantes existen en el planeta.

Algunos “artistas” no hacen ni el esfuerzo, lo que nos lleva a poner en duda el talento
vocal de cuanto nuevo cantante se nos presente. A reflexionar sobre el uso erróneo de la
tecnología musical, ¿son realmente artistas?, ¿se puede cantar sin tener conocimientos
musicales? ¿la tecnología superó el estudio?.

Todo esto tiende a arrojar una problemática social. Se puede decir que el impacto en la
sociedad es elevado, la (mayoría) de las personas no sabe diferenciar lo que es el arte y
el artista, mientras la publicidad supere al conocimiento los artistas de profesión, los
artistas con preparación musical tendrán pocas posibilidades a oportunidades. Mientras
más “artistas” sin preparación musical sigan exponiendo sus creaciones, el verdadero
concepto del arte se estará perdiendo hasta llegar a un punto en el que no será necesario
saber el valor de duración de las figuras musicales para ser un “buen músico”
(cantante).

ALGUNAS REPERCUSIONES OCURRIDAS (ARGUMENTO)

29
 En los 51º Premios Grammy, a principios de 2009, la banda Death Cab for
Cutie hizo una aparición llevando lazos azules para protestar por el uso de Auto-
Tune en la industria musical.  En la primavera de ese año, Jay-Z tituló un
sencillo de su álbum The Blueprint 3 como “D.O.A. (Death of Auto-Tune)”.
Jay-Z dijo que escribió la canción bajo la creencia personal de que demasiada
gente se había subido al tren del Auto-Tune y que la tendencia se había
convertido en un truco.

  Christina Aguilera hizo una aparición pública en Los Ángeles el 10 de agosto


de 2009 llevando una camiseta en la que se leía “Auto Tune is for Pussies” (el
Auto-Tune es para cobardes).

 Los detractores del plug-in argumentan que Auto-Tune tiene un efecto negativo
en la percepción y el consumo de música en la sociedad. En 2004, el crítico
musical del diario británico The Daily Telegraph, Neil McCormick, llamó a
Auto-Tune un “particular invento siniestro que había puesto brillo extra a las
letras pop desde la década de los 90” recogiendo “una nota cantada pobremente
y transportándola, poniéndola en el centro de donde debería haber estado
muerto”

 En 2010, el programa de la televisión británica The X Factor admitió haber


utilizado Auto-Tune para mejorar la voz de los concursantes. Simon Cowell, uno
de los jefes del programa, lo prohibió en futuras ocasiones. También en 2010, la
revista Time incluyó a Auto-Tune en su lista de “Los 50 peores inventos”.
 El cantante de big band Michael Bublé criticó al Auto-Tune por hacer a todo el
mundo sonar igual –“como robots”.

 El cantautor venezolano Franco De Vita afirmó que la tecnología le hace mucho


daño a la música, ya que los músicos se vuelven “flojos” al contar con maquinas
que optimizan su trabajo y les hacen perder “la parte humana” que debe verse
reflejada en toda obra artística.

SOLUCIÓN DEL PROBLEMA

La solución más acertada para esta problemática es la inclusión musical en el sistema


educativo público y privado para impartir la comprensión musical a la sociedad.

La educación musical pierde importancia curricular en el sistema educativo porque se


han ido centrando en el mejoramiento de los resultados académicos en pruebas
estandarizadas. Este complejo panorama transnacional muestra que la escuela tiene una
utilidad social que no necesariamente se orienta hacia la reducción de las brechas
sociales, especialmente porque los informes PISA indican que el sistema educativo
formal reproduce la realidad social.

30
La inclusión musical también ofrece otros beneficios:

 Diversos estudios avalan el efecto positivo de la música durante el aprendizaje:


En 1993 los profesores Frances Rauscher y Gordon Shaw llevaron a cabo un
experimento al que bautizaron como "Efecto Mozart". Descubrieron que
escuchar música de Mozart generaba en las personas un estado de relajación y
un aumento del coeficiente intelectual, y que lo aprendido permanecía en su
memoria durante mucho más tiempo.

 Diversos estudios avalan que la música, además, puede ser utilizada para
estimular la memoria. Todos conocemos la canción de los planetas con la que
memorizábamos la posición que tienen con respecto al sol, o la cantinela con la
que aprendíamos las tablas de multiplicar.

Quizá si utilizamos la música adecuada en cada momento de la formación


conseguiríamos que nuestros alumnos estuvieran relajados en el momento en el que
estamos explicando; alerta cuando estamos preguntando o realizando dinámicas; que se
sensibilicen cuando hablamos de accidentes laborales; que su capacidad de
razonamiento aumente cuando hacemos juegos; y que en su memoria se mantengan los
conceptos adquiridos durante mucho tiempo. Solo es necesario seleccionar el tipo de
música para cada momento y los alumnos reaccionarán sin ser conscientes.

31
CONCLUSIÓN

En relación a lo expuesto entendemos que la tecnología musical ha atenido su gran


avance a través de los años, los sigue teniendo y los seguirá debido a que se sigue
trabajando en nuevas tecnologías para el progreso en lo que es la producción musical.
La tecnología ha tenido más que todo beneficios en la música comenzando desde el
primer productor musical que fue inventado en 1877, el fonógrafo, que grababa un solo
sonido y lo reproducía, hasta los tiempos de ahora que la difusión digital ha hecho que
la música esté al alcance de todos, sea accesible y se sienta de manera distinta. Todo
esto es gracias a la tecnología musical, aparte de nuevos instrumentos o sonidos,
equipos preparados para la amplificación musical o la ambientación luminosa que lo
acompaña. Los conciertos ya no son recitales musicales, son auténticos shows que los
artistas han creado, gracias a la tecnología musical, para impresionar a su público.

La producción actual de música también se ha visto afectada. Muchos artistas confían


en la tecnología de sintonización automática, por lo que cualquier imperfección en su
tono puede corregirse instantáneamente. Se puede hacer que las voces suenen
completamente diferentes en un estudio de grabación, lo que le quita veracidad al arte
musical y los artistas.

He ahí el problema de que hoy en día se le ha dado ese mal uso a la tecnología por
parte de algunas personas, creando así “artistas” sin ninguna preparación musical que
solo cuentan con la mejora de su voz gracias a la misma generado una mala
comprensión de lo que es hacer música realmente en la sociedad.

Por esa razón el objetivo fue demostrar la importancia de la inclusión musical en el


sistema educativo público y privado para impartir la comprensión musical a la sociedad
y de esa manera evitar que aparezcan personas sin conocimiento ni talento musical solo
con mala voz mejorada por tecnología, viendo la música como un negocio y dando todo
tipo de malos mensajes a la sociedad y aun así llegando a ser considerados mejores que
aquellos que se esfuerzan en sus estudios musicales para hacer las cosas bien.

Para evitar esos mal entendidos en la sociedad que piensa que esos “artistas” son
buenos músicos, es necesario impartir la inclusión musical para así darles verdadero
valor a las personas que saben lo que hacen y lo hace con base, para hacer entender que
la música no es tan simple como lo parece, si no que es un estudio bastante avanzado en
el cual nunca se termina de aprender.

La educación musical pierde importancia curricular en el sistema educativo porque las


políticas nacionales se han ido centrando en el mejoramiento de los resultados
académicos en pruebas estandarizadas, con la intención de formar una ciudadanía que se
integre exitosamente al mercado laboral. Por lo tanto, la institución educativa
actualmente está en decadencia, porque carece de valores centrales que aseguren los
derechos fundamentales de equidad y calidad de la educación. Al analizar el rol de la

32
institución educativa en el sistema social, desde la perspectiva de la educación musical,
es posible observar cómo la postura eficientista de las reformas educativas provoca una
crisis en la asignatura musical, ya que esta pierde progresivamente sus recursos
económicos, temporales y materiales.

En resumen lo primero en entender es que hay quienes cantan y otros que no lo


hacen, hay quienes estudian para enseñar esto, profesores, profesoras, y aseguran que
hay gente que canta, pero no saben que pueden hacerlo, hay otros que saben que no
pueden cantar, pero lo hacen igual, y entre el público, hay dos categorías. Los que son
capaces de distinguir esto y los que no. Necesitamos una sociedad que sea delas que si
saben distinguir para que así no se le quite el valor de estudios musicales a aquellos
músicos que de verdad se esfuerzan en lo suyo para triunfar en la música.

33
BIBLIOGRAFÍA

- Edmondson, Jacquelin. Music In American Life.

- Holmes, Thom (2008). Electronic and Experimental Music.

- Taylor, Timothy (2001). Strange Sounds. New York: Routledge.

- Campbell, Murray; Greated, Clive; Myers, Arnold (2004). Musical Instruments.

- https://es.wikipedia.org/w/index.php?title=Auto-Tune&oldid=136316253

- http://infymusica.blogspot.com.co

34

También podría gustarte