Está en la página 1de 12

Música electrónica

Música electrónica

Orígenes culturales Finales del siglo XX, a comienzos


del siglo XXI

Instrumentos comunes Instrumentos musicales electrónicos

Popularidad Muy alta en todo el mundo

Subgéneros

Música electroacústica, música concreta, música


industrial, wonky, dub, ambient, bass, breakbeat, chiptune, trip
hop, downtempo, drum and
bass, electro, electrónica, EDM, EBM, IDM, glitch, hardcore, house,
synth
pop, techno, jungledubstep, hardstyle, trance, electropop, reggaestep,
rock electrónico, chillstep,

[editar datos en Wikidata]

La música electrónica es aquel tipo de música que emplea instrumentos musicales


electrónicos y tecnología musical electrónicapara su producción e interpretación. En
general, se puede distinguir entre el sonido producido mediante la utilización de medios
electromecánicos de aquel producido mediante tecnología electrónica, la cual también
puede ser mezclada. Algunos ejemplos de dispositivos que producen sonido electro-
mecánicamente son el telarmonio, el órgano Hammond y la guitarra eléctrica. La
producción de sonidos puramente electrónica puede lograrse mediante aparatos como
el theremin, el sintetizador de sonido y el ordenador.
La música electrónica se asoció en su día exclusivamente a una forma de música
culta occidental, pero desde finales del año 1960, la disponibilidad de tecnología musical a
precios accesibles propició que la música producida por medios electrónicos se hiciera
cada vez más popular. En la actualidad, la música electrónica presenta una gran variedad
técnica y compositiva, abarcando desde formas de música culta experimental hasta formas
populares como la música electrónica de baile o shuffle dance.

Índice

 1Finales del siglo XIX hasta comienzos del siglo XX


 2Nueva estética de la música

 3Futurismo

 41920-1930

 51940-1950

o 5.1Música concreta

o 5.2Elektronische Musik

o 5.3Música electrónica en Japón

o 5.4Música electrónica estadounidense

o 5.5Música estocástica

o 5.6Desde mediados hasta finales de 1950

 61960-1970

o 6.1Música por ordenador

o 6.2Electrónica en vivo

o 6.3Sintetizadores

 71970-1980

o 7.1Nacimiento de la música electrónica popular

o 7.2Nacimiento del MIDI

o 7.3Síntesis digital

 81980-1990

o 8.1Crecimiento de la música dance

o 8.2Avance en la música

 92000-2010

 10Véase también

 11Referencias

 12Bibliografía

 13Enlaces externos
Finales del siglo XIX hasta comienzos del siglo XX [editar]

Telharmonium, Thaddeus Cahill, 1897.

La habilidad de grabar sonidos suele relacionarse con la producción de música electrónica,


aunque esta no sea absolutamente necesaria para ello. El primer dispositivo conocido
capaz de grabar sonido fue el fonoautógrafo, patentado en 1857 por Édouard-Léon Scott
de Martinville. Podía grabar sonidos visualmente, pero no reproducirlos de nuevo. 1
En 1878, Thomas A. Edison patentó el fonógrafo, que utilizaba cilindros similares al
aparato de Scott. Aunque se siguieron utilizando los cilindros durante algún tiempo, Emile
Berliner desarrolló el fonógrafo de disco en 1889. Otro invento significativo que
posteriormente tendría una gran importancia en la música electrónica fue la válvula audión,
del tipo triodo, diseñada por Lee DeForest. Se trata de la primera válvula termoiónica,
inventada en 1906, que permitiría la generación y amplificación de señales eléctricas, la
emisión de radio, la computación electrónica.
Con anterioridad a la música electrónica, ya existía un creciente deseo entre los
compositores de utilizar las tecnologías emergentes en el terreno musical. Se crearon
multitud de instrumentos que empleaban diseños electromecánicos, los cuales facilitaron el
camino para la aparición de instrumentos electrónicos. Un instrumento electromecánico
llamado Telharmonium (en ocasiones Teleharmonium o Dynamophone) fue desarrollado
por Thaddeus Cahill entre los años 1898 y 1899. Sin embargo, como consecuencia de su
inmenso tamaño, nunca se llegó a adoptar. Se suele considerar como primer instrumento
electrónico el Theremin, inventado por el profesor Léon Theremin alrededor de 1919–
1920.2 Otro primitivo instrumento electrónico fue el Ondes Martenot, que se hizo conocido
al ser utilizado en la obra Sinfonía Turangalila, por Olivier Messiaen. También fue utilizado
por otros compositores, especialmente franceses, como Andre Jolivet.

Nueva estética de la música[editar]


En 1907, justo un año después de la invención del triodo audión, Ferruccio Busoni
publicó Esbozo de una Nueva Estética de la Música, que trataba sobre el uso tanto de
fuentes electrónicas como de otras en la música del futuro. Escribió sobre el futuro de las
escalas microtonales en la música, posibles gracias al Dynamophone de Cahill: «Solo
mediante una larga y cuidadosa serie de experimentos, y un continuo entrenamiento del
oído, puede hacerse de este material desconocido uno accesible y plástico para la
generación venidera y para el arte».
Como consecuencia de este escrito, así como a través de su contacto personal, Busoni
tuvo un profundo efecto en multitud de músicos y compositores, especialmente en su
discípulo Edgard Varèse.

Futurismo[editar]
Artículo principal: Futurismo

En Italia, el futurismo se acercó a la estética musical en transformación desde un ángulo


diferente. Una idea de la filosofía futurista era la de valorar el "ruido", así como dotar de
valor artístico y expresivo a ciertos sonidos que anteriormente no habían sido
considerados como musicales. El Manifiesto Técnico de la Música Futurista de Balilla
Pratella, publicado en 1911, establece que su credo es: «Presentar el alma musical de las
masas, de las grandes fábricas, de los trenes, de los cruceros transatlánticos, de los
acorazados, de los automóviles y aeroplanos. Añadir a los grandes temas centrales del
poema musical el dominio de la máquina y el victorioso reinado de la electricidad».
El 11 de marzo de 1913, el futurista Luigi Russolo publicó su manifiesto El arte de los
ruidos (original en italiano, L'arte dei Rumori). En 1914, organizó el primer concierto del
"arte de los ruidos" en Milán. Para ello utilizó su Intonarumori, descrito por Russolo como
"instrumentos acústico ruidistas, cuyos sonidos (aullidos, bramidos, arrastramientos,
gorgoteos, etc.) eran manualmente activados y proyectados mediante vientos y
megáfonos". En junio se organizaron conciertos similares en París.

1920-1930[editar]
Esta década trajo una gran riqueza de instrumentos electrónicos primitivos, así como las
primeras composiciones para instrumentación electrónica. El primer instrumento,
el Theremin, fue creado por Léon Theremin (nacido como Lev Termen) entre 1919 y 1920
en Leningrado. Gracias a él se realizaron las primeras composiciones para instrumento
electrónico, opuestas a aquellas realizadas por los que se dedicaban a crear sinfonías de
ruidos. En 1929, Joseph Schillinger compuso su Primera Suite Aerofónica para Theremin y
Orquesta, interpretada por primera vez por la Orquesta de Cleveland y Leon
Theremin como solista.
Además del Theremin, el Ondes Martenot fue inventado en 1928 por Maurice Martenot,
quien debutó en París.3 El año siguiente, Antheil compuso por primera vez para
dispositivos mecánicos, aparatos productores de ruidos, motores y amplificadores en su
ópera inacabada Mr. Bloom.
La grabación de sonidos dio un salto cualitativo en 1927, cuando el inventor
estadounidense J. A. O'Neill desarrolló un dispositivo para la grabación que utilizaba un
tipo de cinta recubierta magnéticamente. No obstante, fue un desastre comercial. Dos
años más tarde, Laurens Hammond abrió una empresa dedicada a la fabricación de
instrumentos electrónicos. Comenzó a producir el Órgano Hammond, basado en los
principios del Telharmonium, junto a otros desarrollos como las primeras unidades de
reverberación.
El método foto-óptico de grabación de sonido utilizado en el cine hizo posible obtener una
imagen visible de la onda de sonido, así como sintetizar un sonido a partir de una onda de
el mismo.
En la misma época, comenzó la experimentación del arte sonoro, cuyos primeros
exponentes incluyen a Tristan Tzara, Kurt Schwitters y Filippo Tommaso Marinetti entre
otros.

1940-1950[editar]
Música concreta[editar]
Artículo principal: Música concreta

Desde aproximadamente el año 1900 se utilizaba el magnetófono de alambre magnético


de baja fidelidad, y a comienzos de 1930 la industria cinematográfica comenzó a
convertirse a los nuevos sistemas de grabación de sonido ópticos basados en células
fotoeléctricas.4 En esta época la empresa alemana de electrónica AEG desarrolla el
primer magnetófono de cinta práctico, el Magnetophon K-1, revelado en el Berlin Radio
Show en agosto de 1935.5
Durante la Segunda Guerra Mundial, Walter Weber redescubrió y aplicó la técnica AC
Bias, que incrementó drásticamente la fidelidad de las grabaciones magnéticas al añadir
una alta frecuencia inaudible. Extendió en 1941 la curva de frecuencia del Magnetophon
K4 hasta 10 kHz y mejoró la relación señal/ruido hasta 60 dB, sobrepasando cualquier
sistema de grabación conocido en aquel tiempo.
En 1942, AEG ya estaba realizando pruebas de grabación en estéreo.6 No obstante, estos
dispositivos y técnicas fueron un secreto fuera de Alemania hasta el final de la guerra,
cuando varios de estos aparatos fueron requisados y llevados a Estados Unidos por Jack
Mullin. Estos sirvieron de base para los primeros grabadores de cinta profesionales que
fueron comercializados en Estados Unidos, entre ellos el Model 200 producido por la
empresa Ampex.
La cinta de audio magnética abrió un gran campo de posibilidades sonoras para músicos,
compositores, productores e ingenieros. Esta era relativamente barata y su fidelidad en la
reproducción era mejor que cualquier otro medio de audio conocido hasta la fecha. Cabe
señalar que, a diferencia de los discos, ofrecía la misma plasticidad que la película: puede
ser ralentizada, acelerada o incluso reproducirse al revés. Puede editarse también
físicamente e incluso pueden unirse diferentes trozos de cinta en loops infinitos, que
reproducen continuamente determinados patrones de material pregrabado. La
amplificación de audio y el equipo de mezcla expandieron aún más allá las posibilidades
de la cinta como medio de producción, permitiendo que múltiples grabaciones fueran
grabadas a la vez en otra cinta diferente. Otra posibilidad de la cinta era su capacidad de
ser modificada fácilmente para convertirse en máquinas de eco, produciendo así de modo
complejo, controlable y con gran calidad, efectos de eco y reverberación, lo que es
prácticamente imposible de conseguir por medios mecánicos.
Pronto los músicos comenzaron a utilizar el grabador de cinta o magnetófono para
desarrollar una nueva técnica de composición llamada música concreta. Esta técnica
consiste en la edición de fragmentos de sonidos de la naturaleza o de procesos
industriales grabados conjuntamente. Las primeras piezas de esta música fueron creadas
por Pierre Schaeffer, con la colaboración de Pierre Henry. En 1950, Schaeffer dio el primer
concierto de música concreta en la École Normale de Musique de Paris. Posteriormente,
Pierre Henry colaboró con Schaeffer en la Symphonie pour un homme seul (1950), la
primera obra importante de música concreta. Un año más tarde, RTF creó el primer
estudio para la producción de música electrónica, lo que se convertiría en una tendencia
global. También en 1951, Schaeffer y Henry produjeron una ópera, Orpheus, para sonidos
y voces concretos.
Elektronische Musik[editar]

Karlheinz Stockhausen en el Estudio de Música Electrónica de WDR, Colonia, en 1991

Artículo principal: Karlheinz Stockhausen

Karlheinz Stockhausen trabajó brevemente en el estudio de Schaeffer en 1952 y


posteriormente, durante muchos años, en el Estudio de Música Electrónica de
la WDR de Colonia, en Alemania.
En Colonia, el que se convertiría en el estudio de música electrónica más famoso del
mundo, inició actividades en la radio de la NWDR en 1951, después de que el
físico Werner Meyer-Eppler, el técnico de sonido Robert Beyer y el compositor Herbert
Eimert convencieran al director de la NWDR, Hanns Hartmann, de la necesidad de dicho
espacio. En el mismo año de su creación fueron transmitidos los primeros estudios de
música electrónica en un programa de la propia radio y presentados en los Cursos de
Verano de Darmstadt. En 1953 hubo una demostración pública en la sala de conciertos de
la Radio de Colonia, donde se dejaron escuchar siete piezas electrónicas. Los
compositores de los estudios electrónicos eran Herbert Eimert, Karel Goeyvaerts, Paul
Gredinger, Henry Pousseur y Karlheinz Stockhausen.
El programa comprendía las siguientes piezas:

 Karlheinz Stockhausen: Estudio II


 Herbert Eimert: Glockenspiel

 Karel Goeyvaerts: Composición No. 5

 Henry Pousseur: Sismogramas

 Paul Gredinger: Formantes I y II

 Karlheinz Stockhausen: Estudio I

 Herbert Eimert: Estudio sobre mezclas de sonido


En su tesis de 1949, Elektronische Klangerzeugung: Elektronische Musik und Synthetische
Sprache, Meyer-Eppler concibió la idea de sintetizar música desde señales producidas
electrónicamente. De esta manera, la Elektronische Musik se diferenciaba a gran escala
respecto a la Musique concrète francesa, que utilizaba sonidos grabados a partir de
fuentes acústicas.
Con Stockhausen y Mauricio Kagel como residentes, el estudio de música electrónica de
Colonia se convirtió en un emblema del avant-garde o vaguardismo, cuando se empezó ya
a combinar sonidos generados electrónicamente con los de instrumentos tradicionales.
Ejemplos significativos son Mixtur (1964) y Hymnen, dritte Region mit Orchester (1967).
Stockhausen afirmó que sus oyentes decían que su música electrónica les daba una
experiencia de "espacio exterior", sensaciones de volar, o de estar en "un mundo de
ensueño fantástico".
Música electrónica en Japón[editar]
Aunque los primeros instrumentos electrónicos como el Ondes Martenot, el Theremin o
el Trautonium eran poco conocidos en Japón con anterioridad a la Segunda Guerra
Mundial, algunos compositores habían tenido conocimiento de ellos en su momento, como
Minao Shibata. Años después, diferentes músicos en Japón comenzaron a experimentar
con música electrónica, a lo que contribuyó el apoyo institucional, lo que permitió a los
compositores experimentar con el último equipamiento de grabación y procesamiento de
audio. Estos esfuerzos dieron lugar a una forma musical que fusionaba la música asiática
con un nuevo género y sembraría las bases del dominio japonés en el desarrollo de
tecnología musical durante las siguientes décadas.
Tras la creación de la compañía Sony (conocida entonces como Tokyo Tsushin Kogyo
K.K.) en 1946, dos compositores japoneses, Toru Takemitsu y Minao Shibata, de modo
independiente, escribieron sobre la posibilidad de utilizar la tecnología electrónica para
producir música hacia finales de los años 1940. En 1948, Takemitsu concibió una
tecnología que pudiese traer "ruido" dentro de tonos musicales atemperados dentro de un
pequeño y complejo tubo, una idea similar a la musique concrète que Pierre
Schaeffer había aventurado en el mismo año. En 1949, Shibata escribió sobre su concepto
de "un instrumento musical con grandes posibilidades de actuación" que pudiera
"sintetizar cualquier tipo de onda de sonido" y que sea "manejado muy fácilmente,"
prediciendo que con un instrumento tal, "la escena musical sería cambiada drásticamente".
Ese mismo año, Sony desarrolló el magnetófono magnético G-Type.
En 1950, el estudio de música electrónica Jikken Kobo sería fundado por un grupo de
músicos que querían producir música electrónica experimental utilizando magnetófonos
Sony. Entre sus miembros se encontraban Toru Takemitsu, Kuniharu Akiyama y Joji Yuasa,
y estaba apoyado por Sony, empresa que ofrecía acceso a la última tecnología de audio.
La compañía contrató a Takemitsu para componer música electroacústica electrónica para
mostrar sus magnetófonos. Más allá del Jikken Kobo, muchos otros compositores
como Yasushi Akutagawa, Saburo Tominaga y Shiro Fukai también estaban
experimentando con música electroacústica entre 1952 y 1953. La música electrónica se
asoció en su día exclusivamente con una forma de música culta occidental, pero desde
finales de los años 90 la disponibilidad de tecnología musical a precios accesibles permitió
que la música por medios electrónicos se hiciera cada vez más popular.
Música electrónica estadounidense[editar]
En Estados Unidos, se utilizaban sonidos creados electrónicamente para diferentes
composiciones, como ejemplifica la pieza Marginal Intersection de Morton Feldman. Esta
pieza está pensada para vientos, metales, percusión, cuerdas, dos osciladores y efectos
de sonido.
El Music for Magnetic Tape Project fue formado por miembros de la Escuela de Nueva
York (John Cage, Earle Brown, Christian Wolff, David Tudor y Morton Feldman) y duró tres
años hasta 1954. Durante esta época, Cage completó su Williams Mix, en 1953.
Música estocástica[editar]
Artículo principal: Iannis Xenakis

Un importante desarrollo lo constituyó la aparición de ordenadores utilizados para


componer música, en contraposición de la manipulación o creación de sonidos. Iannis
Xenakiscomenzó lo que se conoce como musique stochastique o música estocástica, un
método compositivo que emplea sistemas matemáticos de probabilidad estocásticos. Se
utilizaban diferentes algoritmos de probabilidad para crear piezas bajo un set de
parámetros. Xenakis utilizó papel gráfico y una regla para ayudarse a calcular la velocidad
de las trayectorias de los glissandos para su composición orquestal Metástasis (1953-
1954), utilizando posteriormente ordenadores para componer piezas como ST/4 para
cuarteto de cuerda y ST/48para orquesta.
Desde mediados hasta finales de 1950[editar]
En 1954, Stockhausen compuso Elektronische Studie II, la primera pieza electrónica en ser
publicada como banda sonora.
En 1955 aparecieron más estudios electrónicos y experimentales. Fueron notables la
creación del Estudio de Fonología, un estudio en el NHK de Tokio fundado por Toshiro
Mayuzumi y el estudio de Phillips en Eindhoven, Holanda, que se trasladó a la Universidad
de Utrecht como Instituto de Sonología en 1960.
La banda sonora de Forbidden Planet, producida por Louis y Bebe Barron, fue compuesta
únicamente mediante circuitos caseros y magnetófonos en 1956. 7
El primer computador del mundo en reproducir música fue el CSIRAC, diseñado y
construido por Trevor Pearcey y Maston Beard. El matemático Geoff Hill programó el
CSIRAC para tocar melodías de música popular. No obstante, este computador reproducía
un repertorio estándar y no pudo utilizarse para ampliar el pensamiento musical o para
tocar composiciones más elaboradas.
El impacto de los computadores continuó durante 1956. Lejaren Hiller y Leonard Isaacson
compusieron Iliac Suite para un cuarteto de cuerda, siendo la primera obra completa en
ser compuesta con la asistencia de un computador utilizando un algoritmo en la
composición. Posteriores desarrollos incluyeron el trabajo de Max Mathews en Bell
Laboratories, quien desarrolló el influyente programa MUSIC I. La tecnología
del vocoder fue otro importante desarrollo de esta época.
En 1956, Stockhausen compuso Gesang der Jünglinge, la primera gran obra del estudio
de Colonia, basada en un texto del Libro de Daniel. Un importante desarrollo tecnológico
fue la invención del sintetizador Clavivox por Raymond Scott, con ensamblaje de Robert
Moog.
El sintetizador RCA Mark II Sound Synthesizer apareció en 1957. A diferencia de los
primeros Theremin y Ondes Martenot, era difícil de usar, pues requería una extensa
programación y no podía tocarse en tiempo real. En ocasiones denominado el primer
sintetizador electrónico, el RCA Mark II Sound Synthesizer utilizaba osciladores de válvula
termoiónica e incorporaba el primer secuenciador. Fue diseñado por RCA e instalado en el
Columbia-Princeton Electronic Music Center, donde sigue en la actualidad.
Posteriormente, Milton Babbitt, influenciado en sus años de estudiante por la "revolución
en el pensamiento musical" de Schoenberg, comenzó a aplicar técnicas seriales a la
música electrónica.

1960-1970[editar]
Estos fueron años fértiles para la música electrónica, no solo para la académica, sino
también para algunos artistas independientes a medida que la tecnología
del sintetizador se volvía más accesible. En esta época, una poderosa comunidad de
compositores y músicos que trabajaba con nuevos sonidos e instrumentos se había
establecido y estaba creciendo. Durante estos años aparecen composiciones
como Gargoyle de Luening para violín y cinta, así como la premiere de Kontakte de
Stockhausen para sonidos electrónicos, piano y percusión. En esta última, Stockhausen
abandonó la forma musical tradicional basada en un desarrollo lineal y en un clímax
dramático. En este nuevo acercamiento, que él denominó como "forma momento", se
recuerdan las técnicas de cinematic splice del cine de principios del siglo XX.
El primero de estos sintetizadores en aparecer fue el Buchla, en 1963, siendo producto del
esfuerzo del compositor de música concreta Morton Subotnick.
El Theremin había sido utilizado desde los años 20, manteniendo una cierta popularidad
gracias a su utilización en numerosas bandas sonoras de películas de ciencia ficción de
los años 50 (por ejemplo: The Day the Earth Stood Still de Bernard Herrmann). Durante los
años 60, el Theremin hizo apariciones ocasionales en la música popular.
En el Reino Unido, durante este período, el BBC Radiophonic Workshop (creado en 1958)
emergió como uno de los estudios más productivos y renombrados del mundo, gracias a
su labor en la serie de ciencia ficción Doctor Who. Uno de los artistas electrónicos
británicos más influyentes de este período fue Delia Derbyshire. Es famosa por su icónica
ejecución en 1963 del tema central de Doctor Who, compuesto por Ron Grainer y
reconocida por algunos como la pieza de música electrónica más conocida en el mundo.
Derbyshire y sus colegas, entre los que se encuentran Dick Mills, Brian Hodgson (creador
del efecto de sonido TARDIS), David Cain, John Baker, Paddy Kingsland y Peter Howell,
desarrollaron un amplio cuerpo de trabajo que incluye bandas sonoras, atmósferas,
sinfonías de programas y efectos de sonido para BBC TV y sus emisoras de radio.

El compositor israelí Josef Talen el Electronic Music Studio de Jerusalén (~1965). A la derecha, el
sintetizador Hugh Le Caine.

En 1961, Josef Tal creó el Centre for Electronic Music in Israel en la Universidad Hebrea, y
en 1962 Hugh Le Caine llegó a Jerusalén para instalar su Creative Tape Recorder en el
centro.8
Milton Babbitt compuso su primer trabajo electrónico utilizando el sintetizador, que fue
creado mediante el RCA en el CPEMC. Las colaboraciones se realizaban superando las
barreras de los océanos y continentes. En 1961, Ussachevsky invitó a Varèse al Columbia-
Princeton Studio (CPEMC), siendo asistido por Mario Davidovsky y Bülent Arel. La intensa
actividad del CPEMC, entre otros, inspiró a la creación en San Francisco del Tape Music
Center en 1963, por Morton Subotnick junto a otros miembros adicionales, como Pauline
Oliveros, Ramón Sender, Terry Riley y Anthony Martin. Un año después tuvo lugar el
Primer Seminario de Música Electrónica en Checoslovaquia, organizado en el Radio
Broadcast Station de Plzen.
Se siguieron desarrollando nuevos instrumentos, y uno de los más importantes avances
tuvo lugar en 1964, cuando Robert Moog introdujo el sintetizador Moog, el primer
sintetizador analógico controlado por un sistema integrado modular de control de
voltaje. Moog Music introdujo posteriormente un sintetizador más pequeño con un teclado,
llamado Minimoog, que fue utilizado por multitud de compositores y universidades,
haciéndose así muy popular. Un ejemplo clásico del uso del Moog de gran tamaño es el
álbum Switched-On Bach, de Wendy Carlos.
En 1966, Pierre Schaeffer fundó el Groupe de Recherches Musicales (Grupo de
Investigación Musical) para el estudio y la investigación de la música electrónica. Su
programación está estructurada a partir de un compromiso en los procesos de difusión,
investigación y creación de la música contemporánea y las tendencias en videoarte e
imagen más actuales. Sus exhibiciones y conciertos son reproducidas en tiempo real
mediante dispositivos electrónicos, interfaces de audio-vídeo y una plantilla de músicos y
videoartistas nacionales e internacionales abiertos al uso de tecnologías punta.
Música por ordenador[editar]
CSIRAC, el primer computador en reproducir música, realizó este acto públicamente en
agosto de 1951.9 Una de las primeras demostraciones a gran escala de lo que se conoció
como computer music fue una emisión nacional pre-grabada en la red NBC para el
programa Monitor el 10 de febrero de 1962. Un año antes, LaFarr Stuart programó el
ordenador CYCLONE de la Universidad del Estado de Iowa para reproducir canciones
sencillas y reconocibles a través de un altavoz amplificado adherido a un sistema
originalmente utilizado para temas administrativos y de diagnóstico.
Los años 50, 60 y la década de los 70 presenciaron también el desarrollo de grandes
marcos operativos para síntesis informática. En 1957, Max Mathews, de Bell Labs,
desarrolló el programa MUSIC, culminando un lenguaje de síntesis directa digital.
En París, IRCAM se convirtió en el principal centro de investigación de música creada por
computador, desarrollando el sistema informático Sogitec 4X,10 que incluía un
revolucionario sistema de procesamiento de señal digital en tiempo real. Répons (1981),
obra para 24 músicos y 6 solistas de Pierre Boulez, utilizó el sistema 4X para transformar y
dirigir a los solistas hacia un sistema de altavoces.
Electrónica en vivo[editar]
En Estados Unidos, la electrónica en directo fue llevada a cabo por primera vez en los
años 60 por miembros del Milton Cohen's Space Theater en Ann Arbor, Míchigan, entre los
que estaban Gordon Mumma, Robert Ashley, David Tudor y The Sonic Arts Union, fundada
en 1966 por los nombrados anteriormente, incluyendo también a Alvin Lucier y David
Behrman. Los festivales ONCE, que mostraban música multimedia para teatro, fueron
organizados por Robert Ashley y Gordon Mumma en Ann Arbor entre 1958 y 1969. En
1960, John Cage compuso Cartridge Music, una de las primeras obras de electrónica en
vivo.
Los compositores y músicos de jazz, Paul Bley y Annette Peacock, fueron de los primeros
en tocar en concierto utilizando sintetizadores Moog hacia finales de 1960. Peacock hacía
un uso regular de un sintetizador Moog adaptado para procesar su voz tanto en el
escenario como en grabaciones de estudio.
Sintetizadores[editar]
Véanse también: Minimoog y Korg.

Robert Moog (también conocido como Bob Moog), a finales de 1963, conoció al
compositor experimental Herbert Deutsch, quien, en su búsqueda por sonidos electrónicos
nuevos, inspiró a Moog a crear su primer sintetizador, el Sintetizador Modular Moog. 11
El Moog, aunque era conocido con anterioridad por la comunidad educativa y musical, fue
presentado a la sociedad en el otoño de 1964, cuando Bob hizo una demostración durante
la Convención de la Sociedad de Ingeniería de Audio, celebrada en Los Ángeles. En esta
convención, Moog ya recibió sus primeros pedidos y el negocio despegó.
La compañía Moog Music creció de forma espectacular durante los primeros años,
haciéndose aún más conocida cuando Wendy Carlos editó el álbum Switched on Bach.
Bob diseñó y comercializó nuevos modelos, como el Minimoog (la primera versión portátil
del Moog Modular), el Moog Taurus (teclado de pedales de una octava de extensión, con
transposición para bajos y agudos), el PolyMoog (primer modelo 100% polifónico), el
MemoryMoog (polifónico, equivalía a seis MiniMoog's en uno), el MinitMoog, el Moog
Sanctuary, etc.
Moog no supo gestionar bien su empresa y esta pasó de tener listas de espera de nueve
meses a no recibir ni un solo pedido. Agobiado por las deudas perdió el control de la
empresa, la cual fue adquirida por un inversionista. Aun así continuó diseñando
instrumentos musicales hasta 1977, cuando abandonó Moog Music y se mudó a un
pequeño poblado en las montañas Apalaches. Sin él, la Moog Music fue a pique poco
después.
En 1967, Kato se acercó al ingeniero Fumio Mieda, quien deseaba iniciarse en la
construcción de teclados musicales. Impulsado por el entusiasmo de Mieda, Kato le pidió
construir un prototipo de teclado y, 18 meses después, Mieda le presentó un órgano
programable. La compañía Keio vendió este órgano bajo la marca Korg, hecha de la
combinación de su nombre con la palabra órgano, en inglés Organ.
Los órganos producidos por Keio fueron exitosos a finales de los años 60 y principios de
los 70 pero, consciente de la competencia con los grandes fabricantes de órganos ya
establecidos, Kato decidió usar la tecnología del órgano electrónico para construir teclados
dirigidos al mercado de los sintetizadores. De hecho, el primer sintetizador de Keio
(MiniKorg) fue presentado en 1973. Después del éxito de este instrumento, Keio presentó
diversos sintetizadores de bajo costo durante los años 70 y 80 bajo la marca Korg.

1970-1980[editar]
En 1970, Charles Wuorinen compuso Time's Encomium, convirtiéndose así en el primer
ganador del Premio Pulitzer por ser una composición completamente electrónica. Los años
70 también vieron cómo se generalizaba el uso de sintetizadores en la música rock, con
ejemplos como: Pink Floyd, Tangerine Dream, Yes y Emerson, Lake & Palmer, etc.
Nacimiento de la música electrónica popular[editar]
Véanse también: Rock progresivo, Escuela de Berlín, Krautrock, Space rock y Synth pop.

A lo largo de los años 70, bandas como The Residents y Can abanderaron un movimiento
de música experimental que incorporaba elementos de música electrónica. Can fue uno de
los primeros grupos en utilizar loops de cinta para la sección de ritmo, mientras The
Residents crearon sus propias cajas de ritmos. También en esta época diferentes bandas
de rock, desde Genesis hasta The Cars, comenzaron a incorporar sintetizadores en sus
arreglos de rock.
En 1979, el músico Gary Numan contribuyó a llevar la música electrónica a un público más
amplio con su hit pop Cars, del álbum The Pleasure Principle. Otros grupos y artistas que
contribuyeron significativamente a popularizar la música creada exclusiva o
fundamentalmente de modo electrónico fueron Kraftwerk, Depeche Mode, Jean Michel
Jarre, Mike Oldfield o Vangelis.
Nacimiento del MIDI[editar]
Artículo principal: MIDI

En 1980, un grupo de músicos y fabricantes se pusieron de acuerdo para estandarizar una


interfaz a través de la que diferentes instrumentos pudieran comunicarse entre ellos y el
ordenador principal. El estándar se denominó MIDI (Musical Instrument Digital Interface).
En agosto de 1983, la especificación 1.0 de MIDI fue finalizada.
La llegada de la tecnología MIDI permitió que con el simple acto de presionar una tecla,
controlar una rueda, mover un pedal o dar una orden en un micro ordenador, se pudieran
activar todos y cada uno de los dispositivos del estudio remotamente y de forma
sincronizada, respondiendo cada dispositivo de acuerdo a las condiciones prefijadas por el
compositor.
Miller Puckette desarrolló un software para el procesamiento gráfico de señal de 4X
llamado Max, que posteriormente sería incorporado a Macintosh para el control de MIDI en
tiempo real, haciendo que la composición algorítmica estuviera disponible para cualquier
compositor que tuviera un mínimo conocimiento de programación informática.
Síntesis digital[editar]
Véase también: Sample

En 1979, la empresa australiana Fairlight lanzó el Fairlight CMI (Computer Musical


Instrument), el primer sistema práctico de sampler polifónico digital. En
1983, Yamaha introdujo el primer sintetizador digital autónomo, el DX-7, el cual utilizaba
síntetis de modulación de frecuencia (síntesis FM), probada por primera vez por John
Chowning en Stanford a finales de los años 60.

1980-1990[editar]
Crecimiento de la música dance[editar]
Artículo principal: Música electrónica de baile

Véanse también: Música electro, Techno, Música house y Acid house.

Véanse también: Rave, Jungle, Drum and Bass, Música trance y Trance.

Hacia finales de los años 80, los discos de música de baile que utilizaban instrumentación
exclusivamente electrónica se hicieron cada vez más populares. Esta tendencia ha
continuado hasta el presente, siendo habitual escuchar música electrónica en los clubs de
todo el mundo.
Avance en la música[editar]
En los años 90, comenzó a ser posible llevar a cabo actuaciones con la asistencia de
ordenadores interactivos. Otro avance reciente es la composición Begin Again
Again de Tod Machover (MIT y IRCAM) para hyper chelo, un sistema interactivo de
sensores que miden los movimientos físicos del chelista. Max Methews desarrolló el
programa Conductor para control en tiempo real del tempo, la dinámica y el timbre de un
tema electrónico.

2000-2010[editar]
A medida que la tecnología informática se hace más accesible y
el software musical avanza, la producción musical se hace posible utilizando medios que
no guardan ninguna relación con las prácticas tradicionales. Lo mismo ocurre con los
conciertos, extendiéndose su práctica utilizando ordenadores portátiles y live coding. Se
populariza el término Live PA para describir cualquier tipo de actuación en vivo de música
electrónica, ya sea utilizando ordenador, sintetizador u otros dispositivos.
En las décadas de 1990 y 2000 surgieron diferentes entornos virtuales de estudio
construidos sobre software, entre los que destacan productos como Reason, de
Propellerhead, y Ableton Live, que se hacen cada vez más populares. Estas herramientas
proveen alternativas útiles y baratas para los estudios de producción basados
en hardware. Gracias a los avances en la tecnología de microprocesadores, se hace
posible crear música de elevada calidad utilizando poco más que un solo ordenador. Estos
avances han democratizado la creación musical, incrementándose así masivamente y
estando disponible al público en internet.
El avance del software y de los entornos de producción virtuales ha llevado a que toda una
serie de dispositivos, antiguamente solo existentes como hardware, estén ahora
disponibles como piezas virtuales, herramientas o plugins de los software. Algunos de
los softwares más populares son Max/Msp y Reaktor, así como paquetes de código
abiertotales como Pure Data, SuperCollider y ChucK.
Los avances en la miniaturización de los componentes electrónicos, que en su época
facilitaron el acceso a instrumentos y tecnologías usadas solo por músicos con grandes
recursos económicos, han dado lugar a una nueva revolución en las herramientas
electrónicas usadas para la creación musical. Por ejemplo, durante los años 90, los
teléfonos móviles incorporaban generadores de tonos monofónicos que algunas fábricas
usaron no solo para generar los Ringtones de sus equipos, sino que permitieron a sus
usuarios algunas herramientas de creación musical. Posteriormente, los cada vez más
pequeños y potentes computadores portátiles, computadores de bolsillo y PDA´s, abrieron
camino a las actuales Tablets y teléfonos inteligentes que permiten no solo el uso de
generadores de tono, sino el de otras herramientas
como samplers, sintetizadores monofónicos y polifónicos, grabación multipista, etc. que
permiten la creación musical en casi cualquier lugar.

También podría gustarte