Está en la página 1de 102

SERGIO ASCHERO

(2020)

1
1. Introducción

El número siete es un número muy popular, se le considera especial, relacionado con


la perfección, con la naturaleza e incluso con las deidades, motivo por el cual aparece
frecuentemente en la mitología y en la religión. El motivo de esta popularidad del
número siete es un misterio, pero quizás esté relacionado con el hecho de que desde
la antigüedad, se le asoció con las fases de la luna y con los siete cuerpos celestes de
nuestro sistema solar que eran conocidos, y que se ven a simple vista, el Sol, la Luna,
la Tierra, Mercurio, Venus, Marte, Júpiter y Saturno.

Para algunas culturas, como la griega, o las culturas influenciadas por esta, el número
siete era un número asociado con la perfección y lo divino. Por ejemplo, el médico
griego Hipócrates (460-370 a.C), que escribió una obra sobre el número 7, decía que:

"El número siete por sus virtudes ocultas, tiende a realizar todas las cosas; es el
dispensador de la vida y fuente de todos los cambios, pues incluso la Luna cambia de
fase cada siete días: este número influye en todos los seres sublimes. "

O el filósofo cristiano platónico Calcidio (siglo IV) decía también que:

"este número ha sido considerado como el mejor, porque se ha observado que es la


regla de muchos fenómenos producidos por las leyes naturales […]"

Siete son los días de la semana. Desde la antigüedad se ha medido el tiempo mirando
al cielo, observando el movimiento de los cuerpos celestes. Un día es el tiempo que
tarda el girar la Tierra sobre sí misma (en la antigüedad, el tiempo que pasaba entre
dos salidas del sol por la mañana), el mes se deriva del periodo de tiempo que dura
cada ciclo lunar y el año del tiempo que la Tierra tarda en dar una vuelta alrededor del
Sol.

El ciclo de la Luna alrededor de la Tierra es de aproximadamente 28 días, y además la


Luna tiene cuatro fases (llena, menguante, nueva y creciente), motivo por el cual los
antiguos babilonios, y otros pueblos, ya empezaron a medir el tiempo en ciclos de 7
días, que era lo que duraba cada fase lunar, dando origen así al concepto de semana.

Además, como 7 eran los cuerpos celestes conocidos en la antigüedad, en muchos de


los idiomas los días de la semana estaban inspirados precisamente en estos. Así, los
nombres de los días de la semana en castellano son: ―lunes‖, derivado de la expresión
latina dies lunae (día de la Luna); "martes", derivado de la expresión en latín dies
martis (día de Marte); "miércoles", de dies mercurii (día de Mercurio); "jueves", de diez
iovis (día de Júpiter); "viernes", de dies veneris (día de Venus); "sábado" sin embargo
se deriva de la palabra hebrea Shabat, que significa descanso, puesto que en la
antigüedad se consideraba que el domingo era el primer día de la semana y el sábado
el último, y por lo tanto, el día de descanso, aunque el nombre en latín era dies
saturnis (día de Saturno); mientras que el "domingo" se deriva de la expresión
latina dies dominicus, día del señor, aunque en Roma se llamaba dies solis (día del
sol).

Aunque en otros idiomas se numeraban los días de la semana, primer día, segundo
día, etc., como por ejemplo en hebreo (salvo el sábado, Shabat), o también en
portugués, para el cual de lunes (que era el segundo día de la semana) a viernes (el

2
sexto), sus nombres son Segunda-feira, Terça-feira, Quarta-feira, Quinta-feira,
y Sexta-feira, y luego como en castellano, sábado y domingo.

Un ejemplo curioso son los nombres de los días de la semana en euskera. Los tres
primeros días de la semana, lunes, martes y miércoles, se
nombran astelehena (primer día de la semana), asteartea (día de la mitad de la
semana) y asteazkena (último día de la semana), ya que según parece para los
antiguos vascos la semana constaba de tres días. Después se amplió a la semana de
siete días, osteguna, ostirala, larunbata e igandea, cuyo origen es algo más complejo.

Por último, recordemos que en el cristianismo, el judaísmo y el islam el universo fue


creado por Dios en siete días, una semana, empleando el último día para descansar.

Para algunas culturas, como la griega, o las culturas influenciadas por esta, el número
siete era un número asociado con la perfección y lo divino. Por ejemplo, el médico
griego Hipócrates (460-370 a.C), que escribió una obra sobre el número 7, decía que:

"El número siete por sus virtudes ocultas, tiende a realizar todas las cosas; es el
dispensador de la vida y fuente de todos los cambios, pues incluso la Luna cambia de
fase cada siete días: este número influye en todos los seres".

En la Biblia hay bastantes referencias al número 7, como un número de perfección,


asociado a Dios. Por ejemplo, en Josué 6 le dice Dios a Josué…

"Y todos ustedes, los hombres de guerra, tienen que marchar alrededor de la ciudad,
dando la vuelta a la ciudad una vez. […]Y siete sacerdotes deben llevar siete cuernos
de carnero, delante del Arca, y al séptimo día ustedes deben marchar alrededor de la
ciudad siete veces, y los sacerdotes deben tocar los cuernos. Y tiene que suceder que
al hacer ellos sonar el cuerno de carnero […] todo el pueblo debe soltar un gran grito
de guerra; y el muro de la ciudad tiene que desplomarse,…"

Y hay muchas más citas en la Biblia con el número 7. Este número aparece con
mucha frecuencia. Por citar otra, en Mateo 18 podemos leer…

"Entonces se acercó Pedro y le dijo: "Señor, ¿cuántas veces ha de pecar contra mí mi


hermano y he de perdonarle yo? ¿Hasta siete veces? ". Jesús le dijo: "No te digo:
Hasta siete veces, sino: Hasta setenta y siete veces."

Y se menciona mucho el número siete en el Apocalipsis, más de medio centenar de


veces. Por ejemplo, se habla de los siete sellos, las siete trompetas y las siete copas,
que son toda una serie de cataclismos que terminan con el juicio final. Los cuatro
primeros sellos son los cuatro jinetes de la Apocalipsis. Y hay más citas… siete
ángeles, siete plagas, siete truenos, un cordero con siete cuernos y siete ojos, un
dragón con siete cabezas y diez cuernos, siete mil hombres, etc…

El siete también está muy presente en el Talmud, que es el texto que recoge las leyes,
costumbres, tradiciones, y la historia del pueblo judío. Siete son los mandamientos
básicos (conocidos como las siete leyes de los hijos de Noé):

1. Prohibida la idolatría;

2. Prohibida la blasfemia;

3
3. Prohibido el asesinato;

4. Prohibidas las relaciones sexuales ilícitas;

5. Prohibido el robo;

6. Prohibido comer animales vivos;

7. Establecer sistemas de justicia para asegurar la obediencia a los mandamientos.

Según el Talmud, existen siete cielos. A saber:

1. Vilón (que sería algo así como la atmósfera, el cielo de las nubes y los vientos,
donde habitan Adán y Eva);

2. Rakia (donde está el sol, la luna, los demás planetas y las estrellas);

3. Shejakim (donde está el maná, alimento espiritual para los justos);

4. Zevul;

5. Maón;

6. Majón;

7. Aravot (donde está Dios).

Esta idea de los siete cielos, que aparece en varias religiones (judaísmo, Islam o
hinduismo), proviene de la antigua cosmología babilonia… en algunos textos puede
leerse que "los cielos son siete, las tierras son siete". También son siete los
infiernos en el Islam.

Según el hinduismo, existen siete chakras principales, es decir, centros de una


supuesta energía en el cuerpo humano (aunque según algunas doctrinas serían solo
seis). También en el hinduismo, existen siete sabios, o saptarishi, de la antigüedad,
que se encuentran alojados en las siete estrellas de la osa mayor.

Y la mención a estos sabios nos recuerda la existencia de otros, los siete sabios de
Grecia, que fueron siete eruditos de la Grecia antigua (legisladores, filósofos, políticos
y gobernantes/tiranos), que vivieron entre los siglos VII y VI a.C, y cuyos
conocimientos o enseñanzas prácticas se recogieron en aforismos. El matemático y
filósofo Thales de Mileto (aprox. 625-547 a.C) es uno de esos siete sabios de Grecia.
Se le atribuye la máxima "conócete a ti mismo" (aunque esta se ha atribuido a varios
sabios griegos, entre ellos, Heráclito, Sócrates y Pitágoras), o también "en la confianza
está el peligro". Otro de los sabios fue el poeta Cleóbolos, que gobernó Lindos hacia el
600 a.C y a quien se le atribuyen los aforismos "la moderación es lo mejor" o "Aceptar
la injusticia no es una virtud, sino todo lo contrario".

4
Y Siete son los dioses de la fortuna en la mitología japonesa. Son deidades de la
buena suerte… Hotei (dios de la abundancia y la buena suerte), Jurojin (de la
longevidad), Fukurojuku (de la felicidad), Bishamonten (de los guerreros), Benzaiten
(del conocimiento, el arte y la belleza), Daikokuten (de la riqueza y el comercio), Ebisu
(de los pescadores y los mercaderes).

En la mitología irlandesa, el héroe Cúchulainn, está asociado con el número 7. Con 7


años recibe sus primeras armas, con 17 años defendió el Ulster él solo contra el
ejército de la reina Maeb de Connacht, además está escrito que tenía "siete dedos en
las manos y los pies, y siete pupilas en cada ojo".

La expresión "los siete mares" es una expresión que se ha utilizado en muchas


culturas a lo largo de la historia para designar una serie de siete mares de la zona de
Afro Eurasia (África, Europa y Asia), aunque en cada tiempo se ha referido a mares
distintos. Se menciona por primera vez esta expresión hacia el 2.300 a.C en un himno
a la diosa Inanna escrito por la poetisa sumeria Enheduanna. Y, por ejemplo, en un
manuscrito del siglo IX se menciona "quien quiera ir a China deberá cruzar los siete
mares". Quizás los más conocidos, son los referidos en la literatura medieval, el golfo
Pérsico, el mar Negro, el mar Caspio, el mar Rojo, el mar Mediterráneo, el mar
Adriático, y el mar de Arabia; mientras que en la actualidad se ha adaptado la
expresión al mundo entero, a los "siete" océanos (entendiendo que el Pacífico y el
Atlántico se dividen en norte y sur).

Las siete maravillas del mundo (antiguo) eran siete esculturas y obras arquitectónicas
que los antiguos griegos consideraban dignas de ser visitadas. Existieron varios
listados, pero el que más consenso tenía era: la Gran Pirámide de Giza (2.500 a.C),
los Jardines Colgantes de Babilonia (600 a.C), el templo de Artesima (550 a.C), la
Estatua de Zeus en Olimpia (430 a.C), el Mausoleo de Halicarnasso (350 a.C), el
Colosso de Rhodas (290 a.C) y el Faro de Alejandría (250 a.C). He leído que la
expresión de "maravillas" se debe a un error de traducción, ya que los primeros
griegos utilizaban la palabra "theamata", que significaría "cosas que hay que ver", y no
"thaumata", que sería el término para "maravilla". Que fueran siete, como en otros
casos (los siete sabios de Grecia, las siete colinas de Roma, etc.), se debe a que,
como ya hemos comentado, los griegos creían que el número siete era un número
perfecto.

La expresión "las siete cumbres" se refiere al grupo de las siete montañas más altas
de cada uno de los siete continentes (entendidos estos como América del Norte y del
Sur, África, Europa, Asia, Australia y Antártida). Monte Everest (8.848 m) en Asia,
Aconcagua (6.961 m) en América del Sur, Denali (6.194 m) en América del Norte,
Kilimanjaro (5.895 m) en África, Monte Elbrus (5.642 m) en Europa, Monte Vinson
(4.892 m) en la Antártida, y otro en Australia (4.536 m).

En muchas culturas se creía que el séptimo hijo de un séptimo hijo tenía poderes
especiales. En la cultura irlandesa se consideraba que tenía el poder de sanar, y
también, como en otras culturas (la inglesa o la norteamericana), que podían ver el
futuro. En América, y especialmente en América Latina, se le asocia a la posibilidad de
ser hombre lobo, con poderes sobrenaturales.

Y recordemos que para los griegos siete son las artes liberales, trívium (gramática,
dialéctica y retórica) y quadrivium (aritmética, geometría, astronomía y música).

5
Los siete días de la semana fueron considerados sagrados: el lunes por los griegos, el
martes por los persas, el miércoles por los asirios, el jueves por los egipcios, el viernes
por los turcos, el sábado por los judíos y el domingo por los cristianos.

2. Guido D’Arezzo y las siete notas musicales

Tradicionalmente las materias escriptorias se dividen en dos ramas, en cuanto al


soporte se refiere, las materias escriptorias duras, en su generalidad son estudiadas
por la Epigrafía y las materias escriptorias blandas, que se las considera más
originales de la Paleografía. Las utilizadas más corrientemente son:
Papiro: Considerada dentro de las Materias escriptorias blandas, consiste en una
lámina obtenida de la planta ciperácea, que lleva el mismo nombre. Llamada Junco del
Nilo, de cuya pulpa o meollo, se sacan tiras que se presentan, mojan y secan, previo
un procedimiento especial de preparación del material. Adoptan variadas formas, y
según ellas se llaman "scheda" si son en forma de tiras, "plágulas" si son láminas y
"scapus" si adoptan la de rollo. Tiene grosor diferente. Plinio establece nueve
cualidades diferentes del papiro, desde lo que sería el papel de seda hasta el de
embalar. Las escrituras del papiro se conservan por mucho tiempo gracias a que estos
documentos se guardaban enrollados. Se usó generalmente en Egipto, Creta, Grecia y
Roma desde el Siglo VI y VII d.C. En Herculano se hallaron 24 rollos de papiro en casa
de Pisón Cesonino que hospedaba al filósofo Filodemo de Gadara. El papiro se utilizó
en la época primitiva para todos los documentos reales. En la Edad Media alcanzó su
máximo apogeo. El papiro más antiguo es el proveniente de la 5a. dinastía de los
faraones egipcios (2.000 años antes de Cristo), llamado "prisse". Pergamino:
generalmente se empleaba la piel de res, raída, adobada y estirada; se utilizó también
la piel de otros animales. En Egipto se usó pieles de gacela. El pergamino más
apreciado fue el confeccionado con pieles de nonato.

6
La piel se introduce en agua con cal. Una vez limpia, se alisa con una piedra pómez y
se la seca estirándola. Los encargados de hacerlo eran los monjes pergamineros, el
más conocido en España fue el monasterio de Guadalupe. El pergamino fue el
material usado preferentemente en la Edad Media. Se usó para escritos literarios y
diplomáticos. Su origen remonta, según la leyenda recogida por Plinio, a la
introducción que del mismo hiciera Eumenes II, rey de Pérgamo (197 a 195 a.C.) para
suplir la falta de papiro que los Ptolomeo se negaban a venderle por temor que estos
hicieran una biblioteca más grande que la que ellos habían fundado en Alejandría. De
esta manera fue introducido el pergamino. Se sostiene, sin embargo, que pese a las
leyendas, el pergamino es más antiguo que el mismo papiro. En la Edad Media
alcanzó tanto auge que existía el Gremio de Pergamineros, siendo uno de los más
importantes. En los monasterios se le elaboraba, especialmente. Procedentes del
Siglo IV se conservan interesantes pergaminos. Bronce: Este material duro se usaba
para los diplomas de los militares, en Roma. Era la acreditación del "ius civitatis" y el
"ius connbui". También se otorgaba como Diploma a los soldados y enviados
especiales a los países extranjeros, a fin de justificar la ciudadanía romana.
Plomo: Se usaba especialmente para las Bulas papales. Ejemplo: La Bula de Gregorio
II (732). Según el material empleado era el nombre de estos documentos pontificios
(Bula de Cera, de Oro, de Plomo, etc.)
Piedra: Se usaba para los Fastos Consulares.
Tablas o Códices: Se les llamaba así a una especie de madera recubierta en cera; y
según fueran una o varias tablas unidas, estas se denominaban dúlicas, múltiples,
triplice, etc. Se usaban en las Iglesias para fijar los "momentos".
En los libros generalmente se escribía en columnas mientras que en los documentos
en forma de cartas.
Tablillas enceradas: tabellae cerade. Fueron utilizados principalmente por lo griegos y
por los romanos, gracias a los griegos, las tablillas se extendieron a todo el mundo
Helénico, se lo cita en la Ilíada. Dada su permanencia se utilizó hasta la edad Media
inclusive.
Destinado preferentemente a textos cortos, fueron de gran utilidad por la facilidad de
su manejo, con la posibilidad de borrar sus contenidos y poder reutilizarse, siendo su
resistencia al manipuleo mayor que la del papiro; su utilización se extendió en todas
las formas como lo hacemos actualmente con el papel, cuando de escritura se trata,
pero esencialmente desde el punto de vista archivístico, las tablillas enceradas
prestaron gran utilidad en las investigaciones históricas y sociológicas al redactarse en
ellas las actas, contratos, testamentos, etc..
Las tablillas se fabricaban de maderas comunes, como el abeto, el arce, el boj. Las
tablillas hechas de marfil o maderas finas eran artículos de lujo; eran rectangulares y
plegables, con forma de libro, con la parte central acanalada en madera o marfil,
dejaban un borde saliente en todos los márgenes para proteger la escritura que se
fijaba en la parte hundida que estaba recubierta por una capa de cera oscura, donde
se trazan los caracteres y dibujos mediante una punta dura del pudiendo borrarse con
la parte plana de la misma.
Normalmente las tablillas se agrupaban de a dos, pero podían tener un gran número
de "paginas", recibiendo los nombres de dípticos y polidípticos, en latín son
denominados códices, dúplices, tríplices, etc. se unían entre sí por medio de
charnelas, en el borde izquierdo.

7
Las tablillas más pequeñas, podían caber en la palma de la mano, se denominaban
codicillus y pugillares, pero existieron los de tamaño exagerado que había que
transportarlos en hombros.
Se pueden clasificar de acuerdo a las caras empleadas para la escritura:

Tablillas enceradas mono faciales: dícese de las tablillas escritas de un sólo lado.
Correctamente denominados como anapistógrafos.

Tablillas enceradas opistomáticas: cuando están escritas en dos lados. El término


correctamente empleado sería opistográfica. La opistografía se define como la
escritura por ambos lados o caras de la materia escriptoria. Si consideramos los rollos
de las materias blandas, estos se escribían por una sola cara, cuando se insertan en
forma de libros es cuando empieza a escribirse en ambas caras.

Si eran más carillas por diferentes uniones, se denominaban códex.

La Iglesia primitiva los utilizaba para anotar en dos listas paralelas los nombres de los
vivos y los muertos por quienes había que orar. También se usaron como catálogos o
serie de nombres de personas, generalmente de los obispos y de diócesis. Los
dípticos se confeccionaban con marfil y se los obsequiaba a los cónsules, pero cuando
se difundió su uso fue prohibido por Teodosio.

Entre los hallazgos más importantes de estos soportes se cita a Pompeya donde se
encontraron dípticos en cantidad considerable.

Papel: el papel es originario de China (2.000 a.C.); los árabes lo difundieron por
Europa (Siglo VIII). Especialmente en España, donde se fabricó con fibras vegetales.
Confeccionado en libro la obra más antigua que se conoce es el "Adversus iudeceos"
de Pedro el Venerable, abad de Cluny (1.122 - 1.150) Otra de las obras más antiguas
fue el "Vocabularium gothicum" (En la biblioteca Nacional de París – Siglo XI).
Después del Siglo XVI el papel comienza a suplantar al pergamino; empezándose a
conocer desde principios de la Edad Media el papel de trapo. El papel desplazó al
pergamino por el bajo costo y por la relativa facilidad de su uso.
Sobre el pergamino el papel se escribió con plumas. Generalmente se empleaba la
pluma de oca.
La tinta se fabricaba de hollín con goma. En determinados casos se utilizó la tinta roja.
En la Edad Media, el encabezamiento y la firma de algunos documentos se efectuaban
con tinta roja. El Imperio Bizantino, en las escrituras del rey se empleaba la tinta roja y
en las del heredero se utilizaba la verde. La palabra rúbrica (rubrum) proviene de la
costumbre de firmar con tinta roja.
La rúbrica en algunos casos, sustituye a las palabras latinas que se realizaban en tinta
roja para garantizar su autenticidad.

Básicamente por notación musical se entiende un sistema de signos convencionales


que indican gráficamente el sonido.
Numerosos han sido los sistemas de notación según el pueblo y la época.
Se pueden dividir en dos grandes categorías: notación fonética, en la que las palabras,

8
letras o cifras indican los grados de la escala con el añadido de signos secundarios
que señalan los valores de duración; y la notación diastemática, en que la
configuración melódica en su sucesión de graves y agudos es de inmediato clara para
la visión, por la posición relativa de los signos.

Entre las notaciones fonéticas se hallan: la India (la más antigua), que consiste en
cinco consonantes y dos vocales que representan los nombres de los grados de la
escala, en tanto que el añadido de otras vocales dobla en valor de las notas; la de los
árabes, que divide la escala en tercios de tono y escribe la escala en grupos de tres
letras; la griega antigua, con letras y signos; las tablaturas, en que las letras o figuras
representan las teclas o digitación de los instrumentos y otras de más reciente
aparición.
En Grecia, la notación alfabética instrumental se refería a las cuerdas y seguía el
orden de los sonidos del instrumento, mientras la notación alfabética vocal se refería al
orden de los sonidos de la escala.
Es importante destacar que desde la concepción pitagórica del número como esencia
de lo musical (entre otras cosas), se estableció que los acusmáticos eran los
aprendices que todavía no tenían la capacidad para opinar sobre el contenido de las
enseñanzas de su maestro y que al superar las pruebas, se transformaban en
matemáticos. También es importante recordar que el discípulo de Pitágoras, Platón; en
la Academia de Atenas, dio a la música la categoría de ciencia, junto a la aritmética, la
geometría y la astronomía. Eso fue hasta la Edad Media e inclusive durante el Barroco
Temprano, y se denominó quadrivium. La música se estudiaba en las Universidades
de toda Europa como ciencia, no como arte. Otro discípulo, esta vez de Platón,
Aristóteles; se opuso a esta idea y trató de encuadrar la música dentro de las artes. Al
fin lo logró mil años después: la acústica reemplazó a la música como parte de la
mecánica, y la música pasó a ser un arte, pero con una pérdida importante: dejó de
tener el rigor que establecía su concepción pitagórica, y perdió - a partir de una
escritura confusa teñida por el oscurantismo de la Iglesia - la lógica de sus comienzos.

La notación neumática deriva de los acentos que sirven para indicar un ascenso o un
descenso de la nota; esta notación sólo indica que la voz debe subir o bajar de grado,
pero no define el intervalo y sirve por lo tanto esencialmente de signo mnemotécnico
para quien ya conoce la melodía.
No indica el valor de las notas, porque la idea de fijar la duración de las sílabas del
texto, por medio de notas medidas no se les ocurría a los músicos.
Los neumas tuvieron diversos nombres: virga o vírgula se dijo del acento agudo que
indicaba una nota más alta que las vecinas; el punctum equivale al acento grave, es
decir, indicaba un ascenso de la voz; clivis era una combinación de acento agudo y
grave (acento circunflejo) e indicaba una nota aguda seguida de otra grave; otras
combinaciones de acentos, es decir de notas de distinta altura eran el podatus, el
scándicus, el climacus, el tórculus, el porrectus, etc.
Los signos mismos sufrieron una modificación de acuerdo a cada nación y época.
Decisiva fue la introducción del pautado con la clave, de donde derivó el tetragrama.
Cuando a la única voz cantante se unió la segunda voz (órgano y discanto), surgió la
necesidad de medir exactamente el valor de las notas; y como la antigua medida
poética de las sílabas había sugerido la división regular de las largas y de las breves,
así se conservaron en la misma los términos anteriores.

9
La notación cuadrada, que sucedió a la neumática, se formó lenta y trabajosamente de
ésta, conservando algunos de los puntos esenciales.
El signo de la virga se convirtió en longa, el del punctum en breve (con el múltiplo
dúplex longa y el submúltiplo semibreve).
El valor convencional de la longa era de tres breves, el de la breve de tres semibreves.
Se conservaron los valores del podatus, del climacus, etc.
La representación se hacía siempre con notas cuadradas, diversamente unidas por
medio de rasgos sutiles.

En el Siglo XIV aparecieron otros valores de duración, como la mínima y la


semimínima; hacia la mitad del siguiente Siglo se introdujo el uso de las notas blancas,
de mayor valor que las negras. La forma redondeada de las notas actuales se remonta
al 1.400, época en que se halla ya en la escritura corriente, pero en la impresión no
apareció hasta 1.700.

De igual modo que la música misma, la notación bizantina había de ejercer influencia
sobre la occidental, aunque cada pueblo la desarrollase a su modo.
Los elementos básicos iguales a los que hallaremos en los neumas latinos son: el
punto, el acento agudo, el acento grave, la coma y el apóstrofo.
La notación bizantina más antigua se llamaba "ekfonética" o "recitativa". Más que
representación de sonidos, sus signos parecían ser puntuación del texto cantado,
comenzó en el Siglo V, quizá en el III y se extendió hasta el XIII. Desde el Siglo XI
aparece la tendencia a la notación diastemática que se generalizó algo después, con
dos especies principales de signos: los fonéticos, que representan sonidos, ya
repetidos, ya diversos (sin que los intervalos se hallen claramente indicados); y los
áfonos (sin sonido), complemento de los anteriores para expresar duraciones, es decir
de cierto carácter rítmico.
Los maistores, es decir los maestros y teóricos bizantinos, consideraban hasta una
cincuentena de signos áfonos. Los signos de esta notación llevaban nombres
característicos que a veces se dirigían a la imaginación, como "aple" (simple),
"klasma" (roto), "gorgón" (vivo), "argón" (brillante), "bareja" (grave), "homalón" (con
calma). Puede citarse también el "isón" (unísono).
Lo mismo se llamaba un procedimiento muy usado en Bizancio y en Oriente: sonido
repetido constantemente como pedal, sobre el que se apoya otra voz.
Entre los teóricos bizantinos es digno de mención Juan Kukuzeles, monje del Monte
Athos (Siglo XIII), quien compuso una nueva teoría de la notación, que procuraba
simplificar ciertos aspectos de la paleobizantina. Además, al mismo tiempo que en
Occidente, a partir del Siglo VI, se sustituyó la antigua notación griega por letras del
alfabeto latino.
A las quince notas del sistema hipolidio griego, se le aplicaron otras tantas letras con
caracteres mayúsculos.
Dicha notación fue llamada boeciana.
Después siguió un largo período de oscuridad. A partir del Siglo VIII aparece la
notación neumática, que al descubrirse, en época muy posterior como escritura de la
música de Occidente, pareció misteriosa e ininteligible. Los neumas alargados,
puntiagudos, se llamaron sajones; otros gruesos, cuadrados, fueron denominados
lombardos.

10
Ha habido muy diversas opiniones sobre su origen: germánico, oriental, judaico
(signos rabínicos). Hoy ven algunos su procedencia en la cheironomia egipcia. Los
elementos principales de los neumas son: el punto, la coma o acento agudo, el grave,
el circunflejo y el apóstrofo.
Vemos pues, simplemente como elementos secundarios de la escritura, reemplazaron
a las letras, elementos primarios de la misma.
Hacia fines del Siglo XI, el flexa se denominó clivis. Su inversión pes o podatus.
Y aparecen nuevas combinaciones:
Torculus, intervalo ascendente, seguido de otro igual descendente.
Resupina, inversión del anterior.
Scandicus, dos intervalos ascendentes.
Climacus, inversión del anterior.
Pressus, trino.
Quilisma, trémolo.
Y aún otros, porrectus, cephalicus, epiphonus...

La fijación de la altura de los sonidos y, por lo tanto, su entonación, era absolutamente


empírica. Se indicaba únicamente por la mayor o menor separación del texto a que se
hallaban colocados los neumas. Tan poca precisión originaría, probablemente, no
pocos errores.
Algunos teóricos tuvieron la idea de trazar líneas como punto de referencia. Primero
una, luego dos. Todos los signos que coincidieran con ellas corresponderían a igual
sonido. La innovación era, pues, trascendental.
Tal invención se atribuye a Guido D’Arezzo. Sin embargo, las dos primeras líneas
datan del Siglo X y algunos creen que es de Hucbaldo la invención de la primera.
Guido D’Arezzo agregó dos líneas más a las ya existentes, dándoles a cada una un
color diferente.
Esta pauta de cuatro líneas, tetragrama, estuvo siempre en uso para el canto
gregoriano, que a veces se escribió en tres líneas solamente.
Después se agregó la quinta línea superior, definiéndose el pentagrama, que tuvo
preferencia en la música profana y, al fin, generalizada desde el Siglo XVI. Si se
recuerda que, en la antigua notación, las notas eran letras, se comprenderá que las
claves nacieron con las líneas.
La invención de las claves se atribuye también, como tantas cosas, a Guido D’Arezzo.
Sin embargo, ya en las dos primeras líneas se fijaron las letras F (fa) y C (do) como
claves signatae, que correspondían a los semitonos mi fa y si do.
Las combinaciones sobre el tetragrama de Guido corresponden así a diversas claves,
según la colocación de las notas.
En el Siglo XIII se fijó la clave de G (sol).
Las lentas deformaciones que a través de los tiempos presentan la F, la C y la G
determinaron la forma actual de esas claves.
En los Siglos XII y XIII se generalizó la notación cuadrada, derivación de los neumas
que acabaron adquiriendo formas de cuadrado y de rombo.
Al mismo tiempo el ritmo observado en la música profana entraba igualmente en la
religiosa, a excepción del canto llano, y se combinó con tal notación cuadrada, que
casi dio origen a la denominada proporcional.
Esta fijaba el valor de cada signo proporcionalmente al de los demás. Pero al principio
fue confusa y arbitraria.

11
Sus convenciones tardaron mucho en simplificarse y aclararse, según demuestra la
paleografía musical.

La forma de las primitivas figuras provino de una lenta evolución a través de las
deformaciones sufridas por los neumas en su escritura.
El cuadrado con apéndice vertical descendente a la derecha se denominó longa; el
cuadrado sin apéndice fue brevis; el rombo, semibrevis. Además, el cuadrado de la
longa se alargó en rectángulo y fue la máxima, triple o doble longa. Según el ritmo, en
la división perfecta (ternaria), una figura valía tres de la inmediata inferior; en la
imperfecta (binaria), dos.
En el Siglo XIV la semibreve con apéndice fue mínima, y esta con corchete,
semimínima.
Por entonces las notas eran negras o rojas. En la siguiente centuria, blancas o negras,
como hoy.
A estas opciones de color respondían las denominaciones de notula rubra, notula alba,
notula nigra.
Asimismo en el Siglo XV se establecieron más subdivisiones: fusa y semifusa.
Posteriormente la fusa fue corchea; la semifusa, semicorchea, y sus respectivas
divisiones determinaron a su vez la fusa y semifusa modernas.
Aún se agregaron la garrapatea y la semigarrapatea. Al mismo tiempo se
establecieron todos los valores de los silencios. La notación proporcional obedece,
como acabamos de ver, a un concepto rítmico, al renacimiento del ritmo.
Los griegos, según sabemos, poseían considerable variedad de ritmos. Este elemento
fue conservado todavía en el canto ambrosiano.
Dentro del ideal de pureza y elevación cada vez mayores, el ritmo se diluyó, se fundió
en la palabra misma. Todavía hallamos sus vestigios en el canto gregoriano. Pero su
concepto es diferente a lo que habitualmente se entiende por ritmo. En efecto, aquél
es muy vago e impreciso; una fluctuación provocada por la acentuación de las
palabras.
Tal ritmo libre era de naturaleza prosódica y no métrica.
Lo mismo que, al hablar, unas sílabas son largas y otras cortas, las notas eran
desiguales en su duración, sin que una larga valiera dos cortas.
Así, fuera de toda simetría y proporción, el primitivo canto gregoriano se adaptaba al
ritmo natural del lenguaje, y la libertad de éste era tanto mayor cuando al principio se
cantaba en prosa.
Tal declamación era ya silábica, ya vocalizada o melismática.
Pero dicha fluctuación rítmica asimétrica desapareció más tarde, haciéndose entonces
la duración de todas las notas absolutamente iguales, con perjuicio de la expresión a
causa de la gran monotonía que dominaba.
Esto fue el canto llano (planus cantus), es decir, canto aplanado de toda saliente o
depresión rítmica.
El rigor en tal sentido fue cada vez más severo. El canto perdió así toda flexibilidad y
expresión y se volvió pesado, cual un estancamiento de la melodía. Como dijimos, en
tiempos recientes la Iglesia reformó el canto llano para restaurar su más artística
tradición gregoriana.
En el Siglo XIII - según hemos explicado a propósito de la notación y como
consecuencia de la polifonía - renació el ritmo.

12
Primeramente sólo se admitió el ritmo ternario, símbolo de la trinidad y de la
perfección.
Se lo llamó perfecto. A partir del Siglo XIV se estableció también el binario o
imperfecto. El primero se representaba con una circunferencia, el segundo se indicaba
con una semicircunferencia, de la que proceden nuestros signos de los compases
binarios 2/2 y 4/4.
Estas prolaciones, de prolatio, o relaciones de valores, eran el fundamento del arte
mensurable, que restablecía la medida.
El ritmo tuvo también sus modos, que aquí significaban esquemas o fórmulas rítmicas
tomadas a los griegos, como el troqueo: valores largo y breve; el yambo: breve y largo;
el dáctilo: largo, breve y breve; el anapesto: breve, breve y largo.
El solfeo medieval, entonación de las notas pronunciando al mismo tiempo el nombre
correspondiente, se denominó solmisación.
Odón de Cluny, el primero de los dos así llamados, intentó crear una nomenclatura; los
siete nombres que proponía eran: buc, re, scembs, caemar, neth, uiche, asel. En
Oriente ya se habían intentado otras nomenclaturas. Difíciles y raras las
denominaciones de Odón, no tuvieron éxito.
En cambio se adoptó pronto la nomenclatura propuesta por Guido basada en
monosílabos procedentes del himno a San Juan Bautista que reza así:

Ut queant laxis
Resonare fibris
Mira gestorum
Famuli tuorum
Solve polluti
Labii reatum
Sancte Ioannes

La primera sílaba de cada verso corresponde a las notas; ut, re, mi, fa, sol, la. En
cuanto a la séptima nota se quedó sin nombre hasta el Siglo XVI, en que se denominó
si, monosílabo formado por las iniciales SI, de Sancte Ioannes.
El himno a San Juan, aproximadamente significa: "para que resuenen con entusiasmo
en las fibras de tus ciervos las maravillas de tus hechos, limpia de pecado el labio
culpable, San Juan".

El bemol, como carecía de nombre, para designarlo aisladamente era preciso llamarlo
be, de acuerdo a la letra que lo representaba anteriormente (B) = (si). Por
consiguiente, el B era mollis, blando, es decir, B mollis, de donde deriva bemol.
El bemol aparece en la música para evitar la aparición de tritono (diabolus in musica),
intervalo prohibido y temido.
A partir del si bemol surgen los demás bemoles.
De igual modo el si natural, considerado duro por oposición al blando, fue
representado por el cuadrado, símbolo de la rigidez y dureza de sus cuatro ángulos.
Por tanto, fue B quadrum. Así se originó la voz becuadro.
El uso del bemol fue un primer paso hacia la destrucción de los antiguos modos y una
aproximación inicial hacia los modos mayor y menor, que en la música profana,
desarrollada a partir de los Siglos XII Y XIII, se generalizó rápidamente.
Por otra parte, ya lo habían usado los griegos en el sistema perfecto.

13
Para los cantores populares eran difíciles los modos eclesiásticos. El oído acepta más
fácilmente la división de la escala en dos tetracordios simétricos con reposo, ley
atractiva, en el cuarto grado de cada uno: o sea cuarto y octavo dentro de la octava.
Es el concepto de la sensible, con el semitono atraído por la tónica.
Adoptado el tono de do mayor en el canto popular, los tonos gregorianos debían ser
asimilados al mismo, como simples transposiciones. En una palabra, se destruían.
El sostenido se llamó diesis, que en griego significa elevación.
Es probable que al principio esta alteración no fuera todavía de medio tono, pero
cuando adquirió tal valor, el sistema tonal empezó a construirse. El uso de las
ligaduras aparece en la notación mensural y se resuelve con ciertas reglas
complicadas.
Fue desapareciendo rápidamente durante el Siglo XVI, generándose nuestra notación
actual mediante la introducción de la barra divisoria de compás en el Siglo XVII y la
transformación de las notas cuadradas en redondas.
Tanto las tablaturas de órgano como las del laúd desaparecen en el Siglo XVIII. Sin
embargo, existen todavía diferentes escrituras por cifras en la música folklórica y
popular.

El sistema organizado de la armonía occidental, practicado desde el año 1650 al 1900


aproximadamente, evolucionó a partir de la música estrictamente melódica de la Edad
Media que dio origen a la polifonía. La organización de la música medieval deriva de
los conocimientos fragmentarios de la música griega antigua por parte de los teóricos
medievales.

La música de Grecia consistía en las melodías cantadas al unísono o a la octava, el


término armonía lo encontramos frecuentemente en los escritos sobre música de la
época. Los principales teóricos nos muestran una visión clara de un estilo musical que
consiste en una elección amplia de "harmonías", y Platón y Aristóteles discuten el
valor moral y ético de una "harmonía" sobre la otra.

En la música griega una "harmonía" era la sucesión de sonidos dentro de una octava.
El sistema griego contemplaba siete "harmonías" o tipos de escala, distinguidos unos
de otros por su orden de tonos y semitonos. Más tarde, estas "harmonías" fueron
llamadas modos, un término más amplio que incluía la línea característica de una
melodía, así como también la escala utilizada.

Hacia el siglo IX la práctica de la armonía se inició en muchas iglesias por la


interpretación de fragmentos de melodías de canto llano con un añadido, la
armonización de la voz o refuerzo del sonido para llevarlo a las iglesias más grandes.
Esta técnica de armonizar, orgarum, es el primer ejemplo de armonía. Los primeros
eran sumamente simples. Consistían en agregar una voz exactamente igual a la
melodía original a intervalo de cuarta o quinta (orgarum paralelo).

14
La nueva técnica evolucionó hacia una gran diversidad. Las líneas añadidas
adquirieron independencia melódica, frecuentemente en movimiento contrario a ésta
(orgarum libre). En tales casos era imposible mantener en todo momento las armonías
aceptadas de cuarta, quinta y octava.

Estos intervalos eran considerados consonancias, implicaban reposo o resolución de


tensión.

El orgarum libre es un ejemplo temprano del movimiento armónico del reposo- tensión
reposo, básico en la armonía occidental. El énfasis en las consonancias al final de las
composiciones, destacaba los puntos finales de llegada y reforzaban la idea de la
cadencia o la finalidad de la nota de un modo.

Hasta el siglo XIV, la actitud hacia la consonancia entre compositores continentales se


unió al ideal pitagórico, que aceptó como consonancias sólo las relaciones numéricas
más simples (cuartas, quintas y octavas). Pero en Inglaterra el intervalo de tercera
había sido de uso común desde hace tiempo, aunque no fuera expresable como tal
relación simple. La sexta, un intervalo estrechamente relacionado con la tercera, era
también común a la música inglesa. Estos dos intervalos sonaron mucho más dulces
que el hueco sonido de las cuartas, quintas y octavas.

A principios del siglo XV, la tercera y la sexta llegaron a ser aceptadas en la música
europea como intervalos consonantes. El resultado fue un enriquecimiento de la
armonía en composiciones musicales.

15
Esta fue una época de inicio de la conciencia de tonalidad. El concepto de desarrollar
una composición con una tónica definitiva se usó como un punto de partida al principio
y como un punto de llegada en la cadencia final.

También comenzó la tendencia de los compositores a pensar en la armonía como un


fenómeno vertical, observando el sonido de las notas simultáneas como una entidad
definida.

Aunque el estilo básico era principalmente lineal, los acordes que surgieron de las
coincidencias de notas en las líneas contrapuntísticas, tomaron su propia
personalidad.

Un fenómeno de principios del siglo XV: la práctica armónica presagiaba el fin del
antiguo sistema modal a favor de los modos mayores y menores del período posterior.
Los modos antiguos eran usados por compositores de la época y persistieron en cierto
modo hasta finales del siglo XVI.

Pero su pureza llegó a ser minada por una tendencia a introducir notas adicionales
extrañas al modo.

Esto se logró escribiendo un sostenido o bemol en el manuscrito o dejando al


intérprete que se diera cuenta de lo que debía improvisar. El efecto de esta música
ficta, como la técnica introductoria de notas no modales fue romper la distinción entre
los modos. Un modo debe su carácter distintivo al modelo específico de tonos y
semitonos. Introduciendo sostenidos y bemoles, se transforma el modelo normal del
modo situando semitonos en lugares inusuales. El cambio resultante hizo que un
modo recordara a otro.

Como esta práctica fue cada vez más frecuente, los modos mayor y menor llegaron a
ser predominantes sobre los modos medievales eclesiásticos de manera gradual. El
proceso es especialmente notable en la música de finales del Renacimiento. A la vez
surgió una actitud más sofisticada hacia la disonancia, favoreciendo su uso para
propósitos expresivos. Durante la época de Josquin Des Prez, compositor principal del
Renacimiento, la música contrapuntística había asumido una textura más resonante
por medio de la escritura a cuatro, cinco y seis partes en lugar de las tres marcadas
anteriormente. El número de voces aumentado, fomentaba el enriquecimiento de la
armonía. Un recurso típico de Josquin era la suspensión, un tipo de armonía disonante
que resolvía en la consonancia. Las suspensiones tuvieron su origen en los acordes
que surgen de la música contrapuntística. En la suspensión, una nota de un acorde se
mantiene mientras la otra cambia a un nuevo acorde. En el acorde nuevo la nota
mantenida es disonante. Uno o dos tiempos después, la voz suspendida cambia de
nota de modo que resuelve que se convierte en consonante con el acorde de las
voces restantes.

La suspensión crea tensión porque la armonía esperada se decora hasta que la voz
mantenida resuelve. Su uso próximo al último acorde de una cadencia apunto de
reposo era favorecido por compositores como una manera de mejorar el sentido de
plenitud del acorde final. El uso de suspensiones indica una conciencia creciente de
acordes como entidades más que como coincidencias, que tiene potencialidad

16
expresiva y del concepto que la armonía se mueve mediante acordes individuales
hacia un fin. Este concepto fue desarrollado en la armonía de la época.

A finales del siglo XVI, hubo una revolución del estilo musical. La escritura
contrapuntística fue abandonada y los compositores buscaban un estilo que pusiera
mayor énfasis en una línea melódica expresiva acompañada por las armonías. Este
estilo, llamado monodía, no trajo ningún marcado cambio en el lenguaje armónico,
aunque tales compositores experimentaron con un mayor uso de la disonancia en
sentido expresivo. El principal cambio en esta época estuvo en la concepción de la
armonía. La línea del bajo llegó a ser la fuerza generadora sobre la que se construían
las armonías. Se escribió frecuentemente con cifras para representar las armonías
superiores. Desde esta línea simple se esperaba que los instrumentistas
acompañantes improvisaran una base armónica completa para la melodía de la voz o
las voces superiores.

Había así una polarización entre la melodía y la línea del bajo, concibiendo todo el
material intermedio como relleno armónico. Esto contrasta con el concepto más
antiguo, en el que todas las voces tenían igual importancia, con la armonía resultante
de la interrelación de todas las partes.

El enfoque de la armonía según que acordes se construyen de manera intencionada a


partir de la nota del bajo, marcó el inicio del periodo de práctica común de la armonía
occidental. La transición comenzó alrededor de 1600, hasta 1650. Algunos conceptos
nuevos llegaron a ser importantes. Estos tuvieron sus raíces en las prácticas
armónicas de final de la Edad Media y Renacimiento y en el sistema modal medieval.
En ellos ya se incluyen los conceptos de tonalidad, de armonía funcional y de
modulación.

Una tonalidad es un grupo de notas relacionadas que pertenecen a una escala mayor
o menor, más los acordes que se forman a partir de esas notas y la jerarquía de
relaciones entre esos acordes.

En una tonalidad, la tónica y así el acorde construido sobre la tónica es un punto focal
hacia el que todos los acordes y las notas en la tonalidad son atraídos. Esto
evolucionó desde la idea medieval de que todos los modos tienen notas finales
características.

En el nuevo sistema, las tonalidades adquirieron relaciones entre ellas. El mayor


sistema de organización que comprende tonalidades, relaciones atonales, relaciones
acórdicas y las funciones armónicas, se llamó tonalidad, porque las tonalidades se
basaban en las escalas de mayor-menor.

En el sistema tonal, determinados acordes asumieron funciones específicas de


movimiento hacia o alejándose de las relaciones armónicas y el sistema que asigna
funciones a todos los acordes fue denominado armonía funcional.

El enfoque de armonía que surgió hacia 1650 se instituyó en uno de los más
importantes tratados musicales, "Traité de l´harmonie" en 1722. El núcleo de la teoría
de Rameau es el argumento de que toda armonía tiene su base en la raíz o nota
fundamental de un acorde. Un acorde formado en forma de triada es el tipo básico de

17
este período. La tercera y al quinta sobre la fundamental de la triada, pueden ser
colocadas dentro de la misma octava de la fundamental o esparcidas en varias cotas.
Una triada puede existir en posición fundamental o en inversiones.

En la armonía funcional la sucesión de acordes es analizada por la distancia entre sus


fundamentales. El movimiento más común desde un acorde a otro es por medio de
intervalos fuertes. Un movimiento de este tipo es fuerte porque los dos acordes tienen
el menor número de notas en común y por lo tanto contrastan más. El movimiento por
intervalos débiles, es más débil porque los dos acordes en este caso comparten más
notas.

Comúnmente la modulación se realizaba sobre el quinto grado de la escala original.


En obras de tonalidad menor, la modulación podría ser a la tonalidad de la dominante
menor o podría ser a la tonalidad del relativo mayor. En el segundo caso el contraste
entre modo mayor y menor aparecía para compensar la modulación débil.

Hijo de un organista de Dijon, Jean-Philippe Rameau (1683 -1764) recibe de su padre


su única instrucción musical conocida. Tras una breve estadía en Italia y una primera
experiencia como organista en Clermont-Ferrand, realiza su primer viaje a París en
1706, época y lugar donde publica su primer libro de piezas para clave a la edad de
veintitrés años.

En 1709 sucede a su padre en Notre Dame de Dijon, y poco después, en 1713, ocupa
un puesto de organista en Lyon. En 1715 retoma su antiguo puesto en Clermont-
Ferrand, donde escribe su Tratado de la Armonía.

A los 40 años, en 1723, retorna a París. Si bien es reconocido como teórico, sabio y
filósofo, es totalmente ignorado como compositor. A su vez, su carácter acerbo y
solitario lo revela inepto para la vida de la corte. Es sólo a partir de sus 50 años,
cuando se consagra enteramente a la composición de óperas, que comienza a ser
conocido por el público parisino. Pero al mismo tiempo se verá implicado en querellas
y será asediado por sus detractores debido al carácter innovador de sus
composiciones.

Ninguna otra personalidad musical podría estar más estrechamente vinculada al


pensamiento del Iluminismo Francés del siglo XVIII, ni nadie podría encarnar más
concretamente su carácter intelectual. En una época en que la Naturaleza era
concebida según un orden racional y principios mecánicos, el máximo logro de
Rameau es el de exponer el empirismo de la práctica musical a través de un principio
natural: el bajo fundamental. Su principio científico es netamente newtoniano,
comparable a la sistematización de la óptica y la mecánica celestes.

Rameau siempre imaginó su bajo fundamental como un modelo de rigor cartesiano.

Efectivamente, en el prefacio de su Traité de l'Harmonie, manifiesta: "[…] la música es


una ciencia que debe tener reglas precisas; estas reglas deben ser deducidas de un
principio evidente, y ese principio no puede en absoluto ser conocido por nosotros sin
la ayuda de las matemáticas." Pero la retórica cartesiana de Rameau no se limita a la
razón pura. Él nunca negó el papel del empirismo en la formación de la teoría musical.
La validación de todo principio musical – dice – reposa en la experiencia y el oído:

18
"podemos juzgar la música exclusivamente por el oído, y la razón no tendrá autoridad
alguna salvo que esté en acuerdo absoluto con el oído."

¡Ni razón pura ni experiencia auditiva pura! Rameau nos muestra que su "método" es
una verdadera dialéctica teórico – práctica. Concibe la música como un fenómeno
empírico y, a través del análisis de la práctica, descubre constantes y formula hipótesis
para explicarlo: bajo fundamental, sonido fundamental generador, la séptima como
fuente de toda disonancia, progresión fundamental de la quinta….

¿Podría un filósofo que diserta tan admirablemente sobre intervalos y tales principios
ser capaz de crear música práctica?

La música de Rameau está fuertemente marcada por su preocupación por la armonía


y sus principios naturales básicos. Por ende, crea melodías que están subordinadas a
las progresiones armónicas. Esto dota su música – dice Bukofzer - "de una
consistencia estructural nunca antes vista, si bien exenta de uniformidad." Dentro de
su concepción de la melodía como un emergente de la armonía – agrega - "Rameau
racionaliza las virtudes y defectos de su talento, inspirado en la armonía y el ritmo más
bien que en la melodía."

Otro referente científico esencial por su vínculo con la música y con Rameau es
Johannes Kepler.

Para nadie es un secreto que Johannes Kepler suscita encontradas posiciones en


torno a la naturaleza de su obra y su propia vida, pues, al igual que la mayoría de los
filósofos naturales del siglo XVII, es percibido como un Jano bifronte: un personaje
cuya obra se configura sobre una mirada retrospectiva de los saberes antiguos a la par
de otra que señala la fundación de unos nuevos y radicales saberes modernos.

El término "filosofía natural" se utiliza aquí en el contexto habitual de la historia de la


ciencia, es decir, como el conjunto de actividades, que para el siglo XVII, se
consideran hoy como investigación científica y que involucran la observación, la
experimentación física, la descripción cualitativa y sus intentos de formalización
cuantitativa y matemática; todo esto mezclado con la reflexión filosófica que indaga las
causas del mundo natural. Entre estas actividades se encontraban las propias de
astrónomos, matemáticos y músicos teóricos, los cuales se referían, a menudo, a la
música como parte de la filosofía o como una actividad física y filosófica. Respecto a la
metáfora del "Jano bifronte" es menester agregar que Jano, dios encargado de las
puertas del Tiempo (pasado - porvenir), las abría, solamente, en tiempos de guerra, y
Kepler –coincidencia fortuita – escribió y publicó su magna obra marcado por los
tumultuosos acontecimientos de la Guerra de los Treinta Años. Entre la pléyade de
filósofos naturales del siglo XVII, y entre los que han recibido esta caracterización
metafórica, tal vez sea Kepler quien mejor la encarne. En el caso particular de Kepler
confluyen –como tal vez en ningún otro–.

Principios teológicos y físicos, inducción y deducción, la veneración incondicional de


los hechos y una fuerte tendencia al conocimiento apriorístico, especulaciones
teológicas y matemáticas, concepciones platónicas y aristotélicas, todo ello se
entrecruza y enmaraña en su mente.

19
Esta confluencia, que puede resumirse en una concepción del mundo que es, a la vez,
estética, teológica, mística, metafísica y física, alcanza su mayor representatividad en
la obra Harmonices Mundi, en la cual Kepler mostraba la mayor cantidad de datos que
hubiera venido recopilando a lo largo de su vida. Como señalaba Caspar, un Kepler
"arrebatado y poseído" por el espectáculo celeste, produjo un libro que con habilidad
matemática, con minuciosidad de artesano y con sensibilidad de poeta mostraba una
compleja estructura argumental que justificaba, estéticamente a priori, por qué el
cosmos era así y no de otra manera.

Entre los pilares de ese edificio de razonamientos se encontraban las disciplinas de la


armonía y la música, entendida esta última en el sentido del siglo XVII y, en especial,
bajo lo que Kepler denominaba música moderna figurada, es decir, la polifonía vocal
de su propio tiempo.

Durante la antigüedad y hasta el siglo XVII los términos "armonía" y "música", si bien
no pueden ser totalmente intercambiables, muchas veces operan como sinónimos. En
la antigua escuela pitagórica el término "armonía" devino en una idea abstracta de
orden y belleza fundamentada en el número, pero en el ámbito estrictamente musical,
el término "armonía" aparecía en los tratados musicales antiguos para indicar el
correcto cálculo y utilización de los sonidos como base para la composición de piezas
musicales.

No obstante, durante la Edad Media, muchos de los tratados se expresaban con el


término "música", aunque es sabido que el estudio de la misma estaba dedicado a la
consecución de respuestas a problemas propios de la "armonía", en especial, a la
inconmensurabilidad de los intervalos armónicos entre sí. La teoría musical
renacentista fue heredera de esta problemática y Kepler sería uno más de los que
intentaría dar respuesta a dichos problemas. Así entonces, el término "armonía" se
refiere siempre aquí, a la base teórica –geométrica o matemática– de la música.
Ahora, respecto al término "música moderna figurada" se refiere Kepler a las técnicas
polifónicas de la época, las cuales, en general, presuponían la superposición de
diversas líneas melódicas –hasta seis o más– con un diseño propio y variadas figuras
o motivos rítmicos. Dichas líneas se escuchaban simultáneamente y se conducían
según las leyes del contrapunto, las cuales describían, a grandes rasgos, los
movimientos correctos de las líneas melódicas, unas respecto de las otras, y las
consonancias o disonancias permitidas. Para la época de Kepler, las consonancias
aceptadas eran los intervalos armónicos de octava, quinta, cuarta, terceras y sextas –
mayores y menores–. Las disonancias y el resto de los intervalos se presentaban cada
vez con mayor fuerza, dada la variedad de figuras rítmicas que los compositores
utilizaban y los efectos expresivos que se quería lograr.

Como es sabido, en la base del Quadrivium medieval y renacentista, y al lado de la


aritmética, la astronomía y la geometría, se encontraba también la música, y ésta era
considerada como un contexto nomológico verdadero donde contrastar las
especulaciones filosóficas naturales. Es decir, al igual que el tetractys, (lit. el cuarto),
es un arreglo triangular de 10 puntos en forma de cuatro filas de uno, dos, tres y cuatro
elementos, respectivamente. En la aritmética pitagórica era entendido como el cuarto
número triangular después del 1, 3 y 6 y como una representación del número 10.

20
A su vez pertenecía al misticismo simbólico de los pitagóricos, quienes lo asociaban a
los cuatro elementos y al orden en el cosmos, el ángulo recto, o la perfección de las
esferas celestes, la ratio sonora nos ponía en contacto con la "verdad" y, al igual que
en las otras disciplinas mencionadas, en la música se ofrecía un cuerpo de leyes
debidamente reglamentado. La única diferencia estribaba en que aquella verdad
poseía un componente estético y sensible que estaba embebido e indisociado.

Como bien apuntaba Aristoxeno: El geómetra, no se sirve de sus facultades sensibles,


no ejercita su vista para juzgar ni bien ni mal la recta, el círculo o cualquier otra figura,
siendo esto más bien tarea del carpintero, del tornero o de otros artesanos. Pero para
el estudioso de la ciencia musical es fundamental, en cambio, la exactitud de la
percepción sensible, porque no es posible que quien tiene una percepción sensible
deficiente pueda explicar convenientemente fenómenos que no ha percibido de ningún
modo […]

Como puede deducirse de lo anterior, el juicio musical verdadero era único, pues
siempre incorporaba dentro de sí lo bello, no de manera accesoria, sino fundacional.
No obstante, hacia el siglo XVIII la música (tanto en sus aspectos teóricos como
prácticos) sufrió modificaciones que acabarían por escindirla en dos vertientes
claramente diferenciadas: acústica físico-matemática (música como ciencia) y la
música propiamente dicha: composición, ejecución y audición (música como arte o
lenguaje).

Esta serie de cambios son objeto de estudios recientes, tanto para la musicología
como para la historia de la ciencia y, en especial, la llamada Revolución Científica, es
requerida hoy para que incluya, definitivamente, a la música como uno de sus
aspectos más ilustrativos.

Este es el marco teórico general en el cual se inserta el presente capítulo y, en el caso


particular del Harmonices Mundi, interesa, sobremanera, el insistente deseo de su
autor por justificar su investigación, en relación con las prácticas musicales del
momento: la polifonía, en el paso de los siglos XVI al XVII y la obra de compositores
como Orlando di Lasso, y todo lo que hoy se conoce como la polifonía franco-
flamenca. Las referencias de Kepler a esta música –tanto en sus libros como en sus
cartas– y, en especial, a Lasso, son harto significativas y se intentará demostrar cómo
pueden considerarse el disparador de muchas de sus hipótesis filosóficas y científicas.
En este sentido, la polifonía del siglo XVII habría revelado, en su belleza y
complejidad, la manifestación de los arquetipos del Creador y esto inflamó a Kepler a
ubicarlos en las esferas celestes. Es decir, la experiencia estética musical habría
precedido a la formulación científica, siendo su acicate y ofreciéndole un marco de
verdades manejable y compartido. Tras revisar el tema desde Pitágoras, pasando por
Ptolomeo y hasta llegar a su propia época, pudo Kepler relanzarlo con sus aportes
propios y originales.

Partiendo del impulso de nuevas traducciones, el Harmonices Mundi puede ser objeto
de una relectura que revise tanto sus aspectos filosóficos como musicales. No es un
atrevimiento decir que la actividad editorial digital (en sus aspectos multimedia e
interactivos) puede acompañar esta nueva mirada para intentar colocar en un estado
más comunicable o digerible, lo que muchos de los estudiosos consideran un libro

21
complejo, abstruso, confuso y difícil de leer. Un lector, por más versado que esté en
historia de la ciencia, si no posee un mínimo de conocimientos musicales estará
perdido entre fracciones, razones, escalas y modos –sin contar con la notación
musical antigua–, que no le permiten comprender en detalle los planteamientos del
autor. A su vez, el musicólogo de oído refinado, pero no dado al malabarismo de las
fracciones armónicas, puede terminar considerando la obra como puros ardides
numerológicos. Si bien Kepler aclaraba en su astronomía que los planetas no
producen sonidos, también dejó asentado que coexistían allí una armonía sensible y
una abstracta. Por ello, tanto su lenguaje como su corpus racional astronómico, están
impregnados de sonido y son, evidentemente, herederos de la música.

Una octava o diapasón, el monocordio, la noción de polifonía y simultaneidad, los


géneros durus y mollis y otros términos utilizados por él, provienen de la teoría y
práctica musical y se solapan, interseccionan, y trasladan a la astronomía con
naturalidad. Y viceversa. En resumen, esta compleja mezcla de aritmética, geometría,
astronomía y música convierten al texto del Harmonices Mundi en un tour de force
multidisciplinario.

Las obras de Kepler y, en especial, los libros del Harmonices Mundi, pueden
interpretarse como un amplio y ambicioso intento por fundir en una sola pieza lo que
hoy son dominios con técnicas propias y distanciadas entre sí: la geometría (Libros I y
II), la música (Libro III), la astrología (Libro IV) y la astronomía (Libro V). La mirada
kepleriana las funde y homologa bajo los arquetipos creados por un dios que es, a su
vez, diseñador de polígonos, sólidos y figuras (geómetra), instaurador de las razones y
proporciones armónicas (músico) y, finalmente, responsable tanto de las variaciones
del mundo sublunar (astrólogo) como de los orbes celestes (astrónomo). Como
sugiere el propio Kepler, el Harmonices Mundi invita a imitar a Dios (aunque sólo sea
por una breve fracción de tiempo), adentrarse en sus planes y saborear su placer
creador. Esta obra se configura así, simultáneamente, en demiurgo y ángel
exterminador; puesto que puede verse como uno de los primeros intentos de
fundamentar la realidad en la observación y la medida, pero también, como de los
últimos intentos de construir una metafísica de los saberes de una época. Puede que
algunos intelectuales, golpeados por el "desencantamiento del mundo", desearían que
todo lo expuesto por Kepler hubiera sido verdad; otros, menos ingenuos, saben que el
encanto no está en la correspondencia de la metafísica kepleriana con la realidad, sino
en lo hermoso de sus argumentaciones racionales, aunadas a su imaginación exaltada
y su aroma espiritualista. Jano bifronte pues, tanto en el tiempo como en el espacio.

Hay consenso entre filósofos e historiadores de la ciencia en ubicar el descubrimiento


de las fracciones armónicas sonoras como la primera ley físico-matemática. Según
transmite la tradición divulgada a lo largo de la Edad Media, Pitágoras pudo
establecer, después de escuchar por azar los sonidos del golpeteo de unos yunques
de diversos pesos y tamaños, una conexión de índole numérica entre la consonancia y
el hecho sonoro físico, es decir, entre lo agradable al oído de un hecho físico real y su
correspondiente modelo matemático; entre estética y ciencia. Como es fácil notar, ese
aspecto estético –o por lo menos, una cierta complacencia desinteresada– estuvo en
la base del nacimiento de esta antiquísima ley; no obstante, hoy día, la conexión entre
un hecho físico y su modelo matemático explicativo prescinde, en la inmensa mayoría
de los casos, de los juicios estéticos del observador. No se quiere negar que tanto el

22
acto de observación como el conocimiento producido le reporten algún goce estético a
quien lo realiza, e incluso es sabido que el científico se afana por producir teorías
simples y hermosas, pero la conexión que va de la estética a la física, y de ahí a la
matemática, no es necesaria. Es decir, no se escucha música o se disfruta el arte
plástico para luego formular teorías científicas y, por ello, lo feo, por decirlo así, es,
igualmente, matematizable, y no por ello desdeñable como portador de conocimiento.
Con seguridad, el fenómeno estético y otras consideraciones en torno al gusto,
pueden ser motivo para incitar la investigación (e incluso pueden llegar a ser una guía
metodológica) pero es menester reconocer que la ciencia, tal como la conocemos
actualmente, dista de tener a la estética como su fundamento principal. Para eso,
justamente, nació en el siglo XVIII –simultánea a la consolidación de la llamada
Revolución Científica– la Estética, como disciplina independiente asociada a las artes
y a la filosofía, para explicar en qué consiste lo bello, tanto de la realidad natural como
de los productos humanos. Pero la pregunta que se hiciera Pitágoras en los albores
del pensamiento filosófico, fue, de hecho, una pregunta estética: ¿Por qué esto es
bello? ¿Qué hace que este hecho físico sonoro se presente complaciente y agradable
ante nuestros oídos? Y como toda pregunta estética, sigue sin respuesta; a pesar que
los pitagóricos obtuvieran la suya en una argumentación matemática: proporciones de
números enteros. Lo que interesa destacar es que desde aquél primer momento, fue la
experiencia estética la que estimuló a la filosófica, y que el encuentro "música-estética-
física- matemática-filosofía-ciencia" era susceptible de ser investigado en conjunto.

Las reflexiones filosóficas en torno a la música, el orden y esta noción de belleza


gobernada por cánones matemáticos, es una de las líneas de pensamiento que desde
el Timeo de Platón, y a lo largo de la historia de la ciencia, llega limpia y repotenciada
por personajes como Ptolomeo y Proclo hasta la investigación kepleriana.

Puede considerarse al diálogo platónico Timeo (360c. a.C.) como una de las
referencias escritas más antiguas en la cual, a su vez, pueden evidenciarse las raíces
cuasi míticas del encuentro entre cosmogonía, física y antropología, aunada a la
armonía y la música.

Si alguna ciencia pudo salvar épocas y avatares filosóficos fue la música y, en


especial, sus aspectos teóricos: la llamada armonía. Seguramente, algunos filósofos
naturales como Kepler y Fludd –por citar apenas un par– podrían estar en desacuerdo
en muchas cosas, pero la fundamentación armónica la consideraban incontrovertible.
Por ello, la música, entendida como ciencia, puede evidenciar, sin duda, aspectos del
desarrollo histórico del pensamiento científico; no obstante, cuando un historiador de la
ciencia como Thomas Kuhn se tropieza con ella, su reacción es considerarla como una
"excepción". En su libro La Tensión Esencial, al evaluar el desarrollo de las ciencias de
la antigua Grecia en el marco de la Revolución Científica y las drásticas
transformaciones que sufrieran las llamadas ciencias físicas clásicas, dice Kuhn:

"Todas estas ciencias [astronomía, estática, óptica, matemáticas], menos la armonía,


fueron reconstruidas desde sus cimientos durante los siglos XVI y XVII." Y en el mismo
párrafo, como nota al pie, nos aclara: Aunque la armonía no se transformó, su posición
declinó mucho de fines del siglo XV a principios del siglo XVIII. Fue siendo relegada
cada vez más a la primera sección de tratados dirigidos principalmente a asuntos
prácticos: composición, temperamento y construcción de instrumentos. Todos estos

23
temas fueron adquiriendo predominio aun en los tratados completamente teóricos, y
de la misma manera la música se fue apartando de las ciencias clásicas. Pero tal
separación llegó tarde y nunca fue completa. Kepler, Mersenne y Descartes, todos
ellos escribieron sobre armonía, Galileo, Huygens y Newton se mostraron interesados
en ella [...]

Como puede leerse, Kuhn reconoce la presencia notable de la música en la historia de


la ciencia y en la obra de destacados filósofos naturales, pero sin embargo, las
transformaciones que sufriera en el siglo XVIII le llevan a "apartarla" de las ciencias
clásicas, para concluir que no habría sufrido la reconstrucción de muchas de las otras
disciplinas. Finalmente, habría evolucionado, suave y elegantemente, de dos maneras:
a) por el lado teórico y científico, derivaría en la física acústica, y b) por su lado
práctico y artístico, en las leyes de composición musical, (el ejemplo canónico de
"leyes musicales", en este nuevo sentido, es la teoría armónica de Jean Philippe
Rameau).

Estas dos líneas de investigación ya no poseerían, necesariamente, puntos de


encuentro, y es tal que, hoy por hoy, el músico práctico puede desconocer las
complejidades de la física acústica para la composición de su obra. Y, viceversa, el
científico acústico no necesariamente debe conocer las técnicas de armonización de
melodías, cadencias y otros aspectos propios del compositor.

Claro está, siempre y cuando la obra no se refiera a una investigación estética de


índole acústica o electroacústica propiamente. Lo que no es menos cierto es que los
conservatorios de música de la mayoría de los países prescinden, en su formación
básica, de asignaturas como "física" o "acústica" e, igualmente, no se enseña "música"
a los ingenieros, físicos o matemáticos universitarios.

Lo que interesa destacar es que para comienzos del siglo XVII esta separación no se
ha dado aún y que la llamada Revolución Científica no sólo vivió con intensidad el
encuentro entre la especulación matemática y la estética, sino que el estudio de la
música y la armonía puede ofrecer un cuadro vívido de la ciencia de ese momento. Lo
que para Kuhn es una "excepción", es, para los interesados en la historia de la música
como ciencia, el caso modélico. En este orden de ideas han discurrido la mayoría de
los estudios que han vindicado a la música como ciencia, lo cual permite afirmar que
hacer historia de la actividad musical acontecida hasta el siglo XVII, es hacer, también,
historia de la ciencia.

Aunque la música ya pertenezca al grupo de categorías conceptuales que,


actualmente, manejan los historiadores de la ciencia, el encontrar partituras musicales
en un libro sobre la ciencia del siglo XVII, es muy poco frecuente. Entre las notables
excepciones está el Harmonices Mundi de Johannes Kepler. Casi toda referencia a
esta obra paga el "peaje musical" de colocar el grupo de pentagramas que, a manera
de cantinela, éste asignó a las órbitas planetarias. Se habla de la siguiente figura:

24
Las reflexiones armónicas de Kepler están salpicadas, según nos dice, del azar y las
coincidencias fortuitas. En las notas publicadas a la edición de 1621 del Mysterium
Cosmographicum, nos aclaraba, retrospectivamente, que el inicio de sus
especulaciones armónicas había nacido como una "gran suerte" –foelicitas– al reparar
en la finitud de las proporciones armónicas. Para Kepler era sorprendente que, a pesar
que desde la antigüedad hubo escritores sobre temas de armonía, ninguno hubiera
reparado en las coincidencias fortuitas entre el número de proporciones armónicas y
las siete notas naturales en la escala. Estas siete notas podían reagruparse en forma
de cinco consonancias (octava, quinta, cuarta, sextas y terceras) y hacerlas coincidir
con los cinco sólidos platónicos.

Los "sólidos platónicos" son: tetraedro, cubo o hexaedro regular, octaedro, dodecaedro
e icosaedro. También conocidos como sólidos "pitagóricos" o "perfectos", son un
conjunto de cinco, y sólo cinco, poliedros que cumplen ciertas condiciones
geométricas: sus caras son polígonos regulares iguales y, un mismo número de caras
(tres), se encuentran en cada vértice. Descritos por Platón en su diálogo Timeo, eran
asociados a los elementos (tierra, fuego, agua y aire) y a una quinta sustancia de la
cual estaría compuesto todo el orbe celeste. Kepler sería uno de los tantos geómetras
que quedaría fascinado por dichas propiedades y también haría referencia a sus
simbolismos tal como lo describe en el Harmonices Mundi.

Para Kepler estas coincidencias podían experimentarse, incluso, con un improvisado


monocordio, es decir:

"[…] pues resulta obvio para cualquiera experimentar esto sobre una cuerda
extendida, cuya longitud puede ser dividida con un compás, y con la mera aplicación
de una cosa dura, como un cuchillo o una llave, a la cuerda con una mano, mientras
se golpea con un plectro las partes delimitadas de la cuerda, con la otra mano".

25
Así, todas estas preguntas: "¿por qué seis planetas?, ¿por qué cinco sólidos
perfectos?, ¿por qué siete notas y siete divisiones armónicas?, ¿por qué cinco
consonancias?", pertenecían todas a un mismo espacio epistémico, y por ello Kepler
va tras la búsqueda de una respuesta que debería ser común y no fortuita.

El proceso por medio del cual lo musical se convertiría en la obsesión principal y


reclamo constante, puede precisarse con detalle a través de la correspondencia con
su maestro Maestlin, con Edmund Bruce, y en especial, en la compartida con Herwart
von Hohenburg entre el verano y el invierno de 1599.

En esta correspondencia, Kepler, además de dejar claro el dominio que posee sobre
los temas musicales y armónicos, explicaba cómo su propósito había sido
particularmente "incitamentum lectio Harmonicorum Ptolemaei".

Para Kepler, Ptolomeo –hacía más de mil quinientos años– había tenido sus mismas
intuiciones, con la diferencia de que, ahora, él se basaba en una argumentación
totalmente nueva e inusual para justificar las consonancias: a partir de las relaciones
que se producían en un círculo cuando éste era segmentado por un polígono regular
inscrito en él. A diferencia de Ptolomeo, que se basaba en el monocordio tradicional,
Kepler dedujo, ingeniosamente, las siete proporciones armónicas al correlacionar un
Todo, unas Partes y un Residuo en un curioso monocordio circular, cuya realización
material consideró irrelevante. A manera de ejemplo, en el caso particular del círculo
segmentado por un pentágono, Kepler tomaba uno o más lados del polígono tal, que la
suma de ellos no excediera la mitad del círculo, y tenía:

Todo = 5 Partes = 1 y Residuo = 4 Partes = 2 y Residuo = 3

Al realizar las comparaciones se obtenía:

- Parte a Residuo. Proporciones: [1:4] y [2:3].

- Parte a Todo. Proporciones: [1:5] y [2:5].

- Residuo a Todo. Proporciones: [3:5] y [4:5].

Para limitar las múltiples posibilidades, un grupo de axiomas (que pueden resumirse
en tres condiciones básicas), definían las consonancias:

a) Los polígonos regulares que no pueden construirse por métodos geométricos, no


producen consonancias.

Solo son admitidos el diámetro del círculo y las figuras fundamentales expuestas en el
Libro I que poseen una correcta construcción: triángulo, cuadrado, pentágono,
hexágono, decágono y dodecágono.

26
b) Las proporciones múltiplos una de otra, se consideran idénticas. Así las
proporciones [1:2] ; [1:4] ; [1:8] al igual que [2:3] ; [4:6] y [8:12] etc., se consideran
idénticas, al igual que la proporción [1:3] respecto de [2:3].

c) Se excluye también cualquier proporción conseguida en un polígono regular que


pueda provenir de un polígono no construible. Así, del octágono podemos obtener la
relación parte a residuo del tipo 1:7, pero se excluye por derivarse también del
heptágono –polígono no construible–.

Selección de consonancias según la teoría musical de Kepler. Sobre fondo blanco, los
polígonos básicos junto a las consonancias seleccionadas y, sobre fondo gris, las
proporciones excluidas, por ser idénticas o múltiplos de una ya previamente hallada.

El resto de los polígonos "construibles" producían consonancias que eran réplicas o


equivalencias de las anteriores. A través de este ingenioso y original argumento –
nunca hecho hasta entonces–, Kepler obtuvo, de todo el universo geométrico de las
figuras planas, el esquema de siete consonancias básicas que coinciden con la
llamada afinación justa, tal y como fuera expuesta por Zarlino. Este esquema sirvió a
Kepler para justificar y asumir, como paradigma de la música y expresión suprema de
los arquetipos geométricos del Creador, la polifonía de compositores como Orlando di
Lasso, que utilizaba de manera acertada y expresiva las terceras y sextas.

Una vez que el lector quedara convencido de que las proporciones armónicas podían
ser deducidas de la geometría del círculo, Kepler las reafirmó, de manera sensible,
con el juicio del oído, como las únicas consonancias posibles. A partir de aquí, pudo
construir una teoría musical cuyo complejo proceso se iniciaba con la construcción de
los seis casos posibles de organización de las consonancias del tipo 3:4, 4:5 y 5:6 en
el marco de una doble proporción u octava 1:2.

Luego, Kepler construía los pequeños intervalos consonantes melódicos (Tonos


mayores y menores, Semitonos, Limmas y Diesis) al realizar sustracciones entre las
consonancias mostradas anteriormente:

La 5ta. menos la 4ta. produce el Tono mayor. 2:3 – 3:4 = 8:9.

La 6ta. mayor menos la 5ta. produce el Tono menor. 3:5 - 2:3 = 9:10.

27
La 4ta. menos la 3era. menor produce, igualmente, el Tono menor. 3:4 – 5:6= 9:10.

La 6ta. menor menos la 5ta. produce el Semitono. 5:8 – 2:3 = 15:16.

La 4ta. menos la 3ra. mayor produce, igualmente, el Semitono. 3:4 – 4:5 = 15:16.

La 6ta. mayor menos la 6ta. menor produce la Diesis. 3:5 – 5:8 = 24:25.56

La 3ra. mayor menos la 3ra. menor produce, igualmente, la Diesis. 4:5 – 5:6 = 24:25.

El Tono mayor menos el Semitono produce la Limma. 8:9 - 15:16 = 128:135.

El Tono mayor menos el Tono menor produce la Comma. 8:9 – 9:10 = 80:81.

Al insertar estos pequeños intervalos entre las notas de los esquemas anteriores,
construyó su pleno et perfecto Systemate organico, cuya estructura ascendente de
intervalos, era la siguiente (L = Limma, S = Semitono, D = Diesis):

Sol - Sol# - La - Sib - Si - Do - Do# - Re - Mib - Mi - Fa - Fa# - Sol

Sistema "orgánico, completo y perfecto" según la teoría musical de Kepler.

Kepler denominaba aquí como diesis, a lo que en la "afinación justa" era denominado
como "semitono menor". Igualmente, al intervalo de proporción 128:135 (que debe
entenderse como el semitono menor de proporción 24:25 más la coma sintónica de
proporción 80:81) Kepler lo denomina limma, cuya proporción, en la tradición
pitagórica, era 243:256.

Este proceso tenía como objetivo, básicamente, ofrecer una explicación de los
llamados Modos

Eclesiásticos. Para ello, a través de una serie de razonamientos propios y una serie de
reglas para la sucesión de tonos y semitonos de una melodía correcta, Kepler obtuvo
un total de veinticuatro modos (catorce básicos y diez variantes) que le permitían
demostrar que los ocho Modos Eclesiásticos, eran casos particulares de su propia
teoría, más general.

El término Modos Eclesiásticos se refiere aquí a la sistematización que hizo la Iglesia,


a lo largo de la Edad Media, del material musical que utilizara para su liturgia. En este
sentido, como es sabido, un modo es una secuencia ordenada de tonos y semitonos
que permite –al restringirse a ellos– entonar diversas melodías con un particular
sentido expresivo. Desde la antigüedad y hasta el siglo XVII los modos fueron
evolucionando, no sin ciertas diatribas y debates, tanto en torno a sus nomenclaturas,
como a su manera de estructurarse. Kepler se encargaría de advertir de no querer
entrar en esas disputas.

28
Ya desde los tiempos de Pitágoras (s. VI a.C.), la música atrajo la atención de los
matemáticos, naciendo distintas teorías.

Las especulaciones científicas y matemáticas sobre la música se fundan en el principio


de que el sonido es un fenómeno físico mensurable con exactitud, ya que cualquier
cuerpo vibrante emite, según el número de vibraciones por segundo, un sonido de una
altura determinada.

La escala diatónica, usada en la música occidental, se ordena en siete sonidos que se


encuentran en ciertas y sencillas relaciones numéricas entre sí (lo veremos después
más detenidamente). A partir de esta constatación, han surgido en el tiempo, una serie
de complejas especulaciones sobre la naturaleza de los sonidos, sobre la naturaleza
de la escala musical, sobre sus relaciones con otros fenómenos de orden físico o
cósmico, de los que los sonidos bien podrían ser reflejos o símbolos. Este punto de
vista sobre la música, que representa una constante secular del pensamiento musical,
ha sido desarrollado en particular por aquellos músicos o pensadores que consideran
que la música es un lenguaje dotado de una autonomía totalmente propia, con escaso
parentesco al lenguaje verbal.

Quien ha investigado la naturaleza matemática de la música se ve empujado a


destacar más los valores intelectuales y metafísicos vinculados al arte de los sonidos
que esos otros de orden emocional. Quien considera que la música se establece sobre
un complejo y rígido orden matemático que el músico no hace sino descubrir,
evidenciar e, incluso, reproducir en sus composiciones, y que esta estructura
esencialmente racional, corresponde a otra estructura igualmente racional, de todo el
universo, reivindica con ello la independencia de la música respecto a la poesía o a
cualquier otro lenguaje artístico.

Así, las teorías matemáticas sobre la música y las teorías que sostiene un origen
común a música y poesía se excluyen la una a la otra, en tanto se contraponen como
dos modos radicalmente distintos de concebir la música y su función.

Vamos a detenernos en aquella característica de la música destacada por muchos


desde tiempos muy antiguos, estos es, su profunda racionalidad, su carácter
hiperlingüístico, su rígida organización matemática.

En el pensamiento griego se encuentran las raíces de nuestra cultura musical, al igual


que las de la cultura matemática. La música era un elemento educativo desde el punto
de vista social, siendo este concepto de música muy diferente respecto a la idea
moderna de la música como arte.

Musiké significaba en el mundo griego, un complejo de actividades que podía abarcar


desde la gimnasia y la danza, hasta la poesía y el teatro, comprendiendo también la
música y el canto en sentido estricto.

Pero la escuela filosófica en la que la música asumió una relevancia completamente


esencial fue la escuela pitagórica. El concepto de armonía es central en la
especulación de los pitagóricos, pero resulta ser un concepto musical sólo por
analogía o por extensión, ya que su significado original era, sobretodo, metafísico. La
armonía nace como la unificación de contrarios. Este concepto de armonía se

29
completa con el otro bastante más oscuro de número, que es el fundamento de todas
las cosas y por consiguiente, afín al concepto mismo de armonía.

Por tanto, los conceptos de armonía y número tienen un valor metafórico y fueron
entendidos de maneras distintas por los mismos pitagóricos.

Para algunos, el universo está hecho de números.

Para otros, los números constituyen la armonía sobre la que se funda el mundo.

Y para otros, los números son el modelo originario del mundo del que nacen todas las
cosas.

Por lo tanto, la música será quien revele la naturaleza más profunda de la armonía y
del número.

Desde la Antigua Grecia hasta el Renacimiento, la música era considerada una parte
de las matemáticas dentro de las siete artes liberales del Quadrivium:

Quadrivium (saberes exactos): Geometría, Aritmética, Música y Astronomía.

Trivium (saberes humanos): Gramática, Dialéctica, Retórica.

A finales del siglo XVI, Henricus Glareanus (1488-1563) quiso volver a conectar la
música de su tiempo con la tradición pitagórica, pero esta labor se hace más evidente
en la obra del músico y pensador veneciano Gioseffo Zarlino (1517-1590). Zarlino
pretende una nueva refundación de la teoría musical sobre la base de un nuevo
racionalismo, que encuentra sus fundamentos en la misma naturaleza de los sonidos.
La nueva teoría pretenderá justificar racionalmente el uso efectivo que se hace de los
intervalos musicales. Esto queda reflejado en su tratado "Instituzione harmoniche".
Este punto de vista encontrará su culminación dos siglos después con la obra de
Rameau.

Descartes, Leibniz y, sobre todo Euler y finalmente Rameau defenderán, siguiendo la


estela de la tradición pitagórica, la música como lenguaje perfectamente
autosuficiente.

Tal como vimos, Leibniz está convencido de que la música posee una irrefutable
estructura matemática. La armonía matemática del universo se revela por ello de
modo sensible e inmediato a la percepción aún antes que a la razón. Leibniz expresó
la exigencia de una reconciliación entre oído y razón, entre sensibilidad e intelecto,
entre arte y ciencia.

Durante la Ilustración Rameau, del cual ya hablamos, volvió a alzar el pensamiento


musical pitagórico. Reivindicaba con energía para la música el papel de ciencia, de
lenguaje analizable mediante la razón, fundado sobre pocos, claros e indudables
principios. Así en su "Traité de l`harmonie" (1722) afirma cosas tales a las
manifestadas en la cita que utilicé al principio de esta exposición. Asegura que el
"maravilloso principio" en el que se basa la música es el fenómeno de los armónicos
superiores en donde está contenido el acorde perfecto mayor, aquel sobre el que se
funda la armonía.

30
Esta concepción no excluye ni el placer de la escucha ni una posible relación entre
música y sentimiento, sino que, por naturaleza, entiende la música como un sistema
de leyes matemáticas.

Pero, ¿dónde está el entramado matemático de la música? Podemos encontrarlo en la


escala diatónica, en la Teoría Acústica y la Teoría Ondulatoria, en los métodos usados
por muchos compositores (traslaciones, homotecias, repeticiones, simetrías y métodos
combinatorios y aleatorio, etc.) y en la manera misma de enfrentarse a una pieza
musical que requiere del conocimiento, del orden, de la constancia y la perseverancia,
sin olvidar nunca el amor por aquello que se está haciendo.

Veamos a continuación algunos ejemplos que clarifiquen la relación entre Música y


Matemáticas:

El misticismo que se creó en torno a los cuatro primeros números naturales (tetrakis),
hizo que en la escuela pitagórica se experimentara con las siguientes razones para
expresar las longitudes de las cuerdas, ya que estas combinaciones producían
sonidos agradables, construyendo una escala a partir de estas proporciones:

La escala usual se obtiene tomando la 5ª y la 8ª y repitiéndolas sistemáticamente


hasta que vuelvan a coincidir. Resultan así que 12 quintas equivalen (casi) a 7
octavas.

Esta diferencia condiciona la escala, así se crean los modos mayor y menor.

El matemático francés Mersene, en 1627, formula con precisión la relación entre


longitud de cuerda y la frecuencia. Así:

desapareciendo así los problemas de reajuste de la afinación.

Un siglo después Bach compone "El clave bien temperado" que consta de 24 piezas
en las 12 tonalidades usando los modos mayor y menor de cada una de ellas.

La repetición es probablemente el procedimiento más usado en música. Rossini utiliza


en sus oberturas frases que se repiten cada vez con más intensidad, esto es, utiliza
traslaciones melódicas. El clímax se alcanza rompiendo esa traslación.

Nos encontramos simetrías en muchas piezas musicales, por ejemplo:

31
y rotaciones como la siguiente:

Componer es el arte de combinar distintas ideas buscando una unidad formal.

En su otra "Musikaliches Würfelspiel" (juego de dados) (1787), Mozart compone 176


compases para los minuetos y 96 compases para los tríos. Cada pieza consta de 16
compases. Estos compases están sueltos pero Mozart ofrece unas reglas basadas en
el lanzamiento de dados que permite combinarlos de múltiples formas:

Minuetos: 1116

Tríos: 616

Luego entonces, la obra completa (minueto + trío): 6616

En el siglo XX compositores como el griego Xanis Xenakis utiliza partituras gráficas


donde el músico a través de las indicaciones numérico-gráficas que propone el
compositor es el verdadero creador final de la pieza que dependerá de la capacidad de
improvisación y la creatividad del intérprete.

La sucesión de Fibonacci (1, 1, 2, 3, 5, 8, 13, 21,…) está íntimamente ligada a la razón


aúrea, ya que la razón de dos términos consecutivos de la sucesión tiende a este
número.

Bartók a principios del siglo XX creó su escala de Fibonacci numerando cada nota
cromática con un número y obteniendo:

Esta escala la usó en su obra "Música para instrumentos de cuerda, percusión y


celesta".

32
El fundamento natural de la música es el sonido, que se define como "vibraciones
mecánicas y ondas de un medio elástico en el ámbito de frecuencias de la audición
humana (16-20000 Hz)".

La acústica física trata del sonido fuera del oído. Así, nos encontramos con todo un
entramado matemático-físico que analiza las ondas, sus elementos y sus propiedades.

Dentro de la enseñanza musical nos encontramos con un complejo sistema que nos
muestra la técnica de la composición musical. Se intentan analizar diversos aspectos
de la música por separado: armonía, contrapunto, formas, instrumentación, ritmo y
otras materias.

A modo de ejemplo, me gustaría mostrar como en el estudio de la armonía se necesita


una precisión semejante a la que se requiere en cualquier actividad matemática,
puesto que se podría calificar como tal.

La armonía estudia las simultaneidades sonoras en sí, como elementos expresivos de


la música, y estudia la relación entre las diversas simultaneidades sonoras dentro de
las distintas estéticas. Estas simultaneidades con los 12 sonidos del sistema
temperado no son lo más importante, sino que, lo es la función que tienen con
respecto a uno principal llamado tónica. Con estos grados y sus alterados,
construiremos acordes. Los acordes tríada son la base sobre la que se cimenta la
tonalidad y son:

Acorde perfecto mayor: 3ª mayor y 5ª justa

Acorde perfecto menor: 3ª menor y 5ª justa

Acorde de 5ª: 3ª menor y 5ª disminuida

Pero no sólo en la construcción de acordes hay que seguir unas reglas matemáticas
establecidas, sino en el enlace de los mismos. Por ejemplo:

Regla: "Cuando los acordes que vamos a enlazar tienen una o dos notas comunes,
éstas han de permanecer quietas".

Tenemos que enlazar:

Do es la nota común, entonces, tendremos que invertir el 2º acorde para que Do no se


mueva y las demás lo hagan con el menor movimiento posible hasta conseguir:

33
Con todo esto, podemos darnos cuenta de cómo Música y Matemáticas tienen más
puntos en común de lo que pensábamos.

La influencia wagneriana continuó por medio de Gustav Mahler, en las técnicas


seriales en la década de 1920 en la escuela de Viena. En el serialismo de
Schoenberg, las 12 notas de la escala cromática se disponen en una serie arbitraria
que llega a ser la base para la melodía. No se permite que predomine una nota única.
Esto está en claro contraste con el predominio de la tónica. Así, el serialismo destruye
la organización armónica tradicional. Sin una única nota que sirva como función tonal,
la tonalidad dejó de ser una fuerza musical unificadora. Otros elementos que pasaron
a predominar fueron la serialización de ritmos y el timbre a partir de las notas.

El intenso cromatismo de la composición del siglo XX, ya sea conservador o radical,


hace casi imposible al oyente captar la unidad de una obra por medio de su adhesión
a un esquema tonal claro. La unidad se logra por medios melódicos, la organización
de ritmos o incluso del timbre.

El curso de la armonía después de Wagner siguió tres trayectorias distintas:

1. Los compositores exploraron la potencialidad de acordes de complejidad superior a


la tradicional.

2. Compositores que renunciaron al sistema clásico de tonalidad, utilizando acordes


que resuelven de manera distinta a la dirección esperada.

3. Otros que abandonan totalmente la tonalidad mediante la técnica de Schoenberg


que otorga igual importancia a los 12 sonidos cromáticos, más que permitir el dominio
de un sonido como tónica.

Entre los compositores más vanguardistas del siglo XX, la tonalidad ha sido explorada
intensivamente. El interés más grande entre los compositores ha sido el revivir la
escritura contrapuntística. Esta era una reacción contra las armonías exuberantes y el
lirismo del período Romántico. La obsesión por el contrapunto tiende a eliminar el
interés por las relaciones armónicas más allá del hecho incidental de que los clúster de
notas en contrapunto son también oídos simultáneamente.

La disolución de la armonía en la música progresista del siglo XX no fue una situación


de anarquía. El período de práctica común es corto. Desde Debussy, los estilos
armónicos han sido dictados por reglas nuevas o por el deseo de muchos
compositores de buscar nuevas reglas. Ambos sistemas: el modal y los sistemas
comunes de armonía, evolucionaron únicamente después de siglos. Así en el siglo XX,
los conceptos básicos de la armonía tradicional perdían importancia. El contrapunto
armónico llegó a ser el resultado incidental de la combinación de líneas melódicas. Las

34
experiencias con armonías inusuales, la disminución en la tensión entre la
consonancia y la disonancia y la creación de armonías sin precedentes por el uso de
ordenadores son resultado de una búsqueda de nuevas organizaciones musicales.
Este es consecuencia natural de la dispersión y la disolución final del sistema
armónico que había predominado durante más de dos siglos en la música occidental.

Queda claro entonces, que desde la antigüedad los hombres han desarrollado en
todas las culturas y civilizaciones sistemas musicales completos. Los instrumentos, los
sistemas de afinación, los procedimientos compositivos, etc. han formado un todo
unificado sobre el que se construyeron las obras musicales que definen estos
diferentes estilos. Los cambios en las orientaciones estéticas y en las posibilidades
tecnológicas, en una relación dialéctica, han derivado en desarrollos y modificaciones
de uno, varios o todos los componentes de estos sistemas musicales. Muchas veces
estos cambios mejoran aspectos considerados insuficientes en sistemas anteriores
pero siempre generan como contrapartida pérdidas en otros componentes del sistema.
Obviamente aquí no es aplicable la noción de progreso. Estos sistemas son solo
diferentes; ni mejores ni peores.

Soslayar, deliberadamente o no, cualquiera de los aspectos constitutivos de un


sistema musical nos conduce de manera inevitable a la degradación del sistema y a la
imposibilidad de un real entendimiento de las obras creadas dentro de él. En este
orden tal vez uno los aspectos menos tenidos en cuenta entre los músicos a la hora de
interpretar distintos estilos es el de los diferentes sistemas de afinación.

Como puntualiza Owen H. Jorgensen, la adopción del sistema de afinación temperada


entendido como la partición de la octava en 12 semitonos iguales no fue técnicamente
posible hasta 1885. Si bien este sistema científico de afinación no fue necesario o
practicado mucho antes del siglo XX, no es una teoría reciente. En Europa
aproximaciones cercanas al temperamento igual han sido aplicadas en los
instrumentos con trastes como violas y laúdes desde el siglo XVI y los chinos
especularon sobre el tema desde el siglo XX A.C. En el caso de las violas da gamba
los trastes eran móviles lo que les permitía adaptarse a diferentes temperamentos.

Cada cultura instaura los conceptos de consonancia, estabilidad y pertenencia según


criterios complejos y variados, definiendo a partir de esas unidades culturales la base
de su sistema musical.

A modo de breve introducción reseñaremos los sistemas de afinación y escalas más


usados desde la Edad Media:

La afinación y escala pitagórica se deriva de la superposición de 11 quintas naturales


(generalmente desde mib hasta sol#); la quinta restante recibe toda la coma diatónica
y por lo tanto es 24 cents baja (se denomina cent a la unidad que surge de la división
de la octava en 1200 partes iguales). Fue el sistema usado hasta el siglo XV. La
tercera mayor pitagórica es un intervalo mucho más amplio que la tercera natural
derivada de la serie de armónicos (4:5) y, considerándola armónicamente, no es
consonante sino por el contrario disonante. Es una escala que suena muy bien en un
contexto de música monódica. Las escalas griegas fueron derivadas a partir de las
diferentes notas de esta escala básica. Estos modos griegos desembocan en los
modos de la Edad Media que retienen los nombres griegos y a los cuales se les

35
asociaba con ciertas cualidades expresivas. Mientras la música fue monódica, o
polifónica pero basada en quintas, cuartas y octavas se mantuvo el sistema pitagórico.

36
La música de los siglos XVI y XVII está basada en parte en la teoría de la proporción,
de acuerdo a la cual los sonidos se deducen de la serie de armónicos. La fundamental
es el punto de referencia que simbolizaba la unidad (unitas) es decir Dios. Cuando
más simple es el número de radio, más noble y moral es el sonido. Cuanto más
alejado de la unidad, más caótico. Cada intervalo puede expresarse en proporciones
(por ejemplo la octava 1:2; la quinta 2:3; la tercera 4:5) y su cualidad puede medirse
por la proximidad con la unitas. De acuerdo con esta teoría la armonía se basa en un
principio similar al de la sección áurea en arquitectura. Los intervalos cercanos a la
unidad son percibidos como más placenteros, más perfectos que aquellos remotos
que son desproporcionados y pertenecientes al reino del caos. La relación 4:5:6 fue
considerada como la perfecta armonía y la más noble eufonía (trias musica) que
simbolizaba la Santísima Trinidad. La proporción de la tríada menor (10:12:15) no era
considerada estar sus números estar alejados de la fundamental. En este contexto se
le asignaban a los acordes valores morales y por esa razón no podía usarse la tríada
menor como acorde final ya que no se podía concluir una obra en caos. A finales del
siglo XVII solo las escalas mayores y menores sobrevivieron a los modos
eclesiásticos. Esto hubiera resultado en un empobrecimiento (en relación a los modos
eclesiásticos) si no hubiera sido posible dar a cada transposición de estas escalas su
carácter propio (sí, por ejemplo, do mayor no evocara un efecto diferente que si
mayor). Si la diferencia en los modos eclesiásticos reside en la secuencia de los
intervalos, las escalas mayores pueden ser distinguidas solo por la diferencia de
afinación.

Solamente los instrumentos de viento naturales, cornos y trompetas, estaban


diseñados como para este nuevo sistema. En el caso de los instrumentos de teclado
fue necesario desarrollar un nuevo sistema de afinación que incluya a las terceras

37
puras. Este nuevo sistema fue el Mesotónico (Meantone) en el cual las terceras
mayores son absolutamente puras a expensas de los demás intervalos. Se afinan 11
quintas reduciéndolas en ¼ de coma sintónico (más estrechas que en afinación
temperada) y la quinta restante queda como un intervalo muy amplio. De esto se
obtiene 8 terceras mayores absolutamente puras y 9 terceras menores levemente mas
―chicas‖ que las puras. El resto de las terceras son desafinadas. De este modo los
compositores dispusieron con fines expresivos de acordes puros y acordes muy
ásperos. La aparición de las notas Lab, La#, Reb, Re# y Solb son segura indicación de
que el compositor busca acordes que producen un fuerte efecto disonante.

Para conseguir estas terceras mayores puras todas las quintas deben ser estrechadas
notablemente. El nombre Mesotónico proviene de dividir la tercera mayor pura Do-MI
exactamente en el medio, para lograr la afinación del Re, y no en el radio 8:9:10 que
es la afinación natural en donde hay un tono "largo" Do-Re y un tono "corto" Re-MI. En
Mesotónico no hay equivalencia enarmónica, cada sonido es unívoco. Las escalas
cromáticas en instrumentos afinados en este sistema tocadas sucesivamente
producen un efecto extremadamente variado y colorido por la diferencia entre los
semitonos. En el caso de los instrumentos de viento se suma la necesidad de
digitaciones de horqueta y cerramiento parcial de los orificios que agregan cambios de
sonoridad muy grandes. En este contexto la denominación cromática adquiere su
sentido real. La quinta del "lobo" en Mesotónico era tan horrible, y también un
obstáculo para modular, que en la práctica de finales del siglo XVII se modifica
sustancialmente.

Estos temperamentos son, probablemente, los más apropiados para la música


temprana para órgano – incluyendo a Buxtehude y Bach.

Temperar significa balancear, es decir repartir la coma sintónica entre los intervalos de
la octava.

Numerosos sistemas fueron propuestos y usados durante el siglo XVIII como Valloti
(1730), Kirnberger (alumno de Bach), Werckmeister (experto organista, 1691),
Rousseau, D’Alembert, Thomas Young, etc.

A fines del siglo XVII surge la necesidad de encontrar otro sistema de afinación,
especialmente para los instrumentos de teclado, que permitiera tocar en cualquier
tonalidad y la modulación a diferentes tonalidades: comienza a experimentarse con los
diferentes temperamentos. En estos temperamentos se logró la posibilidad de tocar en
diferentes claves que conservaron su color característico. Los intervalos son diferentes
en cada clave, algunos puros, otros no, lo cual produce fuertes tensiones de afinación.

Es importante destacar que hasta 1800 la profesión de afinador no se había separado


de la de ejecutante lo que seguramente resultó en una variedad muy grande de
maneras de temperar.

Filósofos y teóricos propusieron periódicamente desde el siglo XVII la adopción del


temperamento igual para los instrumentos de teclado. Personalidades como Mersene,
Werckmeister, Neidhardt, Rameau y Marpug fueron teóricos de avanzada que
propusieron un ideal filosófico.

38
En el caso de Werckmeister y Rameau en sus primeros escritos adoptaron la afinación
por radios armónicos simples, sobre todo en las claves diatónicas naturales usadas
comúnmente. Más tarde promovieron el uso de temperamento igual en los
instrumentos de teclado.

En sus escritos no indicaron instrucciones que contengan la información necesaria


para afinar en temperamento igual auditivamente. Los músicos prácticos se rebelaron
fuertemente contra esta modalidad. Ellos afinaban de oído y no estaban dispuestos a
sacrificar el "color" de las diferentes tonalidades. Sus duras objeciones estaban
dirigidas especialmente hacia las terceras consideradas duras en estas
aproximaciones al temperamento igual. Los libros publicados por estos teóricos
influyeron a los historiadores del siglo XIX. Estos historiadores no tenían experiencia o
conocimiento sobre los requerimientos para afinar temperamento igual de oído y por lo
tanto no podían distinguir entre teoría filosófica y la afinación practicada por los
músicos. Esto llevo a conclusiones falsas como considerar que J.S.Bach introdujo el
temperamento igual en 1722.

Cuando J. S. Bach escribió "Das Wohltemperierte Klavier" evitó en el título de la obra


el término alemán para temperamento igual que es gleich-schwebende Temperatur; es
posible que del título original surgiera la creencia de que se refería al temperamento
igual . Los preludios y fugas que contiene esta obra exhiben el potencial de color de
cada clave en este temperamento circular.

Desde el comienzo del siglo XIX se produjo un paulatino acercamiento hacia el


temperamento igual. En 1885 Alexander John Ellis describió que aún el temperamento
matemáticamente igual no era practicado. A partir de los últimos años del siglo XIX es
técnicamente posible la afinación en temperamento igual.

Es importante recordar que toda la problemática de los diferentes sistemas de


afinación y temperamento se desarrollaron especialmente para los instrumentos de
afinación fija como el clave, órgano, piano, laúdes, guitarras etc. Los instrumentos de
viento, en mayor o menor medida, pueden adaptarse. Obviamente un instrumento
barroco o copia de un instrumento barroco está naturalmente hecho para tocar en una
afinación que no es el temperamento igual. En el caso de los instrumentos de cuerda
frotada (violines, violas, cellos, contrabajos, etc.) afinan las cuerdas al aire en quintas
justas y simultáneamente afinan el resto de las notas de manera justa, temperada o
incluso pitagórica.

El siglo XIX fue el siglo del piano. Los grandes compositores, con muy pocas
excepciones, fueron pianistas e incluso virtuosos del instrumento. Con la paulatina
adopción de los temperamentos circulantes y continuando luego con la adopción del
temperamento igual, el piano predominó como instrumento e influyó sobre los demás
instrumentos que fueron adaptándose a este nuevo sistema de afinación. De todas
maneras se usaban simultáneamente, como también se usa en la actualidad, distintas
maneras de afinación, sobre todo en música que no se ejecutara con instrumentos de
afinación fija.

Hermann Helmholtz señala el paralelismo entre la necesidad de modulaciones a


centros tonales más alejados y disonancias más acentuadas en la medida que la
afinación se acerca al temperamento igual. Pero también cuenta una experiencia con

39
el gran violinista Joachim al cual le pidió que ejecutara escalas mayores y al
controlarlas con el Harmoniun (instrumento de teclado de afinación justa inventado por
Helmholtz), comprobó que Joachim ejecutaba las escalas con afinación justa.

Es interesante destacar las observaciones que Paul Hindemith escribió en el marco de


la polémica sobre la música dodecafónica en donde afirma que la disolución del
sistema tonal ocurre a partir de la adopción del sistema de temperamento igual. Sin
estar de acuerdo con su postura conservadora en contra del dodecafonismo no
podemos dejar de coincidir en lo que respecta a la influencia destructiva que el
sistema de afinación en temperamento igual causó a la música tonal. Esta música es
fundamentalmente jerárquica, la perfección de las consonancias (especialmente las
terceras) es oscurecida por el temperamento igual. Del mismo modo la relación
consonancia – disonancia pierde polaridad lo cual produce un empobrecimiento de los
códigos del mismo sistema. El temperamento igual presenta una armonía que consiste
en intervalos de "compromiso" sin la posibilidad de una quinta, cuarta o tercera mayor
pura, por lo tanto ningún intervalo está libre de batimento. Quiero aclarar que las
denominaciones de sistemas de afinación Justa o Natural son elecciones estéticas de
determinados sistemas que no implican naturalidad ni antinaturalidad.

Comparemos la afinación del temperamento igual con el pitagórico y la afinación justa:

La música atonal o – mejor dicho- la "música que niega el parentesco de los sonidos
entre sí" tiene sus orígenes a fines del siglo XVIII, cuando el teórico Andreas
Werkmaister publicó su tratado sobre el "temperamento", con el cual, aunque

40
aparentemente se propusiera consolidar el sistema tonal mediante la nivelación de los
sonidos, lo que en realidad hizo –según Hindemith- fue abrir la puerta que condujo a la
disolución de dicho sistema, al introducir una alteración en el orden natural. En este
sentido, la preponderancia de la música pianística en el último siglo ha sido perjudicial;
con el descubrimiento del temperamento igual, "le sobrevino al mundo una maldición:
la maldición del logro demasiado fácil de las uniones entre los sonidos". "La
composición atonal –concluyo Hindemith- representa la última realización de este
descubrimiento: es la adoración acrítica de la idólatra afinación atemperada del piano".

Los intervalos justos (cuartas y quintas) presentan una diferencia de solo 2 cents. La
diferencia mayor existe en las terceras y sextas (menores y mayores) y la séptima o
sensible de la escala.

Comparativamente la escala pitagórica y de temperamento igual tienen una diferencia


menor entre sí que con la escala justa.

El cellista Pablo Casals hablaba de la "justesse expressive" o afinación expresiva. En


"Casals’ Approach to Teaching the Cello" de David Cherniavesky el autor describe
cómo Casals sistemáticamente ejecutaba las sensibles más altas hacia la nota que
resuelve y las séptimas de dominante más bajas como sensibles descendentes. Esta
es una práctica, en mayor o menor medida, bastante común. Es importante distinguir
al respecto entre ejecución solista y ejecución en ensamble.

Excede el alcance de esta obra las múltiples consideraciones posibles al respecto de


una afinación expresiva en la ejecución solista, solo alertaremos sobre las
consecuencias destructivas para la afinación armónica.

Otro aspecto a considerar es el vibrato: Es sintomático que el uso continuo del vibrato
en los instrumentos de viento y en los de cuerda coincide con la progresiva tendencia
de alejamiento de la afinación justa hacia el temperamento igual. El uso del vibrato, tal
como es reportado por diversos autores del siglo XVII y XVIII, se limitaba como
expresión para determinadas notas. Incluso, en el caso de los instrumentos de viento,
se usaba vibrato de dedo o flattement que es un tipo de vibrato que no se puede hacer
en todas las notas del instrumento. En los instrumentos de vientos de la orquesta la
práctica de ejecución con vibrato continuo se impone recién en el siglo XX e incluso
hoy en día el clarinete es raramente ejecutado de esta forma. Creemos que esto no es
casual, ya que un acorde en afinación justa es destruido si se le aplica vibrato.
Posiblemente la tendencia haya sido disminuir la sensación de dureza de la afinación
en temperamento igual con el uso de vibrato. A su vez la mirada idílica del siglo XX en
relación a la música del XVIII y XIX más la concepción de una belleza "edulcorada"
que elude los contrastes entre consonancias perfectas y duras disonancias propios de
una concepción dramática y retórica de la música ha influido en gran medida sobre el
uso de un vibrato constante.

Por analogía podemos decir que si ejecutamos la música tonal de los siglos XVIII y
XIX con afinación en temperamento igual, el producto es similar al que se obtiene
cuantizando los ritmos de cualquier obra de esta época en una computadora. Los
ritmos ejecutados en toda su crudeza y exactitud proporcional no reflejan la
concepción retórica y dramática a la que hacíamos referencia.

41
Según Nikolaus Harnoncourt la insistencia en la ejecución del ritmo proporcional tal
como está escrito es una práctica que recién se establece a partir de comienzos del
siglo XX con Gustav Mahler como director de orquesta.

Consideramos que en ensambles de instrumentos sin afinación fija (vientos y


cuerdas), para la ejecución de la música tonal del siglo XVIII y XIX no debe usarse
afinación en temperamento igual.

La afinación justa es la adecuada para el sistema tonal. Incluso al tocar junto con
pianos en afinación temperada debe igualmente favorecerse siempre que sea posible
la afinación de los acordes con afinación justa y con especial énfasis en terceras,
sextas y sensibles justas. El sonido del piano desaparece rápidamente y los batidos
que producen los sonidos resultantes son perceptibles solo en el ataque y luego
decaen. Por esta razón es posible tocar en ensamble con una afinación mixta.

Entendemos por afinación justa a aquella que se deriva de la serie de armónicos de un


sonido fundamental y que produce intervalos armónicos sin batimento en relación al
sonido fundamental.

Estos sonidos armónicos están en una relación matemática con la fundamental (las
frecuencias de los armónicos se derivan de la multiplicación de la frecuencia de la
fundamental por el número de armónico).

La Afinación Justa está basada en el contexto "tonal" desarrollado por un sonido, la


tónica, que actúa como el "ancla" para la clave. Todos los demás sonidos de la escala
son juzgados como correctos por la ausencia de batimento entre la tónica y el
intervalo. Es un sistema de afinación básicamente armónico.

Dos notas tocadas simultáneamente producen una tercera nota denominada


resultante. La frecuencia de la nota resultante es la diferencia de las frecuencias de las
notas tocadas. Esta nota resultante puede no ser de la misma intensidad que la de las
notas generadoras pero es audible. Cuando tres notas son tocadas simultáneamente
se producen tres notas resultantes. Cuando dos notas adyacentes en la serie de
armónicos son tocadas simultáneamente el sonido resultante será siempre la
frecuencia de la fundamental de la serie. Asimismo notas alternadas de la serie
producen el sonido resultante una octava más aguda de la fundamental. Acordes en
inversión y disposiciones abiertas de los acordes producirán resultantes que
duplicarán otros sonidos presentes en la serie de armónicos. A menos que los sonidos
resultantes coincidan exactamente con los otros sonidos presentes producirán
batimentos. Esto solo se logra en una afinación justa de los intervalos, lo que produce
un refuerzo de la tonalidad. En afinación de temperamento igual los sonidos
resultantes no concuerdan con los generadores y, por ejemplo, en una tríada mayor
ninguno de los sonidos resultantes está afinado con la fundamental.

Análisis de las diferentes notas de una escala en relación a la tónica:

· 1º grado de la escala: Unísono – Octava: La sensación del unísono es simple y sin


complejidad. No es tocar solamente una altura sino una serie de armónicos iguales.
Las octavas son simples en característica aunque la tendencia es tocarlas más
amplias que lo que corresponden a una octava sin batimento o pura. No hay que

42
sorprenderse si uno toca una octava pura y siente que es baja en términos melódicos
(también el cambio de timbre de un instrumento entre octavas conspira). No escuche
el timbre, escuche si hay o no batimento.

· 5º Grado de la escala: Quinta Perfecta: 2 cents más alta que la quinta temperada.

· 3º Grado de la escala: Tercera Mayor: 14 cents más baja que la tercera mayor
temperada. Aquí la distinción entre Temperamento Igual y Afinación Justa es obvia. La
tercera mayor pura es tal vez la experiencia más gratificante de tocar en afinación
pura.

· 3º Grado de la escala: Tercera menor: 16 cents más alta que la tercera menor
temperada. Es un intervalo de difícil ubicación sin batimento. La sensación física es
incómoda. La idea de un intervalo menor es de tensión que procura resolución. Es
recomendable omitirlos hasta que los intervalos perfectos y mayores estén
consolidados.

· 4º Grado de la escala: Cuarta Perfecta: 2 cents más baja que la cuarta temperada.
Como con otros grados de la escala, cuanto más alejada está la nota en la serie de
armónicos, es más difícil de tocar sobre la fundamental (la cuarta es el armónico 18 o
19). Una posibilidad para afinar la cuarta es escucharla como inversión.
Particularmente prefiero resolver la cuarta en la tercera mayor y escucharla como un
retardo de la cuarta por la tercera. Es muy importante entender la preeminencia de
este intervalo en armonía tonal. La tendencia general es tocar este intervalo muy
amplio. En Afinación Justa es necesario que todos los intervalos estén en perfecta
relación con la tónica. La sensación física no es tan fuerte como con la quinta.

· 6º Grado de la escala: Sexta Mayor: 16 cents menos que la sexta temperada. Como
la tercera mayor, la sexta funciona como tercera del acorde de IV grado (Fa-La-Do en
Do mayor). La relación entre la fundamental de un acorde y la tercera es consistente
de acorde a acorde. El Fa (la cuarta) es 2 cents más baja que la temperada y por esa
razón el La (la sexta) es 16 cents más baja. Observe que es la misma relación que hay
entre el 1º grado de la escala y la 3º de la escala.

· 6º Grado de la escala: Sexta menor: 16 cents más alta que la sexta menor
temperada.

· 2º Grado de la escala: Segunda Mayor: 4 cents más alta que la segunda mayor
temperada. Este es uno de los intervalos de la escala que usualmente requiere de
cierta "corrección". Si se usa armónicamente como quinta del acorde de V grado (Sol-
Si-Re en Do), que es la relación pura con la tónica de la clave, corresponde a una
"posición" alta. Como fundamental del acorde de II grado (re-fa-la) se lo baja para
acomodarse a la tercera mayor pura entre el cuarto grado de la escala y el sexto (Fa-
La). La teoría indica que es mejor acomodar la segunda bajándola antes que mover
los otros dos intervalos para acomodarse al segundo grado. La teoría se rompe
rápidamente si el acorde de II grado es seguido del V. Si el II que está sonando es en
una afinación baja: o se bajan las otras dos notas del V grado para afinarlo en relación
o se acomoda el segundo grado de la escala en relación a la quinta de la escala. En
general es el acorde siguiente el que determina la exacta posición del segundo grado.

43
· 7º Grado de la escala: Séptima Mayor: 12 cents más baja que la séptima temperada.
Este intervalo es la sensible. Generalmente se tiende a subir la afinación de la
sensible. Este es un argumento válido bajo ciertas circunstancias melódicas, pero en
general es completamente destructivo para la Afinación Justa. En cualquier tonalidad
el acorde más importante es el I grado, el siguiente es el V (dominante). El séptimo
grado de la escala es la tercera mayor del acorde de V grado. Si subimos la séptima
de la escala obtendremos desafinar el segundo acorde más importante de la tonalidad.
La séptima debe ser baja (en relación a la temperada) como toda tercera mayor debe
serlo.

· 4º Grado de la escala como Séptima menor del acorde de V grado dominante debe
ser 29 Cents más baja. El uso de este intervalo es preparar la resolución del V al I. La
7ma menor resuelve en la tercera mayor del acorde de I (tónica). Debe aplicarse la
regla cardinal de balance: en orden de importancia primero la fundamental del acorde,
luego la quinta, después la tercera y por último la séptima. Si la afinación baja de la
séptima no es usada, es posible ubicarla como tercera menor de la quinta.

Desafinación:

Cuando dos instrumentistas tocan uno la a 440 Hz. y otro a (por ejemplo) 442 Hz. hay
2 "choques" de frecuencia por segundo. A esto se lo denomina "batimento". La
afinación justa es la producción de intervalos sin batimento. Cuando se mueve la
afinación del sonido en la dirección apropiada el batimento se ralenta y finalmente
cesa. En caso contrario el batimento es más acelerado.

Hay un principio, al que Stephen Colley denomina "Gravedad", que se produce en los
ensambles y conjuntos: cuando más ejecutantes comienzan a escuchar y corregir la
afinación los que encuentran más problemas en escuchar la relación correcta son
arrastrados a ella. Los únicos a los cuales no les sucede esto son aquellos que no
pueden escuchar en absoluto o que tienen demasiado ego para pensar que están
desafinados. La afinación es una habilidad individual expresada en un ensamble.

Ningún conjunto puede mejorar sin la participación de cada uno de sus integrantes.
Cuando se mejoran las habilidades individuales el proceso es mucho más fácil.

En los años que siguieron a la Segunda Guerra Mundial, los compositores seriales
buscaron obtener un pleno control sobre los parámetros musicales. Sin embargo,
desde el punto de vista auditivo, sus trabajos parecían improvisados y aleatorios. De
esta manera la música serial encaró un problema que, como observa Bukofzer (1947),
ya había sido confrontado por la era barroca: ¿debe la música basarse en una "forma
inaudible" o en una "estructura audible"?

A pesar de este problema, a comienzos del siglo XX se puso de moda la idea de que
una gramática gobernara la música. Los formalistas rusos —en la literatura, el cine, la
pintura, así como también en la música— argumentaban que la inspiración del artista
ya no era relevante; lo que importaba desde el punto de vista estético eran los
dispositivos artísticos utilizados en la producción de una obra de arte. Más tarde, Igor
Stravinsky (1947) planteaba que la música no podía reflejar algo tan subjetivo como el
alma humana. Ya para 1920 Vassily Kandinsky había tratado de construir una
gramática universal de todas las artes cuyos elementos eran líneas, puntos y planos.

44
Según él, estas artes incluían la danza y la música; por ejemplo: analizó el comienzo
de la quinta sinfonía de Beethoven basándose en estos conceptos (Kandinsky, 1926).
La música inspiró al arquitecto Le Corbusier en la elaboración de un sistema semiótico
de la arquitectura basado en las unidades más pequeñas que él llamó "módulos" (Le
Corbusier, 1951-1958). Este enfoque, que utilizaba las unidades significantes más
pequeñas para formar textos más largos mediante una especie de ars combinatoria,
ya era estructuralista en su forma más pura.

No obstante, la historia de la música del siglo XX no puede interpretarse como una


marcha progresiva hacia el serialismo, a pesar del hecho de que muchos compositores
y críticos en las décadas de 1950 y 1960 consideraban esta línea como la única
"progresista". En la década de 1920, surgió el Neoclasicismo, que buscaba restaurar
las características estilísticas de las épocas Clásica y Barroca, tales como la reducción
de las fuerzas instrumentales, una especie de expresividad distante o restringida, así
como los mitos de la antigüedad (un ejemplo es la colaboración de Jean Cocteau con
Igor Stravinsky). Por encima de todo, el Neoclasicismo respetaba las virtudes de la
claridad y la transparencia, hacía un uso irónico de los medios musicales heredados
de compositores como J.S. Bach y Pergolesi, y favorecía el carácter de juego, la
hilaridad y lo ligero. En este sentido, los Neoclasicistas (tales como Poulenc, en su
Concerto para dos pianos) pueden verse como precursores de los postmodernistas de
la década de 1980. El Neoclasicismo se manifestó de diversas maneras. En la música
podía aparecer como pandiatonismo, inspirado en la música folclórica, que es un tipo
de folclor petrificado, como puede verse en las reconstrucciones de la música
autóctona de México, de Carlos Chávez, o en los arreglos del Kanteletar del
compositor de Lied finlandés Yrjö Kilpinen. También podía aparecer en el tratamiento
fonético de un texto, al ignorar el significado del nivel léxico, como puede apreciarse
en el método de versificación latina de Stravinsky, en su Oedipus Rex. Incluso
Ferruccio Busoni podría tomarse como representativo del "clasicismo joven" en la
música (Beaumont, 1985), en su deseo de utilizar expresiones musicales del pasado
dándoles formas firmes y perdurables.

Por 1960, los compositores de la vanguardia se familiarizaron con la lingüística


estructural y se inspiraron en fuentes semióticas. Así podemos apreciar en la Sinfonía
de Luciano Berio, no solamente técnicas de collage, semióticamente polivalentes, sino
también algunos préstamos tomados de los textos estructuralistas de Claude Lévi-
Strauss (p. ej.: Lo crudo y lo cocido). Pierre Boulez, representante de una escuela del
serialismo estricto, también buscaba elucidar los recursos rítmicos en La Consagración
de la Primavera de Stravinsky (1971 y 1986). Umberto Eco (1968) intentó articular la
diferencia entre pensamiento serial, y pensamiento estructural: mientras que la primera
forma de pensamiento crea estructuras, la segunda sólo las descubre. La forma de
pensamiento mencionada en segundo lugar pasó a ser una especie de episteme
detrás de la música de la década de 1980 y principios de 1990. El giro que se produce
al pasar del pensamiento estructuralista, con su orientación hacia el objeto, a la era
cognitiva, con su énfasis en el sujeto, también se manifiesta en los procesos sígnicos
de la música misma. Como reacción al extremo racionalismo y reduccionismo de la
escuela serial, surgen dos nuevas tendencias en la música: la así llamada Musique
Pauvre, con John Cage como su principal apologista, y el Minimalismo. John Cage
rechazaba la idea del serialismo del control máximo, ya que mientras más controlemos

45
la música, más seremos controlados por ella. Vemos también influencias en la filosofía
de la libertad, de Cage, del misticismo medieval, doctrinas orientales, así como
también de los trascendentalistas norteamericanos como Thoreau (1854) y Emerson
(1836; véase 1979). Daniel Charles ha descrito aptamente la música de Cage como
musique de non-vouloir, o música del no-querer (Charles, 1987-1988). Mientras menos
desee el compositor dominar al oyente, más espacio quedará para que la voluntad del
oyente dirija el proceso musical.

Cage quería permitirle a cada persona, y también a cada sonido, ser el centro de la
creación (Charles, 1981). Su ideal musical era la pacífica simetría de las piezas de
Satie, un ideal realizado también en algunas músicas de la última mitad del siglo XX,
particularmente en la de Arvo Pärt. La musique pauvre juega, característicamente, con
la dialéctica entre los elementos escasos pero presentes, y los elementos ausentes
pero implícitos en los primeros. Por ejemplo, la obra de Cage Music of Changes (1961)
consiste sólo de eventos sonoros puntillistas, cuya coherencia y consistencia queda
enteramente bajo la responsabilidad del oyente. Una música como esa activa las
actividades modales del oyente, forzándolo a él o a ella, a llenar con modalidades, los
vacíos que se sienten en la audición de la forma musical.

El Minimalismo, también, busca llevar a los oyentes a un estado en el que se funden


con el proceso musical (Reich, 1981). El diatonismo excesivo del Minimalismo y las
repeticiones sin fin de figuras triádicas no son alusiones históricas al periodo histórico
de la música tonal, sino un fenómeno análogo a las pruebas que los psicólogos utilizan
para estudiar, en la gente, su percepción cognitiva de la música (Deutsch, 1982). La
música minimalista es un "éxtasis" de la repetición, en el sentido en el que Baudrillard
(1987) describe el "éxtasis" de la comunicación en el mundo moderno. Mientras que la
repetición funcionaba, en la música anterior, como principio articulatorio contra un
fondo no-recurrente (entropía), vemos cómo ahora pierde ese carácter marcado. De
ahí que, aún los cambios más leves que puedan ocurrir durante estas repeticiones
interminable, pueden ser experimentadas como factores que moldean la forma, en
cuanto différances en el sentido derridiano que abarca tanto las diferencias como los
diferimientos (véase Derrida, 1967). En este contexto, la repetición ya no puede
realizar la tarea que le asignaban los formalistas rusos, es decir, de servir como
agente provocador de la sorpresa. A pesar de la activa figuratividad en el nivel de
superficie, la música minimalista da la impresión de ser extremadamente estática, de
ser una sucesión de momentos reificados del "ahora". Hablando semióticamente,
estos momentos representan la duratividad pura, pues no tienen ni principio ni fin y, de
hecho, carecen de articulación temporal alguna. En este sentido, el Minimalismo es,
también, completamente antinarrativo.

El Minimalismo ha abandonado la narratividad, ya que el postmodernismo ha dejado


de creer en lo que Lyotard llama les grandes récits, o las narrativas maestras. Los
minimalistas como Steve Reich y Philip Glass encuentran que la música está
completamente desprovista de sujeto. En Arvo Pärt permanece una cantidad mínima
de narratividad; no obstante, todos sus trabajos dan la impresión de estar escritos bajo
la oculta rúbrica de "la última historia". A pesar de sus abundantes repeticiones, los
trabajos de Pärt parecen cadencias expandidas. Mantienen la ilusión de narratividad
por vía de signos y alusiones musicales, símbolos, índices, e iconos, tales como las

46
tonalidades en modo menor, campanas, sonidos de un ensamble de cuerdas, técnicas
canónicas, y así sucesivamente.

En la historia de la música del siglo XX, vemos cómo la música electrónica forma su
propia línea de desarrollo, aun cuando pudiera tomarse como una continuación de los
experimentos en el área de la comunicación entre el hombre y la máquina,
comenzados ya en la era barroca por Kircher (1650). La música grabada facilitó el
surgimiento de la musique concrete, es decir, el empleo de ruidos cotidianos como
material de composición. Ya en 1915 Russolo había clasificado diversos sonidos en su
obra The Art of Noises. Incluso antes, los yunques reales que Wagner empleó en
Rheingold, a fin de representar el trabajo de los nibelungos en Nibelheim, fueron un
ejemplo del uso de los ruidos en la música. Diversas técnicas para sintetizar el sonido
hicieron posible también la transformación de los ruidos naturales, tales como el
murmullo del viento, el vaivén de las olas, el sonido del agua cayendo, y así
sucesivamente. Sin lugar a dudas, los ruidos en la música son elementos de primera
articulación (Martinet); es decir, palabras que tienen una cierta denotación que se basa
en su reconocimiento. Sin embargo, cómo puede uno crear un continuo o sintagma a
partir de esos signos, y finalmente incluso la música que posee una trama, sigue
siendo un problema fundamental planteado por la música grabada. Los aspectos
semióticos de la música electrónica rara vez se estudian sistemáticamente (como una
excepción, véase Grabocz, 1991-1992). A menudo la investigación en esta área se ha
concentrado en las formas de producir nuevo materiales sonoros, y no en su
significación o su aspecto estético (véase, p. ej.: el tratado clásico Traité des objets
musicaux de Pierre Schaeffer [1966], así como también la investigación que se está
realizando en IRCAM). Un estilo especial de la música contemporánea es la música
espectral, que experimenta con transformaciones sintéticas de los armónicos,
haciendo del compositor, que utiliza computadoras y sintetizadores como "cincel", una
especie de escultor musical que puede suprimir ciertas regiones de los tonos naturales
y trabajar con lo que resta. Un rasgo típico de la música espectral, como la de Murail,
Grisey, Scelsi, y Saariaho, es su cualidad extremadamente estática, siendo el punto de
partida algunas veces, sólo un instrumento solo, tocando una nota, la cual es variada
electrónicamente de muchas maneras. Este tipo de música parece subsistir en el nivel
"sub-semántico" de las "proto-entonaciones" (Leman, 1992).

La tecnología de la comunicación electrónica del siglo XX no sólo hizo posible que


todos los periodos estilísticos de la música culta de Occidente pudieran estar
presentes simultáneamente, sino que también puso en la palestra a las culturas
musicales no europeas. Gracias a las grabaciones realizadas por los músicos
antropólogos y a la facilidad de viajar, los compositores de música culta han sido
expuestos, más que nunca, a todo tipo de música popular y folclórica. Como ejemplo
podemos tomar a Ligeti, quien en la década de 1980 estuvo influido por la música
africana, Reich por la música oriental, y Messiaen por la música hindú. La abrumadora
abundancia de mensajes que fluyen desde todos los rincones del mundo, ha hecho del
lenguaje tonal algo relativo. Los que escuchan la música han pasado a ser receptores
pasivos quienes, con la radio y los canales de televisión todo el tiempo encendidos,
escuchan la música sólo con un oído. La música ha llegado a ser un mero sonido dans
les coulisses, un paisaje, una tonosfera. Adam Krims (2001) ha estudiado este aspecto
de la música en cuanto un artículo de consumo. Simultáneamente, el triunfo de la

47
música tonal ha continuado en la música fílmica. Los compositores y los productores
hollywoodenses de series televisivas han conservado las denotaciones de ciertos
leitmotiv y de ciertos tópicos, del período estilístico Clásico-Romántico,
transformándolos de según sus necesidades. Los mismos elementos se utilizan en la
"música de ambientación" de los consultorios de doctores y dentistas, en las tiendas
por departamentos, en los aeropuertos, y en otros sitios. Mediante estas prácticas
musicales generalizadas, casi toda la población del globo se ha hecho sensible a los
mecanismos de tensión-distensión de la música tonal. Es casi imposible para una
persona hoy en día, lograr la frescura de la primeridad en su encuentro con la música.

En el área de la teoría y del análisis musical, el mundo académico germano-parlante


produjo dos escolares notables a quienes podemos considerar proto-semiólogos: el
austríaco Heinrich Schenker (1868-1935) y el suizo Ernst Kurth (18861946). Para la
creación de su sistema teórico, Schenker se basó en la investigación histórica aplicada
a las prácticas de la ejecución musical y en los esquemas de composición
(particularmente en aquellos de Beethoven), guiado por la filosofía alemana (p. ej.: la
morfología de Goethe). Según Schenker, los grandes compositores (todos ellos
germano-parlantes, representantes del periodo Clásico-Romántico) improvisaban sus
obras musicales a partir de una estructura profunda a la que denominó Ursatz (es
probable que la resonancia que el término tiene con el término Urpflänze de Goethe no
sea una coincidencia). La Ursatz, a su vez, se basaba en la naturaleza misma en la
forma de los primeros tonos de la serie de armónicos, que juntos constituían una tríada
mayor, denominada Urklang. Mediante diversas operaciones, el compositor se movía
desde este acorde hasta la Hinter-grund (estructura de fondo) a través de la
Mittelgrund (estructura media) en dirección hacia la Vordergrund (estructura de
superficie), siendo este último nivel el que de hecho se escucha al oír la música
(véase, entre otros autores, Neumeyer, 1988 y la interpretación deconstruccionista de
Schenker por Littlefield, 2001).

Esta idea típicamente "estructuralista" fue el fundamento del método schenkeriano del
análisis musical. Schenker no veía en su método una ciencia, sino más bien, la
práctica de un arte. Su gran mérito fue el tomar la estructura de una composición como
un continuo, en donde cada evento era significativo y ocupaba el lugar que le
correspondía. De ahí que los eventos tonales separados en el tiempo se hacían
significativos al formar parte de la Urlinie, la línea melódica fundamental cuyo
descenso crea el trayecto tensivo de la pieza. Este método da buena cuenta de la
naturaleza fundamentalmente cinética de la música. Sin embargo, Schenker podría ser
criticado por su excesivo axiomatismo y reduccionismo, ya que siempre redujo la
música a la misma estructura fundamental Ursatz, nivelando de esta manera las
diferencias estilísticas existentes entre las piezas musicales y entre los compositores
individuales. Después de su muerte, el enfoque de Schenker fue llevado a los Estados
Unidos, donde pasó a ser el método de análisis dominante. Cuando el musicólogo
Fred Lerdahl y el lingüista Ray Jackendoff publicaron su obra seminal A Generative
Theory of Tonal Music (1985), se hizo evidente que el modelo schenkeriano era muy
similar al "modelo arbóreo" de la estructura frástica de la lingüística, de Noam
Chomsky. Pero de hecho, fue Leonard Bernstein, en su obra Unanswered Question
(1976), quien primero sugirió el paralelismo entre la generación de una pieza musical y
la de una expresión lingüística. Ya en la década de 1960 los semiólogos habían

48
supuesto que el lenguaje y la música eran fenómenos análogos, pues ambos
consistían en encadenamientos de señales acústicas (véase Posner, 1988), y este
punto de vista se vio reforzado en el modelo schenkeriano.

Es sólo recientemente que la concepción "energética" de la música de Ernst Kurth, ha


sido considerada precursora de la semiótica musical. Las ideas de este autor, han
resultado ser particularmente útiles como contrapeso a los métodos taxonómicos y
segmentarios del análisis semiótico de la música por los años de 1980. Kurth resaltaba
la naturaleza energética, continua, de la música, no los significantes discretos y
separados, es decir, los signos percibidos por el sentido auditivo. Lo que a Kurth le
importaba era el significado, la energía cinética pulsante detrás de las notas. Él incluso
decía que las notas tenían "un querer hacia el acorde". En este sentido se une a las
epistemes filosóficas de fin de siglo, p. ej.: la idea de Henri Bergson de dos clases de
tiempo: temps d'espace (tiempo espacial), el cual podía ser medido físicamente, y
temps de durée (duración), que era un tiempo fenomenal, vivencial (véase, p. ej.:
Bergson, 1975). Kurth también hacía énfasis en la naturaleza temporal de la música;
según él, el aspecto pertinente en música era la experiencia del movimiento. En su
obra Grundlagen des linearen Kontrapunkts (1922), un estudio del estilo melódico de
J.S. Bach, Kurth afirmó:

"La experiencia del movimiento que se siente en una melodía no es sólo un tipo de
fenómeno psicológico subsidiario, sino que nos lleva hasta el mismo origen del
elemento melódico. Este elemento, que se siente como una fuerza que fluye a través
de los tonos, y la intensidad sensual del sonido mismo, ambos hacen referencia a las
fuerzas básicas en la formación musical; a saber, a las energías, que experimentamos
como tensiones psíquicas (Kurth, 1922: 3)".

Podemos considerar a Kurth un semiólogo, en tres sentidos. Este autor enseñaba (1)
que el estímulo sonoro de la música siempre funciona como un signo de algo
(semántica); (2) que debemos prestar atención a lo que sucede en la mente cuando
uno escucha música (cognición); (3) que el análisis comienza "adentro" y se mueve
hacia "afuera", es decir, desde una estructura profunda hacia la superficie (enfoques
estructuralista y generativista). Las unidades básicas del análisis kurthiano son la
Bewegungsphase (fase del movimiento) y la Linienzug (curso lineal). Un segmento
musical dura sólo mientras haya suficiente poder en su impulso inicial para mantener
el movimiento. De ahí que la teoría de Kurth revolucione los criterios segmentarios
tradicionales y pueda ser aplicada exitosamente a las piezas contemporáneas hasta
entonces consideradas no-segmentarias; por ejemplo, las piezas que utilizan técnicas
de campo y las que poseen libre movimiento pulsante (desde Ligeti hasta Penderecki y
el Minimalismo), y la música espectral y computarizada. Kurth no desarrolló un
procedimiento analítico explícito, si bien sus teorías permanecieron siempre
estrechamente vinculadas a la práctica musical; por ejemplo, su tratado Romantische
Harmonik undIhre Krise (1923) trata del cromatismo wagneriano, y sus más extensivos
análisis son los de las sinfonías de Bruckner (1925).

Otros grandes teóricos de la música, pertenecientes al mundo académico germano-


parlante, no han logrado tanta aceptación. Hugo Riemann (1849-1919) estaba fuera de
moda en el contexto estructuralista de 1960, por creer en el mito de la tonalidad como
un principio de la naturaleza. Alfred Lorenz (1868-1939) fue considerado un estudioso

49
cuyo sistema violentaba a la música, al forzar texturas sinfónicas wagnerianas
completas adaptándolas a la forma del compás medieval (dos Stollen seguidos por un
Abgesang). El defecto en su análisis fue que sus unidades básicas podían ser
alargadas, tan largas, o cortas, según fuera necesario, para que encajaran en sus
categorizaciones externas. Sin embargo, la obra principal de Lorenz, Das Geheimnis
der Form bei Wagner (1924-1933), fue uno de los primeros intentos de hacer un
análisis completo de la música de Wagner que no se limitaba a una interpretación
meramente hermenéutica. Además, Lorenz hizo estudios reveladores de la técnica
delleit motiv, de las melodías, y de otros aspectos de la música de Wagner.

Lorenz también inspiró al musicólogo finlandés Ilmari Krohn en la creación de su


propia teoría y sistema de análisis musical, el cual estaba basado, al igual que el de
Lorenz, en unidades rítmicas. Sin embargo, los esfuerzos de Krohn por aplicar su
sistema a las sinfonías de Sibelius no fueron exitosos, en particular, su intento de
reducir la música de Sibelius a la técnica wagneriana del leitmotiv y de encontrar
asociaciones programáticas para cada una de sus sinfonías (Krohn, 1945). Más
significativamente, el método de Krohn para clasificar las tonadas folclóricas inspiró a
Béla Bartók en sus investigaciones de la música folclórica. El hermano de Krohn,
Kaarle, y su tío Julius, un estudioso de la literatura, junto con el folclorista Antti Aarne,
crearon un modelo para clasificar los cuentos folclóricos, que luego fue adoptado por
Vladimir Propp (véase Aarne y Thompson, 1961; Propp, 1928).

La hermenéutica musical de Arnold Schering (1877-1941) puede tomarse como un


intento semiótico de analizar los significados musicales. Sin embargo, como hemos
señalado, Schering (1936) claramente exageraba al argumentar que detrás de cada
pieza instrumental de Beethoven había algún programa literario tomado de Goethe o
Schiller. Estaba en lo cierto, sin embargo, al decir que en la mente del compositor, un
programa a veces funciona como especie de andamiaje. No obstante, tan pronto como
se termina la composición, la música comienza a cobrar vida con poder propio. De la
filosofía de Henri Bergson surgió otra línea de investigación que así mismo postulaba
que la temporalidad era el parámetro central de la música. La fenomenóloga Giséle
Brelet, entre otros autores, estudió la ejecución musical en su obra L 'interpretation
créatrice (1951), y llegó a la conclusión de que la melodía tenía su origen en el
lenguaje natural. Anteriormente, Vincent d'Indy (1851-1931), en su Cours de
composition musicale (1897-1900), había teorizado que la melodía surgía de las
diferentes formas de pronunciar una frase verbal, en la manera en que las sílabas
llegaban a ser "musicalizadas". En el ejemplo que él da, la frase Il a quitté la ville podía
pronunciarse de una manera neutra, interrogativa o afirmativa, estando su entonación
determinada por dos tipos de acento, "tónico" y "patético". De ahí que d'Indy anticipara
las teorías posteriores acerca de las modalidades del lenguaje y la música.

Basándose en las inflexiones del lenguaje e influido por Kurth, Boris V. Asafiev (1884-
1948) desarrolló su teoría de la entonación, la cual llegó a ser la teoría y el método de
análisis que prevaleció en la Europa oriental durante muchos años, después de la
Segunda Guerra Mundial. Asafiev era un escritor prolijo que también publicaba bajo el
pseudónimo de Igor Glebow. Su obra principal, Musical Form as a Process, traducida
al inglés en 1976, fue escrita durante el sitio a Leningrado, lo que explica en parte las
incoherencias que pueden hallarse algunas veces en su estructura. Cuando Asafiev
murió en 1948, era el único representante de la música en la Academia de las

50
Ciencias de la Unión Soviética. El concepto básico de Asafiev era el de "entonación",
el cual permitía aparear cualquier elemento musical —intervalo, acorde, ritmo, motivo
o timbre— con su valor o contenido emocional. En su afán de unir los significantes
musicales con sus significados, esta teoría era inherentemente semiótica. Asafiev
también hizo énfasis en el carácter móvil de la música, y presuponía que las
entonaciones formaban cadenas de funciones tales como initium (comienzo), motus
(movimiento), y terminus (final, cadencia). Su hipótesis era que los "depósitos" de
entonaciones se formaban a partir de pasajes musicales característicos, y que estos
repositorios de entonaciones permanecían en la memoria colectiva de los oyentes.
Estos depósitos contienen las bases del sentir de la gente en un período dado, de
manera que la música podía percibirse como un "discurso verdadero". Al producirse un
cambio en la forma de pensar de la gente, vemos cómo surgen nuevas entonaciones.
Asafiev estudió tales crisis de la entonación, en relación con la revolución francesa.

El aspecto sociológico de la teoría de Asafiev anticipó las ideas que aparecerían más
tarde en la Escuela Semiótica de Tartu, si bien estas ideas cargaban con el peso de la
visión conservadora de la música folclórica, que la tomaba como un tipo de "sistema
de modelado primario", en cuanto factor determinante del desarrollo de la música culta
(esta tesis fue utilizada por Zhdanov en su crítica negativa de Shostakovich y
Prokofiev). En Occidente, Asafiev permaneció casi desconocido hasta que los
semiólogos musicales en la década de 1970 redescubrieron su trabajo. Sus teorías
fueron adaptadas por Viatcheslaw W. Medushewski a la narratología moderna, quién
distinguió entre la protoentonación —una forma expresiva, como un grito o una
exclamación, sin ninguna articulación de composición— y la entonación musical
propiamente dicha. Medushewski ha presentado también las tipologías de los
narradores musicales internos, en primera persona, como el "Yo" lírico, danzante, o
meditativo. Las teorías de Asafiev también han sido aplicadas por Joseph Kon, Yury
Kholopov, Yevgeny Nazaikinsky, y han ejercido influencia sobre el trabajo de Jaroslav
Jiranek (p. ej.: en su Grundfragen der musikalischen Semiotik [1985]), y en el
académico húngaro Joseph Ujfalussy (p. ej.: 1968). Además, algunos estudios
actuales de la música popular reflejan la influencia de Asafiev, como la teoría de los
"ganchos" de la canción popular (Frith, 1978), y el análisis de los "afectos" de la
música popular (Tagg, 1979).

En los Estados Unidos la musicología avanzó cuando, al huir de la opresión Nazi,


muchos estudiosos alemanes salieron de Europa para refugiarse en ese país. Según
las especialidades de estos musicólogos, se desarrolló un fuerte interés en el estudio
de las prácticas de la ejecución de la música antigua, en la investigación de archivo, y
en la etnomusicología. Sin embargo, fueron pocos los nuevos trabajos que
aparecieron en relación con la metodología analítica, y la interpretación estético-
filosófica de la música. Los investigadores generalmente se contentaban con los
modelos europeos, como lo demuestra la popularidad de Schenker. No obstante, hay
algunas figuras que se destacan como pioneras en la semiótica musical en los
Estados Unidos.

Como precursor de la etnomusicología moderna, Charles Seeger indagó


profundamente en los problemas semióticos de la música, por lo que es lamentable
que su ensayo creador de época "Acerca de los Modos de una Lógica Musical" (1960)
no fuera tomado en cuenta en las discusiones de semiótica musical en las décadas de

51
1960 y 1970. En ese ensayo, Seeger presentaba un modelo de análisis de corte
estructuralista en el que varios parámetros musicales eran divididos en sus unidades
más pequeñas, llamadas "modos", los cuales podían combinarse para formar
unidades más grandes. Seeger también estudió la naturaleza semiótica de la
transcripción en la etnomusicología como un procedimiento prescriptivo o descriptivo,
y abordó el tema del valor en la música (Seeger, 1977).

El término "semiótica" rara vez aparece en el extenso trabajo de Leonard B. Meyer en


el campo del análisis musical y de la estética, aunque, no obstante, haga referencia a
la problemática semiótica. La distinción que hace entre los significados referenciales y
aquellos que se han encarnado en la música, estudia el eterno problema de la estética
musical: la naturaleza del significado musical y su lugar, bien sea, dentro o fuera de la
música misma. El trabajo analítico más importante de Meyer es su obra Explaining
Music (1973), en el que presenta un modelo de análisis basado en el concepto de
implicación. Él argumenta que nuestras expectativas musicales están determinadas
por ciertos arquetipos melódicos, tales como simetría, efe, tríada, el principio de
"vacío-llenado", y así sucesivamente. Basándose en esto, el comienzo de una pieza
musical implica una cierta continuación y un final. Sus análisis del preludio del Tristan
de Wagner y la sonata de Beethoven "Les adieux", demuestran su teoría de una forma
convincente (véase también Treitler, 1989 y Rowell, 1983).

Susanne K. Langer (1895-1985) figura entre los más grandes semiólogos


norteamericanos (véase Sebeok, 1991: 42-44), pero su estética musical, tal como la
presenta en su libro Philosophy in a New Key (1942), raramente se menciona con
relación a la semiótica musical. Según Langer, la música no presenta síntomas (signos
índices) de los sentimientos, sino más bien su "expresión lógica" (símbolos). Por vía
de su maestro Ernst Cassirer, sus teorías han tomado al fin la posición que les
corresponde dentro de la tradición semiótica.

Algunos teóricos en los Estados Unidos han desarrollado las teorías de Schenker en
una dirección semiótica; por ejemplo, Eugene Narmour, particularmente en su libro
Beyond Schenkerism (1977). En este libro, nos muestra claramente la deficiencia del
método de Schenker al tratar de explicar las estrategias dramáticas y narrativas de las
piezas individuales. En esta misma vena son los escritos de David Neumeyer y de
Richard Littlefield (1992). Los estudios narratológicos de la música, propiamente
dichos, comenzaron en la década de 1980, cuando la narratividad musical comenzaba
a ser explorada como un fenómeno histórico del Romanticismo (véase Newcomb,
1984 y Abate, 1991). Sin embargo, estos autores no aplicaron la riqueza conceptual
que desarrollaron los estudios narratológicos europeos en las otras artes.

Si volvemos al campo de la semiótica musical propiamente dicha, como fuera


desarrollada en Europa por los años 1960, se hace difícil a veces, establecer una
diferencia entre los musicólogos tradicionales y los semiólogos de la música. Un
ejemplo típico fue el sueco Ingmar Bengtsson, quien comenzó su carrera como
historiador de la música y analista de estilos y sólo después se interesó en la semiótica
musical y en la comunicación no-verbal (véase Bengtsson, 1973).

La semiótica musical, como un campo relativamente independiente, tanto de la


semiótica, como de la musicología, comenzó a desarrollarse ya en los años 1950 y

52
1960. Al igual que la semiótica general en aquellos días, la semiótica musical, también,
fue estructuralista en su fuerte adhesión a los modelos lingüísticos. En su Antropología
estructural, Lévi-Strauss (1958) declaró que la lingüística había ocasionado una
"revolución copernicana" en las ciencias humanas, dando a entender que los métodos
rigurosos de la lingüística y la fonética estructural podían ser aplicados también en las
otras disciplinas, y que prometían un nivel de exactitud comparable al de las ciencias
naturales.

La primera aplicación, digna de mención, de la lingüística a la música fueron los


estudios de Nicolas Ruwet acerca de las interrelaciones entre el lenguaje y la música,
y particularmente sus análisis del preludio de Pelleas de Debussy y del Geisslerlieder
medieval (Ruwet, 1972). En su lectura de un mito, como si se tratara de una partitura
musical —una idea que tomó prestada del análisis que hace Lévi-Strauss (1958) del
mito de Edipo y ahora aplicado a la música— Ruwet inventó el método de análisis
paradigmático. Los motivos musicales similares eran colocados en una tabla, uno
debajo del otro, de manera que se pudiera apreciar, a simple vista, cómo estaban
distribuidos por toda la pieza musical. El problema de la selección de las unidades
paradigmáticas fue resaltado desde el comienzo, por lo que los criterios de
segmentación fueron ampliamente discutidos. Jean-Jacques Nattiez adoptó el análisis
distribucional de Ruwet y lo estableció por mucho tiempo como el método analítico
semiótico musical (Nattiez, 1975 y 1990). Ya en su análisis paradigmático de la obra
Syrinx de Debussy, sin embargo, Nattiez señalaba que, después de todo, era
imposible saber de antemano cuáles eran los niveles paradigmáticos pertinentes, ya
que variaban en el transcurso de la pieza, y que antes de comenzar a analizar una
pieza dada, uno debía conocer otros trabajos del compositor a fin de obtener la
competencia estilística que se requería para seleccionar los paradigmas correctos.
Esto presentaba un obstáculo considerable para la validez del método, porque el
objetivo era desarrollar un conjunto de algoritmos completamente "automáticos", de
manera tal que una computadora pudiese realizar el análisis. Además, el método sólo
parecía adecuarse bien a la música monódica. En músicas más complejas, tales como
las fugas de J.S. Bach, en las que la textura no era sólo lineal sino armónica, el
método era más difícil de aplicar. El método paradigmático buscaba derivar una
gramática generativa para los textos musicales. Al enfocarse en los estilos de algunos
trabajos musicales simples y relativamente restringidos, se podían formular reglas
generativas, mediante las cuales una computadora pudiese producir interminables
melodías nuevas, con coherencia estilística, y gramaticalmente bien formadas; en una
situación experimental, éstas últimas no se distinguían de las melodías "auténticas".
Tales aplicaciones fueron realizadas en Alemania por Thomas Stoffer (1979) en
canciones infantiles; en Suecia por Johan Sundberg (1992; Sundberg y Lindblom,
1970); en Italia por Mario Baroni y Franco Jacoboni (1978) así como por Rossana
Dalmonte (1981) en los corales de Bach y en las arias de Legrenzi, y también más
tarde por Lelio Camilleri y sus colegas en el Conservatorio de Florencia; Margo
Ligabue y Francesco Giomi (véase Camilleri, 1992); en Canadá por Ramón Pelinski
(1981) y por Jean-Jacques Nattiez en la música de los Inuits, y en Finlandia por Erkki
Pekkilá (1988) en la música folclórica. El método generativo culminó en el trabajo de
Lerdahl y Jackendoff (1985), en donde sistematizaron las reglas tonales inherentes al
estilo de Mozart.

53
Sin embargo, ni el procedimiento paradigmático de Ruwet ni el de Nattiez, tomaron en
cuenta el hecho de que los significantes musicales tenían también otra cara: la de los
significados. Si se considera que el requisito semiótico mínimo de la música, es que
tenga al menos dos niveles; el de la expresión y el del contenido (Hjelmslev); el
significante y el significado (Saussure); de algo que está en lugar de otra cosa para
alguien (Peirce), entonces, necesariamente, la semiótica musical debe prestar
atención, también, a las significaciones musicales. Nattiez mejoró su modelo
paradigmático al replantear que el mensaje musical o el texto mismo constituían un
"nivel neutral", añadiendo dos niveles más, el de la creación (poiesis) y el de la
recepción (aesthesis), y todos juntos comprendían lo que Jean Molino denominó "el
hecho musical en su totalidad". Además de la producción y de la recepción musical, la
semiótica musical tenía también que clarificar los criterios implícitos usados en el
análisis paradigmático mismo. El propio análisis que hace Nattiez del "acorde de
Tristán" de Wagner y de sus variadas interpretaciones ejemplifica bien esta estrategia
(1990). Nattiez aplicó su modelo tripartito a las interpretaciones de Wagner de
Chéreau y de Boulez (1983), que luego mejoraron considerablemente en sus obras
Musicologie genérale et sémiologie (1987) y Music and Discourse (1990).

En el mismo momento en que la lingüística se introducía en la musicología, a través de


las obras de Ruwet y de Nattiez, estaban apareciendo otras corrientes, no menos
importantes en la semiótica musical, si bien, por razones de barreras lingüísticas,
éstas no fueron tan conspicuas en el contexto internacional. El Primer Congreso
Internacional de Semiótica Musical, que tuvo lugar en Belgrado en 1973 y fue
organizado por Gino Stefani y otros, atrajo la atención de todo un grupo de tales
semiólogos musicales (véase Actes du ler Congrès International de Sémiotique
Musicale 1973). Muchos de ellos tenían el perfil del musicólogo tradicional, para
quienes la semiótica les venía, más o menos, de forma natural. De ahí que, en la
evaluación de las teorías de semiótica musical, se deba tener siempre en cuenta la
cultura musical subyacente, la tradición, la experiencia y la educación. Esto nos ayuda
a entender las fortalezas y las debilidades de la teoría en cuestión. Por ejemplo,
Stefani, el principal semiólogo musical italiano contemporáneo, estuvo influido por su
educación en la música litúrgica católica y por la música del período Barroco. En sus
numerosos trabajos (p. ej.: 1974, 1976, 1977, 1982, 1990), Stefani permanece cerca
de las prácticas musicales cotidianas. Él quiere desarrollar una semiótica musical que
pueda ser utilizada en la educación musical, en la terapia musical, y en la animación
cultural. Su trabajo teórico más consistente, La competenza musicale (1982), se basa
en la distinción entre dos modelos de competencia musical: la popular y la erudita. El
modelo plantea cinco niveles en total: trabajo, estilo, técnicas musicales, prácticas
sociales, y códigos generales, que están presentes en diferentes grados en las
competencias previamente mencionadas. Últimamente, Stefani y Stefania Guerra Lisi
han desarrollado un nuevo enfoque para la aplicación de la semiótica, basado en la
"globalidad de los lenguajes", en el sentido de los universales musicales de origen
prenatal. Los discípulos de Gino Stefani, tales como, Luca Marconi, Marco Beghelli, y
Dario Martinelli, han llegado a ejercer influencia sobre las generaciones más jóvenes
de semiólogos musicales.

Desde una dirección muy diferente viene la semiótica musical de dos estudiosos de
origen checo, Jaroslav Jiranek y Vladimir Karbusicky, ambos de formación

54
estructuralista. Pero mientras que Jiranek se inclinaba más hacia la teoría de la
entonación de Asafiev (y anterior a esto, al modelo marxista), Karbusicky escogió la
teoría sígnica Peirceana como su punto de partida. En 1968 estos estudiosos se
separaron en sus investigaciones. Jiranek permaneció en Praga, y Karbusicky se unió
a la facultad en la Universidad de Hamburgo. La obra de Karbusicky Grundlagen der
musikalischen Semantik (1986), una de las lecturas más fundamentales en ese
campo, está basada en los conceptos peirceanos de ícono, índice, y símbolo. Este
autor considera que la expresión musical es un índice de las emociones, y ha
realizado estudios experimentales del significado musical para probar su hipótesis. La
teoría de Peirce también ha sido aplicada a la música por el canadiense David Lidov
(1980) y el norteamericano Robert S. Hatten (1987), quien también ha desarrollado
una teoría de lo marcado en sus análisis de Beethoven (1994). Wilson Coker (1972),
William Dougherty (1993), Kofi Agawu (1991), David Mosley y Naomi Cummings
también pertenecen a esta línea de investigación. Volviendo a la semiótica musical del
este de Europa, debemos mencionar a los investigadores polacos tales como
Mieczyslaw Tomaszewski, quien ha desarrollado un enfoque semiótico-hermenéutico
muy original en sus estudios de Chopin, a Michael Bristiger por sus investigaciones en
la historia de la música, a Anna Czekanowska en la etnomusicología, y a los
investigadores más jóvenes, Danuta Mirka y Maciej Jablonski.

Una escuela especial de semiótica musical surgió a partir de las teorías del semiólogo
de origen lituano, Algirdas Julien Greimas. Yo mismo he aplicado su semanálisis a los
significados míticos en la música, tratando de mostrar que la interacción entre el mito y
la música, en el sentido de Lévi-Strauss, también ha ocurrido en el contexto de la
música occidental. La música bien puede recibir su sentido de los mitos, y toda una
red de significados míticos pueden ser descritos como tales, incluyendo los siguientes
lemas: la naturaleza-mítica, el héroe-mítico, lo mágico, lo fabuloso, las baladas, lo
legendario, lo sagrado, lo demoníaco, lo fantástico, lo místico, lo exótico, lo primitivista,
lo nacional-musical, lo pastoral, lo gestual, lo sublime y lo trágico. Mis indagaciones
posteriores en la narratología —basadas principalmente en Greimas pero utilizando
también los conceptos tomados de las teorías de Peirce y de Lotman— han tratado,
tanto con la música programática, como con la música absoluta. Mi teoría de semiótica
musical está basada en cuatro fases tomadas del recorrido generativo de Greimas: (1)
isotopías (2) categorías espaciales, temporales, y actoriales y su embrague /
desembrague; (3) modalidades; y (4) semas / femas. Quizás el más importante y
original de estos niveles sea el relativo a las modalidades musicales: "querer", "saber",
"deber", "poder", y "creer". Estas modalidades, que tuvieron su origen en las teorías
lingüísticas y semióticas, también pueden ser definidas en términos puramente
musicales (véase Tarasti, 1992d y 1994a).

Otros investigadores también han aplicado a la música los conceptos greimasianos.


Por ejemplo, Ivanka Stoianova (1978) desarrolló una teoría original combinando el
psicoanálisis, la teoría de la entonación, y la semiótica. Marta Grabocz (1986,
musicóloga húngara y alumna de Joseph Ujfalussy, ha aplicado el concepto de
isotopía a la música de piano de Liszt y a composiciones electrónicas. Especialmente
notable son sus estudios de la música electrónica de Francois-Bernard Mache
(Grabocz, 1991-1992). Además, el método de Greimas aún permanece en su tierra
nativa, Lituania.

55
Daniel Charles es uno de los filósofos de la música más importantes de Francia,
especialista en Heidegger por una parte, y en la filosofía Zen de John Cage, por la
otra. El discípulo de Greimas, el compositor Costin Miereanu, ahora profesor en Paris
I, ha mantenido el enfoque greimassiano en sus escritos teóricos. Más aún, Greimas
ha inspirado a otros jóvenes estudiosos, particularmente a los de Aix-en-Provence,
quienes se han reunido alrededor de Bernard Vecchione (1986 y 1987). Entre otros
investigadores notables de ese lugar tenemos al sociólogo de la música Jean-Marie
Jacono, Christine Esclapez, y a Christian Hauer.

En etnomusicología, las ideas semióticas han sido utilizadas por investigadores tales
como, John Blacking, quien estudió la semántica musical de la música Veda de Sur
África en su obra How Musical is Man? (1976). Charles Boiles clarificó cómo los indios
Tepehua unían los significados con la música (1973). Simha Arom hizo un estudio
sobre la música de los pigmeos (1969). Yoshihiko Tokumaru ha aplicado la semiótica a
la música tradicional de Japón (1980), y Shuhei Hosokawa ha realizado
investigaciones sobre la cultura contemporánea del Japón, como en su análisis del
Walkman (Hosokawa, 1981). También es de notar en Japón las enseñanzas y el
trabajo teórico de Satoru Kambe en Tokio.

Raymond Monelle de Edimburgo, en su obra Linguistics and Semiotics in Music


(1992), ofrece ante la academia británica, una visión panorámica de la semiótica
musical en toda su extensión, si bien ya por el comienzo de los años 1980, casi todas
las más importantes introducciones al análisis musical, publicadas en el mundo
anglosajón, contenían al menos un capítulo sobre la semiótica musical (véase Bent,
1987; Dunsby y Whittall, 1988). El último libro de Monelle, The Sense of Music (2000),
aplica las ideas deconstruccionistas a la música. El pionero de la disciplina en Gran
Bretaña fue David Osmond-Smith, quien desarrolló una teoría acerca de la iconicidad
interna en la música (1975) y aplicó la semiótica al estudio de la música moderna (p.
ej.: Berio).

El proyecto de semiótica musical más extenso en semiótica musical hoy en día es el


que se realiza bajo el título de "Significación Musical". El proyecto incluye cerca de 300
estudiosos provenientes de todo el mundo, y agrupa a los semiólogos musicales de las
más variadas tendencias, tanto a musicólogos tradicionales como a etnomusicólogos,
a teóricos de la computación, a cognitivistas, psicoanalistas, historiadores, y a muchos
otros investigadores de la música. El proyecto fue fundado en París en 1985 por un
grupo de escolares incluyendo a Francois Delalande, Costin Miereanu, Marcello
Castellana, Gino Stefani y Luiz Heitor Correa de Azevedo. Hasta ahora ha realizado
siete congresos internacionales: en 1986 en Imatra; 1988 en Helsinki; 1990 en
Edimburgo; 1993 en Paris; 1995 en Bologna; 1988 en Aix-en-Provence, y en Imatra de
nuevo en 2001. Las ponencias de estos symposia han sido publicadas por diversas
editoriales internacionales y académicas (entre otras, véase Tarasti [ed.] 1995; Stefani,
Marconi, y Tarasti [eds.] 1998; Miereanu y Hascher [eds.] 1998). El proyecto se ha
logrado constituir en la agrupación más grande de semiólogos musicales en el mundo
y ha contribuido a establecer esta nueva disciplina en colegios universitarios y en
universidades alrededor del mundo. El proyecto también incluye un seminario doctoral
y post-doctoral, el cual es organizado anualmente por la Universidad de Helsinki. Estos
seminarios constituyen un entrenamiento para los futuros doctores en semiótica
musical. Las antologías y las ponencias de los seminarios doctorales se publican con

56
regularidad en la serie Acta Semiótica Fennica por el Instituto Internacional de
Semiótica en Imatra, en colaboración con la imprenta universitaria de Indiana [Indiana
University Press].

La semiótica musical también se ha expandido a Latinoamérica. Por ejemplo, José


Luiz Martinez y Luiz Fernando de Lima, ambos doctorados por la Universidad de
Helsinki, están representando a la semiótica musical en Brasil —a los que debemos
agregar el trabajo de Heloísa Araujo de Duarte Valente y Lia Tomas, entre otros. En
México, se han realizado seminarios en la UNAM en la Ciudad de México organizados
por Susana González Aktories, Mario Stern y Rubén López Cano, entre otros.

Para resumir, durante los últimos 30 años la semiótica musical ha llegado a formar
parte de la musicología "normal". Al mismo tiempo, ha logrado liberarse del control de
la semiótica general y se ha centrado en la autonomía y en la originalidad del discurso
musical. Recientemente, los estudios cognitivos han adoptado a la semiótica como a
una de sus ramas especiales, encargada de investigar la contraparte de los procesos
musicales, en los modelos de las redes neuronales en el cerebro humano.

Se observa la tendencia general de abandonar más y más los simples modelos


generadores de reglas para configuraciones lineares, en la búsqueda de nuevos tipos
de esquemas teóricos. Esta tendencia se ha visto fortalecida por los resultados de la
semiótica aplicada a otros campos, tales como el deconstruccionismo, el psicoanálisis,
los estudios feministas, los estudios críticos, y así sucesivamente. En el escenario
norteamericano, la semiótica musical ha sido apropiada por la así llamada "nueva
musicología". Uno puede incluso hablar de la "emancipación de los signos musicales"
(véase Tarasti, 2002: cap. 5), que ha liberado a los estudiosos norteamericanos de sus
modelos anteriores, estrictamente positivistas, y los ha llevado a reflexiones más
interpretativas y hermenéuticas. Sin el basamento teórico construido por los
semiólogos, este vuelco importante no habría sido posible.

Muchos de los investigadores (p. ej.: Imberty, 1976 y 1981) quienes practicaron la
semiótica en el área de la sicología experimental de la música han acabado de forma
natural en las ciencias cognitivas. Sin embargo, a la inversa, podemos considerar que
el enfoque cognitivo no es sino una sub-disciplina de la semiótica. De hecho, no es
sino una invención reciente, si la vemos a la luz de los 2 mil años de historia que tiene
la semiótica en la civilización occidental.

En todo caso, los semiólogos de la música ya no son marginales, ni en la semiótica


general ni en la musicología. De hecho, esta última ha adoptado tácitamente muchos
de los conceptos introducidos por los semiólogos, tales como la distinción entre el
sujeto del enunciado y el de la enunciación (Dalhaus hizo la distinción, pensando
erróneamente que la había tomado de los formalistas rusos).

Con respecto a las vías de publicación de la semiótica musical, la revista Musique en


Jeu, en la que Nattiez publicó sus primeros artículos, debe mencionarse con relación a
la década de 1970. Luego, los semiólogos musicales tuvieron que publicar sus
ensayos bien fuera, en revistas de musicología general, tales como IRASM, Analyse
musicale, Music Theory Spectrum, Indiana Theory Review, Music Analysis, y otras
parecidas, o en revistas de semiótica; respecto a éstas últimas, véase los números
especiales acerca de la semiótica de la música en Semiótica (1976 y 1987), Zeitschrift

57
fur Semiotik (1987), y Degrés (19871988). Eunomio, editada por los musicólogos
italianos Paolo Rosato y Michele Ignelzi, es una revista completamente dedicada al
análisis semiótico de la música. No obstante, el número de disertaciones que se
realizan en muchas partes del mundo, la creciente aparición de nuevos libros sobre el
tema, y la variedad cada vez más amplia de enfoques teóricos a la disposición de los
investigadores que trabajan en este campo de estudios, muestran que la semiótica
musical continúa creciendo, tanto en cantidad como en calidad.

Veamos una serie de imágenes musicales:

58
59
60
Armadura Tonalidad mayor Tonalidad menor
si♭, mi♭, la♭, re♭, sol♭, do♭, fa♭ do bemol mayor la bemol menor
si♭, mi♭, la♭, re♭, sol♭, do♭ sol bemol mayor mi bemol menor
si♭, mi♭, la♭, re♭, sol♭ re bemol mayor si bemol menor
si♭, mi♭, la♭, re♭ la bemol mayor fa menor
si♭, mi♭, la♭ mi bemol mayor do menor
si♭, mi♭ si bemol mayor sol menor
si♭ fa mayor re menor
do mayor la menor
fa♯ sol mayor mi menor
fa♯, do♯ re mayor si menor
fa♯, do♯, sol♯ la mayor fa sostenido menor
fa♯, do♯, sol♯, re♯ mi mayor do sostenido menor
fa♯, do♯, sol♯, re♯, la♯ si mayor sol sostenido menor
fa♯, do♯, sol♯, re♯, la♯, mi♯ fa sostenido mayor re sostenido menor
fa♯, do♯, sol♯, re♯, la♯, mi♯, si♯ do sostenido mayor la sostenido menor

61
62
63
3. Isaac Newton y los siete colores del arcoíris

Isaac Newton llevaba tiempo observando el arcoiris y experimentando con un


pequeño objeto con el que solían jugar los niños: un prisma. Con aquel objeto
fue a la Royal Society. En una habitación oscura en la que entraba un rayo de
luz solar, demostró que la luz blanca se descomponía en siete colores. En 1704
publicó sus conclusiones en Opticks, una obra que terminó con la creencia de que
la luz era incolora. Tras exponer su teoría, quedó asumido que los colores ya existían
en la luz. Posteriormente, se supo que los ojos reaccionan a las ondas
electromagnéticas de la luz, que nos llevan a percibir distintos tonos en función de la
longitud de la onda.
Un siglo después de Opticks, las ideas de Newton sobre el color seguían imperando
en la comunidad científica. Hasta que se alzó la voz más inesperada: la de un famoso
poeta que antes sí estaba de acuerdo con el matemático.
"Como todo el mundo, yo también estaba convencido de que los colores están en la
luz. Nadie me dijo nunca algo distinto, y nunca encontré motivos para dudarlo, porque
no tenía más interés en el tema", escribió Johann Wolfgang von Goethe.
Pero un día cambió de idea, precisamente porque empezó a interesarle el tema como
nunca. Estaba mirando una pared blanca a través de un prisma y siguió siendo blanco.
"Solo sobre un área oscura mostraban algo de color y, al final, en la ventana todos los
colores brillaban… No me llevó mucho tiempo saber que había algo significativo en
relación al color. Dije en voz alta, como por instinto, que las enseñanzas newtonianas
eran falsas".
"Consideramos los colores, en la medida en la que se dice que pertenecen al ojo y que
dependen de una acción y de una reacción del mismo. Después, atrajeron nuestra
atención por cómo se percibían en medios incoloros o a través de ellos. Finalmente,

64
dónde podíamos considerarlos pertenecientes a sustancias particulares", escribió
Goethe.

Teoría de los colores(Zur Farbenlehre), publicado por primera vez en 1808 (el mismo
año que Fausto), constaba de tres partes: una didáctica, una controvertida (contra
Newton) y una histórica. En su libro, Goethe afirmaba que los colores que
observamos dependen de la percepción del ojo y pueden influir en la conducta
humana, así como asociarse con distintos tipos de personalidad.
Además de aportar un precedente de la psicología del color, Goethe abordó aspectos
como las sombras coloreadas, la refracción, el acromatismo y el hipercromatismo.
Aunque su obra iba más allá de la crítica a Newton, esta fue la parte que más
trascendió.
Ya en la introducción, Goethe ninguneaba a Newton por omisión: "El intento de
describir y clasificar el fenómeno de los colores sólo se ha dado dos veces: primero,
de la mano de Teofrasto y, en tiempos modernos, por Boyle", escribió el autor
de Fausto.

Cuando comenzó a aludir a Newton, Goethe aseguró que el principal error del
científico fue "creer más en las matemáticas que en las sensaciones de su ojo".
Si bien no se sentía especialmente orgulloso como poeta, sí encontró un
motivo para justificar su faceta egocéntrica: "Pero de ser yo el único en mi siglo
que conoce la verdad acerca de la teoría de los colores… Eso es de lo que
estoy orgulloso y lo que me da un sentimiento de superioridad sobre muchos".

En base a estas consideraciones, estableció tres tipos de colores: fisiológicos,


físicos y químicos. "Los primeros son fugaces y no se podrán retener. Los
segundos están pasando, pero duran un tiempo. Los últimos pueden llegar a
ser permanentes". Decía Goethe que decidió llamar fisiológicos a los primeros
porque "pertenecen al ojo". Él consideraba este tipo de colores una condición
necesaria para la visión.

Hasta entonces, y en base a la definición de color que había dado Newton, se


creía que la oscuridad era la ausencia de luz (y que no tenía que ver con los
colores). Con Goethe, tanto la oscuridad como la percepción del ojo dejaban de
ser pasivos y cobraban especial relevancia a la hora de dar lugar a los colores.
Si Newton pensaba que estaban en la luz, Goethe expuso que tanto la luz
como la oscuridad y el ojo daban lugar al tono. Además, el poeta y científico
hablaba tanto de una percepción subjetiva y de una influencia del color en la
conducta humana como de una relación directa con las emociones.
Mientras que la mayoría de físicos rechazaron las ideas de Goethe, Thomas
Johann Seebeck y Hermann von Helmhold las secundaron, aunque el primero
las terminó criticando. Filósofos como Schopenhauer y Wittgenste in y artistas
como Turner y Kandinski se mostraron encantados con sus ideas. No obstante,
sabían que lo que había escrito Goethe no llegaba a ser exactamente una
teoría.
Goethe creía que solo existían dos colores puros, el amarillo y el azul, y que
los demás solo eran derivados de estos. El amarillo le parecía una luz
manchada y el azul un principio de oscuridad. "El amarillo es una luz que ha
sido disminuida por la oscuridad; el azul es una oscuridad alzada por la luz ",
escribió. El padre del romanticismo alemán pensaba que vemos amarilla
cualquier luz sutilmente emborronada, mientras que la oscuridad vista a través
de un objeto semitransparente se convierte en azul.

65
Goethe creó lo que denominó "diagrama de la mente humana". Colocó un
triángulo que contenía el rojo, el amarillo y el azul (cuando los colores
primarios todavía no eran magenta, amarillo y cian) y, en base a éste, trazó un
diagrama que incluía la carga emocional que asignó a cada color.
Relacionó el amarillo (el color más próximo a la luz) con la suavidad, la alegría
y la emoción. En el azul encontró un principio de oscuridad que asoció a la paz,
pero sobre todo a una paradoja: le pareció que producía tanto excitación como
reposo. El rojo fue el color de la gravedad, del atractivo, del calor, de la pasión
y la vitalidad. El violeta simbolizaba la madurez, el misticismo, la melancolía y
la magia, así como la dignidad. En el naranja vio las cualidades del amarillo y
del rojo, que unidas daban lugar a la energía, la infancia, en salvajismo, el
entusiasmo y el ardor. Por último, el verde le pareció un liberador y
reconfortante símbolo de juventud y frescor.
Tanto Newton (con el error de los siete colores del arcoíris) como Goethe con
su modelo alejado de la cientificidad, están muy lejos de la realidad de la luz y
su percepción. Veamos:
La visión es un sentido que consiste en la habilidad de detectar la luz y de
interpretarla. La visión es propia de los animales teniendo éstos un sistema dedicado a
ella llamado sistema visual. La primera parte del sistema visual se encarga de formar
la imagen óptica del estímulo visual en la retina (sistema óptico), donde sus células
son las responsables de procesar la información. Las primeras en intervenir son los
fotorreceptores, los cuales capturan la luz que incide sobre ellos. Los hay de dos tipos:
los conos y los bastones. Otras células de la retina se encargan de transformar dicha
luz en impulsos electroquímicos y en transportarlos hasta el nervio óptico. Desde allí,
se proyectan al cerebro. En el cerebro se realiza el proceso de formar los colores y
reconstruir las distancias, movimientos y formas de los objetos observados.

Las células sensoriales de la retina reaccionan de forma distinta a la luz y a su longitud


de onda. Los bastones se activan en la oscuridad, y sólo permiten distinguir el negro,
el blanco y los distintos grises. Los conos sólo se activan cuando los niveles de
iluminación son suficientemente elevados. Los conos captan radiaciones
electromagnéticas, rayos de luz, que más tarde darán lugar a impresiones ópticas. Los
conos son acumuladores de cuantos de luz, que transforman esta información en
impulsos eléctricos del órgano de la vista. Hay tres clases de conos, cada uno de ellos
posee un fotopigmento que sólo detecta unas longitudes de onda concretas,
aproximadamente las longitudes de onda que transformadas en el cerebro se
corresponden a los colores azul, rojo y verde. Los tres grupos de conos mezclados
permiten formar el espectro completo de luz visible.

Esta actividad retiniana ya es cerebral, puesto que los fotorreceptores, aunque


simples, son células neuronales. La información de los conos y bastones es procesada
por otras células situadas inmediatamente a continuación y conectadas detrás de ellos
(horizontales, bipolares, amacrinas y ganglionares). El procesamiento en estas células
es el origen de dos dimensiones o canales de pares antagónicos cromáticos: ROJO /
VIOLETA (los dos extremos espectrales) y de una dimensión acromática o canal de
claroscuro. Dicho de otra manera, estas células se excitan o inhiben ante la mayor
intensidad de la señal del ROJO frente al VERDE, al AZUL y al VIOLETA, siendo la

66
suma del ROJO y el VERDE la generadora del AMARILLO contenedora de un
trayecto acromático de información relativa a la luminosidad.

La información de este procesamiento se traslada, a través del nervio óptico, a los


núcleos geniculados laterales (situados a izquierda y derecha del tálamo), donde la
actividad neuronal se específica respecto a la sugerencia del color y del claroscuro.
Esta información precisa se transfiere al córtex visual por las vías denominadas
radiaciones ópticas. La percepción del color es consecuencia de la actividad de las
neuronas complejas del área de la corteza visual V4/V8, específica para el color. Esta
actividad determina que las cualidades vivenciales de la visión del color puedan ser
referidas mediante los atributos: luminosidad, tono y saturación.

Se denomina visión fotópica a la que tiene lugar con buenas condiciones de


iluminación. Esta visión posibilita la correcta interpretación del color por el cerebro.

Muchos mamíferos de origen africano, como el ser humano, comparten las


características genéticas descritas: por eso se dice que tenemos percepción
tricrómica. Existe también la visión tetracrómica que se produce en algunos seres
humanos especialmente mujeres. Sin embargo, los mamíferos de origen
sudamericano únicamente tienen dos genes para la percepción del color. Existen
pruebas que confirman que la aparición de este tercer gen fue debida a una mutación
que duplicó uno de los dos originales.

En el reino animal los mamíferos no suelen diferenciar bien los colores, las aves en
cambio, sí; aunque suelen tener preferencia por los colores rojizos. Los insectos, por el
contrario, suelen tener una mejor percepción de los azules e incluso ultravioletas. Por
regla general los animales nocturnos ven en blanco y negro. Algunas enfermedades
como el daltonismo o la acromatopsia impiden ver bien los colores.

4. El espectro visible por los humanos

67
El espectro electromagnético está constituido por todos los posibles niveles de energía
de la luz. Hablar de energía es equivalente a hablar de longitud de onda; por ello, el
espectro electromagnético abarca todas las longitudes de onda que la luz puede tener.
De todo el espectro, la porción que el ser humano es capaz de percibir es muy
pequeña en comparación con todas las existentes. Esta región, denominada espectro
visible, comprende longitudes de onda desde los 380 nm hasta los 780 nm (1nm = 1
nanómetro = 0,000001 mm). La luz de cada una de estas longitudes de onda es
percibida en el cerebro humano como un color diferente. Por eso, en la
descomposición de la luz blanca en todas sus longitudes de onda, mediante un prisma
o por la lluvia en el arco iris, el cerebro percibe todos los colores.

Por tanto, del espectro visible, que es la parte del espectro electromagnético de la luz
solar que podemos notar, cada longitud de onda es percibida en el cerebro como un
color diferente.

Newton uso por primera vez la palabra espectro (del latín, "apariencia" o "aparición")
en 1671 al describir sus experimentos en óptica. Newton observó que cuando un
estrecho haz de luz solar incide sobre un prisma de vidrio triangular con un ángulo,
una parte se refleja y otra pasa a través del vidrio y se desintegra en diferentes bandas
de colores. También Newton hizo converger esos mismos rayos de color en una
segunda lente para formar nuevamente luz blanca. Demostró que la luz solar tiene los
siete colores del arco iris.

Cuando llueve y luce el sol, cada gota de lluvia se comporta de igual manera que el
prisma de Newton y de la unión de millones de gotas de agua se forma el fenómeno
del arco iris.

El espectro es continuo y por lo tanto no hay cantidades vacías entre uno y otro color,
se puede establecer la siguiente aproximación:

68
Color Longitud de onda
violeta ~ 380-450 nm
~ 450-495 nm
~ 495-570 nm
~ 570–590 nm
~ 590–620 nm
rojo ~ 620–750 nm

5. Absorción y reflexión del color, percepción de los colores

La luz y la visión son dos de los tres factores que intervienen en la percepción del
color. El tercero se produce gracias a las propiedades físicas y químicas de las
superficies de los objetos. Según su composición, estas superficies absorben y reflejan
parte de la luz blanca que las ilumina. Así, si la superficie opaca absorbe La luz y
refleja todas o parte de sus longitudes de onda, cuando es transparente coloreada o
traslúcida, se produce una transmisión de la luz de diferentes características.

Sí una superficie es transparente, como, por ejemplo, una ventana, los rayos de luz
atraviesan el cuerpo sin sufrir ninguna alteración. Si está coloreada, ciertas longitudes
de onda quedan retenidas, pasando sólo aquellas que coinciden con el color del
cuerpo: al observar el entorno a través de cristales azules todo se ve azulado.

Cuando se trata de una superficie traslúcida, los rayos multiplican sus direcciones
difuminando el color; es el caso de la pantalla de una lámpara o un cristal jaspeado.

69
6. El color de la atmósfera

Cuando observamos un paisaje sabemos que entre nuestros ojos y los objetos que
vemos se encuentra la atmósfera. Si bien es cierto que no vemos de qué color es, sí
apreciamos los cambios cromáticos que se producen en función de la lejanía o de la
proximidad de lo que vemos. Por ejemplo, una casa no se ve igual de cerca que de
lejos, pues los colores se vuelven más azulados cuanto más lejos se encuentran.
Cuando un objeto está situado a contraluz su color se torna grisáceo, y Los primeros
planos que tiene alrededor se vuelven más claros y luminosos.

La luz del día es más azulada y nítida que al atardecer. Su longitud de onda es más
larga; por ello el paisaje se torna tostado y caliente antes de la puesta del sol. Una
fachada de ladrillo visto se ve más roja en estas circunstancias porque las longitudes
de onda son más cortas.

La longitud de onda visible al ojo también se pasa a través de una ventana óptica, la
región del espectro electromagnético que pasa muy atenuada a través de la atmósfera
terrestre (a pesar de que la luz azul es más dispersa que la luz roja, que es la razón
del color del cielo). La respuesta del ojo humano está definida por una prueba
subjetiva, pero las ventanas atmosféricas están definidas por medidas físicas. La
ventana visible se la llama así porque ésta superpone la respuesta humana visible al
espectro; la ventana infrarroja está ligada a la ventana de respuesta humana y la
longitud de onda media infrarroja, la longitud de onda infrarroja lejana están muy lejos
de la región de respuesta humana. Los ojos de muchas especies perciben longitudes
de onda diferentes de las del espectro visible del ojo humano. Por ejemplo, muchos
insectos, tales como las abejas pueden ver la luz ultravioleta que es útil para encontrar
el néctar en las flores. Por esta razón, los éxitos reproductivos de las especies de
plantas cuyos ciclos de vida están vinculados con la polinización de los insectos,

70
dependen de que produzcan emisión ultravioleta, más bien que del colorido aparente a
los ojos humanos.

7. Espectroscopia

Los estudios científicos de objetos basados en el espectro de luz que emiten es


llamado espectroscopia. Una aplicación particularmente importante de éste estudio es
en la astronomía donde los espectroscopios son esenciales para analizar propiedades
de objetos distantes. La espectroscopía astronómica utiliza difracción de alta
dispersión para observar espectros a muy altas resoluciones espectrales. El helio fue
lo primero que se detectó en el análisis del espectro del sol; los elementos químicos
pueden ser detectados en objetos astronómicos por las líneas espectrales y las líneas
de absorción; la medida de líneas espectrales puede ser usada como medidas de
corrimiento al rojo o corrimiento al violeta de objetos distantes que se mueven a altas
velocidades. El primer exoplaneta en ser descubierto fue el encontrado por el análisis
de efecto Doppler de estrellas a las que su alta resolución que variaba su velocidad
radial tan pequeñas como unos pocos metros por segundo podrían ser detectadas: la
presencia de planetas fue revelada por su influencia gravitacional en las estrellas
analizadas.

Espectro de color generado en un dispositivo de visualización.

Los dispositivos de visualización en color (como la televisión o la pantalla de


ordenador) mezclan los colores rojo, verde y azul para generar el espectro de color. En
la ilustración, las barras estrechas inferiores de rojo, azul y verde muestran las
mezclas relativas de estos tres colores usados para producir el color que se enseña
arriba. Sin embargo el modelo RGB (rojo, verde, azul) tiene el defecto de no contener
al último color espectral, el violeta. El modelo RGBV (rojo, verde, azul, violeta) que
presenta el Doctor Sergio Aschero agrega al violeta como límite del espectro de la luz
que se inicia en la menor frecuencia de la luz roja y finaliza en la mayor frecuencia de
la luz violeta.

8. Modelos de color

Goethe

En su teoría del color, Goethe propuso un círculo de color simétrico, el cual comprende
el de Newton y los espectros complementarios. En contraste, el círculo de color de
Newton, con siete ángulos de color desiguales y subtendidos, no exponía la simetría y
la complementariedad que Goethe consideró como característica esencial del color.
Para Newton, sólo los colores espectrales pueden considerarse como fundamentales.
El enfoque más empírico de Goethe le permitió admitir el papel esencial del magenta
(no espectral) en un círculo de color. Impresión que produce en el ojo la luz emitida por
los focos luminosos o difundidos por los cuerpos.

71
Rueda de color de Goethe, tomada de su libro Teoría de los Colores de 1810

Ostwald

La Teoría del color que propone Wilhelm Ostwald consta de cuatro sensaciones
cromáticas elementales (amarillo, rojo, azul y verde) y dos sensaciones acromáticas
con sus variaciones intermedias.

Síntesis aditiva de color, propuesta por Ostwald

Modelo RYB

Círculo cromático RYB

En el modelo de color RYB, el rojo, el amarillo y el azul son los colores primarios, y en
teoría, el resto de colores puros (color materia) pueden ser creados mezclando pintura
roja, amarilla y azul. Mucha gente aprende algo sobre color en los estudios de
educación primaria, mezclando pintura o lápices de colores con estos colores
primarios.

El modelo RYB es utilizado en general en conceptos de arte y pintura tradicionales, y


en raras ocasiones usado en exteriores en la mezcla de pigmentos de pintura. Aun
siendo usado como guía para la mezcla de pigmentos, el modelo RYB no representa
con precisión los colores que deberían resultar de mezclar los 3 colores RYB
primarios. En el 2004, se reconoció mediante la ciencia que este modelo es incorrecto,
pero continúa siendo utilizado habitualmente en arte.

72
Modelo RGB

La mezcla de colores luz, normalmente rojo, verde y azul (RGB), se realiza utilizando
el sistema de color aditivo, también referido como el modelo RGB o el espacio de color
RGB. Todos los colores posibles que pueden ser creados por la mezcla de estas tres
luces de color son aludidos como el espectro de color de estas luces en concreto.
Cuando ningún color luz está presente, uno percibe el negro. Los colores luz tienen
aplicación en los monitores de un ordenador, televisores, proyectores de vídeo y todos
aquellos sistemas que utilizan combinaciones de materiales que fosforecen en el rojo,
verde y azul.

Modelo CMY

Círculo cromático CMY

Para impresión, los colores usados son cian, magenta y amarillo; este sistema es
denominado modelo CMY. En el modelo CMY, el negro es creado por mezcla de todos
los colores, y el blanco es la ausencia de cualquier color (asumiendo que el papel sea
blanco). Como la mezcla de los colores es substractiva, también es llamado modelo de
color sustractivo. Una mezcla de cian, magenta y amarillo en realidad resulta en un
color negro turbio por lo que normalmente se utiliza tinta negra de verdad. Cuando el
negro es añadido, este modelo de color es denominado modelo CMYK.
Recientemente, se ha demostrado que el modelo de color CMY es también más
preciso para las mezclas de pigmento.

Se debe tener en cuenta que sólo con unos colores "primarios" ficticios se puede llegar
a conseguir todos los colores posibles. Estos primarios son conceptos arbitrarios
utilizados en modelos de color matemáticos que no representan las sensaciones de
color reales o incluso los impulsos nerviosos reales o procesos cerebrales. En otras
palabras, todos los colores "primarios" perfectos son completamente imaginarios, lo
que implica que todos los colores primarios que se utilizan en las mezclas son
incompletos o imperfectos.

Modelo RGBV (Aschero)

73
Recordemos que la luz es una onda electromagnética que no requiere medio material
para su propagación (la luz del Sol llega a la Tierra después de recorrer una gran
distancia en el vacío). La luz consiste en una forma de energía, emitida por los
cuerpos y que nos permite percibirlos mediante la vista. La velocidad de propagación
de la luz depende del medio. En el vacío (o en el aire) es de 300.000 km/s; en
cualquier otro medio su valor es menor. La dispersión de la luz consiste en la
separación de la luz en sus colores componentes por efecto de la refracción.
Los colores son la forma en que nuestro cerebro interpreta las luces de las distintas
frecuencias y el sonido es la interpretación que hace el cerebro de las vibraciones del
aire.
El color luz es producido por las radiaciones luminosas. La mezcla de dos colores luz
proporciona un color más luminoso, por lo que se le denomina mezcla aditiva.
Los tres colores primarios luz son: rojo, verde y violeta.
Combinando dos a dos de los colores primarios surgen de los secundarios.

Rojo + Verde: Amarillo


Violeta + Verde: Azul
Rojo + Violeta: Magenta

El modelo RGBV se completa con el Azul para tener todas las combinaciones del RGB
y el límite óptico que se corresponde con la luz Violeta.
Dos luces coloreadas se llaman complementarias cuando, mezcladas en una cierta
proporción, igualan la luz blanca. Son siempre una luz primaria y una secundaria:

Rojo + Verde: Luz blanca


Violeta + Verde: Luz blanca
Rojo + Violeta: Luz blanca

Los cuatro pigmentos en los conos de un ave extienden la visión de colores hasta el
ultravioleta.

9. El círculo cromático

74
Tradicionalmente los colores se han representado en una rueda de 12 colores: tres
colores primarios, tres colores secundarios (creados por la mezcla de dos primarios), y
seis colores terciarios (la mezcla de los colores primarios y los secundarios). Los
artistas utilizan un círculo cromático basado en el modelo RYB (rojo, amarillo y azul)
con los colores secundarios naranja, verde y violeta. Para todos los colores basados
en un ordenador, se utiliza la rueda RGB; ésta engloba el modelo CMY ya que el cian,
el magenta y el amarillo son colores secundarios del rojo, verde y azul (a su vez, éstos
son los colores secundarios en el modelo CMY). En la rueda RGB/CMY, el naranja es
un color terciario entre el rojo y el amarillo, y el violeta es otro terciario entre el
magenta y el azul.

Armonías de color

Los colores armónicos son aquellos que funcionan bien juntos, es decir, que producen
un esquema de color atractivo a la vista. El círculo cromático es una valiosa
herramienta para determinar armonías de color. Los colores complementarios son
aquellos que se contraponen en dicho círculo y que producen un fuerte contraste. Así,
por ejemplo, en el modelo RYB, el verde es complementario del rojo, y en el modelo
CMY, el verde es el complementario del magenta

Espacios de colores

Un espacio de color define un modelo de composición del color. Por lo general un


espacio de color lo define una base de N vectores (por ejemplo, el espacio RGB lo
forman 3 vectores: Rojo, Verde y Azul), cuya combinación lineal genera todo el
espacio de color. Los espacios de color más generales intentan englobar la mayor
cantidad posible de los colores visibles por el ojo humano, aunque existen espacios de
color que intentan aislar tan solo un subconjunto de ellos.

El espacio RGBV está conformado con cuatro vectores.

Existen espacios de color de:

Una dimensión: escala de grises, escala Jet, etc.

Dos dimensiones: sub-espacio rg, sub-espacio xy, etc.

Tres dimensiones: espacio RGB, HSV, YCbCr, YUV, YI'Q', etc.

Cuatro dimensiones: espacio CMYK y espacio RGBV.

De los cuales, los espacios de color de tres dimensiones son los más extendidos y los
más utilizados. Entonces, un color se especifica usando tres coordenadas, o atributos,
que representan su posición dentro de un espacio de color específico. Estas
coordenadas no nos dicen cuál es el color, sino que muestran dónde se encuentra un
color dentro de un espacio de color en particular.

Espacio RGB

75
Cubo de color RGB

RGB es conocido como un espacio de color aditivo (colores primarios) porque cuando
la luz de dos diferentes frecuencias viaja junta, desde el punto de vista del observador,
estos colores son sumados para crear nuevos tipos de colores. Los colores rojo, verde
y azul fueron escogidos porque cada uno corresponde aproximadamente con uno de
los tres tipos de conos sensitivos al color en el ojo humano (65% sensibles al rojo,
33% sensibles al verde y 2% sensibles al azul - violeta para el RGBV). Con la
combinación apropiada de rojo, verde y azul se pueden reproducir muchos de los
colores que pueden percibir los humanos. Por ejemplo, rojo puro y verde claro
producen amarillo, rojo y azul producen magenta, verde y azul combinados crean cian
y los tres juntos mezclados a máxima intensidad, crean el blanco.

Existe también el espacio derivado RGBA, que añade el canal alpha (de
transparencia) al espacio RGB original.

Espacio CMY

Representación de los colores CMYK

CMY trabaja mediante la absorción de la luz (colores secundarios).

Los colores que se ven son la parte de luz que no es absorbida. En CMY, magenta
más amarillo producen rojo, magenta más cian producen azul, cian más amarillo
generan verde y la combinación de cian, magenta y amarillo forman negro. El negro
generado por la mezcla de colores primarios sustractivos no es tan denso como el
color negro puro (uno que absorbe todo el espectro visible). Es por esto que al CMY
original se ha añadido un canal clave (key), que normalmente es el canal negro
(black), para formar el espacio CMYK o CMYB. Actualmente las impresoras de cuatro
colores utilizan un cartucho negro además de los colores primarios de este espacio, lo
cual genera un mejor contraste. Sin embargo el color que una persona ve en una
pantalla de computador difiere del mismo color en una impresora, debido a que los
modelos RGB y CMY son distintos. El color en RGB está hecho por la reflexión o
emisión de luz, mientras que el CMY, mediante la absorción de ésta.

Espacio YIQ

76
Fue una recodificación realizada para la televisión americana (NTSC), que tenía que
ser compatible con la televisión en blanco y negro, que solamente requiere del
componente de iluminación. Los nombres de los componentes de este modelo son Y
por luminancia (luminance), I fase (in-phase) y Q cuadratura (quadrature). Estas
últimas generan la cromaticidad del color. Los parámetros I y Q son nombrados en
relación al método de modulación utilizada para codificar la señal portadora. Los
valores de RGB, son sumados para producir una única señal Y’ que representa la
iluminación o brillo general de un punto en particular. La señal I luego es creada al
restar el Y' de la señal azul de los valores RGB originales y luego el Q se realiza
restando la señal Y' del rojo.

Espacio HSV

Ejes HSV

Es un espacio cilíndrico, pero normalmente asociado a un cono o cono hexagonal,


debido a que es un subconjunto visible del espacio original con valores válidos de
RGB.

10. Espectro visible

Tonalidad (Hue): Se refiere a la frecuencia dominante del color dentro del espectro
visible. Es la percepción de un tipo de color, normalmente la que uno distingue en un
arcoíris, es decir, es la sensación humana de acuerdo a la cual un área parece similar
a otra o cuando existe un tipo de longitud de onda dominante. Incrementa su valor
mientras nos movemos de forma antihoraria en el cono, con el rojo en el ángulo 0.

Saturación (Saturation): Se refiere a la cantidad del color o a la "pureza" de éste. Va


de un color "claro" a un color más vivo (azul cielo – azul oscuro). También se puede
considerar como la mezcla de un color con blanco o gris.

Valor (Value): Es la intensidad de luz de un color. Dicho de otra manera, es la cantidad


de blanco o de negro que posee un color.

77
Comparación entre los modelos de color en un monitor de ordenador (RGB) y su
reproducción en (CMYK) en el proceso de impresión.

Comparación entre los modelos tridimensionales de


síntesis del color según sus propiedades.

11. Percepción del color

En la retina del ojo existen millones de células especializadas en detectar las


longitudes de onda procedentes de nuestro entorno. Estas células fotorreceptoras,
conos y los bastoncillos, recogen parte del espectro de la luz y, gracias al efecto
fotoeléctrico, lo transforman en impulsos eléctricos, que son enviados al cerebro a
través de los nervios ópticos, para crear la sensación del color.

Existen grupos de conos especializados en detectar y procesar un color determinado,


siendo diferente el total de ellos dedicados a un color y a otro. Por ejemplo, existen
más células especializadas en trabajar con las longitudes de onda correspondientes al
rojo que a ningún otro color, por lo que cuando el entorno en que nos encontramos nos
envía demasiado rojo se produce una saturación de información en el cerebro de este
color, originando una sensación de irritación en las personas.

Cuando el sistema de conos y bastoncillos de una persona no es el correcto se


pueden producir una serie de irregularidades en la apreciación del color, al igual que
cuando las partes del cerebro encargadas de procesar estos datos están dañadas.
Esta es la explicación de fenómenos como el daltonismo. Una persona daltónica no

78
aprecia las gamas de colores en su justa medida, confundiendo los rojos con los
verdes.

Debido a que el proceso de identificación de colores depende del cerebro y del


sistema ocular de cada persona en concreto, podemos medir con toda exactitud el
espectro de un color determinado, pero el concepto del color producido es totalmente
subjetivo, dependiendo de la persona en sí. Dos personas diferentes pueden
interpretar un color dado de forma diferente, y puede haber tantas interpretaciones de
un color como personas hay.

El mecanismo de mezcla y producción de colores producidos por la reflexión de la luz


sobre un cuerpo no es el mismo al de la obtención de colores por mezcla directa de
rayos de luz.

La luz solar de muy bajas frecuencias (infrarrojo) y muy altas frecuencias (ultravioleta)
es invisible para el ojo humano.

79
Si observamos una objeto azul, se puede decir que este absorbe todas las longitudes
de onda de la luz blanca o luz del sol, excepto la longitud de onda que corresponde al
color azul, que es reflejada y "capturada" por la retina.

La mayoría de las personas ve los objetos en colores. Esto involucra una serie de
conceptos bastante complejos. El ojo tiene la capacidad de absorber determinadas
longitudes de onda y rechazar algunas que el hombre no está capacitado
biológicamente para recibirlas. La longitud de onda reflejada por la superficie de un
objeto es captada por la retina e interpretada por el sistema nervioso central como un
color determinado.

Un objeto que tenga la capacidad de absorber todas las longitudes de onda que
registra normalmente la retina, sería absolutamente negro, tanto que no podríamos
verlo. Si refleja o transmite sólo algunas de las longitudes de onda de la luz, veremos
que tiene un color producto de la composición de los colores correspondientes a
dichas longitudes de onda. Por lo tanto, el color de un cuerpo, es producto de la
capacidad de absorción individual del material del cual está hecho.

Como ya dijimos, el estímulo de luz que viene del mundo exterior es recibido por el
sistema visual en la retina de nuestros ojos. En la retina existen minúsculas células
visuales, llamadas fotorreceptoras o receptoras de luz, especializadas en detectar las
longitudes de onda procedentes de nuestro entorno (15.000 por milímetro cuadrado).

Estas maravillosas células, recogen las diferentes partes del espectro de luz solar y las
transforman en impulsos eléctricos, que son enviados al cerebro a través de los
nervios ópticos, siendo éstos los encargados de crear la sensación de color. En la
retina humana, existen dos categorías principales de células fotorreceptoras,
encargadas de captar la luz, estas son: los bastones y los conos.

80
Bastones

De noche o en condiciones de escasa luz, todos los objetos parecieran ser oscuros o
negros, ya que cuando la intensidad de la luz es más bien baja, es más difícil para el
ojo humano, discriminar los colores. Esta visión de la noche y la oscuridad o visión
escotópica, está a cargo de los bastones. Éstos son tan sensibles que pierden la
capacidad de emitir señales con la plena luz de día.

No son sensibles al color, pero son mucho más sensibles que los conos a la intensidad
luminosa, por lo que aportan a la visión del color aspectos como la saturación y el
matiz. Por su parte, Kueppers además plantea que la misión de los bastoncillos es
ajustar los procesos de corrección como adaptación y contraste simultáneo.

Conos

Los conos son los responsables de la luz diurna o en colores: la visión fotópica. Tienen
una respuesta cuatro veces más rápida que los bastones, cuando son estimulados por

81
la luz, lo cual los hace aptos para detectar cambios de movimiento veloces en los
objetos. Confieren a la visión una mayor riqueza en detalles espaciales y temporales.
La característica principal de los conos es su capacidad de captar el color.

Pero no todos los colores pueden ser captados por todos los diferentes conos; la
diversidad de colores, los matices dependen, en realidad, de la combinación de tres
colores. Es decir, la percepción completa de todos los colores, se debe a la capacidad
de los conos de captar tres regiones del espectro luminoso.

Y esto se da, básicamente porque según la teoría de Young-Helmholtz, existen tres


tipos de conos: los que responden a las longitudes de onda cercanas al color rojo,
otros a las cercanas al verde y un tercero a las longitudes de onda próximas al azul.
Según la longitud de onda que incida sobre la retina, se activan los conos en diferente
grado.

Si la luz es roja, los que se activarán serán el 100% de los conos que reaccionan ante
el rojo. En cambio si la luz es azul, se activarán el 100% de los conos que reaccionan
ante el azul. Esta combinación será interpretada en el sistema nervioso como "el color
azul". Por lo tanto, los colores intermedios, con excepción de rojo, verde y azul, se
perciben gracias al estímulo simultáneo de dos o más tipos de conos.

La ceguera al color (daltonismo) es resultado de la falta de uno o más de los tres tipos
de conos.

Existe un umbral de excitación para el color, en el cual si se aumenta de manera


progresiva la luminosidad de un espectro de baja intensidad que aparece incoloro al
ojo, llega un punto en donde los colores se empiezan a reconocer, apareciendo
primero el amarillo, luego el verde, después el azul, y por último el rojo y el violeta.

Los dos últimos son los que marcan la zona de visibilidad de los colores, ya que
cuando la luminosidad del espectro se encuentra más arriba del rojo, se produce el

82
infrarrojo, que no podemos ver debido probablemente a que los pigmentos de la retina
son incapaces de absorber las radiaciones de la porción infrarroja del espectro, y es
por ello que no puede producirse la visión de ese color.

Debido a que el proceso de identificación de colores depende del cerebro y del


sistema ocular de cada persona en concreto, podemos medir con toda exactitud la
longitud de onda de un color determinado, pero el concepto del color producido por
ella es totalmente relativo, dependiendo de la persona en sí. Dos personas diferentes
pueden interpretar un color dado de forma diferente, y puede haber tantas
interpretaciones de un color, como personas hay.

83
Círculo cromático natural o aditivo (RGB). Círculo cromático tradicional (RYB).

Los siguientes son los principales colores del círculo cromático y sus derivados
oscuros (hacia el negro), agrisados (semisaturados o hacia el gris) y claros (hacia el
blanco):

84
12. Colores neutros o acromáticos

Son aquellos que no poseen colorido, es decir, que su saturación es igual a 0. En


conjunto conforman la escala de grises, la cual va desde el blanco hasta el negro.
Poseen un equilibrio o igualdad entre los colores primarios que lo componen. Entre los
principales tenemos:

Escala de claridad para un color neutro

0 10 % 20 % 30 % 40 % 50 % 60 % 70 % 80 % 90 % 100 %

Conos

13. Colores en la naturaleza

85
Rojo de la anémona

Naranja de la naranja

Amarillo del girasol

Lima de las limas

Verde de un loro

86
Esmeralda de la esmeralda

Cian del cielo

Cobalto de las gitanillas

Azul del mar

Violeta de las violetas

87
88
14. Visión

5 FÓVEA

14
ENTRE 1 Y 2 HUMOR ACUOSO
5 4 CANAL
1 1 CRISTALINO
7 4 HIALOIDE
2
7 NERVIO
3
2 CÓRNEA
ÓPTICO
6 3 ARTERIAS Y VENAS
DE LA RETINA

6 RETINA
8
8 MÚSCULO OBLÍCUO SUPERIOR
9 12 CONDUCTO LACRIMAL

11 PUPILA
10
9 MÚSCULO RECTO LATERAL

16 HUESO FRONTAL 13 IRIS 15 ESCLEROIDES 10 MÚSCULO RECTO INFERIOR

1.- El cristalino se encuentra justo al lado de la pupila y está protegido por el líquido
acuoso que existe entre él y la córnea. El cristalino se mantiene en su lugar gracias
a un ligamento que está unido a un músculo ciliar que se encuentra en la parte
frontal del ojo. El cristalino refracta la luz para enfocar nítidamente una imagen en la
retina. En una persona sana, los músculos de este elemento tan elástico pueden
cambiar de tamaño para enfocar objetos que se encuentran a diferente distancia.
Cuando se mira un objeto distante, el músculo ciliar se relaja y el cristalino tiene una
forma algo curvada. Para enfocar un objeto cercano, el músculo ciliar debe
contraerse, dando una forma más curva al cristalino. Sin embargo, si el globo del ojo
presenta una forma por la cual la retina está demasiado cerca (hipermetropía) o
demasiado lejos (miopía) del cristalino, los objetos no estarán enfocados. Esto
puede corregirse muy a menudo con gafas o lentes de contacto. El astigmatismo se
debe a una forma irregular de la córnea o del cristalino. Los recién nacidos suelen
ser hipermétropes y no pueden enfocar objetos cercanos durante los primeros
meses. Los niños pequeños suelen tener una vista normal, aunque pueden
producirse algunos cambios con los años. Algunas personas de edad avanzada
tienen problemas para enfocar tanto objetos cercanos como lejanos, ya que sus
cristalinos han perdido su elasticidad natural. Este problema puede solucionarse con
lentes bifocales.
2.- La córnea es un abultamiento en la parte anterior del ojo. Es transparente y está
cubierta por la conjuntiva, una fina membrana protectora. Permite el paso de los

89
rayos lumínicos dentro del ojo y los refleja o los refracta. El iris está situado justo
detrás de la córnea.
3.- Las arterias y las venas de la retina aseguran un constante flujo sanguíneo a los
ojos. Discurren paralelas al nervio óptico hasta llegar al centro del cuerpo vítreo.
4.- El canal hialoide, también conocido como conducto de Stilling, es un fino canal de
líquido cubierto por una membrana que se extiende desde el centro del cuerpo vítreo
partiendo del nervio óptico hasta el cristalino.
5.- La fóvea es el punto focal de la retina. Solamente contiene conos que permiten
una vista precisa cuando hay mucha iluminación. La fóvea tiene un campo de visión
reducido, por lo que el globo del ojo se mueve constantemente para mantener la
imagen dentro. La fóvea es el área de visión más aguda y nítida.
6.- La retina es una finísima capa que protege la parte posterior del globo del ojo.
En ellas se encuentran células receptoras especiales, denominadas conos y
bastones, que detectan la luz. Las células nerviosas de la retina transforman la
energía de la luz en mensajes eléctricos que se transmiten al encéfalo gracias al
nervio óptico.
7.- El nervio óptico transmite los impulsos nerviosos de los conos y bastones de la
retina al encéfalo. Esta zona de la retina, donde el nervio óptico abandona el ojo, se
llama punto ciego. Al no presentar células visuales es insensible a la luz.
8.- El movimiento del globo del ojo se controla gracias a pequeños músculos. El
oblicuo superior es un músculo fusiforme que ayuda a mover el ojo lateralmente y a
rotarlo ligeramente. El oblicuo superior trabaja con los otros músculos para mover el
ojo. Estos músculos están unidos al escleroides cerca de la córnea. El encéfalo
envía mensajes de estos músculos, moviendo los dos ojos en la misma dirección y al
mismo tiempo. Cuando no hay coordinación entre los músculos, la persona está
bizca o tiene leucoma corneal (exotropía).
9.- El movimiento del globo del ojo se controla gracias a pequeños músculos. El
músculo recto lateral empuja el ojo hacia fuera. Trabaja junto con los otros músculos
del ojo para poder moverlo. Todos ellos están unidos al escleroides cerca de la
córnea. El encéfalo envía mensajes a estos músculos para que muevan los dos ojos
en la misma dirección y al mismo tiempo. Cuando no hay una coordinación entre los
músculos, la persona está bizca o tiene leucoma corneal (exotropía).
10.- El movimiento del globo del ojo se controla gracias a pequeños músculos. El
músculo recto inferior empuja el ojo hacia abajo y medialmente. Trabaja junto con
los otros músculos del ojo para poder moverlo. Todos ellos están unidos al
escleroides cerca de la córnea. El encéfalo envía mensajes a estos músculos para
que muevan los dos ojos en la misma dirección y al mismo tiempo. Cuando no hay
una coordinación entre los músculos, la persona está bizca o tiene leucoma corneal
(exotropía).
11.- La pupila se encuentra situada en el centro del iris y es de color negro.
Alrededor de la pupila hay un esfínter que se contrae según la cantidad de luz que
haya. Si el ojo está expuesto a una luz fuerte, el ojo se contrae para proteger las
células nerviosas que hay en el fondo del ojo. Si hay poca luz, la pupila se agranda
para dejar pasar la mayor cantidad de luz posible.

90
12.- El conducto lacrimal es uno de los dos canales que segrega el líquido lacrimal
estéril, que continuamente empapa la parte frontal del ojo y la conjuntiva, que es su
fina membrana protectora. Aunque el flujo de líquido lacrimal es continuo, solo se
produce alrededor de 1/2 a 2/3 de gramo al día. El conducto lacrimal se encuentra
en el borde interno del párpado inferior.
13.- El iris es ese anillo de color que está situado justo detrás de la córnea y que
rodea la pupila. Esta membrana coloreada le da a los ojos su color característico.
Está compuesto por un esfínter en forma de anillo y por músculos dilatadores, los
cuales controlan el tamaño de la pupila. El color de los ojos se debe a depósitos de
pigmento (que varían desde el amarillo al marrón rojizo). Los ojos son azules
cuando los pigmentos están ausentes y permiten ver la superficie violácea de la
parte posterior del iris. A veces hay un pigmento blanco que hace que el iris sea de
color gris. Los recién nacidos frecuentemente tienen los ojos azules, ya que todavía
no tienen pigmento en el iris.
14.- Entre el cristalino y la retina se encuentra un gran compartimento que contiene
un líquido viscoso (una sustancia clara parecida al gel) que forma la mayor parte del
globo del ojo. Esta área se conoce como humor o cuerpo vítreo. El humor vítreo
mantiene la retina en su posición y conserva la forma esférica del globo ocular.
15.- La esclerótica es la parte blanca del ojo. Está compuesta de un resistente tejido
fibroso de color blanco que recubre el globo del ojo. El escleroides contiene finos
vasos sanguíneos. Cuando el ojo está irritado a causa del polvo o de alguna otra
dolencia, los vasos sanguíneos se alargan y el "blanco" del ojo aparece de color rosa
o inyectado en sangre.
16.- El hueso frontal es uno de los huesos del cráneo. Su forma es aplanada y
forma la parte frontal y el techo de las órbitas (cuencas del ojo). El hueso frontal
también forma la parte superior de la cavidad nasal, así como el piso del cráneo,
donde se encuentra el encéfalo. Dentro del hueso frontal existen dos cavidades,
denominadas senos frontales, situadas al lado de los puntos encima de cada órbita.
El hueso frontal está conectado a los huesos parietales mediante la sutura coronaria
y gracias a otras suturas a los huesos esfenoides, etmoides, maxilar, nasal, lacrimal
y malar (cigomaticofacial). En el centro de la parte delantera del hueso frontal, justo
en la parte superior central de las órbitas, se encuentra una parte elevada del hueso
denominada glabela. El hueso frontal también presenta dos agujeros (o cortes).
Cada uno de ellos se encuentra justo encima de cada órbita (por lo que se les
denomina agujeros supra orbitarios).
(Sin numeración entre 1 y 2. HUMOR ACUOSO). Entre la córnea y el iris se
encuentra un pequeño compartimento formado por un líquido claro denominado
humor acuoso. Este líquido protege el cristalino y nutre la córnea. El líquido se
sustituye cada cuatro horas, pero puede tener ocasionalmente impurezas, lo que
produce sombras en la retina y crea "puntos delante de los ojos". Generalmente, el
humor acuoso se segrega al lado del iris rodeado de la pupila y se filtra al exterior
entre el iris y la córnea. Sin embargo, si el líquido se segrega más rápidamente de lo
que puede ser reabsorbido por las venas, la presión aumentará y se desarrollará un
glaucoma.

91
15. La luz y los materiales transparentes

La luz es energía transportada por una onda electromagnética generada por cargas
eléctricas que vibran. Cuando la luz incide en la materia obliga a los electrones de la
misma a vibrar. Así pues las emisiones de un emisor se transfieren al receptor.
La respuesta exacta de un material receptor a una onda de luz que incide en él
depende de la frecuencia de la luz y de la frecuencia natural de los electrones del
material. La luz vibra con gran rapidez, en el orden de 1014 Hz.
Para que un objeto con carga responda a estas vibraciones ultrarrápidas debe tener
muy poca inercia. La masa de los electrones es lo bastante pequeña para que pueda
vibrar con esta rapidez.
El vidrio y el agua son dos materiales que permiten el paso de la luz en línea recta.
Decimos que son transparentes a la luz. Para entender como atraviesa la luz un
material transparente como el vidrio, visualiza los electrones de un átomo conectados
por resortes imaginarios.
Cuando una onda de luz incide en ellos comienzan a vibrar.
Todo material elástico responde más a ciertas frecuencias de vibración que a otras.
Las frecuencias naturales de vibración de un electrón dependen de la firmeza con la
que está unido al núcleo más cercano. Los distintos materiales tienen diferentes
"fuerzas de resorte" eléctrico.
Los electrones del vidrio tienen una frecuencia natural de vibración que corresponde a
la región ultravioleta.
El átomo puede trasmitir la energía que recibe a los átomos vecinos por colisión, o
bien remitirla en forma de luz. Si la luz ultravioleta interactúa con un átomo cuya
frecuencia natural coincide con la de la onda, la amplitud de vibración de los
electrones se hace muy grande. Típicamente, el átomo retiene esta energía durante un
tiempo bastante largo (100 millonésimas de segundo).
Durante este tiempo el átomo experimenta muchas colisiones con otros átomos y cede
su energía en forma de calor. Es por esto que el vidrio no es transparente a la luz
ultravioleta.
Pero cuando la frecuencia de la luz electromagnética es menor que la de la luz
ultravioleta, como es el caso de la luz visible, los electrones se ven forzados a vibrar
con amplitudes más pequeñas.
El átomo retiene la energía por menos tiempo, con menor probabilidad de chocar con
los átomos vecinos, y se transfiere menos energía en forma de calor. La energía de los
electrones que vibran se reemite como luz transmitida. El vidrio es transparente a
todas las frecuencias de la luz visible.
La diferencia principal es un leve retardo entre la absorción y la reemisión.
Este retardo tiene como consecuencia que la velocidad promedio de la luz en un
material transparente es menor que en el vacío. En el vacío la velocidad es constante
de c= 3,0 x 108 m/s, en el agua la velocidad es de 0,75c, en el vidrio es de 0,67c
(dependiendo del tipo de vidrio) y en el diamante es de 0,40c.
Cuando la luz emerge de estos materiales y pasa de nuevo al aire se propaga con la
velocidad original, c.
Las ondas infrarrojas, cuya frecuencia es menor que la de la luz visible, hacen vibrar
no sólo los electrones, sino además toda la estructura del vidrio. Esta vibración de la
estructura incrementa la energía interna del vidrio y lo calienta.

92
En resumen, el vidrio es transparente a la luz visible, pero no a la luz ultravioleta, ni a
la infrarroja.

16. La luz y los materiales opacos

La mayor parte de los materiales absorbe luz sin remitirla, con lo que impide su paso;
decimos que son opacos. La madera, las piedras y las personas son opacas a la luz
visible. En un material opaco todas las vibraciones coordinadas que imparte la luz a
los átomos y moléculas se convierten en energía cinética aleatoria, esto es, en energía
interna. El material se calienta ligeramente.
También los metales son opacos. Un hecho interesante es que en los metales los
electrones de los átomos no están unidos a un átomo en particular, sino que pueden
vagar libremente con muy pocas restricciones por todo el material. Es por esto que los
metales conducen tan bien la electricidad y el calor. Cuando la luz incide en un objeto
de metal y pone a vibrar estos electrones libres, su energía no "rebota" de un átomo a
otro en el material, sino que se remite como luz visible. Percibimos esta luz como un
reflejo.

17. Sombra

Llamamos rayo a un haz de luz delgado. Todo haz luminoso, no importa cuán ancho
sea, se puede considerar construido por un conjunto de rayos. Cuando la luz ilumina
un objeto, éste detiene algunos rayos y los demás continúan su trayectoria en línea
recta. Se forma una sombra donde los rayos no pueden llegar. Una fuente pequeña
cercana o una fuente grande lejana producen sombras nítidas. Sin embargo, la mayor
parte de las sombras son borrosas.
En general, las sombras constan de una región interior oscura y bordes más claros.
Una sombra total se llama umbra y una sombra parcial es penumbra. Aparece una
penumbra cuando se impide el paso de una parte de la luz pero otros rayos toman su
lugar. Esto puede ocurrir cuando se obstruye el paso de la luz de una fuente, pero
puede pasar luz de otra fuente.
Una fuente grande de luz produce sombras más suaves que una fuente pequeña.

18. Teoría corpuscular

En 1905, Einstein publicó una teoría que explicaba el fenómeno fotoeléctrico de la luz.
Según esta teoría, la luz se compone de partículas (paquetes sin masa de energía
electromagnética concentrada) que más tarde recibieron el nombre de fotones. Nos
ocuparemos solo de la naturaleza ondulatoria de la luz y dejaremos su naturaleza
corpuscular para otra obra.

93
19. Tetracromatismo

El tetracromatismo, es un estado de posesión de un cono extra en el globo ocular, el


cual tiene la capacidad de captar más de cien informaciones cromáticas distintas, que,
al juntarse con el resto de los conos, crean más de cien millones de colores en nuestro
cerebro. En los seres humanos sólo presenta en mujeres, y tan solo el 2% de la
población femenina lo posee.

En los organismos tetracromáticos, el espacio de color sensorial es de cuatro


dimensiones, lo que significa que para igualar el efecto sensorial de espectros de luz
escogidos arbitrariamente dentro de su espectro visible se requiere de la mezcla de al
menos cuatro diferentes colores primarios: Rojo / Verde / Azul / Violeta / (RGBV).

El pez cebra (Danio rerio) es un ejemplo de tetracrómata, que presenta células


sensibles para luces roja, verde, azul, y ultravioleta. El tetracromatismo está presente
en muchas especies de aves, peces, anfibios, reptiles, arácnidos e insectos.

94
20. Resúmen óptico

La luz ha sido considerada a lo largo de la historia unas veces como una onda otras
como un corpúsculo. Ochocientos cincuenta años antes de nuestra era, Homero
recoge las creencias populares en la Ilíada y en la Odisea, éste decía que los ojos de
los seres vivos proyectan rayos de fuego sutil y la visión se produce por el encuentro
de ese fuego interior con la luz exterior. Todo lo que irradia luz en el universo está
dotado de la facultad de ver, así ocurre en particular con el sol. Un siglo más tarde, los
tratados de óptica de Ptolomeo y Euclides perfilan las leyes de la óptica geométrica
que se establecerán definitivamente en el siglo XVIII. Para Euclides, los ojos emiten
rayos luminosos rectilíneos formando conos de apertura discontinua; de esta manera
introduce los conceptos de perspectiva y agudeza visual, en cambio, Ptolomeo creía
que los conos eran de apertura continua que permiten al observador percibir la
distancia a la que se encuentran los objetos. Además estudia la refracción atmosférica
y señala los errores de observación en la posición de las estrellas, sugiriendo que la
luz pasa de un punto a otro invirtiendo el menor tiempo posible. Fermat, quince siglos
más tarde, utilizará este principio para interpretar los espejismos.
En el mundo árabe fue donde se dieron a conocer muchas teorías sobre la luz, entre
ellos esta Alhacen, hombre que ejerce una gran influencia en los científicos de la edad
media a través de su tratado de óptica; en él establece que los rayos van desde el
objeto hasta el ojo, introduce el concepto de visión binocular, trata de explicar los
espejismos, los halos, el arcoíris y el ensanchamiento del sol en el horizonte. Estudia
los espejos esféricos y parabólicos y las lentes, para después poner de manifiesto la
aberración esférica. En cuanto a las leyes fundamentales de la óptica, descubre que el
ángulo de incidencia y el de refracción no son estrictamente proporcionales. Roemer
utilizando las observaciones del astrónomo Cassini mide por primera vez la velocidad
de la luz. Hacia finales del siglo XVII Christian Huygens publica su tratado de la luz y la
describe como un movimiento de la materia que se encuentra entre nosotros y el
cuerpo luminoso; piensa que es análogo al sonido y por lo tanto necesita de un medio
material para propagarse. Con este principio, Huygens explica perfectamente las leyes
de reflexión y refracción y elimina el error conceptual de la propagación instantánea
que aparecía en las anteriores teorías dinámicas. Fermat apoya la teoría de Huygens
enunciando su principio del tiempo mínimo, éste explica la ley de la refracción siempre
que la velocidad de la luz en el agua sea menor que en el aire. Además permite
entender los espejismos, el ensanchamiento del sol en el horizonte y en general las
trayectorias curvilíneas de los rayos de luz. En 1666 Newton descompone con un
prisma la luz blanca y encuentra que los colores están caracterizados por índices de
refracción distintos y que al atravesar el prisma se dispersan en direcciones diferentes.
Newton encuentra tan insuperables las dificultades de la teoría ondulatoria para
explicar satisfactoriamente la polarización de la luz o la formación de los colores, que
se consagra a desarrollar una nueva teoría, en donde supone que la luz se propaga
desde el cuerpo luminoso hacia el ojo en forma de partículas diminutas, es la conocida
teoría de la emisión.
Newton logra explicar las características más importantes del arco iris, para este físico
(influenciado por la teoría del siete), la luz blanca está compuesta por 7 colores e
integrada por corpúsculos luminosos distintos para los diferentes colores que son
atraídos por distinta fuerza por el medio. Maxwell a través de un sistema de
ecuaciones revolucionan la ciencia, donde la consecuencia más importante es obtener
ondas electromagnéticas, propagándose en el vacío con una velocidad que depende
de las propiedades eléctricas y magnéticas del mismo.

Los trabajos de Planck, Brogue y Einstein abren un nuevo campo: la física cuántica.
Por medio de estas teorías se han obtenido un conocimiento muy profundo de la
estructura del átomo y moléculas y han influido fuertemente en el concepto actual
sobre la naturaleza de la luz. En 1900 Planck introduce una hipótesis revolucionaria

95
para interpretar la curva de emisión luminosa del cuerpo negro. Los físicos no aceptan
totalmente esta teoría, sino hasta la publicación de los trabajos de Einstein y Brogue.
Basándose en las ideas de Planck, Einstein restablece la teoría corpuscular de la luz
bajo una nueva forma: para él los cuantos energéticos son verdaderos corpúsculos de
luz, a los que bautiza con el nombre de fotones. Estas ideas sobre la naturaleza
corpuscular de la luz que resucita Einstein en 1905 enlazando con Newton, Demócrito
y Platón, le permiten en 1916 sentar las bases de lo que hoy se conoce como emisión
laser. La paradoja sobre la dualidad onda corpúsculo que se presenta en la luz
proviene de que en los experimentos que realizamos siempre interviene un número
muy elevado de partículas atómicas, las conclusiones que podemos sacar de manera
individual pueden ser contradictorias, unas veces parecen comportarse como si fuesen
partículas y otras como ondas, más debemos tomar ambas teorías como meras
representaciones de la realidad, más o menos convenientes dependiendo del
experimento que queramos explicar.

96
21. Conclusión

La ruptura de fronteras entre la escritura de los lenguajes artísticos y el registro del


aspecto físico de lo estructural es propiciatoria de mayores y más depuradas analogías
entre la metáfora y el imaginario. Las analogías no basadas en la escritura sino en la
confluencia y el tránsito entre arte y ciencia o entre las artes mismas fertilizan el
bosque de nuevas creaciones. Las artes, hoy todas dentro de aquel ámbito más
difuso, se confunden y se funden a identidades múltiples: arte-arte, arte-ciencia, arte-
tecnología. El entrecruzamiento ha dado algunos frutos conocidos, otros novedosos,
pero el proceso del intercambio, observado desde el interior de cada arte, ofrece una
arborescencia nueva. Ésta está hecha de la extensión de ramas y de raíces que
potencian múltiples direcciones que piden reinterpretar la idea, hoy caduca, de un arte
aislado. Al intentar prescindir de la multiplicidad de lenguajes que confluyen en el arte
total - el Gesamtkunstwerk de la ópera wagneriana - al que ha tendido el siglo XX, este
apartado plantea la noción de una música ampliada, resultado de la libre apertura
hacia la racionalidad, del reencuentro con la materia de tipo continuo y del alimento
irracional de las metáforas procuradas por múltiples percepciones sensoriales y por
emociones que habitan y dan vida al mundo imaginario.

La confluencia entre las artes ha sido una práctica común en otras épocas que, desde
la celebración religiosa y la ópera, alcanza en nuestro siglo XX un rompimiento de
barreras entre disciplinas que la rigidez de las tradiciones encerraba antes
celosamente dentro del territorio de expertos únicos. A nivel conceptual, son
numerosos los casos en que se ha propuesto sumar los recursos de las artes para
crear nuevos modelos de integración: las búsquedas y hallazgos del Bauhaus, los
tanteos menos puros de un arte masivo político, el cine de búsqueda o las
manifestaciones algo más abstractas producto de la confluencia de medios múltiples,
como el arte de multimedia. De ahí la noción más extensa de un arte total, entendida
como el intento de cruces o de síntesis procuradas por múltiples disciplinas,
incluyendo de manera creciente las nuevas tecnologías comunicativas. La idea de
interdisciplina en las artes lo mismo que la de un arte total han sido, a través del
proceso de relacionar elementos en común, productos de una búsqueda colectiva
dirigida hacia lo racional, lo conceptual o lo perceptivo.

El progreso científico pone hoy en evidencia los nexos eminentemente físicos que,
como ocurre a través de un continuo de frecuencias, relaciona a varias artes dentro del
tiempo: la macro-duración de la forma, la duración rítmica, la altura sonora, las micro-
frecuencias tímbricas y el color. La idea de un arte temporal es un elemento unificador
que va desde la música, la danza y el cine de arte hasta las artes visuales abiertas a la
transformación de macro y micro-duraciones.
En las artes visuales, los cuadernos de apuntes de Paul Klee reunidos en El ojo
pensante muestran al creador metódico, casi científico, que en 1.914 propone "crear
un orden desde el sentir y, yendo más lejos, desde el movimiento". Dentro de la misma
perspectiva de un arte temporal, Klee experimenta en la pintura a través de nociones
como el ritmo o la polifonía musicales, una forma de mejor aproximarse a su
concepción sensorial y dinámica. La seria afición de Paul Klee por el violín y por la
música explica su doble vertiente creadora, interesada en la creación de dibujos y
pinturas resultantes de conocimientos y de prácticas musicales. Por ejemplo, usa la
distribución espacial de los movimientos manuales representativos de la métrica de
compases a 1, 2, 3 y a 4 tiempos para obtener trazos geométricos, signos casi
jeroglíficos o dibujos melismáticos.
Klee aborda también la prometedora idea de una representación gráfica de la escritura
musical, partiendo de un par de compases de una obra de J. S. Bach a tres voces.

97
Aun si la cita musical es poco precisa para indicar cada una de las tres voces y Klee
no indica de qué obra musical se trata, la representación gráfica permite reconstruir
con relativa precisión alturas y duraciones de la partitura. A ello se agrega una posible
interpretación subjetiva del pintor-violinista que, a través de la inclinación del trazo de
las alturas de la voz principal, parecería ofrecer una cierta articulación melódica hecha
de finas inflexiones que enlazan las alturas a la manera de un portamento.
Primero aprendemos que dicha representación es posible. Luego percibimos las
relaciones verticales y horizontales entre las dos o tres "voces". Y vemos ahora cómo
se relacionan respecto a su individualización. A veces dos, a veces tres voces suenan
al mismo tiempo (y ahí debe ser sólo una). Las dos voces (segunda y tercera) del
primer compás son muy diferentes en cuanto a calidad individual. La más grave es
claramente estructural en carácter mientras que la de arriba es individual. Luego viene
la primera voz un poco por debajo de la segunda; trata de brincar por encima, pero no
lo logra al principio; sólo después de que la segunda voz ha descansado por un
momento la primera se vuelve dominante. Con la entrada individual de la primera voz,
la segunda de ellas es reducida a un carácter estructural y toma un registro en
contraste armonioso con la tercera, que desciende un poco en ese momento,
formando así un arco inferior que mueve a la primera, la voz individual. Después de
una pausa resignada, la segunda voz corre en paralelo a la tercera. Desde el mismo
principio la tercera voz se mantiene fiel a su carácter estructural, hasta el punto en que
la segunda comienza a correr en paralelo a ella: aquí podemos discernir un tímido
intento de individualidad.

Nuevos métodos y tecnologías han contribuido por igual a una mayor confluencia entre
los procedimientos de creación propios de un arte para ser explorados en otro o a la
aplicación misma de los recursos de la ciencia y la tecnología a una disciplina artística.
El caso de Iannis Xenakis - músico, matemático, filósofo y arquitecto -, es emblemático
de estas aperturas que recuerdan los ensayos promisorios del Bauhaus si se observa
cómo los segmentos inicial y final de Metástasis para orquesta (1.954) inspiraron los
planos arquitectónicos que concibe, a petición de Le Corbusier, para crear
el Pabellón Philips de la Exposición Mundial de Bruselas en 1.958.

Hacia la misma época que Xenakis compone Metástasis, Karlheinz Stockhausen


propone en su Estudio electrónico 1 una notación musical idéntica a la utilizable en
física basada en la representación de la frecuencia y de la amplitud sonoras. Un cuarto
de siglo después, en 1.978, el sistema informático UPIC creado por Xenakis plantea
una revolución tecnológica que permite crear materiales de música electro-acústica
por medio de la conversión digital de dibujos libres del usuario, sólo limitados al orden
tradicional de izquierda a derecha que la cultura europea ha dado a la escritura.

Klee desde la pintura y Xenakis desde la música enfrentan el reto simétrico de


trasplantar la organización que sustenta a una obra de arte a otro; o sea, obtener a
través de lo estructural una respuesta similar en otro campo de la creación. En Klee, el
dibujo y las formas incitados por ritmos musicales evocan un oír-viendo en el que las
evoluciones rítmicas son reproducidas en tiempo a través del dibujo, de manera que la
métrica es expresada a través del conteo de giros o de la expansión espacial de la
intensidad de los acentos.
En Metastasis y en Micenas Alfa (1.978) lo singular de la transcripción de la música no
es el resultado directo del oído de Xenakis sino la consecuencia indirecta del uso que
hace de su capacidad de diseño gráfico y arquitectónico, para convertirla en una
nueva materia temporal. La metodología de Xenakis dejaría suponer que Metastasis
no fue inicialmente oída sino vista-oída - y en ese preciso orden - a través de un
proceso que alternó entre el dibujar formas en el tiempo y el ensayar oírlas. El oír
viendo o el componer dibujando son acciones analógicas que, para los procesos de
representación interior de las artes atemporales o temporales, dejan captar en

98
ocasiones lo real, lo estructural y lo imaginario. Como puede suceder con los ejemplos
aquí citados, se tiene como resultado una producción artística creada por medio de
procesos paralelos que, si acaso hacen momentáneamente abstracción del resultado
concreto en el campo de la pintura o de la música, se guían por la belleza y riqueza
estructurales que encuentran en ritmos musicales o en formas gráficas,
respectivamente.
En esa concatenación de imagen y sonido, la Numerofonía de Aschero representa un
hito en la evolución de la escritura musical contemporánea.

Quienes suponen que la música es un lenguaje, entienden la idea de componer como


la utilización de un sistema musical. Esta noción puede entenderse como la
organización ordenada de un conjunto de relaciones posibles entre los materiales
musicales, como sucede con la combinatoria sonora en la tonalidad o en la atonalidad,
por ejemplo. En uno u otro caso, el sistema musical rige exclusivamente la
combinatoria entre los sonidos dentro del tiempo y del espacio.

Sistema y lenguaje musical han tendido a producir una confusión singular, basada en
la potencialidad de la música para transportar analogías; sin embargo, si se sigue la
observación del filósofo del lenguaje Donald Davidson, el sistema no es un lenguaje ya
que no se ocupa de relaciones lógicas que se basan en la afirmación y en la negación,
algo inexistente en música.

En general, el propósito mismo de relacionar la música con el lenguaje es difícil de


demostrar, cuando se observa de cerca la carencia de sentido que pueden tener los
signos producto de una transcripción alternativa como las señaladas algo más arriba.
Otros ejemplos de transcripción pueden observarse en la transcripción de una música
de tradición oral a una partitura, la música cuya creación no ha pasado
necesariamente por un lenguaje específico, como ocurre con algunas formas de
improvisación musical que se separa voluntariamente de los lenguajes y permanece
fuera de un sistema codificado, como el navegar creativo que emerge del imaginario.

Si bien el código no es siempre necesario en el material analógico, el ejemplo de los


nómades aborígenes de Australia es útil al caso: sus silbidos les sirven como código
para representar la orografía y las rutas a seguir en su constante recorrer de las
regiones que conocen. El silbido es una conversión de la topología a sonido,
transcripción tan práctica como los trazos en un mapa.

Las puertas quedan abiertas para adecuar la noción de transcripción a la de tránsito


de un material analógico a otro, escrito, sin el paso por un lenguaje. Sin embargo, el
intercambio en extremo libre que se da entre las artes en este siglo incita a pensar en
la existencia de un ámbito propio de las confluencias, en el que las relaciones de
reciprocidad crecen de forma permanente. El problema no parece ser hoy el simple
cambio de código ante la conversión, sino el paradigma producto del incesante tránsito
de los métodos de escritura de un arte a otro.

En ciencia, es conocida la necesidad de la visualización para un mejor entendimiento


de la complejidad de procesos que, cómo en física, deja observar de manera próxima
a la realidad las transformaciones termo-dinámicas de la materia o que, en la moderna
matemática, muestra la riqueza de estructuras abstractas o las evoluciones de espacio
tiempo que derivan de la teoría de fractales.

En matemáticas, existen ensayos que se interesan igualmente por la audio


visualización matemática, resultado del doble traslado de la información matemática a
materiales sonoros y visuales en paralelo. Algo similar puede decirse, en reciprocidad,
del arte-ciencia, donde las artes son parte de un campo abierto a la experimentación

99
de resultados del saber científico y tecnológico. A pesar de la belleza de formas y
evoluciones creadas por medio de la teoría de fractales, por ejemplo, o a pesar del
unánime respeto que reciben de la comunidad artística contemporánea las ideas
pioneras de Benôit Mandelbrot, las visualizaciones o audio visualizaciones enfocadas
al conocimiento científico son procesos que, si son reveladores de una rica unión entre
disciplinas opuestas, carecerían por el momento de un valor artístico per se mientras
no se defina la propuesta estética que intentan alcanzar. La idea de dejar en
suspenso, quizá sólo por un corto plazo, el valor estético de la ciencia-arte que no
parte necesariamente de una propuesta de belleza parece ser una cuestión crucial de
nuestro tiempo, algo que estos textos no pretenden abordar. Por ahora, sólo dentro de
la óptica concreta de aplicaciones directas del conocimiento científico sobre materias
visuales o sonoras, puede considerarse que los métodos que rigen dichas relaciones
no son equivalentes a una transcripción sino a una transferencia.

La inmersión del pensar racional y del imaginar creador en un universo plenamente


continuo abren la puerta a la música a un espacio que había abandonado entre las
creaciones más arcaicas, a diferencia de otras disciplinas artísticas como la pintura o
la escultura, más permisivas de formas curvadas aun cuando no lo habían plenamente
conquistado sino hasta las formalizaciones propias de este siglo. La influencia del
continuo fue decisiva sobre los complejos procesos de representación interior de la
música, similares en complejidad a los de la ciencia. La analogía existente entre la
escritura musical tradicional y el registro gráfico o físico-acústico de algunas
transformaciones de la materia musical ofrece una constante que pone en evidencia
las relaciones de tiempo-espacio. La escritura gráfica del neuma gregoriano, al igual
que su perfeccionamiento por D’Arezzo en el siglo XI, o las representaciones gráfico-
acústicas de Klee, Stockhausen o Xenakis no alteran el orden horizontal para el
tiempo y el vertical para las alturas. Aschero propone la cromatización de las alturas
(Óptica) y la representación aritmética de las duraciones (Matemática).

El modelo de siete colores del espectro de la luz (Newton) y los siete neumas
convertidos en siete notas (D’Arezzo), son parte de una historia pasada que no tiene
conexión con el mundo visual y sonoro de hoy. Todo debe cambiar si se demuestra
que el cambio es positivo, y lo que no cambia y se demuestra se transforma en ayer.
Y esto también supone el enfrentamiento con el poder de los que ejercen la inercia de
la "costumbre" en lugar de proponerse la "aventura de lo mejor".

Pero lo esencial como casi siempre se percibe tardíamente. Y así nos va.

100
ÍNDICE

1. Introducción (Página 2)

2. Guido D’Arezzo y las siete notas musicales (Página 6)

3. Isaac Newton y los siete colores del arcoíris (Página 64)

4. El espectro visible por los humanos (Página 67)

5. Absorción y reflexión del color, percepción de los colore (Página 69)

6. El color de la atmósfera (Página 70)

7. Espectroscopia (Página 70)

8. Modelos de color (Página 71)

9. El círculo cromático (Página 74)

10. Espectro visible (Página 77)

11. Percepción del color (Página 78)

12. Colores neutros o acromáticos (Página 84)

13. Colores en la naturaleza (Página 85)

14. Visión (Página 88)

15. La luz y los materiales transparentes (Página 91)

16. La luz y los materiales opacos (Página 92)

17. Sombra (Página 92)

101
18. Teoría corpuscular (Página 92)

19. Tetracromatismo (Página 93)

20. Resúmen óptico (Página 94)

21. Conclusión (Página 96)

© Sergio Aschero (Doctor en Musicología) sergioaschero@gmail.com

Avenida Roca 1669 (1870) Avellaneda / Provincia de Buenos Aires / Argentina

http://www.sergioaschero.com.ar

102

También podría gustarte