Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2
música
y
artes
escénicas...)
el
discente
ha
de
enfrentarse
a
una
gran
cantidad
de
contenidos.
Tareas
como
dictados,
lectura
de
partituras,
identificación
de
escalas
e
intervalos,
codificación
de
cifrados,
realización
de
armonizaciones,
prácticas
de
contrapunto,
transposición...
absorben
una
parte
muy
importante
del
tiempo
que
se
destina
a
las
clases,
cuando
no
son
más
que
un
entrenamiento
musical,
ciertamente
necesario
pero
no
por
ello
menos
rutinario.
A
día
de
hoy
asignaturas
como
lenguaje
musical,
armonía,
análisis
musical
o
fundamentos
de
composición
dedican
a
la
corrección
de
ejercicios
y
la
escritura
en
papel
de
estos
la
mayor
parte
de
su
tiempo,
por
lo
que
el
avance
se
vuelve
lento
y
tedioso.
Éste
es
uno
de
los
motivos
principales
de
por
qué
rara
vez
se
avanza
en
su
aprendizaje
más
allá
de
las
técnicas
propias
de
los
siglos
XVIII
y
XIX.
En
las
siguientes
páginas
analizaremos
por
separado
las
diferentes
formas
en
las
que
optimizan
el
resultado
del
proceso
educativo
cada
una
de
las
aplicaciones
que
se
han
utilizado
para
llevar
a
cabo
actividades
programadas
dentro
de
un
proceso
enseñanza
musical.
Han
participado
desde
niños
de
6
años
hasta
profesores
de
magisterio
o
grado
profesional
de
música
de
hasta
30
años
y,
lejos
de
requerir
una
gran
madurez
intelectual
por
parte
de
los
alumnos,
han
encontrado
la
mejor
acogida
entre
los
más
jóvenes,
concretamente
en
el
grupo
de
discentes
que
se
encuentra
entre
los
12
y
los
16
años
de
edad.
La
inclinación
de
los
jóvenes
hacia
las
nuevas
tecnologías
parece
ser
lo
mas
habitual
en
nuestro
país
.
3
Internet
y
los
recursos
Web.
• La
grabación
magnética
digital
que
se
lleva
a
cabo
sobre
soporte
un
magnético,
bien
cinta
como
el
DAT
u
otros
formatos
similares,
o
bien
sobre
soportes
magnéticos
informáticos
como
el
disco
flexible.
• La
grabación
óptica
digital
en
la
que
la
señal
es
grabada
sobre
el
soporte
de
forma
óptica,
mediante
un
láser.
Es
el
caso
del
CD
o
el
DVD
de
audio.
• La
grabación
magneto-‐óptica
digital
que
es
un
sistema
combinado
que
graba
de
forma
magnética,
pero
reproduce
de
forma
óptica.
Es
el
caso
del
minidisc
o
de
los
CD
regrabables
(CD-‐
RW)
y
del
propio
disco
duro
de
cualquier
ordenador.
La
conversión
analógico-‐digital
o
C.A.D.
toma
una
señal
continua
(la
onda
sonora)
y
la
trasforma
en
una
señal
discreta
(código
binario)
para
que
pueda
ser
leída
por
un
sistema
informático.
Ésta
tiene
tres
fases
o
etapas:
1. Muestreo:
el
muestreo
o
sampleado
consiste
en
la
toma
de
muestras
periódicas
de
la
amplitud
de
onda.
La
velocidad
con
que
se
toma
esta
muestra,
es
decir,
el
número
de
muestras
por
segundo,
es
lo
que
se
conoce
como
frecuencia
de
muestreo.
Según
el
teorema
de
muestreo
de
Nyquist-‐Shannon,
para
poder
replicar
con
la
exactitud
necesaria
para
que
sea
matemáticamente
reversible
la
forma
de
una
onda
es
necesario
que
la
frecuencia
de
muestreo
4
sea
superior
al
doble
de
la
máxima
frecuencia
a
muestrear.
Para
cubrir
el
espectro
audible
(20
a
20000
Hz)
suele
bastar
con
tasas
de
muestreo
de
algo
más
de
40000
Hz
(el
estándar
CD-‐
Audio
emplea
una
tasa
un
10%
mayor
con
objeto
de
contemplar
el
uso
de
filtros
no
ideales),
con
32000
muestras
por
segundo
se
tendría
un
ancho
de
banda
similar
al
de
la
radio
FM
o
una
cinta
de
casete,
es
decir,
permite
registrar
componentes
de
hasta
15
kHz,
aproximadamente.
Para
reproducir
un
determinado
intervalo
de
frecuencias
se
necesita
una
tasa
de
muestreo
de
poco
más
del
doble
(Teorema
de
muestreo
de
Nyquist-‐Shannon).
Por
ejemplo
en
los
CDs,
que
reproducen
hasta
20
kHz,
emplean
una
tasa
de
muestreo
de
44,1
kHz
(frecuencia
Nyquist
de
22,05
kHz).
Con
objeto
de
evitar
el
fenómeno
conocido
como
aliasing,
es
necesario
eliminar
todos
los
componentes
de
frecuencias
que
exceden
la
mitad
de
la
tasa
de
muestreo,
es
decir,
del
límite
de
Nyquist,
antes
del
proceso
de
C.A.D.
En
la
práctica,
estos
componentes
se
atenúan
fuertemente
mediante
un
filtro
activo
analógico
paso-‐bajo
que
se
aplica
a
la
señal
analógica
de
interés
antes
de
su
digitalización
y
que
para
este
objetivo
se
denomina
filtro
antialiasing.
En
el
proceso
de
reconstrucción
posterior
(conversión
D/A)
de
la
reproducción
se
deberá
aplicar
en
esencia
el
mismo
filtrado
analógico
mediante
un
filtro
que,
empleado
en
este
proceso,
se
denomina
de
reconstrucción.
2. Retención:
durante
la
retención
o
holding
las
muestras
tomadas
han
de
ser
retenidas
por
un
circuito
de
retención
el
tiempo
suficiente
para
permitir
evaluar
su
nivel.
Desde
el
punto
de
vista
matemático
este
proceso
no
se
contempla,
ya
que
se
trata
de
un
recurso
técnico
debido
a
limitaciones
prácticas,
y
carece,
por
tanto,
de
modelo
matemático.
3. Cuantificación:
en
el
proceso
de
cuantificación
se
mide
el
nivel
de
voltaje
de
cada
una
de
las
muestras
y
se
le
asigna
un
valor
de
una
señal
analizada
a
un
único
nivel
de
salida.
Incluso
en
su
versión
ideal,
añade,
como
resultado,
una
señal
indeseada
a
la
señal
de
entrada
conocida
como
el
ruido
de
cuantificación.
Por
ejemplo,
utilizando
cuantificación
lineal,
una
codificación
lineal
de
8
bits
discriminará
entre
256
niveles
de
señal
equidistantes.
También
se
pueden
hacer
cuantificaciones
no
lineales,
como
es
el
caso
de
cuantificadores
logarítmicos
como
la
Ley
Mu
o
la
Ley
A,
que,
a
modo
de
ejemplo,
aún
usando
8
bits
funcionan
perceptualmente
como
10
bits
lineales
para
señales
de
baja
amplitud
en
promedio,
como
la
voz
humana.
El
formato
más
usado
de
audio
digital
PCM
lineal
es
el
del
CD
de
audio:
44,1
kHz
de
tasa
de
muestreo
y
cuantificación
lineal
de
16
bits
(que
mide
65536
niveles
de
señal
diferentes)
y
que,
en
la
práctica,
permite
registrar
señales
analógicas
con
componentes
hasta
los
20
kHz
y
con
relaciones
señal
a
ruido
de
más
de
90
dB.
El
número
de
bits
que
conforman
las
muestras
en
un
proceso
determinado
de
cuantificación
determina
la
relación
señal
a
ruido
máxima
que
debe
tener
la
señal
(la
salida
de
un
micrófono
y,
consecuentemente,
el
material
sonoro
que
recoge,
la
salida
de
un
máster
analógico,
etc.)
que
se
pretende
cuantificar
y,
por
tanto,
limita
también
el
rango
dinámico
que
debe
tener
para
su
cuantificación
completa,
de
modo
parecido
a
cómo
la
capacidad
de
un
recipiente
(bits
por
muestra)
limita
el
volumen
de
líquido
(rango
del
material
sonoro
a
cuantificar)
que
puede
contener.
Sea
el
número
de
bits
con
las
que
se
cuantifican
las
muestras,
la
relación
señal
(para
sinusoidal
máxima
que
cubre
todo
el
rango)
a
ruido
de
cuantificación
teórica
se
obtiene
en
dB:4
Por
tanto,
una
cuantificación
de
16
bits
permite
un
máximo
teórico
para
la
relación
señal
sinusoidal
a
ruido
de
cuantificación
de
98,09
dB
(122,17
dB
para
20
bits,
valor
muy
cercano
al
límite
real
que
permite
el
ruido
de
Johnson-‐Nyquist,
también
conocido
como
ruido
térmico,
de
los
mejores
CAD’s
actuales).
En
la
práctica,
el
límite
de
una
señal
analógica
para
que
pueda
ser
cuantificada
sin
merma
dinámica
es,
aproximadamente,
el
90%
del
límite
teórico.
Por
lo
tanto,
el
límite
que
debe
tener
una
señal
como
la
señal
directa
de
un
micrófono
o
la
que
resultara
de
5
un
máster
analógico
para
ser
cuantificada
con
seguridad
con
sólo
14
bits
es
de
unos
78
dB,
aún
cuando
el
límite
teórico
sea
de
86,05
dB
en
este
caso.
Una
vez
que
la
relación
señal
a
ruido
de
cuantificación
que
permite
un
proceso
de
cuantificación
dado
excede
la
relación
señal
a
ruido
máxima
del
material
sonoro
que
se
pretende
cuantificar,
esta
podrá
ser
cuantificada
totalmente
sin
pérdidas
en
su
rango
dinámico.
Pasado
este
umbral,
de
nada
sirve
aumentar
el
número
de
bits
por
muestra
del
proceso
de
cuantificación:
no
resultará
en
una
conversión
más
fiel.
Por
ejemplo,
una
relación
señal
a
ruido
de
cuantificación
de
90
dB
(una
relación
práctica
que
permiten
sobradamente
los
16
bits
por
muestra
de
un
CD-‐Audio)
es
suficiente
para
cuantificar
cualquier
grabación
musical
normal,
cuyo
rango
de
intensidad
sonora
puede
ir
desde
los
25
dB(SPL)
del
ruido
de
fondo
de
un
estudio
de
grabación
hasta
los
115
dB(SPL),
casi
el
umbral
del
dolor
de
la
audición
humana,6
en
la
posición
del
micrófono
durante
una
grabación
en
dicho
estudio.
El
tamaño
de
las
muestras
necesario
en
un
proceso
de
cuantificación
digital
se
determina,
por
tanto,
a
partir
del
análisis
del
ruido
de
fondo
y
de
la
intensidad
máxima
del
material
sonoro
a
registrar.
Aumentar
por
encima
de
lo
necesario
el
tamaño
de
las
muestras
es
sólo
un
desperdicio
de
ancho
de
banda,
especialmente
en
los
formatos
finales
de
distribución.
No
supone
mejora
alguna,
ni
siquiera
mensurable,
ya
que
sólo
serviría
para
registrar
el
ruido
con
más
bits,
es
decir,
más
bits
inútiles
cuyo
valor
dependerá
exclusivamente
del
azar
o,
según
se
ajuste
la
ganancia,
para
dejar
los
bits
más
significativos
a
cero
en
todas
las
muestras
(o
una
combinación
de
ambas
cosas).
De
modo
parecido,
un
recipiente
de
capacidad
mayor
a
la
del
líquido
que
se
pretende
depositar
en
él
no
mejora
en
medida
alguna
la
calidad
o
cantidad
de
dicho
líquido
respecto
al
uso
de
un
recipiente
de
menor
capacidad
siempre
que
ésta
capacidad
menor
sea
aún
suficiente
para
el
volumen
del
líquido.
Dicho
de
otro
modo,
al
contrario
de
lo
que
es
una
creencia
errónea
muy
extendida,7
el
tamaño
de
las
muestras
a
emplear
en
una
cuantificación
depende
del
material
sonoro
que
se
pretende
cuantificar
y
nada
tienen
que
ver
la
fidelidad
de
la
reconstrucción
en
la
reproducción
o
los
límites
psicoacústicos
humanos,
por
la
percepción
de
dicha
fidelidad,
con
esta
determinación,
por
ejemplo.
Si
un
material
sonoro
a
digitalizar
"cabe"
en
10
bits
por
muestra,
cuantificar
a
14
bits
o
20
no
hace
más
fiel
su
reconstrucción
posterior
ni,
consecuentemente,
es
posible
percibir
diferencias
subjetivas
que
no
resulten
de
la
sugestión.
4. Codificación:
ésta
consiste
en
traducir
los
valores
obtenidos
durante
la
cuantificación
al
código
binario.
Hay
que
tener
presente
que
el
código
binario
es
el
más
frecuente,
pero
también
existen
otros
tipos
de
códigos
que
también
son
utilizados.
En
el
código
binario
la
unidad
de
información
mínima
se
conoce
como
bit,
que
puede
ser
1
o
0,
aunque
la
unidad
básica
de
comunicación
de
información
se
conoce
como
byte
que
es
un
conjunto
de
8
bits,
generalmente.
Mediante
la
adición
de
prefijos
se
general
unidades
mayores,
siendo
las
mas
comunes
el
kilobyte
y
el
gigabyte,
del
siguiente
modo:
Nombre
Abrev.
Factor
binario
Bytes
bytes
B
20
1
kilo
k
210
1024
mega
M
220
1
048
576
giga
G
230
1
073
741
824
tera
T
240
1
099
511
627
776
peta
P
250
1
125
899
906
842
624
exa
E
260
1
152
921
504
606
846
976
6
zetta
Z
270
1
180
591
620
717
411
303
424
yotta
Y
280
1
208
925
819
614
629
174
706
176
El
último
paso
de
la
codificación
es
el
añadido
del
dither.
El
dithering
es
la
adicción
deliberada
de
una
forma
especial
de
ruido
con
el
fin
de
convertir
en
aleatorios
ciertos
pasajes
de
la
cuantificación,
previniendo
patrones
a
gran
escala
como
el
banding
en
el
sonido
o
la
imagen.
Con
una
señal
armónica
sinusoidal
pura
con
dither
añadido
en
una
relación
señal
a
ruido
de
21,03
dB
lista
para
ser
cuantificada
con
sólo
4
bits
por
muestra,
es
decir,
con16
niveles
de
cuantificación,
la
señal
tiene
unas
127
veces
la
potencia
del
dither.
Una
futura
conversión
A/D
con
más
niveles
de
cuantificación
permitirían
añadir
un
dither
proporcionalmente
con
respecto
de
la
señal
menor.
Dado
que
actualmente
los
mejores
convertidores
tienen
relaciones
señal
a
ruido
térmico
que
raramente
exceden
los
122
dB
a
temperatura
ambiente,
se
hace
necesario
añadir
dither
en
todos
los
casos
en
los
que
se
emplean
cuantificaciones
o
recuantificaciones
inferiores
a
20
bits.
Los
cuantificadores
de
24
bits,
si
bien
no
presentan
ventajas
prácticas
sobre
los
de
20
bits
debido
al
nivel
del
ruido
térmico
de
los
convertidores,
al
menos
no
requieren
la
adición
de
dither
(y
permiten
registrar
la
muestra
en
un
número
entero
de
bytes).
Sin
embargo,
sí
será
imprescindible
añadir
dither
en
los
casos
donde
se
recuantifican
estas
grabaciones
a
muestras
de
16
bits,
por
ejemplo.
Es
un
proceso
ordinario
en
el
último
estadio
de
la
producción
de
audio
para
CD
de
audio.
Los
archivos
de
audio
digital
almacenan
toda
la
información
que
ocurra
en
el
tiempo,
por
lo
que
el
tamaño
del
archivo
no
varía
así
contenga
silencio
o
sonidos
muy
complejos.
Esta
información
se
organiza
en
un
formato,
existiendo
actualmente
muchos
formatos
de
archivo
de
audio
digital.
Un
formato
de
archivo
de
audio
es
un
contenedor
multimedia
que
guarda
una
grabación
de
audio
(música,
voces,
etc.).
Lo
que
define
a
un
archivo
distinto
del
otro
son
sus
características;
almacenado,
sus
capacidades
de
reproducción,
y
cómo
puede
utilizarse
el
archivo
en
un
sistema
de
administración
de
archivos
(etiquetado).
La
manera
general
de
almacenar
audio
digital
es
maestreando
el
voltaje
de
audio,
que
al
reproducirlo,
corresponde
a
un
nivel
de
señal
en
un
canal
individual
con
un
cierto
resolución
-‐el
número
de
bits
por
muestreo
-‐
en
intervalos
regulares
(creando
la
frecuencia
de
muestreo).
Estos
datos
después
pueden
ser
almacenados
sin
comprimir
o
comprimidos
para
reducir
el
tamaño
del
formato.
El
codec
codifica
y
decodifica
los
datos
del
audio
mientras
estos
datos
son
archivados
en
un
archivo
que
tiene
un
formato
de
audio
específico.
La
mayoría
de
los
formatos
de
archivo
de
audio
públicamente
documentados
pueden
ser
creados
con
uno
de
dos
o
más
codificadores
o
codecs.
Aunque
la
mayoría
de
formatos
de
archivo
de
audio
solo
soportan
un
tipo
de
data
un
contenedor
de
formato
de
multimedia
como
MKV
o
AVI
puede
soportar
múltiples
tipos
de
datos
de
audio
y
vídeo,
por
ejemplo.
Como
se
vio
arriba
el
tamaño
puede
depender
de
la
cantidad
de
canales
que
tenga
el
archivo
y
de
la
resolución,
así
como
del
tipo
de
formato:
A Formatos
sin
comprimir:
La
diferencia
principal
que
tienen
estos
formatos
es
el
encabezado,
alrededor
de
1000
bytes
al
comienzo
del
archivo.
Hay
un
formato
principal
sin
comprimir,
PCM,
que
normalmente
esta
archivado
como
.WAV
en
windows
y
.AIFF
en
MAC.
WAV
y
AIFF
son
formatos
flexibles
creados
para
almacenar
varios
combinaciones
de
frecuencia
de
muestreo
o
tasa
de
bits,
esto
los
hacen
adecuados
para
archivar
grabaciones
originales.
Existe
otro
tipo
de
archivo
llamado
CD-‐A
o
Audio
CD
que
es
un
archivo
pequeño
que
sirve
como
acceso
directo
a
parte
de
los
datos
de
un
CD.
El
formato
AIFF
esta
Basado
en
el
formato
IFF
mientras
que
el
formato
WAV
esta
7
Basado
en
el
formato
RIFF
Que
realmente
son
muy
similares.
BWF
(Broadcast
WAV
Format)es
el
formato
de
audio
estándar
creado
por
el
Union
Europeo
de
Radiodifusión
como
sucesor
a
WAV.
BWF
permite
el
almacenamiento
de
meta-‐dato
en
el
archivo.
Este
formato
es
principalmente
usado
por
muchos
programas
profesionales
de
edición
de
audio
en
las
industrias
de
televisión
y
cine.
Archivos
BWF
contienen
una
referencia
de
timestamp
estandarizado
que
permite
sincronizar
fácilmente
con
un
elemento
de
foto
separado.
Stand-‐alone,
Grabadoras
milti-‐track
de
dispositivos
de
audio,
Zaxcom,
HHB
USA,
Fostex
y
Aaton
utilizan
BWF
como
su
formato
preferido.
B Formatos
comprimidos:
Para
usar
menos
memoria
que
los
archivos
PCM
existen
formatos
de
sonido
comprimidos,
como
por
ejemplo
el
MP3,
AAC
y
OGG.
Ciertos
algoritmos
de
compresión
descartan
información
que
no
es
perceptible
por
el
oído
humano
para
lograr
que
el
mismo
fragmento
de
audio
pueda
ocupar
en
la
memoria
inclusive
décima
parte
-‐o
menos-‐
de
lo
que
ocuparía
de
ser
PCM.
La
reducción
en
tamaño
implica
una
pérdida
de
información
y
por
esto
a
los
formatos
de
este
tipo
se
les
llama
formatos
comprimidos
con
pérdida.
Existen
también
formatos
de
archivo
comprimido
sin
pérdida,
dentro
de
los
que
se
cuentan
el
FLAC
y
el
Apple
Lossless
Encoder,
cuyo
tamaño
suele
ser
de
aproximadamente
la
mitad
de
su
equivalente
PCM.
Los
formatos
comprimidos
se
suelen
clasificar
en
dos,
dependiendo
de
la
magnitud
de
la
información
que
se
pierde
al
comprimir:
los
formatos
sin
pérdida
y
los
formatos
con
pérdida:
a Formato
Lossless
o
comprimidos
sin
pérdida:
El
formato
sin
pérdida
requiere
más
tiempo
de
procesamiento
que
formatos
sin
comprimir
en
cambio
es
más
eficiente
en
cuanto
el
espacio
que
ocupa.
Formatos
de
audio
sin
comprimir
codifican
tanto
audio
como
silencio
con
el
mismo
número
de
bits
por
unidad
de
tiempo.
Codificar
un
minuto
de
silencio
en
un
formato
sin
comprimir
produce
un
archivo
del
mismo
tamaño
que
codificar
un
archivo
sin
comprimir
de
un
minuto
de
música
de
orquesta.
Sin
embargo
en
un
archivo
sin
pérdida
la
música
ocupa
un
archivo
ligeramente
más
pequeño
y
el
silencio
no
ocupa
casi
nada.
Los
formatos
de
compresión
sin
pérdida
proporcionan
un
ratio
de
compresión
de
más
o
menos
2:1.
El
desarrollo
de
formatos
de
compresión
sin
pérdida
intenta
reducir
el
tiempo
de
procesamiento
mientras
manteniendo
un
buen
ratio
de
compresión.
b Formatos
Lossy
o
comprimidos
con
pérdida:
La
compresión
con
pérdida
es
un
método
de
codificación
en
que
comprime
los
datos
descartando
partes
que
ya
no
podrán
ser
recuperadas.
El
proceso
intenta
minimizar
la
cantidad
de
datos
que
mantiene
el
archivo
reduciendo
su
peso
y
también
su
calidad.
Realmente
prioriza
la
pérdida
de
las
bandas
de
frecuencia
menos
audibles
para
el
oído
humano
por
lo
que
la
pérdida
de
la
calidad
es
progresiva
y
sólo
se
vuelve
significativa
a
niveles
elevados.
C Formatos
descriptivos:
Archivos
MIDI
Este
formato
de
archivos
no
es
precisamente
de
audio
digital,
pero
sí
pertenece
a
las
tecnologías
de
la
informática
musical.
El
archivo
MIDI
no
almacena
"sonido
grabado",
sino
las
indicaciones
para
que
un
sintetizador
o
cualquier
otro
dispositivo
MIDI
genere
una
serie
de
notas
o
realice
cualquier
otra
acción
que
el
controlador
permita.
Podemos
imaginarlos
como
algo
similar
a
una
partitura,
con
los
nombres
de
los
instrumentos
que
hay
que
utilizar,
las
notas,
tiempos
y
algunas
indicaciones
acerca
de
la
interpretación.
8
A
continuación
se
puede
leer
una
lista
de
los
formatos
más
comunes
en
la
WWW
y
sus
características:
AAC:
esta
basado
en
MPEG2
y
MPEG4.
Los
archivos
ACC
suelen
ser
contenedores
ADTs
o
ADIF.
AIFF:
Formato
estándar
de
Apple.
Se
puede
ser
considerado
el
equivalente
de
WAV
de
Apple
ATRAC
(.WAV):
El
estilo
antiguo
de
formato
Sony
ATRAC.
Siempre
contiene
un
extensión
de
formato
.WAV.
Para
abrir
estos
formatos
hay
que
instalar
unos
drivers
ATRAC3.
AU:
El
formato
de
archivo
estándar
utilizado
por
Sun,
Unix
y
Java.
El
audio
de
archivos
AU
puede
ser
PCM
o
comprimido
con
a-‐law
o
G729
codecas.
DCT:
Es
un
codec
variable
diseñado
para
dictar.
DSS:
Es
un
formato
de
propiedad
de
corporación
Olympus.
Es
relativamente
viejo
y
su
codec
es
de
mala
calidad.
DVF:
Un
formato
de
Sony
para
archivos
de
voz
comprimidos,
normalmente
utilizado
en
grabadoras
de
dictado.
FLAC:
Un
codec
de
compresión
lossless,
que
se
suele
utilizar
en
ambientes
profesionales,
especialmente
para
recuperar
vinilos.
GSM:
Diseñado
para
el
uso
de
telefonía
en
Europa.
gsm
es
un
formato
muy
practico
para
voces
de
calidad
teléfono.
Es
un
buen
compromiso
entre
calidad
y
tamaño.
Archivos
de
WAV
pueden
ser
codificados
con
GSM.
IKLAXS:
Es
un
formato
de
audio
digital
multi-‐track
que
permite
varios
acciones
en
datos
musicales
como
arreglos
de
volumen
y
mezclas.
IVS:
Un
formato
desarrollado
por
3D
solar
UK
ltd.
con
gestión
de
derecho
digital
utilizado
para
descargar
música
de
su
tienda
digital
tronme
y
en
su
reproductor
interactivo
de
música
y
vídeo.
M4P:
Un
versión
de
ACC
en
MP4
desarrollada
por
Apple
con
gestión
de
derecho
digital
para
la
utilización
de
descargas
de
la
tienda
de
ITunes.
MMF:
Un
formato
de
audio
creado
por
Samsung
utilizados
en
tonos
de
móvil.
MP3:
Formato
MPEG
layer
3
es
el
más
popular
para
bajar
y
almacenar
música.
Eliminando
porciones
del
archivo
que
sean
menos
audibles,
mp3
comprime
a
aproximadamente
un
décima
parte
de
un
archivo
PCM
sacrificando
su
calidad.
MP4
o
M4A:
MPEG-‐4
audio
más
a
menudo
ACC
pero
a
veces
MP2/MP3,
MPEG-‐4
SLS,
CELP,
HVXC
y
otros
tipos
de
objetos
de
audio
pueden
ser
definidos
en
MPEG-‐4
audio.
MPC:
Musepack
o
MPC
era
conocido
como
MPEGplus
o
MP+,
y
es
un
formato
código
abierto,
específicamente
optimizado
para
la
compresión
transparente
de
audio
estéreo
a
una
velocidad
de
bits
de
160-‐180
bits/s.
MSV:
Un
formato
de
Sony
para
archivos
de
voz
comprimidos
en
tarjeta
de
memoria.
OGG:
Un
archivo
de
formato
código
abierto
que
apoya
una
variedad
de
codecs,
de
los
cuales
el
más
popular
es
el
audio
codec
vorbis.
Vorbis
ofrece
compresión
similar
a
ese
de
mp3
pero
al
ser
menos
popular
puede
dar
problemas.
Es
habitual
en
el
centro
de
Europa.
RA
&
RM:
Un
formato
real
audio
diseñado
para
el
streaming.
9
RAW:
Un
archivo
RAW
puede
contener
audio
de
cualquier
codec
aunque
suele
ser
utilizado
con
datos
de
audio
PCM.
Solo
suele
ser
utilizado
en
pruebas
técnicas.
TTA:
un
codec
de
audio
lossless
en
tiempo
real,
a
pesar
de
estar
comprimido.
VOX:
Este
formato
es
comúnmente
utilizado
para
el
codec
ADPCM
Dialogico
o
Adaptive
Differential
Pulse
Code
Modulation.
Similar
a
otros
formatos
ADCPM
comprime
a
4
bits.
Archivos
VOX
son
similares
a
archivos
WAV
salvo
que
no
contienen
información
sobre
el
archivo
así
que
la
frecuencia
de
muestreo
y
el
número
de
canales
debe
ser
especificada
para
reproducirlo.
WAV:
Formato
contenedor
de
archivo
de
audio
utilizado
principalmente
en
Windows.
comúnmente
utilizado
para
almacenar
archivos
de
calidad
de
cd
sin
comprimir.
lo
que
significa
que
pueden
ser
de
gran
tamaño,
al
rededor
de
10mb
por
minuto.
Archivos
de
WAV
también
pueden
contener
datos
codificados
por
una
variedad
de
codecs
con
pérdida
para
reducir
el
tamaño
del
archivo
,
como
codecs
MP3
o
GSM.
Archivos
WAV
utilizan
una
estructura
RIFF
WMA
o
Windows
media
audio:
este
formato
esta
creado
por
microsoft
y
esta
diseñado
con
habilidades
de
gestión
de
derechos
digitales
parta
protegerlo
de
copia
ilegal.
Tras
el
proceso
de
grabación
se
procede
a
volcar
el
sonido
sobre
un
soporte
que,
en
este
caso,
pueden
ser
los
siguientes:
1. Magnéticos:
a. De
bobina
abierta:
i. DASH
ii. ProDigi
b. Modular
multipista
(MDM):
i. ADAT
ii. DA-‐88
iii. DTRS
c. De
casete:
i. DAT
ii. DCC
2. Ópticos:
a. CD-‐Audio
b. Minidisc
c. DVD-‐Audio
Web
1.0
Éstas
se
caracterizan
por
ser
páginas
estáticas
HTML
que
no
pueden
ser
modificadas
más
que
por
su
creador
(o
webmaster),
por
lo
que
no
suelen
ser
actualizadas
frecuentemente.
A
pesar
de
esa
limitación
podemos
encontrar
muchos
recursos
de
gran
utilidad
para
los
estudiantes
principalmente
como
fuente
de
información,
a
modo
de
enciclopedia
o
diccionario.
Del
mismo
modo
que
sucede
con
otras
fuentes,
es
necesario
guiar
a
los
discentes
en
la
adquisición
de
unos
criterios
de
selección
que
les
permitan
realizar
investigaciones
con
cierta
autonomía.
Los
criterios
a
seguir
a
la
hora
de
clasificar
estas
fuentes
se
resumirán
en
su
pertenencia
a
uno
de
los
tres
principales
grupos,
delimitados
por
su
forma
de
legitimación.
10
•
Fuentes
legitimadas
en
la
autoridad:
Estas
son
las
que
se
ha
utilizado
tradicionalmente
por
una
cuestión
de
costumbre
o
de
autoridad
de
su
origen.
Haremos
consciente
al
alumno
que
la
importancia
de
estos
testimonios
sin
dejar
de
señalar
sus
debilidades
o
errores
si
hubiera,
pero
no
por
ello
desprestigiándolos.
•
Fuentes
legitimadas
en
la
calidad:
Para
juzgar
la
calidad
de
una
obra
o
de
una
fuente
de
información
la
mediremos
en
base
a
parámetros
como
son
la
coherencia,
la
belleza,
control,
la
complejidad,
la
variedad,
la
sofisticación,
y
la
actualidad.
Por
ello
es
importante
que
ayudemos
al
discente
a
analizar
y
valorar
estas
cuestiones.
•
Fuentes
legitimadas
en
la
eficacia:
partiendo
de
que
se
está
preparando
a
los
jóvenes
para
llevar
a
cabo
una
actividad
profesional,
así
como
para
adquirir
progresivamente
cierta
autonomía
de
aprendizaje,
ha
de
adiestrarse
también
cierta
destreza
a
la
hora
de
economizar
tiempo
y
esfuerzo
con
la
finalidad
de
obtener
unos
resultados
óptimos.
En
el
mercado
laboral
nuestro
futuro
profesional
no
podrá
siempre
disponer
de
los
medios
de
mayor
calidad
o
autoridad,
por
lo
que
será
necesario
utilizar
otros
que
os
ofrezcan
un
resultado
funcional
y
que
nos
permita
cumplir
los
objetivos
impuestos.
Web
2.0
Colocamos
bajo
la
etiqueta
de
Web
2.0
a
"todas
aquellas
utilidades
y
servicios
de
Internet
que
se
sustentan
en
una
base
de
datos,
la
cual
puede
ser
modificada
por
los
usuarios
del
servicio,
ya
sea
en
su
contenido
(añadiendo,
cambiando
o
borrando
información
o
asociando
datos
a
la
información
existente),
bien
en
la
forma
de
presentarlos,
o
en
contenido
y
forma
simultáneamente."
,
por
contraposición
a
la
Web
1.0.
Aunque
es
un
grupo
infinitamente
variado
y
complejo
atendiendo
a
la
forma
de
aplicación
en
el
aula
lo
clasificaremos
los
siguientes
grupos:
1.
Webs
basadas
en
software
para
wikis.
Éstas
tienen
mucho
en
común
con
las
Web
1.0
de
consulta,
ya
que
ofrecen
información
en
un
formato
similar
al
enciclopédico,
con
la
ventaja
añadida
de
que
favorecen
la
colaboración
y
el
debate
a
través
de
sistemas
asíncronos
de
comunicación
grupal,
como
los
foros.
Esta
participación
puede
ser
moderada,
pre-‐moderada
o
libre,
dependiendo
del
rigor
de
la
web
en
cuestión.
La
principal
ventaja
es
que
los
contenidos
se
actualizan
constantemente
y
son
vigilados
de
forma
colectiva,
por
lo
que
no
suelen
estar
sujetos
a
intereses
particulares
o
comerciales.
2.
Comunidades
virtuales
.
Una
comunidad
virtual
es
un
grupo
de
personas
unidas
por
un
interés
común
que
se
comunican
entre
sí
mediante
una
misma
plataforma
lo
que
les
permite
interactuar
de
forma
continuada
en
el
tiempo
siguiendo
conjunto
de
normas
preestablecidas
o
protocolo.
En
el
mundo
educativo
podemos
utilizar
comunidades
que
se
correspondan
con
grupos
creados
en
el
mundo
real
(grupos
de
trabajo,
de
aula,
de
área,
de
centro...)
y
que
utilizan
la
comunidad
como
una
herramienta
o
un
lugar
de
reunión,
o
comunidades
que
existan
únicamente
en
el
mundo
virtual
en
las
que
sus
miembros
no
tienen
una
relación
en
el
mundo
real
(grupos
de
aficionados
o
personas
que
comparten
intereses).
A
través
de
estas
comunidades
podemos
crear
un
aula
virtual
que
se
mantenga
activa
durante
los
días
que
trascurran
entre
las
clases
reales,
pudiendo
desplazar
hacia
ella
labores
como
la
recogida
y
entrega
de
materiales
o
la
realización
de
trabajos
en
grupo.
3.
Redes
sociales
.
Éstas
son
formas
evolucionadas
de
la
comunidad
virtual
que
llegan
a
asimilar
un
gran
número
de
actividades
propias
del
mundo
real
(relaciones
interpersonales,
académicas,
económicas...)
por
lo
que
la
regulación
se
vuelve
imprescindible.
Suele
aglutinar
una
gran
cantidad
de
recursos
11
comunicativos
que
intentan
imitar
al
mundo
real,
ya
que
la
finalidad
principal
es
facilitar
la
socialización.
Por
este
motivo
suelen
darse
fenómenos
de
indización
social,
por
lo
que
resulta
muy
útiles
para
generar
dinámicas
de
cohesión
en
los
grupos
de
alumnos,
especialmente
cuando
éstos
se
relacionan
únicamente
en
el
aula.
4.
Redes
sociales
que
incluyen
redes
de
net.working
Son
las
que
tienen
más
aplicaciones
en
el
mundo
académico,
aunque
enfocadas
siempre
alumnos
con
cierta
madurez
personal
y
suficiente
autonomía
de
trabajo.
Éstas
le
ofrecen
la
posibilidad
de
localizar
a
otros
usuarios
mediante
folcsonomías,
es
decir,
clasificaciones
colaborativas
de
personas
reales
por
medio
de
etiquetas
simples
que
el
propio
usuario
se
coloca,
dentro
de
un
espacio
de
nombres
llano,
sin
jerarquías
ni
relaciones
de
parentesco
predeterminadas.
En
estos
espacios
virtuales
tanto
alumnos
como
profesores
pueden
definir
lo
que
buscan
y
para
qué
quieren
que
les
busquen,
así
como
elegir
con
quién
quieren
relacionarse.
5.
Blogs
o
web-‐blogs.
El
blogging
es
una
de
las
prácticas
más
populares
de
Internet.
Un
concepto
tan
sencillo
como
la
actualización
de
los
antiguos
cuadernos
de
bitácora
permite
crear
un
diario
de
las
actividades
de
clase
que,
aunque
esté
moderado
por
el
propio
profesor,
puede
ser
actualizado
por
los
alumnos
y
les
permiten
estar
al
corriente
de
las
actividades
continuamente.
Cuanto
mayor
sea
la
colaboración
de
los
alumnos
más
útil
será
para
el
profesor
como
herramienta
de
supervisión
de
la
marcha
de
la
asignatura.
6.
Fotoblogs,
videoblogs,
audioblogs...
Blog
+
multimedia
Para
la
educación
musical
es
especialmente
interesante
contar
con
la
posibilidad
de
añadir
material
multimedia
a
ese
“diario
de
clase”.
En
estos
casos
las
posibilidades
son
infinitas:
pueden
incluirse
las
audiciones
realizadas
en
clase,
grabaciones
en
formato
audiovisual
de
las
actividades
realizadas
en
el
aula,
conciertos
de
alumnos,
animaciones
didácticas,
documentos
en
formatos
electrónicos,
simulaciones
virtuales,
enlaces
de
interés,
trabajos
realizados
por
los
alumnos...
7.
RSS
Éste
es
un
sencillo
formato
de
datos
que
es
utilizado
para
redifundir
contenidos
a
suscriptores
de
un
sitio
web
(llamados
feed
o
fuentes).
El
formato
permite
distribuir
contenido
sin
necesidad
de
un
navegador,
utilizando
un
software
diseñado
para
leer
únicamente
estos
contenidos
RSS
que
se
conoce
como
“agregador”,
aunque
es
posible
utilizar
el
mismo
navegador
para
ver
los
contenidos
RSS.
Las
últimas
versiones
de
los
principales
navegadores
permiten
leer
los
RSS
sin
necesidad
de
software
adicional.
Este
formato
forma
parte
de
la
familia
XML
desarrollado
específicamente
para
todo
tipo
de
sitios
que
se
actualicen
con
frecuencia
y
por
medio
del
cual
se
puede
compartir
la
información
y
usarla
en
otros
sitios
web
o
programas.
A
esto
se
le
conoce
como
redifusión
web
o
sindicación
web
o
feedburning.
En
nuestras
actividades
de
clase
podremos
utilizar
estas
aplicaciones
especialmente
como
herramienta
de
control,
ya
que
nos
permite
conocer
en
tiempo
real
el
estado
de
las
actividades
de
nuestra
comunidad
virtual,
por
lo
que
resulta
especialmente
útil
para
tener
un
registro
de
entregas
de
trabajos
o
cumplimiento
de
plazos
por
parte
de
los
alumnos/usuarios.
Este
tipo
de
aplicación
podemos
utilizarla
desde
el
PC
centrar
del
aula,
otro
PC
o
el
propio
teléfono
móvil.
12
“Sindicación”:
Syndication,
podcasting
,
broadcasting
&
P2P
La
palabra
“sindicación”
es
un
barbarismo
muy
popular
en
España
que
apareció
mediante
la
hispanización
errónea
de
la
palabra
“syndication”
inglesa.
Ésta
significa
literalmente
“difusión”.
En
el
caso
de
los
medios
de
comunicación
hablamos
de
redifusión
ya
que
los
contenidos
se
envían
en
primera
instancia
a
un
nodo
que
a
su
vez
vuelve
a
enviarlo
a
los
usuarios.
Estos
nodos
de
acceso
multiservicio
pueden
ser
vía
satélite
o
mediante
los
diferentes
sistemas
de
tierra
(fibra
óptica,
cable
coaxial,
etc).
Siempre
que
hablemos
de
la
W.W.W.
la
traducción
correcta
sería
“redifusión
web”.
La
redifusión
web
puede
tomar
una
infinidad
de
formas,
pero
las
más
habituales
son
las
siguientes:
I. La
descarga
directa
del
servidor
es
la
más
simple
ya
que
es
aquella
en
la
que
el
usuario
mediante
un
enlace
de
acceso
solicita
el
archivo
al
sistema
que
gestiona
el
servidor.
Para
ello
es
necesario
tener
de
antemano
ese
enlace
o
que
éste
figure
en
algún
índice
o
directorio.
II. El
broadcasting
es
el
sistema
que
se
parece
más
a
los
medios
de
comunicación
de
masas
convencionales,
como
la
radio
y
la
TV.
De
hecho,
muchas
de
las
páginas
web
broadcast
reciben
directamente
esos
nombres,
es
decir,
radio
online
o
televisión
online.
En
el
broadcasting
el
usuario
no
se
descarga
el
archivo
completo
a
su
disco
duro,
sino
que
lo
va
recibiendo
de
forma
fragmentada
y
temporal,
sólo
durante
el
tiempo
de
emisión.
III. El
podcasting
se
diferencia
del
anterior
en
que
el
usuario
puede
descargar
el
archivo
completo
del
programa
de
TV,
radio,
película,
canción,
etc
y
utilizarlo
cuando
lo
desee.
Si
hablamos
de
música
es
la
redifusión
Web
de
archivos
de
sonido,
normalmente
.MP3
u
.OGG,
con
un
sistema
RSS,
que
permite
suscribirse
y
descargar
música
de
forma
automática
y
periódica
sin
que
sea
necesario
visitar
otra
página
web
individualmente
para
escuchar
el
archivo
de
sonido.
El
más
utilizado
es
la
versión
del
iTunes
con
soporte
podcasting.
Se
utiliza
este
término
en
contraposición
al
broadcasting,
es
decir,
la
difusión
de
un
medio
de
comunicación
masivo
que
no
permite
la
interacción
de
ningún
tipo.
Obviamente
es
mucho
más
útil
dentro
del
mundo
académico
ya
que
el
discente
puede
seleccionar
la
música
que
desea
escuchar,
ya
sea
por
una
cuestión
de
gusto
personal
o
por
encontrarse
realizando
algún
trabajo
de
investigación.
IV. El
sistema
de
intercambio
entre
usuarios,
P2P
o
Peer
to
peer.
Es
un
sistema
de
intercambio
de
archivos
descentralizado,
es
decir,
a
diferencia
de
los
otros
sistemas
que
se
basan
en
el
trasvase
del
servidor
al
usuario
las
plataforma
P2P
ponen
en
contacto
a
los
diferentes
usuarios
para
que
el
trasvase
se
dé
directamente
entre
los
seeds,
los
usuarios
que
tienen
el
archivo
demandado
en
su
disco
duro,
y
los
leechers
que
son
los
que
lo
demandan
y
lo
descargan
al
suyo
propio.
En
el
momento
que
el
archivo
se
ha
descargado
completamente
el
software
marca
a
ese
usuario
como
nuevo
seed.
El
primero
en
convertirse
en
un
fenómeno
masivo
fue
Napster,
aunque
posteriormente
han
aparecido
múltiples
variantes
cada
vez
más
evolucionadas
como
eMule,
Kazaa,
bitTorrent
que
han
causado
multitud
de
problemas
legales
por
no
respetar
las
leyes
de
Copyright
de
los
diferentes
países.
También
se
utiliza
la
tecnología
P2P
para
aplicaciones
de
comunicación
mediante
audio
y
video
que
persiguen
el
trabajo
en
tiempo
real
como
Skype
o
VoIP
y,
en
música,
para
las
sesiones
de
improvisación
colectiva
online
o
iJams.
Siempre
que
utilicemos
música
en
la
W.W.W.
tenemos
que
tener
en
cuenta
el
marco
legal
referente
a
los
derechos
legales
de
los
músicos
que
la
crean.
Los
derechos
de
los
compositores
están
enmarcados
en
los
Derechos
de
Autor,
que
son
los
que
se
le
reconocen
a
cualquier
persona
que
cree
13
una
obra
literaria,
científica,
didáctica
o
artística.
Estos
derechos
se
reconocen
esté
la
obra
publicada
o
continúe
inédita,
y
pueden
clasificarse
en
Derechos
Morales
y
Derechos
Patrimoniales.
Los
Derechos
Morales
del
compositor
se
refieren
a
dos
aspectos
concretos:
el
Derecho
de
Autoría,
por
el
que
la
sociedad
ha
de
reconocer
públicamente
la
“paternidad”
de
determinada
persona
de
la
obra
musical
que
ha
creado
y,
por
otra
parte,
la
capacidad
decisoria
de
esa
persona
sobre
la
integridad
de
la
obra,
la
posibilidad
de
ser
utilizada
para
crear
otras
obras
basadas
en
ella,
su
fragmentación
o
su
modificación
total
o
parcial.
Estos
están
más
allá
del
régimen
político
o
económico
del
país
originario
del
artista,
ya
que
la
mayor
parte
de
las
naciones
del
planeta
han
firmado
el
Convenio
de
Berna
para
la
Protección
de
las
Obras
Literarias
y
Artísticas,
o
Tratado
de
Berna.
Éste
es
un
tratado
internacional
sobre
la
protección
de
los
derechos
de
autor
y,
por
tanto,
del
compositor.
Su
primer
texto
fue
firmado
el
9
de
septiembre
de
1886
en
Suiza,
en
la
ciudad
de
Berna.
Ha
sido
completado
y
revisado
en
varias
ocasiones,
siendo
enmendado
por
última
vez
el
28
de
septiembre
de
1979.
Según
este
tratado
los
derechos
de
un
compositor
están
relacionados
con
los
Derechos
Humanos
referentes
al
derecho
a
la
dignidad
de
todos
los
seres
humanos
y
por
tanto
son:
• Esenciales:
constituyen
el
mínimo
de
derechos
exigibles
por
parte
de
un
ser
humano
sobre
una
creación
intelectual.
• Extrapatrimoniales:
no
pueden
hacerse
estimaciones
ni
tasaciones
del
valor
monetario
de
los
mismos.
• Inexpropiables:
no
pueden
ser
adquiridos
en
un
sistema
de
libre
mercado
ni
pueden
ser
embargados
por
parte
de
un
estado
o
una
institución
de
la
persona
que
los
ostenta.
• Imprescriptibles:
no
son
caducos
ni
pueden
perderse
por
prescripción
de
plazos,
aunque
algunos
pueden
heredarse
temporalmente
junto
con
los
Derechos
Patrimoniales.
• Inalienables:
el
dueño
de
esos
derechos,
o
derechohabiente,
puede
vender,
ceder
o
transferir
los
derechos
patrimoniales,
pero
no
puede
hacer
lo
mismo
con
los
morales,
por
lo
que
tampoco
es
legítimo
que
otra
persona
trate
de
adquirirlos
del
derechohabiente.
• Irrenunciables:
aunque
el
compositor
se
muestre
pasivo
a
ejercer
esos
derechos,
no
puede
renunciar
activamente
a
ellos
voluntariamente,
del
mismo
modo
que
ningún
ser
humano
puede
renunciar
a
su
derecho
a
la
dignidad.
Los
Derechos
Patrimoniales
de
un
compositor
son
los
susceptibles
de
tener
un
valor
económico,
y
se
subdividen
en
reales,
personales
y
derechos
intelectuales.
Este
tipo
de
derechos
son
limitados,
pues
expira
a
los
70
años
de
la
muerte
del
autor.
Si
el
compositor
tiene
descendientes,
éstos
heredan
los
derechos
patrimoniales
y
morales,
pero
si
no
existiera
ningún
descendiente
pasaría
a
ser
de
dominio
público.
Estos
derechos
han
sufrido
un
proceso
de
implantación
a
lo
largo
de
la
historia
moderna
y
contemporánea.
La
naturaleza
de
las
artes
dinámicas
(teatro,
danza
y
música)
requiere
que
sean
recreadas
por
intérpretes
constantemente,
por
lo
que
para
los
compositores
la
recreación
siempre
ha
requerido
de
una
mayor
prioridad
que
la
reproducción.
A
pesar
de
ello
con
la
llegada
de
la
imprenta
y
la
difusión
masiva
de
las
partituras
y
las
tablaturas
entre
el
público
empezó
a
ser
necesario
aclarar
estas
cuestiones
a
fin
de
poder
utilizar
las
ventajas
que
este
nuevo
canal
ofrecía.
En
el
siglo
XV
ya
habían
existido
disputas
sobre
la
propiedad
intelectual
y
los
derechos
de
reproducción
famosas
entre
intelectuales
como
las
de
Antonio
Nebrija
en
la
Universidad
de
Salamanca,
pero
usualmente
se
fecha
el
nacimiento
del
derecho
de
autor
y
del
derecho
de
copia
durante
el
siglo
XVIII.
Éste
fue,
el
primer
autor
en
reclamar
derechos
de
autor
en
el
mundo
occidental,
mucho
antes
que
el
Estatuto
de
Anne
de
1710
del
Reino
Unido
o
las
disputas
de
1662
en
las
que
interfirió
la
Unión
de
las
Coronas.
Fue
en
Inglaterra
donde,
en
el
siglo
XVIII,
los
editores
de
obras
o
14
impresores
argumentaban
la
existencia
de
un
derecho
a
perpetuidad
a
controlar
la
copia
de
los
libros
que
habían
adquirido
de
los
autores,
es
decir,
reclamaban
que
habiendo
comprado
al
autor
su
autorización
para
imprimirlo,
éste
tuviera
que
respetar
ese
contrato
y
no
pudiera
ofrecerle
la
misma
obra
a
otro
librero.
El
Estatuto
de
la
Reina
Ana
fue
aprobado
por
el
parlamento
inglés
en
1710
y
fue
la
primera
norma
sobre
copyright
de
la
historia.
Esta
ley
establecía
que
todas
las
obras
publicadas
recibirían
un
plazo
de
derechos
de
copia
de
14
años,
renovable
por
una
vez
si
el
autor
se
mantenía
con
vida,
por
lo
que
podían
llegar
a
28.
Por
otra
parte
todas
las
obras
publicadas
antes
de
1710
recibirían
un
plazo
único
de
21
años
a
contar
de
esa
fecha.
El
dominio
público
en
el
derecho
anglosajón
nació
de
facto
en
1774,
tras
el
caso
Donaldson
contra
Beckett
en
que
se
discutió
la
existencia
del
copyright
a
perpetuidad
Otros
países
de
influencia
anglosajona
como
Australia,
India,
los
Reinos
de
Ultramar
o
los
Estados
Unidos
de
América
adoptaron
el
sistema
británico.
Por
ejemplo
la
Constitución
estadounidense
de
1787,
en
el
artículo
I,
sección
8,
cláusula
8,
la
llama
“Cláusula
del
Progreso”,
permite
establecer
en
favor
de
los
autores
"derechos
sobre
la
propiedad
creativa"
por
tiempo
limitado.
En
1790,
el
Congreso
de
Estados
Unidos
promulgó
la
primera
acta
sobre
el
derecho
a
copia,
creando
un
sistema
federal
de
copyright
y
protegiéndolo
por
un
plazo
de
catorce
años,
renovable
por
igual
término
si
el
autor
estaba
vivo
a
su
vencimiento.
Si
no
existía
renovación,
su
obra
pasaba
al
dominio
público.
Mientras
en
Estados
Unidos
los
derechos
intelectuales
patrimoniales
se
convirtieron
en
un
derecho
de
propiedad
comerciable,
en
Francia
y
Alemania
se
desarrolló
una
línea
jurídica
bajo
la
idea
de
expresión
única
del
autor.
Emmanuel
Kant
decía
que
una
obra
de
arte
no
puede
separarse
de
su
autor,
y
por
ello
se
mostraba
reticente
a
emanciparla
del
escritor
o,
como
en
nuestro
caso,
del
compositor.
En
1790,
las
obras
protegidas
por
la
Copyright
Act.
de
Estados
Unidos
eran
sólo
los
"mapas,
cartas
de
navegación
y
libros"
(no
cubría
las
obras
musicales
o
de
arquitectura).
Este
copyright
otorgaba
al
autor
el
derecho
exclusivo
a
publicar
las
obras,
por
lo
que
sólo
se
violaba
tal
derecho
si
reimprimía
la
obra
sin
el
permiso
de
su
titular.
Además,
este
derecho
no
se
extendía
a
las
"obras
derivadas"
(era
un
derecho
exclusivo
sobre
la
obra
en
particular),
por
lo
que
no
impedía
las
traducciones
o
adaptaciones
de
dicho
texto.
Con
los
años,
el
titular
del
copyright
obtuvo
el
derecho
exclusivo
a
controlar
cualquier
publicación
de
su
obra.
Sus
derechos
se
extendieron,
de
la
obra
en
particular,
a
cualquier
obra
derivada
que
pudiera
surgir
en
base
a
la
"obra
original".
En
1777
fue
fundada
en
Francia
una
organización
para
luchar
por
el
reconocimiento
de
los
derechos
de
los
autores,
impulsada
por
Beaumarchais
pero
esta
encontró
en
el
Antiguo
Régimen
un
muro
ya
que
el
dotar
a
los
librepansadores
y
artistas
de
la
posibilidad
de
controlar
sus
obras
y
recibir
un
dinero
que
les
diera
independencia
a
cambio
era
opuesto
a
los
intereses
de
la
nobleza
y
la
aristocracia.
Hasta
ese
momento
los
artistas,
científicos
y
filósofos
y,
por
tanto,
los
compositores
sólo
podían
lograrse
un
sustento
que
les
permitiera
llevar
a
cabo
su
actividad
profesional
si
pasaban
a
ser
los
criados
o
maestros
artesanos
al
servicio
de
casas
nobiliarias
o
arzobispados.
No
debemos
olvidar
que
el
propio
Joseph
Haydn
iba
vestido
con
el
uniforme
de
criado,
un
lacayo
de
librea
como
cualquier
otro
que
portaba
en
la
solapa
una
aguja
con
una
lira
que
servía
para
marcar
a
los
músicos
dentro
del
palacio,
y
bajaba
a
cenar
a
las
cocinas
con
los
otros
criados
cuando
terminaba
de
tocar
en
las
velada
de
sus
señores.
Hubo
que
esperar
al
final
de
la
Revolución
Francesa
para
que
la
Asamblea
Nacional
aprobara
la
primera
Loi
du
droit
d'auteur
en
1791,
el
mismo
año
de
la
muerte
de
Mozart,
comenzando
una
oleada
de
aprobaciones
de
leyes
similares
en
aquellos
países
que
querían
garantizar
que
sus
artistas
e
intelectuales
pudieran
trabajar
libremente.
Actualmente
la
protección
de
estas
cuestiones
recae
en
la
Convención
Universal
sobre
Derechos
de
Autor,
firmada
por
todos
los
miembros
de
la
Organización
de
las
Naciones
Unidas
y
publicada
en
1952,
siendo
competencia
de
la
Organización
de
las
Naciones
Unidas
para
la
Educación,
la
Ciencia
y
la
Cultura.
15
En
el
caso
español
el
Gobierno
se
ha
visto
forzado
a
implantar
unas
medidas
de
control
mínimas
ante
la
presión
de
estos
organismos
internacionales,
ya
que
aún
no
se
habían
tomado
cartas
en
la
implantación
del
Convenio
de
Berna.
Tras
una
serie
de
conflictos
aparecidos
en
la
opinión
pública
y
la
realización
de
amenazas
hacia
los
diputados
del
congreso
en
los
días
anteriores
en
la
votación,
la
medida
se
ratificó
directamente
en
el
Senado.
La
Ley
2/2011,
de
4
de
marzo,
de
Economía
Sostenible
es
un
conjunto
de
modificaciones
a
implantar
en
leyes
anteriores,
y
comienza
diciendo:
“DISPOSICIÓN
FINAL
CUADRAGÉSIMA
TERCERA.
Modificación
de
la
Ley
34/2002,
de
11
de
julio,
de
Servicios
de
la
Sociedad
de
la
Información
y
de
Comercio
Electrónico,
el
Real
Decreto
Legislativo
1/1996,
de
12
de
abril,
por
el
que
se
aprueba
el
Texto
Refundido
de
la
Ley
de
Propiedad
Intelectual
y
la
Ley
29/1998,
de
13
de
julio,
reguladora
de
la
Jurisdicción
Contencioso-‐administrativa,
para
la
protección
de
la
propiedad
intelectual
en
el
ámbito
de
la
sociedad
de
la
información
y
de
comercio
electrónico.
Uno.
Se
introduce
una
nueva
letra
e)
en
el
artículo
8.1
de
la
Ley
34/2002,
de
11
de
julio,
de
Servicios
de
la
Sociedad
de
la
Información
y
de
Comercio
Electrónico
con
el
siguiente
tenor:
e)La
salvaguarda
de
los
derechos
de
propiedad
intelectual.”
Aunque
resulta
sorprendente,
en
el
marco
legal
español
no
se
había
incluido
aún
una
ley
que
señalara
las
competencias
del
estado
en
la
protección
a
los
autores.
Software
Software
D.A.W.
Se
conocen
con
este
nombre
a
todos
aquellos
programas
informáticos
que
tienen
como
fin
principal
el
de
trabajar
con
sonido
en
formato
digital
de
cualquier
tipo,
y
de
ahí
su
nombre
(Digital
Audio
Workstation).
Aunque
originalmente
se
presentaban
en
forma
independiente
los
editores
de
audio
y
los
secuenciadores
(de
audio
o
MIDI)
actualmente
suelen
presentarse
todas
las
aplicaciones
dentro
del
mismo
programa.
Las
últimas
versiones
ofrecen
la
posibilidad
de
insertar
audio
proveniente
de
sonido
real
digitalizado
por
un
transductor,
archivos
preexistentes
o
archivos
en
formato
MIDI,
bien
preexistentes
o
bien
insertados
en
tiempo
real
por
controladores
MIDI
de
cualquier
tipo).
Recientemente
se
ha
añadido
la
posibilidad
de
utilizar
plug-‐ins
VST,
lo
que
le
permite
a
los
alumnos
16
ofrecer
creaciones
musicales
de
una
gran
calidad
a
través
de
medios
realmente
económicos.
Actualmente
los
más
populares
son
Adobe
Audition
,
Wavelab,
Soundforge,
Bias
Peak,
Spark,
Cubase,
Logic
Pro,
Pro
Tools,
Digital
Performer,
Sonar,
Fruity
Loops,
Ableton
Live,
Reason,
etc.
Al
contar
con
este
gran
abanico
no
es
difícil
encontrar
algún
programa
que
se
adapte
perfectamente
a
las
necesidades
de
nuestros
alumnos
y
a
los
medios
informáticos
de
los
que
dispongamos.
Es
cierto
que
la
aplicación
más
clara
es
su
utilización
en
las
asignaturas
relacionadas
con
la
composición
donde
ofrecemos
a
los
discentes
una
forma
de
expresión
que
les
permite
manipular
personalmente
no
sólo
todos
los
parámetros
de
la
composición,
sino
también
de
la
interpretación
final
o
la
presentación
de
la
obra
en
una
grabación.
Además
de
eso
se
abre
un
inmenso
campo
de
posibilidades
en
el
mundo
del
análisis
ya
que
podemos
realizar
actividades
que
tradicionalmente
quedaban
limitadas
a
lo
puramente
auditivo,
reforzándolas
con
visualizaciones
del
sonido
que
se
está
percibiendo
en
ese
instante
(en
forma
de
onda
y
frecuencia
espectral,
en
panorámica
y
fase),
lo
que
favorece
significativamente
el
aprendizaje
al
hacer
que
trabajen
sinérgicamente
la
memoria
auditiva
y
la
visual.
Por
este
motivo
puede
utilizarse
en
campos
tan
diferentes
como
el
entrenamiento
auditivo,
trascripción
de
partituras,
análisis
de
obras
musicales
o
de
arte
sonoro,
autoedición
de
grabaciones,
autoevaluación
de
la
interpretación
instrumental
o
vocal...
Software
Ofimático
Éste
es
posiblemente
el
que
se
encuentra
más
extendido
día
de
hoy,
ya
que
se
utiliza
en
todas
las
áreas.
La
creación
de
documentos
en
soporte
informático,
sea
éste
el
que
sea,
es
una
de
las
herramientas
básicas
de
cualquier
estudiante,
así
como
de
cualquier
profesional.
En
educación
musical
ha
de
empujársele
hacia
ello
como
en
cualquier
otra,
haciendo
especial
hincapié
en
las
herramientas
propias
de
nuestro
campo.
Todas
las
asignaturas
relacionadas
con
el
estudio
de
la
historia
la
música
se
agilizan
y
enriquecen
cuando
la
clase
está
centralizada
en
exposiciones
multimedia
(tipo.pps)
en
las
que
las
audiciones,
las
imágenes,
los
videos...
están
insertados
siguiendo
un
orden
lógico,
evitando
los
problemas
típicos
que
aparecen
al
utilizar
diferentes
soportes
simultáneamente
(Pc,
DVD,
equipo
Hi-‐fi,
fotocopias,
libros...)
y
creando
una
experiencia
inmersiva
que
canalice
toda
la
atención
hacia
el
punto
que
el
profesor
desee.
La
sustitución
de
las
tradicionales
fotocopias
por
documentos
tipo
e-‐book
o
e-‐score
posibilita
la
replicación
de
estos
sin
estar
sujetos
a
condicionantes
materiales
como
puede
ser
el
coste
económico,
la
localización
de
los
originales,
el
volumen
de
objeto
físico,
el
deterioro
etc.
Por
otra
parte
la
tendencia
actual
es
que
los
materiales
creados
especialmente
para
estos
soportes
sean
también
interactivos
por
lo
que
ofrece
muchas
más
posibilidades
en
los
formatos
en
papel.
17
e-‐Docs.
Una
variante
son
las
aplicación
de
edición
online
de
documentos,
que
son
tremendamente
útiles
para
realizar
trabajo
colaborativo
en
grupo,
ya
que
permite
editar
el
mismo
documento
al
mismo
tiempo
desde
diferentes
ordenadores
conectados
a
la
red.
La
plataforma
más
popular
actualmente
es
Google
docs.
Software
Educativo.
Son
estos
programas
los
que
realmente
mejoran
exponencialmente
el
rendimiento
del
trabajo
de
los
alumnos.
Cuanto
más
se
acercan
estos
a
la
estética
y
el
protocolo
de
los
videojuegos
más
motivación
encuentran
los
alumnos
jóvenes
para
acercarse
a
ellos.
La
posibilidad
de
competir
en
la
superación
de
niveles,
la
acumulación
de
puntos
o
el
establecimiento
de
nuevos
récords,
consigue
que
niños
y
jóvenes
introduzcan
la
realización
de
ejercicios
entre
sus
actividades
de
ocio,
consiguiendo
por
fin
eliminar
el
condicionamiento
negativo
que
existe
hacia
tareas
que
resultan
rutinarias,
torpes
y
pesadas
si
se
realizan
utilizando
los
métodos
tradicionales.
Hardware
Los
recursos
de
hardware
que
necesitaríamos
en
un
aula
de
música
en
la
que
se
quisieran
explotar
al
máximo
las
posibilidades
de
estas
aplicaciones
sería:
• Una
Pizarra
Digital
Interactiva,
o
cañón
proyector.
• Un
tablet
Pc
por
alumno
o,
en
su
defecto,
un
puesto
informático.
• Micrófonos
con
conversores
a
audio
digital
integrados.
• Cámara
de
video
digital,
o
web
cam.
• Conjunto
de
altavoces
5.1
o
7.1
correctamente
distribuidos
en
el
aula.
• Ordenador
personal
central
del
aula.
18
“sustituir”
al
profesor,
sino
para
darle
a
éste
la
oportunidad
de
impartir
un
mayor
cantidad
de
contenidos
y
conseguir
a
la
vez
una
mejora
significativa
en
la
enseñanza
tanto
en
calidad
como
en
eficacia.
La
utilización
plena
de
estas
tecnologías
nos
ofrece
la
posibilidad
de
emanciparnos
totalmente
de
trabajo
sobre
papel,
ya
que
se
forma
una
pequeña
red
de
intranet
desde
la
que
el
profesor
puede
supervisar,
controlar
o
corregir
las
actividades
de
los
alumnos
en
cualquier
momento.
Si
además
se
cuenta
con
una
conexión
a
Internet
cabe
la
posibilidad
de
realizar
un
volcado
continuo
de
las
actividades
que
se
están
llevando
a
cabo
en
clase
(tanto
las
exposiciones
del
profesor,
como
todos
los
documentos
que
se
utilizan
o
los
ejercicios
realizados
por
los
propios
alumnos)
a
un
servidor,
haciendo
realmente
sencillo
acceder
en
cualquier
momento
a
estas
actividades
desde
una
web
2.0,
cerrando
así
un
ciclo
que
termina
para
siempre
con
todos
los
problemas
asociados
a
libros,
cuadernos,
apuntes
y
fotocopias,
como
son
el
deterioro,
el
extravío,
el
coste
económico,
su
transporte,
la
necesidad
de
presentar
los
trabajos
realizados
físicamente,
la
imposibilidad
de
acceder
a
los
materiales
cuando
un
alumno
no
puede
personarse
en
el
centro
o
el
gran
coste
que
supone
para
el
ecosistema.
Aunque
para
los
profesores
que
hayan
estudiado
con
anterioridad
a
la
aparición
de
esta
tecnología
,su
complejidad
y
novedad
puedan
resultar
abrumadoras,
y
aparezca
la
tentación
de
escudarse
en
los
prejuicios
clásicos
para
evitar
la
actualización,
es
un
hecho
que
las
enseñanzas
musicales
necesitan
de
todos
los
recursos
que
puedan
resultar
de
ayuda.
Además,
estas
formas
de
expresarse
y
de
relacionarse
con
la
música
forman
parte
de
la
vida
de
los
niños
y
los
jóvenes
de
hoy.
No
podemos,
ni
debemos,
negárselas.
19
BIBLIOGRAFÍA
Cook,
Nicholas.
The
Cambridge
Companion
to
Recorded
Music.
Cambridge,
Cambridge
University
Press,
2009.
Collins,
Nicholas
&
D’Escrivan,
Julio.
The
Cambridge
Companion
to
Recorded
Music.
Cambridge,
Cambridge
University
Press,
2010.
Rasskin,
Martin.
Música
virtual.
Madrid,
SGAE
&
Ed.
Anaya,
1994.
Rumsey,
Francis
&
McCormick,
Tim.
Sound
&
Recording.
Oxford,
Jordan
Hill,
2009.
Vázquez
González,
María.
Aplicaciones
de
las
nuevas
tecnologías
de
la
información
y
de
la
comunicación
en
la
educación
musical.
Madrid,
Editorial
Grupo
Buho,
2007.
VV.AA.
Logic
Pro
9.
Manual
de
usuario.
L.A.,
Apple
Inc.
2010.
20