Está en la página 1de 20

Las

 TIC  aplicadas  a  la  educación  musical.  


Contenidos  educativos  abiertos.  
Aplicaciones  de  la  Web  2.0  para  la  
enseñanza  musical:  WeBlog,  wiki,  
sindicación  y  agregación,  podcast…  
 
 
 
 
 
 
Introducción  
 
Este  texto  expone  las  conclusiones  de  una  serie  de  experiencias  educativas  llevadas  a  cabo  en  
los   últimos   años   en   las   que   se   ha   buscado   compensar   las   dificultades   específicas   de   la   educación  
musical   en   todos   los   niveles   del   sistema   educativo   actual.   Con   este   fin   se   señalan   algunas   de   las  
debilidades   de   los   estudios   oficiales   de   música   para   proponer   a   continuación   aplicaciones   de   las  
nuevas   tecnologías   de   la   información   y   la   comunicación   que   ayudan   a   superar   estas   dificultades   a   la  
vez  que  enriquecen  inmensamente,  no  solo  el  proceso  de  enseñanza  y  aprendizaje,  si  no  la  forma  de  
entender  la  música  contemporánea  y  relacionarse  con  ella.    
Analizando  el  marco  legal  vigente  del  sistema  educativo  español    para  enmarcar  el  estado  real  
de   los   estudios   musicales,   así   como   los   reales   decretos   que   determinan   las   enseñanzas   mínimas   en  
todo   el   territorio   nacional   y   algunos   ejemplos   de   desarrollos   curriculares   han   llamado   la   atención  
sobre  los  siguientes  aspectos:  
En  la  Educación    Infantil  y  Primaria  ,  se  imparten  seis  cursos  de  educación  artística,  en  la  que  
los   dos   bloques   de   contenidos   que   corresponden   a   música   han   de   impartirse   en   una   única   sesión  
semanal  de  unos  50  minutos.  En  esta  situación  el  profesorado  se  encuentra  seriamente  limitado,  por  lo  
que   se   ve   en   la   obligación   de   recortar   los   contenidos   a   impartir,   y   limitar   drásticamente   las  
actividades,  por  lo  que  no  se  alcanzan  los  objetivos  impuestos  por  el  currículo.  Como  consecuencia  de  
esto  los  profesores  de  música  de  los  centros  de  secundaria  no  pueden  comenzar  su  asignatura  donde  
deberían   y   se   ven   obligados   a   retomar   los   contenidos   de   primaria.   Aunque   el   horario   de   esta  
asignatura  se  ha  fijado  de  forma  desigual  en  las  diferentes  comunidades  autónomas,  lo  general  es  que  
se   limite   a   dos   cursos   con   dos   sesiones   semanales,   un   curso   vacío,   y   una   optativa   de   tres   sesiones  
semanales   que   se   imparte   en   unos   pocos   centros.   Desgraciadamente   los   objetivos   tampoco   alcanzan   a  
cumplirse   en   la   Educación   Secundaria   Obligatoria   .   En   los   casos   en   los   que   existen   una   continuidad  
unos  pocos  alumnos  vuelve  a  tener  la  asignatura  de  música  en  Bachillerato    donde,  exceptuando  a  los  
discentes  que  tienen  estudios  profesionales  de  música,  los  resultados  son  altamente  insatisfactorios.  
Aunque   de   diferentes   dimensiones,   nos   encontramos   básicamente   el   mismo   problema   al  
analizar   las   Enseñanzas   Elementales   y   Profesionales   de   Música   :   han   de   abordarse   una   enorme  
cantidad  de  contenidos  y  el  horario  lectivo  es  muy  limitado.  Cuando  hablamos  de  estudios  superiores  y  
a   pesar   de   que   son   los   profesores   los   que   delimitan   los   contenidos   de   las   áreas,   los   diplomados   en  
Magisterio   (esp.   Música),   licenciados   en   Historia   y   Ciencias   de   la   música   e   Historia   del   Arte   y  
Profesores   Superiores   de   Música   cargan   con   enormes   lagunas,   especialmente   en   los   contenidos   que   se  
encuentran   en   las   últimas   unidades   didácticas   de   las   programaciones   de   cada   curso   que,   al   estar  
secuenciadas   de   forma   cronológica   siguiendo   la   historia   de   la   música   o   la   evolución   de   la   técnica  
musical,  suelen  estar  destinadas  a  las  manifestaciones  musicales  más  recientes.  Contra  lo  prescrito  por  
el   sistema   educativo   y   exceptuando   la   labor   de   unos   pocos   profesores   que   se   esfuerzan   en   crear  
asignaturas  optativas  monográficas,    no  se  llega  a  estudiar  lenguaje  musical  del  siglo  XX,  ni  armonía  del  
siglo  XX,  ni  contrapunto  del  siglo  XX,  ni  análisis  musical  de  música  del  siglo  XX,  ni  estética  musical  del  
siglo  XX,  ni  historia  de  la  música  del  siglo  XX,  ni  manifestaciones  musicales  aparecidas  en  el  siglo  XX  
como  pueden  ser  las  músicas  populares  urbanas,  etc.  Es  decir,  los  alumnos  son  abandonados  a  un  siglo  
de   distancia   de   esa   realidad   musical   donde   serán   el   público,   los   maestros,   los   profesores   y   los   músicos  
en  el  futuro.    
La   educación   musical   es   un   proceso   que   se   caracteriza   por   ser   especialmente   largo   y   complejo.  
En   cualquiera   de   sus   versiones   (estimulación   musical   temprana,   educación   musical   en   primaria   y  
secundaria,  estudios  de  magisterio  musical,  historia  y  ciencias  de  la  música,  o  estudios  específicos  de  

  2  
música   y   artes   escénicas...)   el   discente   ha   de   enfrentarse   a   una   gran   cantidad   de   contenidos.   Tareas  
como   dictados,   lectura   de   partituras,   identificación   de   escalas   e   intervalos,   codificación   de   cifrados,  
realización   de   armonizaciones,   prácticas   de   contrapunto,   transposición...   absorben   una   parte   muy  
importante  del  tiempo  que  se  destina  a  las  clases,  cuando  no  son  más  que  un  entrenamiento  musical,  
ciertamente   necesario   pero   no   por   ello   menos   rutinario.   A   día   de   hoy   asignaturas   como   lenguaje  
musical,  armonía,  análisis  musical  o  fundamentos  de  composición  dedican  a  la  corrección  de  ejercicios  
y   la   escritura   en   papel   de   estos   la   mayor   parte   de   su   tiempo,   por   lo   que   el   avance   se   vuelve   lento   y  
tedioso.  Éste  es  uno  de  los  motivos  principales  de  por  qué  rara  vez  se  avanza  en  su  aprendizaje  más  
allá  de  las  técnicas  propias  de  los  siglos  XVIII  y  XIX.  

Aplicaciones  de  las  NTIC’s.  En  el  aula  de  música.  


 

En   las   siguientes   páginas   analizaremos   por   separado   las   diferentes   formas   en   las   que   optimizan   el  
resultado   del   proceso   educativo   cada   una   de   las   aplicaciones   que   se   han   utilizado   para   llevar   a   cabo  
actividades  programadas  dentro  de  un  proceso  enseñanza  musical.  Han  participado  desde  niños  de  6  
años   hasta   profesores   de   magisterio   o   grado   profesional   de   música   de   hasta   30   años   y,   lejos   de  
requerir   una   gran   madurez   intelectual   por   parte   de   los   alumnos,   han   encontrado   la   mejor   acogida  
entre  los  más  jóvenes,  concretamente  en  el  grupo  de  discentes  que  se  encuentra  entre  los  12  y  los  16  
años  de  edad.  La  inclinación  de  los  jóvenes  hacia  las  nuevas  tecnologías  parece  ser  lo  mas  habitual  en  
nuestro  país  .  

Contenidos  educativos  abiertos.  


A   nivel   global   es   necesario   resaltar   una   serie   de   ventajas   que   aporta   la   utilización   de   medios  
informáticos  en  el  aula:  
1º.   La   velocidad   en   la   adquisición   de   contenidos   llega   a   aumentar   de   forma   sorprendente   al  
ofrecer  un  aprendizaje  mucho  más  estimulante,  motivador  y  dinámico.  
2º.   La  independencia  operativa  del  alumno  dota  al  proceso  de  una  gran  flexibilidad,  permitiendo  
que  él  mismo  adecue  la  velocidad  de  aprendizaje  a  sus  necesidades  e  intereses.  
3º.   La   complementariedad   de   estos   medios   permite   insertarlos   progresivamente   en   la   práctica  
docente   del   aula   por   lo   que   la   remodelación   de   las   actividades   es   progresiva.   El   trabajo   de  
actualización   del   docente   puede   llevarse   a   cabo   poco   a   poco,   ya   que   la   esencia   de   los   contenidos   no  
varía.  
4º.   Las  metodologías  derivadas  de  la  utilización  de  estas  nuevas  tecnologías  empujan  a  los  jóvenes  
a   trabajar   de   forma   cooperativa,   interactiva,   colaborativa   y   solidaria,   ya   que   reconducen   la  
competitividad  hacia  el  propio  ordenador,  ya  que  es  a  él  al  que  deben  vencer,  y  facilita  enormemente  
la  formación  de  comunidades  virtuales  y  grupos  de  trabajo.  
5º.   Una   gran   parte   de   la   labor   de   corrección   de   actividades   pueden   desplazarse   hacia   el   propio  
software,  liberando  al  profesor  de  una  labor  que  le  ocupa  mucho  tiempo  en  el  aula  y  evitando  multitud  
de  conflictos  con  los  alumnos.  
6º.   Aparecen   espacios   de   trabajo   alternativos   hacia   dónde   se   pueden   trasladar   actividades  
secundarias  (reparto  de  materiales,  realización  de  consultas,  asignación  de  actividades  de  refuerzo  o  
ampliación,  búsqueda  de  información,  organización  de  eventos...)  que  permita  utilizar  la  mayor  parte  
del   tiempo   de   clase   en   exposiciones   orales,   pruebas   escritas,   presentaciones...   y   todas   aquellas  
actividades  en  las  que  la  figura  del  profesor  sea  imprescindible.    

  3  
Internet  y  los  recursos  Web.  
 

El  sonido  en  la  World  Wide  Web.  


Internet   es   una   red   informática   (como   las   redes   Proxy,   o   Bluetooth,   etc)   que,   por   oposición   a   las  
intranets,   está   formado   por   un   conjunto   descentralizado   de   redes   de   comunicación   de   datos  
conectadas  por  Protocolos    de  Control  de  Transmisión    y  Protocolo  de  Internet  o  TCP/IP.  
La  World  Wide  Web  es  un  sistema  de  distribución  de  información  basado  en  hipertexto  o  hipermedios  
enlazados   y   accesibles   a   través   de   Internet.   Con   un   navegador   web,   un   usuario   visualiza   sitios   web  
compuestos   de   páginas   web   que   pueden   contener   texto,   imágenes,   videos   u   otros   contenidos  
multimedia,   y   navega   a   través   de   ellas   usando   hiperenlaces.   Esta   red   global     fue   creada  en   1989   por  
Tim  Berners-­‐Lee  y  Robert  Cailliau  en  el  CERN  en  Ginebra,  aunque  la  hicieron  pública  en  1992.    

El  audio  analógico,  el  audio  digital  y  la  C.A.D.  


A   través   de   la   red   podemos   enviar   sonido,   ya   sean   grabaciones   o   sonido   “en   tiempo   real”.    
Dependiendo   del   tipo   de   grabación,   ésta   ha   de   sufrir   un   tratamiento   diferente   para   poder   ser  
publicada  en  la  WWW:  
Las   grabaciones   en   audio   analógico   son   aquellas   que   e   encuentran   en   soportes   físicos   sobre   los   que   se  
traslada  una  impresión  de  la  onda  de  audio  es  un  tipo  de  señal  generada  por  algún  tipo  de  fenómeno  
electromagnético  y  que  es  representable  por  una  función  matemática  continua  en  la  que  es  variable  su  
amplitud  y  periodo  en  función  del  tiempo.  En  el  caso  del  sonido  se  tratan  de  representaciones  de  las  
ondas   sonoras   que   pueden   trasladarse   al   soporte   mediante   una   grabación   mecánica,   magnética   u  
óptica,   y   los   soportes   más   comunes   en   las   que   pueden   presentarse   son   las   cintas   magnéticas   o   los  
discos   sonoros,   ya   sean   en   vinilo,   pizarra,   aluminio,   etc.   Para   ser   subidas   a   la   red   es   necesario   una  
conversión  analógica-­‐digital  o  C.A.D.  que  consiste  en  la  transcripción  de  señales  analógicas  en  señales  
digitales,  con  el  propósito  de  facilitar  su  procesamiento  (codificación,  compresión,  etc.)  y  hacer  la  señal  
resultante  susceptible  de  ser  almacenada  en  archivos  digitales.  
Las   grabaciones   en   audio   digital   son   aquellas   en   las   que   la   conversión   analógico-­‐digital   se   hace  
simultáneamente  a  la  grabación  en  sí,  y  el  sonido  se  vuelca  directamente  a  un  archivo  digital.  Existen  
tres  métodos  de  grabación  digital,  a  saber:  

• La  grabación  magnética  digital  que  se  lleva  a  cabo  sobre  soporte  un  magnético,  bien  cinta  como  
el   DAT   u   otros   formatos   similares,   o   bien   sobre   soportes   magnéticos   informáticos   como   el  
disco  flexible.  
• La   grabación   óptica   digital   en   la   que   la   señal   es   grabada   sobre   el   soporte   de   forma   óptica,  
mediante  un  láser.  Es  el  caso  del  CD  o  el  DVD  de  audio.  
• La   grabación   magneto-­‐óptica   digital   que   es   un   sistema   combinado   que   graba   de   forma  
magnética,  pero  reproduce  de  forma  óptica.  Es  el  caso  del  minidisc  o  de  los  CD  regrabables  (CD-­‐
RW)  y  del  propio  disco  duro  de  cualquier  ordenador.  
La   conversión   analógico-­‐digital   o   C.A.D.   toma   una   señal   continua   (la   onda   sonora)   y   la   trasforma   en  
una   señal   discreta   (código   binario)   para   que   pueda   ser   leída   por   un   sistema   informático.   Ésta   tiene  
tres  fases  o  etapas:  
1. Muestreo:   el   muestreo   o   sampleado   consiste   en   la   toma   de   muestras   periódicas   de   la   amplitud  
de   onda.   La   velocidad   con   que   se   toma   esta   muestra,   es   decir,   el   número   de   muestras   por  
segundo,  es  lo  que  se  conoce  como  frecuencia  de  muestreo.  Según  el  teorema  de  muestreo  de  
Nyquist-­‐Shannon,   para   poder   replicar   con   la   exactitud   necesaria   para   que   sea  
matemáticamente  reversible  la  forma  de  una  onda  es  necesario  que  la  frecuencia  de  muestreo  

  4  
sea   superior   al   doble   de   la   máxima   frecuencia   a   muestrear.   Para   cubrir   el   espectro   audible   (20  
a   20000   Hz)   suele   bastar   con   tasas   de   muestreo   de   algo   más   de   40000   Hz   (el   estándar   CD-­‐
Audio  emplea  una  tasa  un  10%  mayor  con  objeto  de  contemplar  el  uso  de  filtros  no  ideales),  
con   32000   muestras   por   segundo   se   tendría   un   ancho   de   banda   similar   al   de   la   radio   FM   o   una  
cinta   de   casete,   es   decir,   permite   registrar   componentes   de   hasta   15   kHz,   aproximadamente.  
Para  reproducir  un  determinado  intervalo  de  frecuencias  se  necesita  una  tasa  de  muestreo  de  
poco  más  del  doble  (Teorema  de  muestreo  de  Nyquist-­‐Shannon).  Por  ejemplo  en  los  CDs,  que  
reproducen  hasta  20  kHz,  emplean  una  tasa  de  muestreo  de  44,1  kHz  (frecuencia  Nyquist  de  
22,05   kHz).   Con   objeto   de   evitar   el   fenómeno   conocido   como   aliasing,   es   necesario   eliminar  
todos   los   componentes   de   frecuencias   que   exceden   la   mitad   de   la   tasa   de   muestreo,   es   decir,  
del   límite   de   Nyquist,   antes   del   proceso   de   C.A.D.   En   la   práctica,   estos   componentes   se   atenúan  
fuertemente   mediante   un   filtro   activo   analógico   paso-­‐bajo   que   se   aplica   a   la   señal   analógica   de  
interés   antes   de   su   digitalización   y   que   para   este   objetivo   se   denomina   filtro  antialiasing.   En   el  
proceso   de   reconstrucción   posterior   (conversión   D/A)   de   la   reproducción   se   deberá   aplicar   en  
esencia   el   mismo   filtrado   analógico   mediante   un   filtro   que,   empleado   en   este   proceso,   se  
denomina  de  reconstrucción.  
2. Retención:   durante   la   retención   o   holding   las   muestras   tomadas   han   de   ser   retenidas   por   un  
circuito   de   retención   el   tiempo   suficiente   para   permitir   evaluar   su   nivel.   Desde   el   punto   de  
vista   matemático   este   proceso   no   se   contempla,   ya   que   se   trata   de   un   recurso   técnico   debido   a  
limitaciones  prácticas,  y  carece,  por  tanto,  de  modelo  matemático.  
3. Cuantificación:   en   el   proceso   de   cuantificación   se   mide   el   nivel   de   voltaje   de   cada   una   de   las  
muestras  y  se  le  asigna  un  valor  de  una  señal  analizada  a  un  único  nivel  de  salida.  Incluso  en  su  
versión   ideal,   añade,   como   resultado,   una   señal   indeseada   a   la   señal   de   entrada   conocida   como  
el  ruido  de  cuantificación.  Por  ejemplo,  utilizando  cuantificación  lineal,  una  codificación  lineal  
de   8   bits   discriminará   entre   256   niveles   de   señal   equidistantes.   También   se   pueden   hacer  
cuantificaciones  no  lineales,  como  es  el  caso  de  cuantificadores  logarítmicos  como  la  Ley  Mu  o  
la  Ley  A,  que,  a  modo  de  ejemplo,  aún  usando  8  bits  funcionan  perceptualmente  como  10  bits  
lineales   para   señales   de   baja   amplitud   en   promedio,   como   la   voz   humana.   El   formato   más  
usado   de   audio   digital   PCM   lineal   es   el   del   CD   de   audio:   44,1   kHz   de   tasa   de   muestreo   y  
cuantificación   lineal   de   16   bits   (que   mide   65536   niveles   de   señal   diferentes)   y   que,   en   la  
práctica,   permite   registrar   señales   analógicas   con   componentes   hasta   los   20   kHz   y   con  
relaciones  señal  a  ruido  de  más  de  90  dB.    
El   número   de   bits   que   conforman   las   muestras   en   un   proceso   determinado   de   cuantificación  
determina  la  relación  señal  a  ruido  máxima  que  debe  tener  la  señal  (la  salida  de  un  micrófono  
y,   consecuentemente,   el   material   sonoro   que   recoge,   la   salida   de   un   máster   analógico,   etc.)   que  
se  pretende  cuantificar  y,  por  tanto,  limita  también  el  rango  dinámico  que  debe  tener  para  su  
cuantificación   completa,   de   modo   parecido   a   cómo   la   capacidad   de   un   recipiente   (bits   por  
muestra)   limita   el   volumen   de   líquido   (rango   del   material   sonoro   a   cuantificar)   que   puede  
contener.  
Sea    el  número  de  bits  con  las  que  se  cuantifican  las  muestras,  la  relación  señal  (para  sinusoidal  
máxima  que  cubre  todo  el  rango)  a  ruido  de  cuantificación  teórica  se  obtiene  en  dB:4  
 
Por   tanto,   una   cuantificación   de   16   bits   permite   un   máximo   teórico   para   la   relación   señal  
sinusoidal   a   ruido   de   cuantificación   de   98,09   dB   (122,17   dB   para   20   bits,   valor   muy   cercano   al  
límite   real   que   permite   el   ruido   de   Johnson-­‐Nyquist,   también   conocido   como   ruido   térmico,   de  
los   mejores   CAD’s   actuales).   En   la   práctica,   el   límite   de   una   señal   analógica   para   que   pueda   ser  
cuantificada   sin   merma   dinámica   es,   aproximadamente,   el   90%   del   límite   teórico.   Por   lo   tanto,  
el  límite  que  debe  tener  una  señal  como  la  señal  directa  de  un  micrófono  o  la  que  resultara  de  

  5  
un  máster  analógico  para  ser  cuantificada  con  seguridad  con  sólo  14  bits  es  de  unos  78  dB,  aún  
cuando  el  límite  teórico  sea  de  86,05  dB  en  este  caso.  
Una   vez   que   la   relación   señal   a   ruido   de   cuantificación   que   permite   un   proceso   de  
cuantificación   dado   excede   la   relación   señal   a   ruido   máxima   del   material   sonoro   que   se  
pretende   cuantificar,   esta   podrá   ser   cuantificada   totalmente   sin   pérdidas   en   su   rango  
dinámico.   Pasado   este   umbral,   de   nada   sirve   aumentar   el   número   de   bits   por   muestra   del  
proceso  de  cuantificación:  no  resultará  en  una  conversión  más  fiel.  Por  ejemplo,  una  relación  
señal  a  ruido  de  cuantificación  de  90  dB  (una  relación  práctica  que  permiten  sobradamente  los  
16  bits  por  muestra  de  un  CD-­‐Audio)  es  suficiente  para  cuantificar  cualquier  grabación  musical  
normal,  cuyo  rango  de  intensidad  sonora  puede  ir  desde  los  25  dB(SPL)  del  ruido  de  fondo  de  
un   estudio   de   grabación   hasta   los   115   dB(SPL),   casi   el   umbral   del   dolor   de   la   audición  
humana,6  en  la  posición  del  micrófono  durante  una  grabación  en  dicho  estudio.  
El  tamaño  de  las  muestras  necesario  en  un  proceso  de  cuantificación  digital  se  determina,  por  
tanto,  a  partir  del  análisis  del  ruido  de  fondo  y  de  la  intensidad  máxima  del  material  sonoro  a  
registrar.   Aumentar   por   encima   de   lo   necesario   el   tamaño   de   las   muestras   es   sólo   un  
desperdicio   de   ancho   de   banda,   especialmente   en   los   formatos   finales   de   distribución.   No  
supone  mejora  alguna,  ni  siquiera  mensurable,  ya  que  sólo  serviría  para  registrar  el  ruido  con  
más  bits,  es  decir,  más  bits  inútiles  cuyo  valor  dependerá  exclusivamente  del  azar  o,  según  se  
ajuste   la   ganancia,   para   dejar   los   bits   más   significativos   a   cero   en   todas   las   muestras   (o   una  
combinación   de   ambas   cosas).   De   modo   parecido,   un   recipiente   de   capacidad   mayor   a   la   del  
líquido  que  se  pretende  depositar  en  él  no  mejora  en  medida  alguna  la  calidad  o  cantidad  de  
dicho   líquido   respecto   al   uso   de   un   recipiente   de   menor   capacidad   siempre   que   ésta   capacidad  
menor  sea  aún  suficiente  para  el  volumen  del  líquido.  Dicho  de  otro  modo,  al  contrario  de  lo  
que   es   una   creencia   errónea   muy   extendida,7   el   tamaño   de   las   muestras   a   emplear   en   una  
cuantificación  depende  del  material  sonoro  que  se  pretende  cuantificar  y  nada  tienen  que  ver  
la  fidelidad  de  la  reconstrucción  en  la  reproducción  o  los  límites  psicoacústicos  humanos,  por  
la  percepción  de  dicha  fidelidad,  con  esta  determinación,  por  ejemplo.  Si  un  material  sonoro  a  
digitalizar   "cabe"   en   10   bits   por   muestra,   cuantificar   a   14   bits   o   20   no   hace   más   fiel   su  
reconstrucción  posterior  ni,  consecuentemente,  es  posible  percibir  diferencias  subjetivas  que  
no  resulten  de  la  sugestión.  
 
4. Codificación:   ésta   consiste   en   traducir   los   valores   obtenidos   durante   la   cuantificación   al   código  
binario.  Hay  que  tener  presente  que  el  código  binario  es  el  más  frecuente,  pero  también  existen  
otros  tipos  de  códigos  que  también  son  utilizados.    
En  el  código  binario  la  unidad  de  información  mínima  se  conoce  como  bit,  que  puede  ser  1  o  0,  
aunque   la   unidad   básica   de   comunicación   de   información   se   conoce   como   byte   que   es   un  
conjunto  de  8  bits,  generalmente.    
Mediante   la   adición   de   prefijos   se   general   unidades   mayores,   siendo   las   mas   comunes   el  
kilobyte  y  el  gigabyte,  del  siguiente  modo:    
 
Nombre   Abrev.     Factor  binario   Bytes    
   
bytes     B     20               1    
kilo     k     210           1024    
mega     M     220         1  048  576    
giga     G     230         1  073  741  824      
tera     T     240         1  099  511  627  776    
peta     P     250         1  125  899  906  842  624    
exa     E     260         1  152  921  504  606  846  976    

  6  
zetta     Z     270         1  180  591  620  717  411  303  424    
yotta     Y     280         1  208  925  819  614  629  174  706  176    
 
El  último  paso  de  la  codificación  es  el  añadido  del  dither.  El  dithering  es  la  adicción  deliberada  
de   una   forma   especial   de   ruido   con   el   fin   de   convertir   en   aleatorios   ciertos   pasajes   de   la  
cuantificación,   previniendo   patrones   a   gran   escala   como   el   banding   en   el   sonido   o   la   imagen.  
Con   una   señal   armónica   sinusoidal   pura   con   dither   añadido   en   una   relación   señal   a   ruido   de  
21,03   dB   lista   para   ser   cuantificada   con   sólo   4   bits   por   muestra,   es   decir,   con16   niveles   de  
cuantificación,  la  señal  tiene  unas  127  veces  la  potencia  del  dither.  Una  futura  conversión  A/D  
con   más   niveles   de   cuantificación   permitirían   añadir   un   dither   proporcionalmente   con  
respecto  de  la  señal  menor.  Dado  que  actualmente  los  mejores  convertidores  tienen  relaciones  
señal   a   ruido   térmico   que   raramente   exceden   los   122   dB   a   temperatura   ambiente,   se   hace  
necesario   añadir   dither   en   todos   los   casos   en   los   que   se   emplean   cuantificaciones   o  
recuantificaciones   inferiores   a   20   bits.   Los   cuantificadores   de   24   bits,   si   bien   no   presentan  
ventajas  prácticas  sobre  los  de  20  bits  debido  al  nivel  del  ruido  térmico  de  los  convertidores,  al  
menos  no  requieren  la  adición  de  dither  (y  permiten  registrar  la  muestra  en  un  número  entero  
de   bytes).   Sin   embargo,   sí   será   imprescindible   añadir   dither   en   los   casos   donde   se  
recuantifican  estas  grabaciones  a  muestras  de  16  bits,  por  ejemplo.  Es  un  proceso  ordinario  en  
el  último  estadio  de  la  producción  de  audio  para  CD  de  audio.  
 
Los   archivos   de   audio   digital   almacenan   toda   la   información   que   ocurra   en   el   tiempo,   por   lo  
que   el   tamaño   del   archivo   no   varía   así   contenga   silencio   o   sonidos   muy   complejos.   Esta  
información  se  organiza  en  un  formato,  existiendo  actualmente  muchos  formatos  de  archivo  de  
audio   digital.   Un   formato   de   archivo   de   audio   es   un   contenedor   multimedia   que   guarda   una  
grabación   de   audio   (música,   voces,   etc.).   Lo   que   define   a   un   archivo   distinto   del   otro   son   sus  
características;   almacenado,   sus   capacidades   de   reproducción,   y   cómo   puede   utilizarse   el  
archivo   en   un   sistema   de   administración   de   archivos   (etiquetado).   La   manera   general   de  
almacenar   audio   digital   es   maestreando   el   voltaje   de   audio,   que   al   reproducirlo,   corresponde   a  
un   nivel   de   señal   en   un   canal   individual   con   un   cierto   resolución   -­‐el   número   de   bits   por  
muestreo   -­‐   en   intervalos   regulares   (creando   la   frecuencia   de   muestreo).   Estos   datos   después  
pueden  ser  almacenados  sin  comprimir  o  comprimidos  para  reducir  el  tamaño  del  formato.  El  
codec   codifica   y   decodifica   los   datos   del   audio   mientras   estos   datos   son   archivados   en   un  
archivo   que   tiene   un   formato   de   audio   específico.   La   mayoría   de   los   formatos   de   archivo   de  
audio  públicamente  documentados  pueden  ser  creados  con  uno  de  dos  o  más  codificadores  o  
codecs.  Aunque  la  mayoría  de  formatos  de  archivo  de  audio  solo  soportan  un  tipo  de  data  un  
contenedor   de   formato   de   multimedia   como   MKV   o   AVI   puede   soportar   múltiples   tipos   de  
datos  de  audio  y  vídeo,  por  ejemplo.    
 
Como  se  vio  arriba  el  tamaño  puede  depender  de  la  cantidad  de  canales  que  tenga  el  archivo  y  de  la  
resolución,  así  como  del  tipo  de  formato:  
 
A Formatos   sin   comprimir:   La   diferencia   principal   que   tienen   estos   formatos   es   el   encabezado,  
alrededor   de   1000   bytes   al   comienzo   del   archivo.   Hay   un   formato   principal   sin   comprimir,   PCM,  
que   normalmente   esta   archivado   como   .WAV   en   windows   y   .AIFF   en   MAC.   WAV   y   AIFF   son  
formatos   flexibles   creados   para   almacenar   varios   combinaciones   de   frecuencia   de   muestreo   o   tasa  
de  bits,  esto  los  hacen  adecuados  para  archivar  grabaciones  originales.  Existe  otro  tipo  de  archivo  
llamado  CD-­‐A  o  Audio  CD  que  es  un  archivo  pequeño  que  sirve  como  acceso  directo  a  parte  de  los  
datos  de  un  CD.  El  formato  AIFF  esta  Basado  en  el  formato  IFF  mientras  que  el  formato  WAV  esta  

  7  
Basado  en  el  formato  RIFF  Que  realmente  son  muy  similares.  BWF  (Broadcast  WAV  Format)es  el  
formato   de   audio   estándar   creado   por   el   Union   Europeo   de   Radiodifusión   como   sucesor   a   WAV.  
BWF  permite  el  almacenamiento  de  meta-­‐dato  en  el  archivo.  Este  formato  es  principalmente  usado  
por   muchos   programas   profesionales   de   edición   de   audio   en   las   industrias   de   televisión   y   cine.  
Archivos   BWF   contienen   una   referencia   de   timestamp   estandarizado   que   permite   sincronizar  
fácilmente  con  un  elemento  de  foto  separado.  Stand-­‐alone,  Grabadoras  milti-­‐track  de  dispositivos  
de  audio,  Zaxcom,  HHB  USA,  Fostex  y  Aaton  utilizan  BWF  como  su  formato  preferido.  
 
B Formatos   comprimidos:   Para   usar   menos   memoria   que   los   archivos   PCM   existen   formatos   de  
sonido   comprimidos,   como   por   ejemplo   el   MP3,   AAC   y   OGG.   Ciertos   algoritmos   de   compresión  
descartan   información   que   no   es   perceptible   por   el   oído   humano   para   lograr   que   el   mismo  
fragmento   de   audio   pueda   ocupar   en   la   memoria   inclusive   décima   parte   -­‐o   menos-­‐   de   lo   que  
ocuparía  de  ser  PCM.  La  reducción  en  tamaño  implica  una  pérdida  de  información  y  por  esto  a  los  
formatos  de  este  tipo  se  les  llama  formatos  comprimidos  con  pérdida.  Existen  también  formatos  de  
archivo  comprimido  sin  pérdida,  dentro  de  los  que  se  cuentan  el  FLAC  y  el  Apple  Lossless  Encoder,  
cuyo   tamaño   suele   ser   de   aproximadamente   la   mitad   de   su   equivalente   PCM.   Los   formatos  
comprimidos   se   suelen   clasificar   en   dos,   dependiendo   de   la   magnitud   de   la   información   que   se  
pierde  al  comprimir:  los  formatos  sin  pérdida  y  los  formatos  con  pérdida:  
 
a Formato  Lossless    o  comprimidos  sin  pérdida:  El  formato  sin  pérdida  requiere  más  tiempo  de  
procesamiento   que   formatos   sin   comprimir   en   cambio   es   más   eficiente   en   cuanto   el   espacio  
que   ocupa.  Formatos   de  audio  sin  comprimir   codifican   tanto   audio   como   silencio   con   el   mismo  
número   de   bits   por   unidad   de   tiempo.   Codificar   un   minuto   de   silencio   en   un   formato   sin  
comprimir   produce   un   archivo   del   mismo   tamaño   que   codificar   un   archivo   sin   comprimir   de  
un  minuto  de  música  de  orquesta.  Sin  embargo  en  un  archivo  sin  pérdida  la  música  ocupa  un  
archivo  ligeramente  más  pequeño  y  el  silencio  no  ocupa  casi  nada.  Los  formatos  de  compresión  
sin   pérdida   proporcionan   un   ratio   de   compresión   de   más   o   menos   2:1.   El   desarrollo   de  
formatos   de   compresión   sin   pérdida     intenta   reducir   el   tiempo   de   procesamiento   mientras  
manteniendo  un  buen  ratio  de  compresión.  
b Formatos   Lossy   o     comprimidos   con   pérdida:   La   compresión   con   pérdida   es   un   método   de  
codificación   en   que   comprime   los   datos   descartando   partes  que   ya   no   podrán   ser   recuperadas.  
El   proceso   intenta   minimizar   la   cantidad   de   datos   que   mantiene   el   archivo   reduciendo   su   peso  
y   también   su   calidad.   Realmente   prioriza   la   pérdida   de   las   bandas   de   frecuencia   menos  
audibles   para   el   oído   humano   por   lo   que   la   pérdida   de   la   calidad   es   progresiva   y   sólo   se   vuelve  
significativa  a  niveles  elevados.  
C Formatos   descriptivos:   Archivos   MIDI   Este   formato   de   archivos   no   es   precisamente   de   audio  
digital,  pero  sí  pertenece  a  las  tecnologías  de  la  informática  musical.  El  archivo  MIDI  no  almacena  
"sonido  grabado",  sino  las  indicaciones  para  que  un  sintetizador  o  cualquier  otro  dispositivo  MIDI  
genere   una   serie   de   notas   o   realice   cualquier   otra   acción   que   el   controlador   permita.   Podemos  
imaginarlos  como  algo  similar  a  una  partitura,  con  los  nombres  de  los  instrumentos  que  hay  que  
utilizar,  las  notas,  tiempos  y  algunas  indicaciones  acerca  de  la  interpretación.  

  8  
 

A   continuación   se   puede   leer   una   lista   de   los   formatos   más   comunes     en   la   WWW   y   sus  
características:  
AAC:  esta  basado  en  MPEG2  y  MPEG4.  Los  archivos  ACC  suelen  ser  contenedores  ADTs  o  ADIF.  
AIFF:  Formato  estándar  de  Apple.  Se  puede  ser  considerado  el  equivalente  de  WAV  de  Apple  
ATRAC   (.WAV):   El   estilo   antiguo   de   formato   Sony   ATRAC.   Siempre   contiene   un   extensión   de  
formato  .WAV.  Para  abrir  estos  formatos  hay  que  instalar  unos  drivers  ATRAC3.  
AU:  El  formato  de  archivo  estándar  utilizado  por  Sun,  Unix  y  Java.  El  audio  de  archivos  AU  puede  ser  
PCM  o  comprimido  con  a-­‐law  o  G729  codecas.  
DCT:  Es  un  codec  variable  diseñado  para  dictar.  
DSS:  Es  un  formato  de  propiedad  de  corporación  Olympus.  Es  relativamente  viejo  y  su  codec  es  de  
mala  calidad.  
DVF:   Un   formato   de   Sony   para   archivos   de   voz   comprimidos,   normalmente   utilizado   en   grabadoras  
de  dictado.  
FLAC:   Un   codec   de   compresión   lossless,   que   se   suele   utilizar   en   ambientes   profesionales,  
especialmente  para  recuperar  vinilos.  
GSM:  Diseñado  para  el  uso  de  telefonía  en  Europa.  gsm  es  un  formato  muy  practico  para  voces  de  
calidad   teléfono.   Es   un   buen   compromiso   entre   calidad   y   tamaño.   Archivos   de   WAV   pueden   ser  
codificados  con  GSM.  
IKLAXS:  Es  un  formato  de  audio  digital  multi-­‐track  que  permite  varios  acciones  en  datos  musicales  
como  arreglos  de  volumen  y  mezclas.  
IVS:   Un   formato   desarrollado   por   3D   solar   UK   ltd.   con   gestión   de   derecho   digital   utilizado   para  
descargar  música  de  su  tienda  digital  tronme  y  en  su  reproductor  interactivo  de  música  y  vídeo.  
M4P:   Un   versión   de   ACC   en   MP4   desarrollada   por   Apple   con   gestión   de   derecho   digital   para   la  
utilización  de  descargas  de  la  tienda  de  ITunes.  
MMF:  Un  formato  de  audio  creado  por  Samsung  utilizados  en  tonos  de  móvil.  
MP3:   Formato   MPEG   layer   3   es   el   más   popular   para   bajar   y   almacenar   música.   Eliminando  
porciones   del   archivo   que   sean   menos   audibles,   mp3   comprime   a   aproximadamente   un   décima  
parte  de  un  archivo  PCM  sacrificando  su  calidad.  
MP4  o  M4A:  MPEG-­‐4  audio  más  a  menudo  ACC  pero  a  veces  MP2/MP3,  MPEG-­‐4  SLS,  CELP,  HVXC  y  
otros  tipos  de  objetos  de  audio  pueden  ser  definidos  en  MPEG-­‐4  audio.  
MPC:   Musepack   o   MPC   era   conocido   como   MPEGplus   o   MP+,   y   es   un   formato   código   abierto,  
específicamente  optimizado  para  la  compresión  transparente  de  audio  estéreo  a  una  velocidad  de  
bits  de  160-­‐180  bits/s.  
MSV:  Un  formato  de  Sony  para  archivos  de  voz  comprimidos  en  tarjeta  de  memoria.  
OGG:  Un  archivo  de  formato  código  abierto  que  apoya  una  variedad  de  codecs,  de  los  cuales  el  más  
popular   es   el   audio   codec   vorbis.   Vorbis   ofrece  compresión   similar   a   ese   de   mp3   pero   al   ser   menos  
popular  puede  dar  problemas.  Es  habitual  en  el  centro  de  Europa.  
RA  &  RM:  Un  formato  real  audio  diseñado  para  el  streaming.  

  9  
RAW:   Un   archivo   RAW   puede   contener   audio   de   cualquier   codec   aunque   suele   ser   utilizado   con  
datos  de  audio  PCM.  Solo  suele  ser  utilizado  en  pruebas  técnicas.  
TTA:  un  codec  de  audio  lossless  en  tiempo  real,  a  pesar  de  estar  comprimido.  
VOX:  Este  formato  es  comúnmente  utilizado  para  el  codec  ADPCM  Dialogico  o  Adaptive  Differential  
Pulse   Code   Modulation.   Similar   a   otros   formatos   ADCPM   comprime   a   4   bits.   Archivos   VOX   son  
similares  a  archivos  WAV  salvo  que  no  contienen  información  sobre  el  archivo  así  que  la  frecuencia  
de  muestreo  y  el  número  de  canales  debe  ser  especificada  para  reproducirlo.  
WAV:  Formato  contenedor  de  archivo  de  audio  utilizado  principalmente  en  Windows.  comúnmente  
utilizado  para  almacenar  archivos  de  calidad  de  cd  sin  comprimir.  lo  que  significa  que  pueden  ser  
de   gran   tamaño,  al  rededor  de  10mb  por   minuto.   Archivos   de  WAV  también  pueden  contener  datos  
codificados   por   una   variedad   de   codecs   con   pérdida   para   reducir   el   tamaño   del   archivo   ,   como  
codecs  MP3  o  GSM.  Archivos  WAV  utilizan  una  estructura  RIFF  
WMA   o   Windows   media   audio:   este   formato   esta   creado   por   microsoft   y   esta   diseñado   con  
habilidades  de  gestión  de  derechos  digitales  parta  protegerlo  de  copia  ilegal.  
 
Tras   el   proceso   de   grabación   se   procede   a   volcar   el   sonido   sobre   un   soporte   que,   en   este   caso,   pueden  
ser  los  siguientes:  
1. Magnéticos:  
a. De  bobina  abierta:  
i. DASH  
ii. ProDigi  
b. Modular  multipista  (MDM):  
i. ADAT  
ii. DA-­‐88  
iii. DTRS  
c. De  casete:  
i. DAT  
ii. DCC  
2. Ópticos:  
a. CD-­‐Audio  
b. Minidisc  
c. DVD-­‐Audio  

La  World  Wide  Web.  

Web  1.0    
Éstas  se  caracterizan  por  ser  páginas  estáticas  HTML  que  no  pueden  ser  modificadas  más  que  
por  su  creador  (o  webmaster),  por  lo  que  no  suelen  ser  actualizadas  frecuentemente.  A  pesar  de  esa  
limitación  podemos  encontrar  muchos  recursos  de  gran  utilidad  para  los  estudiantes  principalmente  
como  fuente  de  información,  a  modo  de  enciclopedia  o  diccionario.    
Del   mismo   modo   que   sucede   con   otras   fuentes,   es   necesario   guiar   a   los   discentes   en   la  
adquisición   de   unos   criterios   de   selección   que   les   permitan   realizar   investigaciones   con   cierta  
autonomía.   Los   criterios   a   seguir   a   la   hora   de   clasificar   estas   fuentes   se   resumirán   en   su   pertenencia   a  
uno  de  los  tres  principales  grupos,  delimitados  por  su  forma  de  legitimación.  

  10  
•   Fuentes  legitimadas  en  la  autoridad:  Estas  son  las  que  se  ha  utilizado  tradicionalmente  por  una  
cuestión   de   costumbre   o   de   autoridad   de   su   origen.   Haremos   consciente   al   alumno   que   la   importancia  
de   estos   testimonios   sin   dejar   de   señalar   sus   debilidades   o   errores   si   hubiera,   pero   no   por   ello  
desprestigiándolos.    
•   Fuentes   legitimadas   en   la   calidad:   Para   juzgar   la   calidad   de   una   obra   o   de   una   fuente   de  
información   la   mediremos   en   base   a   parámetros   como   son   la   coherencia,   la   belleza,   control,   la  
complejidad,   la   variedad,   la   sofisticación,   y   la   actualidad.   Por   ello   es   importante   que   ayudemos   al  
discente  a    analizar  y  valorar  estas  cuestiones.    
•   Fuentes   legitimadas   en   la   eficacia:   partiendo   de   que   se   está   preparando   a   los   jóvenes   para  
llevar  a  cabo  una  actividad  profesional,  así  como  para  adquirir  progresivamente  cierta  autonomía  de  
aprendizaje,     ha   de   adiestrarse   también   cierta   destreza   a   la   hora   de   economizar   tiempo   y   esfuerzo   con  
la  finalidad  de  obtener  unos  resultados  óptimos.  En  el  mercado  laboral  nuestro  futuro  profesional  no  
podrá  siempre  disponer  de  los  medios  de  mayor  calidad  o  autoridad,  por  lo  que  será  necesario  utilizar  
otros  que  os  ofrezcan  un  resultado  funcional  y  que  nos  permita  cumplir  los  objetivos  impuestos.  
 

Web  2.0    
Colocamos  bajo  la  etiqueta  de  Web  2.0  a  "todas  aquellas  utilidades  y  servicios  de  Internet  que  
se  sustentan  en  una  base  de  datos,  la  cual  puede  ser  modificada  por  los  usuarios  del  servicio,  ya  sea  en  
su   contenido   (añadiendo,   cambiando   o   borrando   información   o   asociando   datos   a   la   información  
existente),   bien   en   la   forma   de   presentarlos,   o   en   contenido   y   forma   simultáneamente."   ,   por  
contraposición   a   la   Web   1.0.   Aunque   es   un   grupo   infinitamente   variado     y   complejo   atendiendo   a   la  
forma  de  aplicación  en  el  aula  lo  clasificaremos  los  siguientes  grupos:  
1.   Webs  basadas  en  software  para  wikis.    
Éstas  tienen  mucho  en  común  con  las  Web  1.0  de  consulta,  ya  que  ofrecen  información  en  un  
formato   similar   al   enciclopédico,   con   la   ventaja   añadida   de   que   favorecen   la   colaboración   y   el   debate   a  
través  de  sistemas  asíncronos  de  comunicación  grupal,  como  los  foros.    
Esta  participación  puede  ser  moderada,  pre-­‐moderada  o  libre,  dependiendo  del  rigor  de  la  web  
en  cuestión.  La  principal  ventaja  es  que  los  contenidos  se  actualizan  constantemente  y  son  vigilados  de  
forma  colectiva,  por  lo  que  no  suelen  estar  sujetos  a  intereses  particulares  o  comerciales.  
2.   Comunidades  virtuales  .  
Una   comunidad   virtual   es   un   grupo   de   personas   unidas   por   un   interés   común   que   se  
comunican   entre   sí   mediante   una   misma   plataforma   lo   que   les   permite   interactuar   de   forma  
continuada  en  el  tiempo  siguiendo  conjunto  de  normas  preestablecidas  o  protocolo.    
En   el   mundo   educativo   podemos   utilizar   comunidades   que   se   correspondan   con   grupos  
creados   en   el   mundo   real   (grupos   de   trabajo,   de   aula,   de   área,   de   centro...)   y   que   utilizan   la   comunidad  
como   una   herramienta   o   un   lugar   de   reunión,   o   comunidades   que   existan   únicamente   en   el   mundo  
virtual   en   las   que   sus   miembros   no   tienen   una   relación   en   el   mundo   real   (grupos   de   aficionados   o  
personas   que   comparten   intereses).   A   través   de   estas   comunidades   podemos   crear   un   aula   virtual   que  
se  mantenga  activa  durante  los  días  que  trascurran  entre  las  clases  reales,  pudiendo  desplazar  hacia  
ella  labores  como  la  recogida  y  entrega  de  materiales  o  la  realización  de  trabajos  en  grupo.  
3.   Redes  sociales  .  
Éstas  son  formas  evolucionadas  de  la  comunidad  virtual  que  llegan  a  asimilar  un  gran  número  
de   actividades   propias   del   mundo   real   (relaciones   interpersonales,   académicas,   económicas...)   por   lo  
que   la   regulación   se   vuelve   imprescindible.   Suele   aglutinar   una   gran   cantidad   de   recursos  

  11  
comunicativos   que   intentan   imitar   al   mundo   real,   ya   que   la   finalidad   principal   es   facilitar   la  
socialización.   Por   este   motivo   suelen   darse   fenómenos   de   indización   social,   por   lo   que   resulta   muy  
útiles  para  generar  dinámicas  de  cohesión  en  los  grupos  de  alumnos,  especialmente  cuando  éstos  se  
relacionan  únicamente  en  el  aula.  
4.   Redes  sociales  que  incluyen  redes  de  net.working    
Son   las   que   tienen   más   aplicaciones   en   el   mundo   académico,   aunque   enfocadas   siempre  
alumnos  con  cierta  madurez  personal  y  suficiente  autonomía  de  trabajo.  Éstas  le  ofrecen  la  posibilidad  
de  localizar  a  otros  usuarios  mediante  folcsonomías,  es  decir,  clasificaciones  colaborativas  de  personas  
reales   por   medio   de   etiquetas   simples   que   el   propio   usuario   se   coloca,   dentro   de   un   espacio   de  
nombres  llano,  sin  jerarquías  ni  relaciones  de  parentesco  predeterminadas.    
En   estos   espacios   virtuales   tanto   alumnos   como   profesores   pueden   definir   lo   que   buscan   y  
para  qué  quieren  que  les  busquen,  así  como  elegir  con  quién  quieren  relacionarse.  
5.   Blogs    o  web-­‐blogs.  
El  blogging  es  una  de  las  prácticas  más  populares  de  Internet.  Un  concepto  tan  sencillo  como  la  
actualización   de   los   antiguos   cuadernos   de   bitácora   permite   crear   un   diario   de   las   actividades   de  clase  
que,   aunque   esté   moderado   por   el   propio   profesor,   puede   ser   actualizado   por   los   alumnos   y   les  
permiten  estar  al  corriente  de  las  actividades  continuamente.    
Cuanto   mayor   sea   la   colaboración   de   los   alumnos   más   útil   será   para   el   profesor   como  
herramienta  de  supervisión  de  la  marcha  de  la  asignatura.    
6.   Fotoblogs,  videoblogs,  audioblogs...  Blog  +  multimedia    
Para   la   educación   musical   es   especialmente   interesante   contar   con   la   posibilidad   de   añadir   material  
multimedia  a  ese  “diario  de  clase”.    
En   estos   casos   las   posibilidades   son   infinitas:   pueden   incluirse   las   audiciones   realizadas   en  
clase,   grabaciones   en   formato   audiovisual   de   las   actividades   realizadas   en   el   aula,   conciertos   de  
alumnos,   animaciones   didácticas,   documentos   en   formatos   electrónicos,   simulaciones   virtuales,  
enlaces  de  interés,  trabajos  realizados  por  los  alumnos...  
7.   RSS    
Éste   es   un   sencillo   formato   de   datos   que   es   utilizado   para   redifundir   contenidos   a   suscriptores  
de  un  sitio  web  (llamados  feed  o  fuentes).  El  formato  permite  distribuir  contenido  sin  necesidad  de  un  
navegador,   utilizando   un   software   diseñado   para   leer   únicamente   estos   contenidos   RSS   que   se   conoce  
como   “agregador”,   aunque   es   posible   utilizar   el   mismo   navegador   para   ver   los   contenidos   RSS.   Las  
últimas   versiones   de   los   principales   navegadores   permiten   leer   los   RSS   sin   necesidad   de   software  
adicional.  Este  formato  forma  parte  de  la  familia  XML  desarrollado  específicamente  para  todo  tipo  de  
sitios  que  se  actualicen  con  frecuencia  y  por  medio  del  cual  se  puede  compartir  la  información  y  usarla  
en   otros   sitios   web   o   programas.   A   esto   se   le   conoce   como   redifusión   web   o   sindicación   web   o  
feedburning.  
En   nuestras   actividades   de   clase   podremos   utilizar   estas   aplicaciones   especialmente   como  
herramienta   de   control,   ya   que   nos   permite   conocer   en   tiempo   real   el   estado   de   las   actividades   de  
nuestra  comunidad  virtual,  por  lo  que  resulta  especialmente  útil  para  tener  un  registro    de  entregas  de  
trabajos  o  cumplimiento  de  plazos  por  parte  de  los  alumnos/usuarios.  Este  tipo  de  aplicación  podemos  
utilizarla  desde  el  PC  centrar  del  aula,  otro  PC  o  el  propio  teléfono  móvil.  
 

  12  
“Sindicación”:  Syndication,  podcasting  ,  broadcasting  &  P2P  
 
La   palabra   “sindicación”   es   un   barbarismo   muy   popular   en   España   que   apareció   mediante   la  
hispanización  errónea  de  la  palabra  “syndication”  inglesa.  Ésta  significa  literalmente  “difusión”.  En  el  
caso   de   los   medios   de   comunicación   hablamos   de   redifusión   ya   que   los   contenidos   se   envían   en  
primera   instancia   a   un   nodo   que   a   su   vez   vuelve   a   enviarlo   a   los   usuarios.   Estos   nodos   de   acceso  
multiservicio   pueden   ser   vía   satélite   o   mediante   los   diferentes   sistemas   de   tierra   (fibra   óptica,   cable  
coaxial,  etc).  Siempre  que  hablemos  de  la  W.W.W.  la  traducción  correcta  sería  “redifusión  web”.    
La   redifusión   web   puede   tomar   una   infinidad   de   formas,   pero   las   más   habituales   son   las  
siguientes:    
I. La   descarga   directa   del   servidor   es   la   más   simple   ya   que   es   aquella   en   la   que   el   usuario  
mediante   un   enlace   de   acceso   solicita   el   archivo   al   sistema   que   gestiona   el   servidor.  
Para   ello   es   necesario   tener   de   antemano   ese   enlace   o   que   éste   figure   en   algún   índice   o  
directorio.  
II. El  broadcasting  es  el  sistema  que  se  parece  más  a  los  medios  de  comunicación  de  masas  
convencionales,  como  la  radio  y  la  TV.  De  hecho,  muchas  de  las  páginas  web  broadcast  
reciben   directamente   esos   nombres,   es   decir,   radio   online   o   televisión   online.   En   el  
broadcasting   el   usuario   no   se   descarga   el   archivo   completo   a   su   disco   duro,   sino   que   lo  
va  recibiendo  de  forma  fragmentada  y  temporal,  sólo  durante  el  tiempo  de  emisión.  
III. El   podcasting   se   diferencia   del   anterior   en   que   el   usuario   puede   descargar   el   archivo  
completo  del  programa  de  TV,  radio,  película,  canción,  etc  y  utilizarlo  cuando  lo  desee.  
Si  hablamos  de  música  es  la  redifusión  Web  de  archivos  de  sonido,  normalmente  .MP3  
u   .OGG,   con   un   sistema   RSS,   que   permite   suscribirse   y   descargar   música   de   forma  
automática  y  periódica  sin  que  sea  necesario  visitar  otra  página  web  individualmente  
para   escuchar   el   archivo   de   sonido.   El   más   utilizado   es   la   versión   del   iTunes   con  
soporte  podcasting.  Se  utiliza  este  término  en  contraposición  al  broadcasting,  es  decir,  
la   difusión   de   un   medio   de   comunicación   masivo   que   no   permite   la   interacción   de  
ningún   tipo.   Obviamente   es   mucho   más   útil   dentro   del   mundo   académico   ya   que   el  
discente   puede   seleccionar   la   música   que   desea   escuchar,   ya   sea   por   una   cuestión   de  
gusto  personal  o  por  encontrarse  realizando  algún  trabajo  de  investigación.  
IV. El   sistema   de   intercambio   entre   usuarios,   P2P   o   Peer   to   peer.   Es   un   sistema   de  
intercambio   de   archivos   descentralizado,   es   decir,   a   diferencia   de   los   otros   sistemas  
que   se   basan   en   el   trasvase   del   servidor   al   usuario   las   plataforma   P2P   ponen   en  
contacto   a   los   diferentes   usuarios   para   que   el   trasvase   se   dé   directamente   entre   los  
seeds,   los   usuarios   que   tienen   el   archivo   demandado   en   su   disco   duro,   y   los   leechers    
que   son   los   que   lo   demandan   y   lo   descargan   al   suyo   propio.   En   el   momento   que   el  
archivo  se  ha  descargado  completamente  el  software  marca  a  ese  usuario  como  nuevo  
seed.   El   primero   en   convertirse   en   un   fenómeno   masivo   fue   Napster,   aunque  
posteriormente   han   aparecido   múltiples   variantes     cada   vez   más   evolucionadas   como  
eMule,   Kazaa,   bitTorrent   que   han   causado   multitud   de   problemas   legales   por   no  
respetar  las  leyes  de  Copyright  de  los  diferentes  países.  También  se  utiliza  la  tecnología  
P2P   para   aplicaciones   de   comunicación   mediante   audio   y   video   que   persiguen   el  
trabajo   en   tiempo   real   como   Skype   o   VoIP   y,   en   música,   para   las   sesiones   de  
improvisación  colectiva  online  o  iJams.    
Siempre   que   utilicemos   música   en   la   W.W.W.   tenemos   que   tener   en   cuenta   el   marco   legal  
referente  a  los  derechos  legales  de  los  músicos  que  la  crean.  Los  derechos  de  los  compositores  están  
enmarcados  en  los  Derechos  de  Autor,  que  son  los  que  se  le  reconocen  a  cualquier  persona  que  cree  

  13  
una  obra  literaria,  científica,  didáctica  o  artística.  Estos  derechos  se  reconocen  esté  la  obra  publicada  o  
continúe  inédita,  y  pueden  clasificarse  en  Derechos  Morales  y  Derechos  Patrimoniales.  
Los   Derechos   Morales   del   compositor   se   refieren   a   dos   aspectos   concretos:   el   Derecho   de  
Autoría,   por   el   que   la   sociedad   ha   de   reconocer   públicamente   la   “paternidad”   de   determinada   persona  
de   la   obra   musical   que   ha   creado   y,   por   otra   parte,   la   capacidad   decisoria   de   esa   persona   sobre   la  
integridad   de   la   obra,   la   posibilidad   de   ser   utilizada   para   crear   otras   obras   basadas   en   ella,   su  
fragmentación  o  su  modificación  total  o  parcial.  
Estos  están  más  allá  del  régimen  político  o  económico  del  país  originario  del  artista,  ya  que  la  
mayor  parte  de  las  naciones  del  planeta  han  firmado  el  Convenio  de  Berna  para  la  Protección  de  las  
Obras  Literarias  y  Artísticas,  o  Tratado  de  Berna.  Éste  es  un  tratado  internacional  sobre  la  protección  
de  los  derechos  de  autor  y,  por  tanto,  del  compositor.  Su  primer  texto  fue  firmado  el  9  de  septiembre  
de   1886   en   Suiza,   en   la   ciudad   de   Berna.   Ha   sido   completado   y   revisado   en   varias   ocasiones,   siendo  
enmendado  por  última  vez  el  28  de  septiembre  de  1979.  
Según   este   tratado   los   derechos   de   un   compositor   están   relacionados   con   los   Derechos  
Humanos  referentes  al  derecho  a  la  dignidad  de  todos  los  seres  humanos  y  por  tanto  son:  
• Esenciales:  constituyen  el  mínimo  de  derechos  exigibles  por  parte  de  un  ser  humano  sobre  una  
creación  intelectual.  
• Extrapatrimoniales:  no  pueden  hacerse  estimaciones  ni  tasaciones  del  valor  monetario  de  los  
mismos.  
• Inexpropiables:   no   pueden   ser   adquiridos   en   un   sistema   de   libre   mercado   ni   pueden   ser  
embargados  por  parte  de  un  estado  o  una  institución  de  la  persona  que  los  ostenta.  
• Imprescriptibles:   no   son   caducos   ni   pueden   perderse   por   prescripción   de   plazos,   aunque  
algunos  pueden  heredarse  temporalmente  junto  con  los  Derechos  Patrimoniales.  
• Inalienables:   el   dueño   de   esos   derechos,   o   derechohabiente,   puede   vender,   ceder   o   transferir  
los  derechos  patrimoniales,  pero  no  puede  hacer  lo  mismo  con  los  morales,  por  lo  que  tampoco  
es  legítimo  que  otra  persona  trate  de  adquirirlos  del  derechohabiente.  
• Irrenunciables:   aunque   el   compositor   se   muestre   pasivo   a   ejercer   esos   derechos,   no   puede  
renunciar   activamente   a   ellos   voluntariamente,   del   mismo   modo   que   ningún   ser   humano  
puede  renunciar  a  su  derecho  a  la  dignidad.  
Los  Derechos  Patrimoniales  de  un  compositor  son  los  susceptibles  de  tener  un  valor  económico,  y  
se  subdividen  en  reales,  personales  y  derechos  intelectuales.  Este  tipo  de  derechos  son  limitados,  pues  
expira   a   los   70   años   de   la   muerte   del   autor.   Si   el   compositor   tiene   descendientes,   éstos   heredan   los  
derechos  patrimoniales  y  morales,  pero  si  no  existiera  ningún  descendiente  pasaría  a  ser  de  dominio  
público.  
Estos   derechos   han   sufrido   un   proceso   de   implantación   a   lo   largo   de   la   historia   moderna   y  
contemporánea.   La   naturaleza   de   las   artes   dinámicas   (teatro,   danza   y   música)   requiere   que   sean  
recreadas  por  intérpretes  constantemente,  por  lo  que  para  los  compositores  la  recreación  siempre  ha  
requerido   de   una   mayor   prioridad   que   la   reproducción.   A   pesar   de   ello   con   la   llegada   de   la   imprenta   y  
la   difusión   masiva   de   las   partituras   y   las   tablaturas   entre   el   público   empezó   a   ser   necesario   aclarar  
estas  cuestiones  a  fin  de  poder  utilizar  las  ventajas  que  este  nuevo  canal  ofrecía.  
En   el   siglo   XV   ya   habían   existido   disputas   sobre   la   propiedad   intelectual   y   los   derechos   de  
reproducción     famosas   entre   intelectuales   como   las   de   Antonio   Nebrija   en   la   Universidad   de  
Salamanca,   pero   usualmente   se   fecha   el   nacimiento   del   derecho   de   autor   y   del   derecho   de   copia    
durante   el   siglo   XVIII.   Éste   fue,   el   primer   autor   en   reclamar   derechos   de   autor   en   el   mundo   occidental,  
mucho   antes   que   el   Estatuto   de   Anne   de   1710   del   Reino   Unido   o   las   disputas   de   1662   en   las   que  
interfirió   la   Unión   de   las   Coronas.   Fue   en   Inglaterra   donde,   en   el   siglo   XVIII,   los   editores   de   obras   o  

  14  
impresores  argumentaban  la  existencia  de  un  derecho  a  perpetuidad  a  controlar  la  copia  de  los  libros  
que   habían   adquirido   de   los   autores,   es   decir,   reclamaban   que   habiendo   comprado   al   autor   su  
autorización  para  imprimirlo,  éste  tuviera  que  respetar  ese  contrato  y  no  pudiera  ofrecerle  la  misma  
obra   a   otro   librero.   El   Estatuto   de   la   Reina   Ana   fue   aprobado   por   el   parlamento   inglés   en   1710   y   fue   la  
primera   norma   sobre   copyright   de   la   historia.   Esta   ley   establecía   que   todas   las   obras   publicadas  
recibirían  un  plazo  de  derechos  de  copia  de  14  años,  renovable  por  una  vez  si  el  autor  se  mantenía  con  
vida,  por  lo  que  podían  llegar  a  28.  Por  otra  parte  todas  las  obras  publicadas  antes  de  1710  recibirían  
un   plazo   único   de   21   años   a   contar   de   esa   fecha.   El   dominio   público   en   el   derecho   anglosajón   nació   de  
facto   en   1774,   tras   el   caso   Donaldson   contra   Beckett   en   que   se   discutió   la   existencia   del   copyright   a  
perpetuidad    Otros  países  de  influencia  anglosajona  como  Australia,  India,  los  Reinos  de  Ultramar  o  los  
Estados   Unidos   de   América   adoptaron   el   sistema   británico.   Por   ejemplo   la   Constitución  
estadounidense   de   1787,   en   el   artículo   I,   sección   8,   cláusula   8,   la   llama   “Cláusula   del   Progreso”,  
permite  establecer  en  favor  de  los  autores  "derechos  sobre  la  propiedad  creativa"  por  tiempo  limitado.  
En  1790,  el  Congreso  de  Estados  Unidos  promulgó  la  primera  acta  sobre  el  derecho  a  copia,  creando  
un   sistema   federal   de   copyright   y   protegiéndolo   por   un   plazo   de   catorce   años,   renovable   por   igual  
término  si  el  autor  estaba  vivo  a  su  vencimiento.  Si  no  existía  renovación,  su  obra  pasaba  al  dominio  
público.    
Mientras   en   Estados   Unidos   los   derechos   intelectuales   patrimoniales   se   convirtieron   en   un  
derecho  de  propiedad  comerciable,  en  Francia  y  Alemania  se  desarrolló  una  línea  jurídica  bajo  la  idea  
de   expresión   única   del   autor.   Emmanuel   Kant   decía   que   una   obra   de   arte   no   puede   separarse   de   su  
autor,   y   por   ello   se   mostraba   reticente   a   emanciparla   del   escritor   o,   como   en   nuestro   caso,   del  
compositor.   En   1790,   las   obras   protegidas   por   la   Copyright   Act.   de   Estados   Unidos   eran   sólo   los  
"mapas,   cartas   de   navegación   y   libros"   (no   cubría   las   obras   musicales   o   de   arquitectura).   Este  
copyright   otorgaba   al   autor   el   derecho   exclusivo   a   publicar   las   obras,   por   lo   que   sólo   se   violaba   tal  
derecho  si  reimprimía  la  obra  sin  el  permiso  de  su  titular.  Además,  este  derecho  no  se  extendía  a  las  
"obras   derivadas"   (era   un   derecho   exclusivo   sobre   la   obra   en   particular),   por   lo   que   no   impedía   las  
traducciones   o   adaptaciones   de   dicho   texto.   Con   los   años,   el   titular   del   copyright   obtuvo   el   derecho  
exclusivo   a   controlar   cualquier   publicación   de   su   obra.   Sus   derechos   se   extendieron,   de   la   obra   en  
particular,  a  cualquier  obra  derivada  que  pudiera  surgir  en  base  a  la  "obra  original".  
En   1777   fue   fundada   en   Francia   una   organización   para   luchar   por   el   reconocimiento   de   los  
derechos   de   los   autores,   impulsada   por   Beaumarchais   pero   esta   encontró   en   el   Antiguo   Régimen   un  
muro   ya   que   el   dotar   a   los   librepansadores   y   artistas   de   la   posibilidad   de   controlar   sus   obras   y   recibir  
un   dinero   que   les   diera   independencia   a   cambio   era   opuesto   a   los   intereses   de   la   nobleza   y   la  
aristocracia.  Hasta  ese  momento  los  artistas,  científicos  y  filósofos  y,  por  tanto,  los  compositores  sólo  
podían  lograrse  un  sustento  que  les  permitiera  llevar  a  cabo  su  actividad  profesional  si  pasaban  a  ser  
los  criados  o  maestros  artesanos  al  servicio  de  casas  nobiliarias  o  arzobispados.  No  debemos  olvidar  
que  el  propio  Joseph  Haydn  iba  vestido  con  el  uniforme  de  criado,  un  lacayo  de  librea  como  cualquier  
otro  que  portaba  en  la  solapa  una  aguja  con  una  lira  que  servía  para  marcar  a  los  músicos  dentro  del  
palacio,  y  bajaba  a  cenar  a  las  cocinas  con  los  otros  criados  cuando  terminaba  de  tocar  en  las  velada  de  
sus   señores.   Hubo   que   esperar   al   final   de   la   Revolución   Francesa   para   que   la   Asamblea   Nacional  
aprobara   la   primera   Loi  du  droit  d'auteur   en   1791,   el   mismo   año   de   la   muerte   de   Mozart,   comenzando  
una   oleada   de   aprobaciones   de   leyes   similares   en   aquellos   países   que   querían   garantizar   que   sus  
artistas  e  intelectuales  pudieran  trabajar  libremente.    
Actualmente   la   protección   de   estas   cuestiones   recae   en   la   Convención   Universal   sobre  
Derechos   de   Autor,   firmada   por   todos   los   miembros   de   la   Organización   de   las   Naciones   Unidas   y  
publicada  en  1952,  siendo  competencia  de  la  Organización  de  las  Naciones  Unidas  para  la  Educación,  
la  Ciencia  y  la  Cultura.  

  15  
En   el   caso   español   el   Gobierno   se   ha   visto   forzado   a   implantar   unas   medidas   de   control  
mínimas  ante  la  presión  de  estos  organismos  internacionales,  ya  que  aún  no  se  habían  tomado  cartas  
en  la  implantación  del  Convenio  de  Berna.  Tras  una  serie  de  conflictos  aparecidos  en  la  opinión  pública  
y  la  realización  de  amenazas  hacia  los  diputados  del  congreso  en  los  días  anteriores  en  la  votación,  la  
medida  se  ratificó  directamente  en  el  Senado.    
La   Ley   2/2011,   de   4   de   marzo,   de   Economía   Sostenible   es   un   conjunto   de   modificaciones   a  
implantar  en  leyes  anteriores,  y  comienza  diciendo:  
“DISPOSICIÓN   FINAL   CUADRAGÉSIMA   TERCERA.   Modificación   de   la   Ley   34/2002,   de   11   de  
julio,  de  Servicios  de  la  Sociedad  de  la  Información  y  de  Comercio  Electrónico,  el  Real  Decreto  
Legislativo   1/1996,   de   12   de   abril,   por   el   que   se   aprueba   el   Texto   Refundido   de   la   Ley   de  
Propiedad   Intelectual   y   la   Ley   29/1998,   de   13   de   julio,   reguladora   de   la   Jurisdicción  
Contencioso-­‐administrativa,   para   la   protección   de   la   propiedad   intelectual   en   el   ámbito   de   la  
sociedad  de  la  información  y  de  comercio  electrónico.  
Uno.   Se   introduce   una   nueva   letra   e)   en   el   artículo   8.1   de   la   Ley   34/2002,   de   11   de   julio,   de  
Servicios  de  la  Sociedad  de  la  Información  y  de  Comercio  Electrónico  con  el  siguiente  tenor:  
 
e)La  salvaguarda  de  los  derechos  de  propiedad  intelectual.”  
Aunque   resulta   sorprendente,   en   el   marco   legal   español   no   se   había   incluido   aún   una   ley   que   señalara  
las  competencias  del  estado  en  la  protección  a  los  autores.  
 

Mush  up,  mix…  intertextualidad  e  intratextualidad.  


El   concepto   de   mush   up   o   remezclado   se   refiere     a   un   modo   de   trabajo   en   el   que   el   usuario   (en  
alumno  o  el  profesor  en  este  caso)  no  crea  documentos  completamente  nuevos,  sino  que  trabaja  en  un  
espacio  que  reune  recursos  que  provienen  de  otros  espacios  o  webs,  “mapa”  de  enlaces  que  relacionan  
documentos  o  contenidos  preexistentes  que  se  encuentran  cargados  en  diversos  servidores.  Dentro  de  
esta   idea   se   encuentran   desde   las   típicas   listas   de   enlaces   usadas   a   modo   de   “bibliografías  
electrónicas”,   a   documentos   que   insertan   contenido   multimedia   a   través   de   una   dirección   url   y   no  
insertando   el   archivo   completo.   Lo   negativo   es   que   hace   imprescindible   una   consexión   a   la   red  
constante,   pero   cuenta   con   la   ventaja   de   aligerar   considerablemete   el   tamaño   de   los   documentos   a  
exponer  y  agilizar  su  lectura.  
También   existe   otra   acepción   que   hace   referencia   a   un   objeto   artístico   nuevo   que   se   realiza  
ensamblando  o  mezclando  materiales  que  provienen  de  objetos  anteriores  del  mismo  autor  o  de  otro,  
sin  ocultarla  intención  original  de  hacerlo  por  lo  que  no  incurriría  en  plagio.    

Software  

Software  D.A.W.      
Se   conocen   con   este   nombre   a   todos   aquellos   programas   informáticos   que   tienen   como   fin   principal   el  
de   trabajar   con   sonido   en   formato   digital   de   cualquier   tipo,   y   de   ahí   su   nombre   (Digital   Audio  
Workstation).   Aunque   originalmente   se   presentaban   en   forma   independiente   los   editores   de   audio   y  
los  secuenciadores  (de  audio  o  MIDI)  actualmente  suelen  presentarse  todas  las  aplicaciones  dentro  del  
mismo  programa.  Las  últimas  versiones  ofrecen  la  posibilidad  de  insertar  audio  proveniente  de  sonido  
real   digitalizado   por   un   transductor,   archivos   preexistentes   o   archivos   en   formato   MIDI,   bien  
preexistentes   o   bien   insertados   en   tiempo   real   por   controladores   MIDI   de   cualquier   tipo).  
Recientemente   se   ha   añadido   la   posibilidad   de   utilizar   plug-­‐ins   VST,   lo   que  le  permite  a   los  alumnos  

  16  
ofrecer   creaciones   musicales   de   una   gran   calidad   a   través   de   medios   realmente   económicos.  
Actualmente  los  más  populares  son  Adobe  Audition  ,  Wavelab,  Soundforge,  Bias  Peak,  Spark,  Cubase,  
Logic   Pro,   Pro   Tools,   Digital   Performer,   Sonar,   Fruity   Loops,   Ableton   Live,   Reason,   etc.   Al   contar   con  
este   gran   abanico   no   es   difícil   encontrar   algún   programa   que   se   adapte   perfectamente   a   las  
necesidades  de  nuestros  alumnos  y  a  los  medios  informáticos  de  los  que  dispongamos.  
Es   cierto   que   la   aplicación   más   clara   es   su   utilización   en   las   asignaturas   relacionadas   con   la  
composición   donde   ofrecemos   a   los   discentes   una   forma   de   expresión   que   les   permite   manipular  
personalmente  no  sólo  todos  los  parámetros  de  la  composición,  sino  también  de  la  interpretación  final  
o   la   presentación   de   la   obra   en   una   grabación.   Además   de   eso   se   abre   un   inmenso   campo   de  
posibilidades   en   el   mundo   del   análisis   ya   que   podemos   realizar   actividades   que   tradicionalmente  
quedaban  limitadas  a  lo  puramente  auditivo,  reforzándolas  con  visualizaciones  del  sonido  que  se  está  
percibiendo  en  ese  instante  (en  forma  de  onda  y  frecuencia  espectral,  en  panorámica    y  fase),  lo  que  
favorece   significativamente   el   aprendizaje   al   hacer   que   trabajen   sinérgicamente   la   memoria   auditiva   y  
la  visual.  Por  este  motivo  puede  utilizarse  en  campos  tan  diferentes  como  el  entrenamiento  auditivo,    
trascripción  de  partituras,  análisis  de  obras  musicales  o  de  arte  sonoro,    autoedición  de  grabaciones,  
autoevaluación  de  la  interpretación  instrumental  o  vocal...  

Editores  de  partituras    


Estos  programas  informáticos  han  alcanzado  popularidad  en  los  últimos  20  años.  Al  haber  avanzado  
hacia  una  utilización  cada  vez  más  instintiva  pueden  ser  utilizados  hasta  por  los  niños  más  pequeños  e  
ir   avanzando   en   su   dominio   a   la   vez   que   éstos   avanzan   en   el   dominio   del   lenguaje   musical   y   su  
notación.  Si  les  permitimos  además  utilizar  controladores  MIDI  para  “disparar”  la  música  le  ofrecemos  
al   alumno   la   posibilidad   de   transcribir   improvisaciones   musicales   en   tiempo   real,   que   luego   podrá  
manipular  a  su  antojo  o  no,  agilizando  la  realización  de  ejercicios  típicos  de  asignaturas  como  lenguaje  
musical,  armonía,  contrapunto  o  fundamentos  de  composición  de  tal  manera  que  pueden  multiplicarse  
significativamente   los   ejercicios   que   éste   realiza   en   un   mismo   período   de   tiempo,   si   lo   comparamos  
con   el   trabajo   tradicional   sobre   papel.   Incluso   puede   simultanearse   con   la   utilización   de   programas   de  
tutoría   que   controlen   la   aparición   de   las   faltas   más   comunes   (cruces   de   voces,   octavas   paralelas,  
superación  de  los  límites  de  las  tesituras...)  que,  si  bien  son  incapaces  de  sustituir  la  labor  del  profesor,  
la   aligeran   considerablemente   permitiéndole   a   este   último   centrarse   en   la   parte   artística   o   la  
exposición  de  contenidos  nuevos.  

Software  Ofimático    
Éste  es  posiblemente  el  que  se  encuentra  más  extendido  día  de  hoy,  ya  que  se  utiliza  en  todas  las  áreas.  
La   creación   de   documentos   en   soporte   informático,   sea   éste   el   que   sea,   es   una   de   las   herramientas  
básicas   de   cualquier   estudiante,   así   como   de   cualquier   profesional.   En   educación   musical   ha   de  
empujársele  hacia  ello  como  en  cualquier  otra,  haciendo  especial  hincapié  en  las  herramientas  propias  
de  nuestro  campo.    
Todas   las   asignaturas   relacionadas   con   el   estudio   de   la   historia   la   música   se   agilizan   y   enriquecen  
cuando  la  clase  está  centralizada  en  exposiciones  multimedia  (tipo.pps)  en  las  que  las  audiciones,  las  
imágenes,  los  videos...  están  insertados  siguiendo  un  orden  lógico,  evitando  los  problemas  típicos  que  
aparecen  al  utilizar  diferentes  soportes  simultáneamente  (Pc,  DVD,  equipo  Hi-­‐fi,  fotocopias,  libros...)  y  
creando  una  experiencia  inmersiva  que  canalice  toda  la  atención  hacia  el  punto  que  el  profesor  desee.  
La   sustitución   de   las   tradicionales   fotocopias   por   documentos   tipo   e-­‐book   o   e-­‐score   posibilita   la  
replicación  de  estos  sin  estar  sujetos  a  condicionantes  materiales  como  puede  ser  el  coste  económico,  
la  localización  de  los  originales,  el  volumen  de  objeto  físico,  el  deterioro  etc.  Por  otra  parte  la  tendencia  
actual  es  que  los  materiales  creados  especialmente  para  estos  soportes  sean  también  interactivos  por  
lo  que  ofrece  muchas  más  posibilidades  en  los  formatos  en  papel.  

  17  
e-­‐Docs.  
Una  variante  son  las  aplicación  de  edición  online  de  documentos,  que  son  tremendamente  útiles  para  
realizar   trabajo   colaborativo   en   grupo,   ya   que   permite   editar   el   mismo   documento   al   mismo   tiempo  
desde  diferentes  ordenadores  conectados  a  la  red.  La  plataforma  más  popular  actualmente  es  Google  
docs.  

Software  Educativo.  
Son  estos  programas  los  que  realmente  mejoran  exponencialmente  el  rendimiento  del  trabajo  de  los  
alumnos.  Cuanto  más  se  acercan  estos  a  la  estética  y  el  protocolo  de  los  videojuegos  más  motivación  
encuentran   los   alumnos   jóvenes   para   acercarse   a   ellos.   La   posibilidad   de   competir   en   la   superación   de  
niveles,   la   acumulación   de   puntos   o   el   establecimiento   de   nuevos   récords,   consigue   que   niños   y  
jóvenes   introduzcan   la   realización   de   ejercicios   entre   sus   actividades   de   ocio,   consiguiendo   por   fin  
eliminar   el   condicionamiento   negativo   que   existe   hacia   tareas   que   resultan   rutinarias,   torpes   y  
pesadas  si  se  realizan  utilizando  los  métodos  tradicionales.  

Hardware    
Los  recursos  de  hardware  que  necesitaríamos  en  un  aula  de  música  en  la  que  se  quisieran  explotar  al  
máximo  las  posibilidades  de  estas  aplicaciones  sería:  
• Una  Pizarra  Digital  Interactiva,  o  cañón  proyector.  
• Un  tablet  Pc  por  alumno  o,  en  su  defecto,  un  puesto  informático.  
• Micrófonos  con  conversores  a  audio  digital  integrados.  
• Cámara  de  video  digital,  o  web  cam.  
• Conjunto  de  altavoces  5.1  o  7.1  correctamente  distribuidos  en  el  aula.    
• Ordenador  personal  central  del  aula.    

• Monitor  de  entre  19’  y  20’.  


• Teclado  y  ratón  con  tecnología  inalámbrica.    
• Impresora  multifunción.  
• Modem  que  permita  una  conexión  a  internet  rápida.  
• Varios  Pendrive  o  unidades  de  memoria  USB.  
• Un  teclado  maestro  con  conexión  MIDI.  
   
Todas   las   aplicaciones   informáticas,   recursos   y   métodos   que   acabamos   de   exponer   alcanzan   un  
funcionamiento  óptimo  cuando  contamos  en  el  aula  con  una  pizarra  digital  interactiva  conectada  a  un  
equipo  de  Tablets  PC,  aunque  no  es  la  única  opción  posible  ni  mucho  menos.    

Valoración  y  consideraciones  generales.  


Tras   este   breve   recorrido   por   las   nuevas   tecnologías   de   la   información   de   la   comunicación   y   su  
potencial  dentro  del  aula  de  música  hemos  podido  familiarizarnos  un  poco  más  con  este  conjunto  de  
servicios,   redes,   software   y   hardware   que   tienen   como   fin   la   mejora   de   la   calidad   de   vida   en   general     y    
de   la   relación   de   los   estudiantes   con   la   música   en   particular.   Es   necesario   comprender   que   se   integran  
en  un  sistema  de  información  interconectado  entre  sí  y  complementario  con  respecto  a  los  sistemas  de  
difusión   de   información   tradicionales,   así   como   que   en   ningún   momento   están   pensados   para  

  18  
“sustituir”   al   profesor,   sino   para   darle   a   éste   la   oportunidad   de   impartir   un   mayor   cantidad   de  
contenidos   y   conseguir   a   la   vez   una   mejora   significativa   en   la   enseñanza   tanto   en   calidad   como   en  
eficacia.    
La   utilización   plena   de   estas   tecnologías   nos   ofrece   la   posibilidad   de   emanciparnos   totalmente   de  
trabajo   sobre   papel,   ya   que   se   forma   una   pequeña   red   de   intranet   desde   la   que   el   profesor   puede  
supervisar,   controlar   o   corregir   las   actividades   de   los   alumnos   en   cualquier   momento.   Si   además   se  
cuenta   con   una   conexión   a   Internet   cabe   la   posibilidad   de   realizar   un   volcado   continuo   de   las  
actividades  que  se  están  llevando  a  cabo  en  clase  (tanto  las  exposiciones  del  profesor,  como  todos  los  
documentos   que   se   utilizan   o   los   ejercicios   realizados   por   los   propios   alumnos)   a   un   servidor,  
haciendo   realmente   sencillo   acceder   en   cualquier   momento   a   estas   actividades   desde   una   web   2.0,  
cerrando  así  un  ciclo  que  termina  para  siempre  con  todos  los  problemas  asociados  a  libros,  cuadernos,  
apuntes   y   fotocopias,   como   son   el   deterioro,   el   extravío,   el   coste   económico,   su   transporte,   la  
necesidad   de   presentar   los   trabajos   realizados   físicamente,   la   imposibilidad   de   acceder   a   los  
materiales   cuando   un   alumno   no   puede   personarse   en   el   centro   o   el   gran   coste   que   supone   para   el  
ecosistema.  
Aunque   para   los   profesores   que   hayan   estudiado   con   anterioridad   a   la   aparición   de   esta   tecnología   ,su  
complejidad   y   novedad   puedan   resultar   abrumadoras,   y   aparezca   la   tentación   de   escudarse   en   los  
prejuicios   clásicos   para   evitar   la   actualización,   es   un   hecho   que   las   enseñanzas   musicales   necesitan   de  
todos   los   recursos   que   puedan   resultar   de   ayuda.   Además,   estas   formas   de   expresarse   y   de  
relacionarse  con  la  música  forman  parte  de  la  vida  de  los  niños  y  los  jóvenes  de  hoy.  No  podemos,  ni  
debemos,  negárselas.  
 

  19  
 

BIBLIOGRAFÍA  
 
Cook,  Nicholas.  The  Cambridge  Companion  to  Recorded  Music.  Cambridge,  Cambridge  University  Press,  
2009.  
Collins,   Nicholas   &   D’Escrivan,   Julio.   The   Cambridge   Companion   to   Recorded   Music.   Cambridge,  
Cambridge  University  Press,  2010.  
Rasskin,  Martin.  Música  virtual.  Madrid,  SGAE  &  Ed.  Anaya,  1994.  
Rumsey,  Francis  &  McCormick,  Tim.  Sound  &  Recording.  Oxford,  Jordan  Hill,  2009.  
Vázquez  González,  María.  Aplicaciones   de   las   nuevas   tecnologías   de   la   información   y   de   la   comunicación  
en  la  educación  musical.  Madrid,  Editorial  Grupo  Buho,  2007.  
VV.AA.  Logic  Pro  9.  Manual  de  usuario.  L.A.,  Apple  Inc.  2010.  
 

  20  

También podría gustarte