Está en la página 1de 27

Contenido

5.1. Características y magnitudes de las señales acústicas. ................................................................................... 3


5.1.1. Ondas sonoras. ......................................................................................................................................... 3
*Foto Figura 5.1. Ejemplo onda longitudinal y onda transversal. ..................................................................... 3
5.1.2. Amplitud de una onda sonora. ................................................................................................................. 3
*Foto Figura 5.2. Ejemplo de señal de audio en el dominio del tiempo. .......................................................... 3
*Foto fórmula 1. ................................................................................................................................................ 4
*Foto fórmula 2. ................................................................................................................................................ 4
5.1.3. Frecuencia y fase. .................................................................................................................................... 4
*Foto fórmula 3. ................................................................................................................................................ 4
*Foto fórmula 4. ................................................................................................................................................ 4
*Foto figura 5.3. Representación de la fase de una senoide. ............................................................................. 4
*Foto Figura 5.5. Sensor del aparcamiento. ...................................................................................................... 5
5.1.4. Velocidad del sonido. .............................................................................................................................. 5
*Foto Fórmula 5. ............................................................................................................................................... 5
5.1.5. Longitud de onda. .................................................................................................................................... 6
*Foto Figura 5.8. Representación de la longitud de onda para una señal transversal. ...................................... 6
*Foto Fórmula 6. ............................................................................................................................................... 6
*Foto Fórmula 7. ............................................................................................................................................... 6
*Foto Fórmula 8. ............................................................................................................................................... 6
*Foto Fórmula 9. ............................................................................................................................................... 7
5.1.7. Potencia acústica...................................................................................................................................... 7
*Foto Fórmula 10. ............................................................................................................................................. 7
5.2. Acústica fisiológica. ....................................................................................................................................... 7
5.2.1. Intensidad. ............................................................................................................................................... 8
5.2.2. Tono......................................................................................................................................................... 8
5.2.3. Timbre. .................................................................................................................................................... 9
*Foto Figura 5.9. Onda cuadrada y senoidal de la misma amplitud y frecuencia. ............................................ 9
5.2.4. Duración. ................................................................................................................................................. 9
5.2.5. Monofonía y estereofonía. ....................................................................................................................... 9
5.3. Medida del sonido y magnitudes empleadas. ............................................................................................... 10
5.3.1. El decibelio. ........................................................................................................................................... 10
*Foto Fórmula 12. ........................................................................................................................................... 10
5.3.2. El fonio. Curvas isofónicas y respuesta en frecuencia........................................................................... 10
*Foto Figura 5.10. Curvas de sonoridad.......................................................................................................... 11
5.4. Digitalización, codificación y parámetros de las señales digitales. .............................................................. 11
*Foto Figura 5.11. Representación de una señal analógica de voz. ................................................................ 11
*Foto Figura 5.12. Representación de una señal digital de audio. .................................................................. 11
*Foto Figura 5.13. Esquema del proceso de conversión analógico-digital. .................................................... 12
*Foto Figura 5.14. Escala de cuantización de un convertidor analógico-digital de 3 bits............................... 13
*Foto Figura 5.15. Proceso completo de conversión analógico a digital y reconstrucción digital a analógico.
......................................................................................................................................................................... 13
5.5 Perturbaciones de un sistema de sonido, precauciones y requisitos de funcionamiento. .............................. 13
5.5.1. Ruido acústico. ...................................................................................................................................... 13
5.5.2. Acústica del recinto. .............................................................................................................................. 14
■■■ Colocación de los micrófonos. .................................................................................................................... 14
*Foto Figura 5.16. Efecto de la proximidad de los micrófonos. ..................................................................... 14
*Foto Figura 5.18. Técnica para evitar el enmascaramiento de la fuente de sonido. ...................................... 15
5.6. Medida de señales de sonido analógicas y digitales. .................................................................................... 15
5.6.1. Polímetro. .............................................................................................................................................. 16
*Foto Figura 5.19 y 5.20. Multímetro analógico y multímetro digital. ........................................................... 16
5.6.2. Sonómetro.............................................................................................................................................. 16
5.6.3. Generadores de ruido rosa. .................................................................................................................... 17
5.7. La señal de vídeo. Orígenes. ......................................................................................................................... 17
*Foto Figura 5.21. Detalle de la señal de vídeo. ............................................................................................. 18
5.8. Exploración progresiva y entrelazada. .......................................................................................................... 18
*Foto Figura 5.24. Ejemplo de señal de vídeo analógica monocromática. ..................................................... 19
5.9. Características de la señal de vídeo analógico. ............................................................................................. 19
*Foto Figura 5.25. Formatos de vídeo 4:3 y 16:9............................................................................................ 19
5.10. Formatos de video. ..................................................................................................................................... 20
5.10.1. Descomposición de la imagen: luminancia y crominancia. ................................................................. 20
*Foto Figura 5.26. Ejemplo de codificador genérico de color. ....................................................................... 21
*Foto Figura 5.27. Intercalado del espectro de crominancia en el espectro de luminancia. ........................... 21
*Foto Figura 5.29. Espectro de la señal de vídeo. ........................................................................................... 22
5.11. Vídeo digital. .............................................................................................................................................. 22
5.12. Muestreo, digitalización y formación de la trama digital. .......................................................................... 23
*Foto Figura 5.30. Detalle de la línea activa digital. ....................................................................................... 23
*Foto Figura 5.31. Esquema del muestreo 4:2:2 según la Recomendación CCIR 601. .................................. 24
*Foto Figura 5.32. Detalle de intercalado de muestras. .................................................................................. 24
5.13. Compresión de las imágenes de las señales de vídeo. ................................................................................ 25
5.13.1. Técnicas de compresión de las señales de vídeo. ................................................................................ 25
■■■ M-JPEG. ...................................................................................................................................................... 25
■■■ MPEG. ......................................................................................................................................................... 25
5.14. Televisión digital terrestre. ......................................................................................................................... 26
5.15. El monitor de forma de onda y el vectorscopio. ......................................................................................... 26
5.16. Perturbaciones que pueden afectar a un sistema de vídeo. ......................................................................... 26
5.1. Características y magnitudes de las señales acústicas.
En física, el sonido puede definirse como un fenómeno no asociado a la transmisión de una onda de propiedades
elásticas que produce una vibración en un cuerpo, incluso cuando estas ondas no son audibles por el ser humano.
El sonido audible por las personas es aquel cuyas variaciones del medio, normalmente el aire, producen una
presión que el oído convierte en ondas mecánicas que son a su vez convertidas en impulsos eléctricos que llegan
al cerebro para ser procesadas.
En media, el ser humano puede distinguir ondas sonoras cuya vibración esté comprendida entre los 20 hercios y
los 20.000 hercios.
En el aire, en condiciones normales (unos 20 grados de temperatura y 1 atmósfera de presión), el sonido se
transmite como onda elástica a una velocidad de 343 metros por segundo, aproximadamente. Cuanto más denso es
el medio, la velocidad de propagación del sonido aumenta, siendo mayor en los sólidos que en los líquidos y en
los líquidos que en los gaseosos.
A continuación, se describen algunas de las características y magnitudes más importantes del sonido.
5.1.1. Ondas sonoras.
Podemos distinguir dos tipos de ondas en función de cómo se desplacen las partículas por el medio:
1. Ondas longitudinales: cuando el movimiento de las partículas es paralelo a la dirección de propagación.
2. Ondas transversales: cuando el movimiento de las partículas es perpendicular a la dirección de propagación.
*Foto Figura 5.1. Ejemplo onda longitudinal y onda transversal.

El sonido es generado por variaciones de presión transversales y longitudinales en materiales sólidos, pero
únicamente longitudinales en materiales líquidos y gaseosos.
Curiosidad.
Si has visto alguna película del Oeste, recordarás alguna secuencia en la que los personajes ponían la oreja en la
vía del tren para saber si este venía. Esto es así porque el sonido llega antes por las vías que por el aire.
5.1.2. Amplitud de una onda sonora.
La amplitud de una onda sonora es el valor o nivel que esta alcanza en un instante de tiempo determinado.
Normalmente, es una magnitud fluctuante y que puede medirse empleando distintas magnitudes, como los
pascales, si la percibimos como onda de presión, o voltios y amperios, si ha sido procesada por algún equipo
electrónico, como un micrófono, por ejemplo.
Sabías que...
Las variaciones de la presión en la amplitud de una señal sonora pueden ser muy grandes, pudiendo llegar al punto
de dañar el oído, lo que se conoce como umbral de dolor o muy pequeñas, apenas audibles, llegando un punto en
el que son imperceptibles, lo que se conoce como umbral de audición.
Como la amplitud es una magnitud variables con el tiempo, suelen definirse otros conceptos relacionados con
esta, como son los que se describen a continuación:
● Valor instantáneo. Es el valor que toma la amplitud de una señal sonora en un determinado instante de tiempo.
● Valor máximo. También conocido como valor de pico, es el máximo valor medido sobre el eje de ordenadas
que alcanza la señal sonora.
● Valor mínimo. También conocido como valor de valle, es el mínimo valor medido sobre el eje de ordenadas
que alcanza la señal sonora.
*Foto Figura 5.2. Ejemplo de señal de audio en el dominio del tiempo.
● Valor pico a pico. Es la diferencia entre el valor máximo o de pico y el valor mínimo o valle.
● Valor medio. Se define como el valor promedio de un ciclo de señal. Matemáticamente, se calcula como:
*Foto fórmula 1.
donte T es el periodo del ciclo y f(t) la señal de audio.
● Valor eficaz. También conocido como valor RMS, de la sigla en inglés de Root Mean Square. El valor eficaz se
expresa matemáticamente como:
*Foto fórmula 2.
El valor RMS es el que produce el mismo efecto calorífico que su equivalente en corriente continua, de ahí su
importancia.
5.1.3. Frecuencia y fase.
Para comprender la importancia de la frecuencia y la fase en las señales de audio, debemos conocer previamente
la definición exacta de dichos conceptos, partiendo de la definición de onda periódica.
Cuando la forma de onda de una señal se repite a intervalos iguales de tiempo podemos decir que se trata de una
señal periódica. Es decir, una señal periódica es una señal que se repite en intervalos de tiempo. Al tiempo entre
repeticiones se la conoce como periodo, pudiendo expresar matemáticamente que:
*Foto fórmula 3.
Es decir, la forma de onda en el instante t es idéntica al instante de tiempo t + T para cualquier valor del tiempo
(t).
Podemos definir una serie de magnitudes relacionadas con las ondas periódicas como son:
● Ciclo. Es la parte de una onda periódica que queda comprendida en un intervalo de tiempo de un periodo (T).
● Frecuencia. Estrictamente hablando, la frecuencia es el número de repeticiones de una señal periódica por
unidad de tiempo. Se expresa en hercios. Es decir, cuánto se repite en un segundo. La frecuencia y el periodo de
una señal se relacionan por la siguiente ecuación:
*Foto fórmula 4.
● Fase. La fase expresa la situación instantánea en el ciclo de una magnitud que varía periódicamente. También
puede interpretarse como la fracción del periodo que ha transcurrido desde el momento correspondiente al estado
elegido como referencia.
Si representamos el ciclo de una señal periódica en un círculo completo (360 grados), es decir, haciendo coincidir
una rotación completa de 360 grados con el ciclo, la diferencia en grados entre un punto del círculo y su comienzo
es lo que llamamos fase.
*Foto figura 5.3. Representación de la fase de una senoide.

Las señales de audio son señales normalmente no periódicas, salvo que se trate de tonos puros o senoides como
las notas musicales generadas por un instrumento musical. Por suerte, existe un teorema matemático que pone de
manifiesto que toda señal ondulatoria, entre ellas el sonido, puede ser representada como una suma de señales
sinusoidales o tonos puros y, por tanto, periódicos, con una amplitud, frecuencia, periodo y fase bien definidos.
Esta descomposición simplifica en gran medida el estudio de las señales de audio complejas (formadas por más de
un tono o frecuencia), ya que posibilita que podamos estudiar los distintas componentes de frecuencia de forma
independiente y luego combinar los resultados por un principio conocido como principio de superposición.
Para analizar una señal de audio arbitrariamente compleja, se suele recurrir a conceptos como son la potencia
acústica y el espectro de frecuencias.
● Potencia acústica. Se define el PWL o nivel de potencia acústica como la cantidad de energía radiada al medio
por una fuente determinada en forma de ondas y por unidad de tiempo. Su magnitud depende de la amplitud de la
señal y se mide en vatios.
● Espectro de frecuencias. Constituye la distribución de energía de una señal a lo largo de los distintos
componentes de frecuencia que la componen.
Las señales de audio tendrán, por lo general, distintos componentes de frecuencia y podrán ser representadas tanto
en el dominio del tiempo como en el dominio de la frecuencia para su estudio.
*Foto Figura 5.4. Ejemplo de representación de señal en el dominio del tiempo y en el dominio de la frecuencia.

Para percibir un sonido por el oído, será preciso que la frecuencia de las señales sonoras esté comprendida dentro
de un rango (entre los 20 hercios y los 20.000 hercios). Las frecuencias inferiores a los 20 hercios se conocen
como infrasonidos y no son audibles por el ser humano, sin embargo, estos pueden ocasionar efectos fisiológicos
sobre ellos si alcanzan valores muy elevados, así, por ejemplo, los infrasonidos de 140 dB pueden llegar a
provocar la pérdida de equilibrio en las personas, entre otros efectos. Se utilizan en aplicaciones como son la
detección de grandes objetos a elevadas distancias como montañas o en los fondos marinos.
Por otra parte, los sonidos que tienen una frecuencia superior a los 20.000 hercios se conocen como ultrasonidos y
se emplean, entre otras aplicaciones, como sensores de presencia o de aparcamiento.
*Foto Figura 5.5. Sensor del aparcamiento.

Por otra parte, el concepto de fase anteriormente definido, es muchas veces ignorado, pues, cuando estamos en
presencia de una única señal de audio que se transmite directamente de la fuente al oído, la influencia de la fase es
nula; sin embargo, adquiere especial importancia cuando estamos frente a dos o más señales de sonido.
Si consideramos un sonido básico, como puede ser un tono senoidal como el mostrado en la Figura 5.6., y
tomamos dos tonos de igual fase y los mezclamos (sumamos), obtendremos un tono de igual forma (frecuencia,
periodo y fase), pero doble amplitud.
*Foto Figura 5.6. Tono senoidal *Foto Figura 5.7. Suma de dos tonos iguales y misma fase.

En cambio, si las señales de audio tienen igual forma, la misma frecuencia, idéntico periodo, pero, distinta fase, la
señal de audio resultante no será necesariamente un tono de igual forma.
Tanto es así que, si el desfase de ambas es de 180 grados y son idénticas, el resultado será una señal nula.
5.1.4. Velocidad del sonido.
La velocidad del sonido es aquella con la que se propaga la onda sonora y depende de las características del medio
por el que se propaga y la temperatura.
Si suponemos que el aire es un gas ideal, podemos calcular la velocidad del sonido en función de la temperatura
como:
*Foto Fórmula 5.
Donde vaire es la velocidad del aire expresada en metros por segundo y T la temperatura dada en grados celsius. A
una temperatura de 20 grados, el valor de la velocidad es de 343 m/s.
5.1.5. Longitud de onda.
Por otra parte, la longitud de onda, comúnmente representada por la letra λ, se define como la distancia entre dos
máximos o compresiones consecutivas de la onda. Cuando nos referimos a ondas transversales, la longitud de
onda es la distancia que existe entre dos máximos o dos mínimos de esta.● En el caso de ondas longitudinales, la
longitud de onda es la distancia que existe entre dos compresiones contiguas.
*Foto Figura 5.8. Representación de la longitud de onda para una señal transversal.

La longitud de onda se relaciona con la frecuencia (f) [Hz] y con la velocidad del sonido (vsonido) [m/s] por la
expresión:
*Foto Fórmula 6.
■■ Intensidad sonora y presión sonora.
La intensidad sonora, también conocida como intensidad acústica, se define como la potencia acústica por unidad
de superficie o área perpendicular a la dirección de propagación. También puede ser expresada en términos de
energía por unidad de tiempo y superficie. Se mide en vatios por metro cuadrado.
*Foto Fórmula 7.
Donde I es la intensidad sonora, E la energía, A el área, t el tiempo y P la potencia.
Sabías que...
En sonido suele definirse el concepto de umbral de audición como el nivel a partir del cual el oído del ser humano
es capaz de percibir los sonidos. Dicho umbral se encuentra en unos valores de 10-12 [W/m2] aproximadamente.
Por otra parte, también se define el umbral de dolor, donde la audición se convierte en dolorosa. Esto suele darse a
unos valores aproximados de intensidad de 1 W/m2.
El rango de intensidades sonoras que el ser humano es capaz de percibir es muy amplio y su representación en
escala lineal a veces no es la más conveniente. Es por ello que, frecuentemente, se expresa el nivel de intensidad
acústica en escala logarítmica, es decir, en decibelios, empleando como nivel de referencia el umbral de audición.
Matemáticamente formulado:
*Foto Fórmula 8.
Donde β es el nivel de intensidad acústica expresado en decibelios, I es la intensidad sonora en escala lineal y I0 es
el umbral de audición (10-12 W/m2).
En la Tabla 5.1., se muestran, a modo de ejemplo, algunos valores de intensidad sonora (expresados en decibelios
y en vatios por metro cuadrado) típicos en diferentes situaciones.
Tabla 5.1. Valores del nivel de intensidad sonora en diferentes situaciones comunes.
Situación Intensidad sonora (W/m2) Nivel de intensidad (dB)
Umbral de dolor 102 140
Avión despegando 10 130
Motor de avión en funcionamiento 1 120
Concierto de música 10-1 110
Tren atravesando un túnel 10 -3 90
Aspiradora funcionando 10 -5 70
Oficina 10 -8 40
Hogar 10 -9 30
Biblioteca 10 -10 20
Susurro 10 -11 10
Umbral de audición 10 -12 0
Otro concepto importante es el de presión sonora o presión acústica, que se refiere a la desviación, causada por
una onda sonora, que se produce en la presión del aire respecto a la presión atmosférica.
La presión sonora es, por tanto, consecuencia de la propia propagación del sonido por el medio. La energía
producida por las ondas de sonido produce un movimiento oscilatorio en las partículas del aire que generan una
fluctuación alterna en la presión atmosférica estática del aire. Esta diferencia entre la presión instantánea y la
presión atmosférica acústica es lo que se denomina presión sonora. Se mide en pascales.
Por otra parte, también se define el nivel de presión sonora como la medición en escala logarítmica del valor
promedio de la presión sonora respecto a un valor de referencia.
El nivel de referencia de presión sonora se toma como 20 micropascales en el aire, que es considerado como el
sonido más débil audible. En el agua, se toma un valor de referencia de 1 micropascal.
El nivel de presión sonora, también conocido como SPL (sigla de Sound Pressure Level) se mide en decibelios
SPL (dB SPL). A mayor cantidad de dB SPL, el sonido tendrá más volumen y, por tanto, será percibido con mayor
amplitud. Matemáticamente:
*Foto Fórmula 9.
Donde Lp es el nivel de presión sonora expresado en dB SPL, P1 es la media cuadrática de la presión sonora
instantánea y P0 es la presión de referencia.
Una exposición a un nivel de presión sonora de 120 dB SPL puede ocasionar la pérdida irreversible de la audición.
Este nivel coincide, aproximadamente, con el umbral de dolor. Niveles superiores a 85 dB SPL suelen generar
pérdida temporal de la audición, pudiendo ser irreversible si el tiempo de exposición se prolonga en exceso.
Sabías que...
Cuando el nivel de presión sonora supera los 194 dB SPL, dejan de ser consideradas ondas de sonido para pasar a
llamarse ondas de choque, que son las que se producen en las explosiones y que tienen una elevada capacidad
destructiva.
En la Tabla 5.2, podemos observar un resumen de valores de presión sonora y niveles de presión sonora para
algunas fuentes de sonido en situaciones típicas.
Tabla 5.2. Valores de presión sonora y niveles de presión sonora para algunas fuentes de sonido en situaciones
típicas.
Situación o fuente Presión sonora (pascales) Nivel de presión sonora (dB SPL)
Rifle disparando a un metro de distancia 5,02 168
Motor de un jet 632 150
Umbral de dolor 63,2 130
Daño irrecuperable en el oído 20 120
Avenida con tráfico pesado medido a 10 metros 0,2-0,63 80-90
de distancia
Pérdida temporal de la audición 0,36 80
Habitación tranquila 0,0002-0,00063 20-30
Umbral de audición 20·10-6 0
5.1.7. Potencia acústica.
La potencia acústica es la energía radiada por una fuente sonora. El nivel de potencia acústica se define como la
energía radiada por una fuente en forma de ondas acústicas y por unidad de tiempo. Se mide en vatios. La
potencia acústica es un valor intrínseco de la fuente que lo produce (del mismo modo que una bombilla LED de
10 vatios tiene ese valor intrínsecamente) que no depende del entorno donde se encuentre ni de sus características,
a diferencia de lo que sucede con el concepto de presión acústica, que sí varía según las características del lugar
donde se encuentra la fuente, la distancia, etcétera.
Cuando se desea determinar el valor de potencia acústica que radia una determinada fuente, se emplea un sistema
de medición situado alrededor de esta con el objeto de captar la energía irradiada en total y poder determinar, por
tanto, la potencia acústica.
Lo que comúnmente denominamos volumen no es más que la percepción que el oído humano tiene de dicha
potencia acústica.
El nivel de potencia acústica mide la manera en que la potencia acústica es percibida, es decir, el volumen, ya que
los seres humanos no percibimos la variación de la potencia acústica de manera lineal, sino logarítmicamente.
Esta relación logarítmica es lo que se conoce como nivel de potencia acústica y queda expresada
matemáticamente como:
*Foto Fórmula 10.
Donde W1 es la potencia expresada en vatios y en W0 es la potencia umbral de audición, tomada como referencia,
y que tiene un valor de 10-12 vatios (1 pW).
Sabías que...
Cuando queremos sumar sonidos, no es correcto sumar los valores de los niveles de potencia o presión sonora
simplemente, ya que se trata de funciones con característica exponencial, sino que deben sumarse las potencias o
presiones que los originan, siendo necesario aplicar la siguiente fórmula:
*Foto Fórmula 11.
Por tanto, si, por ejemplo, disponemos de dos fuentes de sonido de 30 dB y 60 dB, no producirán 60 dB, sino 33
dB. Dos de 21 dB no darán 42 dB, sino 24 dB, etcétera.

5.2. Acústica fisiológica.


Tal y como hemos visto en apartados anteriores, el sonido, desde la visión de la física, no es más que una
vibración que se propaga por un medio elástico. Por otra parte, no todos los sonidos son audibles por el ser
humano, caso de los ultrasonidos. El motivo principal por el cual el ser humano no es capaz de escuchar
determinados sonidos se debe a sus propiedades fisiológicas.
La acústica fisiológica es la disciplina encargada de estudiar el comportamiento del aparato auditivo frente al
sonido, abarcando desde la llegada del sonido a la propia oreja hasta la transformación e interpretación que el
sonido sufre, por parte del propio sistema auditivo, en la corteza cerebral.
El oído modifica el sonido que llega a través de la oreja antes de procesarlo, lo que conlleva una percepción
distinta en función de determinadas magnitudes que lo caracterizan.
La capacidad de que un sonido sea audible o no por el ser humano se debe, principalmente, a dos magnitudes: la
frecuencia y la amplitud.
1. Amplitud. Para que un sonido sea percibido debe disponer de una amplitud mínima. También existe un
máximo de intensidad sonora que, si la superamos, puede llegar a producir daños irreversibles. Estos umbrales
han sido mencionados anteriormente.
2. Frecuencia. El ser humano tiene la capacidad de percibir sonidos que abarcan un rango desde os 20 hercios
hasta los 20 kilohercios. A este rango se le conoce como espectro audible.
Sabías que...
Sun curioso experimento consiste en emitir un tono de una frecuencia determinada, por ejemplo, 2 kHz, e ir
reduciendo la amplitud del tono hasta que apenas sea audible. Hecho esto, si ahora bajamos la frecuencia,
observaremos que el tono deja de ser audible en su totalidad. Esto se debe a que la percepción acústica del oído es
subjetiva y es distinta en función de la frecuencia, la amplitud y el ancho de banda.
El ser humano tiene una apreciación subjetiva de la intensidad del sonido en función de su amplitud y frecuencia.
Denominamos sonoridad a la sensación sonora subjetiva que la intensidad del sonido provoca en el oído humano.
Con objeto de poder determinar la sonoridad y estudiar el comportamiento del oído humano frente a sonidos de
distintas frecuencias y amplitudes, se emplean las conocidas curvas isofónicas.
Las curvas isofónicas son una representación gráfica, dentro del espectro audible, de la sensibilidad del oído frente
a la frecuencia y amplitud del sonido.
El aparato que se emplea para medir la sonoridad de un sonido se conoce como sonómetro.
Por tanto, dada la forma en la que el oído del ser humano aprecia los sonidos, para describir y caracterizar un
sonido se emplean cuatro cualidades subjetivas: intensidad, duración, timbre y tono, las cuales son descritas a
continuación.
5.2.1. Intensidad.
El término intensidad tiene una doble interpretación, pues podemos estar refiriéndonos a una magnitud objetiva o
subjetiva (dependiente de la percepción del oído).
Cuando nos referimos a la intensidad objetiva, estamos haciendo mención a la intensidad desde el punto de vista
puramente físico, es decir, se trata de una magnitud íntimamente relacionada con la amplitud del sonido que se
emplea para medir la energía de un campo sonoro. Su magnitud dependerá de la distancia entre la fuente y el lugar
de medida y de la potencia de la fuente de sonido.
La intensidad objetiva se relaciona directamente con los conceptos de potencia sonora, presión sonora e
intensidad sonora, ya estudiados anteriormente.
Por otra parte, el concepto intensidad subjetiva se refiere a la sensación del oído, es decir, cómo de alto o bajo
percibimos un sonido de una intensidad particular. Se trata de una magnitud estrechamente relacionada con la
sonoridad del sonido.
Cuando se trabaja con la intensidad subjetiva, frecuentemente, aparecen dos conceptos que también hemos
mencionado en otros apartados, el de intensidad umbral absoluta de audición, definida como el mínimo nivel de
intensidad sonora audible por debajo del cual no tenemos sensibilidad auditiva, y el concepto de intensidad
umbral de sensación dolorosa, que es aquel a partir del cual, si se supera, produce en el oído sensación de dolor,
pudiendo llegar a ocasionar efectos irreversibles.
5.2.2. Tono.
Aquellos sonidos que están formados por una única senoide de frecuencia y amplitud únicas y constantes es lo que
conocemos como tono puro. Sin embargo, pocos sonidos de la naturaleza son tonos puros, sino que están
compuestos de varios tonos o frecuencias suma de otras frecuencias armónicas o múltiplos de una frecuencia
fundamental. Por ello, es posible hacer una primera clasificación de los sonidos separándolos en tonos puros,
sonidos armónicos y sonidos complejos.
Los tonos puros, como hemos comentado, son sonidos constituidos por una senoide de una amplitud y frecuencia
únicas. Por otra parte, los sonidos armónicos son aquellos que frecuentemente encontramos en los instrumentos
musicales y que están formados por un tono puro fundamental y una serie de tonos secundarios con frecuencias
que son múltiplos del tono principal y menor amplitud, los cuales reciben el nombre de armónicos. Por último,
podemos hablar de los sonidos complejos, que están formados por un número infinito de tonos puros, de varias
frecuencias y amplitudes. Un ejemplo de sonido complejo podría ser la voz humana, entre otros.
También es frecuente clasificar los tonos en función del rango de frecuencias, distinguiendo entre tonos agudos,
que son aquellos cuyas frecuencias están entre los 2 kilohercios y los 20 kilohercios; los tonos medios, cuyo rango
abarca desde los 300 hercios y los 2 kilohercios, y, finalmente, los tonos graves, cuyo espectro comprende
frecuencias tan bajas como las comprendidas en el rango de los 20 a las 300 hercios.
De igual modo que sucede con la intensidad, también podemos encontrarnos una clasificación de los tonos en
función de que se tenga en cuenta la apreciación subjetiva del oído humano, distinguiendo entre:
● Tono objetivo. Se corresponde con la frecuencia principal en un sonido. En los tonos puros, sería la senoide del
tono, en los sonidos armónicos viene determinado por el tono principal de este sonido y en los sonidos complejos
por el primer tono de este.
● Tono subjetivo. Es lo que se conoce como altura de un sonido y se refiere a la sensación auditiva que permite
al ser humano diferenciar entre sonidos más agudos o altos y sonidos más bajos o graves.
Sabías que...
Las primeras curvas de sonoridad fueron establecidas por Fletcher y Munson; demostrándose que el tono que
percibimos de un sonido no dependía exclusivamente de la frecuencia, sino también de la intensidad de este. Por
ello, Fletcher propuso que se empleara una medida para los tonos diferente a los hercios utilizados para la
frecuencia, que tuviera en cuenta la percepción subjetiva; definiéndose el Mel, que es una unidad subjetiva que fija
el tono en relación con un tono de referencia de un sonido de 1.000 Hz y 40 dB de intensidad.
5.2.3. Timbre.
Dos señales tienen distinto timbre cuando estas disponen de la misma frecuencia y amplitud, pero diferentes
armónicos. El timbre puede entonces considerarse una cualidad subjetiva que nos permite distinguir dos fuentes
de sonido con la misma frecuencia fundamental y amplitud, y viene determinada por los armónicos que se suman
a la frecuencia fundamental del sonido, lo que provoca que ambas señales tengan distinta forma de onda. Si, por
ejemplo, consideramos dos formas de onda, una senoidal y otra cuadrada, ambas de la misma frecuencia o periodo
y amplitud, podremos observar que, pese a compartir el mismo tono fundamental (frecuencia principal) y
amplitud, tienen distinta forma de onda y, por tanto, diferente timbre.
*Foto Figura 5.9. Onda cuadrada y senoidal de la misma amplitud y frecuencia.

El timbre, del mismo modo que el tono y la intensidad, dependen fundamentalmente de la forma de onda; sin
embargo, también se ven influenciados por el número de armónicos, la fase de estos, la intensidad, las
características de la fuente del sonido, etcétera.
Sabías que...
Si consideramos una misma nota musical proveniente de un piano o una guitarra, estas se distinguirán por el
timbre. El timbre, por tanto, nos permite diferenciar los distintos instrumentos musicales que tienen igual tono e
intensidad.
5.2.4. Duración.
Una última cualidad del sonido es lo que se conoce como duración o evolución temporal, que no es más que el
tiempo durante el cual un sonido es emitido. En función de la duración del sonido, estos pueden clasificarse en
sonidos continuos, cuya duración se extiende de forma infinita a lo largo del tiempo, e impulsivos, con una
duración y un fin comprendidos en un periodo de tiempo finito.
5.2.5. Monofonía y estereofonía.
El ser humano dispone de dos oídos para así poder disponer de la capacidad de determinar la procedencia o
ubicación espacial de una fuente de sonido.
El sonido que llega a nuestros dos oídos sufre una pequeña diferencia de amplitud y fase el uno respecto al otro, la
cual es detectada y procesada por nuestro cerebro, creándose una interpretación espacial de la procedencia de la
fuente de sonido.
Los sistemas de audio pueden clasificarse atendiendo a la capacidad de distinguir (o no) la espacialidad del sonido
en:
● Sistemas monofónicos. Son aquellos donde no existe apreciación de la espacialidad del sonido.
● Sistemas estereofónicos. Son aquellos donde sí existe apreciación de la espacialidad del sonido.
El ser humano, por lo tanto, podría ser considerado un sistema estereofónico, dado que dispone de la capacidad de
distinguir la localización espacial de las fuentes de audio.
Asociado a lo anterior, aparecen los conceptos de monofonía y estereofonía que pueden definirse como sigue:
● Monofonía. Son todas aquellas técnicas de captación, transmisión, amplificación, reproducción y grabación que
emplean un único canal (un único oído) y no permiten reproducir o captar la espacialidad de las fuentes de sonido.
● Estereofonía. Son todas aquellas técnicas de captación, transmisión, amplificación, reproducción y grabación
que emplean dos o más canales y sí permiten reproducir o captar la sensación espacial del sonido.
5.3. Medida del sonido y magnitudes empleadas.
Tal y como hemos visto en los anteriores apartados, el ser humano dispone de una apreciación subjetiva del
sonido, lo que hemos denominado sonoridad. Para poder medir tanto la intensidad objetiva como la intensidad
subjetiva o sonoridad, será preciso emplear dos sistemas distintos de medición:
● Decibelio. El decibelio se emplea en numerosas aplicaciones, no únicamente en audio, y es una medida objetiva
de la intensidad real de las fuentes de sonido. En general, se expresa de manera adimensional, como una medida
relativa respecto a un nivel de referencia.
● Fonio. Se trata de una medida subjetiva de la intensidad del sonido, es decir, de la sonoridad.
Tal y como hemos comentado en los anteriores apartados, el oído humano se comporta de diferente manera frente
a sonidos de distintas frecuencias, a este fenómeno se le conocía como sonoridad. Es decir, dos sonidos que tienen
la misma intensidad se percibirán de forma distinta en función de la frecuencia de cada uno o, lo que es lo mismo,
tendrán diferente volumen. La sonoridad es, por tanto, una medida subjetiva de la intensidad del sonido que se
percibe por el oído humano.
Para poder medir la intensidad real u objetiva y la intensidad subjetiva o sonoridad de las fuentes de sonido,
debemos utilizar dos bases de medición distintas:
1. Decibelio. Se emplea para la medida objetiva de la intensidad de las fuentes de audio. Es una medida relativa,
es decir, siempre está referida a una determinada frecuencia.
2. Fonio. Es la unidad utilizada en la medida subjetiva de la intensidad del sonido (sonoridad) que permite ordenar
y escalar el sonido en función de cómo percibe el ser humano la intensidad.
Curiosidad.
Si utilizamos un sistema estereofónico de grabación con dos micrófonos situados a la misma distancia que lo están
nuestros oídos y, posteriormente, lo volvemos a reproducir con otro equipo estereofónico, podríamos emular la
sensación de espacialidad de la fuente de sonido grabada.
Sabías que...
El oído humano no se comporta linealmente frente a la sensación sonora de las fuentes de audio, sino que tiene un
comportamiento logarítmico. Por ello, se utiliza el decibelio, una magnitud que se emplea en numerosas
aplicaciones en los sistemas de telecomunicación y que permite linealizar el comportamiento logarítmico de
algunos sistemas.
5.3.1. El decibelio.
El decibelio es una unidad de medida adimensional referida a un nivel de referencia. Si bien es empleada en una
multitud de aplicaciones en el sector de las telecomunicaciones, lumínica, electrónica, etcétera.
Cuando se emplea en aplicaciones de sonido, se suele tomar como nivel de referencia lo que hemos denominado
umbral mínimo de percepción del sonido por el oído humano. Es decir, se toma un nivel de referencia de
intensidad umbral absoluta de audición de 20 micropascales.
Si deseamos expresar matemáticamente la intensidad del sonido en decibelios, por tanto, tendremos la siguiente
expresión:
*Foto Fórmula 12.
Donde I0 es la intensidad umbral absoluta de audición (20 micropascales).
Recuerda:
Cero decibelios corresponderán al nivel de intensidad umbral absoluto de audición. 120 decibelios, por otra parte,
es el nivel umbral de sensación dolorosa que hemos definido con anterioridad.
En las aplicaciones de sonido, es frecuente encontrarnos con el término decibelio ponderado (dBA), que es una
medida relativa del sonido que previamente emplea un filtro que elimina las bajas y altas frecuencias, que es
donde el oído humano es menos sensible. El dBA es una medida empleada para medir la intensidad del sonido en
aquel rango de frecuencias donde el oído humano es más sensible.
En la documentación de prevención de riesgos laborales, es común encontrarnos esta magnitud para hacer
referencia, precisamente, al riesgo auditivo y los niveles máximos permitidos en determinados ambientes.
5.3.2. El fonio. Curvas isofónicas y respuesta en frecuencia.
Para medir la sonoridad o sensación subjetiva con la que el oído humano percibe los sonidos, se emplea una
unidad logarítmica y adimensional conocida como fonio. Se emplea un tono puro de 1.000 hercios e intensidad
equivalente al umbral absoluto de audición como sonoridad de referencia, correspondiendo a una sonoridad de 0
fonios. Por tanto, el fonio puede definirse como la sonoridad de una onda senoidal de frecuencia un kilohercio y
nivel de presión sonora cero decibelios.
Un tono puro de 1.000 hercios e intensidad absoluta equivalente al umbral de sensación dolorosa dispondrá de un
valor de sonoridad de 120 fonios (120 dB). Dicha regla se cumple para todos aquellos sonidos que tengan la
misma frecuencia, no obstante, el fonio no puede ser empleado para comparar la sonoridad de fuentes acústicas de
distinta frecuencia, sino que hace referencia a la sonoridad de un tono en particular.
Por ello, se han creado lo que se denominan curvas de sonoridad, que son gráficas en las cuales se indica el nivel
de presión que debería tener un sonido de una determinada frecuencia para producir la misma sensación
(sonoridad) que el que provocaría su equivalente de 1.000 hercios.
*Foto Figura 5.10. Curvas de sonoridad.

En la gráfica de las curvas isofónicas, los puntos que se encuentran situados en una misma línea representan que
tienen la misma sonoridad y, por tanto, serían percibidos con el mismo volumen, pese a no disponer de la misma
intensidad.
Las curvas isofónicas son una útil herramienta cuando se desea comparar la relación existente entre la frecuencia y
la intensidad (expresada en decibelios) de dos fuentes de audio. Conforme se aumenta la intensidad de la señal de
audio, la dependencia de la sonoridad con la frecuencia se ve reducida, como puede observarse en la gráfica de la
Figura 5.10.
Sabías que...
Las primeras curvas de sonoridad fueron establecidas en la década de los años treinta por Munson y Fletcher,
posteriormente modificadas por Robinson y Dadson.
5.4. Digitalización, codificación y parámetros de las señales digitales.
Para introducir el concepto de digitalización, previamente es necesario conocer el de señal analógica y el de señal
digital .
Las señales analógicas son aquellas que presentan una variación continua con el tiempo en su amplitud, pudiendo
adquirir un número infinito de posibles valores. Todas las señales de audio procedentes de la naturaleza son de
carácter analógico, como la voz humana, por ejemplo, que varía gradualmente a lo largo de un espacio de tiempo.
*Foto Figura 5.11. Representación de una señal analógica de voz.

Por otra parte, tenemos las señales digitales, las cuales presentan una variación que no es continua con el tiempo,
es discontinua, y únicamente pueden adquirir un número limitado y discreto de valores. El ejemplo más conocido
de señal digital es la información binaria, que adquiere únicamente dos posibles valores; siendo el tipo de
información más empleado en los sistemas electrónicos digitales de audio de la actualidad.
En algunas ocasiones, puede llegar a ser preciso convertir una señal de audio analógica en una señal digital y a la
inversa, para lo cual debemos recurrir a los procesos de conversión analógica-digital y digital-analógico. El
proceso de conversión de una señal analógica a una señal digital es lo que se conoce como digitalización de una
señal.
*Foto Figura 5.12. Representación de una señal digital de audio.
La digitalización o conversión analógico-digital consistirá en tomar muestras de forma periódica de la amplitud de
la señal de origen, como podría ser la señal de voz procedente de un micrófono de audio y almacenar dicha
información en una memoria o soporte digital, como podría ser un lápiz USB o un CD.
El proceso de digitalización consta de las siguientes etapas:
● Muestreo. En esta primera etapa, se toman muestras de forma periódica de la amplitud de la señal analógica. La
periodicidad con la cual se toman las muestras es un parámetro que se conoce con el nombre de frecuencia de
muestreo.
● Retención. Las muestras deben ser retenidas en un circuito que permita a la siguiente etapa tomar el valor
muestreado y procesarlo. A la etapa de muestreo y retención se la conoce como etapa Sample & Hold.
● Cuantización. En el proceso de cuantización, dado que la señal analógica puede adquirir un número infinito de
posibles valores de amplitud y la señal digital no, resulta preciso cuantizar la amplitud de la señal analógica
retenida, para convertirla, a su vez, en información discreta. En función de otro importante parámetro de los
sistemas digitales, la resolución, que hace referencia al tamaño de la memoria empleada para almacenar cada
muestra discretizada, la señal digital será más o menos fiel a la señal original analógica. En este proceso, se
produce el conocido como ruido de cuantización, que hace referencia a la pérdida de información al discretizar la
amplitud de la señal analógica de entrada.
● Codificación. La codificación es el proceso mediante el cual la amplitud cuantizada es convertida a un código
digital, siendo la codificación binaria la más utilizada, especialmente en aplicaciones de audio, si bien no la única.
Vocabulario.
Muestra = Sample.
Retención = Hold.
El proceso de conversión de una señal de tipo analógico a otra de tipo digital, por tanto, implica la utilización de
unos dispositivos conocidos como convertidores analógico-digitales (cuya sigla es ADC o CAD). Los ADC
tomarán valores de la amplitud de la señal analógica periódicamente, mediante el muestreo de esta, y convertirán
estas muestras en un valor digital, normalmente de tipo binario, mediante el proceso de cuantización, con una
resolución dada, lo que implicará una cierta pérdida de información conocida como error o ruido de cuantización.
Sabías que...
Otro error común en los sistemas de digitalización de señales es lo que se conoce como error de sobrecarga, que
consiste en que la señal analógica de entrada supera los niveles superior o inferior de entrada del convertidor
ADC, perdiéndose el exceso o defecto de la señal y pudiendo, incluso, llegar a deteriorar la circuitería.
*Foto Figura 5.13. Esquema del proceso de conversión analógico-digital.

Algunos ejemplos de sistemas que convierten al dominio digital señales de naturaleza analógica los encontramos
en el audio que procesa un smartphone, las grabadoras digitales, en la grabación de sonido desde un ordenador, o
en las cámaras de fotografía digitales, entre otros.
Recuerda:
El proceso de conversión analógico-digital implica que, al cuantizar la señal de entrada, se pierda algo de
información, lo que se conoce como error de cuantización.
Sabías que...
El científico Nyquist demostró que, si tomamos una señal analógica y continua, limitada en ancho de banda (con
contenido limitado de frecuencias) y tomamos muestras de esta a una frecuencia igual o mayor del doble de su
frecuencia máxima (su ancho de banda), se puede recuperar la señal original sin pérdida de información; lo que se
conoce como principio de Nyquist, en su honor. Esto explica que los canales de voz en el sistema telefónico
convencional se muestreen a 8.000 muestras por segundo (8.000 hercios), ya que la voz humana está concentrada,
en su mayoría, en un rango de frecuencias inferior a los 4.000 hercios.
Por otra parte, cada muestra de la señal de voz es convertida a un número digital de tipo binario utilizando 8 bits,
lo que significa que se pierde de información debido a la cuantización del convertidor. Si observamos, 8 bits x
8.000 muestras por segundo = 64 kbps, que es la velocidad asignada a un canal de voz en el sistema telefónico
(también denominado E0) y coincide con la velocidad de los canales de voz y datos de la tecnología RDSI.
*Foto Figura 5.14. Escala de cuantización de un convertidor analógico-digital de 3 bits.

El proceso inverso a la digitalización consiste en la reconstrucción de la señal analógica a partir de la información


binaria disponible, como podría ser el caso de la música que escuchamos en nuestros reproductores MP3, donde
una información digital, binaria, es convertida a una señal analógica que llega al altavoz y, pese a la pérdida de
información debida a la cuantización, nosotros la percibimos sin apreciar menoscabo en su calidad.
*Foto Figura 5.15. Proceso completo de conversión analógico a digital y reconstrucción digital a analógico.

5.5 Perturbaciones de un sistema de sonido, precauciones y requisitos de funcionamiento.


Los sistemas de audio, como todos los sistemas electrónicos, no están exentos de la posibilidad de ver
menoscabadas sus prestaciones debido a efectos adversos de diferentes tipos, como ecos o ruidos. Esta amplia
gama de fenómeno adversos que pueden provocar que la señal de audio no llegue correctamente al receptor y se
traduzcan, por tanto, en una perturbación de este. Entre las principales perturbaciones que podemos encontrarnos,
destacamos las siguientes:
● Ruido. Son señales indeseadas que afectan a la señal de sonido. En los sistemas digitales, por ejemplo, existen
dos posibles ruidos presentes, el ruido de cuantización y el ruido de sobrecarga.
● Acústica de recinto. La acústica del local afecta directamente a la forma en la que el sonido es percibido. No se
escucha un sonido igual en una iglesia que en una habitación, por ejemplo.
● Prestaciones de los equipos. La calidad de los equipos afectará directamente a la fidelidad del sonido
procesado o percibido.
5.5.1. Ruido acústico.
El ruido acústico podría definirse como cualquier señal de ruido no deseada que interfiere una fuente de sonido.
Suele estar compuesto por un conjunto de ondas sonoras de distintas frecuencias y amplitudes que se incorporan a
la señal deseada.
Podemos clasificar los ruidos atendiendo a dos criterios diferentes:
1. En función de la relación intensidad-periodo. Distinguiendo entre:
- Ruido fluctuante. Se trata de un tipo de ruido cuya intensidad varía con el paso del tiempo, pudiendo ser dichas
fluctuaciones de carácter periódico o aleatorio. El ruido ambiental debido al tráfico de una autovía cercana podría
ser un claro ejemplo de este tipo de ruidos.
- Ruido impulsivo. Es aquel cuya intensidad se incrementa de manera abrupta en un periodo muy pequeño de
tiempo. Es un ruido de muy corta duración y elevada intensidad y de efectos muy molestos. Un ejemplo lo
encontramos en los chasquidos que escuchamos en un altavoz de un equipo de música cuando encendemos o
apagamos con un interruptor cercano al equipo una luz.
2. En función de la frecuencia. Pudiendo clasificarse a su vez en:
- Ruido blanco. Se trata de un ruido con una distribución uniforme de potencia en el espectro audible, es decir,
presenta una densidad de potencia de sonido constante para todas las frecuencias. Su efecto se traduce en un
susurro continuo en algunos equipos de reproducción de audio, por ejemplo.
- Ruido rosa. Se trata de un ruido cuya respuesta en frecuencia no es plana, disminuyendo su intensidad 3
decibelios por octava.
- Ruido marrón. Si bien es el ruido menos frecuente, este existe en la naturaleza, estando formado
fundamentalmente por ondas graves y medias.
5.5.2. Acústica del recinto.
Desde el punto de vista de la acústica del recinto, la forma en la que se propaga el sonido requiere que prestemos
especial atención a determinados aspectos, tales como la presencia de paredes, columnas, techos altos, colocación
de los micrófonos, reverberación del sonido, entre otros. Por ello, en las siguientes líneas, se resumen algunos
aspectos importantes y efectos o perturbaciones que podemos presenciar en función de la colocación de los
micrófonos y altavoces de un sistema de sonorización.
■■■ Colocación de los micrófonos.
En función de la localización de los micrófonos, nos vamos a encontrar con distintos fenómenos:
● Efectos de proximidad. En muchas ocasiones, la calidad del sonido se ve afectada por la cercanía de la fuente
de sonido (locutor, cantante, instrumento musical) al micrófono. Existe una distancia máxima a la que debemos
situarnos para que la presencia de ruidos externos sea lo menor posible, pero también es importante que exista una
distancia mínima, ya que determinados fonemas o notas pueden generar ondas sonoras que saturen
momentáneamente el diafragma del micrófono, provocando perturbaciones en el sistema de audio.
● Acoplamiento acústico. También se conoce como efecto Larsen, que consiste en un fenómeno de
retroalimentación que se puede producir entre los micrófonos y los altavoces y que se manifiesta en forma de
grandes tonos que se introducen en los altavoces y que se realimentan, pudiendo alcanzar una elevada intensidad y
que son muy molestos al oído humano. Este fenómeno desaparece en cuanto se reduce el nivel de amplificación
del sonido proveniente de los micrófonos (se disminuye la retroalimentación). Una manera de evitar el efecto
Larsen es colocar los micrófonos del sistema de sonorización lejos del campo de acción de los altavoces cuando
sea posible. Otra medida es emplear micrófonos direccionales y orientarlos de tal manera que el sonido procedente
de los altavoces incida sobre el micrófono por el lado menos sensible de este. En último caso, si las medidas
anteriores no solucionan el problema, nos veremos obligados a reducir la intensidad de la etapa de amplificación.
*Foto Figura 5.16. Efecto de la proximidad de los micrófonos.

*Foto Figura 5.17. Patrones (diagramas polares) de diferentes tipos de micrófonos.


■■■ Colocación de los altavoces.
Del mismo modo que sucede con los micrófonos, debemos tener en cuenta algunas consideraciones a la hora de
colocar los altavoces del sistema de sonorización en una sala. Algunos aspectos destacables son los que se
enumeran a continuación:
● Nivel de presión sonora. Esta magnitud cuya definición ya hemos estudiado, debe ser tenida en cuenta a la
hora de colocar los altavoces. El nivel de presión sonora que obtengamos de un altavoz ubicado en una
determinada posición de una sala debe cumplir unos requerimientos mínimos que se traducen en unos niveles de
presión sonora suficientes para captarlos por el oído humano confortablemente. Se recomienda un nivel de 80
decibelios para las locuciones y 100 decibelios para la música, en primera aproximación.
● Localización espacial de la fuente de sonido. En el caso de que la fuente de sonido se encuentre en la sala
donde este se va a reproducir, como podría ser en una sala de conferencias, por ejemplo, es conveniente que los
altavoces sean colocados de tal manera que la sensación espacial de la locución emitida por estos sea la de la
fuente del sonido, es decir, se debe procurar que la ubicación de los altavoces de la sensación de que el sonido
procede de la fuente.
● Ecos. Si se reciben dos sonidos procedentes de dos altavoces diferentes con un retardo de uno respecto al otro,
el oído humano percibirá un efecto eco o de reverberación en el sonido que recibe. Por ello, no debe existir un
retardo excesivo entre las ondas de sonido procedentes de distintos altavoces en cualquier punto de una sala. En
general, podemos afirmar que se producirá el efecto de eco si se recibe el sonido directo, al menos, 0,1 segundos
antes de recibir el sonido reflejado. Por el contrario, el efecto de reverberación tiene lugar cuando se recibe el
sonido directo, al menos, 0,1 segundos después de recibir el sonido reflejado.
● Efecto Larsen. Como ya se ha comentado, es preciso evitar el efecto de retroalimentación debido a la captación
del sonido reproducido por los altavoces en los micrófonos.
● Enmascaramiento de la fuente de sonido. Cuando en una sala tenemos presentes varios altavoces, es posible
que se produzca un fenómeno de superposición de los sonidos que haga que se pierda la sensación de localización
espacial de la fuente (esto sucede, frecuentemente, en los altavoces de las iglesias, por ejemplo). Para que no se
produzca el fenómeno de enmascaramiento, una sencilla técnica consiste en colocar el altavoz responsable de la
sensación de espacialidad en la vertical de la fuente y reducir la intensidad del sonido emitido del altavoz
secundario, así como aumentar la distancia de los altavoces secundarios al oyente u oyentes.
● Efecto Hass. Este fenómeno, descrito por el médico alemán Helmut Haas, también conocido como efecto de
precedencia o efecto de prioridad, es un fenómeno que afecta a la forma en la que el oído humano percibe el
sonido describiendo cómo, a nivel de percepción, si disponemos de distintos sonidos independientes que llegan a
nuestro cerebro en un intervalo inferior a 50 milisegundos, el cerebro los fusiona, interpretándolos como un único
sonido. Esto es debido a que el cerebro deja de percibir la dirección e interpreta los sonidos posteriores como una
reverberación o eco del primer sonido recibido. La interpretación que hace el cerebro puede diferir en función del
tiempo de retardo. Si el retraso o retardo se recibe en un intervalo de tiempo que no supera los 5 milisegundos, el
cerebro localizará el sonido en función de la dirección que tuviera el primer estímulo (sonido) recibido, aunque el
resto de sonidos procedan de direcciones totalmente opuestas. En cambio, si el retardo se produce en un intervalo
de tiempo comprendido entre los 5 y los 50 milisegundos, el cerebro lo interpreta como un único sonido pero del
doble de intensidad, localizando la fuente de sonido a medio camino entre todas las fuentes de sonido. Es un
fenómeno muy utilizado para evaluar el efecto estéreo en las salas.
*Foto Figura 5.18. Técnica para evitar el enmascaramiento de la fuente de sonido.

5.6. Medida de señales de sonido analógicas y digitales.


Existen distintos equipos y técnicas de medida empleados en los sistemas de sonido analógicos y digitales.
Algunos de los instrumentos más utilizados son los que se enumeran a continuación:
● Polímetro. Instrumento empleado para la medida tanto de tensiones de alterna como de continua, medida de
resistencias, intensidad alterna o continua, continuidad eléctrica, etcétera.
● Generador de ruido rosa. Es un instrumento ampliamente utilizado en los sistemas de ecualización del sonido
en los recintos.
● Inyector de señales. Es un instrumento empleado para introducir señales en distintas partes del circuito, y
comprobar la salida de este, determinando el correcto o anómalo comportamiento de las distintas etapas.
● Sonómetro. Instrumento empleado para medir distintas magnitudes del sonido, como los niveles de presión
tanto instantáneo como continuo, niveles de pico, etcétera.
● Analizadores de audio o espectrómetros. Autónomos o basados en un PC, son equipos que se utilizan para
analizar, entre otras magnitudes, el comportamiento de los componentes frecuenciales de los sonidos emitidos.
5.6.1. Polímetro.
El polímetro, también conocido como multímetro, es un dispositivo, normalmente portátil, que nos permite medir
distintas magnitudes eléctricas, tales como corriente, tensión o resistencia, entre otros. Además, permite trabajar,
normalmente, en corriente alterna o continua.
Los primeros multímetros eran analógicos, con un medidor basado en un galvanómetro, es decir, una aguja que se
desplazaba proporcionalmente a la magnitud leída y la escala configurada.
Posteriormente, se introdujeron los multímetros digitales, con una pantalla numérica y distintos rangos de
precisión configurables.
En la actualidad, existen multímetros que, además de medir las unidades anteriormente mencionadas, permiten
medir también frecuencia, temperatura y el estado de transistores semiconductores, haciéndolos una herramienta
fundamental que no debe faltar en el maletín de cualquier técnico de mantenimiento.
*Foto Figura 5.19 y 5.20. Multímetro analógico y multímetro digital.

5.6.2. Sonómetro.
El sonómetro es un instrumento de medida que permite medir niveles de presión sonora. Se emplea para medir el
sonido o ruido que encontramos en una determinada sala o localización, tal como el ruido ambiental, los niveles
máximos de un sistema de megafonía, etcétera.
Si bien tiene la capacidad de medir el nivel de presión sonora de forma objetiva, expresado en decibelios, también
es frecuente que el sonómetro permita utilizar otras escalas de medición para, por ejemplo, medir un posible daño
auditivo causado por una máquina en una industria. Para ello, es preciso que el sonómetro trabaje con una escala
ponderada, midiendo en dBA, es decir, muchos sonómetros incorporan una circuitería que filtra aquellas
frecuencias a las que el oído humano es menos sensible, midiendo la sonoridad (la forma en la que el oído
humano percibiría el sonido).
A nivel interno, el sonómetro está compuesto de un micrófono, que es el encargado de captar las ondas de sonido
y convertirlas en señales eléctricas; una unidad de procesamiento en la que, en función de la señal eléctrica
recibida, la escala o curva de ponderación seleccionada realiza el cálculo de la medida, y una unidad de
visualización que nos permitirá obtener el resultado del sonómetro. Algunos sonómetros ofrecen prestaciones
mucho más avanzadas, como el almacenamiento de los datos en un soporte digital o transferencia a un PC por un
puerto de comunicación o, incluso, un jack que nos permite conectar el sonómetro a un osciloscopio para
visualizar la señal sonora en el dominio del tiempo.
La Comisión Electrotécnica Internacional ha establecido unas normas que los fabricantes de sonómetros deben
seguir para garantizar que todos los sonómetros ofrezcan un mismo estándar de medición del sonido. Estas
normas se unificaron, a partir del año 2003, en una única norma, la CEI 61672, que clasifica los sonómetros como
sigue:
● Sonómetro de clase 0. Es el más preciso, empleado en laboratorios con el fin de obtener niveles de referencia.
● Sonómetro de clase 1. Este dispositivo permite el trabajo de campo con precisión.
● Sonómetro de clase 2. Empleado para mediciones generales.
● Sonómetro de clase 3. Es el menos utilizado debido a su falta de precisión. Únicamente se emplea para realizar
medidas aproximadas.
Nota.
A partir de la norma CEI 61672, se eliminan las clases 0 y 3, quedando únicamente las clases 1 y 2.
5.6.3. Generadores de ruido rosa.
El ruido rosa es muy empleado para hacer distintos tipos de mediciones en acústica, siendo utilizado en la práctica
para la ecualización de salas o estancias y en la calibración de instrumentación de audio. El proceso de
ecualización nos permite ajustar los niveles de sonido a cada una de las frecuencias que son reproducidas en la
sala, debiéndose obtener valores muy parecidos para todo el ancho de espectro audible. A esto se lo conoce como
armonizar o igualar la amplitud.
En la actualidad, existe multitud de maneras de generar ruido rosa, abarcando desde un simple fichero
reproducible con un CD donde previamente se ha grabado este sonido, empleando un generador exclusivo para
este fin, utilizando analizadores de espectro que incorporen este tipo de señales, empleando programas software
para el ordenador o, incluso, una aplicación en el mismo teléfono móvil.
Hoy día, muchos de los sistemas de ecualización digitales tienen la capacidad de realizar el proceso de
ecualización de forma automática, conectando el micrófono de medición a su entrada.
5.7. La señal de vídeo. Orígenes.
Una imagen es una distribución espacial de intensidad que no varía con el tiempo. Cuando varias de estas
imágenes se muestran como una secuencia, pueden llegar a ser percibidas como una imagen cambiante. En este
caso, estaremos en presencia de un vídeo.
El vídeo, por tanto, está compuesto por una secuencia de imágenes. Por otra parte, se habla de señal de vídeo para
referirnos a una representación (análogica o digital) variable en el tiempo en el que la información (la imagen
cambiante) se ordena conforme a unos estándares de muestreo predefinidos (scanning).
Las animaciones se caracterizarán, por tanto, por estar formadas por una secuencia de imágenes (fotogramas) con
una resolución, número de colores y por el frame rate, que es el número de imágenes que se muestran por unidad
de tiempo y que será la que da la sensación de variación temporal de la imagen. Para crear esta sensación de
movimiento continuo, como veremos, será preciso que el frame rate tenga un valor de, al menos, 25 imágenes por
segundo debido a una propiedad del ojo humano conocida como persistencia de la retina, principalmente.
Sabías que...
Además de la imagen, en la mayoría de los casos, las secuencias de imágenes incluyen información de audio. Para
poder obtener la correcta sincronización entre los sonidos y las imágenes, es frecuente mezclar ambas
informaciones. A este fenómeno se lo conoce por el nombre de interleaving, donde una reducida cantidad de
imágenes son alternadas con la información de sonido asociada a esta, a continuación, se dispone otro fragmento
de vídeo y su correspondiente audio, y así sucesivamente.
Las imágenes electrónicas de las señales de vídeo se basan en tres propiedades de la visión humana:
● Agudeza visual.
● Poder de integración.
● Persistencia de la retina. Las imágenes que se forman en la retina permanecen en esta durante un tiempo de 1/15
segundos.
Debido a estas tres propiedades, no resulta preciso transmitir la imagen de vídeo en su totalidad de una sola vez,
sino que podemos descomponerla en puntos y líneas que se mostrarán progresivamente. Por ello, las señales de
vídeo están formadas por un número de líneas agrupadas en distintos cuadros, los cuales están, a su vez, divididos
en dos campos que transportan la información relativa a la luz y el color de la imagen y los sincronismos.
Una señal de vídeo tendrá una amplitud de un voltio pico a pico (1 Vpp) y se divide en dos partes. La parte de la
señal que transporta la información de la imagen es la que encontramos por encima de los 0 voltios (tomando un
nivel de 0 voltios para el nivel de negro y un máximo de 0,7 voltios para el blanco total de la imagen) y las
señales de sincronismo las encontraremos por debajo del nivel de 0 voltios, los cuales tienen forma de pulsos que
pueden llegar hasta los -0,3 voltios.
*Foto Figura 5.21. Detalle de la señal de vídeo.

Podemos distinguir dos tipos de sistemas:


1. Vídeo analógico. En este sistema, la señal de vídeo es de naturaleza analógica, es decir, es una señal eléctrica
que varía de forma continua en el tiempo obtenida a partir del muestreo periódico de la información que llega a la
cámara de vídeo. Esta señal tiene valores comprendidos entre -0,3 y 0,7 voltios, con amplitud proporcional al
brillo de la luz.
2. Vídeo digital. Es un sistema discreto en el tiempo donde la información se convierte a unos valores de tensión
que son traducidos a código binario.
5.8. Exploración progresiva y entrelazada.
La captación del vídeo se realiza por las cámaras mediante un muestreo periódico de la imagen que llega en cada
instante a la óptica de esta. Este proceso recibe el nombre de scanning. En el proceso de scanning, se recoge la
información de la distribución luminosa de cada punto de la imagen empleando unas líneas predefinidas de
muestreo, así como la información de sincronismo que proporciona la posición horizontal y vertical del punto
barrido en cada instante. El punto muestreado se va desplazando de izquierda a derecha en líneas casi
horizontales, de forma sucesiva, a modo de barrido, hasta recorrer la totalidad de la pantalla. Los métodos de
barrido más comunes son el barrido entrelazado y el progresivo.
● Modo progresivo. El modo progresivo procesa (recorre u obtiene, según se está mostrando o captando) la
imagen, que recibe el nombre de cuadro o frame, cada cierto tiempo de forma periódica. En el sector de la
computación, por ejemplo, este periodo es de 1/72 para monitores de alta resolución.
*Foto Figura 5.22. Representación del modo progresivo *Foto Figura 5.23. Representación del modo entrelazado.

● Modo entrelazado. En el sector de la televisión, se emplea el modo entrelazado 2:1, en el cual se dibujan en
primer lugar las líneas pares y posteriormente las impares, por lo que se distingue entre el campo par y el impar de
la imagen.
Resulta preciso disponer de una señal de sincronismo, denominada sincronismo horizontal, que nos indique el
final de cada línea. Del mismo modo, existirá una señal de sincronismo vertical que será la responsable de
indicarnos el final de campo.
Sabías que...
Relacionados con el sincronismo horizontal y el sincronismo vertical se definen los blanking intervals, que son los
intervalos de tiempo en los que es necesario desconectar el rayo de electrones de la pantalla, distinguiéndose entre
el horizontal blanking, que es el tiempo que permanece desconectado al pasar de una línea a otra, y el vertical
blanking, que hace referencia al tiempo que existe entre el fin del barrido de la última línea y el inicio de la
primera.
La señal resultante se ilustra, a modo de ejemplo, en la Figura 5.24, donde se puede observar un caso particular de
señal para vídeo monocromático donde se representa la parte del recorrido correspondiente a una línea de la
pantalla, donde su amplitud varía en función de la cantidad de negro o blanco de cada punto y, al final de esta, se
puede observar la señal de sincronismo vertical.
*Foto Figura 5.24. Ejemplo de señal de vídeo analógica monocromática.

5.9. Características de la señal de vídeo analógico.


Algunas de las características más importantes de la señal de vídeo se describen a continuación:
● Relación de aspecto. Es la relación que existe entre la anchura de la imagen y su altura. En los sistemas de
televisión convencional, esta relación es de 4:3, mientras que en alta definición nos encontramos con una relación
16:9. Existen distintas configuraciones en los diferentes estándares de vídeo, tal y como se muestra en la Figura
5.25.
*Foto Figura 5.25. Formatos de vídeo 4:3 y 16:9

Sabías que...
En cine, se usan formatos del orden de 1,85:1 y 2,35:1.
● Horizontal blanking interval. Lo que podríamos traducir como intervalo en blanco horizontal es el mínimo
espacio de tiempo que existe entre el final de una línea y la vuelta al principio de la siguiente. Durante ese
periodo, el sensor de una cámara o el mecanismo de reproducción de la imagen (según estemos captando o
representando) se desconecta y se envía una amplitud de cero, que corresponde con el blanco. Cada fotograma,
por tanto, estará compuesto por un número determinado de horizontal blanking intervals.
● Vertical blanking interval. Del mismo modo que existe una señal de sincronización horizontal, existe una señal
de sincronización vertical que hace referencia al tiempo que existe entre el fin del barrido de la última línea y el
inicio de la primera.
● Resolución horizontal. La resolución horizontal está relacionada con el ancho de banda de la señal eléctrica
que recorre las distintas líneas del barrido. Dicha señal debe cambiar de forma continua para cada punto acorde al
nivel de luz y de color que se debe representar en el punto en cuestión. Cuanto mayor es su velocidad, mayor
resolución horizontal tendremos.
● Resolución vertical. El número de líneas determina la resolución vertical de la imagen.
● Velocidad de cuadro y entrelazado. Las imágenes o fotogramas deben refrescarse 50 veces por segundo para
evitar que el ojo humano perciba un parpadeo. Para evitar tener que refrescar la imagen tan rápido, se emplea una
técnica que consiste en refrescar únicamente la mitad de la imagen durante ese periodo, de tal manera que la
imagen completa se refresca 25 veces por segundo. Esta técnica se realiza con líneas alternas, es decir, primero se
refrescan todas las líneas pares, luego las impares, y así sucesivamente. De esta manera, el efecto de parpadeo no
aparece aún teniendo un tiempo de refresco de 25 veces por segundo.
5.10. Formatos de video.
Existen diferentes tipos de formatos de señales de vídeo, los cuales pueden ser divididos en dos categorías según
se utilicen en el sector de la computación o de la televisión.
En los sistemas de computación, encontramos varios formatos de señales que parten del VGA, tales como el
XGA, UXGA, etc., con la principal diferencia entre ellos de la frecuencia de escaneo empleada en cada
subsistema. Sin embargo, la compatibilidad entre subsistemas es relativamente sencilla, ya que la mayoría de los
sistemas y equipos pueden manejar diferentes frecuencias de escaneo.
En los sistemas de televisión, el formato de las señales varía de un país a otro. En los Estados Unidos y Japón, se
emplea un formato conocido como NTSC (National Television Systems Committee). En Europa el formato más
común es el formato PAL (Phase Alternating Line), que fue desarrollado con posterioridad al NTSC. En Francia,
sin embargo, encontramos el formato SECAM. A su vez, podemos encontrar, dentro de estos tres tipos, multitud
de subformatos. Estos tres estándares se adoptaron para solucionar varios problemas relacionados con el ancho de
banda y la compatibilidad de los sistemas monocronos y a color de televisión. Veamos, a continuación, los
principios en los que se basan estos tres tipos de sistemas de transmisión.
5.10.1. Descomposición de la imagen: luminancia y crominancia.
Toda imagen en televisión está formada por tres colores básicos e independientes, que son el rojo, verde y azul.
Cuando una cámara de vídeo está en funcionamiento, el sistema de captación y procesamiento descompone la
imagen, mediante filtros, en tres componentes de color, proporcionando un canal por cada color fundamental
(rojo, verde y azul), que se corresponde con el nivel de brillo de cada uno de los colores.
La introducción del color en los sistemas de televisión supuso algunos problemas que había que resolver. Por una
parte, la transmisión de la triple señal de vídeo a color sin codificación o multiplexación requería un elevado
ancho de banda (unos 15 MHz), lo cual limitaba mucho el número de posibles canales que podían utilizarse. Por
otra parte, debían hacerse compatibles los receptores monocromáticos y a color con los nuevos sistemas de
transmisión. La señal de vídeo en color debía poder ser visualizable sin demasiados problemas en un televisor
monocromo y debía ocupar el mismo ancho de banda existente, requisitos que debían cumplirse garantizando, a su
vez, una imagen a color con relativa calidad.
En 1942, aparece, de la mano del ingeniero francés Georges Valensi, una idea que permitía codificar la señal de
televisión a color empleando una combinación de dos magnitudes, la luminancia (que consta de una única señal) y
la crominancia (que consta de dos señales), las cuales eran suficientes, como veremos, para definir completamente
una imagen de vídeo. La propuesta fue, por tanto, transformar los componentes de color RGB (rojo, verde y azul)
en otras tres señales equivalentes, una correspondería con la luminancia (Y) y las otras dos, con la crominancia
(Ca y Cr o U y V, según el estándar empleado). Esta codificación daría lugar a lo que hoy conocemos como vídeo
compuesto (también conocida por las siglas FBAS o CVBS).
Sabías que...
CVBS es la sigla de Color, Video, Blanking and Sync.
Recuerda:
El vídeo compuesto une, en una misma señal, la información de luminancia y crominancia, que son suficientes
para definir completamente una imagen.
La luminancia es aquella parte de la señal de vídeo que define la imagen en blanco y negro. Esta señal contiene
únicamente las variaciones de brillo de la imagen. La señal de luminancia se emplea para reproducir una imagen
en blanco y negro o monocroma. Para obtener la señal de luminancia (señal Y), se combina un 30% de la señal de
vídeo color rojo (R), un 59% de la señal de vídeo verde (G) y un 11% de la señal de vídeo azul (B), quedando
expresamente como sigue:
Y = 0,30·R + 0,59·G + 0,11·B
Donde R, G y B representan las señales de vídeo de color rojo, verde y azul respectivamente, cuyos valores están
comprendidos entre 0 y 1.
La señal de luminancia tiene un máximo de amplitud de valor la unidad, que corresponde con un 100% blanco o 1
lumen. Es decir:
Y = 0,30·1 + 0,59·1 + 0,11·1 = 1 lumen
Recuerda:
La luminancia representa el brillo de la señal.
Por tanto, la señal de luminancia representaría la luminosidad de la imagen, lo que permitiría a un televisor en
blanco y negro recibirla como señal monocromática y seguir funcionando correctamente con sistemas de
transmisión a color (se harían compatibles los sistemas a color con los sistemas monocromáticos).
Por otra parte, las señales de crominancia se emplearían para completar la información relativa al color de la señal
de brillo (luminancia, Y). En otras palabras, la crominancia representa la coloración de la imagen monocromática
contenida en la señal de luminancia. Empleándose una matriz de crominancia, se obtiene lo que conocemos como
tono y saturación de la imagen.
Entonces, la crominancia transporta la información del color de la imagen en las señales de vídeo, separadamente
de la señal de luminancia (también conocida como señal Y). La crominancia es, en general, expresada por dos
componentes de diferencia de color, la crominancia azul (Cb o U) y la crominancia roja (Cr o V), que son:
Cb = 0,564·(B-Y) o U = 0,493·(B-Y), para la crominancia azul.
Cr = 0,713·(R-Y) o V = 0,877·(R-Y), para la crominancia roja.
Donde B y R son los componentes de color azul y rojo, respectivamente. En cuando a la señal que corresponde al
color verde, esta va implícita en la señal Y de luminancia al sustraerse la luminancia del azul y rojo.
A estas tres señales, Y, R-Y y B-Y será preciso añadirles una señal de sincronismo de color, conocida como burst
o salva de color, cuya función es informar que la siguiente línea contiene información sobre el color.
*Foto Figura 5.26. Ejemplo de codificador genérico de color.

Los receptores a color, a partir de tres señales de luminancia y crominancia, podrían restaurar la imagen en su
codificación original RGB.
Por otra parte, dado que el ojo humano tiene menor resolución para las transiciones de colores que para las
transiciones de luminosidad, las señales de crominancia no precisaban tener tanto ancho de banda, ocupando entre
la mitad y un cuarto del ancho de banda de la señal de luminancia.
En los sistemas de televisión analógica, la crominancia es codificada en la señal de vídeo empleando una
subportadora que, en función del estándar de vídeo, podrá ser una modulación en cuadratura, caso de los
estándares NTSC y PAL, o una modulación en frecuencia, caso del estándar SECAM.
Los tres estándares de televisión anteriormente mencionados, NTSC, PAL y SECAM emplean señales de vídeo
compuesto. Si bien todos estos formatos comparten los mismos principios de escaneo y representación del color
con algún tipo de modulación, difieren fundamentalmente en las frecuencias de las señales de escaneo, el número
de líneas, las técnicas de modulación, etcétera.
Por lo tanto, la solución a los problemas de ancho de banda y compatibilidad con los receptores monocromáticos
la proporcionan los sistemas NTSC, PAL y SECAM, que, basándose en el hecho de que el espectro de la señal
monocromática es discreto, con sus componentes espaciados a múltiplos de las frecuencias de línea y cuadro, y la
señal de crominancia tiene características muy parecidas, se intercalan en el espectro de la señal de luminancia las
señales de color, moduladas en cuadratura, lo que permite no aumentar el ancho de banda de la transmisión.
*Foto Figura 5.27. Intercalado del espectro de crominancia en el espectro de luminancia.
*Foto Figura 5.28. Esquema de un codificador NTSC.

Recuerda:
El conjunto de señales de luminancia y crominancia es actualmente empleado por todos los sistemas de televisión
a color, incluso en la televisión digital.
Para poder transportar las tres señales de vídeo compuesto correspondientes a la luminancia y crominancia a
través de un canal monocromo, a la señal de televisión monocroma, conocida como señal VBS, formada por la
luminancia y los sincronismos, se le añadiría una subportadora modulada por las señales de crominancia para
formar una nueva señal compuesta denominada CVBS.
Esta subportadora se situaría en la parte más alta del espectro de la señal de vídeo, para así no interferir en los
receptores en blanco y negro ni variar excesivamente la banda de paso de luminancia, con ello se conseguiría
permanecer en los límites de la banda de paso de las señales de vídeo monocromo existentes.
*Foto Figura 5.29. Espectro de la señal de vídeo.

5.11. Vídeo digital.


Las diferentes técnicas digitales de vídeo se utilizan desde hace muchos años en ámbitos profesionales de la
televisión (sistemas de edición, por ejemplo), debido a las altas prestaciones que podemos obtener de estas, al
mismo tiempo que aporta la capacidad de crear múltiples copias sin pérdida de información. Sin embargo, estas
han tardado bastante tiempo en llegar al sector de la transmisión digital debido, fundamentalmente, a dos aspectos,
por una parte, la elevada frecuencia de la señal a transmitir y, por otra, la gran cantidad de información digital que
se requiere para garantizar una imagen de calidad. Estos dos motivos, junto a otros factores, han supuesto una
dilación en la implantación de los sistemas de transmisión digital de la señal de televisión al gran público.
Tal y como hemos estudiado en párrafos anteriores, las señales RGB obtenidas por las cámaras tienen un elevado
ancho de banda, del orden de los 15 MHz, por lo que, para su radiodifusión, se hacía necesario codificarlas para
que ocupasen menos ancho de banda. Una vez codificadas, las señales serían transmitidas y decodificadas en el
receptor de televisión.
El tipo de codificación empleado para la transmisión de la señal de vídeo analógico RGB es lo que ha dado lugar a
los diferentes estándares de transmisión como PAL, NTSC, SECAM y sus variantes, los cuales se basan en el
concepto de vídeo compuesto (FBAS o CVBS), como ya hemos visto.
La necesidad de codificar tenía una doble vertiente, por un lado, ajustarse a las limitaciones de la banda terrestre
empleada para la radiodifusión y, por otra, ceñirse al espacio dedicado a los canales de las emisiones en blanco y
negro, a efectos de preservar la compatibilidad entre equipos. Así, el primero de los estándares analógicos de
televisión en color, el NTSC, empleado mayoritariamente en los Estados Unidos, Japón y algunos países
latinoamericanos, tenía un ancho de banda de 4 MHz por canal, con 525 líneas por frame y una frecuencia de
línea de 30 frames por segundo (30 fps). El sistema europeo, PAL, con presencia en algunos países africanos y
latinoamericanos, utilizaba un ancho de banda de 5 MHz, empleando 625 líneas por frame y una frecuencia de 25
fps. Por último, SECAM, el sistema francés, adoptado por algunos países orientales y del este de Europa, ocupaba
un ancho de banda similar a PAL.
5.12. Muestreo, digitalización y formación de la trama digital.
A la hora de realizar el proceso de conversión analógica-digital de la señal de la imagen expresada en términos de
sus componentes de luminosidad y crominancia (componentes Y, U y V), debemos cumplir el teorema de Nyquist,
el cual afirma que la frecuencia de muestreo debe ser mayor o igual que el ancho de banda de la señal que se va a
digitalizar.
En función del teorema de Nyquist, conforme mayor calidad tenga la imagen se requerirá mayor número de
muestras por cada imagen y, por tanto, el volumen de información a transmitir se verá incrementado,
aumentándose el ancho de banda de la señal digital, lo cual puede llegar a ser prohibitivo.
Con objeto de reducir el volumen de información necesario, se pueden seguir dos estrategias. Por una parte,
reducir el número de muestras de los componentes de color de la imagen, basándonos en que, si bien la reducción
de muestras puede ocasionar una pérdida de información, el ojo humano también tiene una limitada capacidad
para capturar el color, de tal manera que apenas aprecie esta reducción. Por otra parte, las señales de
sincronización de la señal de televisión no aportan información activa, por lo que no tienen por qué ser
digitalizadas.
Basándose en estos aspectos, el Comité Consultivo Internacional de Radiocomunicaciones (CCIR) se puso a
trabajar en un estándar para la digitalización de señales de vídeo de manera óptima, naciendo así la
Recomendación CCIR 601.
La Recomendación CCIR 601 puede considerarse la primera norma relativa a televisión digital, la cual se centraba
en el muestreo de la señal. Es aplicada únicamente en estudios, sin ningún tipo de compresión (lo cual será preciso
para la radiodifusión de la señal de televisión, como veremos más adelante).
Desde su aparición en la década de los ochenta, la norma CCIR 601 ha ido evolucionando. En la actualidad, hace
referencia a distintos parámetros tales como detalles sobre la relación de aspecto (4:3 o 16:9) o la forma de
realizar el submuestreo de los componentes de color (Y, U, V), lo que se denominan sistemas 4:4:4, 4:4:2,
etcétera.
La norma recomienda su utilización como estándar de codificación digital en aquellos países donde los estudios
de edición de televisión utilicen los sistemas PAL, NTSC y SECAM (y sus variantes), especificando los métodos
de codificación digital de la señal de vídeo y aspectos sobre la frecuencia y profundidad de muestreo de los
componentes de luminancia y crominancia.
El proceso de digitalización únicamente se aplica a los periodos activos de línea, al que se suma un margen de
seguridad y a las líneas de información, pero no a los periodo de borrado de línea y campo; si bien estos serán
empleados para poder recomponer la señal original.
El proceso de digitalización tiene lugar sobre los componentes Y, U y V, es decir, sobre la luminancia y la
crominancia, no sobre la señal de vídeo compuesto, mejorando la calidad de la señal por procesar y eliminando la
dependencia con la norma analógica de color empleada.
La profundidad del muestreo recomendado es de 8 bits, con la posibilidad de emplear 10 bits en los centros de
producción. La frecuencia de muestreo de la luminancia está fijada en los 13,5 MHz para resoluciones 4:3 y 16:9
(también se puede muestrear a 18 MHz para resoluciones horizontales mayores y relación de aspecto 16:9). Por
otra parte, para los componentes de crominancia se utiliza una frecuencia de muestreo de 6,75 MHz.
Sabías que...
Si bien se emplean 8 bits por cada muestra, en realidad no tendremos 28 = 256 niveles, sino que se emplean 220
para la señal de luminancia (del código 16 para el negro al 235 para el blanco) y 224 niveles para las señales de
diferencia de color (crominancia), siendo el nivel 128 el centro de la escala.
Únicamente se digitalizan aquellos fragmentos de la señal de vídeo que portan información, dando lugar a lo que
se denomina línea activa digital (LAD). Los huecos entre líneas, es decir, el periodo de borrado, no se digitaliza,
siendo empleados para informaciones adicionales y poder sincronizar la transmisión digital.
*Foto Figura 5.30. Detalle de la línea activa digital.
Recuerda:
La línea activa digital se crea al digitalizar únicamente los fragmentos de señal de vídeo que contienen
información, con una duración de 53,3 microsegundos y la cual contiene 720 muestras de señal de luminancia y la
mitad de señales de crominancia (diferencia de color).
Por lo tanto, la Recomendación CCIR 601 establece una codificación estándar en la que las frecuencias de
muestreo de la luminancia y de las señales de crominancia (diferencia de color) tal que la señal de luminancia es
muestreada al doble de frecuencia (13,5 MHz) que las dos señales diferencias de color (6,75 MHz), a este sistema
se lo conoce como 4:2:2, haciendo referencia a la relación de muestras de cada señal (por cada cuatro muestras de
señal de luminancia (Y) se toman dos de la señal de crominancia U y dos de la señal de crominancia V.
*Foto Figura 5.31. Esquema del muestreo 4:2:2 según la Recomendación CCIR 601.

La norma también contempla la posibilidad de emplear otros sistemas superiores, utilizando las señales primarias
RGB, en los que la relación de frecuencias es 4:4:4.
Sabías que...
La forma de designar los sistemas de codificación como 4:2:2 o 4:4:4 tiene su origen en el hecho de que
incialmente fueron empleadas para indicar el múltiplo de la frecuencia de la señal portadora con la que se
muestreaban las señales de luminancia y crominancia. Por tanto, la primera cifra, el 4, significa un muestreo de la
señal de luminancia a una frecuencia cuatro veces superior de la subportadora.
Existe un sistema denominado 4:2:0 en el que puede pensarse que una de las señales de crominancia no es
muestreada, sin embargo, esto no es así, en el sistema 4:2:0 una de las señales de crominancia es muestreada de tal
forma que se descarta una de cada dos muestras.
El sistema de digitalización 4:2:2 está regulado por el estándar CCIR 656, donde la LAD está constituida por 720
muestras de luminancia y 360 de cada una de las señales de crominancia, como hemos visto anteriormente.
En el sistema 4:2:2, la trama digital de la señal de vídeo se formará a partir de una muestra de señal de luminancia
por una muestra de señal de crominancia alterna. Es decir, las muestras de las señales diferencia de color serán
transmitidas intercaladas con las de luminancia. El periodo de transmisión será de 37 ns por muestra, lo que
supone un flujo de datos de 216 Mbps, en el caso de emplear una profundidad de 8 bits (270 Mbps para 10 bits de
profundidad).
*Foto Figura 5.32. Detalle de intercalado de muestras.
Los datos de la LAD (línea activa digital) se completan con señales de control de la trama, como son los códigos
de inicio de vídeo activo (SAV) y de final de vídeo activo (EAV) y otros datos adicionales, para así facilitar la
lectura de la línea en el receptor.
5.13. Compresión de las imágenes de las señales de vídeo.
El proceso de digitalización y distribución de las señales de vídeo puede descomponerse en tres etapas,
fundamentalmente:
1. Digitalización.
2. Edición.
3. Compresión.
En función del soporte o medio al que vaya destinado el vídeo digital, será preciso mayor o menor calidad o
resolución, sin embargo, encontraremos bastantes diferencias en cuanto al tamaño de la digitalización y estándar
de vídeo a emplear.
Tras adoptar en 1982 la Recomendación CCIR 601 como estándar para la producción de señales de vídeo, se
evidenció que las tasas de 216 Mbps (270 en el caso de 10 bits de profundidad) suponían un gran problema al
tratarse de número prohibitivos para los sistemas de radiocomunicación de vídeo, especialmente para la televisión.
Por ello, se empezó a trabajar en la búsqueda de algún sistema que fuese capaz de reducir este flujo
considerablemente sin que ello supusiese una gran pérdida de calidad de la señal. La solución llegó de la mano de
las técnicas de compresión, como veremos más adelante.
5.13.1. Técnicas de compresión de las señales de vídeo.
Las principales técnicas de digitalización de vídeo son las que se describen a continuación:
● Intraframe. Esta técnica digitaliza el frame por completo. Al contar con todos los frames al completo, tiene la
ventaja de permitir la edición de vídeo, además de ser de gran calidad. Sin embargo, ocupa un gran tamaño y
resulta muy costoso su distribución por medios multimedia. El sistema intraframe más utilizado es el M-JPEG.
● Interframe. Se basa en digitalizar únicamente algunos frames de la señal de vídeo, que se denominan key-
frames. El resto de frames de la señal contendrán únicamente información del cambio de la imagen respecto al
key-frame anterior o posterior y reciben el nombre de delta-frames. A partir de los key-frames y los delta-frames la
señal de vídeo es reconstruida antes de la reproducción. Este tipo de digitalización soluciona el problema del
tamaño y puede ser distribuido en algunos entornos multimedia, a costa de disponer de menor calidad y no
permitir una edición segura. Uno de los estándares interframe más utilizados es el MPEG.
■■■ M-JPEG.
El sistema M-JPEG es una variación del conocido formato estándar de imágenes JPEG que, básicamente, consiste
en tratar al vídeo como una sucesión de imágenes estáticas, donde cada fotograma o campo entrelazado del vídeo
digital es comprimido como una imagen JPEG, para, posteriormente, descomprimirlo, siendo muy frecuente
encontrarlo en dispositivos portátiles y cámaras digitales.
Si bien podemos decir que JPEG es reconocido por organizaciones como la CCITT y la ISO como estándar
internacional, el formado M-JPEG no; ya que cada fabricante de sistemas de edición y digitalización ha producido
sus propias variantes y no se incluye, tan siquiera, la señal de audio. El sistema M-JPEG es empleado en sistemas
multimedia como digitalización original sobre la cual se realiza la edición y, posteriormente, su distribución en un
formato compatible.
Al contrario de como sucede con otros formatos de vídeo como el MPEG-2, especificados en estándares
internacionales, o el estándar de imágenes JPEG, no existe ningún documento que estandarice internacionalmente
el sistema M-JPEG, de forma que pueda ser empleado de manera única y universal por los distintos fabricantes,
por lo que se pueden presentar problemas de compatibilidad.
Otro problema de este formato lo constituye la elevada tasa de bits que implica, debido a la gran calidad de
imagen y su escaso índice de compresión, lo que supone mayores requerimientos de espacio de almacenamiento
que otros formatos más modernos para una calidad de imagen dada.
Sabías que...
Actualmente, es posible conseguir calidad SVHS con el sistema de compresión M-JPEG, pudiendo realizarse con
los mismos trabajos de calidad profesional.
■■■ MPEG.
Una de las principales ventajas del sistema MPEG es que es un estándar internacionalmente reconocido por la ISO
para la compresión de vídeo, audio y datos, por lo que se ofrece compatibilidad a nivel internacional. El uso de un
sistema de captura MPEG implica unir los procesos de digitalización y compresión al mismo tiempo, para así
quedar disponible para su distribución. Entre sus virtudes también podemos destacar su capacidad de compresión
del vídeo original, con un ratio de 200:1, ofreciendo, a su vez, mayor calidad que otros formatos (salvo M-JPEG).
El sistema MPEG emplea digitalización (compresión) de tipo interframe, de tal manera que cuenta con key-
frames que conservan toda la información del fotograma junto con delta-frames de dos tipos: P frames y B frames.
A lo largo de su historia, se han desarrollado diferentes variantes (MPEG-11, MPEG-2, etc.) para la transmisión
de diferentes tipos de vídeo digital. Entre ellos, podemos destacar:
● MPEG-1. Originalmente creado por Moving Picture Experts Group, se diseñó para poder conseguir una tasa de
almacenamiento y reproducción en un soporte CD-ROM de 1,5 Mbps (imagen y sonido). Es la norma que fue
diseñada para lo que se denomina Vídeo-CD, es decir, vídeo con calidad VHS y sonido digital.
● MPEG-2. De calidad superior al anterior, este estándar fue creado para codificar digitalmente la señal de
televisión. MPEG-2 está estrechamente ligado a la teledifusión digital europea (TDT), que se basan en las normas
DVB, alcanzando tasas de hasta los 40 Mbps, pudiendo tener vídeo entrelazado y distintas resoluciones de
pantalla. Se utiliza en los DVD (Digital Video Disk).
● MPEG-3. Presenta una elevada calidad de vídeo, 1920 x 1080 x 30 Hz, con tasas de transmisión que están en el
margen de los 20-40 MHz. Actualmente, forma parte de lo que se denomina MPEG-2 Nivel Alto-1440.
●MPEG-4. Este estándar, de bajo ancho de banda, está diseñado para trabajar de manera óptima con dispositivos
móviles como videoteléfonos, tabletas y PDA, principalmente.
5.14. Televisión digital terrestre.
A lo largo del desarrollo de los sistemas de televisión digital, se procuró evitar que el mercado internacional se
fragmentara en diferentes estándares, al igual que sucedió con la televisión analógica (PAL, NTSC, SECAM, etc.),
sin embargo, esto no fue posible y, en la actualidad, conviven distintos estándares de televisión digital:
● Sistema europeo DVB-T (Digital Video Broadcasting-Terrestrial, difusión de vídeo digital-terrestre).
● Sistema estadounidense ATSC (Advanced Television Systems Committee, Comité de Sistemas de Televisión
Avanzada).
● Sistema japonés ISDB-T (Integrated Services Digital Broadcasting, transmisión digital de servicios integrados).
● El sistema SBTVD derivado de la norma japonesa y desarrollado en Brasil.
● El sistema DMB (Digital Multimedia Broadcasting, transmisión digital de multimedios) desarrollado en Corea
del Sur.
● El sistema DTMB (Digital Terrestrial Multimedia Broadcast, transmisión digital terrestre de multimedios)
originario de China.
En España, el estándar empleado para la transmisión de la televisión digital terrestre es el DVB-T, creado de la
mano de la organización europea DVB (Digital Video Broadcasting), es utilizado por más de 110 países de todo el
mundo, entre los que se encuentran todos los países de la Unión Europea.
El sistema DVB-T transmite señales de vídeo, audio y otros datos, empleando un flujo MPEG-2 y utilizando una
modulación denominada COFDM (sigla de multiplexación por división de frecuencia ortogonal codificada).
5.15. El monitor de forma de onda y el vectorscopio.
Para la realización de labores de producción, duplicación, medida y tratamiento de las señales de vídeo se emplean
dos instrumentos, los monitores de forma de onda y los vectorscopios. Son instrumentos cuya función principal es
la de evaluar de manera precisa los niveles de vídeo, especialmente lo que al color y brillo se refiere.
El vectorscopio es el instrumento encargado de medir la crominancia de una señal de vídeo, es decir, sus
componentes de color, incluyendo la saturación y el tono de esta, mostrando la información de color en un gráfico
que tiene geometría circular.
Por otra parte, el monitor de forma de onda es empleado cuando se desea medir la luminosidad o brillo de una
señal de vídeo. El monitor de forma de onda muestra una representación en forma de gráfico donde el eje
horizontal se corresponde con la imagen de vídeo de izquierda a derecha, mientras que en el eje vertical la forma
de onda representa los niveles de luminancia.
Algunos equipos incluyen un monitor de forma de onda y un vectorscopio en el mismo aparato, pudiendo
visualizar ambos parámetros.
La popularización del vídeo digital ha supuesto que los monitores de forma de onda deban ser capaces de
representar este tipo de señales, pudiendo representarse la señal de vídeo una vez que ha sido decodificada o
también mediante lo que se conoce como diagrama de ojo, un método empleado en el análisis del
comportamiento de los enlaces de transmisión.
5.16. Perturbaciones que pueden afectar a un sistema de vídeo.
Las señales de vídeo, y en particular aquellas que son transmitidas, están sujetas a una serie de perturbaciones,
como pueden ser el ruido, la distorsión, la diafonía, la intermodulación, las interferencias, etcétera.
El ruido eléctrico es uno de los peores enemigos de los sistemas de televisión, afectando notablemente a la calidad
de las imágenes de televisión. Este tipo de ruido está presente en todos los equipos electrónicos y en todas las
etapas de procesamiento de las señales de vídeo, de ahí su importancia, debiendo procurar que se mantenga en
unos niveles que hagan su presencia insensible al ojo humano. Estos niveles óptimos suelen expresarse en
términos de relación señal a ruido (S/N) y también portadora a ruido (C/N).
La distorsión también puede estar presente en los sistemas de vídeo. Estas son deformaciones que aparecen en la
señal debidas, generalmente, a un mal ajuste de los circuitos o un mal funcionamiento de estos. Podemos
distinguir dos tipos principalmente, las distorsiones lineales, que se producen por la frecuencia o el tiempo, y las
distorsiones no lineales, que dependen de aspectos relacionados con las no linealidades de los circuitos, teniendo
su origen en las saturaciones de amplitud, la situación de las señales de prueba, etcétera.
Otros fenómenos que afectan a los sistemas de televisión son:
● Sobrecarga de la fundamental. Anomalía que se produce en los receptores cuando hay una fuerte señal a la
entrada y el receptor no puede procesar adecuadamente la señal tan fuerte y distorsiona la información. Es la
interferencia EMI más común en los receptores de televisión.
● Sobrecarga armónica. Los armónicos pueden ser fuente de interferencia si no limitamos su intensidad. Estos
tienen especial importancia cuando se producen no linealidades en los circuitos.
● Rectificación de audio. Se manifiesta cuando se capta una señal de audio de una fuente distinta a la emisión
deseada.
● Interferencia IMD. Los receptores de televisión disponen de etapas de amplificación y demodulación, siendo
susceptibles a interferencias de distorsión de intermodulación, que tiene lugar cuando dos o más señales están
presentes a la entrada del aparato receptor y aparecen señales de frecuencias adicionales y distintas amplitudes
que, en caso de estar dentro de la banda de la señal deseada, podrá ocasionar alguna perturbación en la señal
recibida.
● Interferencia IF. Tiene su origen en el bloque de amplificación de frecuencia intermedia de los receptores.

También podría gustarte