Está en la página 1de 279

CURSO: 2020-2021

TEMA Nº 1 – S.T.I. – S.P.A. – 2020 - 2021


“EL SONIDO”
NATURALEZA DEL SONIDO
Sonido: A pesar de la disparidad de fuentes generadoras, el principio básico siempre es el mismo. Todos los
sonidos que percibimos están formados por ondas mecánicas, que se propagan mediante la variación de presión a
las que se somete a las moléculas del aire u otro medio.

En nuestro caso, el proceso para generar un sonido comienza en los pulmones (Fig. 1.1), se encargarán de
crear un flujo de aire más o menos uniforme, lo que provocará la vibración de las cuerdas vocales, la presión del aire
aumentara, mientras que un instante después se producirá el efecto contrario. Al llegar a la boca el aire expulsado se
propagará cuando una moléculas choquen con otras, por lo que estos cambios de presión se irán desplazando a
medida que el frente de ondas avance.

MAGNITUDES DEL SONIDO


Las características fundamentales del sonido pueden encuadrarse en los siguientes grupos:

 Presión sonora.

La principal particularidad de un sonido es su intensidad. Para medirla se determina que presión acústica están
recibiendo las moléculas en un lugar concreto por unidad de superficie, se contabilizará en Newton/m². El margen
en el que se pueden mover los niveles de presión sonora son muy amplios y resulta difícil usar una unidad lineal para
dimensionarlos. En casos como éstos se recurre al decibelio (dB), unidad logarítmica de relación que nos permite
representar magnitudes susceptibles de adoptar valores muy dispares. No es una medida exclusiva de presión
sonora, sirve también para relacionar tensiones eléctricas, potencia, etc. La diferencia entre los diferentes tipos de
decibelios vendrá determinada por la referencia que se establece para la comparación, que, en el caso del nivel de
presión sonora (SPL, Sound Presure Level), es el umbral de audición humana, cuantificado en 2 · 10ˉ⁵ N/m².

Para determinar el nivel de presión, en dB, de un sonido a partir de la presión sonora en un punto, se hace
indispensable la siguiente expresión:
Donde:

P: presión sonora en N/m².

Pref: 2 · 10ˉ⁵ N/m².

 Longitud de onda.

Si elegimos un sonido elemental, éste contendrá un único ritmo de vibración, generando máximos y mínimos de
presión en el medio a medida que se desplaza. Analizando estos cambios podremos saber el espacio que recorre la
onda para cada uno de los ciclos de compresión y expansión que realiza. A este espacio se le conoce como longitud
de onda, se identifica con la letra griega λ (lambda) y, se mide en metros.

 Periodo.

Podemos observar cuánto tiempo tarda en completar cada uno de los ciclos que describe. A este tiempo le
llamaremos periodo y lo identificaremos con la letra T, midiéndose en segundos.

 Frecuencia.

Normalmente recurrimos a una forma complementaria de analizar la velocidad de variación de la onda. La


frecuencia (F) define el número de ciclos que se completan en un segundo de tiempo. Se mide en hercios (Hz), es
imprescindible saber a qué velocidad se mueve el frente de ondas. La velocidad a la que se desplazará depende de la
naturaleza del medio y la temperatura, se toma una velocidad de propagación en el aire de unos 345 metros por
segundo a 25°C. La frecuencia y el periodo están relacionados, a través de la expresión:

1
F=
T
También se puede calcular a partir de la longitud de onda, del siguiente modo:

c
F=

Donde:

F: frecuencia (Hz).

c: velocidad de propagación (m/s).

λ: longitud de onda (m).

Cualquier onda, por elaborada que sea su estructura, se


considera una suma de señales simples. La cantidad y la amplitud de
cada una de estas componentes unitarias, que llamaremos
armónicos, definirán la forma de onda compleja. Para representar
estas componentes se usa un diagrama espectral, sobre cuyo eje
horizontal marcaremos la frecuencia, y en el vertical la amplitud de
cada componente.

Cualquiera de estas formas gráficas define correctamente a


la señal, y utilizaremos en cada momento la representación que muestra
mejor el fenómeno que deseamos estudiar. Existen equipos de medida que
permiten alternar los dos modos de visualización.

Ejemplo 1:
Si consideramos una onda cuadrada y la descomponemos en los elementos
básicos que la forman, además de la frecuencia fundamental, aparece una serie
infinita de armónicos cuyos valores coinciden con los múltiplos impares de aquélla.
La amplitud de estos armónicos va decreciendo a medida que nos alejamos de la
frecuencia principal, por lo que bastará con tomar las señales más próximas para
obtener una aproximación suficiente a su forma final.

FISIOLOGÍA DEL OÍDO


Cuando una onda acústica llega hasta nuestro oído, las variaciones
de presión provocan la vibración del tímpano; a través de esta membrana el
sonido llega a los huesecillos del oído medio, que actúan como un
amplificador. Al final se localiza el nervio acústico, el cual (excitado por los
movimientos del martillo) genera impulsos que nuestro cerebro
interpreta después, descifrándose de esta forma el sonido recibido.

La estructura del oído recibe un margen concreto de frecuencias,


siendo insensible al resto. Al grupo de frecuencias que pueden ser
captadas las denominamos ancho de banda audible y, depende de cada
persona (se ve alterado por la edad, la capacidad física y determinadas
enfermedades), se encuentra dentro del margen comprendido entre 20 y
20.000 Hz. Se toma este ancho de banda como referencia para las
medidas de calidad de los equipos y sistemas de audio.

Dentro de este ancho de banda, nuestro sistema auditivo no


responde por igual a todas las frecuencias. La forma en que percibimos
los sonidos depende de su frecuencia y de la potencia con que los recibamos. Existe una zona de frecuencias en la
que el oído resulta más sensible: entre 2 y 5 kHz. Cuando los sonidos que percibimos son de bajo nivel, sentimos una
clara disminución de las componentes de baja frecuencia (graves), efecto que disminuye al aumentar la intensidad
sonora.

El fonio es la unidad que evalúa la percepción subjetiva del sonido, cuantificando la sensación de sonoridad.

Los primeros estudios basados en estos parámetros dan como resultado las curvas isofónicas, que indican
que para percibir un nivel de 10 fonios a 100 hercios, tendremos que recibir unos 45 dB de intensidad acústica
(Figura 1.4, punto A); si elevamos la frecuencia a 1 kHz, bastarán unos 10 dB para obtener la misma sensación (punto
B). A medida que elevamos el nivel de sonido, las variaciones se hacen menos evidentes. En la zona de alta
percepción (110-120 fonios), nuestro oído se vuelve notablemente más lineal, exceptuando la zona en torno a los 3
kHz, donde precisamos menos potencia para percibir la misma cantidad de sonido.

Ejemplo 2:
Cuando a una persona le llega un sonido desde una fuente situada en una posición ladeada, que no coincide con su eje
auditivo, ejecuta varias técnicas para localizar el origen del sonido, según la frecuencia que se esté generando.

Si el sonido tiene una frecuencia baja, su capacidad de difracción es muy elevada, y las ondas sonoras llegarán hasta los
dos oídos. Como la distancia que habrán recorrido las ondas varía para cada uno de ellos, la fase de las señales recibidas no
coincidirá. El cerebro determinará qué oído recibe antes la onda y, en qué dirección se encuentra la fuente sonora.

Sin embargo los sonidos agudos tienden a seguir líneas rectas en su propagación, su capacidad de difracción es mucho
menor. El oído que se encuentra cerca del generador de sonido recibirá una gran cantidad de señal, mientras que el contrario
conseguirá una onda notablemente más atenuada, ya que la cabeza se comporta como un obstáculo para esas frecuencias
elevadas. Analizando la intensidad percibida por cada oído, el cerebro podrá determinar el punto del que partió el sonido
original.

MEDIDAS DE SEÑALES DE SONIDO


Resulta imprescindible conocer los equipos y las técnicas
existentes para cuantificar las ondas acústicas y las señales de baja
frecuencia que provocan. Para evaluar una onda de sonido propagada
por el aire, el instrumento utilizado es el sonómetro. Este equipo capta
las variaciones de presión efectuadas por la onda acústica y nos indica el
nivel (en dB) de intensidad que recibe. La medida tomada directamente
por el sonómetro no es especialmente útil, pues nuestros oídos no perciben por igual todas las frecuencias, y el
sonómetro sí posee una respuesta lineal. Por esto se
precisan curvas de ponderación normalizadas que
adaptan el nivel de sonido medido según la
respuesta en frecuencia del oído humano. Con esta
operación se logra que la lectura efectuada se
aproxime a la percepción del sonido que tendríamos
para cada frecuencia.

Cuando se usan curvas de ponderación los


valores se representan estableciendo como sufijo la
letra que define la ley de variación, por lo que
podemos encontrar medidas en dB (A), a los que se
les habrán aplicado los factores de corrección de la
curva de ponderación A (Fig. 1.7), que sirve para adaptar la respuesta del oído ante señales de baja intensidad. Si el
oyente recibe señales de mayor nivel, la curva adecuada será la C, ya que las correcciones son menores.

Es posible establecer algunas medidas fundamentales que se deben tomar en consideración:

 Valor máximo

Para realizar las medidas de sonido se precisa una señal senoidal como referencia. Visualizando esta señal como
lo haría un osciloscopio, se establecen varios niveles, uno de ellos es el valor máximo o valor de pico, que se mide
desde el nivel de cero hasta el punto más alto de la señal. Conocer este valor resulta interesante para no sobrepasar
los límites de funcionamiento de los diferentes equipos de procesado de señales, Algunos equipos incorporan un
medidor de nivel de pico, denominado PPM (Peak Program Meter). Su escala suele estar calibrada de forma
logarítmica y mantienen una relación de 4 dB por división.

 Valor pico a pico

Otra forma es considerar la diferencia entre el punto más alto y el más bajo de la señal. Esta medida
corresponderá al doble del valor máximo, destacar que los dos valores se refieren a medidas instantáneas, por lo
que representan situaciones extremas y no de funcionamiento continuo.

 Valor eficaz

Cuando queremos saber la cantidad de energía que lleva una señal,


recurrimos a un valor eficaz. Éste no se visualiza en el osciloscopio, corresponde a
la lectura que nos proporciona un voltímetro electrónico RMS. Este valor
relaciona nuestra señal alterna de referencia con otra sin variaciones e indica el
nivel que tendría la señal en caso de ser continua. Se encuentra relacionado con
el valor máximo para señales senoidales a través de la fórmula:

Vef = 0,707 · Vmáx

 Medidas de relación

En la medida de señales eléctricas de audio se aplica normalmente, el decibelio, que es un valor eficaz de 0,775
voltios. La elección de este valor se debe a que corresponde a la diferencia de potencial que tendría una resistencia
de 600 Ω cuando disipa una potencia de 1 mW. A la unidad de relación que usa esta referencia se la conoce como
dBu.
 Unidad de volumen

El equipo de medida y la monitorización que incorporan más frecuentemente los equipos es el vúmetro. Éste,
presenta una escala logarítmica calibrada en dB, lo que nos permite conocer el nivel de la señal que se está
recibiendo o proporcionando. No existe una plena normalización en el uso del vúmetro (VU-meter, medidor de
unidad de volumen), por lo que tendremos que consultar la información de cada fabricante para saber la

correspondencia de la escala seleccionada. En la mayoría de los casos el nivel de 0 unidades de volumen se suele
corresponder con +4 dBu.

Además de las medidas que nos informan de la amplitud de una señal de sonido, existen otros parámetros
que definen la calidad de un sistema. A continuación comentaremos aquellos cuyo uso está más generalizado.

 Respuesta en frecuencia

En cualquier sistema acústico resulta primordial conocer el modo en que se procesan las frecuencias que
componen el espectro audible. Para ello se emplean las medidas de respuesta en frecuencia, que nos informan del
nivel de señal que obtendremos en la salida de un equipo o sistema para cada frecuencia contenida entre 20 Hz y 20
kHz. Como norma general, valoraremos positivamente una respuesta de frecuencia plana en la que no se producen
altibajos de frecuencia.

Paralelamente a la curva de respuesta en frecuencia se encuentra el concepto de ancho de banda, que


definimos como “el margen de frecuencias para el que un equipo se mantiene dentro de los límites de nivel
preestablecidos”. Cuanto más pequeña sea la tolerancia de variación de amplitud, más plana será su respuesta y
mayor calidad presentará el equipo. Se tiende a estandarizar el valor de -3 dB como límite para determinar la banda
pasante de un sistema de audio.

 Distorsión

Llamamos distorsión a cualquier variación que se produzca en la forma de la señal de salida de un equipo
respecto a la que se aplicó a la entrada. Se debe mantener este parámetro lo más bajo posible. Existen numerosas
causas que pueden provocas distorsión; si aplicamos un exceso de nivel de la señal de entrada, aparecerá distorsión
de amplitud al exceder los transistores de su zona de funcionamiento normal. Si introducimos dos señales de
amplitud y frecuencias distintas, en el interior del equipo se podrán generar otras señales como resultado de la
mezcla de ellas, dando lugar a distorsión por intermodulación. La forma más común de medir la distorsión, es a
través de la distorsión armónica total (THD, Total Harmonic Distortion), que compara el nivel de los armónicos
generados por distorsión respecto del nivel de la señal fundamental; esto se hace mediante la siguiente fórmula:

siendo:

A₁ = amplitud del armónico fundamental. A₃ = amplitud del tercer armónico.

A₂= amplitud del segundo armónico. A₄ = amplitud del cuarto armónico.

Ejemplo 3:
Para cuantificar prácticamente este parámetro, disponemos del medidor de distorsión, un equipo que genera una señal
senoidal con una única componente de espectro. Esta señal se aplica al equipo bajo prueba, y a la salida de éste se conduce
hasta el medidor. Para comprobar el grado de distorsión armónica, el aparato elimina mediante un filtro extremadamente
selectivo, la componente fundamental que él mismo generó, y comprueba el nivel de la señal restante, correspondiente al resto
de los armónicos. Este nivel será el indicativo de la distorsión que habrá introducido el equipo.

 Impedancia

Definimos este parámetro como la oposición que presenta un elemento al paso de la corriente eléctrica. Se
reconoce por la letra Z y se mide en ohmios (Ω). Es imposible evitar que exista la impedancia, pero podemos
conseguir que sus efecto sean lo menos perjudiciales posible. Para ello, cuidaremos la interconexión de equipos, de
forma que se dé una de estas dos premisas:

1. Que la impedancia del equipo fuente de la señal sea exactamente igual a la del equipo que la recibe. Ésta
es una condición para conseguir la máxima transferencia de potencia entre ambos.

2. Que la impedancia del equipo receptor sea muy superior a la del equipo que genera la señal.
Considerando esta segunda forma de acoplamiento, la corriente absorbida por el equipo receptor será
muy pequeña, e incluso despreciable si la variación de impedancias es notable, por lo que apenas se
modificará el funcionamiento del equipo que entrega la señal.

 Relación señal/ruido

Lo que nos interesa, desde el punto de vista de la calidad, es mantener la mayor diferencia posible entre la señal
y el ruido inherente al sistema. Aplicamos la relación señal /ruido (S/N. Signal to Noise), que suele expresarse en
decibelios, definiéndola por la expresión:

S/N (dB) = 20 · log

donde:

: tensión eficaz de la señal.

: tensión eficaz del ruido en las condiciones de la medida anterior.


Ejemplo 4:
Para determinar el nivel de ruido de un sistema se
analiza la señal de salida para todo el ancho de banda,
manteniendo la entrada en cortocircuito y a la máxima
potencia. Posteriormente se aplica la señal de entrada nominal
y se extrae la curva de respuesta en frecuencia. Comparando
las gráficas de ruido y señal se observa fácilmente la relación
de niveles entre ambas.

 Separación entre canales

Cuando un sistema de sonido procesa varios canales simultáneamente, como en un equipo estéreo, existe un
cierto efecto de “contaminación” de la información que contiene cada uno de ellos sobre el otro. A este efecto de
mezcla de los canales se lo conoce como diafonía; para mantener un adecuado nivel de calidad, se debe intentar
minimizarla. Las causas que la producen dependen del equipo, pueden ser de tipo eléctrico (amplificadores) o físico
(magnetófonos). Se indica por una cantidad de decibelios que en caso de definir diafonía serán negativos; si se trata
de separación entre canales, tomarán valores positivos.

Ejemplo 5:
Para medir la diafonía, se aplica la señal de un generador de sonido a uno de los canales, mientras que se mantiene la
otra entrada en cortocircuito. En la salida conectamos dos medidores de nivel (voltímetro electrónico RMS) y visualizamos las
medidas obtenidas. En la salida del canal derecho debe aparecer un valor elevado, puesto que ese canal estaba recibiendo señal
de excitación. Sin embargo, en el izquierdo, por el que no se había introducido señal alguna, se observará una pequeña lectura.
La diferencia entre los dos valores medidos será la separación entre canales del dispositivo.

MICRÓFONOS
Son los elementos encargados de captar las ondas mecánicas que propagan el sonido y convertirlas en
señales eléctricas para su posterior procesado. Podemos clasificarlos en función de su construcción física y
características eléctricas. Aunque existen numerosos modelos, los más frecuentes en la actualidad pertenecen a los
grupos que veremos a continuación.

 Micrófono dinámico

Se conoce también como “micrófono de bobina móvil”, su estructura está formada por un arrollamiento de hilo
conductor unido a la membrana, que se mueve a partir de las variaciones de presión que llegan hasta ella. La bobina
se coloca dentro del campo magnético generado por un imán permanente, cuando se desplaza, ésta corta las líneas
del campo magnético del imán. Cuando un conductor eléctrico (como la bobina) se mueve en el interior de un
campo magnético, aparece en sus extremos una fuerza electromotriz inducida, proporcional al movimiento realizado
y, consecuentemente, a la cantidad de líneas de fuerza que atravesó en su recorrido. Mediante este principio
podremos obtener, en los extremos de la bobina, pequeñas diferencias de potencial, proporcionales a las
vibraciones experimentadas por la membrana.

La construcción física de la bobina determina la calidad del micrófono; estos micrófonos están especialmente
indicados en aplicaciones donde el nivel acústico sea elevado, ya que soporta grandes presiones sonoras sin
saturarse, ya que el conjunto membrana-bobina posee una notable capacidad de desplazamiento. La impedancia del
micrófono también estará marcada por la bobina; los valores típicos son en torno a unos pocos cientos de ohmios
(típicamente 600).
Como inconveniente, el elemento móvil tiene una masa y un tamaño considerables, pueden aparecer
efectos de resonancia mecánica. Esto supondrá que a determinadas frecuencias vibrará con mayor intensidad, no
siendo la respuesta en frecuencia de estos micrófonos completamente plana. Estos aparatos están comercializados
como micrófonos de vocalista.

En este micrófono surge frecuentemente el denominado efecto de proximidad. Se trata de un realce de la


respuesta a frecuencias bajas cuando se utiliza el micrófono a muy corta distancia (un centímetro de la boca). Por
ello muchos fabricantes representan las gráficas de respuesta en frecuencia a dos distancias.

 Micrófono de cinta

Dentro de los micrófonos dinámicos encontramos el micrófono de cinta, también llamado micrófono de
velocidad. Su principio básico es el mismo: un conductor que se mueve en el interior de un campo magnético
provocando la inducción en sus extremos de corriente eléctrica inducida. En este tipo de micrófonos se sustituye la
membrana y la bobina por una delgada lámina de aluminio. Este elemento, de forma alargada y corrugada, se coloca
en el interior de un imán (en forma U), de tal modo que corte las
líneas de fuerza de su campo magnético. Su funcionamiento es que
al recibir ondas sonoras, la cinta metálica comenzará a vibrar
debido a la presión acústica. Al producirse en la zona de actuación
del campo magnético del imán, las vibraciones de la cinta
conductora provocarán la inducción de corriente eléctrica en sus
extremos, y esa corriente será proporcional a las ondas acústicas
recibidas. La impedancia del micrófono de cinta es más baja que la
del micrófono dinámico, estando en torno a los 200 ohmios. El
sonido captado por un micrófono de cinta resulta muy suave,
incluso en condiciones de alta presión acústica. Esto lo hace
adecuado para captar sonidos de vocalistas a media distancia
(estudios de grabación), entregando sonidos naturales y muy
agradables al oído. También pueden utilizarse para captar sonidos
de instrumentos, ya que su respuesta en frecuencia es muy buena
y acepta sonidos fuertes sin saturarse.

Entre los inconvenientes, podemos indicar el bajo nivel de señal que entrega, lo que obliga a utilizar
preamplificadores de señal. También se dice que produce un excesivo ruido de manipulación, por lo que
encontraremos a estos micrófonos generalmente colocados sobre soportes fijos y asociados a sistemas de
suspensión elásticos que neutralizarán cualquier vibración no deseada.

 Micrófono de condensador

Pueden considerarse de tipo electrostático, su estructura se forma a partir de una placa conductora fija, frente a
la cual se dispone, separada por un pequeño espacio, una membrana móvil de material conductor. Esta estructura es
la de un condensador, con la particularidad de que una de sus placas tiene la capacidad de moverse con las
vibraciones de las ondas acústicas que inciden sobre ella. La placa inmóvil del conjunto presenta orificios distribuidos
por la superficie, para permitir que lleguen hasta la membrana los sonidos procedentes de la parte trasera. Como en
dicha estructura una de las placas está asociada a la membrana, al incidir sobre ella las ondas acústicas se provocará
un ligero desplazamiento y, se modificará la capacidad de la cápsula. Para detectar esta variación debemos
garantizar que el condensador se encuentra cargado, para lo que precisamente una fuente de alimentación que
suministre la corriente continua de polarización del condensador, lo cual resulta un inconveniente respecto a los
sistemas dinámicos.

La ventaja de estos micrófonos, es una respuesta en


frecuencia, que en los sistemas de calidad puede resultar
virtualmente plana, por lo que son ideales en aplicaciones de
calibración y adquisición de sonido para mediciones. Como la
membrana tiene una masa muy inferior a la de un micrófono
dinámico, su sensibilidad aumenta notablemente, unido a su gran
fidelidad, permite usarlos también como captadores de
instrumentos musicales. Sin embargo, al ser la capacidad de
movimiento de la membrana limitada, estos micrófonos no están
indicados para captar sonidos de alta intensidad, puesto que se
saturan con facilidad. No presentan efecto de proximidad, por lo
que raramente serán la alternativa preferida por los vocalistas.

Las cápsulas de condensador registran una impedancia muy elevada, lo que dificulta la conectividad con
otros equipos de audio. Para disminuirla se suele incorporar una resistencia en paralelo, que rebaja la impedancia
del conjunto hasta los 50 KΩ. La señal que entrega un
micrófono de condensador es reducida si la
comparamos con las cápsulas dinámicas. Para
solucionarlo, se asocia en el interior un
preamplificador de bajo ruido, construido con
tecnología FET. Conseguimos, además de elevar
notablemente el nivel de salida, que la impedancia de
salida se rebaje hasta valores parecidos a los que
presentan los micrófonos de bobina móvil, entre 200
y 800 ohmios. Este preamplificador también tendrá necesidad de alimentarse externamente, para lo cual servirán
estas técnicas:

Alimentación por batería. Algunos micrófonos incorporan en su empuñadura una pila eléctrica, que
proporciona la tensión de alimentación necesaria para la polarización de la cápsula y del preamplificador.

Alimentación phantom. En la mayoría de los casos, la alimentación de los micrófonos de


condensador será suministrada por el equipo al que se conecte, habitualmente un mezclador de sonido o un
emisor de radiofrecuencia. Estos equipos tienen la posibilidad de generar una tensión de alimentación
(típicamente de 48 V) y enviarla a través de la propia línea de sonido del micrófono. En la conexión, el
positivo de esta tensión se aplica sobre los conductores activos (aquellos que conducen el sonido), mientras
que el negativo se conecta al blindaje del cable.

Ejemplo 6:
Cuando el micrófono se conecta inicialmente (fig. 1.17.a), la tensión de la batería polariza las armaduras, quedando el
condensador cargado. Al aplicarle presión sonora (fig. 1.17.b), la membrana se desplazará hacia el interior, disminuyendo la
distancia entre las placas. En esta situación, la capacidad eléctrica aumentará y, por lo tanto, se producirá una nueva demanda
de corriente de la batería, para cubrir la carga adicional almacenada. Cuando la membrana sufra una depresión (fig. 1.17.c), el
sistema de suspensión tenderá a moverla hacia el exterior, reduciéndose la capacidad del condensador. Este descenso de
capacidad hará que el condensador entregue el exceso de carga a través de la resistencia, generando una corriente contraria a la
que produjo ésta. De esta manera, habremos transformado los cambios de presión del aire en variaciones de corriente eléctrica.

 Micrófono electret

Considerado una variante de bajo coste del micrófono de condensador, comparte el principio de funcionamiento
basado en la capacidad almacenada en un condensador, mediante un montaje distinto. Ahora se dispone de un
dieléctrico fabricado con un material especial, que mantiene un campo eléctrico entre sus caras, polarizadas
permanentemente. Este material se denomina “electreto” y se forma a partir de polímeros sintéticos tratados con
flúor.

La aplicación de este material aislante elimina la necesidad de polarizar las placas del condensador,
sustituyéndose por la carga permanente propia del dieléctrico. La masa de esta lámina plástica resta sensibilidad, al
tiempo que limita su ancho de banda, por lo que suele resultar una estructura de calidad sensiblemente inferior a la
de un sistema de condensador puro, su coste también es notablemente más bajo. Como se trata de un micrófono
electrostático, el nivel de la señal de salida es muy pequeño, lo que sigue haciendo necesario un previo de bajo ruido
para elevar el nivel de la señal captada.
APLICACIÓN DE MICRÓFONOS
Cuando debemos sonorizar un evento, nos asalta la duda de que micrófonos debemos utilizar. Cada
situación requiere la utilización de un tipo de micrófono específico. Es habitual encontrar micrófonos de dos o tres
tipos trabajando juntos, según el tipo de instrumento que capten o la técnica de grabación empleada.

Para elegir el tipo de micrófono adecuado para cada aplicación debemos fijarnos en dos aspectos:

 Nivel de presión sonora: la cantidad de potencia acústica que llegará hasta el micrófono determinará el tipo
de micrófono adecuado. Si la presión a la que se somete es pequeña, los más adecuados serán los de
condensador, por su mayor sensibilidad. Sin embargo, este tipo de micrófonos se satura rápidamente ante
sonidos fuertes, por lo que en estas situaciones serán más eficaces los micrófonos dinámicos.

 Respuesta en frecuencia: Necesidad de tener una respuesta en frecuencia plana, donde se capten todos los
sonidos por igual, o realzar determinadas bandas de frecuencia. En el primer caso, los micrófonos de
condensador son los idóneos, por tener una respuesta fiel en toda la gama de frecuencias. Si deseamos
realzar los sonidos graves debemos utilizar micrófonos dinámicos.

Ejemplo 7:
Para determinar la presión acústica que llega hasta el captador, no sólo deberemos considerar la potencia de la fuente
de sonido, sino que analizaremos también la distancia a la que se encuentra el micrófono. Si captamos la voz de una persona,
podremos hacerlo colocando un micrófono dinámico cerca de la boca, como lo hace un cantante en un concierto o un locutor de
radio. También podremos utilizar micrófonos de bobina móvil para captar los sonidos de instrumentos de alta potencia, como los
tambores de una batería. La guitarra eléctrica es un caso curioso: aunque el instrumento dispone de sus propios captadores,
habitualmente se incluye como parte del instrumento al amplificador y al altavoz que éste lleva asociado, que el músico elige en
función del tipo de sonido que produce. Deberemos tomar el sonido que sale del altavoz, por lo que el nivel de presión será
considerable.

El campo de aplicación de micrófonos de condensador es la captación del sonido a distancia. Si en lugar el micrófono
delante de la boca el presentador lo lleva colocado en la solapa, la presión recibida será mucho menor. Lo indicado será utilizar
un micrófono más sensible, como los electrostáticos. También los encontraremos en los estudios de grabación, donde el sonido se
recoge a cierta distancia del vocalista. Serán también micrófonos de condensador los más adecuados para captar la música
generada por una orquesta o un grupo coral, utilizándose varios de estos captadores para cubrir diferentes zonas o crear efectos
estereofónicos. Este tipo de micrófonos también es el adecuado para realizar medidas acústicas, puesto que es el que mantiene
una captación uniforme en toda la banda de audio .

DIRECTIVIDAD DE MICRÓFONOS
Este parámetro definirá la respuesta del micrófono frente a las ondas acústicas que le lleguen desde los
puntos del espacio, representándose en un diagrama polar el nivel captado en distintos ángulos de incidencia de la
fuente sonora, en el plano vertical y horizontal. Según este criterio podremos observar los siguientes tipos.

 Omnidireccionales

Son micrófonos que reciben por igual sonidos procedentes de


cualquier dirección. Suelen ser micrófonos de condensador o electret,
y son habituales en aquellas aplicaciones en las que no existe una
posición definida y fija de la fuente sonora.
 Bidireccional

También llamados de “figura de ocho”, reciben ondas


procedentes de los dos sentidos en la dirección de su eje. Si nos
alejamos de esta posición, disminuirá la sensibilidad del equipo,
resultando totalmente “sordo” a los sonidos que le llegar
perpendicularmente.

 Cardioides

Su respuesta polar tiende a ser directiva, y recibe correctamente


las señales procedentes de la zona delantera disminuyendo su
sensibilidad a medida que nos alejamos de esta dirección. En el eje
perpendicular todavía presenta una captación notable, apareciendo el
nulo de sensibilidad en contraposición a la dirección de mejor
respuesta. Su diagrama de directividad recuerda la forma de un
corazón, lo que da nombre a este grupo.

 Hipercardioide

Es una estructura con una dirección preferente de captación,


presenta un lóbulo delantero marcadamente mayor que el trasero. La
diferencia fundamental con el cardioide reside en su pequeño lóbulo
trasero. Los puntos de mínima sensibilidad se encuentran en las
diagonales de los cuadrantes posteriores, aproximadamente en 135° y
225°, respectivamente.

 Unidireccionales

En algunas aplicaciones nos interesa captar exclusivamente los sonidos que llegan en una dirección concreta,
desechando el resto. Éste es el campo de aplicación de los micrófonos unidireccionales, de los que resaltamos dos
estructuras:

A. De cancelación de fase. Está formado por una cápsula


hipercardioide encerrada en el interior de un tubo hueco,
conocido como “cañón”, en el cual se han realizado
orificios o ranuras que modificarán la respuesta original.
Si la señal incide desde la dirección del eje del tubo,
podrá entrar sin dificultades a través de su embocadura,
llegando hasta la cápsula que recogerá estos sonidos. Si
el ángulo de incidencia es diferente, el frente de ondas
acústicas llegará hasta el interior del tubo a través de las
ranuras practicadas en él.

La anchura de estas ranuras y su separación están


calculadas de forma que, para las frecuencias de audio,
las ondas que penetran por las ranuras y que se
desplazan por el interior del cañón coinciden en
oposición de fase con las que llegan a través de la ranura
siguiente. Esto provoca la cancelación de las señales que
han incidido a través de las ranuras laterales, lográndose
una respuesta muy mejorada en la dirección delantera. La directividad de éste micrófono depende de la
longitud del tubo cancelador, que varía de unos 15 a 17 centímetros.

B. Con reflector. La estructura que mayor directividad proporciona es, la resultante de asociar un
micrófono cardioide a un reflector parabólico. En este montaje, los sonidos procedentes del eje de la
parábola se direccionarán hacia su punto focal, donde se instala el micrófono orientado en la dirección
contraria a la de apuntamiento. De esta manera se consiguen diagramas polares en los que sólo aparece
el lóbulo delantero, desechándose cualquier sonido lateral o trasero. El grado de directividad de este
sistema es tal que el operador debe “apuntar” el micrófono, monitorizando el sonido captado en unos
auriculares, puesto que su área de captación no supera los 15° en la zona alta del espectro.

Ejemplo 8:
Se observan diagramas omnidireccionales en micrófonos de solapa (lavalier), que permiten que el locutor mueva
libremente la cabeza sin que afecte al nivel captado. Los sistemas bidireccionales se pueden aplicar en el centro de una mesa en
la que dos personas conversan, situadas una enfrente de la otra. Así, cada uno de los lóbulos recoge el sonido de un interlocutor,
y se evitan ruidos procedentes de otras direcciones.

Un vocalista en un concierto debería utilizar micrófonos cardioides. En este caso, el altavoz de monitorización del
escenario estará situado justo delante del cantante para que el sonido que se genere no sea percibido por el micrófono, que, al
tener mínima sensibilidad en esa dirección, evitará realimentaciones acústicas. También valdría una disposición hipercardioide
para esta aplicación, se deberían colocar dos monitores de escenario frente al vocalista. Éstos se situarán coincidiendo con los
nulos del micrófono; esto es, en las diagonales opuestas a la posición del hablante.

Los cañones son ampliamente conocidos en periodismo electrónico para captar los comentarios de una persona cuando
se encuentra en un entorno ruidoso, en este caso, podremos grabar sus declaraciones incluso cuando coloquemos el micrófono a
cierta distancia, por ejemplo, suspendido en una pértiga por encima de las cabezas del grupo de periodistas. Cuando queramos
recoger sonidos lejanos, podremos recurrir a los micrófonos con reflector. Estos sistemas se pueden ver en las bandas de los
campos de futbol.

MICRÓFONOS INALAMBRICOS
Los sistemas de microfonía sin hilos se basan en el uso de capsulas microfónicas convencionales asociadas a
un pequeño emisor de radio. En un lugar discreto de la sala se ubica una antena, que llevará la señal captada hasta el
receptor correspondiente, del cual se obtendrá la señal de sonido que proporciona el micrófono.
Los micrófonos preferidos habitualmente en sistemas inalámbricos pueden ser de dos tipos.

De mano. Pensados para vocalistas musicales o aplicaciones en ambientes ruidosos, usan cápsulas
dinámicas de respuesta hipercardioide. Se montan sobre una caja ligeramente más grande que la
convencional, en cuyo interior se alojan los circuitos de emisión de radio, así como la batería que los
alimenta. La antena emisora puede estar integrada en la propia empuñadura, o bien salir por la parte
inferior.

De solapa. Son unas diminutas cápsulas de


condensador, colocadas en la solapa e, incluso,
bajo el pelo. Al no situarlas frente a la boca, la
respuesta deberá ser omnidireccional, para
facilitar la captación del sonido en cualquier
posición de la cabeza. En este sistema,
denominado lavalier, la señal recogida se lleva por
un fino cable hasta el emisor, que adopta la forma
de una pequeña petaca (belt pack).

Estos transmisores inalámbricos aplican modulación


en frecuencia, con desviaciones entre ± 8 y ± 60 kHz según el
A.

ancho de banda de audio que transmiten. Las bandas de trabajo pueden estar en VHF (138-250 MHz) o UHF (574-
960 MHz), estableciéndose para cada sistema un plan de frecuencias de emisión indicado con el fin de evitar que
interfieran entre sí los diferentes micrófonos cuando están activos al mismo tiempo.

Como normalmente se utilizan en entornos cerrados, surge un problema importante con estos micrófonos
inalámbricos: el desvanecimiento de la señal (fading) al llegar hasta la antena receptora señales que han recorrido
varios caminos. Para cada ubicación de la antena emisora, la señal de radio seguirá un camino distinto hasta llegar a
la receptora, lo cual obliga a emitirla en todas las direcciones. Pero emitiendo de modo omnidireccional supone que,

además de la onda directa, hasta el receptor podrán llegar señales que se hayan reflejado en paredes, techo y suelo,
por lo que la señal recogida por la antena será, la suma de múltiples componentes recibidas con diversas fases.
Como la cantidad de señales recibidas y su potencia depende de múltiples variables, en algunas zonas las
componentes de radio se sumarán, por llegar con la misma fase; mientras que, al emitirse desde otros lugares, las
señales recibidas estarán en oposición, causando una disminución de la señal captada por la antena que puede crear
serios problemas de comunicación.
Para cada posición del emisor respecto de la antena de recepción se producen, puntos de mínima recepción,
denominados “nulos de señal”. Para solucionarlo se
idea la técnica de recepción diversa (diversity), que
consiste en utilizar dos antenas separadas para la
recepción de las señales del radiomicrófono. Al
colocar estas dos antenas separadas, los nulos de
recepción de la antena A no coincidirán con los de la
antena B, por lo que al menos una de ellas mantendrá
siempre el enlace activo, eliminándose así las zonas
muertas originales. En los sistemas de mayor calidad
se dispone de equipos true diversity que duplican, además de las antenas, los circuitos de recepción de la señal,
llevando el sonido demodulado de ambos receptores hasta un circuito que los evaluará y seleccionará el de mayor
nivel.

Ejemplo 9:
En los platós y teatros, donde son usuales micrófonos sin hilos, se colocan dos antenas receptoras directivas, una a cada
lado de la zona de actuación. Los cables de estas antenas son distribuidos hasta todos los receptores, que seleccionarán la
frecuencia de recepción de cada uno. Así, se garantiza una correcta recepción en cualquier ubicación de los emisores de los
micrófonos.

LÍNEAS DE TRANSMISIÓN
Son sistemas de transporte de las señales eléctricas, que sirven para interconectar los equipos que procesan
la información y llevar ésta hasta el propio usuario. Si analizamos una línea de transmisión clásica, observamos, que
debido a la longitud del hilo conductor que incorpora, aparece un efecto inductivo en ambos conductores, que
representamos con bobinas conectadas en serie con los hilos de la línea. Al tratarse de dos conductores paralelos
entre sí mientras transportan una diferencia de potencial eléctrico, y separados por un material dieléctrico, la línea
tendrá también un efecto capacitivo, como si tuviera conectado un condensador entre los cables. Esto supone que la
línea de transmisión incorpora una reactancia inductiva y capacitiva propia de sus dimensiones físicas. Además, para
entender el comportamiento de la línea de transmisión, se incorporarán resistencias en serie y en paralelo, que
justifiquen las pérdidas debidas a la resistividad del cable.

La incorporación de elementos resistivos completa el


modelo, que ahora deberá considerarse portador de una
determinada impedancia característica, parámetro fundamental de
la línea. Ésta dependerá de la sección de los conductores, de la
separación entre ellos y del material usado como dieléctrico, y se
mantiene constante e independiente de la longitud y de la
frecuencia de las señales que emite.

En el entorno de las señales de sonido, se encuentran estos


modos de líneas de transmisión:

 Línea paralela bifilar

Está compuesta de dos conductores paralelos, separados por un material dieléctrico que los aísla
eléctricamente, a la vez que mantiene la distancia que los separa. Resulta indicada cuando se deben transportar
señales de sonido que poseen un nivel lo suficientemente grande como para que el efecto del ruido exterior sea
inapreciable. Será el cable más frecuente para conectar altavoces. Sin embargo, debido a su ausencia de protección
frente a agentes perturbadores externos, no se podrá aplicar en conectividad de los procesadores, puesto que el
bajo nivel de la señal lo hace vulnerable frente al ruido eléctrico. Para
dotarle de mayor flexibilidad, los conductores están formados de
múltiples hilos, muy finos, arrollados entre sí para formar un conductor
homogéneo.

 Línea apantallada no balanceada

Cuando se precisa un mayor índice de protección de la señal


transmitida, se debe recurrir a las líneas apantalladas. Están compuestas
por un conductor central con su cubierta aislante, sobre la que se monta una segunda superficie conductora en
forma de malla, que recubre al hilo central. La ventaja, es que esta malla conectada a tierra en el interior de los
equipos, proporciona un apantallamiento frente a la inducción de ruido
exterior. Como la línea de transmisión ya no es simétrica, la
impedancia de la línea no se encontrará distribuida homogéneamente.
Por esta razón decimos que la línea no está balanceada; en esta línea,
la señal se transmite por la diferencia de potencial existente entre la
malla y el conductor central. En el mercado es habitual ver una
configuración en la que se montan dos líneas apantalladas no
balanceadas, unidas por la cubierta exterior, lo que permitirá llevar los
dos canales de un sistema estéreo de forma paralela.

 Línea apantallada balanceada

Cuando se requiere el máximo nivel de protección y disminuir al mínimo las perdidas, es necesario recurrir a este
tipo de cables. Se basa en el uso de una línea bifilar balanceada, bien de cables paralelos o trenzados, que llevan la
información eléctrica del sonido. Sobre las cubiertas de esta pareja
de conductores se encuentra una malla conductora, que, en este
caso, se encargará, al estar conectada a tierra, únicamente de
mantener aislado el interior del cable de perturbaciones externas. La
malla no transporta señal de audio, por lo que la inmunidad frente a
las interferencias será muy efectiva. Estas líneas resultan
especialmente indicadas para realizar grandes tiradas de cable o
cuando la señal que se desea transportar tiene poca amplitud, por lo
que es ideal para la conectividad de los micrófonos. Pensando en las
instalaciones donde se llevan de modo paralelo un gran número de
cables, existe en el mercado mangueras que, bajo una cubierta única
encierran varias líneas de este tipo. Para facilitar la identificación de
las líneas y de los conductores que las forman, las cubiertas de los
cables interiores tienen colores distintos.

Ejemplo 10:
Aunque la mayoría de los micrófonos profesionales utilizan líneas apantalladas balanceadas, podemos encontrar
algunos que se conectan con líneas no balanceadas. Este tipo de conexión, además de tener menor protección contra ruidos,
tiene otro problema cuando se utiliza en microfonía. Como hemos visto, en la alimentación phantom, se envía por los cables
activos de la línea el positivo de la alimentación, mientras que el negativo se referencia a masa. Si utilizamos un micrófono
dinámico con línea no balanceada y tenemos activa la alimentación remota, en lugar de aplicarse el positivo a los dos lados de la
bobina, este potencial positivo aparecerá en un extremo de la cápsula, mientras que el otro quedara conectado a masa. Esto
someterá a la bobina a una diferencia de potencial que provocará una corriente continua constante que puede dañar seriamente
el micrófono.

CONECTORES DE AUDIO
Podremos encontrar varios modelos de conectores para su actuación en sistemas de sonido. Los más
frecuentes son los siguientes:

 Conector RCA

Muy utilizado en los sistemas de audio domésticos, sirve como elemento terminal de una línea apantallada no
balanceada. Tiene un terminal central de 3,2 milímetros de diámetro, sobre el que se dispone de forma coaxial un
segundo contacto cilíndrico, donde se conectará la malla del cable.

 Conector DIN 41524

En equipos domésticos, hasta hace poco tiempo, era frecuente


encontrar este tipo de conectores para transportar
simultáneamente los dos canales de un sistema estéreo hacia y
desde un sistema de grabación. Consta de cinco puntas que se
completa con un contacto cilíndrico como elemento de protección
ante ruidos. En sus cinco contactos observamos la señal de los dos
canales estéreo como entradas y salidas.

 Conector jack

Se trata de una familia de conectores, entre los que se aplican con más frecuencia se encuentra el jack de 6,3
milímetros (1/4˝), en sus versiones balanceadas y no balanceadas.
La primera presenta un contacto en el extremo del vástago de
conexión (punta), donde se conectará el hilo activo de la línea de
transmisión (+). En la zona central aparece un anillo, que se unirá
con el hilo de retorno (-). La zona trasera, de mayor superficie
(cuerpo), se enlazará con la malla del cable.

También se comercializa un conector jack no balanceado, en el


cual aparecen únicamente las conexiones de cuerpo y punta,
omitiéndose el anillo central. Se usa como terminal de líneas apantalladas no balanceadas, siendo habituales en
instrumentos electrónicos y micrófonos entre otros. Existe una familia de conectores de 1/8˝ (3,5 milímetros).

 Conector XLR

Se trata del conector más robusto de los utilizados en sonido,


acotándose su ámbito al área profesional. Usa tres contactos
interiores, por lo que resulta idóneo para la conexión de una línea
apantallada balanceada. En el contacto 1 soldaremos la malla, en
los contactos 2 y 3 alojarán el cable activo (también llamado en
fase) y el retorno, respectivamente.

 Conector Speak-on
En la salida de muchos amplificadores profesionales, sobre todo de elevada potencia, encontramos un conector
robusto, con uno o dos pares de terminales, diseñado para transportar la elevada potencia de sonido hasta los
altavoces, que también incorporan este tipo de conector. Por su construcción física, el conector asigna una posición
fija a cada uno de los pares de contactos (llamados +1, -1, +2 y -2), de forma que permite llevar dos líneas paralelas
independientes por una misma manguera.

Ejemplo 11
En los conectores RCA, DIN y en la familia de los jack, el cable sitúa el conector macho en sus dos extremos, mientras que
los aparatos montan en el chasis al conector hembra. El conector XLR coloca el conector macho en el extremo por el cual sale la
señal de un equipo, mientras que el conector hembra estará en el lado que recibe dicha señal. Serán macho, por lo tanto, los
conectores XLR incorporados en la empuñadura de un micrófono o los de salida de programa de un mezclador, el cual dispondrá
de conectores hembra en las entradas mono de micrófono.
TEMA Nº 2 – S.T.I. – S.P.A. – 2020 - 2021
“PROCESADORES DE SONIDO”
INTRODUCCIÓN
Es el momento de empezar a manejar las señales eléctricas del sonido para realizar con ellas diversas
funciones: desde la simple amplificación, hasta la mezcla o modificación de algunos de sus parámetros para
convertirlas de nuevo en variaciones de presión del aire que llegarán a nuestros oídos. Aquí desarrollaremos la
estructura interna y el funcionamiento de los bloques de estos equipos. También se expondrán las características
técnicas de cada uno de ellos.

ECUALIZADORES
Uno de los procesos que se aplican a las señales de sonido es la modificación de su respuesta en frecuencia
original. Las razones para efectuar estas operaciones son varias: el ajuste, según los gustos del usuario, la eliminación
de componentes reverberantes en una sala de audición. Para realizar esta función se usan filtros, cuyos tipos y
características son:

Filtro: Dispositivo capaz de discriminar las señales en función de su frecuencia, permitiendo el paso de un
margen de frecuencias y bloqueando el paso de otro. Básicamente se han desarrollado cuatro modelos de filtros, los
cuales son:

 Filtro paso bajo

Permite el paso de las frecuencias situadas por debajo de una frecuencia crítica, denominada frecuencia de
corte, que es el punto en el que el nivel de la señal de salida disminuye en 3 dB respecto de la entrada. Por encima
de esta frecuencia, el filtro presentará atenuaciones mayores, por lo que su nivel decrecerá progresivamente.

 Filtro paso alto

Ofrece acceso a las frecuencias superiores a la de corte,


bloqueando el resto de ellas. Como característica general a los
elementos pasivos, los filtros incorporan unas pérdidas por inserción,
representando la atenuación de un filtro en la banda de paso.
 Filtro paso banda

Es un filtro que dispone de dos frecuencias de corte,


una superior y otra inferior, las cuales definen el margen que
se transferirá desde la entrada hasta la salida. Las frecuencias
inferiores y superiores al ancho de banda establecido serán
eliminadas.

 Filtro supresor de banda

A veces, aparecen en las líneas de distribución o en las antenas, señales no deseadas, que introducen
problemas al mezclase con las señales útiles, por lo que interesa eliminarlas. Para ello se necesita un filtro que,
teniendo dos frecuencias de corte, bloquee el paso de las frecuencias situadas entre ellas. Podemos encontrar en el
mercado “trampas” de frecuencia fija presintonizadas en fábrica, u otras en las que se puede ajustar la frecuencia e,
incluso, la atenuación. Dentro de cada tipo de filtro, se muestra una banda de paso, en la cual la respuesta del filtro
es aproximadamente plana. Fuera de esta banda, dicha respuesta sufre una atenuación, que será mayor cuanto más
nos alejemos de la zona de trabajo.

Para cuantificar la capacidad de un filtro de bloquear estas frecuencias no deseadas existen dos parámetros:

A. Orden del filtro. Este parámetro nos informa de la atenuación que sufren las señales fuera de la zona útil,
cuantificando la pendiente de la curva de respuesta. Es un número adimensional, que aumenta al hacerlo el
ritmo de caída de la curva de respuesta. Para conocer el orden de un filtro, se medirá el nivel de la señal en
dos frecuencias que disten una octava, es decir, que una sea el doble de la otra, y que se encuentren en la
zona de pendiente lineal del filtro. La diferencia de niveles será la atenuación por octava.

El filtro básico, formado únicamente por un condensador y una bobina, es de primer orden (6 dB/oct), y se observa
una relación directa entre el valor de la orden de filtro y la complejidad del circuito necesario para conseguirlo.

B.
Ejemplo 1:
En la Fig. 2.5. aparecen varios modelos de filtro paso bajo, que
comparten una misma frecuencia de corte. Sin embargo, si tomamos la
diferencia entre 1 y 2 kHz, distantes una octava, observaremos cómo tienen
atenuaciones de 6, 12 y 18 dB. Estaremos entonces visualizando filtros de
primer, segundo y tercer orden, respectivamente.

B. Factor de calidad (Q). Otra forma de cuantificar la selectividad de un filtro, en estructuras paso banda y
elimina banda, es el factor Q. Es un valor sin unidades y nos da idea de la anchura de la campana que
describen estos filtros. Se calcula con la fórmula:

Q=

siendo: f₀: frecuencia de resonancia, en hercios.

B𝘸: ancho de banda, también en hercios.

Un filtro con bajo Q tendrá una banda pasante muy grande, estrechándose a medida que aumente este
factor. En la Fig. 2.6. aparecen filtros que, teniendo una misma frecuencia de resonancia, presentan distinto
factor de calidad.

La función principal de un ecualizador de sonido es


compensar las diferencias de sonoridad de una sala para la banda
audible. Debido a su estructura, dimensiones, mobiliario, etc., cada
sala presenta una “respuesta en frecuencia” determinada, surgen
señales que se absorben y otras frecuencias se reflejan con mayor
facilidad. El resultado es que las ondas generadas por los altavoces
llegarán hasta los oídos del usuario modificadas, por lo que la
audición no resultará fiel a la señal original. Usando ecualizadores
podremos elevar el nivel de aquellas señales que se transfieren
peor en el recinto, y atenuar otras que aparecen demasiado vivas.

Para construir un ecualizador, se divide el espectro en


segmentos y se emplea un filtro para cada una de esas fracciones.
El número de filtros nos indicará la precisión de la ecualización, y
mediante la regulación conjunta de ellos, podremos conseguir la respuesta en frecuencia que deseemos. Si
atendemos a su construcción, encontramos dos clasificaciones de ecualizadores:

 Ecualizador gráfico

Este ecualizador divide la banda audible en


octavas, usando habitualmente doce filtros (uno por
octava) o seis en las versiones más modernas (uno por
cada dos octavas). La frecuencia de estos filtros es fija,
así como su selectividad, pudiendo el usuario controlar
la ganancia de cada uno de ellos.

 Ecualizador paramétrico
En este equipo el usuario puede modificar todos los parámetros de los filtros. Esto supone que, para cada
uno de los filtros, se ajustará la frecuencia de resonancia, el ancho de banda (el factor de calidad Q), la ganancia y en
algunos el modo de trabajo.

Ejemplo 2:
Algunos ecualizadores incorporan funciones especiales, para facilitar su configuración. Así encontramos equipos que,
mediante su propio generador de ruido y a través de una entrada de micrófono dispuesta para este fin, son capaces de evaluar la

respuesta de la sala donde se instalan, ajustando los filtros para conseguir una respuesta plana. En otros modelos se aprovechan
las características de un ecualizador paramétrico, asociado a un sistema de evaluación de la señal de sonido, para detectar
acoplamientos acústicos entre altavoces y micrófonos. Cuando se produce esto, el sistema configura uno de sus filtros de forma
que cancele la realimentación acústica con la menor degradación de las condiciones de audición, ejecutándose todo ello de
forma automática.

AMPLIFICADORES
El nivel de señal que entrega un micrófono, no supera unos pocos milivoltios, por lo que es altamente
vulnerable ante los ruidos externos, e insuficiente para la mayoría de los procesos, sobre todo, para su aplicación a
un altavoz. Resulta imprescindible elevar la potencia de la señal captada, como primer paso ante las posteriores
operaciones a aplicar a estas señales.

La estructura habitual de un amplificador de audio aparece en la Fig. 2.9. Observamos una serie de bloques
funcionales; como habitualmente empleamos sistemas de sonido estereofónicos, el equipo estará formado por dos
secciones idénticas, correspondientes a cada uno de los canales de amplificación. A continuación, se describen las
características y funcionamiento de estos bloques.

 Selector de entradas.

Lo que llama la atención de un equipo de amplificación, es el alto número de entradas que posee. Ya que se
le pueden conectar diversas fuentes sonoras, estableciendo el usuario cuál de ellas procesará el amplificador. La
operación descrita se lleva a cabo a través de un conmutador, mecánico o electrónico, que actúa simultáneamente
sobre los dos canales (es estéreo) del equipo. Las características de entrada de éste dependerán de dicha sección,
entre ellas cabe destacar:

1) Tensión nominal de entrada. Valor de la tensión que aplicaremos a la entrada del equipo para que
éste entregue la potencia nominal a su salida.

2) Nivel máximo de entrada. Máxima tensión admisible sin que se produzca distorsión por saturación.
3) Impedancia. Indica la resistencia equivalente del circuito de entrada. Este valor debería ser mayor o
igual al de la impedancia de salida del elemento que se conecte a la entrada.

4) Corrección de frecuencias. Frente a la mayoría de las entradas del amplificador, que posee un ancho
de banda lineal, alguna puede incorporar un corrector de nivel, que modifique la respuesta en
frecuencia de la señal que se le aplique.

Analizando las características de estas entradas, podremos dividirlas en tres grandes grupos:

I. Entradas de alto nivel. La amplitud de las señales tendrá un nivel relativamente alto antes de llegar
al equipo. Para estas señales se dispone de entradas preparadas para recibir señales de unos 150-
300 mV eficaces, con una impedancia de entre 15 y 50 kΩ. Estas entradas se aplican, a través de una
pequeña red de adaptación, al selector de entradas, teniendo una respuesta en frecuencia lineal.

II. Entrada de micrófonos. Proporcionan un nivel de tensión de unos pocos milivoltios, por lo que la
sensibilidad de la entrada se sitúa entre 2 y 5 mV. Esto se consigue incorporando un preamplificador
asociado a esta entrada, que elevará el nivel de la señal hasta obtener valores similares a los que
entregan el resto de los componentes. La impedancia de entrada suele ser inferior a la de los demás,
para conseguir una alta fidelidad de reproducción su respuesta en frecuencia ha de ser plana.

III. Entradas de phono. El plato giradiscos posee unas características opuestas a las vistas, disponiendo
de una entrada específica. La señal de la cápsula fonocaptora se aplica directamente, requiriéndose
una sensibilidad en el amplificador similar a la de un micrófono. Lo que realmente diferencia esta
entrada es la respuesta en frecuencia del previo que utiliza.
 Preamplificador.

Una vez equiparados los niveles de las diversas fuentes y se ha seleccionado cuál de ellas continuará,
encontraremos un preamplificador que aumentará la relación señal/ruido, para que las acciones posteriores se
realicen sobre un nivel de tensión suficiente. Asociado a este previo, tenemos el bloque de procesado en frecuencia,
llamado comúnmente control de tono, que modifica la respuesta en frecuencia del amplificador para acomodarse a
los gustos del usuario.

Ejemplo 3:
En los controles de tono tradicionales, podemos encontrar un filtro de
graves y otro de agudos. El primero configurado como un filtro paso bajo, cuya
ganancia dependerá de la posición del mando. El filtro de agudos es del tipo paso
alto, y regula el nivel de las señales por encima de 1 kHz. En algunos equipos se
observa un filtro de medios y su estructura es de un paso banda.

Los amplificadores también incorporan una corrección fisiológica


o loudness. Su función es compensar las alinealidades propias de la
audición humana y conseguir que se perciba el mismo grado de calidad de
sonido para cualquier potencia de salida del equipo.

Llegamos al control de volumen, donde una resistencia ajustable


determina la cantidad de señal que se transfiere al siguiente bloque,
controlando, la potencia de salida. Asociado a éste bloque se encuentra el
mando de balance, presente únicamente en equipos estereofónicos. Este
control se implementa, como si fuera una regulación de volumen para
cada canal, pero actuando de forma complementaria.

Ejemplo 4:
Cuando el mando de balance se encuentra en su posición central, la potencia que escuchamos la suministran los dos
canales en la misma proporción. Si giramos el mando hacia la izquierda, el canal de esta dirección irá aumentando la señal que
recibe, al tiempo que se disminuye la aplicada sobre el derecho. Si llegamos hasta el límite de la zona izquierda, todo el sonido
que llegará a nuestros oídos procederá del canal de esa área del equipo, mientras que el canal derecho habrá sido silenciado.

 Amplificador de potencia.

En algunas ocasiones, este componente se encuentra separado del resto, formando por sí mismo un equipo.
En otros el conjunto de amplificación es único, conteniendo todos los elementos. La función de dicho bloque es la de
dotar de potencia suficiente a la señal, para poder así excitar a los altavoces. Debido a la elevada ganancia que se
requiere en el conjunto, el bloque amplificador se forma con varias etapas de amplificación, que irán elevando la
potencia paso a paso y en las que podremos distinguir etapas de amplificación en tensión y otras que elevan la
corriente de la señal. En la salida del amplificador aparece una señal de sonido cuya tensión eficaz alcanza varias
decenas de voltios, y la corriente puede llegar a algunos amperios. Entre éstas se localiza la etapa de salida que se
encarga, además de conseguir una elevación de la corriente, de adaptar la impedancia para poder realizar una
transferencia adecuada a los altavoces. Para lo que se aplica el principio de que el equipo que entrega la señal debe
presentar una impedancia notablemente inferior al que la recibe. La impedancia de salida del amplificador deberá
ser extremadamente baja, habitualmente entre 0,1 y 0,5 Ω.

Desde el punto de vista de la salida, un amplificador de sonido tiene una serie de características técnicas
que definirán su grado de calidad:

1) Potencia de salida. Se define como el producto de la tensión y la corriente que es capaz de entregar y,
existen muchas formas distintas de medir estas magnitudes, encontraremos varias maneras de cuantificar la
potencia. De entre todas ellas, la potencia RMS es la medida más precisa de expresar esta magnitud.
También se denomina "potencia continua" o "potencia eficaz", ya que para medirla se consideran los valores
eficaces de tensión y corriente de salida del equipo. Se aplica la señal nominal a las dos entradas a la vez y se
mantiene en régimen continuo, garantizando que la fuente de alimentación será capaz de suministrar la
energía necesaria para el amplificador. Para complementar el valor de la potencia, se indica la impedancia de
carga conectada, así como el ancho de banda en el que se mantiene y la distorsión medida para esa
potencia.

Ejemplo 5:
Además de la potencia eficaz, se establecen algunas otras formas de indicar esa magnitud, fruto del afán de los
fabricantes de impresionar con grandes números a los clientes. Si en lugar de tomar los valores eficaces nos fijamos en la tensión
e intensidad máxima, obtendremos una indicación de potencia exactamente del doble del la potencia RMS. De nuevo,
doblaremos la potencia (aunque nunca de modo real) si utilizamos los valores pico a pico, logrando así un valor cuatro veces
superior al eficaz. Otras formas engañosas de medir la potencia (PMPO) consisten en realizar la medida únicamente sobre uno de
los canales e, incluso, aplicándole en la entrada un pulso de corta duración (unos pocos milisegundos), mediante el cual
llevaremos el equipo a zonas de trabajo que, de mantenerse durante más tiempo, no podrían hacerlo, llegando incluso a dañar el
equipo.

2) Respuesta en frecuencia. Es el margen de frecuencias que el equipo será capaz de procesar situando la
ganancia dentro de unos límites establecidos. La norma DIN 45500 define un mínimo de entre 40 y 16 kHz,
con frecuencias de corte situadas 3 dB por debajo del valor máximo. Los equipos actuales superan
ampliamente estos valores, la variación de ganancia dentro del margen de alta fidelidad (20 Hz 20 kHz), o
bien el ancho de banda con 3dB de variación de ganancia.

3) Distorsión. Normalmente se analizan dos tipos de distorsión, indicándose sus valores para cada uno de ellos.

a) Distorsión por intermodulación. Se genera por la mezcla de dos frecuencias en el interior del
equipo. Para medirla se aplican, según la norma DIN, dos señales de 250 Hz y 4 kHz, con relaciones
de amplitud 4:1, debiendo obtener una lectura de distorsión menor del 3 % para potencia nominal
del aparato.

b) Distorsión armónica total. Se caracteriza porque durante todo el ancho de banda y a la potencia
nominal, no deberá superar el 1 %.

4) Relación señal/ruido. Parámetros referidos a la potencia nominal, o bien con niveles de potencia muy
inferiores. También es habitual que aparezca una relación S/N para cada uno de los modelos de entradas,
debiendo superar los 50 dB a una frecuencia de 1 kHz.

5) Separación entre canales. Debe mantenerse una separación mínima de 40 dB para 1 kHz; en el margen entre
250 Hz y 10 kHz, este parámetro tendrá que superar los 30 dB.
6) Impedancia de carga. Indica el margen de impedancia de entrada que podrán presentar los altavoces que
conectemos a la salida del amplificador. Se suele indicar mediante el valor mínimo y el máximo
(normalmente de 4 a 16 Ω.

7) Amortiguamiento (damping). Este parámetro nos da una idea de la capacidad de proporcionar corriente
instantánea que tiene el amplificador de potencia. Se define como la relación entre la impedancia de salida
del amplificador y la de la carga que tiene conectada, que varía según la impedancia del altavoz elegido. La
norma DIN establece un mínimo de tres unidades entre 40 Hz y 12,5 kHz, aunque los valores reales suelen
ser de varias decenas.

Ejemplo 6:
La forma más habitual de conectar equipos de audio es aquella en que la fuente de señal presenta una impedancia de
salida mucho más baja que la impedancia de entrada del equipo receptor. Esta regla se cumple incluso en el caso de los
amplificadores, donde la impedancia del altavoz que conectaremos es realmente baja. Para conseguir una adecuada
transferencia de energía, la impedancia de salida del amplificador tendrá que ser mucho menor que la de los altavoces, siendo
mejor la conexión cuanto más baja es la impedancia de salida del amplificador. La impedancia de salida de los amplificadores
suele ser de apenas unas décimas de ohmio.

ALTAVOCES
Es el elemento que convertirá las señales eléctricas
(normalmente procedentes de un amplificador) en variaciones de
presión sonora. De forma similar a como ocurre con los
micrófonos, podemos encontrar diferentes estructuras de
fabricación de altavoces:

 Altavoz de bobina móvil.

El principio de funcionamiento de un altavoz es similar al


de un micrófono dinámico, puesto que el efecto de inducción
eléctrica en el interior de un campo magnético es reversible. En su
estructura encontramos un imán fijo, que creará el campo
magnético permanente, en cuyo interior se aloja una bobina móvil.
Esta bobina se halla asociada a una membrana, en el altavoz tendrá
unas dimensiones muy superiores. La gran membrana vibrará
cuando a la bobina se le apliquen señales eléctricas variables, y en su
vibración desplazará las moléculas de aire que se encuentren en sus
proximidades, creando así la onda acústica. Cuanto más potencia deba
emitir el altavoz, mayor será el diámetro del hilo de la bobina, así como el
tamaño del imán colocado en la parte posterior.

 Altavoz electrostático.

Su utilización está mucho menos extendida que el anterior,


también podemos encontrar altavoces basados en los efectos capacitivos
de los condensadores. Están formados por dos grandes placas paralelas,
de las cuales una está fija y la otra montada sobre un sistema de
suspensión que le permite vibrar. Al conectarlo al amplificador, el
condensador que forman estas placas se carga y se descarga según sea la
señal de audio que le esté llegando, y formará un campo eléctrico variable
en función del sonido recibido en cada instante. Estas variaciones de campo eléctrico provocarán la vibración de una
placa móvil, generándose así la onda sonora correspondiente. Este principio de funcionamiento hace que el altavoz
sea virtualmente plano.

 Altavoz piezoeléctrico.

Algunos materiales tienen la capacidad de modificar su


estructura física cuando se ven sometidos a diferencia de potencial
eléctrico. Si se aplica una tensión eléctrica a los lados opuestos de un
cristal de cuarzo estas caras se contraen y se dilatan en función de la
polaridad de esta tensión, y el efecto es mayor cuanto más grande es
el potencial aplicado. Este fenómeno recibe el nombre de efecto
piezoeléctrico. Las dimensiones del cristal presentan limitaciones a las
frecuencias que podrán emitirse, por lo que su aplicación práctica
queda restringida a la construcción de altavoces de altas frecuencias.

El altavoz es el elemento que presenta peores características de funcionamiento de toda la cadena acústica;
podemos hablar de la directividad de un altavoz o de su sensibilidad, definida como la presión sonora producida a
un metro de distancia cuando se alimenta con un vatio de potencia. Tendremos que asegurarnos de no sobrepasar la
potencia nominal del altavoz, sin tomar como referencia
su potencia máxima.

La impedancia es un factor que varía


notablemente con la frecuencia. En su curva
característica aparece, en la zona de frecuencia inferior,
una elevación de la impedancia, provocadas por las
dimensiones físicas de la membrana; de forma que
cuanto mayor es el cono del altavoz, más baja es su
frecuencia de resonancia. Por encima de estas frecuencias, la impedancia disminuye hasta un punto concreto, para
recuperarse e iniciar una pendiente durante el resto de su curva de respuesta.

Por sus dimensiones físicas, en cualquier altavoz


surgen frecuencias que transmiten mejor que otras, por
lo que su respuesta en frecuencia dista mucho de ser
lineal. En la norma DIN se establece el ancho de banda
con unas tolerancias de ± 10 dB en el nivel de potencia
aplicado, inadmisibles para el resto de los equipos de
audio. Por lo que se recurre a fraccionar la banda audible,
usando altavoces independientes y especializados en una
gama de frecuencias más estrecha, según la siguiente
relación:

 Woofer.
Altavoz que emite las señales de menor frecuencia, desde 20 Hz a 1 kHz, siendo el tamaño de su cono
considerable. También recaerán sobre dicho altavoz las componentes acústicas de mayor potencia, ya que son los
armónicos bajos los que presentan un mayor nivel. Este altavoz deberá dimensionarse para soportar unas potencias
elevadas.

 Squawker.

Diseñado para responder a la banda central de frecuencia, es el de construcción más común, con una
membrana de menores dimensiones. En los sistemas con un único altavoz, será éste el tipo elegido, puesto que
reproduce la zona del espectro audible en la que se transmite la voz humana y numerosos armónicos musicales.
Puede procesar las señales comprendidas entre 200 Hz y 8 kHz.

 Tweeter.

Para reproducir los agudos, el cono se ha modificado, quedando la membrana reducida a una pequeña
cúpula que resuena en frecuencias superiores del espectro de sonido, desde una frecuencia mínima de 5 kHz hasta
los 20 kHz del extremo superior de la banda de audición.

Existe otro tipo de altavoces, denominado subwoofer, estos elementos se encargan de transferir frecuencias
muy bajas (de 2 a 100 Hz). Su uso se basa en que las ondas sonoras no se perciben sólo a través del oído, sino que el
cuerpo puede recibir e interpretar las vibraciones de baja frecuencia que a menudo acompañan al sonido.
Ejemplo 7:
En una estructura sencilla (Fig. 2.20.), para extraer las frecuencias bajas necesitaremos una bobina, entre 2 y 8 mH,
aprovechando su pequeña reactancia inductiva para estas frecuencias. El efecto complementario, resultará ideal para separar los
agudos; es frecuente el uso de condensadores electrolíticos de entre 1 y 5 μF para esta aplicación. En las frecuencias medias se
montará un filtro paso banda, a partir de la asociación en serie de una bobina (filtro paso bajo) y un condensador como filtro
paso alto. El valor de la bobina de este filtro será una décima parte de la requerida en el de graves, mientras que el condensador,
a menudo, alcanza un valor diez veces superior al del filtro de agudos.

Definimos “cajas acústicas” o “bafles”, como los elementos que, integrados por varios altavoces, convierten
las señales eléctricas en variaciones de presión sonora dentro de las frecuencias audibles. Para conseguir una mejor
respuesta del conjunto, en el interior de las cajas se dispone de filtros electrónicos, encargados de separa las señales
de sonido, según su frecuencia, y de entregar las componentes separadas a cada uno de los altavoces que las
componen. Por su construcción física los altavoces presentan anchos de banda solapados, con la inclusión de los
filtros de cruce quedan separadas las bandas de frecuencia aplicadas a cada uno de ellos.

La caja que contiene los altavoces también es un elemento fundamental en su comportamiento acústico, ya
que atenúa o potencia determinadas frecuencias en función de sus dimensiones y su estructura de fabricación.
Encontramos cajas completamente cerradas, en cuyo interior se instalan materiales absorbentes para neutralizar las
radiaciones generadas por los altavoces en la cara posterior de las membranas, de forma que queden presentes
únicamente las que se proyectan desde la cara anterior. En otros sistemas la radiación trasera se aprovecha, una vez
reflejada en la parte posterior, para hacer vibrar un radiador pasivo,
que da nombre a este tipo de cajas. Dicho radiador es un cono similar
al del propio altavoz, que no dispone de bobinas, imanes o carcasas,
resultando sencillo provocar su movimiento a partir de la presión
interna generada por el elemento activo.

Otra estructura es el bass réflex, que por un sistema de


reflexión interna de la onda mecánica mejora la respuesta del bafle,
sobre todo en la gama baja de frecuencias. Estos dispositivos
incorporan en su interior un tubo hueco de sección circular o
cuadrada; uno de sus extremos asoma por el orificio practicado a tal
efecto. Las dimensiones del tubo y su embocadura tenderán a entrar
en resonancia cuando les llegue la onda acústica procedente de la
radiación trasera del altavoz woofer. Por lo que el volumen de aire
encerrado en el tubo comenzará a vibrar, proyectándose hacia el
exterior como si de un nuevo altavoz se tratase. (Frecuencias Bajas).

GENERADORES DE EFECTOS
En todos los sistemas de sonido profesional, se usan sistemas que introducen modificaciones en la estructura
del sonido. Según el tipo de sonido sobre los que se apliquen, podemos distinguir dos grandes modos de efectos:

 Sobre elementos sueltos. En la grabación de un concierto, un programa de radio o televisión, es habitual


modificar la voz del cantante para que sus armónicos se prolonguen en el tiempo, resultando así más
agradable al oído. Este efecto, denominado “vocal”, es uno de los que se pueden aplicar sobre la voz.
Encontramos también los procesos del coro (chorus), la generación de eco, o las deformaciones
provocadas por los efectos de distorsión.

 Sobre el conjunto del sonido. Una vez conformado el programa de sonido, se puede recrear una
situación que simule ciertas condiciones acústicas; podemos alargar la reverberación, como si lo
escuchásemos en una catedral, o realzar determinadas componentes simulando un concierto en vivo,
entre otras opciones.

Para conseguir estos efectos, los sistemas actuales emplean, procesadores digitales de señal (DPS, Digital
Signal Processor). Estos equipos digitalizan la señal de sonido, introduciéndola en una memoria temporal, donde se
evaluará. Una vez analizadas su estructura y variaciones, se le aplicarán las modificaciones definitivas en los patrones
de efectos que tiene preestablecidos y que el usuario puede modificar hasta conseguir el efecto en cuestión, la
duración o la intensidad adecuada en cada caso. El sonido así transformado se aplicará a un convertidor de digital a
analógico, que entregará en la salida la señal una vez completado el proceso, que se produce prácticamente en
tiempo real. Normalmente los procesadores de efectos disponen de dos canales.

Las características técnicas de estos equipos son similares a las de otros procesadores de sonido (tensión de
entrada y salida nominales, impedancia, respuesta en frecuencia, distorsión diafonía…), a las que se añaden las
propias de la conversión de analógica a digital. Las particularidades en esta sección son tres:

a) Frecuencia de muestreo. Define la velocidad a la que se tomarán las muestras del sonido. Debe ser
siempre mayor del doble de la frecuencia más alta que se pueda procesar; los valores habituales son
entre 44,1 y 48 kHz.

b) Longitud de palabra. Indica la cantidad de bits que se obtiene por cada muestra en la salida del
convertidor A/D. Así, cuanto mayor sea la extensión de las muestras, más resolución y niveles
distintos podremos diferenciar. Se suele trabajar con palabras de 16, 20 y 24 bits.

c) Sobremuestreo (oversampling). Para conseguir un mayor grado de resolución y disminuir el ruido de


la señal, se recurre a sobremuestrear los datos digitales. Los valores más usuales están entre las 64 y
las 128 veces.

PUERTAS DE RUIDO
Para la grabación de un programa, si es musical,
se usan un gran número de micrófonos en un espacio
reducido. En estos casos, resulta inevitable que los
micrófonos recojan, además del sonido principal, una
pequeña cantidad de sonido procedente de los
instrumentos vecinos. Este último sonido puede
considerarse como un problema de ruido, por lo que
deberemos aplicar técnicas eficaces para eliminarlo.

Mientras el micrófono esté recibiendo presión


sonora de la fuente principal, ésta será lo
suficientemente grande como para que el “ruido de
fondo” quede enmascarado, por lo que el problema se
acota a eliminar la interferencia en los momentos de silencio del cantante o instrumento que tiene asignado. Esto se
puede hacer mediante puertas de ruido, equipo que bloquea la señal cuyo nivel está por debajo de un umbral que el
usuario regula, en función de la intensidad del sonido principal. Dicho ajuste se efectuará de manera que, en
ausencia de sonido directo, en la salida no aparecerá señal alguna; cuando el instrumento esté funcionando, la
puerta se abrirá, permitiendo que el sonido directo lo atraviese.

Ejemplo 8:
Las puertas de ruido tienen un amplio margen de actuación en los micrófonos que recogen el sonido de la batería de un
conjunto musical, ya que este instrumento dispone de un micrófono para cada uno de los timbales y platillos que lo forman, y la
naturaleza del sonido generado es de tipo impulsivo. Los micrófonos quedan muy próximos entre sí, contaminándose del sonido
producido cuando se toca sobre el tambor adyacente. En este caso se instala una puerta de ruido en cada línea de micrófonos y
se ajusta en el punto en que cuando se golpee el tambor contiguo no se transfiera si sonido.

COMPRESORES Y EXPANSORES
A veces debemos captar sonidos que, en determinados momentos adquieren un nivel muy débil, mientras
que en otros se vuelve más intenso. Decimos que el margen dinámico (diferencia de amplitud entre sonidos más
débiles y más fuertes) es muy grande. Un margen dinámico elevado transmite una gran viveza en el sonido, que
aparece lleno de matices y detalles acústicos. Encontraremos este equipo, por ejemplo, en emisoras de radio, para
poder emitir la información de sonido sin que la señal modulada ocupe un gran ancho de banda en el espectro de
radiofrecuencia.

Para comprimir una señal de audio, se la hace pasar a través de un circuito, que le aplicará una atenuación
variable según su nivel de entrada. Si esta señal de entrada está por debajo de un umbral definido, la señal de salida
tendrá el mismo valor que el de entrada e, incluso podría sufrir una amplificación. Pero, al detectar una amplitud
superior a este nivel de referencia, el sistema disminuirá su ganancia. A estos circuitos se les conoce como
procesadores de codo y pendiente, ya que el la representación de la curva característica de su transferencia, lineal
en la zona inferior, modifica su pendiente a partir del umbral,
definiendo así un codo de la curva llamada (knee). Además del punto
en el que se inicia la atenuación, es habitual encontrar controles para
regular la relación de compresión y la de las trampas de ataque y
salida de la señal una vez comprimida, con el objeto de conseguir un
efecto de reducción de la amplitud natural. Complementariamente a
estos equipos, se comercializan métodos de expansión, que
devuelven a la señal comprimida todo su margen dinámico original.
Encontraremos, integrados en otros equipos sistemas de
compresión/expansión de aplicación concreta. Los dispositivos
habitualmente en microfonía inalámbrica o los de reducción de
ruidos de los magnetófonos. Los compresores denominados también
“procesadores de dinámica”, trabajan con la señal de audio
analógica, modificando su rango dinámico.

Ejemplo 9:
En la grabación de un concierto pop, el vocalista tiende a moverse mientras canta, lo que genera variaciones en la
intensidad del sonido en función de la distancia entre el micrófono y la boca. Este efecto, muy desagradable para los oyentes, se
reduce con el empleo de compresores. El uso de estos equipos evitará que el público se sobresalte cuando, en una obra de teatro,
un actor, situado cerca del micrófono que capta la escena, eleva la voz repentinamente.

PROCESADORES DE SURROUND
Este sistema es muy estimado para su difusión en el cine, puesto que consigue una elevada sensación de
realismo. Podemos encontrar hasta seis canales de información:

 Canales izquierdo y derecho. Los que habitualmente se usan en los canales estereofónicos. Se aplicarán
a los altavoces colocados en los laterales del espectador y enfrentados frontalmente a éste. Por estos se
transmitirá la información de ubicación ambiental básica, permitiendo localizar las direcciones de
procedencia de los sonidos genéricos.

 Canal central. En el centro de la pantalla se ubicará un altavoz que recibe una señal de nueva creación.
La información que contendrá, ayudará a fijar la atención sobre la escena, por él se emitirán los diálogos
de la película. También mantendrá la sensación de espacialidad, en las zonas en las que los oyentes no
están a la misma distancia de los dos altavoces principales.

 Canales de efectos. Tras los espectadores, a ambos lados de la zona de escucha, se dispondrá una nueva
pareja de altavoces, o varias si la sala es muy grande. Por estos se emitirán los efectos de sonido
codificado durante la grabación, de manera que formen un ambiente acústico realista y espectacular.
Para aumentar la sensación de espacio, estos canales se encuentran desfasados respecto a los
principales, con un retardo de entre 15 y 60 ms que se deberá ajustar según la distancia existente entre
los altavoces de efectos y los oyentes.

 Subwoofer. El sistema acústico se completará con un altavoz de subgraves, que proporcionará mayor
realismo a la acción a través de las vibraciones que genera.
Como sus frecuencias de trabajo son muy bajas se dispersarán
difractándose por la habitación sin que el oyente pueda
identificar su punto de origen. Por esta razón sólo será
necesario uno de estos canales de bajas frecuencias y no dos
como en los altavoces principales o los de efectos.

Para transmitir los canales de efectos dentro de un canal estéreo


convencional, se desfasan 90° antes de sumarse con la señal del canal
principal izquierdo, mientras que en el canal derecho se aplicará una vez
invertida su fase. La amplitud de las señales de efectos está 3 dB por debajo
del sonido del programa principal. También dispone éste equipo de
herramientas para su ajuste, como un generador de ruido rosa que calibre
los niveles de cada canal, o el sistema de retardo variable para adaptarse al
tamaño y características de la sala de audición.

Ejemplo 10:
Los sistemas de sonido se definen, a través de dos cifras separadas por un punto. La primera de ellas es el número de
canales que utilizan la banda audible completa (de 20 Hz a 20 kHz), mientras que la segunda cifra indica de cuántos canales de
banda parcial disponemos. Un sistema estereofónico se define como 2.0. Utilizando esta nomenclatura, encontramos el popular
sistema 5.1, que utiliza cinco canales de banda completa y un canal de banda parcial, para las frecuencias más bajas, qu e se
aplica al subwoofer.

ADAPTADORES TELEFÓNICOS
En las emisoras de radio es muy frecuente utilizar las señales de audio exteriores recibidas a través de líneas
telefónicas. Para posibilitar esta función, hay dispositivos que funcionan como interfaz entre la línea telefónica y el
sistema de sonido.

El adaptador más utilizado es el híbrido telefónico, concebido


para permitir llamadas externas y conducirlas hasta el mezclador de
audio donde serán procesadas como una fuente de audio más.
Podremos encontrarlo como equipo independiente o como un módulo
opcional conectable internamente. Este dispositivo dispone desde el
punto de vista exterior de un conector RJ11, para poder conectarse a la
red telefónica. La señal recibida desde aquí se divide, según la dirección
en que fluye el sonido, en dos cables independientes: por un lado, un
conector de salida de audio que se conducirá hasta una de las entradas
del mezclador. Por otro, el retorno se establecerá a partir de un segundo conector, tomado desde una línea auxiliar
del mezclador.

Cuando un locutor se desplaza a un estadio para retransmitir un partido de fútbol, lleva un maletín con los
elementos necesarios para establecer la conexión con la emisora, consta básicamente, de un auricular, un micrófono
y un audio-codificador telefónico portátil.

MEZCLADORES
En una primera aproximación a la estructura de estos equipos, observamos que a las señales de sonido se les
pueden imponer tres clases de procesos:

a) Proceso individual. Las señales inicialmente se aplican a los procesadores de entrada, se podrá elegir
para cada una, el tratamiento que se le impondrá.

b) Proceso por grupo. A veces interesa tratar conjuntamente algunas entradas porque corresponden a
fuentes sonoras del mismo entorno o características. Para ello, podemos asociar entradas en grupos
y aplicarles modificaciones simultáneamente. Estos procesos podrán desarrollarse en el interior del
mezclador o a través de equipos externos, en cuyo caso la señal del grupo se extraerá a través de
salidas auxiliares (envíos) y volverá, una vez modificada, por los conectores de entradas o retornos
auxiliares.

c) Proceso conjunto. Se efectuará la mezcla de las diversas fuentes en el bus correspondiente, tras lo
cual se creará una señal unitaria con el conjunto del programa, que se direccionará a través del
máster hacia las salidas del equipo.

El flujo de trabajo de un mezclador se inicia


con múltiples procesos individuales sobre las
diferentes fuentes, según las necesidades de cada una
de ellas. Tras esta etapa, podremos realizar
asociaciones de entradas formando grupos que
consideraremos como si de una sola señal se tratase
para aplicarle procesadores acústicos o simplemente
llevarlas a un sistema de grabación. Estos grupos de
señales, confluirán sobre el bus de mezcla,
generándose la señal definitiva. Esta señal mezclada
podrá ser de nuevo modificada si es necesario antes de
llevarla hasta los altavoces.

 Proceso individual

Si analizamos detalladamente el proceso individual, encontramos una serie de operaciones relevantes (Fig.
2.27.) Estas operaciones tienen su reflejo en los controles del mezclador.
La señal podrá llegar hasta el mezclador a través de dos conectores: para unir micrófonos y otras fuentes de
bajo nivel servirá el conector de micro, habitualmente XLR-3. A través de éste se pueden aplicar tensiones de
alimentación fantasma a los micrófonos de condensador. Para fuentes de alto nivel disponemos de otra entrada en
un conector jack de 6,3 milímetros. En ambos casos, las entradas son balanceadas, ya que, una vez seleccionadas por
el conmutador, se aplicarán a un preamplificador, y mejorar así la relación señal/ruido.

La ganancia de este previo es ajustable, para realizar éste ajuste de ganancia del previo, se suele incorporar
un medidor de amplitud, configurado como un vúmetro o como un indicador LED. El ajuste correcto se logrará
cuando el medidor se encuentre en la zona inferior a 0 dB durante la mayor parte del tiempo. En caso de ser un
indicador único, éste se enciende a partir del nivel indicado, ajustándose el mando de sensibilidad hasta que el piloto
se active esporádicamente.

Tras el proceso de ajuste de amplitud llegamos al procesado en frecuencia, realizada por un ecualizador, que
podrá ser de las siguientes gamas.

 Gráfico. En los sistemas más básicos, el ecualizador será un simple corrector de tonos de dos o tres vías.

 Semiparamétrico. Sistemas de tres o cuatro cortes, en los que los extremos serán configurados en
función de filtros de paso bajo y paso alto de frecuencia fija, pudiendo ajustarse la ganancia de cada uno.
Para las frecuencias medias se utilizan filtros paso banda, en los que se puede controlar, además de la
ganancia del filtro, su frecuencia de resonancia.

 Paramétricos. En equipos más avanzados, la ecualización es totalmente paramétrica, pudiéndose


modificar a voluntad la ganancia, la frecuencia de resonancia y el ancho de banda de cada uno de los
filtros que componen el procesador.

Ejemplo 11:
Si en una instalación deseamos aplicar un procesador de efectos sobre
la línea de un micrófono, debemos conectarlo a través de la vía de inserción.
Precisaremos para ello de un cable (Fig. 2.29.), de forma que la señal del
mezclador saldrá por la línea conectada a la punta y se llevará hasta la entrada
del generador de efectos externo. Esta señal, una vez procesada, saldrá del
equipo a través de una nueva línea, que estará insertada entre la masa común y
el anillo central del conector de inserción.

Tras el proceso en frecuencia, encontramos en el sistema un


doble conector que permitirá incorporar procesos externos mediante un
sistema de inserción. Se usa un conector jack balanceado, aunque montado de modo que la punta del conector
disponga de la señal de salida, mientras que en el anillo central se conectará la entrada mediante líneas asimétricas,
cuyas mallas se unirán al cuerpo del conector. En la entrada del conector de inserción disponemos ya de las señales
tal como las deseamos mezclar. A menudo nos encontramos con que varias de las entradas del mezclador se deben
tratar conjuntamente, en estas situaciones interesa agrupar las señales de esas entradas, para aplicarles efectos y
controlar la mezcla de modo conjunto.

Para realizar esta función disponemos de los sistemas de agrupamiento. Son líneas que nos permitirán
conformar grupos de señales y derivarlas hacia auxiliares. En cada línea de entrada encontraremos potenciómetros
que regularán la amplitud de la señal correspondiente en la mezcla auxiliar, creándose, tantas mezclas parciales
como grupos hayamos definido, vinculados a los controles de fader, nombre que se asigna a los potenciómetros que
definen la cantidad de señal de cada entrada que se llevará hasta los buses de mezclado principal. Para compensar
las pérdidas sufridas durante los procesos aplicados, encontramos asociado al control de fader un amplificador. Del
mismo punto en el que se obtiene la salida para los agrupamientos previos, podremos extraer la línea de pre-
escucha que servirá para monitorizar independientemente el sonido procedente de cada entrada o grupo de ellas.
Se ejecutará de forma previa a la regulación del fader.

Al elegir un mezclador de audio se sobredimensiona la cantidad de entradas para cubrir todas las
necesidades, por ello con frecuencia quedan líneas de entrada sin utilizar. Estas líneas libres pueden incorporar ruido
sobre el sistema. El problema se soluciona con la inclusión de un conmutador de activación, que en su estado de
reposo derivará a masa las líneas que no sean necesarias, conectándolas al sistema de mezclado cuando se accione
el pulsador correspondiente.

El último eslabón del proceso de entrada es el control panorámico, donde el operador decide el reparto que
establece de cada una de las entradas para crear el efecto estereofónico. Así, a cada entrada se le asignará el
porcentaje de señal que se llevará hasta los canales izquierdo y derecho, a partir de este punto obtendremos ya las
señales de los canales izquierdo y derecho que se trasladarán hasta los buses de mezclado principal.

Los mezcladores también utilizan entradas estereofónicas, donde conectaremos las fuentes de sonido que
entreguen los canales de audio. El proceso individual para este tipo de entradas es ligeramente diferente, Fig.2.31. Al
tratarse de un canal estéreo, encontraremos una línea de procesado doble cuyos ajustes se accionan con un solo
mando. Las entradas estereofónicas no utilizan conectores XLR sino dos jack de 6,3 mm, para los canales derecho e
izquierdo. También se omite el ajuste de ganancia de entrada, llegando la señal directamente a unos
preamplificadores de ganancia fija. A veces encontramos entradas específicas para platos giradiscos, identificadas
como “Phonos”. En estas entradas, el previo incorpora la corrección RIAA para devolver a la señal de audio el nivel
de agudos original alterado durante la grabación del disco de vinilo.

El proceso de frecuencia también se simplifica en una entrada estereofónica. Se suele utilizar un corrector de
tonos de dos filtros (graves-agudos). Tras esta etapa encontramos los conectores de inserción y los selectores de
asignación a salidas auxiliares y formación de grupos, antes y después del fader de control de nivel, y el control de
activación de la entrada correspondiente. La última diferencia notable es la sustitución del control panorámico por
un mando de balance. El control de balance permitirá compensar los niveles de los dos canales.

Ejemplo 12:
No debemos confundir el control panorámico con el de balance de las entradas estéreo. El primero de ellos sirve para
crear un efecto estéreo a partir de un grupo de señales mono, de forma que este mando se sitúa en el centro y se enviará por
igual a los dos canales; mientras que al girarlo estaremos vinculando el sonido concreto sobre uno de ellos. El control de balance
parte de un canal estéreo y se limita a regular el “volumen” de cada canal para compensar posibles diferencias de distancia a los
altavoces, por ejemplo.

 Proceso por grupo.

Las señales de las entradas se pueden agrupar, para lo cual los mezcladores disponen de varios canales
auxiliares. Estos canales se comportan como pequeños mezcladores secundarios, por lo que en cada entrada
encontraremos los controles de nivel para las distintas líneas auxiliares. Las señales seleccionadas mediante estos
reguladores se aplicarán a los buses auxiliares y, de allí, se conducirá, hasta las salidas auxiliares correspondientes, a
través de un control de volumen general de la salida auxiliar. Encontramos también las entradas de retorno, por las
que podremos insertar las señales tras haber sufrido
las modificaciones pertinentes en los equipos
externos. Estas entradas auxiliares, se aplicarán a los
buses de mezclado principal, para conformar así el
programa de sonido. Será en los buses de mezclado
donde confluyan las señales de las distintas
entradas donde se generará la señal de programa.

En muchos mezcladores encontramos un


sistema de asignación que forma grupos de señales
para facilitar su control simultáneo. En estos grupos,
las señales no saldrán del mezclador, sino que serán
conducidas a un fader general de grupo, para
regular el volumen de todo ese conjunto de señales,
antes de aplicarse al bus de mezcla principal. El
objetivo es poder gobernar con un solo mando
varias entradas que reciben señales afines.

Ejemplo 13:
La asociación en líneas auxiliares tiene una gran aplicación en la monitorización del escenario de un concierto, donde
podemos regular la cantidad de sonido de cada instrumento que los músicos desean escuchar. Otra aplicación es la inserción de
efectos de audio: se conectan procesadores de efectos a varias líneas auxiliares, y el técnico decide si aplica alguno de estos
efectos a cada entrada y en qué proporción con los mandos ajustables correspondientes. So sonorizamos un conjunto musical,
podemos establecer grupos, según el tipo de sonido que capta cada micrófono. También podremos agrupar los micrófonos de los
miembros del coro, lo que facilitará el ajuste de su nivel acústico con un solo mando.

 Proceso conjunto.
Las señales presentes en el bus de mezcla se
recogerán por el bloque de salida master, configurado
como amplificador adaptador cuyo control de nivel
definirá el volumen general de la mezcla. En los
mezcladores de sonido es frecuente encontrar varias
salidas de programa, con controles independientes para
cada una de ellas. También es habitual observar una
salida de programa mono.

El bloque de escucha y medida es de vital


importancia en el funcionamiento del mezclador. Se
encarga de recoger las diversas señales de sonido de
entrada y salida, dirigiéndolas hacia la salida de
auriculares y/o monitorización externa. Estos sistemas
diferencian dos tipos de escucha:

1) PFL (Pre-Fader Listening). Es la monitorización de las distintas fuentes, de forma previa al paso por
los fader de regulación. Para acceder a esta función, se incorporan en las entradas pulsadores de
selección que conectan el sonido a cada canal con la línea de auriculares.

2) AFL (After Fader Listening). Si monitorizamos las señales


después de pasar por los controles de nivel correspondiente,
utilizaremos el sistema de escucha posterior. También
podremos utilizar esta función para escuchar el sonido
procedente de los grupos y líneas auxiliares.

Paralelamente al sistema de monitorización se dispone de los


medidores, que reciben por defecto la señal de salida, pero que logran
conectarse a las numerosas entradas.

Además de las descritas, los mezcladores de radiodifusión incorporan


otras funciones específicas:

 Control de híbridos telefónicos. Los fabricantes suelen ofrecer


módulos “telco” entre sus opciones. Son híbridos telefónicos que se
integran como una entrada más.

 Señalización “Tally”. Cuando alguna de las líneas de micro se activa, se produce en el interior del
mezclador una conmutación automática que desactiva la salida de los altavoces del locutorio, dejando la
monitorización a través de los auriculares. Simultáneamente, a través de un conector específico
podremos tomar la señal para controlar los pilotos indicadores de “en el aire”, que informan de que los
micrófonos están abiertos.

 Control de máquinas. Muchos reproductores profesionales permiten el control de funciones de modo


remoto. Cuando el operador desliza el fader desde suposición inferior, se cierra un contacto que arranca
el reproductor conectado a esta entrada.

 Línea de “talkback”. No es una función específica de los mezcladores de radiodifusión, se trata de la


incorporación de un micrófono de órdenes, integrado en la mesa de mezclas, que se activa cuando el
operador pulsa el botón correspondiente. El sonido de este micrófono se aplica a las líneas de
monitorización, no apareciendo en la señal de programa del mezclador.
Las funciones y procesos descritos pueden realizarse a través de mezcladores implementados con tecnología
analógica o digital.

INTERCONEXIÓN DE EQUIPOS DE AUDIO


A la hora de montar un sistema de sonido, aparecen
problemas ligados a la forma de interconexionar los diferentes
equipos que lo componen. Podemos encontrar líneas balanceadas y no balanceadas, asociadas a varios tipos de
conectores diferentes, lo que complicará aún más nuestra tarea.

Lo primero que debemos conocer es el tipo de conexión que utiliza cada equipo y si se trata de una línea
balanceada o no. En este sentido, resulta complicada la conectorización de los mezcladores de sonido, puesto que
utiliza múltiples tipos de conectores y líneas diferentes. En las entradas y salidas principales, las líneas serán
generalmente balanceadas, con conectores XLR o Jack. En las salidas de envío y en las entradas de retorno auxiliares
se suelen utilizar Jack no balanceados. Tanto la entrada de señal de reproducción (llamada tape) como la salida de
grabación del mezclador utilizan líneas no balanceadas con conectores
RCA, siendo la única aplicación de este tipo de conectores en el mezclador
de audio.

Aunque cambie el tipo de conector, la conexión no plantea


problemas mientras se mantenga el tipo de línea. Pero debemos tomar
precauciones cuando la conexión implica el cambio de balanceado a no
balanceado. Que uno de los extremos sea no balanceado obliga a
desbalancear el otro extremo utilizando línea de transmisión asimétrica.
Sin embargo, la forma de realizar la conexión cambia según el caso
concreto:

 Salida no balanceada a entrada balanceada. Si un equipo


entrega la señal a través de un conector RCA o jack
asimétrico, y en el otro extremo tenemos un equipo con
entrada balanceada, deberemos unir, en este conector de
entrada, el contacto de retorno de línea con el de masa (los
numerados con 3 y 1 en el XLR). Así evitamos que por el
terminal de retorno se introduzcan en el equipo de destino
ruidos que perturben la señal de audio.

 Salida balanceada a entrada no balanceada. La conexión


correcta consiste en unir las masas de los dos equipos a través de la malla del cable, y el envío de la señal
del conector de salida se llevará hasta el activo del conector de entrada. Es importante que en esta
situación no conectemos el terminal de retorno del conector de salida con el de masa.
TEMA Nº 3 – S.T.I. – S.P.A. – 2020 - 2021
“GRABACIÓN DE SEÑALES DE AUDIO”
INTRODUCCIÓN
Aunque actualmente existen numerosos estándares de grabación y reproducción del sonido, podemos
clasificarlos en tres grandes grupos:

 Almacenamiento por procedimientos magnéticos. La utilización de cintas o discos magnéticos está muy
extendida en sistemas de grabación de audio. Los sistemas de grabación DAT, el minidisco, aunque con
variaciones con variaciones importantes respecto al resto.

 Almacenamiento por procedimientos mecánicos. Aquí se situarían los primeros fonógrafos y los más
cercanos discos de vinilo. Estos métodos de grabación no están amenazados de extinción, puesto que
también los actuales sistemas de discos compactos se consideran dentro de la misma clasificación.

 Almacenamiento por procedimientos electrónicos. Desde hace años han emergido con fuerza los
sistemas de grabación que utilizan las memorias de estado sólido como elemento de almacenamiento de
sonido digital

GRABACIÓN MAGNÉTICA
Se basa en el uso de cintas sensibles a los campos magnéticos, cuya estructura aparece en la Fig. 3.1. En ella
se identifican dos zonas que son:

 Soporte.

Es el material que sirve de base de la cinta. Se compone de materiales plásticos y de él dependen las
características físicas de la cinta. Deberá mantenerse estable ante cambios de temperatura y humedad y presentar
una alta flexibilidad, y una elasticidad mínima, que permita la adaptación de la cinta a las curvaturas propias de los
sistemas de arranque, sin que se produzcan estiramientos durante las operaciones de arrastre de cinta. El soporte
requiere un grosor de entre 5 y 40 micras, dependiendo del modelo concreto.

 Capa ferromagnética.

Sobre el soporte se dispone de una fina capa (de 2 a 15 micras) donde se almacenarán realmente las
variaciones del campo magnético. Dicha capa está formada por dos componentes, con funciones distintas:

A. Partículas magnéticas. Se trata de


miles de pequeños cristales metálicos
que, por su estructura molecular,
presentan una polarización entre sus
extremos, comportándose como
diminutos imanes que se podrán
reorientar ante campos magnéticos
extremos. Los materiales más usados
son el hierro, el cobalto y otros metales
puros, resultando adecuados los óxidos
de hierro y el cromo.
B. Aglutinante. Las partículas metálicas han de tener cierta capacidad de movimiento, que les permita
girar para adaptarse al campo magnético aplicado. También se debe mantener un reparto uniforme
de las partículas ferromagnéticas por toda la superficie de la cinta.

Para estudiar el proceso de grabación magnética tenemos que considerar el medio elegido para insertarla: la
cabeza magnética. La estructura de una cinta magnética necesita una o dos bobinas arrolladas sobre un núcleo
ferromagnético, generalmente de ferrita o permalloy. Al aplicar una
corriente eléctrica variable en el tiempo (el sonido) a la bobina, ésta
reacciona generando un campo magnético proporcional a las
variaciones de dicha corriente. El campo magnético se dispondría
alrededor de las espiras de la bobina, dispersándose por el aire;
pero, al colocar un núcleo cuyo material es un excelente conductor
magnético, aparece una concentración de las líneas de fuerza en su
interior, por lo que se establece un circuito cerrado de circulación en
el campo magnético. Para conseguir que este campo se transfiera
hasta la cinta, el núcleo tendrá que presentar una abertura, que
denominamos entrehierro, que haga que las líneas de fuerza del
campo “salten” de un extremo al otro del núcleo, creándose en ese
punto una pequeña dispersión del campo, que se usará para
magnetizar la cinta.

Ejemplo 1:
En un sistema de sonido se requiere una cabeza para grabar o reproducir cada uno de los canales de sonido. Con objeto
de aislar el comportamiento de la cabeza de elementos externos y disminuir las pérdidas por radiación hacia el exterior, el
conjunto de cabezas se colocará en el interior de un blindaje
metálico conectado a masa, quedando visible únicamente
una pequeña ventana por donde asoma el entrehierro.

Durante el proceso de grabación se aplicará la


corriente eléctrica de la señal de sonido sobre esta
cabeza, se creará un campo magnético que circulará
por el núcleo y aparecerá concentrado en los
extremos del entrehierro. Si colocamos ahora la capa
ferromagnética de la cinta próxima a este entrehierro,
el campo aplicado se encargará de orientar las
partículas de la cinta en un determinado sentido,
marcado por la dirección de la corriente generada en
la bobina. El grado de orientación conseguido
dependerá fundamentalmente de la intensidad del
campo magnético, de modo que un campo débil
afectará solamente a la capa superficial de la cinta,
mientras que, al aumentar la intensidad del campo,
lograremos magnetizar zonas más profundas de esta
capa magnética.

CONVERSIÓN DIGITAL DE AUDIO


Si se quiere trasladar una señal analógica hasta el dominio digital, habrá que acotar el ancho de banda que
será procesado. Por ello, incorporamos un filtro paso bajo, que estará sintonizado a la frecuencia más alta que será
grabada. Tras este filtro aparece el verdadero convertidor de analógico a digital (A/D), formado por dos bloques
fundamentales:
 Muestreo y retención (S/H, Sample & Hold). La primera fase consiste en tomar muestras periódicas de
la señal de audio que está llegando y retenerlas el
tiempo suficiente para que se evalúe su nivel. La
velocidad a la que se recogen las muestras define, la
calidad del sistema de conversión, ya que de esta
frecuencia de muestreo dependerá la frecuencia
máxima que se convertirá a formato digital. Para
obtener un muestreo aceptable de la señal original, se
tomarán, al menos, dos muestras por cada ciclo de señal
analógica. Esta situación se producirá cuando llegue una
señal de la máxima frecuencia (20 kHz), obteniendo una
muestra en el semiciclo positivo y otra en el negativo, y
así poder restaurar la señal original. Siguiendo este criterio se establece el teorema de Nyquist, que
afirma que:

F muestreo ≥ 2 · F máxima

Si por alguna razón, aparece en el convertidor frecuencias por digitalizar superiores a la mitad de la
frecuencia de muestreo, aparecerá un efecto indeseado llamado aliasing. Se produce cuando se toman menos de
dos muestras por cada ciclo de la señal analógica, y el resultado es la aparición en la salida del convertidor de una
serie de muestras digitales que no son capaces de recrear la señal original. En el caso de la digitalización de sonido, el
aliasing se traduce en pitidos y ruidos extraños en la señal digitalizada, que no existían en la original. Este efecto es
inherente al proceso de conversión de analógico a digital de cualquier tipo de señal, y la única forma de evitarlo es
garantizar un filtrado eficaz previo a la digitalización, que elimine cualquier componente de la señal analógica que
incumpla el teorema de Nyquist.

 Cuantificación y codificación. Una vez tomadas las muestras, se medirá el voltaje de cada una,
asignando el código binario correspondiente al nivel detectado. Es importante conocer el tipo de
cuantificación elegido, puesto que del
número de bits que utilicemos dependerá la
resolución del convertidor y, el margen de
valores analógicos a los que les corresponde
un mismo código digital. La cuantificación se
representa como una rampa escalonada, en
la que cada uno de los niveles se empareja
con un código de salida. El tamaño de estos
escalones depende de la cantidad de bits
que se requieran, de forma que cuanto más
números conformen el código asignado a la
muestra, más pequeños serán los escalones,
al haber aumentado la precisión con la que
se realiza la codificación. Un convertidor de
8 bits tendrá un total de 256 escalones; otro
de 16 bits podrá adoptar hasta 65.536
valores diversos. Al código asignado a cada
muestra de la señal se le denomina palabra
y se expresa como longitud de palabra la
cantidad de bits necesarios para
representarla.

Ejemplo 5:
El estándar más difundido de conversión A/D usa una frecuencia de muestreo de 44,1 kHz, lo que le permite digitalizar
sin problemas señales de hasta 20 kHz. Tras la codificación, surgen muestras de 16 bits, haciendo posible un margen dinámico
mayor de 90 dB.

EL SISTEMA DAT
Este sistema almacena sobre una cinta de 3,81 milímetros de anchura dos canales de sonido digital
muestreado a 48 kHz y cuantificado en 16 bits, si bien pueden ser seleccionados opcionalmente modos de trabajo a
44,1 kHz/16 bits, 32 kHz/16 bits y 32 kHz/12 bits.

Las muestras obtenidas mediante los procesos de conversión se recombinan formando una única trama en la
que aparecen alternadas las correspondientes a los dos canales de sonido. A partir de este punto, se considerará una
única señal, compuesta por muestras que, a su vez, se dividen en grupos de 8 bits denominados símbolos. El
siguiente paso será dotar del suficiente grado de protección a la señal frente a los ruidos y fallos de lectura, para
conseguir, una reproducción sin errores. De esto se encarga el sistema de detección y corrección de errores Reed-
Solomon, un código de redundancia cíclica que agrupa las muestras en matrices de datos y les asigna códigos de
paridad por fila y columna, que se añadirán a la trama digital grabada. Si durante la reproducción se produce un
fallo, se podrá restaurar el dato perdido a partir de la información redundante asociada a las muestras originales.

El sistema de corrección es capaz de restaurar fallos de la trama de corta duración, disminuyendo su eficacia
ante errores que afecten a un gran grupo consecutivo de muestras. Se complementa el corrector de errores con un
sistema de entrelazado de los datos. Con esta operación se dispersarán las muestras de sonido, mediante una ley
conocida por el sistema, de forma que las muestras grabadas no siguen un orden correlativo. Así, cuando se
produzca un fallo en la cinta, los datos perdidos provocarán, en lugar de un error de larga duración, múltiples
defectos de lectura de reducido tamaño, dispersos en el tiempo y perfectamente corregibles por el bloque
correspondiente. A este conjunto de operaciones se le denomina CIRC (Código Redundante Entrelazado y Cruzado).

Ejemplo 6:
Para efectuar el intercalado de los datos se introducen las muestras de audio digital en la matriz de una memoria,
realizándose la escritura por filas y quedando en el orden reflejado en la Fig. 3.24. Si queremos extraer los datos, elegiremos un
sistema de lectura por columnas, por lo que las muestras habrán perdido su orden original. Si durante la reproducción se produce
un fallo, éste afectará a un grupo consecutivo de muestras, alterando su valor o eliminándolas. Con el objetivo de corregirlo, se
ejecuta el proceso complementario al de grabación, a través de una nueva memoria, restaurando el orden correcto de las
muestras de sonido. En la trama restaurada se observa ahora el fallo fraccionado en el tiempo, pudiendo así trabajar el sistema

de corrección de errores sin grandes problemas.

Tras la protección de la información, aplicamos un nuevo proceso a la señal para adaptarla a los
condicionantes del propio sistema de grabación. Las muestras generadas tras la redundancia se grabarán en serie,
por lo que aparecerá ahora una señal digital cuya frecuencia depende del valor de las muestras en cada instante. La
frecuencia mínima de la señal digital se producirá cuando aparezca un gran número de 1 (o de 0) seguidos, mientras
que la secuencia 0,1,0,1,0… provocará una señal de frecuencia muy elevada. Este rango de variación es tan amplio
que tenemos que establecer un límite a las frecuencias de la trama digital que se grabará; para ello se utiliza una
técnica denominada modulación de 8 10. Se trata
de sustituir muestras de 8 bits por otras de 10 bits,
las muestras obtenidas ahora se mantendrán
siempre dentro de unos márgenes de frecuencia
tolerables por el sistema de grabación.

Resta incorporar un amplificador de


grabación que proporcione la corriente necesaria
para excitar las cabezas de grabación. En este
magnetófono digital no encontraremos señales de polarización (bias), ya que a la información digital grabada no le
afecta el recorte provocado por la transferencia propia de la cinta.

El proceso de reproducción será complementario al aquí descrito, con un amplificador de cabezas como
primer elemento, que lleva asociado un sistema de ecualización para compensar la respuesta de las cabezas. A
continuación, aparece un demodulador de 10 a 8 y un bloque de desentrelazado, que devolverá a las muestras su
aspecto original, antes de aplicarlas al sistema de detección y corrección de errores. Una vez corregidas las posibles
muestras dañadas, se distribuirán a dos convertidores de
digital a analógico, para obtener así la señal de salida a
partir de un nuevo filtro paso bajo, que eliminará los
posibles ruidos de alta frecuencia generados durante la
conversión.

La información se graba en pistas helicoidales,


inscritas por dos cabezas montadas sobre un tambor
giratorio inclinado rodeado por la cinta. En este método la
cinta es desenhebrada para acomodarse al sistema
mecánico, de esto se ocupan dos guías que se desplazan
por sendas correderas, las cuales extraerán la cinta hasta
que entre en contacto con el disco portacabezas,
abrazándolo durante 90°. Un grupo de guías fijas
delimitarán el resto del recorrido de la cinta, entre los
cuales cabe destacar los polos inclinados, que, asociados a
las guías de entrada y salida, se encargan de inclinar la
cinta para conseguir un barrido oblicuo, al tiempo que
regulan su correcta altura.

Este sistema de grabación helicoidal permite almacenar un volumen de datos muy superior al de las pistas
longitudinales convencionales, al aprovecharse prácticamente toda la superficie de la cinta. A la información de
sonido procesada se le añaden otras que
complementarán la trama digital, la cual será
almacenada en la cinta. Así en los extremos de cada
pista, aparecerán áreas de subcódigos, donde se
podrán registrar tanto informaciones adicionales
relativas al autor, título de la canción, tipo de
grabación, como códigos de tiempo que faciliten la
localización de pasajes y las labores de edición.
Separadas por un hueco (gap), surgen las zonas de
seguimiento automático de pista (ATF), en las que
se registran tres tonos de frecuencias distintas (F₁ y
F₂ en una pista, F₂ y F₃ en la siguiente) y que
permitirán, al compararlas entre sí, determinar si la
velocidad de arrastre y el giro de las cabezas son los adecuados. La zona central de la cinta estará ocupada por los
datos de sonido, de forma que en cada pista se inscribe una porción de los dos canales de audio.

La estructura de la cinta se completa con dos pistas adicionales de tipo longitudinal. Esta pistas auxiliares son
opcionales y permiten grabar sonido en baja calidad, o bien incluir datos adicionales, en cualquier caso, dichas pistas
serán grabadas por cabezas estáticas convencionales.

Ejemplo 7:
El sistema de grabación helicoidal y la disposición de los datos sobre la cinta recuerdan a los sistemas de grabación de
vídeo digital, puesto que tienen numerosos elementos en común.

EL DISCO COMPACTO
En 1980 Sony y Philips presentaron el disco compacto digital. El sistema graba la información de audio en
formato digital, por lo que requiere un proceso de conversión, como paso previo al proceso digital, que acomodará
la trama a los requerimientos del soporte. Este método es muy
similar al elegido por DAT, ya que utiliza el mismo sistema de
codificación de redundancia cíclica como forma de detectar y
corregir los errores producidos durante la reproducción. También
encontramos el entrelazado de los datos; el método de grabación,
es físico, creándose a partir de los datos digitales pequeños
salientes (pits) sobre la superficie del disco, que leerá un haz de luz
láser. Este sistema, presenta limitaciones importantes respecto de
las frecuencias que pueden grabarse, la cantidad y el tamaño de las
protuberancias tendrán que estar dentro de ciertos límites que
permitan que el lector óptico las interprete, así como un correcto seguimiento de la pista. Por esta razón se dividen
las muestras de sonido en símbolos de 8 bits que se analizan por separado, aplicándose dos técnicas que evitarán
grandes variaciones en las frecuencias de las señales digitales que serán grabadas:

 Codificación EFM. En las muestras obtenidas de la señal de sonido se producen múltiples combinaciones
que no resultan adecuadas para el medio de grabación elegido, por lo que se ejecuta una nueva
codificación, que asignará a cada símbolo de 8 bits una palabra de 14. Dicho proceso recibe el nombre de
modulación de 8 a 14 (EFM).

 Codificación NRZI. Bajo las siglas inglesas de “No Retorno a


Cero Invertido” se encuadra un método de codificar señales
binarias, en las cuales se aplica un cambio de nivel lógico a
cada 1 de la señal original, mientras que los ceros
mantendrán el nivel existente. Con esta operación se
consigue disminuir el número de cambios de nivel de la
señal que se grabará, definiéndose mejor la pista de
información sobre el disco.

Ejemplo 8:
Si en las muestras de sonido aparecen demasiados 0 consecutivos,
esto se traduce, al grabarse, en una zona plana del disco, por lo que el sistema de seguimiento de pista tendrá problemas para
localizarla. Paralelamente, si el dato a grabar es excesivamente cambiante de nivel, se provoca una elevada densidad de
altibajos sobre la superficie del disco, dificultando su lectura por parte del haz láser. La conjunción de los sistemas EFM y NRZI
garantiza que las muestras grabadas sobre un disco no tendrán, en ningún caso, más de diez ni menos de dos 0 entre cada pareja
de 1. Esto se traduce en el acotamiento del tamaño de los pits, cuya longitud estará siempre entre 0,833 y 3,054 μm.
La zona de datos del disco está compuesta por una capa de alta reflectividad que sirve de base de referencia;
se la conoce como land. Sobre este nivel se levantan (visto desde el lado de lectura) los pits, con una diferencia de
altura de 0,11 μm. El conjunto de pits grabados irá conformando la pista de datos, insertada a su vez helicoidalmente
desde el interior hacia el exterior del disco. Para poder leer esta información, los pits tienen una anchura constante
(0,5 μm), mientras que la separación lateral correspondiente a dos líneas consecutivas de la espiral es de 1,6 μm.

Si se quiere realizar la lectura, se necesita un bloque óptico (Fig. 3.30). En ésta podemos apreciar un diodo
láser, que provocará una onda de 780 nm de longitud, lo que le da un color rojizo. Este rayo de luz se aplicará a la
rejilla de difracción, donde se generará un grupo de haces secundarios, de los cuales nos quedaremos con los tres de
mayor intensidad; éstos son el haz principal y los dos secundarios más cercanos a él. Dichos haces pasarán a través
de un prisma semirreflectante, que, en esta dirección, no pondrá oposición alguna al paso de la luz láser. Como los
haces secundarios se crearon por difracción, tienden a
propagarse radialmente, alejándose cada vez más del eje
principal. Para evitarlo se usa una lente colimadora, que
se encargará de corregir la trayectoria de los haces,
colocándolas en paralelo. Con nuestros tres haces en la
misma dirección llegaremos, a través de un espejo, hasta
la lente de enfoque, que se ocupa de que cada uno de
ellos concentre sus ondas sobre la superficie del disco, de
forma que el haz primario presentará una anchura
próxima a una micra de diámetro.

Para mantener este enfoque ante el movimiento


del disco, se monta esta lente sobre un soporte móvil
(que se desplaza verticalmente) accionado por un campo
magnético provocado por un par de bobinas dispuestas
al efecto. La lente también puede moverse lateralmente
para ejecutar el seguimiento de la pista.

La luz reflejada por la superficie del disco retornará por el mismo camino, puesto que la incidencia del rayo
es perpendicular a la zona de datos del disco. Dicha luz, en su camino de vuelta, pasará de nuevo a través del
objetivo hasta el espejo, donde cambiará de dirección para llegar, a través de la lente colimadora, al prisma
semirreflectante. Este elemento dispone de una capa interna colocada a 45° y con un tratamiento especial que
permite el paso de la luz en el camino de ida, mientras que en retorno se comporta como un espejo. La señal óptica
sufrirá un nuevo cambio de dirección, que le hará llegar hasta la lente cilíndrica y, a través de ella, hasta los
fotodiodos encargados de convertir la luz en señales eléctricas.

Para recoger la luz de los tres haces se requerirán hasta seis


fotosensores (Fig. 3.31). De ellos, los cuatro centrales recibirán el haz
principal y, a partir de éste, extraerán los datos de sonido digital,
además de la información necesaria para realizar un correcto enfoque.
Los otros dos fotodiodos se reservarán para las labores de
seguimiento de pista.

Con el fin de detectar la información grabada en el disco, se


aplica el principio de cancelación óptica de señales de fase opuesta,
durante la exploración, el láser se podrá reflejar en los pits o en los
lands. La construcción es tal que la diferencia de altura es
exactamente ¼ de la longitud de onda del láser de lectura. Cuando el
haz pase sobre un pit, la señal será reflejada con un desfase de 180° respecto de la reflexión producida desde el land,
puesto que, en el último caso, la luz habrá recorrido un espacio igual a 90° de desfase adicional.
Por esta razón, en un caso, la señal reflejada quedará en fase con la señal principal, sumándose sus
componentes y transfiriéndose hasta los fotosensores con gran
amplitud; y, ante la situación contraria, aparecerá reflejada en fase
invertida con la incidente, generándose una cancelación óptica que
disminuirá notablemente la señal recuperada por los fotodiodos. Al
emplearse este principio para obtener la información del disco,
bastará con sumar las señales captadas por los cuatro sensores
centrales.

Existe otra razón de que sean cuatro los fotosensores que


reciben la luz del haz principal; trabajando conjuntamente con la lente
cilíndrica, servirán también para detectar los errores de enfoque
propios del proceso de lectura de un disco en movimiento.

La lente cilíndrica posee una característica óptica en la que, en


lugar de un punto focal, aparecen dos líneas focales distintas, una en
el plano horizontal y otra en el vertical. Entre estas dos líneas imaginarias colocaremos nuestro mosaico de
captadores, girados 45° respecto de ellas. Cuando el objetivo del captador concentre el haz sobre la superficie del
disco, la luz reflejada será tal que al llegar a los fotocaptadores su “huella” se habrá convertido en una
circunferencia, por lo que los cuatro fotodiodos recibirán la misma cantidad de luz. Ante una variación del punto de
reflexión se producirá un cambio en la posición de las líneas focales de la lente cilíndrica. Este cambio conlleva una
variación en la cantidad de luz que recibe cada pareja de sensores diagonalmente opuestos, analizando las señales
recibidas por estos pares de sensores, sabremos si debemos alejar o acercar la lente de enfoque.

Ejemplo 9:
Si el disco se encuentra situado demasiado cerca, el haz reflejado provocará un alargamiento de las distancias focales de
la lente cilíndrica. Esto se traduce en que, al llegar a los fotodiodos, la luz habrá adoptado la forma de una elipse orientada
verticalmente, por lo que la pareja de sensores A-C recogerá más luz que la B-D. Cuando se produzca la situación de alejamiento
del disco, surgirá un efecto de acortamiento en la distancia focal de la lente cilíndrica, por tanto, al acercarse a la superficie
captadora, la luz tenderá a convertirse en una línea horizontal. En este caso, serán los sensores B-D los que reciban mayor
cantidad de luz. Para saber si debemos alejar o acercar la lente de enfoque, bastará con que realicemos esta sencilla operación:

Error de foco = (A + C) – (A + D)

Se puede observar fácilmente cómo, ante una posición de enfoque correcto, los cuatro sensores captan la misma
cantidad lumínica, obteniéndose como resultado una señal de error nula.

El sistema de seguimiento de pistas (tracking) se basa en la


aplicación de dos haces secundarios, que conducirán al haz principal
como si circulase por raíles (Fig. 3.33). Esto se consigue colocando
uno de ellos por delante y a la derecha, mientras que el otro
adoptará una posición trasera y en el área izquierda de la pista de
información. Al reflejarse, estos haces secundarios incidirán en los
fotodetectores E y F del grupo recuperador. En condiciones de
tracking correcto, los dos haces secundarios se situarán sobre la base
reflectante, la cual rozan ligeramente. El haz principal se localiza
encima de la pista de datos, efectuando la lectura, si la pista tiende a
desplazarse hacia la derecha, el haz delantero entrara de lleno en la
zona de pits, mientras que el trasero se reflejará en el land que es
base del disco. Esto provocará una notable diferencia entre las
señales captadas por los fotodiodos E y F, a partir de la cual se
activará el servosistema de corrección pertinente. Si la pista se mueve hacia la izquierda, se dará la situación
contraria, generándose una tensión de error de seguimiento que corregirá la posición del láser.

Para adecuar adecuadamente el láser sobre la pista, el lector de discos compactos dispone de dos
elementos:

 Bobina de tracking. Es una bobina de desplazamiento lateral del objetivo; con ella se lleva a cabo la
mayoría de las correcciones propias de la lectura, ya que presenta un margen de desplazamiento de
unos tres milímetros y puede recorrer una distancia superior a la anchura de 1500 pistas.

 Servo de sled. Cuando la bobina de tracking llega al final de su recorrido, o cuando se realizan grandes
saltos de pistas, aparece un sistema que desplaza todo el grupo óptico. Este movimiento se consigue
desplazando el carro de lectura a través de una corredera colocada tangencialmente, y será,
necesariamente, mucho más grande que el obtenido por la bobina.

Otro elemento se destina a controlar la velocidad de giro del disco: el servo de CLV (Constant Linear
Velocity). Como en el área interior del disco el perímetro de giro es menor, para recuperar la misma cantidad de
información, éste deberá girar más rápido. Al iniciarse la lectura, el disco da unas 500 vueltas por minuto, mientras
que en la zona exterior, basta con 200, para obtener el mismo volumen de datos. Con objeto de determinar si la
velocidad es la adecuada, se mide la frecuencia de la señal recuperada de una información de sincronización,
grabada junto a los datos de sonido. Con esta información se controlará un bucle enclavado en fase, que asegura una
corrección de la velocidad en tiempo real altamente efectiva.

EL MINIDISCO
Es un sistema de calidad con acceso aleatorio a la información y que puede ser grabado, editado y
modificado cuantas veces deseemos. El sistema Minidisc se basa en un pequeño disco de 64 milímetros para
almacenar por procedimientos magneto-ópticos hasta
74 minutos de información sonora. Sus fundamentos
son comunes a los de la tecnología de discos compactos
reescribibles, aunque usa algoritmos de compresión
que acotan su ámbito para el sonido, resultando
inadecuado para la grabación de datos digitales.

Las similitudes entre este sistema y el disco


compacto son evidentes a la vista de su diagrama de
bloques. La señal analógica se muestrea a 44,1 kHz y 16
bits, también se utiliza un sistema de corrección de
errores redundante (aunque se eleva el grado de
entrelazado para mejorar la dispersión de los datos y
conseguir una mayor eficacia en la corrección de errores) denominado ACIRC (Advanced Cross Interleave Redundant
Code), además, se mantiene la modulación de 8 a 14.

El minidisco introduce una serie de elementos nuevos, que definen su perfil de uso y condicionan su campo
de aplicación; estos elementos son los siguientes:

 Codificación ATRAC

El minidisco ejecuta un proceso de compresión, de relación aproximada 5:1, basándose en dos


características de la audición humana:

1) Umbral de audición. Nuestros oídos tienen un nivel mínimo de audición, que es distinto para cada
frecuencia; resultará inútil grabar las señales que se encuentren por debajo de este umbral, el
sistema eliminará estas muestras. Se divide el espectro audible en 25 sub-bandas, cuyo nivel se
analiza por separado para obtener un patrón fiable de muestras, que podrán ser eliminadas sin
perturbar la calidad subjetiva de la música original.

2) Enmascaramiento. Otra característica psicoacústica, nuestro sistema auditivo no percibe señales


débiles ante la presencia de otras más potentes. En los momentos de sonido de alta intensidad, se

podrán suprimir aquellos otros que, por su escasa amplitud, no van a ser percibidos por los oyentes.

La utilización del Código Acústico de Transformación Adaptable (ATRAC), permite efectuar grabaciones de
duración similar a las del disco compacto sobre un soporte más pequeño y con un nivel de calidad casi tan elevado
como aquél. Sin embargo, al haber eliminado parte de la información, el sistema se vuelve inoperante para registrar
datos informáticos.

 Dispositivo de grabación y lectura

El minidisco distingue entre dos tipos de soporte: los discos pregrabados y los que pueden grabarse en el
propio aparato. Los primeros son similares a los discos compactos: en su estructura hay pits y lands que se leerán
mediante un rayo láser incidente sobre un mosaico de fotodiodos. Sin embargo, para poder grabar información se
preferirán discos de tipo magneto-ópticos. Su estructura está formada por una capa ferromagnética flanqueada por
materiales aislantes, todos ellos transparentes a la luz. Tras este se coloca una capa de aluminio, que se encarga de
reflejar la luz láser durante el proceso de lectura de los datos.

El proceso de grabación se efectúa por medio de una cabeza magnética situada por encima del disco; el
material sensible se encuentra en un medio sólido a temperatura ambiente, por lo que no reaccionará ante campos
magnéticos externos. Durante el proceso de grabación se aplica un rayo láser para calentar, con una precisión muy
alta, una zona concreta del disco para cada instante. Al alcanzar la
temperatura de fusión del soporte, las moléculas ferromagnéticas
quedan liberadas de las fuerzas de cohesión internas, por lo que
podrán reorientarse de acuerdo al campo magnético que estén
recibiendo en ese momento. Un instante después el láser dejará de
calentar ese punto; entonces la capa volverá a su estado sólido,
manteniendo la magnetización adoptada de forma indefinida. Así,
con el fin de guiar al láser en su recorrido, el disco grabable dispone
de un presurco: un pequeño carril con ondulaciones senoidales que
establece el camino que seguirá la pista de información una vez grabada.

Para la reproducción no se selecciona la cabeza magnética, el sistema láser será el encargado de recuperar
los datos almacenados sobre el disco. La grabación realizada por el sistema electro-óptico es, en principio,
transparente, de forma que durante el proceso de reproducción el láser atravesará la capa magnetizada,
reflejándose sobre la superficie de aluminio dispuesta para este fin. Según el efecto Kerr, cuando un haz luminoso
atraviesa un campo magnético, sufre un cambio en la polarización de la onda que propaga. Estos cambios de
polarización de la luz coherente del láser serán los que servirán para detectar la información almacenada en el disco.

El recuperador óptico incluye en el trayecto de retorno del haz láser un prisma Wollaston, formado por dos
cristales asociados con un ángulo de 45°, que separan las componentes lumínicas según su polarización, en su salida
aparecerán por cada haz de entrada dos haces secundarios nuevos, cuya intensidad dependerá de la información
almacenada en el disco. Como ya teníamos tres haces generados por difracción para las labores de seguimiento de
pista, ahora serán un total de nueve rayos, reservándose para la lectura de los datos únicamente los haces
secundarios procedentes del rayo principal, una vez se hayan alineado mediante una nueva lente colimadora. Si se
quiere interpretar estas variaciones luminosas, se colocan dos fotodetectores (que llamaremos I y J) al conjunto
usado en la estructura del disco compacto.

Ejemplo 10:
Al explorar el disco grabado, el láser puede retornar con dos polarizaciones distintas, correspondientes a las
magnetizaciones provocadas por una señal digital. Cada polarización hará de unos de los haces de salida del prisma Wollaston
adquiera un valor considerable, mientras que el otro quedará prácticamente anulado en ese momento. Por lo tanto, en uno de
los fotodiodos obtendremos la señal correspondiente a los 1, mientras que en el otro tendremos los 0 de la trama almacenada.

Si introducimos un disco pregrabado, no aparecerán diferencias de polarización, por lo que estos haces tendrán el
mismo nivel de luminosidad. En este caso, pueden detectarse los datos pregrabados precisamente por las divergencias de nivel
luminoso provocadas por la reflexión sobre los pits y lands en estos haces.

GRABACIÓN SOBRE MEMORIAS DE ESTADO SÓLIDO


Los últimos desarrollos en materia de almacenamiento de audio han eliminado los elementos mecánicos.
Graban la información sobre memorias de estado sólido. Así se consigue un equipo de máxima fiabilidad, evitando la
dependencia de discos que se rayan fácilmente o cintas que se quedan enrolladas.

Otra de las ventajas de los sistemas de grabación electrónica es la gran adaptación de la calidad de grabación
a las necesidades de la aplicación que realizan en cada momento. Ya en la digitalización de audio, el usuario decide si
desea grabar en mono o es estéreo, el número de muestras a tomar por segundo y el número de bits por muestra.
Pero además el equipo realiza un proceso de compresión de la información de audio basado en principios
psicoacústicos. Este proceso de compresión digital también permite seleccionar varios niveles de calidad,
ajustándose el flujo binario resultante (bit rate) a la salida del sistema de compresión.

Una vez comprimidos, los datos de audio digital se almacenan en una memoria flash, que permite la
grabación un número ilimitado de veces. El formato físico de la memoria dista de unos fabricantes a otros: desde la
tarjeta PCMCIA hasta los cartuchos de pequeño tamaño SD. En este momento, los grabadores digitales posee una
autonomía de registro muy superior a los sistemas clásicos basados en cintas, que dependiendo del nivel de
compresión puede llegar a albergar cientos de horas de grabación, siempre con la máxima fiabilidad de
funcionamiento.
TEMA Nº 4 – S.T.I. – S.P.A. – 2020 -2021
“EQUIPOS DE RADIOFRECUENCIA”
TRANSMISIÓN DE INFORMACIÓN
Cuando se desea transmitir un mensaje desde un origen a un destino, es imprescindible que tenga la
estructura adecuada para que pueda recorrer el espacio que separa a los dos elementos. De ello se encarga el
codificador, que modifica el formato original del mensaje de tal forma que se superen las dificultades que se
encontrará en el camino. A continuación se aplicará a un bloque emisor, que servirá como elemento de enlace con el
medio de propagación, que es el camino que une al emisor y al receptor. En función de sus características, y de las
propias del medio, el mensaje variará de una forma u otra. Será inevitable la degradación de la señal que contiene el
mensaje a su paso por el medio, pues se verá afectado por diversas fuentes de interferencia, ruidos, etc.

La señal enviada debe mantener un nivel de calidad suficiente para que el receptor pueda extraer la señal y
entregársela al decodificador. Este elemento se encargará de quitarle al mensaje el formato elegido para la
transmisión, modificándolo de forma que el destinatario interprete correctamente su contenido.

Ejemplo 1:
Este sistema no es exclusivo de la comunicación electrónica; si suponemos un mensaje hablado entre dos personas, el
origen sería el cerebro y la persona que pretende transmitir la información, el cual se encarga de “pensar” cuál es el mensaje.
Para ello se colocará la información en “formato serie”, es decir, un fonema detrás de otro, y se irán adaptando los músculos del
aparato fonador y la presión de aire expulsado para convertir el mensaje en vibraciones de las moléculas de aire. Este fenómeno
significa una modulación en toda regla. Una vez codificados, los impulsos de aire son emitidos a través de la boca, elemento que
nos comunicará con el medio de propagación, donde la señal sufrirá alteraciones debidas a agentes externos propios del medio
en el que se propaga. A la señal se le sumará el ruido de ambiente, que disminuirá la calidad de la transmisión, además de
atenuarse según vaya recorriendo el camino que le separa del receptor.

Con el fin de que el oído reaccione a las vibraciones del aire, recibiendo la información emitida, la cantidad de señal que
llegará tendrá que ser suficiente para poder diferenciarse del ruido de fondo, dependiendo la calidad de la transmisión de esta
divergencia entre los niveles de señal y ruido. El oído, órgano que ejerce la función de receptor de nuestro sistema, transformará
los cambios de presión del aire en impulsos eléctricos, ejecutando la demodulación necesaria, una vez se haya atravesado el
medio de propagación. Así, estos impulsos transferirán el mensaje al cerebro, elemento de destino encargado de decodificarlo,
extrayendo la información original que contiene.

Si se aumenta la distancia entre emisor y receptor, habrá que modificar la señal emitida para garantizar que
ésta llega al receptor con el nivel adecuado para que se realice una decodificación correcta. La modificación más
básica consistiría en aumentar la potencia de emisión, incrementando el flujo de aire, pero si la distancia aumenta
más, esta solución presentará inconvenientes:

I. No podemos elevar indefinidamente el nivel de potencia transmitido.


II. Nuestra emisión puede molestar a otras que se estén produciendo en las cercanías.

Una vez llegado a un límite razonable, se prefieren otros sistemas de codificación que permitan cubrir
distancias mayores. Aunque nuestros mensajes vocales se producen en un margen de frecuencias muy estrecho, el
espectro, es infinitamente mayor, por lo que podemos asignar frecuencias distintas a cada mensaje. El oído humano
también presenta un ancho de banda muy limitado, por lo que se deben incorporar elementos de modulación,
emisión y recepción capaces de trabajar a las frecuencias asignadas para una correcta transmisión.

Cuando la distancia que separa a emisor y receptor supera unos pocos metros, recurrimos a sistemas de
transmisión electrónicos, capaces de codificar, modular, emitir, recibir, demodular y decodificar los mensajes,
preparándolos directamente para ser interpretados.

El concepto de modulación se puede definir como: “la alteración sistemática de uno de los parámetros de
una señal, llamada portadora, en función de cómo varíe la amplitud de otra señal, que contiene el mensaje,
denominada moduladora”. Analizando esta definición, aparece un concepto nuevo, el de un elemento portador. Este
elemento (que en transmisiones electrónicas será una señal eléctrica), posee unas características que lo hacen
adecuado para atravesar el medio de propagación, y permite ubicar en el margen de frecuencias asignado a nuestro
mensaje, aspecto que justifica su utilización. Se denomina portadora porque es el elemento de transporte que se
usará para trasladar nuestro mensaje, que llamamos señal modulada, a través del medio por el cual será emitido.

Ejemplo 2:
Continuando con el ejemplo de modulación que supone una conversación, el elemento portador es el aire que
contenemos en los pulmones, el cual logra viajar por el medio exterior hasta el oído del receptor. Para emitir el mensaje
alteramos este flujo de aire, que en principio es continuo, con la vibración de las cuerdas vocales y la posición de la boca,
entrecortándolo y haciéndolo vibrar también a medida que insertamos la información que se va a transmitir (información
moduladora).

MODULACIÓN DE AMPLITUD
Según el parámetro que se altere con los cambios de la señal moduladora, podremos establecer diversos
tipos de modulación. La primera será la Modulación de Amplitud (AM), generada cuando la amplitud de la señal
portadora depende directamente de la amplitud de la modulación.

Para estudiar la modulación consideraremos una señal moduladora senoidal, Fig. 4.2. Si queremos
transmitirla, necesitamos una señal portadora también senoidal, pero de una frecuencia más alta. Cuando la señal
moduladora tiene valor cero, la amplitud de la señal modulada coincide con el voltaje original de la portadora; sin
embargo, cuando la señal de sonido crece, provoca un aumento de la amplitud de la señal modulada, de forma que

el momento en el que se producen los puntos de máxima


amplitud coinciden. La señal modulada sigue la tendencia de la
moduladora también cuando ésta desciende, e incluso cuando se invierte la polaridad durante el segundo semiciclo
de la señal moduladora.

Como la amplitud de la señal modulada depende del nivel de la moduladora, si queremos modular una señal
demasiado grande podemos encontrarnos problemas de sobremodulación. Éstos se presentan cuando la señal
modulada varía tanto que en los semiciclos negativos de la señal de audio llega a anularse por completo. En esta
situación aparecerá una fuerte distorsión sobre la señal, que habrá que evitar a toda costa. Para ello se establece un
parámetro que definirá en qué proporción se aplican las variaciones del sonido, el denominado índice de
modulación. Dicho factor nos indica la “profundidad” con la que se realizan las variaciones de la señal modulada.
Para calcularlo, nos serviremos de la siguiente expresión:

Para entender mejor el proceso de modulación, es necesario analizarlo desde el punto de vista espectral. En
el ejemplo mencionado, las señales moduladora y portadora son de tipo senoidal, por lo que su espectro estará
formado por una única frecuencia, ya que se trata de señales unitarias. Sin embargo, el proceso de modulación de un
tono puro genera una señal compleja, que estará compuesta por:

 Portadora. Contemplando el oscilograma de la señal modulada, se


aprecia que la frecuencia de la señal sigue siendo la que
originalmente tenía la portadora, por lo que parece lógico pensar
que en su espectro aparecerá, como señal fundamental, una línea
vertical situada en la frecuencia de la portadora.

 Frecuencias laterales. Sobre la señal modulada se muestran las


variaciones del mensaje original, por lo que, de alguna forma, esto
se reflejará sobre el espectro de la onda modulada. Como
resultado de la modulación aparecen dos frecuencias laterales, una
a cada lado de la portadora y separadas de ésta por un valor igual a
la frecuencia de la señal moduladora. Dichas líneas de espectro
tienen un nivel inferior al de la portadora, y su relación con ella es
precisamente el índice de modulación.

Hasta aquí nos hemos referido, a una señal modulada senoidal de frecuencia única. Sin embargo, la
modulación se desarrollará habitualmente con señales de sonido, por
lo que, en lugar de hablar de una sola frecuencia moduladora,
tendremos que referirnos a la banda de paso que se procesa en el
modulador. En vez de obtener dos frecuencias laterales, la señal
modulada presentará dos bandas laterales, cuyos márgenes serán
definidos por la banda de frecuencias que forman la señal del sonido
original. En transmisiones de la banda de AM, se procesan los sonidos
entre 50 Hz y 4,5 kHz, por lo que tras la modulación surgen dos
bandas laterales que confieren al conjunto un espectro de 9 kHz de
anchura. Este valor será considerado como el ancho de banda del
canal transmitido.
La modulación en amplitud tiene unas características particulares que merecen ser comentadas:

 Fácil demodulación. Bastará con un detector de envolvente (formado por un diodo, un condensador y una
resistencia) para extraer la señal moduladora. La información aparece duplicada, por el hecho de que el proceso
de modulación crea dos bandas laterales simétricas, lo que facilitará aún más los procesos de sintonización y
detección.

 Sensibilidad ante ruidos. Un inconveniente es la gran vulnerabilidad de la modulación de amplitud frente a los
ruidos del medio de propagación. Durante la transmisión, se mezclan con la señal multitud de señales ajenas,
que provocarán modificaciones de la tensión instantánea de la onda modulada.

 Bajo rendimiento en transmisión. De la potencia generada por un modulador de amplitud, se estima que un 50
% se invierte en emitir la señal portadora, que, en realidad, no contiene información alguna. El resto se divide, a
partes iguales, entre las dos bandas laterales, por lo que el receptor percibirá una potencia útil equivalente al 25
% de la potencia total emitida.

 Ancho de banda elevado. Un canal de radio modulado en amplitud tendrá siempre un ancho de banda igual al
doble de la banda de paso de la señal que está transmitiendo. La duplicidad de las bandas laterales hace que el
canal ocupe un gran margen de frecuencias, lo que limitará el número de canales que se podrán emitir por la
banda de radiofrecuencia.

Algunas variantes del sistema de modulación en amplitud, orientadas a aplicaciones específicas; son las que
detallamos a continuación.

 Doble Banda Lateral (DBL).

La mitad de la potencia se gasta en transmitir la portadora, una


vez efectuado el desplazamiento en frecuencia propio de la
modulación, no es necesario mantener esta componente. En la
modulación DBL, la potencia se invierte en transmitir solamente las
bandas laterales, por lo que el rendimiento llegará hasta el 50 %. Se
prefiere este tipo de modulación cuando se desea ahorrar energía en el
transmisor, o bien cuando la portadora puede perturbar otras señales,
sobre todo en transmisiones de señales con modulación múltiple.

 Banda Lateral Única (BLU).

Si nuestro objetivo es mejorar el rendimiento del transmisor,


podemos eliminar, además de la portadora, alguna de las bandas laterales.
Toda la potencia radiada resulta útil, obteniendo un rendimiento teórico
del 100 % en el transmisor. Tenemos la ventaja de que el espectro se
reduce a la mitad, pudiendo aumentar paralelamente el número de canales
utilizables. El drástico recorte efectuado sobre el espectro emitido hace
que el receptor sea notablemente más complejo que en la versión
convencional. Este inconveniente acota el uso del sistema, no resultará
adecuada para emisiones a grandes masas de población, donde lo que se
prima es el abaratamiento del equipo del oyente.

 Banda Lateral Vestigial (BLV).

Buscando una solución intermedia, se desarrollo este sistema, en el cual se transmite la portadora y una
banda lateral completa. Para facilitar la demodulación y reducir los costes del receptor, la otra banda lateral se
elimina sólo parcialmente, manteniendo un “vestigio” de la zona próxima a la portadora de entre un 5 y un 10 % de
la original. Este sistema permitirá aumentar el número de canales por cada
banda, y presenta un rendimiento mejor que la AM estándar, aunque
manteniendo las cualidades de simplicidad de demodulación, por lo que
resultará adecuado para comunicaciones a gran escala.

Otra definición de Modulación de Amplitud (AM) (Fig. 4.2): La


frecuencia que se selecciona con el dial de un sintonizador, corresponde a
la frecuencia de portadora, que es como su nombre indica la que
transporta la señal de sonido entre las antenas. La modulación de amplitud
consiste en hacer variar la amplitud de esa portadora en función de la señal de BF de sonido como indica la Fig. 4.2.
La señal de baja frecuencia es la señal moduladora, y la que sale por la antena, también llamada radio frecuencia
(RF) es la señal modulada. (Onda Media de 560 KHz a 1600 KHz).

MODULACIÓN EN FRECUENCIA
Podremos encontrar sistemas de modulación en los que la
frecuencia de la señal portadora se vea modificada por los cambios de
amplitud que sufre la moduladora. En este tipo de modulación,
representado en la Fig. 4.9, se observa como la señal modulada tiene
una frecuencia de reposo que coincide con la de la portadora. Esta
frecuencia aparece cuando no se transmite sonido alguno, por lo que no
se altera la señal portadora en ese instante. A medida que la señal
moduladora va cambiando de voltaje, la portadora va modificando su
frecuencia, apareciendo ahora una frecuencia máxima y otra mínima,
proporcionales a las amplitudes extremas de la señal de sonido que sirve
para modular. A diferencia de la modulación de amplitud, la señal de FM
resulta más difícil de visualizar en el dominio del tiempo.

Para visualizar correctamente una señal modulada en


frecuencia, será necesario el analizador de espectro, podemos observar
que ahora no aparecen únicamente dos bandas laterales, sino que, en su
lugar, se muestra un paquete compacto de información, resultante del
desplazamiento de frecuencias al que se ve sometida la señal portadora
original a medida que va cambiando la amplitud de la onda moduladora.
Los extremos de este paquete están determinados por el voltaje máximo
y mínimo de la señal de sonido aplicada al modulador.

Para cuantificar la modulación efectuada se usa el concepto de


desviación de frecuencia, que nos informa de la cantidad de hercios que
ha desplazado la señal modulada. Dicha magnitud puede expresarse de
forma absoluta, o bien con los valores parciales de la desviación, por
encima y por debajo de la frecuencia de reposo.

La elección de la desviación de frecuencia depende del ancho de


banda máximo de la señal moduladora que se desee transmitir, siendo
necesaria desviaciones más grandes cuanto mayor sea la calidad del
sonido que se emitirá. Asimismo, en una modulación de frecuencia se
establece el índice de modulación como la relación que existe entre la
desviación máxima de la onda portadora y la frecuencia máxima de la
señal moduladora.
Ejemplo 3:
Los canales de radio comercial de modulación de frecuencia se sirven de una desviación de 150 kHz, expresada
frecuentemente como ± 75 kHz por tratarse de una desviación simétrica respecto a la frecuencia de reposo. Con ella, se consigue
transmitir un ancho de banda de hasta 15 kHz. En tal caso, el índice de modulación será de:

Mod = =5

Otra definición de Modulación de Frecuencia (FM) (Fig. 4.9): La información de la señal sonora, o de baja frecuencia, va
modulada sobre una frecuencia de portadora, dentro de la banda de frecuencias asignadas a la FM (de 87,5 a 108 MHz). En la
fig. se muestra como la señal hace variar la frecuencia de la portadora, de tal modo, que ha mayor amplitud de la señal
moduladora, aumenta la frecuencia, y a medida que disminuye la amplitud, va disminuyendo proporcionalmente la frecuencia
portadora, quedando la señal modulada de la Fig. 4.9.

MODULACIÓN DE FASE
El tercer parámetro de una onda analógica es el de fase, en este sistema, las variaciones de amplitud de la
onda moduladora provocarán desplazamientos en la fase de la portadora, desviándose de la que tendría en su
posición de reposo. Dicho método tiene importantes problemas si queremos transmitir una onda como la de sonido,
en la que se calculan infinitos valores posibles de la señal moduladora, produciéndose también infinitas variaciones
de la fase en la salida del modulador. El problema radica en la dificultad de detectar variaciones de pequeñas
dimensiones en la fase de la señal, lo que limita la aplicación de este tipo de modulación a la emisión de mensajes
digitales, donde cambios bruscos en la amplitud de la moduladora provocarán desplazamientos de fase muy
evidentes y cuyo valor se conoce con anticipación. Cuando la modulación conlleva moduladoras digitales, recibe el
nombre de PSK (Phase Shift Key), pudiendo encontrar sus versiones analógicas en las modulaciones de amplitud ASK
(Amplitude Shift Key) y fase FSK (Frecuence Shift Key).

Figura 4.12. Modulación de fase.

Si aplicamos una señal binaria como mensaje a transmitir, similar a la de la Fig. 4.12, y elegimos una señal
senoidal como portadora, obtendremos que durante el período t0 - t1, cuando la señal moduladora vale 0, la fase de
la señal modulada coincide con la portadora, al no aplicar cambio alguno. En el momento t 1 el mensaje cambia de
estado y provoca la inversión de fase de la señal modulada, manteniéndose esta situación hasta t2, cuando la
moduladora vuelve a ser de nivel bajo. Entonces, la señal modulada estaba llegando al mínimo de su recorrido, por
lo que instantáneamente se desplaza al punto máximo, al producirse un desfase de 180°. El siguiente cambio se
produce en t3, en el instante en que la señal portadora se encontraba, precisamente, en un paso por cero. Al tener
que invertir la fase, la señal que debería continuar ascendiendo cambia de tendencia, iniciándose un descenso en su
recorrido.
En este ejemplo se ha ejercido una modulación simple, ya que la señal digital únicamente posee dos niveles
de tensión, por lo que producirán solamente dos posibles fases (0 y 180°) de la señal modulada. La señal así
generada es fácilmente demodulable.

Ejemplo 4:
Una versión muy extendida de modulación en fase es la QPSK (Quadrature Phase Shift Key), que hace uso de cuatro
fases posibles para la señal portadora, las cuales coinciden con los ejes de coordenadas. La transmisión se efectúa tomando los
bits de información por parejas, y asignándose las fases según la siguiente tabla:

En los sistemas descritos hasta ahora, la señal modulada se forma utilizando una señal portadora, que define
la frecuencia central del canal de radiofrecuencia, y una moduladora, que provocará la aparición de bandas laterales
a los lados de la frecuencia central de ese canal. Existe otra filosofía a la hora de propagar una señal radioeléctrica.
Se le conoce como COFDM (Coded Orthogonal Frecuency División Multiplex).

Se trata de un método de ocupación eficiente del canal de transmisión, en el cual la señal de audio digital se
divide en pequeños grupos, modulándose cada grupo por separado con portadoras de frecuencia diferente, muy
próximas entre sí. Esto supone que el canal de radio se divide en cientos o miles de pequeños subcanales que
transmiten de forma cíclica la señal asignada a cada uno de ellos. Si observamos por separado cada una de las
portadoras, notaremos que su velocidad de transmisión es muy baja, con largos periodos de tiempo entre cada señal
transmitida. Esta característica permite difundir las señales de radio digital incluso en entornos urbanos.

Ejemplo 5:
En lugar de utilizar una transmisión digital de alta velocidad, el COFDM utiliza muchas transmisiones coordinadas entre
sí, de forma que cada una de ellas tenga un bajo número de símbolos de transmisión por segundo. Esto supone que la anchura de
canal de cada una de estas transmisiones también será muy pequeño. Además, la elección de la frecuencia de estas portadoras
es tal que sus armónicos no se interfieren al estar situadas ortogonalmente. El sistema COFDM puede trabajar con varios
sistemas de modulación, siendo el más frecuente para transmisiones de radio digital el QPSK. Este método de modulación separa
los bits por parejas, por lo que a cada una de las parejas les asignará una fase y una frecuencia de portadora diferente. Una vez
terminadas todas las asignaciones de frecuencias de portadora, el sistema iniciará un nuevo ciclo de transmisión en la primera de
las portadoras.

TRANSMISIÓN ESTEREOFÓNICA
Surgieron dos condicionantes a la implantación del nuevo sistema:
I. Compatibilidad. El formato elegido para la transmisión debería permitir a los usuarios con
receptores monofónicos seguir recibiendo el programa de audio íntegro, manteniéndose, por tanto,
la estructura de la transmisión primitiva.

II. Retrocompatibilidad. El sistema de transmisión estéreo habría de posibilitar también la transmisión


de sonidos monoaurales, lográndose así una transmisión de calidad y exenta de perturbaciones.

A partir de estas premisas fundamentales, se decidió crear un sistema con estos elementos:

 Señal suma (I + D). Un programa base, igual al existente hasta entonces, que contendría la información total del
programa estéreo. Este paquete de información será el que demodularán los receptores mono y se extenderá
hasta una frecuencia de 15 kHz.

 Señal diferencia (I – D). Apoyándonos en la transmisión de la señal suma, podemos agregarle un paquete
adicional que, nos permita separa en el receptor las señales del canal estéreo. La solución es transmitir la señal
diferencia entre los dos canales, ya que su cantidad de información es muy reducida y se anula en el caso de
transmisiones monoaurales. Como las señales suma y diferencia tienen el mismo espectro de frecuencias
original, se desplazará la frecuencia del paquete adicional por un sistema de modulación auxiliar. Para evitar
interferencias con la modulación principal, se seleccionará para esta señal una modulación DBL, con portadora
de 38 kHz, y se extenderá desde 23 a 53 kHz al procesar un ancho de banda de la señal de sonido de hasta 15
kHz.

 Tono piloto. Para informar a los receptores de


la presencia de una transmisión estereofónica
y activar los circuitos de demodulación y
matrizado, se incorpora una señal senoidal de
19 kHz, que servirá, además, como referencia
para la regeneración de la subportadora
eliminada en la modulación de doble banda
lateral.

A este conjunto de informaciones se le conoce


como señal múltiplex (MPX), puesto que sirve del
principio de multiplexado en frecuencia para transmitir la señal diferencia de canales, y además conforma la
estructura de un canal de transmisión estereofónico.

Muchas emisoras incorporan también información de texto complementaria. Este servicio denominado RDS
(Radio Data System), proporciona información del nombre de la emisora, el tipo de programación que emite y presta
servicios de seguimiento de la emisora, con cambios de sintonía automáticos para los receptores móviles, o la
conmutación automática en la recepción de noticias de tráfico, entre otros. Todo ello se consigue a través de la
trama de datos digitales que la emisora envía cíclicamente modulados en PSK, con una frecuencia de portadora de
57 kHz. Mediante la inclusión de la información RDS, se completa el conjunto de señales que forman el programa
base a transmitir.

CODIFICADOR ESTÉREO
Las señales de los canales izquierdo y derecho se aplican a un equipo de proceso específico, que codificará
ambas señales, generando el canal múltiplex, y en su caso, insertará los datos correspondientes al programa RDS. La
estructura del codificador es el de la Fig. 4.15, donde se pueden distinguir estos bloques:
 Procesado en frecuencia. Durante la transmisión de señales vía radio se incorporarán ruidos no deseados que
perturban la calidad de recepción. Estos ruidos afectan especialmente a las señales de mayor frecuencia, para
evitarlos, se incorporará un filtro de preénfasis,
que con su configuración de filtro paso alto,
aumentará el nivel de las frecuencias altas,
mejorando con ello la relación señal/ruido del
sistema de transmisión. Como en otras
ocasiones, la característica del filtro se define a
través de su constante de tiempo, estandarizada
en Europa en 50 μs. En este bloque,
observaremos también un filtro paso bajo,
encargado de delimitar el margen de frecuencias
que serán emitidas y cuya frecuencia de corte
será de 15 kHz.

 Proceso de señal principal. Las señales de los


canales izquierdo y derecho conforman el
programa principal que se emitirá, para lo cual se
conducen hasta un sumador, de donde se
obtendrá la señal I + D. A este sumador llegaran
otras señales, puesto que es el elemento
integrador de todos los procesos.

 Proceso de señal diferencia. Para la generación del programa auxiliar será necesario, en primer lugar, extraer la
señal diferencia entre los dos canales de entrada, para lo cual servirá el circuito restador. Esta señal diferencia
sigue estando en la banda original, por lo que es preciso elevar su frecuencia a través del proceso de modulación
DBL. El modulador necesita una señal portadora, de lo que se encargará el oscilador de subportadora. A partir
de estas dos señales, el modulador suministrará las dos bandas laterales propias de una modulación en
amplitud, mientras que la subportadora de 38 kHz habrá sido eliminada por el propio bloque.

 Frecuencia piloto. La señal del oscilador servirá también para generar el tono piloto de identificación de
transmisión estereofónica. Bastará con utilizar un divisor que entregue un ciclo de salida por cada dos que se
apliquen a su entrada. Si este bloque se implementa con dispositivos digitales, debe filtrase la salida para
seleccionar únicamente la señal fundamental, obteniendo de esta forma, una señal senoidal al haberse
eliminado los armónicos propios de una onda cuadrada.

 Modulador RDS. Si la emisora emite el servicio de radiotexto, se requerirá un modulador PSK que convierta la
trama digital generada en un ordenador externo en una señal senoidal de 57 kHz, con cambios de fase
proporcionales a la información digital que se emitirá.

Todas las señales de salida de estos procesos se sumarán, para obtener una única línea donde aparezca el
programa de audio que se va a aplicar a los circuitos de emisión.

EMISOR DE RADIO
El primer elemento que encontramos en el equipo emisor es el codificador estéreo, que formará la señal de
audio multiplexada en frecuencia para que pueda transmitirse como una única información y que pasará a
conformar la onda moduladora en el proceso de modulación. Esta señal moduladora presentará, un ancho de banda
de unos 60 kHz, correspondiente a la frecuencia superior de la señal de RDS modulada en fase.

La señal moduladora se conducirá hasta el modulador de frecuencia, que a su vez, recibirá la señal del
oscilador de portadora. En los sistemas de modulación de frecuencia, estos dos bloques suelen estar implementados
por un mismo elemento, pues la modulación se
realiza al aplica la señal moduladora sobre un
diodo de capacidad variable que controla la
frecuencia del oscilador de portadora, del cual
forma parte.

Una vez generada la señal modulada,


habrá que dotarla de la potencia suficiente para
ser emitida. De esto se encargan los bloques de
amplificación, divididos en varias etapas con el
objetivo de conseguir un incremento escalonado
de la amplitud de la señal de FM. Las primeras
etapas del amplificador reciben el nombre de
excitadores, puesto que su misión es proporcionar una señal de potencia suficiente para excitar al amplificador de
potencia, último eslabón de la cadena de amplificación.

Ejemplo 6:
El modulador de frecuencia es, en realidad, un oscilador L – C, en el cual se ha sustituido uno de los condensadores que
definen la frecuencia de oscilación por un diodo varicap. Cuando la señal moduladora aumenta su amplitud, la tensión del diod o
de capacidad variable también lo hace, por lo que su capacidad disminuye proporcionalmente. Esta disminución de la capacidad
conlleva el crecimiento de la frecuencia del oscilador, provocando las
variaciones propias de este tipo de modulación.

Durante los procesos de amplificación, se crean numerosos


armónicos de la señal principal, que no deberán ser emitidos por la
antena, al estar fuera de la banda de frecuencias asignada para
nuestro canal, supondrían una grave perturbación sobre otras
emisoras. Por esta razón, se hace imprescindible el uso de un filtro de
armónicos, que dejará pasar la señal principal con el ancho de banda
nominal del canal (150 kHz) y bloqueará las señales de frecuencias
distintas que pudieran haberse creado en el sistema de emisión. Una
vez limpia, la señal está preparada para ser conducida hasta la
antena, la cual se encargará de emitirla hacia los receptores.

Resulta especialmente importante cuidar la adaptación de


impedancias entre el amplificador de potencia, la antena y la línea de
transmisión que unirá estos dos elementos. En los sistemas de
radiofrecuencia, la impedancia característica está normalizada a 50 Ω,
por lo que los tres elementos mencionados deberán presentar dicho
valor para garantizar una correcta transferencia de energía. Al
coincidir en el mismo cable, la combinación de potencia directa y
reflejada crea una onda que permanece en el interior de la línea de
transmisión, que recibe el nombre de onda estacionaria.

Para evitar estas desadaptaciones, se debe ajustar la antena para que se produzca la resonancia
exactamente a la frecuencia entregada por el emisor, para lo cual se dispone de un elemento móvil en la misma. Con
el fin de evaluar el ajuste, se utiliza la Relación de Ondas Estacionarias (ROE). Este parámetro adimensional nos da
idea del grado de desadaptación del sistema, y puede variar entre la unidad (situación de adaptación perfecta) e
infinito, cuando toda la potencia emitida sea devuelta como onda reflejada. Una instalación bien ajustada presentará
una ROE típica, situada entre 1,1 y 1,5, como resultado de aplicar alguna de las expresiones siguientes:
ROE: relación de ondas estacionarias, en unidades adimensionales.

Vr: tensión eléctrica reflejada, en voltios. Pr: potencia reflejada, en vatios.

Vd: tensión eléctrica directa, en voltios. Pd: potencia directa, en vatios.

Como elemento de protección, los sistemas de emisión incorporan un acoplador direccional, que evalúa la
potencia directa, la reflejada y la relación de onda estacionaria producida en el emplazamiento del emisor. Además
de informar sobre los resultados de las mediciones, el nivel de ROE se usa para regular la ganancia del excitador. El
estudio del sistema emisor finaliza con el sintetizador, encargado de controlar la frecuencia del oscilador de emisión,
y por lo tanto, la frecuencia de emisión del equipo.

Ejemplo 7:
Supongamos que el oscilador controlado por tensión está generando una señal de 100 MHz y que el oscilador de cuarzo
trabaja a una frecuencia de 6 MHz. Para seleccionar un determinado canal de transmisión, introducimos un factor igual a 16 en
el divisor programable. La señal del VCO que llegará hasta el comparador de fase será:

Fmuestra = = = 6,25 MHz

Al compararse con la referencia de 6 MHz, se producirá un descenso de la duración de los pulsos de salida del
comparador, que, una vez filtrados, se traducirán en una disminución de la tensión de sintonía. Y decreciendo la tensión aplicada
al varicap, el oscilador generará ahora una señal de frecuencia menor, volviéndose a comparar una vez dividida. El sistema entra
así en un bucle de regulación, que se estabilizará cuando la frecuencia del VCO, una vez dividida, sea exactamente igual a los 6
MHz elegidos como referencia. Esto supone que, con el factor de división seleccionado, se conseguirá una frecuencia de:

FVCO = Fref · Factor de división = 6 MHz · 16 = 96 MHz

Para variar la frecuencia del oscilador, el usuario sólo tendrá que cambiar el factor del divisor programable
estableciendo una combinación de conmutadores, o bien mediante un microprocesador, que tiene almacenados los códigos de
los posibles canales que se pueden sintonizar.

SISTEMAS DE RADIO DIGITAL


En la actualidad se ha llegado a una situación de saturación del espectro radioeléctrico que dificulta el
aumento de emisiones, y un sistema que técnicamente no permite más ampliaciones de un sistema de prestaciones.
Ante este hecho, la industria ha reaccionado desarrollando nuevos sistemas, en este momento, la tecnología
permite avanzar un paso más, ofreciendo un mayor número de servicios y una mejor señal de audio. Existen varios
sistemas independientes pugnando por convertirse en el estándar mayoritariamente aceptado por el gran público. A
continuación estudiaremos tres de estos sistemas.

 El sistema DAB.

De modo paralelo al desarrollo de un sistema de televisión digital, en Europa se planteó la necesidad de crear un
nuevo estándar de transmisión de radio, cuyo nivel de calidad fuese muy superior al actual. Así se creó el sistema
DAB (Digital Audio Broadcasting) que rompe con los métodos de radiodifusión tradicionales, con los que no es
compatible, y sitúa su banda de trabajo en una zona más alta del espectro, entre 195 y 223 MHz, aunque la norma
define modos de transmisión que pueden llegar hasta los 3 GHz para comunicaciones vía satélite.
Otro cambio fundamental lo encontramos en la organización de los datos transmitidos, que ahora se estructuran
en una trama digital. Dicha trama es configurable según los deseos del radiodifusor, de forma que se puede
transmitir un programa de audio multicanal 5.1 con ancho de banda de hasta 20 kHz, o bien varios programas de
radio estereofónicos simultáneos con información independiente. Tras la digitalización, la información de sonido
pasará por un proceso de compresión digital, que reducirá la cantidad de información efectiva que será transmitida.
El método de compresión adoptado por el sistema es el popular MUSICAM (MPEG capa I), que divide la banda
audible en 32 subbandas, aplicando sobre cada una de ellas los algoritmos necesarios para detectar aquellas partes
del sonido original que el usuario no será capaz de percibir, eliminando la información correspondiente.

También se incluyen otros servicios, como los de identificación de emisora hasta información complementaria
sobre el tiempo, tráfico o noticias de última hora. Toda esta información se complementa con una cabecera de
trama, que servirá para identificar los datos que contiene y configurar el receptor para interpretarlos correctamente.
Así se crea un nuevo concepto: el canal múltiplex que transporta varios servicios sin que existan diferentes modos
de modulación para cada uno de ellos.

Para efectuar la transmisión, el DAB recurre al sistema de modulación QPSK, combinado con el principio de
transmisión por portadora múltiple COFDM. El sistema usa un canal de transmisión de 1,5 MHz de anchura,
transportando en su interior 1.536 portadoras separadas entre sí 1 kHz, por lo que la señal radiada tendrá un alto
nivel de fiabilidad.

Este sistemas es incompatible con las emisiones analógicas existentes, al utilizar frecuencias y métodos de
modulación distintos, y su complejidad técnica se traduce en receptores caros para el usuario. Éstos han sido
factores que han dificultado su implantación, a lo que se ha añadido la aparición de otros sistemas de radio digital en
pugna con hacerse con el mercado.

 Sistema IBOC.

De forma paralela al desarrollo del sistema DAB en Europa, en Estados Unidos se plantean la creación de un
nuevo estándar de radio digital con una premisa fundamental: el nuevo sistema de radio deberá ser compatible con
el analógico y coexistir con él. La compañía Ibiquity plantea una solución técnica cuyo nombre define su principal
característica (IBOC; In Band On Channel), al tratarse de un sistema que utiliza las mismas bandas de trabajo que las
emisiones de AM y FM comerciales analógicas, y sitúa su señal a los lados o sobre la propia señal analógica,
complementándola sin perturbarla.
El sistema IBOC limita su nivel de prestaciones a la transmisión de un único canal estereofónico con calidad
mejorada, ya que el espectro utilizado en su señal es muy limitado. Ése es el principal problema que plantea; al
utilizar los mismos canales de las emisoras analógicas, sólo le quedan pequeños márgenes de frecuencia a los lados
de estas señales para colocar sus transmisiones, lo que restringe enormemente su capacidad de transmisión. A
medida que las emisoras de radio migren al sistema únicamente digital, el canal se expanda hasta ocupar el espectro
utilizado por la señal analógica.

Para reducir la cantidad de información a transmitir, el IBOC utiliza las mismas técnicas de compresión de audio
que su competidor, codificando únicamente los sonidos que el oído humano percibe según la situación. Así, las
muestras de audio se convierten en coeficientes de frecuencia que, con la elección del sistema de codificación
adecuado, ocuparán muchos menos bits que el sonido original. Con esta información, más los datos adicionales de
servicios complementarios y código de corrección de errores, se formará una trama digital que se modulará en
QPSK, al que se complementa con el eficaz método de portadora múltiple COFDM.

Las diferencias entre los sistemas se hacen más notables al plantear la distribución de las portadoras sobre el
canal de transmisión. Mientras que el DAB utiliza un canal exclusivo para su señal, distribuyendo todas sus
portadoras de manera uniforme, el IBOC busca los huecos de espectro que quedan entre los canales analógicos para
colocar a ambos lados de estas señales sus portadoras moduladas en fase. Para poder compatibilizar las
comunicaciones, el sistema IBOC divide su espectro en pequeños segmentos, donde coloca la información por orden
de prioridad. Así, el segmento primario contendrá la información principal, mientras que los segmentos secundario y
terciario contendrán informaciones complementarias que mejorarán las prestaciones del sistema. A su vez, estos
segmentos pueden dividirse, para alojarse adecuadamente en pequeños huecos que ofrecen los canales analógicos.
Este sistema utiliza dos modos de transmisión distintos:

 Transmisión híbrida: en principio, las transmisiones digitales coexistirán con las analógicas. En este caso,
debemos garantizar que no interfieran. Ante esta situación, el sistema ubica sus segmentos primarios en los
extremos de los canales analógicos, donde podrán existir portadoras con suficiente nivel de potencia para
garantizar una transmisión efectiva sin perjudicar al
canal analógico. En el caso de la banda de FM
comercial, para el canal analógico se reservarán 100 o
200 kHz a cada lado de la frecuencia central. A partir
de estas frecuencias se ubicarán las portadoras
digitales a ambos lados de las analógicas, hasta llegar
a frecuencias de 200 kHz por encima y por debajo de
la central. Esto supone que las portadoras digitales
ocuparán dos áreas de unos 70 kHz cada una, donde
se ubica el segmento de información primario. De
esta forma, el canal de radio se amplía hasta los 400
kHz, por lo que el sistema será viable sólo si se
respetan estos márgenes de frecuencia. Si la
transmisión se realiza en la banda de AM comercial, el
problema es aún mayor porque los canales son
mucho más estrechos. La solución consiste en ampliar
el canal de radio, que en su versión analógica
ocupaba 9 kHz ampliándose ahora hasta los 30 kHz.
Dentro de este ancho de banda de canal debemos
considerar que la parte más cercana a la portadora la
ocuparán las transmisiones analógicas, por lo que la
capacidad de situar en esta zona las portadoras
digitales estará limitada. De hecho, el sistema IBOC coloca en el área reservada para el audio analógico el
segmento de información terciario de su sistema, contenido en portadoras de baja potencia para no perjudicar a
la señal analógica. Como el canal de AM analógico termina como máximo en ± 5 kHz a los lados de la portadora,
es a partir de estas frecuencias donde encontraremos el segmento secundario del canal digital, dividido en dos
secciones a ambos lados de las bandas laterales de la modulación analógica. Con mayor amplitud que el anterior,
se extenderá hasta ± 10 kHz. Por último, en los extremos del canal, donde las interferencias sobre la información
analógica son menores, encontraremos también las portadoras que contienen la información principal del canal
digital. El segmento primario, también formado por dos secciones, se ubica entre 10 y 15 kHz por encima y por
debajo de la portadora analógica, con mayor potencia que los anteriores para garantizar una recepción correcta.

 Transmisión sólo digital: tras una fase de


coexistencia de las transmisiones analógicas y
digital, el sistema prevé que la banda quede
ocupada sólo por canales digitales. Ante esta
situación, el reparto de espectro será distinto,
pudiendo ocupar toda la anchura del canal para
transmitir las portadoras COFDM. En el caso de la
banda de FM, se mantiene la posición del segmento
primario, mientras que en la zona central del canal
se coloca un gran segmento secundario, que
ampliará el servicio básico contenido en el segmento
primario. En cuanto a la banda de AM, la situación
cambia si sólo se transmiten señales de audio digital.
En esta situación, el segmento primario se sitúa en la
zona central del canal, ocupando una anchura de 10
kHz, en sustitución de las bandas laterales del canal
analógico. El segmento secundario se encontrará en
la zona de frecuencia inmediatamente superior al
primario, y el segmento terciario estará en valores
de frecuencia más bajos. De esta forma, las
portadoras digitales se extenderán hasta llegar a
formar un canal de unos 20 kHz de anchura.

Ejemplo 8:
Al extenderse la zona del espectro disponible para las portadoras digitales; se posibilita el aumento de servicios
transportados por el canal de radio digital. Así, en el segmento secundario de una transmisión en la banda de FM comercial, se
podrán transmitir canales de audio complementarios a los principales, como información de efectos de sonido o programas
multilenguaje, por ejemplo.

 Sistema DRM.

Las bandas bajas de frecuencia permiten un mayor alcance en las transmisiones, y esta característica hace que su
uso resulte interesante para determinadas aplicaciones. Por ello, desde Europa se plantea la alternativa al IBOC –
AM para efectuar transmisiones de audio para las bandas de frecuencia baja. Así, este sistema permite
establecer comunicaciones de radio digital de larga distancia, utilizando las bandas de onda larga, onda media y
onda corta, con frecuencias comprendidas entre 150 kHz y 30 MHz. El objetivo de este tipo de transmisiones es
garantizar una transmisión de largo alcance efectiva y sin cortes con un nivel de calidad de audio correcto.
Además de esto, el sistema DRM (Digital Radio Mondiale) permite enviar datos y pequeños textos como
servicios complementarios en su canal múltiplex. Así, a través de canales excepcionalmente estrechos (de 9 a 18
kHz) transmite un canal monofónico con calidad similar al de la radio analógica en FM, con un bit rate de 24
kbps. Esto es posible gracias a sus algoritmos de compresión digital de sonido, heredados del sistema MPEG-4,
con una gran eficiencia de trabajo. Se trata de un sistema no propietario, es decir, que no existe organismo al
cual se deba pagar por su uso. Ésta es una de las claves para conseguir su objetivo: crear un sistema de radio
universal para las bandas de frecuencia inferior a 30 MHz.

Ejemplo 9:
En la actualidad, el sistema DRM cuenta con más de 80 radiodifusores de todo el mundo agrupados en un consorcio.
Entre sus valedores se encuentran operadores tan importantes como la BBC, y también Radio Nacional de España ha
manifestado su interés en adoptar este sistema en su servicio de radio exterior.

RECEPTOR DE RADIO
El receptor de radio más frecuente en la actualidad dispone de
una estructura denominada receptor superheterodino; ésta se basa en
la transformación de frecuencia de cualquier emisora de la banda de
radio hasta una de valor fijo, conocida como frecuencia intermedia,
definida por el propio receptor y que será la que se llevará hasta el
demodulador. La utilización de este tipo de receptores aportará una
elevada selectividad: así, al trasladar cualquier emisora hasta la
frecuencia intermedia, podemos colocar un sistema de filtrado muy
efectivo, sintonizándolo sobre una frecuencia única y evitando el uso
de filtros de frecuencia variable, cuyo ancho de banda cambia con la
frecuencia de resonancia.

En la Fig. 4.25 aparece el diagrama típico de un receptor de


radio con capacidad para demodular señales de AM y FM. A primera
vista se observan las grandes similitudes de los dos procesos, que
difieren fundamentalmente en las frecuencias de trabajo y la
naturaleza de los demoduladores.

Los campos electromagnéticos de todas las emisoras de la


banda serán captados por la antena, que los transformará en señales
eléctricas. Debido a la baja selectividad de la antena, en la entrada del
receptor aparecerán también señales pertenecientes a otras bandas, e incluso ruidos y ondas no deseadas. Por ello
se requiere como primer elemento un amplificador de radiofrecuencia. Este circuito lleva asociado un filtro paso
banda, por lo que se encargará de discriminar las ondas llegadas hasta él que no pertenezcan a la banda de
frecuencias en las que trabaja el receptor. Simultáneamente, las señales de las emisoras de su banda de trabajo
serán amplificadas, con el objetivo de dotarlas de la amplitud suficiente
para pasar a los procesos posteriores. En algunos casos, la etapa inicial
se constituye únicamente con el circuito resonante de entrada,
trasladando las funciones amplificadoras al siguiente bloque, como se
observa en el diagrama del receptor de AM.

En la salida del primer bloque tendremos, las señales de todas


las emisoras de la banda. Sin embargo, se seleccionará una de ellas,
determinando cuál será la que continúe el proceso hasta la
demodulación.

Este sistema se fundamenta en el proceso de heterodinación de


frecuencias, para lo cual se necesita un mezclador, que recibirá además
la señal procedente de un oscilador local, el cual será el que
determinará la frecuencia exacta que demodulará el receptor. El
mezclador funciona basándose en la zona no lineal de un diodo o un
transistor, lo que hace que en la mezcla se produzca una gran
diversidad de armónicos, dando nombre así al sistema heterodino.
Entre los productos de la modulación obtenidos en la salida del
mezclador, podemos resaltar los siguientes:

I. Las señales originales de radiofrecuencia (RF) y del


oscilador local (OL).

II. La señal suma de las dos (OL + RF).

III. La señal resta de las dos (OL – RF).

IV. Otros armónicos múltiplos de las señales suma y resta, aunque con menor nivel.

Hemos de tener en cuenta que la señal de RF es, un numeroso grupo de señales de frecuencia diferente,
correspondientes a todas las emisoras de la banda de recepción. De todas
las señales que podemos encontrar en este punto, solamente
permitiremos el paso de una de ellas, debiendo bloquear al resto con la
mayor efectividad que nos sea posible. De esto se encargará la etapa de
frecuencia intermedia, formada por varias fases de amplificación
sintonizada con filtros paso banda. Estos filtros, creados con circuitos L-C
o con resonadores cerámicos, consiguen acotar con una alta selectividad
el margen de frecuencias que los podrán atravesar. Las características de
estos filtros difieren para los sistemas existentes, acomodándose a las
particularidades de cada tipo de modulación.

La señal seleccionada será aquella cuya diferencia entre las frecuencias del oscilador local y de la emisora de
radio en antena sea exactamente del valor de la frecuencia intermedia. Como el filtro tiene el ancho de banda
correspondiente a un canal de transmisión, sólo se permitirá el paso de una de las emisoras de la banda. De esta
forma, la frecuencia del oscilador local es la que definirá cuál de las emisoras será demodulada.

FI = OL – RF → RF = OL – FI

Una vez seleccionada y amplificada la emisora que se desea recibir, procederemos con las labores propias de
la demodulación. En el caso de la señal de AM, bastará con un sencillo detector de envolvente; mientras que para las
señales moduladas en frecuencia utilizaremos frecuentemente un bucle enclavado en fase (PLL) funcionando como
demodulador. En este último caso, como la información está contenida en los cambios de frecuencia, las variaciones
de amplitud de la señal no serán tenidas en cuenta, por lo que se usará un circuito limitador para recortar los
extremos superior e inferior de la amplitud de la señal. Con esta operación se eliminarán también los posibles ruidos
incorporados a la señal durante la propagación a través del medio, lográndose así una señal demodulada limpia de
interferencias.

En la salida del demodulador obtendremos ya la señal de audio en banda base (AM) o la señal estéreo
múltiplex (FM), en cuyo caso procederemos a extraer sus componentes mediante el decodificador estéreo. A la
salida aparecerán los canales izquierdo y derecho, que finalizarán su camino al atravesar los filtros de deénfasis.
Estos filtros son los que complementan a los del transmisor, y rebajarán la amplitud de las señales de frecuencias
más altas, que fueron incrementadas artificialmente para evitar que el ruido les afectase.

El sistema se completa con circuitos auxiliares, como la fuente de alimentación (que proporcionará las
tensiones necesarias) o el sintetizador de frecuencias (que controlará, como lo hacía en la transmisión, la frecuencia
de los osciladores locales, y con ello la emisora seleccionada en cada momento).

Ejemplo 10:
Si en un receptor de radio de la banda de FM comercial deseamos sintonizar una emisora situada en 93,9 MHz,
deberemos ajustar el oscilador local a una frecuencia de:

OL = RF + FI = 93,9 + 10,7 = 104,6 MHz

MEDIDA DE SEÑALES DE RADIOFRECUENCIA


A lo largo de las unidades anteriores se ha considerado el osciloscopio como elemento de visualización por
excelencia. Existen además instrumentos específicos para el análisis y medida de señales de radiofrecuencia; entre
estos equipos podemos destacar los siguientes:

 Analizador de espectros.

Tras el análisis de la señal desde el dominio del tiempo en el osciloscopio, se impone cambiar este punto de
vista, visualizando la ganancia de las componentes de la señal en función de la frecuencia de cada una. Su utilidad
abarca desde la señal en banda base hasta su emisión,
una vez convertida en radiofrecuencia. Es el único
instrumento capaz de visualizar señales de UHF y
superiores. Para medir la señal presente en su única
entrada, cuya impedancia adaptaremos en función de la
línea a medir, tendremos en cuenta cuatro parámetros:

I. Frecuencia central. El margen de frecuencias


en el que puede trabajar es amplio, se
selecciona mediante este ajuste la frecuencia
que deseamos que aparezca en el centro de
la pantalla.

II. Factor de expansión. Define el margen de frecuencias, por encima y por debajo de la central, que se
mostrará en la imagen representada. En la práctica, es la escala del eje horizontal, y está calibrado en
hercios por división (Hz/div).
III. Nivel de referencia. Ahora se debe fijar la escala vertical, aunque puede modificarse, normalmente su
usa una escala estándar de 10 dB/div, y lo que en realidad se ajusta es el punto desde el que comienza la
visualización. La unidad se puede elegir, pero se prefiere mayoritariamente el dBm o el dBμV.

IV. Filtro de resolución. El ancho de banda seleccionado durante el proceso de medida determinará el
número de puntos que contendrá la señal representada. Cuanto más detallada sea la representación,
más tiempo se invertirá en su realización ralentizándose el refresco de la imagen.

 Medidores de potencia.

En los equipos de transmisión resulta muy importante conocer qué nivel de potencia estamos transmitiendo, así
como la cantidad reflejada debido a posibles desadaptaciones del sistema. Estas comprobaciones se efectúan
utilizando vatímetros direccionales, que una vez intercalados en la línea de transmisión que une al emisor con la
antena, nos permite conocer la potencia que viaja en cada sentido, así como la relación de onda estacionaria
resultante. Con estos instrumentos, podremos sintonizar adecuadamente la antena, para conseguir un correcto
ajuste del transmisor.

Ejemplo 11:
El proceso de configuración de un analizador de espectros se asemeja al que se efectúa para tomar una fotografía.
Inicialmente se orientará la cámara en la dirección deseada, tanto horizontalmente (frecuencia central) como en el eje vertic al
(nivel de referencia). A continuación, seleccionaremos el mejor encuadre con el zoom (factor de expansión) para que entre en la
imagen aquello que resulta de nuestro interés, desechando el resto. El último paso será ajustar el enfoque (filtro de resolución),
con el fin de obtener el grado de detalle adecuado a la fotografía que deseamos hacer.

CONECTORES Y LÍNEAS
Si intentamos usar líneas de audio para transportar señales de alta frecuencia, nos daremos cuenta de los
problemas añadidos que se plantean, entre los que podemos destacar:

a) Atenuación. Cuanto mayor sea la frecuencia que se propaga por el cable, más grande será la atenuación que
sufra, resultando inservibles las estructuras de línea de baja frecuencia.

b) Impedancia. En sistemas de radio es imprescindible mantener una adaptación de impedancias en todos los
elementos de la instalación, incluidas las líneas de transmisión.

c) Potencia. Cada tipo de cable, por su construcción física, soporta una corriente máxima concreta.

Esto nos obliga a extremar las precauciones a la hora de elegir el cable de la instalación. La línea de transmisión
por excelencia en sistemas de radio es el cable coaxial, que en aplicaciones de radio tendrá una impedancia
normalizada de 50 Ω. Se diferencia de la apantallada para audio en que mantiene una distancia constante entre sus
conductores., labor de la que se encarga el dieléctrico primario.
Del mismo modo que disponemos de líneas específicas, en el campo de la radiofrecuencia encontraremos una
serie de conectores exclusivos, que repasaremos a continuación:

I. Conector BNC. Es el conector de mayor difusión en señales de alta frecuencia. Conecta el conductor central a
través de una espiga, mientras que el cuerpo sirve de blindaje al unirse con la maya del cable. Podemos
encontrarlo en varias versiones que se acomodan a los diámetros de los cables en los que se conecta; e incluso
con diversas impedancias, puesto que también se utiliza para transportar señales de vídeo, con una impedancia
de 75 Ω.

II. Conector N. Es otro de los conectores destinado a las frecuencias


altas. Su forma interna es similar al BNC, si bien sustituye el cierre
de bayoneta por un sistema de rosca.

III. Conector F. Cuando aparecen problemas de espacio, se usan conectores de este tipo, más pequeños que los
anteriores aunque con características similares.

IV. Conector PL 259. En las emisoras de radioaficionados, frecuentemente observaremos este tipo de conectores. Se
trata de un elemento grande, robusto y barato, que como los dos anteriores, presenta un cierre de rosca sobre
la hembra, que se monta en el chasis de los equipos o en la base de
las antenas.

Ejemplo 12:
En la mayoría de las instalaciones donde resulta difícil usar soldadores,
se aplicar conectores que se engastan con una herramienta especial.
Independientemente del tipo de conector, todos poseen una espiga que se
“crimpa” sobre el conductor central del cable, una vez que se ha pelado
adecuadamente. Tras esta operación se inserta el cuerpo del conector, que
entra en contacto con la malla de la línea. El conector se cierra mediante un
casquillo (el cual debemos haber introducido previamente por el cable) que
presiona la malla contra el cuerpo del conector. La herramienta de engastar
dispone de varias bocas en forma de hexágono, para adaptarse a varios tipos
de cable. La Fig. 4.31 ilustra todo el proceso.
TEMA Nº 5 – S.T.I. – S-P.A. – 2020 - 2021
“LA EMISORA DE RADIO”
ESTRUCTURA BÁSICA
Una emisora de radio es una instalación que permite, a partir de diversas señales, componer un programa
sonoro único para su difusión por radiofrecuencia. Se dispone de varios espacios con funciones específicas,
correspondientes a cada una de las distintas fases que
sufren la generación de la señal que será emitida.

La estructura fundamental de una emisora de


radio se forma por dos grandes áreas (Fig. 5.1). La
primera parte de la instalación se denomina centro de
producción o estudio de radio. Éste se encarga de
generar el programa de audio, que después se
transfiere hasta un centro de emisión desde donde se
enviará hasta el público. Del centro de producción de
programas se diferencian las siguientes áreas
operativas:

 Unidades de producción. Formadas por un locutorio y un control de producción, lo que comúnmente se conoce
como “estudio”, y se encargan de elaborar el programa propiamente dicho. Para ello, mezclan distintas señales
sonoras y constituyen una única señal con todo ello. Esta composición tendrá como resultado un programa de
radio, un anuncio publicitario o el identificativo sonoro de la emisora.

 Control central. Centraliza las señales generadas en cada uno de los estudios de producción de programas,
diciendo además su uso. Así, se podrá llevar hasta los sistemas de emisión, grabar con el propósito de archivar, o
incluso servirlas a otra emisora. Desde aquí también se realizan labores de continuidad en la emisión,
incorporando sobre la señal a transmitir identificativos de la emisora e, incluso, informaciones publicitarias.
Asimismo, gestiona las señales especiales del proceso de producción: conexiones telefónicas con el exterior y
enlaces privados vía radio con unidades móviles o reporteros desplazados fuera de las instalaciones, y las
comunicaciones con otras emisoras con las que se forma una cadena de difusión.

 Centro emisor. Dispone de los sistemas de emisión que llevarán el programa hasta el público, así como los
equipos de emisión y recepción de enlaces para las comunicaciones de servicio. Asociados a los equipos de
radiofrecuencia, aparecen los sistemas radiantes y las antenas receptoras, que situaremos sobre una torre de
comunicaciones incorporada en el propio centro.

 Recursos externos. Las emisoras cuentan con recursos para poder realizar programas, o partes de ellos, en el
exterior. Estos elementos se comunicarán con la emisora mediante radioenlaces, por lo que su señal será
recibida en el centro de emisión y conducida hasta el control central.

LOCUTORIOS
En el locutorio se graban entrevistas, se comentan las noticias o tiene lugar actuaciones musicales que no
precisen grandes espacios para su ejecución. Desde el punto de vista técnico, el locutorio presenta una estructura
relativamente sencilla:

 Micrófonos.
Una parte fundamental de cualquier locutorio es el sistema de captación acústica. Son habituales los micrófonos
de respuesta adaptada a la voz humana, sustentados sobre pequeños soportes de sobremesa y dotados de espuma
antivientos, para evitar los golpes de presión propios de las consonantes oclusivas. También se pueden encontrar
micrófonos para instrumentos. Con el fin de facilitar la interconexión, normalmente existe una caja de conexiones de
micro, localizada frecuentemente en la propia mesa de los locutores. Desde esta caja parten las diferentes líneas de
transmisión, que trasladan las señales de audio directamente hasta las entradas al mezclador del control de
producción.

 Monitorización.

Con la finalidad de efectuar un correcto


seguimiento, los comentaristas e invitados tienen que
escuchar la señal que se está generando, para lo cual se
cuenta con el sistema de monitorización. El más
extendido es el formado mediante auriculares, que evita
la realimentación acústica propia de la asociación de
altavoces y micrófonos en una sala de reducidas
dimensiones. También es posible encontrar locutorios
dotados de un sistema mixto: durante los períodos de
publicidad, música, etc., se aplica monitorización
mediante altavoces, que se desconectan
automáticamente al activarse los micrófonos del
locutorio, quedando entonces en funcionamiento
únicamente los auriculares. La señal indicada para
desactivar los altavoces se denomina “en el aire”, como
reza la señal luminosa de aviso colocada en el exterior
del locutorio y que informa de que los micrófonos están abiertos, y no se debe abrir la puerta.

Ejemplo 1:
El método más difundido es el de dos líneas de audio, que se distribuyen para posibilitar una monitorización múltiple. De
esta forma, podremos dedicar una de estas líneas a que los invitados escuchen la señal de programa, mientras que, por la otra,
se envía, además de esta información, los comentarios e instrucciones específicas de la producción, procedentes de la cabina de
control, destinados al locutor del programa.

Como el número de auriculares que se utilizan puede ser elevado, la línea de monitorización ha de difundirse
adecuadamente, mediante los distribuidores de audio. Estos equipos tienen una entrada y entre dos y ocho salidas,
funcionando de modo que, frente a los destinatarios de la señal, resultan transparentes. Aunque en apariencia no
realizan proceso alguno, incorporan amplificadores que compensan las pérdidas propias del reparto de energía entre
las diferentes salidas, al tiempo que garantizan una perfecta adaptación de impedancias en sus conexiones.

Asociados al sistema de monitorización también están los amplificadores, que dotarán de potencia la señal
de audio para poder alimentar a los altavoces y auriculares. Para excitar los altavoces recurriremos a amplificadores
de potencia, que alojaremos en el armario de equipos de control de producción. El problema de la amplificación de
auriculares se puede resolver de varias formas: en ocasiones, el propio distribuidor de audio dispone de un
amplificador con control de nivel independiente para cada una de sus salidas. Otras veces se monta un pequeño
amplificador individual para cada uno de los auriculares, situado en la caja de conexiones de la mesa del locutorio o
en la parte inferior del tablero, donde se conectará cada uno de los auriculares y se controlará su nivel de volumen.

 Acondicionamiento acústico.
El equipamiento técnico de la sala de locución se complementa con un acondicionamiento acústico, necesario
para conseguir un sonido de calidad, los puntos de actuación más frecuentes son los siguientes:

1) Paramentos. El tratamiento de paredes y techos tendrá una finalidad doble: por un lado, impedir que los ruidos
del exterior lleguen hasta el locutorio y se introduzcan a través de los micrófonos. Además, habrá que evitar las
reverberaciones, reflexiones y ecos del sonido generados en el interior de la sala; se debe crear un ambiente en
el que únicamente existan ondas acústicas directas sobre los micrófonos. Para ello, se dota al locutorio de dobles
paredes, separadas por una cámara de aire en la que se colocan materiales absorbentes del sonido, las paredes
estarán revestidas de placas o láminas de materiales porosos que, combinados con relieves geométricos en su
superficie, neutralizarán cualquier sonido que llegue hasta ellas.

El suelo, también habrá de ser de materiales no reflexivos, una buena alternativa es la elección de suelo técnico,
formado por placas montadas en soportes elevados, que posibilitan además, la instalación de canalizaciones bajo el
suelo de acceso rápido.

2) Ventanas. Para evitar los sonidos que proceden del exterior se dispondrán dobles ventanas, con cristales de
grosor sobredimensionado y sustentados por juntas de goma.

Las ventanas serán abatibles y con sistemas de cierre hermético. La ventana que une el locutorio y el control de
producción presenta una elevada superficie reflexiva de las ondas sonoras. Con el fin de evitar este efecto, se coloca
un sistema de doble cristal fijo y ligeramente inclinado, de modo que el lado superior sale hacia el locutorio entre
cinco y diez grados. Esta inclinación hace que los sonidos que llegan hasta el cristal se reflejen hacia el suelo de la
habitación.

3) Puerta. Se recomiendan puertas con doble tablero, en cuyo interior se colocarán láminas de materiales
absorbentes del sonido. El perfil de la puerta de modifica, adoptando una forma cónica o escalonada, para que
se consiga un perfecto encaje sobre el marco, en el que limitará por sus cuatro lados. Si se quiere garantizar un
cierre solidario, serán necesarias bandas de goma en los costados del tablero y el marco.

 Acondicionamiento ambiental.

Ahora debemos conseguir unas adecuadas condiciones de trabajo en el interior del locutorio.

1) Iluminación. El sistema de iluminación debe permitir la lectura, por lo que su intensidad estará por encima de los
500 lux. Además, tendrá que evitar el cansancio ocular, debiendo cuidar, en este sentido, el tipo de luz y su
temperatura de color. Es fundamental que las luminarias se encuentren ancladas firmemente, evitando su
fijación sobre falsos techos que provocan zumbidos por vibración mecánica.

2) Aire acondicionado. Para evitar los ruidos que genera, se elegirá un sistema sobredimensionado que permita
trabajar a una baja velocidad del aire. Es aconsejable seleccionar una conducción específica para el locutorio, lo
que evita la propagación de ruidos externos a través de los conductores comunitarios.

EL CONTROL DE PRODUCCIÓN
Es el lugar donde se mezclan las informaciones y los sonidos auxiliares, conformándose así la señal de
programa. Dispone de una gran cantidad de medios técnicos, apoyados por otros recursos de la emisora. Las señales
de sonido procedentes de los micrófonos se aplican directamente sobre el mezclador de sonido, que es el elemento
central de esta instalación. Hasta él llegarán las señales sonoras procedentes de distintas fuentes, que conformarán
una única señal final de programa. Se emplean los siguientes elementos:

 Fuentes sonoras.

Encontramos en el control varios equipos reproductores, hasta las entradas del mezclador llevaremos las señales
procedentes de reproductores de discos compactos, magnetófonos de casete y bobina abierta, minidiscos y platos
giratorios. Se observará en el control de producción un micrófono, que podrá trasladar comentarios a los locutores a
través de las líneas de monitorización, y utilizarse también en el caso de que el programa se realice desde el propio
control.

 Líneas de grabación.

Para aquellos equipos que presenten la posibilidad de grabar, se establecerá una red de distribución de señales
de grabación, que incluirá la señal de programa, complementada con una línea adicional que se puede seleccionar a
través del propio mezclador.

 Sistemas informáticos.

Tendremos ordenadores con aplicaciones específicas como generadores de efectos de sonido, que se
incorporan al programa principal como una fuente más. Además, se pueden encargar de reproducir las cabeceras de
programas y han llegado a sustituir a los tradicionales magnetófonos de cartuchera en las labores de emisión de
publicidad. En los sistemas de mayor automatización, el ordenador puede llegar a constituir por sí mismo un centro
de control de producción, gestionando la parrilla de emisión a partir de archivos musicales o programas pregrabados
sobre disco duro, o controlando la ejecución de reproductores de discos compactos, a través de sus puertos de
comunicación.

Ejemplo 2:
En la actualidad, los anuncios se digitalizan, convirtiéndolos en archivos de sonido almacenados sobre un disco duro. La
escaleta de emisión se vuelca directamente en forma de lista de reproducción, de modo que el ordenador reproduce
automáticamente la secuencia de archivos deseada. Además, el sistema realiza de modo automático el informe de la emisión, así
como el documento previo de facturación para cada cliente.

 Señales externas.

La composición de un programa de radio requiere de sonidos generados en el exterior. Tal es el caso de los
informativos, donde se realizan conexiones con los centros de producción pertenecientes a una misma cadena de
emisoras, o se reciben informaciones desde unidades móviles situadas en el lugar de la noticia. Estas informaciones
llegan hasta el control de producción a través de líneas auxiliares, por las cuales el control central suministra las
señales que se precisan en cada momento. También se encuadran aquí las comunicaciones telefónicas, habituales
en muchos programas. Para incorporar esta fuente al mezclador, se aplican híbridos telefónicos, módulos que
toman el sonido de la línea de teléfono y lo adaptan para su procesado con el resto del programa. Paralelamente el
control de producción estará integrado en un sistema de intercomunicación con el resto de las áreas que forman la
emisora; es especialmente importante la conexión con el control central.

 Dispositivos de escucha.

Sirven al técnico que maneja el mezclador de sonido para realizar un adecuado seguimiento de las señales que
llegan hasta él y del resultado que se está generando, comprobando así el proceso de mezcla de las señales
empleadas en su constitución. En los controles de producción se usa la monitorización por altavoces. También
existen controles de producción pensados para realizar programas de mayor complejidad técnica. Por ejemplo, en
los estudios con frecuentes conexiones con recursos externos se suele utilizar un segundo mezclador sólo para
gestionar las líneas de comentaristas exteriores, en el que un operador se encarga de “filtrar” los múltiples
comentarios que se producen al mismo tiempo.

A menudo, en los controles de producción de programas musicales, hay un segundo mezclador. Este equipo
suele tener varias entradas de phono (con ecualización RIAA) para los giradiscos, y un control de fundido entre
entradas (denominado crossfade) que permite pasar de una entrada a otra sin interrupciones. También se conectará
a este mezclador el micrófono del locutor, que en este caso será la misma persona que gobierna todo el sistema.
Una vez realizadas las mezclas de música y voz, la señal de salida de este pequeño mezclador se llevará hasta una
entrada del mezclador principal desde donde se insertará la publicidad, los identificativos de emisora o el sonido de
otras fuentes, obteniendo así la señal de programa.

CONTROL CENTRAL
Desde aquí se encaminan las distintas señales generadas en los estudios de producción de la emisora y las
señales recibidas desde el exterior hacia los distintos destinos. Con el objeto de desempeñar estas funciones, se
dispone de los siguientes equipos:
 Patch panel.

Es el equipo de interconexiones por excelencia. Está compuesto por un conjunto de conectores de entrada y
salida, configurables por medio de latiguillos. En su parte trasera se
conectan las líneas fijas procedentes de todas las áreas de la emisora,
de modo que las señales que llegan hasta este equipo ocuparán la fila
superior de las conexiones. En la inferior, se enchufan las salidas, que
se enviarán a los destinos correspondientes. En el frente estarán
disponibles todas las señales, permitiendo la conexión de los equipos
de medida para la comprobación de calidad de las señales, o bien
para establecer la asignación de entradas y salidas según las
necesidades.

Cada módulo del panel de conexión está fabricado de forma que,


si no se realiza conexión alguna en sus enchufes frontales,
internamente se aplican cargas adaptadoras de línea, o bien se
conecta la señal de entrada con la salida situada bajo ella. De esta
forma, la conexión inicial del sistema permite realizar una asignación
por defecto de la instalación, que responderá a la configuración de
uso más frecuente. Cuando deseemos variar la conectividad, bastará
con insertar los conectores de un latiguillo en los orificios de entrada
y salida que deseemos unir. Al realizar la inserción, el módulo se
conmutará internamente para deshacer la conexión interior y cargará
con la impedancia característica las líneas que queden sin enlazar.
Debido a la necesidad de efectuar esta conmutación, los patches utilizan mayoritariamente conectores tipo jack, o
también una versión especial llamada Bantam.

Ejemplo 3:
El uso de paneles de conexión está tan difundido que, a menudo, lo encontramos en otros espacios de la emisora, como
en el control de producción. De este modo, se puede tener acceso, desde varios puntos, a las líneas de audio que se procesan,
utilizándose como registros intermedios que facilitarán la localización de problemas ante una anomalía en el sistema.

 Conmutadores electrónicos.

Se incluyen sistemas de conmutación de señales para aquellas aplicaciones en las que los cambios resultan más
frecuentes, podremos encontrar switches para seleccionar la fuente que se emitirá o qué información se
monitorizará en la propia sala de control. A diferencia del patch, estos selectores suelen disponer de varias entradas
y una sola salida de señal seleccionada. También es habitual encontrar un sistema de control central basado en
matrices de conmutación. Estos elementos tienen varias entradas y salidas, y la selección de las señales que
aparecerá en cada una de las salidas puede hacerse libremente de entre las que aparecen en las entradas. También
es posible enrutar una entrada a varias salidas. El control de los switches y matrices se puede realizar en modo local,
aunque lo más habitual es aplicar un sistema remoto desde la mesa de control.

En las instalaciones basadas en mezcladores digitales, se pueden establecer redes de datos digitales entre los
diferentes mezcladores de la emisora. En esta estructura, la matriz de control central será un elemento más de esta
red, realizándose las transferencias de audio digital entre los diferentes elementos a través de redes fast Ethernet o
mediante conexiones de fibra óptica.

 Fuentes de señal.

El control central dispone de recursos para emitir señales de audio, que suelen resultar útiles en labores de
continuidad.
I. Sistemas de emisión de publicidad. En determinadas circunstancias se emiten desde el control central los
anuncios publicitarios. Para esta función se dispondrá de cartucheras o un sistema informático similar al de
producción.

II. Fuente de señal de reserva. También se puede observar algún equipo reproductor desde el cual generar los
mensajes cortos propios de la emisión, como son los jingles: pequeñas sintonías identificativas de la emisora
que se gestionan también como marcas de control de tiempo. Es posible emitir desde este lugar música o
programas pregrabados, que cubrirán los periodos nocturnos con un número mínimo de empleados.

 Grabación de programa.

El magnetófono trabaja a baja velocidad y graba los programas emitidos con calidad media. Esto posibilita la
creación de un archivo de emisiones, muy útil, tanto para el trabajo de producción de programas posteriores, como
ante posibles reclamaciones judiciales.

 Sistema de intercomunicación.

Resulta imprescindible establecer una comunicación fluida entre el resto de los elementos de la emisora, lo que
nos obliga a instalar sistemas de interfonía con los controles de producción; debido a la función de enlace con los
medios externos, también son necesarios equipos de comunicación entre otros centros de producción y de emisión.

 Compresor.

La señal debe reducir su margen dinámico, posibilitándose la recepción con niveles de sonido tolerables, incluso
cuando en origen presentan grandes divergencias de amplitud.

 Monitorización técnica.

La supervisión de la calidad de la señal a emitir también es competencia de los técnicos del control central. Para
efectuar esta operación, se dispone de medidores de nivel de audio, asociados a las líneas de uso más frecuente
dentro del sistema. Entre estas líneas supervisadas deberá incluirse la señal de programa, que se enviará hasta los
equipos de emisión.

1.
 Codificadores telefónicos.

Dentro del control central podemos encontrar codificadores telefónicos con dos funciones específicas:

 Para recibir las señales de comentaristas externos, necesitaremos decodificadores que reciban las señales
RDSI y extraigan la información de sonido. Estas señales se servirán a los controles de producción
correspondientes a través de las líneas auxiliares.

 En algunos casos, la conexión entre el centro de producción de programas y el centro emisor se realiza a
través de línea telefónica. En tal caso, la señal de programa a emisión se llevará a un audiocodificador, que
la adaptará al medio telefónico para facilitar su transmisión.

SALA DE EMISIÓN Y ENLACES


Para iniciar la fase de distribución y emisión de la señal del programa generado dispondremos de una sala
específica, donde se ubicarán todos los sistemas de radiofrecuencia.

 Audiocodificador telefónico. Si la sala de emisión y enlaces no está en el mismo edificio que el centro de
producción, debemos interconectarlas mediante radioenlaces o enlaces telefónicos. En este último caso,
necesitaremos de un codificador similar al comentado en el apartado de control central. Este equipo establece
un enlace bidireccional de alta calidad, que permitirá recibir la señal de emisión al tiempo que se envía una señal
exterior o una línea de audio de servicio.

 Codificador estéreo. En las emisoras de modulación en frecuencia es necesario crear la señal múltiplex a partir
de los canales izquierdo y derecho, recibidos desde el control central.

 Generador de RDS. A la señal se le podrán aplicar los datos digitales de identificación de la emisora, para lo cual
se usará el codificador correspondiente.

 Equipos de emisión. Una vez creado el canal modulador completo, se aplicará al modulador que creará la señal
de radiofrecuencia. Esta señal se amplificará para adaptarla al sistema radiante, que la emitirá hasta el usuario
final. Si se desea un alto grado de fiabilidad del sistema, se pueden redundar los equipos de emisión y asociarlos
a una unidad de conmutación automática, que conectará el sistema radiante con el emisor de reserva al
detectarse un fallo del equipo principal.

 Radioenlaces. La emisora extiende su área de


implantación a través de radioenlaces, que la
comunican con otros centros emisores, creando
una red de difusión más amplia. Por ello se instalan
los sistemas de emisión y recepción de enlaces,
cuya cantidad dependerá de la estructura de dicha
red.

 Sistema de antenas. Para realizar la propagación


vía radio, se precisa de los sistemas radiantes
propios de los equipos de emisión, que difundirán
el programa de radio por su entorno
habitualmente de modo omnidireccional. Para los
radioenlaces se necesitan antenas muy directivas,
por tratarse de comunicaciones privadas que no
deben trascender hasta receptores ajenos a la
emisora.
Lo más habitual es que el centro emisor se encuentre como una instalación separada del bloque formado por los
estudios de producción de programas y el control central de la emisora. Resulta conveniente situar los equipos de
emisión en un lugar elevado respecto de su entorno, ya que las señales alcanzan casi exclusivamente los puntos que
son visibles desde el elemento emisor. La elevación del sistema radiante está limitada por los siguientes aspectos:

 Limitación legal. Existe un límite legal en la altura efectiva de la antena. Si ésta se coloca por encima de ese
límite, nos veremos obligados a rebajar el nivel de potencia radiada.

 Zona de sombras. En la zona más próxima al emisor, la densidad del campo electromagnético es muy baja, por
lo que se crea un área de sombra. Si la antena se coloca demasiado alta, esta zona de sombra puede extenderse
hasta llegar al núcleo urbano que se desea cubrir con el propio emisor, resultando inadecuada la ubicación
elegida. Si, por el contrario, se emplaza demasiado baja, cualquier edificio de cierta altura se convertirá en un
obstáculo infranqueable.

Ejemplo 4:
Para evitar los inconvenientes mencionados, se suele optar por instalar el centro emisor en una colina o montaña que
esté situada, al menos, a una distancia del casco urbano, o zona a cubrir, cinco veces superior a la diferencia de cotas de altura
entre la ubicación de la antena y el área a la que prestará el servicio (Fig. 5.9).

Al separar los centros de producción y de emisión, nos encontramos en la necesidad de establecer los
sistemas de comunicación que permitan el intercambio fluido de señales básicas para su funcionamiento. Esto se
logra estableciendo radioenlaces entre el centro de producción de la emisora y los equipos de emisión. En ellos, una
antena emite un haz concentrado de baja potencia y de frecuencia distinta a la empleada en la difusión posterior de
la señal, para evitar la interferencia con las señales procedentes de otras emisoras. También existe la posibilidad de
utilizar líneas RDSI para efectuar las comunicaciones internas entre estos centros.

En otros casos, las limitaciones en el presupuesto económico obligan a unificar los espacios, situándose los
sistemas de emisión y recepción de radiofrecuencia contiguos al propio control central.

Ejemplo 5:
Durante una emisión “en cadena”, desde los estudios centrales de la emisora, situados en Quintanar, se realiza el
programa en un conjunto de producción. Sin embargo, uno de los invitados se encuentra en los estudios de Toledo, por lo que se
activa un segundo conjunto de producción. Con el fin de comunicar los estudios entre sí, se establece una red de enlaces, a través
de múltiples centros reemisores. Los controles centrales de ambas emisoras servirán las señales de comunicación bidireccional a
los controles de producción correspondientes a través de líneas auxiliares. En los estudios de Quintanar se elabora la señal final
de programa, a partir del sonido de los dos locutorios, más las comunicaciones telefónicas y la música generada en el propio
control de producción. Esta señal se envía hacia el control central de la misma emisora, y desde allí, a través de un nuevo enlace
de radio, se transporta al centro emisor, que la distribuye en varias direcciones:

 Se envía al sistema de emisión, cubriendo así la zona de cobertura del propio centro emisor.

 También se aplica a la red de enlaces periféricos, para expandir la señal a otras emisoras de la misma. A través de ellas
llegará el programa a múltiples puntos que tendrán seleccionada esa fuente en sus conmutadores de señal a emitir.
Durante la conexión, se emitirá el sonido del estudio de Quintanar, así como la publicidad contratada para el conjunto de la
red de emisoras. Sin embargo, en un momento determinado, desde el
control de Quintanar un indicativo de desconexión. Esto se produce a
una hora predeterminada por todos los controles centrales de la
cadena, y abre la ventana de tiempo de duración también conocida. En
ese instante, todos los controles centrales cambian la selección de sus
switches, y durante ese periodo de tiempo, cada emisora complementa
el programa principal como considere:

 En algunas emisoras, durante la desconexión, se emite la señal de


programa de uno de sus estudios, desde donde se genera un
programa informático local de corta duración.

 En otros casos, desde el propio control central local se emiten


anuncios comerciales contratados exclusivamente para esa área
geográfica.

Terminada la ventana de desconexión, y sincronizada por una señal


de control interno, todos los controles centrales de la red vuelven a
conectar sus emisores con la red de enlaces, continuando la
programación en cadena. De esta forma, a todos los oyentes les habrá
llegado, sin que lo perciban, una información generada a cientos de
kilómetros, junto con otras informaciones locales.

CONFIGURACIÓN Y PUESTA EN SERVICIO


Cuando se pretende implantar una emisora de radio, se deben tener en cuenta aspectos técnicos como son
la cantidad, tamaño y recorrido de las canalizaciones por las que se instalarán las líneas. También se contempla la
ubicación de los armarios de equipos, y paralelamente, los sistemas de refrigeración. Estas cuestiones se añaden al
diseño del sistema, establecido según las necesidades y prestaciones definidas por el cliente, formando un proyecto
técnico de instalación.

A partir de los planos y esquemas de conexión se realizarán los trabajos de instalación, en los que se tendrán
que cuidar especialmente los siguientes aspectos:

 Trazado y conexión fiable. Se deben evitar malas soldaduras en los


conectores, eludiendo el tendido de líneas junto a redes eléctricas,
que resultan ser una notable fuente de ruidos sobre nuestras
señales.

 Conexiones ordenadas. Debido al alto número de líneas que se


disponen, es necesario cuidar la instalación para que no se
entrecrucen, lo que supondría dificultades en la posterior sustitución
ante posibles averías. En la conexión de los equipos se debe
mantener un orden escrupuloso, agrupando los cables según su
destino y creando mazos. Esto clarificará la instalación frente a
labores de mantenimiento futuras.

 Identificación de líneas. Para facilitar la identificación, se debe


rotular cada línea a medida que se monta, anotando su origen y
destino. En esta identificación se suelen emplear sistemas
alfanuméricos, que quedarán reflejados en la documentación de la
instalación.

Una vez concluida la instalación, procederemos a realizar la puesta en servicio:


 División del sistema. Como se trata de una instalación de gran tamaño, resulta muy adecuado dividirla en áreas
funcionales independientes. Así, podremos comprobar las especificaciones particulares de cada una de las zonas,
acotando rápidamente una de ellas ante un posible problema.

 Comprobación de equipos. Dentro de cada zona procederemos a alimentar los equipos de forma individual,
comprobando su correcto funcionamiento.

 Comprobación de líneas. Estableceremos configuraciones de comprobación de todas las líneas que forman el
sistema. Para ello haremos uso de las fuentes de sonido, dirigiéndolas hasta los diferentes destinos y evaluando
la calidad de la señal en este punto.

 Comprobación del sistema. Esta labor se realiza chequeando todas las opciones que debería tener la instalación.
En caso de no cumplirse alguna, habrá que volver sobre los puntos anteriores, definiendo el elemento causante.

Ejemplo 6:
En una instalación de radio típica, se establecería una división según hemos estudiado en la unidad, comprobando por
separado las prestaciones del locutorio, el control de producción, el control central y la sala de emisión. Dentro de cada una,
realizaremos, una vez revisados los equipos, rutas de comprobación de las líneas de micrófonos o de las distintas fuentes hasta el
mezclador. También evaluaremos las líneas de salida del programa, que llevamos hasta el control central, así como sus múltiples
líneas de entrada y salida para llegar al emisor de radio.
CURSO: 2020-2021
TEMA Nº 1 – S.T.I. - S.P.A. – 2020 - 2021
“LA IMAGEN ELECTRÓNICA Y PROCESADORES DE VIDEO”
LA SEÑAL DE VIDEO.
Para comprender la señal de vídeo, en primer lugar, van a introducirse conceptos básicos acerca de la luz y la percepción
del color por el ser humano:
• La luz: es una radiación electromagnética que se percibe como luminosidad o color por el ser humano. Este
tipo de ondas, como las ondas de radio o los rayos X, no precisa de ningún medio para su transmisión y su
velocidad de propagación es de aproximadamente 300 000 km/s.
• El espectro visible: es la región del espectro electromagnético que el ojo humano percibe como luz y se
corresponde con radiaciones electromagnéticas cuyas longitudes de onda se encuentran entre 380 y 780 nm.
• La longitud de onda: de la luz está relacionada con el color. Así, una onda electromagnética de unos 420 nm se
percibe como un color azul, mientras que las longitudes de onda más largas que puede percibir el ser humano
son las correspondientes al color rojo (unos 750 nm).
• El color: es el fenómeno que ocurre cuando la luz blanca (que contiene todos los colores) pierde parte de sus
frecuencias por absorción y refleja otras. Aquellas frecuencias o combinación de frecuencias que son reflejadas
se perciben como colores. Los fotorreceptores de la retina generan señales nerviosas distintas para diferentes
longitudes de onda y, a su vez, el cerebro interpreta las señales nerviosas como colores y luces.
• La percepción cinematográfica de la imagen: gracias a dos limitaciones del ojo humano (resolución espacial y
resolución temporal), dos puntos lo suficientemente pequeños y alejados se interpretan como un solo punto
cuyo color es la mezcla de ambos. Así mismo, dos imágenes diferentes proyectadas con la rapidez suficiente se
interpretan como una imagen continua en movimiento. En estas dos situaciones, los estímulos no se
interpretan por separado, sino como un único estímulo suma de los dos. Este efecto permite la reproducción
de imágenes en movimiento (vídeo).

EXPLORACIÓN DE LA IMAGEN DE VÍDEO.


La señal de vídeo, por definición, lleva una complejidad añadida con la que no cuenta la señal de audio: la
bidimensionalidad. Mientras que la señal de audio se representa como una fluctuación eléctrica en función del tiempo,
el vídeo, además de variar en el tiempo, varía en el espacio, ya que las imágenes de televisión forman un plano de
dimensiones concretas horizontales y verticales que debe descomponerse en líneas. Estas señales de vídeo llevan
añadidas otras señales con información muy precisa de sincronización.

El vídeo en color se fundamenta en la mezcla aditiva por la cual cualquier color que desee representarse se
obtiene como la suma de diferentes proporciones de solo tres colores primarios: rojo, verde y azul o red, green y blue
(RGB).

La imagen que se obtiene mediante las lentes de una cámara de vídeo sobre un sensor fotoeléctrico provoca que,
en cada punto del sensor, se obtenga una carga eléctrica equivalente a la luminosidad recibida en dichos puntos. La
lectura ordenada (barrido) de la carga acumulada en cada punto del sensor proporciona una señal eléctrica variable en
el tiempo que representa la información lumínica y de color de cada línea de la imagen de vídeo.

Barrido de la imagen.

La filosofía del barrido en la captura y reproducción de la imagen de vídeo es similar a la forma de leer un libro: la
lectura se realiza de forma ordenada de izquierda a derecha y de arriba abajo.
Las líneas que forman un cuadro (fotograma) de imagen de vídeo pueden descomponerse en dos campos: campo
par, formado por el conjunto de líneas pares (2, 4, 6, etc.) y campo impar, formado por el conjunto de líneas impares
(1, 3, 5, etcétera).

Exploración entrelazada.

Esta división se realiza, tradicionalmente, para poder mostrar imágenes con la fluidez suficiente de tal modo que
no provoquen sensación de parpadeo en el espectador al mostrarse alternativamente en pantalla los campos impar y
par de cada fotograma.
Así, un vídeo de 25 fotogramas por segundo resulta en una presentación de 50 campos por segundo. Este sistema
de captación y reproducción de la señal de vídeo se denomina entrelazado, frente a la representación completa cua-
dro a cuadro o progresiva.

El entrelazado es un método de exploración de vídeo antiguo que se ha mantenido hasta la actualidad para
proporcionar compatibilidad con sistemas anteriores. Ya no es necesario recurrir a este sistema para garantizar
imágenes de vídeo fluidas sin parpadeos, ya que, además, el entrelazado provoca algunos problemas en la calidad de
las imágenes cuando deben ser procesadas digitalmente.

La exploración progresiva ofrece una mayor calidad y se utiliza en monitores de ordenador y algunas televisiones
de alta definición. Tiene ventajas como una mayor definición de la imagen y mayor facilidad de conversión a otras
resoluciones.

ESTRUCTURA DE LA SEÑAL DE VÍDEO ANALÓGICA.


Las cámaras de vídeo separan la información de la imagen, como lo hace el ojo humano, en tres componentes
(RGB), pero, debido a las limitaciones iniciales de los equipos y la imposición de compatibilidad y retrocompatibilidad
con la televisión en blanco y negro, se estableció la necesidad de transmitir la señal de vídeo en dos partes: luminancia
+ crominancia.
Las señales de los colores primarios RGB captadas por el sensor de una cámara pueden representarse por su
componente de luminosidad o luminancia (Y) y sus diferencias de color entre el rojo y la luminancia (Pr) y el azul y la
luminancia (Pb) mediante la siguiente conversión:
Y= 0,30 R + 0,59 -G + 0,11 B
Diferencia de color (Pb) = B - Y (C B – Azul)
Diferencia de color (Pr) = R – Y (C R – Rojo)
Esta transformación facilita la transmisión, ya que un dispositivo que solo esté capacitado para reproducir la
imagen de vídeo en blanco y negro tan solo debe recibir la señal de luminancia, mientras que un monitor a color re-
cibirá las tres señales, a partir de las cuales podrá obtener de nuevo los componentes RGB necesarios para mostrar la
imagen a color.

Si desean enviarse las tres señales {Y, P b y Pr) juntas, estas no pueden ocupar el mismo espectro, así que
deciden modularse las señales de crominancia (P b y Pr) para elevarlas en frecuencia y minimizar la interferencia con la
señal de luminancia (Y).
Compatibilidad del vídeo a color y en blanco y negro.

Equivalencia entre valores RGB y los valores Y, Pb y Pr en una señal de barras de color.

La señal de luminancia y crominancia de cada línea de vídeo se corresponde con diferentes niveles eléctricos. A
los lados de las líneas de vídeo, también se incorporan niveles especiales que facilitan al receptor la identificación de
sincronismos para que distinga cuándo debe cambiar de línea, campo o cuadro. Las señales de sincronismo del vídeo
analógico son:
• Sincronismos horizontales (de línea).
• Sincronismos verticales (de campo).
• Salva de subportadora de color PAL: consiste en 8 ciclos de una señal de referencia con una frecuencia y fases
concretas que permiten demodular la señal de crominancia en vídeo compuesto.

DIGITALIZACIÓN DE LA SEÑAL DE VÍDEO.


El proceso natural de evolución de la señal de vídeo, al igual que ocurre con el sonido, es la digitalización. No
existen grandes diferencias en el proceso de conversión analógico-digital con respecto al sonido, pues consta de sus
mismas fases, muestreo, cuantificación y codificación, pero, en este caso, la señal a codificar tiene mayor cantidad de
información y, por lo tanto, en cada fase, se generará un volumen mucho más elevado de datos, que, prácticamente
en cualquier aplicación, deberán sufrir un proceso de compresión.
Píxeles en un dispositivo digital de imágenes.

VENTAJAS E INCONVENIENTES.
Son muchas más las ventajas que los inconvenientes de la utilización de señales digitales para vídeo:
• Inmunidad al ruido y posibilidad de regeneración de la señal original.
• Almacenamiento y procesado más sencillo.
• Facilidad de medida y evaluación de la calidad de la señal y del rendimiento de los equipos.
• Posibilidad de detección y corrección de errores.
• Menor consumo de potencia eléctrica de los equipos electrónicos.

Sin embargo, también existe una serie de desventajas en la utilización de señales y equipos digitales:
• En principio, las señales digitales requieren mayor ancho de banda de transmisión, aunque, gracias a los
algoritmos de compresión de datos y de modulación eficiente, se consigue que el ancho de banda final sea
menor que el requerido para una señal analógica.
• Cualquier señal digital debe ser convertida de nuevo a analógica para poder ser representada por un dispositivo
como un monitor.
• Las señales digitales necesitan estar perfectamente sincronizadas, lo que deriva en la inclusión de señales
especiales de sincronismo.
• Las señales analógicas y digitales no suelen ser compatibles en un mismo circuito.

CUANTIFICACIÓN DE VÍDEO.
El número de bits asignado a cada muestra de vídeo (píxel) determina la cantidad de colores o tonos que
puede adquirir la muestra. Así, por ejemplo, 1 px de 8 b permite un rango de 256 tonos (28). Un valor habitual de
cuantificación en vídeo son 24 b (8 b para el canal R, 8 b para el canal G y 8 b para el canal B), que permiten,
teóricamente, obtener hasta 16,7 millones de colores (224).

Imagen de vídeo escala de grises (8b). Imagen de vídeo color (24 b).

COMPRESIÓN DE VÍDEO.
Al igual que ocurre con el códec MP3 en sonido, existen diversos algoritmos perceptuales que consiguen reducir la
cantidad de datos de un vídeo sin redundar en una pérdida evidente de calidad en la visualización.
El grupo de trabajo 1SO-MPEG ha desarrollado estándares, como MPEG-2 y MPEG-4, que realizan una compresión
con pérdidas, que es indispensable en sistemas de vídeo debido al elevado ancho de banda que se obtendría con una
señal sin comprimir.
Un vídeo con calidad DVD (720 • 576 px a 24 b) ocuparía sin comprimir unos 250 Mb/s. Por una parte, un vídeo de
alta definición (1920 • 1080 px a 24 b) sin compresión supondría un régimen binario de 1,2 Gb/s. Estas cifras hacen
indispensable la aplicación de algoritmos de compresión eficaces que, basándose en técnicas perceptuales, consiguen
reducir al mínimo la cantidad de datos sin afectar aparentemente a la imagen resultante con el fin de poder
transmitirla y almacenarla convenientemente.

NORMA UIT-R BT-601-7.


Antiguamente, conocida como CCIR 601 (1982), esta recomendación sobre televisión digital fue el origen de
todas las normas actuales para alta definición y determina el muestreo aplicable a las señales de vídeo y audio. Se apli-
ca en entornos profesionales como estudios de televisión y tiene las siguientes particularidades:

• Las frecuencias de muestreo para la luminancia serán de 13,5 (4:3) o 18 MHz para sistemas especiales 16/9 de
mayor resolución.
• La señal de luminancia analógica se filtrará con un filtro antialiasing (paso bajo) con frecuencia de corte: 5,75 MHz.
• Las señales de crominancia se limitarán aún más con un filtro antialiasing con frecuencia de corte: 2,75 MHz.
• Las señales diferencias de color Pb y Pr pasan a llamarse Cb y Cr y tendrán una corrección de gamma específica.
• La cuantificación de las muestras se realizará a 8 o 10 b. Si se realiza a 8 b, se obtiene un régimen binario de 216
Mb/s, mientras que, si se realiza a 10 b, la señal SD supone un régimen binario de 270 Mb/s.
• Las señales de diferencias de color se muestrearán a la mitad de frecuencia de muestreo que la luminancia, es decir,
a 6,75 MHz. Esta fórmula se conoce como 4:2:2 (el 4 representa la frecuencia de muestreo de la luminancia y el 2,
las de crominancia).

Muestreo 4:2:2 de vídeo.

• Solo deben digitalizarse las líneas con información de vídeo y, en concreto, sus partes activas (con un pequeño
margen de seguridad).
• Aparece un nuevo concepto: línea activa digital (LAD).
• Al comienzo y al final del vídeo activo, se incluirán unas marcas de comienzo (SAV) y final (EAV). No hay pulsos de
sincronismo en los datos de vídeo, tan solo se respeta el intervalo de borrado vertical. Pueden aprovecharse los
espacios libres para incluir otras señales como, por ejemplo, el audio.
• Permite codificar hasta 4 canales de audio digital de alta calidad a 48 kHz y 20 b (superior a la calidad del CD de
audio).

Para la digitalización de la señal de televisión de alta definición, existe otra recomendación: UIT-R BT-709, que,
entre otras cosas, elimina la opción del vídeo en 4/3, por lo que queda definida solo para la proporción de vídeo 16/9,
que es la más extendida.
Por último, la recomendación UIT-R BT-2020 define varios aspectos de la televisión de ultra alta definición
(UHDTV) y solo contempla la opción de vídeo progresivo.

FORMATOS E INTERFACES DE CONEXIÓN.


La señal de vídeo analógico puede presentarse en diferentes formas:
• Señal de vídeo compuesto (CV o FBAS): se trata de una señal que incluye tanto el componente de luminancia
como los componentes de color (diferencias de color) y sincronismos sumados, con la crominancia modulada
para que ocupe la parte superior del espectro. Para poder extraer y separar la información de brillo y color de
cada punto de la pantalla a partir de esta señal, se requiere aplicar un filtrado a la señal. Dicho filtrado
introduce pérdidas de calidad e interferencias. Es la señal de vídeo analógica que ofrece una peor calidad, pero,
sin embargo, es de las más utilizadas por necesitar un solo cable para transportar el vídeo.
Señal de una línea de vídeo compuesto (luminancia más crominancia).

• Señal de supervídeo (S-Vídeo o Y/C): en este caso, la información de luminancia se transmite separada de la
información de crominancia por cables diferentes. Esto permite que no haya interferencias entre luminancia y
crominancia. La calidad es ligeramente superior a la señal de vídeo compuesto, pero su uso no está muy
extendido.

• Señal de vídeo en componentes (Y, Pb y Pr) y (RGB): también es posible disponer de señales que separen la
información de vídeo en tres componentes y, por ello, utilicen tres cables diferentes para la transmisión: bien
luminancia (Y) y diferencias de color (P b y P), bien directamente las señales obtenidas del sensor para los
colores primarios rojo, verde y azul (RGB). Estas señales de vídeo en componentes son las que ofrecen la
mayor calidad dentro del entorno de vídeo analógico y se utilizan en la mayoría de monitores de ordenador
con conexión de vídeo analógica VGA y algunos televisores.

Conector VGA (tipo D-Sub 15) y conectores RCA de vídeo en componentes Y, Pb y Pr.

Cuando se conectan equipos de vídeo por componentes, es esencial que los tres cables tengan la misma longitud
para evitar retardos entre componentes que provocarían defectos en la imagen resultante.

Por su parte, las conexiones de vídeo digital tienen sus propios protocolos:
• SDI (serial digital interface): es una interfaz serie digital que tienen los magnetoscopios, mesas de mezclas y
otros equipos de vídeo digitales. Los datos de luminancia (Y) y diferencias de color (Cb y Cr) viajan sin
compresión multiplexados por un solo cable junto a varios canales de sonido, control y sincronización. Es el
estándar digital preferido en ámbitos profesionales para señales de vídeo de definición estándar (SD). Cuenta
con versiones para la transmisión de datos comprimidos como MPEG-2 (interfaz SDTI) y para vídeo en alta
definición (HD-SDTI).

Cable coaxial y conector BNC para vídeo SDI.

Los conectores más utilizados para las señales SDI son de tipo BNC en líneas de cable coaxial (apantallado). El
conectar BNC (bayonet Neill-Concelman) se utiliza también en audio debido a la seguridad que ofrece su mecanismo de
bayoneta frente a tirones.

• IEEE 1394, FireWire o i.Link: puerto de entrada y de salida de datos digital muy extendido en videocámaras de la
familia DV (DVCAM y HDV). Además del vídeo, el estándar permite el control remoto de equipos. Dispone de
versiones con diferentes velocidades de transmisión, como 400 y 800 Mb/s.

Conector FireWire 400 Mb/s.

• HDMI (high definition multimedia interface): interfaz de audio y vídeo digital cifrado sin compresión que está
muy extendida tanto en el ámbito doméstico como en el profesional para la conexión de monitores, televisores,
sintonizadores de TDT y cámaras de vídeo.

Hay 4 clases de conectores HDMI que se pueden concretar en los siguientes tipos:

Tipo A: Es el conector más habitual del cable HDMI, está formado por 19 pines.

Tipo B: Es una versión preparada para futuras pantallas, aunque su uso aún no se ha generalizado, el conector tipo B
tiene 29 pines.

Tipo C: Es una versión reducida del conector tipo A (Micro-HDMI) y está pensada para equipos portátiles (cámaras de
vídeo, fotos,etc). El conector tipo C tiene 19 pines.
Tipo D: Es una versión micro del conector tipo A (Micro-HDMI) y ha sido ideada para soportar los diseños más
compactos y novedosos de los dispositivos móviles (smartphones, etc). El conector tipo D tiene 19 pines.

EQUIPOS Y SEÑALES DE MEDIDA DE CALIDAD EN VÍDEO.


Los equipos de medida, calibración y evaluación de la calidad de la señal de vídeo permiten efectuar ajustes
técnicos exactos, ya que, de otro modo, el ajuste de la luminosidad o el color de una imagen quedarían sujetos al
criterio subjetivo del observador. Gracias a estos equipos, es posible detectar fielmente problemas en la señal y actuar
con precisión para corregirlos. Sin embargo, los equipos de medida no modifican las señales, tan solo muestran el as-
pecto de sus formas de onda en una pantalla. Por lo tanto, es labor del técnico ajustar otros equipos y controles para
mejorar la calidad de la señal emitida o recibida:
• Osciloscopio: permite visualizar la señal de televisión en el dominio del tiempo mostrando sus valores de
tensión en el eje vertical. Es un equipo genérico de análisis temporal de señales que también se utiliza en
sonido y electricidad.
• Monitor de forma de onda: en muchas ocasiones, este equipo está integrado con el osciloscopio. En este caso,
se trata de un equipo específico de gran precisión para la visualización y medida de señales de vídeo. Aunque
también permite evaluar las señales de crominancia, su uso está enfocado principalmente a la medición de la
luminancia de la señal.
Los niveles de luminancia y crominancia que deben tener las señales de vídeo están limitados por normativas
internacionales (por ejemplo, la señal de vídeo compuesto debe tener 1 V pico a pico de rango entre -0,3 y 0,7
V).
Una señal de prueba muy utilizada en el monitor forma de onda para controlar los desajustes de fase y
ganancia entre las señales de luminancia y crominancia es la conocida como pajarita o bowtie.

Osciloscopio y Monitor de Forma de Onda.

• Vectorscopio: se trata de un osciloscopio capaz de representar la señal de crominancia en coordenadas polares.


Se utiliza para la medición de los componentes de crominancia (color) de la señal de vídeo. Su pantalla
representa, mediante fases en un círculo, los diferentes colores presentes en la imagen. Permite detectar
errores de tono (matiz) y saturación (amplitud).
Representación de barras de color en un vectorscopio.

• Analizador de espectros: realiza un análisis frecuencial de las señales de vídeo. Permite comprobar la distribución
de la luminancia, la crominancia y el sonido (si lo incluyera) en el ancho de banda de la señal. Se utiliza,
principalmente, en radiofrecuencia para analizar la distribución del espectro de los canales de televisión ya
modulados.

Analizador de espectros.

• Monitor: a diferencia de un televisor, los monitores de vídeo no incluyen sintonizador ni suelen tener altavoces.
Deben ser equipos fiables que reproduzcan los colores correctamente y permitan introducir la señal de vídeo en
diferentes formatos. Se utilizan en controles de realización, unidades móviles, en sistemas de videovigilancia y
procesos industriales. La calidad de un monitor se mide en grados ( 1 , 2 o 3), donde 1 es la máxima calidad, y, por
lo tanto, estos equipos de elevado precio tienen uso como instrumentos de medida si están calibrados.

Monitor de vídeo en un estudio de posproducción.

La señal de vídeo digital puede ser monitorizada con un osciloscopio de alta frecuencia y con algunos monitores
forma de onda que permiten superponer señales digitales alternantes (0 y 1) a la señal de vídeo para detectar defectos
como el jitter (pequeñas variaciones temporales), reflexiones de señal por desadaptación de impedancias y
atenuaciones por distancia, aunque, por lo general, las señales digitales son robustas y no presentan problemas de
luminancia y color.

EQUIPOS TÉCNICOS DE VÍDEO.


La cadena de captación, codificación, tratamiento, distribución, grabación y monitorización del vídeo incluye una
serie de equipos como cámaras, magnetoscopios o reproductores de vídeo, distribuidores de señal y monitores.

CÁMARAS.
Es el equipo encargado de transformar la luz en impulsos eléctricos proporcionales. Las imágenes a color
necesitan un triple sensor o sistema diferenciado de captación para los componentes primarios RGB de la imagen. La
descomposición de la imagen en los tres colores primarios se realiza utilizando un sistema óptico o mediante filtros de
color.
Una vez que la imagen ha sido enfocada, el sensor fotoeléctrico se encarga de recoger la luz en cada punto y
generar una señal eléctrica equivalente. El sensor puede ser de tipo CCD o CMOS. Estos sensores son circuitos
integrados, que aunque tienen diferencias en el modo de recoger los impulsos eléctricos, funcionan de un modo muy
similar: la superficie del sensor está llena de celdas (fotositos) que almacenan una cantidad de carga eléctrica
proporcional a la luz recibida. En un proceso muy rápido y controlado, se descarga cada celda en orden y se genera a la
salida una señal eléctrica variable en el tiempo.

CCD (charge coupled device).

Las cámaras de vídeo pueden presentarse en diferentes configuraciones: de estudio, ENG, webcam, de vigilancia,
etc., con diferencias en la calidad del vídeo y sus funcionalidades. Por ejemplo, las cámaras profesionales pueden
disponer de una unidad de control de cámara remota o CCU (camera control unit) para ajustar los valores de
diafragma, balance de blancos, gamma, pedestal, etcétera.

Unidades de Control de cuatro Cámaras (CCU).

Por su parte, las cámaras de vigilancia incluyen visión nocturna mediante infrarrojos y controles remotos para sus
servomecanismos de posicionamiento. Los ajustes más comunes en vídeo son los siguientes:
• Foco o enfoque: por parte del bloque óptico (lentes) de la cámara. Consigue representar la imagen con nitidez.
Puede realizarse manualmente mediante un anillo de enfoque o de forma automática por el circuito de la
cámara.
 Iris o diafragma: permite el mayor o menor paso de la luz mediante la apertura o cierre de una serie de hojas
de metal solapadas y ubicadas entre la lente y el sensor.

Iris o Diafragma.

• Zoom o distancia focal: las lentes con posibilidad de zoom permiten aumentar o disminuir el campo de visión de
la cámara para captar objetos lejanos con precisión o abarcar un área mayor.
• Balance de blancos: se trata de un ajuste electrónico que permite reproducir los colores de la escena
correctamente con diferentes fuentes de luz.

Cámara de vídeo profesional.

Las fuentes de luz como el sol, las bombillas o lámparas fluorescentes no tienen la misma temperatura de color, es
decir, la misma composición de color. Las cámaras permiten ajustar sus canales RGB mediante el control de balance de
blancos para conseguir que los colores blancos de la escena, realmente, sean blancos al visualizarse a través de la
cámara. Con ello, se consigue que el resto de colores de la escena sean también coherentes.

MAGNETOSCOPIOS (VTR´s).
Son equipos de grabación y reproducción de vídeo en soporte cinta magnética. Aunque siempre han sido
elementos esenciales de los sistemas de vídeo, cada vez, su uso es menor debido a las ventajas que ofrece la
grabación en memorias de estado sólido y discos duros. Los magnetoscopios disponen de entradas y salidas, tanto
analógicas como digitales, de diferente tipo (SDI, FireWire, vídeo compuesto, vídeo en componentes, etc.) para
facilitar la interconexión con otros equipos.
La grabación y reproducción magnética de vídeo digital se basa en los mismos principios que el sonido analógico o
digital, pero tiene en consideración que el vídeo requiere un mayor ancho de banda debido a la mayor cantidad de
datos por segundo que es necesario almacenar. Por esta razón, los formatos de vídeo digital como DV y Betacam Digital
utilizan exploración helicoidal para la grabación de vídeo y audio en sus cintas magnéticas.

Cinta de vídeo digital miniDV.

Actualmente, el almacenamiento y la reproducción de vídeo se realizan desde memorias de estado sólido o discos
duros gracias a ordenadores, procesadores, capturadoras y tarjetas gráficas.

DISTRIBUIDORES DE SEÑAL.

Al planificar una instalación audiovisual, es necesario conocer el direccionamiento de las señales. En muchas oca-
siones, una señal debe distribuirse a varios destinos, en otros casos, varias señales llegarán a un mismo destino.
También puede ser necesario que el direccionamiento de señales cambie para adaptarse a nuevas situaciones.
Los distribuidores de vídeo son equipos que direccionan las señales y se dividen en dos grupos:
• Paneles de interconexión (patch panels): son equipos que centralizan la distribución de señales de forma manual.
Similar a las centralitas telefónicas antiguas, el operador utiliza latiguillos para conectar determinadas líneas con
otras. En el tablero del patch panel, se encuentran todas las entradas y salidas de los equipos. Los paneles de
interconexión también sirven como registros intermedios en una red extensa de cableado de una instalación. En
caso de darse algún problema, permiten realizar un seguimiento de la señal por la instalación para detectar el
origen del problema y poder solucionarlo cambiando alguno de los latiguillos. Los cambios de latiguillo son rá-
pidos, pero no deben utilizarse para distribuir señales en componentes debido a que las diferencias en longitud
entre los tres cables pueden introducir desfases.
• Distribuidores (splitters): también llamados multiplicadores, estos dispositivos indican, mediante una relación de
multiplicación (1:2, 1:4, etc.), cuántas señales de salida obtienen a partir de cada entrada. De este modo, podrá
llevarse una misma señal a diferentes equipos para que reciba tratamientos diferenciados. Los distribuidores
mantienen el nivel y la impedancia en cada salida y, por lo tanto, no deben provocar desadaptaciones.

Distribuidores de vídeo.

• Preselectores y matrices: los grandes centros de producción utilizan equipos como preselectores (más sencillos) o
matrices (más complejos), que permiten conmutar, multiplicar y distribuir electrónicamente cualquier señal desde
cualquier entrada hasta cualquier salida. Se definen por su número de entradas y salidas (por ejemplo, 32 x 16). Su
configuración puede hacerse en remoto y no es necesario cambiar ningún cable para redirigir una señal. Son
equipos muy utilizados en las salas de continuidad y control central de los estudios de televisión. Al igual que todos
los equipos de un estudio de TV, las matrices también están sincronizadas con una señal de reloj que marca el inicio
de cada cuadro de vídeo para poder realizar conmutaciones o mezclas sin vibraciones de imagen.
Matriz de vídeo.

GENERADORES DE SEÑALES.
En una instalación de vídeo, existen también equipos generadores de señales de prueba, de sincronismos o de
efectos digitales:
• Generador de sincronismos: es un equipo que genera una señal de reloj (master clock) a la que se esclaviza el
resto de equipos de la instalación. A pesar de que todos los equipos de vídeo de un sistema funcionen a la
misma frecuencia (en Europa, 25 fotogramas por segundo), las fases no son las mismas, es decir, cada equipo
comienza a emitir fotogramas en momentos de tiempo diferentes. Si se pretende que el sistema de vídeo
funcione de forma fluida sin saltos de imagen al conmutar entre diferentes señales, es necesario que todos
los equipos estén referenciados con un mismo reloj, es decir, enclavados en fase.
La señal que proporciona un generador de sincronismos, denominada black burst, está compuesta por
sincronismos horizontales, verticales y salvas de color para decodificar correctamente las señales de
crominancia.
Generador de señales de test: en la señal de vídeo, pueden utilizarse algunas líneas vacías que existen al
principio de cada campo para insertar información que facilite el control de calidad de la señal. Los ge-
neradores de señales de prueba de intervalo vertical (VITS) incluyen dos líneas en cada campo con señales de
prueba. En el receptor, puede evaluarse si estas señales, de valores conocidos, se han visto alteradas en su
transmisión. También existen generadores de señales patrón como las barras de color y la carta de ajuste.

La señal de carta de ajuste se utiliza en televisión como señal por defecto en la ausencia de programación y, ade-
más, permite ajustar parámetros en la recepción como el tono y volumen del sonido, el brillo y el detalle de la imagen
y su posicionamiento en la pantalla. La señal de barras de color también se incluye en la carta de ajuste.

Carta de ajuste.

MEZCLADORES DE VÍDEO.
Las mesas de mezcla o mezcladores de vídeo son equipos muy precisos y sofisticados que permiten la mezcla,
conmutación y manipulación de múltiples señales de vídeo con el fin de producir una única señal final destinada a la
radiodifusión o almacenamiento.
Los mezcladores también generan efectos como cortinillas, fundidos, incrustaciones (chroma key) y rótulos.

Los mezcladores pueden considerarse como etapa final antes de la emisión o grabación de una señal de vídeo y
permiten la conexión de diferentes entradas de vídeo: magnetoscopios, cámaras de vídeo, generadores de efectos,
tituladoras, etcétera.
Mezclador de vídeo.

La conmutación de vídeo de una señal a otra siempre debe hacerse en el intervalo vertical, que es el tiempo que
existe entre el fin de un cuadro y el comienzo del siguiente. Los mezcladores tienen en cuenta este intervalo para cam-
biar la imagen de salida de una cámara a otra.

VIDEOSERVIDORES.
Los videoservidores son equipos informáticos que poseen una gran capacidad de almacenamiento y conexión a
red que permite su acceso remoto. Pueden utilizarse para grabar la imagen procedente de cámaras de vigilancia o
para editar y emitir contenidos audiovisuales en un canal de televisión.

La diferencia con otros servidores informáticos de alta potencia radica en la posibilidad de que múltiples usuarios
utilicen los mismos contenidos para realizar ediciones y posproducciones paralelas sin que se produzcan conflictos
en el acceso simultáneo.

Videoservidores.

CODIFICACIÓN DE VÍDEO.
El proceso de digitalización de una señal de vídeo, en especial si se trata de vídeo en alta definición, provoca unas
tasas de bits excesivamente altas, de más de 1 Gb/s, y, por lo tanto, es esencial que, prácticamente, cualquier
aplicación de vídeo comprima en mayor o menor medida estas señales para facilitar su transmisión, difusión y
almacenamiento.

Los estándares más extendidos para la compresión de vídeo, como el MPEG-2, se basan en algoritmos
perceptuales que analizan las limitaciones del oído y el ojo humano para eliminar la mayor cantidad de datos posible
de un flujo de vídeo y audio sin que se degrade en exceso su calidad al ser reproducidos.

COMPRESIÓN DE VÍDEO.
A diferencia de una imagen fija, el vídeo tiene una característica de variación con el tiempo. El aprovechamiento
de las redundancias espaciales y temporales de una secuencia de vídeo permite reducir con gran efectividad el ancho
de banda necesario para la transmisión de vídeo por redes de datos, satélite o servicios de radiodifusión terrestre.

La combinación de estas dos características de redundancia de la imagen en movimiento (espacial y temporal),


junto con otros procesos de compresión, da lugar a relaciones de compresión de hasta 30:1 sin pérdida aparente de
calidad para el estándar MPEG-2 utilizado, por ejemplo, en el formato DVD de vídeo.

Redundancias en vídeo.

 CODIFICACIÓN INTRA.
Aprovecha la redundancia espacial que suele darse en una imagen, analiza el contenido de cada fotograma
independientemente del resto y reduce la cantidad de datos utilizando técnicas de procesado digital como la
transformada discreta del coseno o discrete cosine transform (DCT) y la codificación entrópica.

Estas técnicas se aplican en bloques de 8 • 8 px y consiguen agrupar la información de frecuencia de imagen de


cada bloque en unos pocos coeficientes, lo que se traduce en una reducción muy significativa de la cantidad de
datos. Este esquema se utiliza en formatos de imagen fija como JPEG y de vídeo como MPEG-2.

Los artefactos de compresión (artifacts) son distorsiones apreciables en la imagen producidas por una compresión
excesiva de la misma. La causa más probable es la aplicación de compresiones intra muy agresivas.

 CODIFICACIÓN INTER.
A pesar del alto grado de compresión que se consigue con la codificación intra, este no es suficiente y, en
aplicaciones de vídeo con ancho de banda limitado, se requiere la implementación de algoritmos con predicción de
movimiento entre fotogramas (codificación Ínter).
Estos algoritmos buscan macrobloques de 16 • 16 px en fotogramas anteriores y futuros con una cierta tolerancia.
Si lo encuentran, no es necesario volver a codificar los píxeles del macrobloque, sino solo un vector de movimiento
que indique cuántos píxeles y hacia qué dirección se ha desplazado dicho macrobloque entre un fotograma y otro.

Un macrobloque (16 • 16 px) está compuesto por 4 bloques de 8 • 8 px y se utiliza en estándares como MPEG-2
para realizar predicción de movimiento.

Ejemplo de codificación inter (predicción de movimiento).

FORMATOS Y CÓDECS DE VÍDEO.


Los estándares de compresión de vídeo de la familia MPEG se basan en la transformada discreta del coseno (DCT),
aunque también se emplean otras técnicas como wavelets y fractales. La compresión wavelets o transformada de on-
dícula utiliza subbandas para eliminar problemas de artifacts suavizando la imagen resultante. Además, ofrece una
gran escalabilidad que facilita el almacenamiento y transmisión de datos ajustando la calidad al ancho de banda
disponible.

ISO forma en 1988 un grupo de expertos para establecer estándares de transmisión de vídeo y audio comprimido,
denominado MPEG (moving picture experts group). Resultado de la investigación de este grupo, en los años noventa,
se desarrolla una serie de estándares muy extendidos actualmente como MPEG-2 y MPEG-4.

La estandarización especifica las características de los decodificadores, pero no de los codificadores, es decir, el
decodificador MPEG-2 debe cumplir una serie de requisitos, pero el codificador puede implementar diferentes pro-
cesados y algoritmos siempre y cuando el decodificador sea capaz de interpretar el flujo de datos codificados. Por lo
tanto, la calidad y la eficiencia de la compresión dependen del codificador. A continuación, se describen los códecs
de vídeo más extendidos.

 M-JPEG (motion JPEG).


Consiste en la codificación intra de cada una de las imágenes que componen una secuencia de vídeo, sin realizar
predicción de movimiento. Cada fotograma es codificado individualmente empleando codificación JPEG. Se utiliza en
algunos sistemas de edición no lineal, cámaras IP y antiguas cámaras digitales de vídeo.

 H.261.
Desarrollado por ITU para aplicaciones de videotelefonía sobre canales de régimen binario constante como las
líneas RDSI. El ancho de banda puede ajustarse en múltiplos de 64 kb/s hasta llegar a los 2 Mb/s. Este estándar
definió la estructura de codificación para los siguientes. Realiza predicción de movimiento y sigue en uso debido a su
sencillez y compatibilidad con versiones posteriores como el H.263.

 MPEG-1.
Utiliza un esquema similar a H.261, pero mejorando sus prestaciones para tasas más elevadas de bits (hasta 1,5
Mb/s). Realiza una predicción de movimiento más avanzada, con 2 canales de audio a 250 kb/s. Fue el estándar de
vídeo para CD-ROM, CD interactivo y VCD y su capa 3 de audio es el famoso MP3. La resolución típica de este
estándar está en torno a 352 • 240 px, que es muy baja para las aplicaciones de vídeo actual, pero similar a la calidad
que, entonces, ofrecía el vídeo analógico VHS.

 MPEG-2.
Tiene características similares a MPEG-1, pero permite la utilización de vídeo entrelazado y está optimizado para
tasas de bits superiores. MPEG-2 ofrece una gran versatilidad al permitir configurar la codificación con múltiples
niveles de calidad. Algunas de las aplicaciones más conocidas de este estándar es el SVCD, el DVD de vídeo, la
televisión digital terrestre (TDT) y la televisión de alta definición (HDTV).

 H.263.
Evolución del H.261 para videotelefonía sobre redes de conmutación de paquetes y circuitos con altas tasas de
bits. Ofrece el doble de calidad de imagen que H.261 en tasas binarias similares.
Posteriormente, las versiones H.263+ y H.263++ mejoraron la compresión, los retardos y la protección frente a
errores.

 MPEG-4 (H.264 o AVC).


Es el estándar más reciente y fue introducido a finales de los noventa, con una gran aceptación. Permite la
codificación de objetos audiovisuales, es decir, puede codificarse la imagen como un conjunto de objetos
individuales (audio, vídeo, gráficos, animaciones, texto, etc.). Sin embargo, a efectos prácticos, esta funcionalidad no
se utiliza, ya que no hay algoritmos que permitan separar una imagen de vídeo en objetos de forma eficiente.
A pesar de ello, el estándar MPEG-4 se emplea para codificar contenidos audiovisuales con gran eficacia en
aplicaciones de televisión en el móvil, videoconferencia, HDTV, Blu-ray, streaming, etc. Comparativamente con
respecto a MPEG-2, ofrece mejoras en la relación calidad régimen binario y mayor robustez frente a errores, aunque
aumenta considerablemente la carga computacional. MPEG-4 se encuentra aún en desarrollo.

 H.265 (HEVC).
HEVC (high efficiency video coding) es el códec sucesor de H.264. Se ha optimizado para conseguir la mejor cali-
dad de imagen a muy bajas tasas de bits, sin embargo, en tasas altas, es superado en calidad por MPEG-4. Permite
compresión de vídeo de ultra alta definición hasta 8K y se encuentra aún en desarrollo.

AMPLIACIÓN DIGITALIZACIÓN DE IMÁGENES


El campo de la transmisión de imágenes digitales ha sido uno de los que de forma más tardía ha podido aplicar
los sistemas binarios, debido fundamentalmente a la
elevada frecuencia de la señal a tratar y la gran cantidad
de información digital que se requiere para enviar una
imagen de calidad. Esto supone la necesidad de realizar
una conversión analógica a digital de la señal de imagen,
bien en el formato de componentes (YUV) o en vídeo
compuesto, como paso inicial del sistema. Al plantear la
digitalización de la imagen, deberemos tener en cuenta
algunos factores: cuantas más muestras se tomen,
mayor será la calidad de la imagen, pero la cantidad de
información será también mayor, ocupando así más
espacio; si queremos ahorrar espacio, podemos tomar
menos muestras en la señal de color que en la de luminancia, puesto que la capacidad del ojo para visualizar colores es
limitada; en la información de televisión se incorporan muchas señales de sincronización, que no aportan información
activa y, por lo tanto, no deben ser digitalizadas; según el teorema de Nyquist, la frecuencia de muestreo en la
digitalización de cualquier señal debe ser mayor del doble de la frecuencia más alta de la señal a digitalizar. A partir de
estos condicionantes, el Comité Consultivo Internacional para Radiocomunicaciones (CCIR) definió un estándar óptimo
para digitalizar señales de vídeo. Según este estándar, se omiten de la digitalización los periodos de borrado de línea y
campo, aplicándose sólo a los periodos activos de línea y a las líneas con información. Estos impulsos de sincronización
se utilizarán, sin embargo, para definir la posición de los datos sobre la memoria que contendrá la información digital,
de modo que al final del proceso se pueda recomponer la señal original e insertarle un patrón de sincronismos nuevo.
Al digitalizar sólo los trozos de la señal de vídeo que contienen información, aparece un nuevo concepto
asociado: La Línea Activa Digital (LAD). En los sistemas de 625 líneas, la línea analógica tiene un periodo activo de 52 μs,
donde se concentra la información de la imagen correspondiente a esa línea. Como al digitalizarla tomamos un margen
de seguridad a ambos lados, el periodo de la línea activa digital se expande hasta 53,33 μs, conteniendo un total de 720
muestras para la señal de luminancia y la mitad para las señales diferencia de color. Estos valores serán comunes a
todos los sistemas de televisión. Los huecos que surgen entre las líneas, correspondientes al periodo de borrado de
línea que no se digitaliza, se utilizarán para contener informaciones adicionales, así como bits de sincronización de la
transmisión digital. La digitalización se aplica a la señal en componentes. Esto mejora notablemente la calidad de la
señal procesada, al eliminar las posibles intermodulaciones de luminancia y croma. Del mismo modo, el procesado en
componentes permite una mayor variedad en las operaciones aplicadas, y no depende de la norma de color analógico
utilizada. Respecto a las frecuencias de muestreo, se establece una frecuencia de 13,5 MHz para cuantificar la señal de
luminancia, mientras que para las señales diferencia de color se
reduce a la mitad, 6,75 MHz. Esto supone que por cada muestra de
las señales R-Y y B-Y (llamadas en el ámbito digital C R y C B ), se
obtendrán dos de luminancia, todas ellas de 8 bits. La elección de la
frecuencia no es casual, sino que se ha buscado un valor que sea
múltiplo común de las frecuencias de líneas de los sistemas de 525 y
625 líneas. La frecuencia de muestreo tendrá que cumplir el teorema
de Nyquist, garantizando que para todas las frecuencias de la señal
de imagen se tomarán, al menos, dos muestras. Como el ancho de
banda de la señal de luminancia puede llegar a 6 MHz en los
sistemas profesionales, la frecuencia elegida deberá ser, necesaria-
mente, mayor de 12 MHz. Para las señales diferencia de color no es
necesario un valor tan alto, puesto que el ancho de banda de estas
señales es solamente de 1,3 MHz.

En principio cabría pensar que con 8 bits se podrían


representar 256 niveles de grises, pero la asignación del nivel de
negro al código 16 y el nivel de blanco al 235 limita a 220 el número
de niveles efectivos para la señal de luminancia. Sobre las señales
diferencia de color, de forma similar, se aplican 224 niveles, y el cero
corresponde al nivel digital 128, en el centro de la escala. Asimismo,
existe una variedad de la norma CCIR 601 que contempla palabras
de 10 bits en lugar de 8. Con ello se consigue aumentar el número de
valores posibles de las señales Y, C R y C B . Las palabras de 8 bits se
convierten en 10 añadiendo dos ceros a los bits menos significativos.
Con estos valores de cuantificación se obtiene una calidad de señal
muy elevada. Para definir el sistema de codificación utilizado en pro-
cesos de televisión digital se usa un sistema abreviado, que consiste
en definir con un número la frecuencia de muestreo de la
información de luminancia, seguido de dos números
correspondientes a la relación de frecuencia de muestreo para las
señales diferencia de color. Para obtener estos tres números se
utiliza como referencia la frecuencia de 3.375 MHz. Según este prin-
cipio, estamos ante una codificación 4:2:2, ya que para la luminancia
utilizamos cuatro veces la frecuencia de referencia, mientras que en
las componentes cromáticas tomamos solamente el valor doble. En
el sistema de muestreo 4:1:1, sin embargo, se utilizarán cuatro
muestras de la señal de luminancia por cada una de las señales
diferencia de color. Dicho de otro modo, la frecuencia de muestreo
de luminancia se mantiene en 13,5 MHz, mientras que las muestras de CR y CB se toman a 3.375 MHz. Una excepción a la
regla es la cuantificación 4:2:0. Según esta numeración, cabría pensar que una de las señales diferencia de color no se
transmite nunca, lo que haría imposible la identificación del color de la escena. Lo que sucede en realidad en esta
codificación es que durante una línea se transmiten únicamente muestras de luminancia y de la componente CR, mien-
tras que en la línea siguiente se sustituye esta última por la señal diferencia de azul CB. Para ser exactos, este sistema
debería expresarse como 4:2:0, 4:0:2, quedando así correctamente definido el método de muestreo adoptado. Del
mismo modo que en el proceso analógico se ponderan los valores de R-Y y B-Y, también en el proceso digital se utilizan
factores que modifican la amplitud de las señales diferencia de color. Se deberán aplicar factores de atenuación,
quedando como siguen:

CR = 0,713 (R – Y)

CB = 0,564 (B – Y)

El sistema de digitalización aquí descrito es el de mayor aplicación en los sistemas de tratamiento digital de la
señal de vídeo. Sin embargo también podemos encontrar sistemas con otras frecuencias de muestreo, o que asignan el
mismo número de muestras a todas las componentes, como el sistema 4:4:4.
TEMA Nº 2 – S.T.I. – S.P.A. – 2020 - 2021
“INSTALACIONES DE VÍDEO”
INSTALACIONES DE CIRCUITO CERRADO DE TELEVISIÓN Y VIDEOVIGILANCIA.
Cada vez más, es común encontrar cámaras de vídeo instaladas en todo tipo de espacios como centros comerciales,
transportes, tiendas y zonas comunes de viviendas. La inmediatez de la imagen como prueba y el factor de disuasión
del delito que provocan, unidos al abaratamiento de este tipo de instalaciones hacen que sean muy extendidas.
En muchas ocasiones, la imagen complementa un sistema de seguridad electrónica ya implantado, con sensores
volumétricos, alarmas de incendio, etc., y, en otros casos, se trata solamente de instalaciones de vídeo.
Una instalación de videovigilancia ofrece un grado elevado de seguridad, ya que está formada por elementos de
captación (cámaras), de visualización (monitores), de grabación (magnetoscopios o videograbadores) y de control
(consolas, mezcladores, etcétera).
Es importante diferenciar dos conceptos próximos:
• Circuito cerrado de televisión (CCTV): conjunto de cámaras instaladas en un sistema de monitorizado y
selección que permite visualizar en tiempo real cualquiera de las cámaras conectadas a él. Se denomina circuito
cerrado debido a que su difusión está limitada a un pequeño grupo de usuarios.
• Sistema de videovigilancia: se trata de un circuito cerrado de televisión que, además, posibilita la grabación de
las señales procedentes de las cámaras. En la actualidad, la mayoría de los sistemas de vídeo son sistemas de
videovigilancia.

Los sistemas de videovigilancia están regulados por


la LOPD (Ley Orgánica 15/1999 de Protección de Datos
de Carácter Personal), que, entre otras cosas, obliga a
que la instalación esté gestionada por una empresa
privada de seguridad acreditada (empresa de te-
leseguridad) y se coloquen distintivos informando a los
usuarios de la instalación de sus derechos.

COMPONENTES DE UN SISTEMA DE VIDEOVIGILANCIA.


Todo sistema de videovigilancia consta de una serie de componentes comunes. Además, en función de las caracte-
rísticas y especificaciones que debe cumplir cada sistema, este constará de componentes distintos.

Componentes de una instalación de videovigilancia.

CAPTACIÓN DE IMAGEN.
La cámara de vídeo es el componente esencial de todo sistema de circuito cerrado de televisión y videovigilancia y
proporciona la señal eléctrica que representa a la imagen que capta gracias a su sistema de lentes y a su sensor de
imagen.
La elección del tipo y las características de las cámaras que forman parte de una instalación de vídeo es un factor
crítico de diseño: no pueden utilizarse cámaras para interiores en zonas exteriores sometidas a inclemencias
meteorológicas y los factores como la distancia focal, la luminosidad de la lente, la capacidad de zoom o la visión
nocturna deben valorarse de acuerdo con las características del recinto.
Las cámaras actuales permiten realizar funciones de seguridad avanzada junto con un software específico, como
detección de movimiento, reconocimiento de rostros o identificación de matrículas de automóviles.

Cámara de videovigilancia con visión nocturna por infrarrojos.

Puede realizarse un cálculo aproximado de la distancia focal deseable para un objetivo conociendo algunas carac-
terísticas del sensor y de la imagen que desea captarse a través de la siguiente expresión:
f= h • D/H
f: distancia focal (mm).
h: anchura del sensor de imagen de la cámara (mm).
D: distancia entre la cámara y el sujeto a captar (m).
H: anchura del objeto a captar (m).

Además del bloque óptico (lente de la cámara) y el sensor, una cámara de vigilancia cuenta con una carcasa de
protección adecuada a las condiciones de utilización (lluvia, impactos, calor, etc.) y un soporte suficientemente
estable y robusto. Cuando la cámara deba dirigirse hacia zonas diferentes, el soporte tendrá que ser móvil y contro-
lable remotamente mediante un posicionador. En muchas ocasiones, es la propia cámara la que incorpora una serie
de mecanismos que realizan estos movimientos, tanto en el eje vertical como en el horizontal.

Cámaras de vigilancia con carcasa de protección y soporte.

Un tipo especial de cámaras móviles son las


denominadas domo o minidomo: se trata de cámaras
con aspecto esférico que incluyen con posicionadores
de alta velocidad y permiten realizar cambios
automáticos de posición.

Los accesorios para cámaras de vigilancia son múltiples: focos de iluminación LED o infrarrojos para visión noctur-
na, parasoles, limpiacristales, ventiladores y calefactores para ajustar la temperatura, micrófonos externos, etcétera.
Foco de infrarrojos para sistemas de videovigilancia.

MONITORIZACIÓN.
La visualización de las imágenes de vídeo, ya sea en directo o grabadas, se realiza mediante monitores o
televisores. La integración en red de los sistemas de video vigilancia permite una mayor versatilidad en la
monitorización, incluyendo también dispositivos portátiles como tabletas y teléfonos móviles o cualquier ordenador
conectado a internet.
Los monitores de vídeo para sistemas de vigilancia son equipos de alto rendimiento, ya que deben permanecer un
gran número de horas encendidos ininterrumpidamente. Su fidelidad respecto a los colores no es un factor crítico
como sí ocurre en monitores para producciones de cine y televisión.
Las características más importantes de un monitor son su tamaño en pulgadas, su resolución en píxeles, su fre-
cuencia de refresco en hercios y su conectividad. Un monitor con resolución Full HD debe ser capaz de reproducir 1920
• 1080 px.

Conexiones de un monitor con sintonizador de televisión.

En sistemas con múltiples cámaras, debe disponerse de un sistema que facilite la monitorización de cualquier señal
o de todas ellas simultáneamente. Para ello, existen diferentes soluciones:
Secuenciación: permite automatizar la visualización de las cámaras conectadas a un sistema de circuito cerrado
de televisión o videovigilancia de modo que, en un monitor, se muestren las cámaras una a una en intervalos de
tiempo determinados (tiempo de secuencia). Los secuenciadores que se comercializan permiten visualizar
típicamente 4, 8 o 16 cámaras. Los secuenciadores tienen una salida de vídeo para grabación y otra para el
monitor y tres modos de funcionamiento:
— Modo manual: el usuario elige la cámara concreta que desea visualizar o grabar.
— Modo automático o secuencial: permite la visualización alternativa de todas las cámaras una a una.
— Modo bypass: permite eliminar de la secuencia de visualización aquellas cámaras que no sean interesantes en
un momento dado.
Los secuenciadores se utilizan más en sistemas de circuito cerrado de televisión antiguos, ya que los modernos
sistemas digitales permiten un control detallado de la visualización y la grabación.
Monitorización múltiple: en instalaciones de videovigilancia y circuito cerrado de televisión, así como en
controles de realización de programas de televisión puede ser interesante utilizar un menor número de
monitores que señales de vídeo a monitorizar con el fin de aprovechar espacios reducidos y rebajar costes.
Gracias al procesado digital de las señales de vídeo, es posible obtener un mosaico de múltiples imágenes de
vídeo procedentes de diferentes cámaras que se muestre en un único monitor. Para disponer de esta
funcionalidad, deben utilizarse sistemas de monitorización múltiple o multiplexación como lo siguientes:
— Procesador QUAD: divide la pantalla del monitor en cuadrantes para visualizar simultáneamente cuatro
cámaras en un solo monitor. Al igual que los secuenciadores, estos equipos disponen de dos salidas (monitor y
videograbador).
— Multiplexor: son equipos con mayor versatilidad que los procesadores QUAD, ya que permiten configurar
diferente número de señales de vídeo (canales) en un solo monitor. Habitualmente, los multiplexores permiten
visualizar entre 4 y 16 canales.

Procesador QUAD y monitor con señal de vídeo de multiplexor.

Monitorización remota: en las instalaciones de vídeo basadas en red (IP), la monitorización puede hacerse en
cualquier dispositivo informático con acceso a internet. Estos sistemas se denominan vigilancia en red o
vigilancia IP.
Para disponer de un sistema de vigilancia en red, se necesitan cámaras IP, equipos de red como un switch y un
router y un programa de gestión y control que asigne direcciones IP a cada uno de los elementos de la
instalación.
Una vez que el sistema está configurado, cualquier usuario acreditado (normalmente, mediante un nombre de
usuario y una contraseña) podrá acceder a él con un navegador web desde cualquier dispositivo (teléfono móvil,
tableta, portátil, etc.) y visualizar en directo la transmisión de cada cámara, cambiar configuraciones y
reproducir contenidos grabados.

Sistema de vigilancia en red mediante cámaras IP.

Existe la posibilidad de convertir un sistema de circuito cerrado de televisión con cámaras de vídeo estándar en un
sistema de vigilancia en red mediante el uso de codificadores de vídeo que obtengan la señal analógica de cada
cámara y la conviertan en una señal digital transportable mediante protocolos TCP/IP. Sin embargo, estas adap-
taciones limitan las posibilidades de control remoto a la mera visualización de imágenes, mientras que los sistemas
puros basados en IP ofrecen una mayor versatilidad en su configuración a distancia.

 TCP/IP es una denominación que permite identificar al grupo de protocolos de red que respaldan a Internet y
que hacen posible la transferencia de datos entre redes de ordenadores. En concreto, puede decirse que TCP/IP
hace referencia a los dos protocolos más trascendentes de este grupo: El conocido como Protocolo de Control de
Transmisión (o TCP) y el llamado Protocolo de Internet (presentado con la sigla IP).
 El Protocolo de Control de Transmisión (TCP) permite a los dos anfitriones establecer una conexión e
intercambiar datos. El TCP garantiza la entrega de datos, es decir, que los datos no se pierdan durante la
transmisión y también garantiza que los paquetes sean entregados en el mismo orden en el cual fueron
enviados.
 El protocolo de Internet (IP) utiliza direcciones que son series de cuatro números ocetetos (byte) con un formato
de punto decimal, por ejemplo: 69.5.163.59
 Los protocolos de aplicación como HTTP y FTP se basan y utilizan TCP/IP.

CONTROL.
Los dispositivos de control permiten configurar y desplazar remotamente las cámaras, además de realizar mezclas y
direccionamientos de señal. Estos ajustes se realizan, principalmente, con:
Sistemas de telemetría: la telemetría permite el control remoto de ciertos parámetros de las cámaras
conectadas a la instalación. Los parámetros básicos controlables por telemetría en cámaras para instalaciones
de vídeo son los denominados PTZ (pan-tilt- zoom):
— Pan (P): control del movimiento en horizontal.
— Tilt (T): control del movimiento en vertical.
— Zoorn (Z): control de la distancia focal de la lente.

Para facilitar al operador la configuración telemétrica de las cámaras, se emplean mandos y consolas de control.

Consolas de control telemétrico.

Distribuidores y matrices de vídeo: permiten direccionar una o varias entradas de vídeo procedentes de
cámaras hacia múltiples salidas dirigidas hacia equipos (monitores, multiplexadores, secuenciadores,
grabadores, etc.) en diferentes puestos de control.
Estos dispositivos amplifican el nivel de señal en sus salidas para permitir la transmisión a larga distancia y
compensar las pérdidas producidas en las líneas de distribución, así como adaptar las impedancias y ajustar con
potenciómetros el brillo y la nitidez de la imagen.
Algunas matrices son modulares, lo que posibilita la ampliación de sus entradas o salidas mediante módulos
adicionales, y otras incorporan puertos especiales para conectar mandos de telemetría, alarmas, grabadores o
multiplexores.

Matriz modular.

GRABACIÓN Y REPRODUCCIÓN.
Una instalación de circuito cerrado de televisión puede convertirse en un sistema de videovigilancia si se incorpo-
ran dispositivos grabadores de imágenes. Este salto implica unas ciertas exigencias impuestas en la Ley Orgánica de
Protección de Datos de Carácter Personal (LOPD).

Para la grabación y reproducción de señales de vídeo, pueden emplearse magnetoscopios o video tape recorder
(VTR), aunque estos equipos están obsoletos y se prefieren grabadores digitales de vídeo o digital video recorder
(DVR), que están basados en memorias de estado sólido y discos duros. Estos equipos permiten realizar búsquedas en
una franja de tiempo determinada; son robustos y sencillos de manejar, y los más sofisticados incluyen funciones de
identificación visual de caracteres y rostros.

Videograbador digital para sistemas de videovigilancia.


En las instalaciones de vídeo donde prima la calidad de imagen, como los estudios de televisión, los equipos de
grabación y reproducción tienen una mayor capacidad de almacenamiento y procesado y se denominan videoservi-
dores.

En sistemas de vigilancia en red, los grabadores de señales de vídeo se denominan NVR (network video recorder) y
pueden estar ubicados en cualquier punto remoto. Un NVR es similar a un DVR, pero la entrada de señales de vídeo se
produce, bien por cables de red con puertos tipo RJ-45, bien con protocolos inalámbricos como wifi.

Estos sistemas pueden realizar funciones de aviso por correo electrónico ante la presencia de alarmas activas en el
sistema.
A la hora de elegir un DVR para un sistema de videovigilancia, han de tenerse en cuenta diferentes aspectos:
Dimensiones y capacidad: las dimensiones físicas suelen estar adaptadas a valores estándar para que puedan
integrarse fácilmente en racks. Por su parte, la capacidad de sus sistemas de almacenamiento es del orden de
terabytes con posibilidad de ampliación.

Canales de entrada y salida de vídeo: los canales de entrada definen el número máximo de cámaras que pueden
grabarse simultáneamente en el equipo, típicamente 4, 8 o 16. Estas entradas pueden ser analógicas —en cuyo
caso, la señal se digitalizará para su almacenamiento— o digitales. El número de salidas indica las posibilidades de
conexión con monitores u otros sistemas de visualización y procesado de imagen. Los conectores dependen del
tipo de señal que manejen: RCA o BNC para vídeo compuesto, RJ45 o wifi para señales procedentes de cámaras IP,
HDMI para señales de alta definición, etcétera.
Conectividad con otros periféricos: como micrófonos, altavoces, teclados, ratones, consolas de control PTZ,
alarmas, etcétera.

Formato de grabación: en definición, estándar (SD) o alta definición (HD), con codees como MPEG-2, M-JPEG o
MPEG-4 a diferentes tasas de bits.
Frecuencia de captura: los grabadores de vídeo de alta calidad graban la señal de vídeo a la misma frecuencia que
se origina: 25 fotogramas por segundo. Sin embargo, esto genera una gran cantidad de datos. En muchos casos, es
suficiente con grabar unos pocos fotogramas por segundo, aunque el vídeo capturado no tenga la fluidez en la
reproducción que tiene una señal de vídeo estándar.
Método de grabación: en la configuración de un DVR, puede establecerse el tipo de grabación:
— Grabación continua: es un método de grabación ininterrumpida y requiere gran capacidad de al-
macenamiento. Por ley, los ficheros deben eliminarse al cumplir un cierto plazo de tiempo.
— Grabación selectiva o a intervalos: método de grabación selectiva o programable que se activa en momentos
específicos y realiza la grabación durante un periodo de tiempo ajustable concreto de manera periódica o
puntual. También permiten grabar en time-lapse, capturando fotogramas individuales cada cierto periodo de
tiempo. Este método reduce la capacidad requerida a los sistemas de almacenamiento.
— Grabación por alarma: si el videograbador permite conectar sensores de movimiento o alarmas, es posible
arrancar o parar la grabación en función de la señal procedente de estos sistemas de detección. Este modo de
grabación permite optimizar el almacenamiento, de modo que solo se graba información cuando el sistema
detecta una situación de peligro como una intrusión o un incendio.
Condiciones de funcionamiento: además de la tensión eléctrica y la potencia consumida, un DVR debe establecer
el rango de temperaturas de funcionamiento, ya que existen ubicaciones con condiciones climatológicas extremas
en las que el equipo no funcionaría.

LÍNEAS DE DISTRIBUCIÓN EN INSTALACIONES DE VÍDEO.


Una vez que la imagen ha sido captada por una cámara, la señal eléctrica resultante puede transmitirse como señal
analógica o digital, por cable, fibra óptica o radiofrecuencia mediante tecnologías como wifi.

La señal de vídeo tiene una diferencia esencial con respecto a la señal de audio: el ancho de banda. El vídeo es una
señal más compleja que el audio y necesita conductores preparados para transportar sin interferencias señales con
anchos de banda del orden de megahercios. Las señales de control, alarma y detección, sin embargo, son sencillas y
pueden incluirse en la señal de vídeo o transmitirse por separado.
La distancia que deben recorrer las señales es otro de los factores a tener en cuenta a la hora de elegir uno u otro
medio de transmisión, ya que, en todo medio, se producen atenuaciones de señal debidas al propio medio, a la calidad
de las conexiones y al ancho de banda de las señales.
Los medios de transmisión más utilizados para señales en sistemas de videovigilancia son:
Cable coaxial: uso en transmisión de vídeo a distancias medias debido a los efectos de atenuación en alta
frecuencia. Se comercializan con impedancias de 50 o 75 Ω , principalmente, y, en sus especificaciones, es
común encontrar la velocidad de propagación de las ondas con respecto a la velocidad de la luz.

En vídeo, la adaptación de impedancias se consigue cuando la impedancia de salida de una etapa es igual a la im-
pedancia de entrada de la siguiente etapa. La adaptación es necesaria para evitar reflexiones de señal que causarían
daños en los equipos y pérdidas de información.

Apariencia de un cable coaxial.

Cable de par trenzado: ya se ha detallado su uso en audio, pero también tienen aplicación en instalaciones de
vídeo y, en concreto, en instalaciones basadas en redes IP como cables de transmisión de datos. Por un único
cable de red Ethernet UTP de categoría 5e, es posible transmitir las señales de vídeo y audio procedentes de
varias cámaras.

Cable de par trenzado sin apantallar (UTP).

Fibra óptica: es un medio de transmisión basado en la luz en lugar de en la electricidad. La fibra óptica consiste
en hilos muy finos de material transmisor de la luz como el vidrio o el plástico y se emplea en redes de
comunicación debido a su amplio ancho de banda, a su baja atenuación y a su inmunidad frente a
interferencias electromagnéticas. Gracias a estas propiedades, es posible transmitir gran cantidad de datos a
alta velocidad y a largas distancias.

El grosor estándar de una fibra óptica es, aproximadamente, 0,1 mm (el doble que un cabello humano).

Las instalaciones de circuito cerrado de televisión


y videovigilancia no suelen utilizar la fibra óptica
como medio de transmisión debido a su elevado
coste y a la dificultad de su reparación en caso de
averías por rotura, ya que, para empalmar la fibra
óptica, es necesario utilizar un equipo de alta preci-
sión, denominado fusionadora de fibra óptica, que
introduce atenuación en la señal. Sin embargo, en
entornos de vídeo profesional en los que se transmi-
ten señales de alta calidad, sí que se emplea la fibra
para la transmisión de señales de vídeo y audio.
Fusionadora de fibra óptica.

Radiofrecuencia: una opción alternativa a los cables es la transmisión inalámbrica de señales de audio, vídeo y
control moduladas en frecuencias adecuadas y reguladas por cada país. No es una opción muy recomendable
debido a la menor fiabilidad que presenta la radiofrecuencia con respecto a los otros medios de transmisión
como el cable coaxial o el par trenzado, aunque facilitan la instalación, ya que no se necesita realizar tiradas de
cable o perforaciones.

Existen diversas tecnologías inalámbricas de radiofrecuencia:


— Bluetooth: permite la transmisión digital de datos a corta distancia (hasta 30 m).
— Wifi: similar al protocolo Bluetooth, pero con un rango de transmisión de hasta 300 m.
— GSM: puede utilizarse el sistema de telefonía móvil para transmitir datos a largas distancias y con anchos de
banda cada vez mayores gracias al estándar 4G. Esta opción tiene un coste asociado al alta y consumo de
datos móviles de la línea de telefonía necesaria.
— UHF: la señal de vídeo y audio de las cámaras de un sistema de circuito cerrado de televisión puede
transmitirse a un receptor a media distancia modulándolas en frecuencias de la banda UHF (reguladas para
estas aplicaciones).

En instalaciones de circuito cerrado de televisión y videovigilancia, puede decidirse puntualmente utilizar cámaras
inalámbricas en lugares en los que resulte difícil trazar el cableado, sin olvidar que estos dispositivos inalámbricos
también necesitan alimentación eléctrica, como cualquier otro equipo cableado, que deberá suministrase a través
de baterías, pilas o adaptadores de corriente.

Cámara IP inalámbrica (wifi) para videovigilancia.

Las señales infrarrojas o infra-red (IR) son otro medio de transmisión de señales de manera inalámbrica, pero no
tienen apenas aplicación en las instalaciones de vídeo, salvo en mandos a distancia sencillos. A pesar de que las
señales infrarrojas no sufren interferencias electromagnéticas ni se ven afectadas por inhibidores de frecuencia (ya
que se trata de ondas de luz no visibles), su alcance es mínimo y necesitan tener visión directa entre el emisor y el
receptor para permitir la comunicación.

MONTAJE Y MANTENIMIENTO DE INSTALACIONES DE VÍDEO.


Para realizar una instalación de circuito cerrado de televisión o sistema de videovigilancia, es necesario disponer
de los equipos, cables, conectores y herramientas adecuados. Resulta de vital importancia conocer las funciones
exigidas al sistema para que la instalación permita una configuración posterior adaptable a los requisitos
establecidos.
MATERIALES DE MONTAJE.
Para que las señales de vídeo, audio y control sean transmitidas eficientemente entre los equipos de un sistema
de circuito cerrado de televisión, debe comenzarse por utilizar medios de transmisión adecuados al ancho de banda
y componentes auxiliares de calidad como conectores, adaptadores de señales e impedancia y amplificadores.

CONECTORES Y DERIVADORES.
Los conectores son el punto de contacto entre las líneas de transmisión y los equipos. Aunque cualquier conector,
en principio, puede servir para transportar vídeo, audio o señales de control, habitualmente, cada conector va vincu-
lado a un protocolo de transmisión y tipo de cable:
• BNC: se utilizan, principalmente, asociados a cables coaxiales para transportar señales de vídeo con un
amplio ancho de banda (aunque también pueden transportar audio).
• RCA: pueden ir asociados a cables coaxiales muy finos utilizados más en ámbito doméstico. Se emplean en
menor medida en equipos profesionales debido a su facilidad de desconexión.
• RJ-45: se emplea extensamente en sistemas de vigilancia en red asociados a cables de par trenzado para
transportar todo tipo de señales.
• ST, SC, LC, FC, MT-RJ y FDDI: son distintos conectores utilizados con fibra óptica para transportar cualquier
tipo de señales de elevado ancho de banda.
• Jack (TRS/TS): en sistemas de circuito cerrado de televisión, se emplean, principalmente, para señales de
audio analógico.
• RS-232: puerto serie de velocidad lenta empleado en algunos equipos para su configuración o la conexión de
pupitres de control PTZ.

Fibra óptica con conectores tipo SC y ST.

Otro tipo de conectores son los empalmes, que funcionan como uniones intermedias entre cables. Deben evitar
realizarse empalmes dentro de lo posible, ya que pueden desadaptar impedancias y provocar atenuaciones de señal.

Los derivadores dividen una señal en varias para suministrar información a distintos equipos. Estos elementos
producen atenuación en la señal y variaciones en la impedancia, por lo que se recomienda el uso de amplificadores y
adaptadores de impedancia en cada salida.
HERRAMIENTAS.
Las herramientas que permiten realizar las uniones entre cables y conectores deben ser las adecuadas al tipo de
cable y conector. Así, puede disponerse de: crimpadoras para cables coaxiales, fibras ópticas y cables UTP; destor-
nilladores para cables coaxiales, o fusionadoras para el empalme de fibra óptica.

Algunos conectores, como BCN o los conectores de cable coaxial, pueden estar preparados para el montaje sin
herramientas, tan solo con enroscar manualmente alguna pieza. En otros casos, es útil realizar pequeñas soldaduras
con estaño entre cables y conectores.

AMPLIFICADORES Y ADAPTADORES.
Cuando las distancias a las que deben transportarse las señales superan un cierto límite (definido por las caracte-
rísticas del cable y el tipo de señal), deben incorporarse equipos amplificadores o repetidores (en el caso de señales
inalámbricas).

Amplificador de señal de vídeo.

Los amplificadores de señales de audio, vídeo y control incorporan ecualizadores para compensar las pérdidas en
determinadas bandas de frecuencia debido a la atenuación desigual en el espectro frecuencial. En todo momento,
debe controlarse que no existan desadaptaciones de impedancia y, si ocurrieran, se corregirán estas desadaptaciones
utilizando los componentes adecuados.

MANTENIMIENTO Y REPARACIÓN.
En los sistemas de videovigilancia, pueden darse, principalmente, dos tipos de averías:

• Averías de equipos: son poco frecuentes si los equipos son de calidad y se han instalado siguiendo las
indicaciones del fabricante según su uso. Por ejemplo, una cámara diseñada para exteriores no debería
estropearse por efecto de la lluvia o el viento, salvo que haya sufrido un sabotaje.
• Averías de líneas de transmisión y conectores: son las averías más habituales y se deben a roturas en las
líneas de transmisión por torsiones excesivas o a la desconexión de empalmes y conectores deficientemente
realizados.

Comprobador de cable de red.

Las consecuencias de una avería en una instalación de vídeo suelen ser graves, ya que comprometen la seguridad
del recinto y de sus ocupantes y, por lo tanto, deben ser resueltos con urgencia. Los síntomas pueden ser uno, al-
guno o varios de los siguientes:
• Pérdidas en la calidad de imagen de una o varias cámaras.
• Pérdida total de la señal de vídeo de una o varias cámaras.
• Interferencias o pérdida de la señal o señales de audio.
• Imposibilidad de grabación de vídeo por error o llenado del videograbador.
• Errores en la detección de presencia o alarmas.
Para minimizar el riesgo de averías en una instalación de vídeo, se prestará atención para realizar una instalación
óptima y se llevarán a cabo acciones de mantenimiento preventivo. Si, con estas precauciones, aún se produjese una
avería, se aplicarían las correcciones oportunas para devolver al sistema a su estado normal de funcionamiento.

MANTENIMIENTO PREVENTIVO.
Una instalación de vídeo debe ser cuidada y revisada periódicamente por personal técnico cualificado para evitar
o minimizar la posibilidad de futuras averías. Este mantenimiento preventivo puede ser efectuado por:
 Técnicos cualificados y formados por el fabricante de los equipos del sistema de vídeo.
 Instaladores o mantenedores cualificados y autorizados.
 Personal de la empresa o entidad donde se realiza la instalación de vídeo siempre que haya sido formado y
cualificado técnicamente.
Estos profesionales conservarán la documentación de la instalación, de su mantenimiento preventivo y de sus
modificaciones o reparaciones.
El mantenimiento preventivo de una instalación de vídeo puede incluir:
 Comprobación de estanqueidad de equipos exteriores.
 Comprobación de líneas de transmisión (atenuación, interferencias, estanqueidad, oxidación, radios de
curvatura, etcétera).
 Sustitución de carcasas de cámara deterioradas. Sustitución de líneas de transmisión deterioradas.
 Realización de copias de seguridad de programas, configuraciones, controladores y datos.
 Control de la calidad de las señales de vídeo y audio.
 Control de capacidad y rendimiento de discos duros y memorias de estado sólido.
 Limpieza de circuitos electrónicos mediante brochas suaves y líquidos especiales dieléctricos para evitar
acumulación de polvo y suciedad.
 Verificación de tornillos y conectores de señales de audio, vídeo, alimentación y control.
 Limpieza de objetivos y pantallas de visualización con productos adecuados.

MANTENIMIENTO CORRECTIVO.
Cuando se produce una avería, esta debe repararse cuanto antes. Algunas cuestiones generales a considerar en la
reparación de averías en instalaciones de vídeo son las siguientes:
• En primer lugar, antes de efectuar cualquier reparación, deben desconectarse de la corriente eléctrica todos
los equipos asociados con el fin de proteger al técnico reparador y evitar picos de tensión en los circuitos
electrónicos de los equipos.
• Si se reparan o sustituyen cámaras, debe comprobarse que el ángulo que captan es el adecuado al ser fijadas
en sus soportes.
• Si van a instalarse nuevos cables, se guardará una distancia de, al menos, 20 cm con cualquier línea de
corriente alterna para evitar interferencias.
• Hay que evitar, en la medida de lo posible, realizar nuevos empalmes, ya que podrían atenuar la señal o
producir efectos negativos derivados de la desadaptación de impedancias. Si no pueden evitar realizarse
nuevos empalmes, estos deberán ser de calidad, unidos con soldadura y apantallados frente a interferencias.
TEMA Nº 3 – S.T.I. – S.P.A. – 2020 - 2021
“CÁMARAS DE TELEVISIÓN”
INTRODUCCIÓN
En este capítulo se describe la estructura y funcionamiento de una cámara de televisión, cuyo esquema de
bloques aparece en la Fig. 9.1, así como los ajustes y operaciones técnicas fundamentales. En ella se pueden
identificar cinco grandes bloques:

I. El bloque óptico, con el conjunto de lentes, captadores y conversores optoelectrónicos.

II. El proceso de luminancia, donde se extraerá, a partir de las señales de los tres colores básicos, la información
correspondiente a la luminosidad de la escena.

III. El proceso de crominancia, realizándose la mezcla de RGB para obtener las señales diferencia de color y, a
continuación, modulándose para formar la señal de croma.

IV. El bloque de control y temporización, que supervisará y sincronizará el funcionamiento del resto de los
bloques.

V. La interfaz de usuario, que gobernará la comunicación entre la cámara y el operador, durante su utilización
habitual, y con el técnico, permitiendo realizar los ajustes de servicio de un modo sencillo y preciso.
Vamos a describir cada uno de los bloques, su funcionamiento, sus ajustes y operaciones de servicio más
usuales.

BLOQUE ÓPTICO
Contiene los dispositivos necesarios para seleccionar la escena a captar y convertirla en señales eléctricas
que se procesarán en el resto de las etapas. Desde el punto de vista óptico, un objetivo está formado, básicamente,
por tres conjuntos de lentes, encargadas de realizar otras tantas funciones, como son: las lentes de enfoque, las de
encuadre y las lentes de foco trasero.

 Lentes de enfoque. En la parte exterior del objetivo encontramos este primer grupo, cuya misión es concentrar
el punto focal sobre el sujeto que se desea captar. Naturalmente, para poder ajustar el foco sobre una gran
variedad de distancias, este grupo de lentes se desplaza
longitudinalmente. Del diámetro de la lente de enfoque
depende, en gran medida, la cantidad de luz que se transferirá
hacia el interior de la cámara, por lo que su tamaño es el mayor
de cuantos integran el objetivo.

 Lentes de encuadre (Zoom). Conocidas habitualmente como


zoom, se encargan de seleccionar la zona concreta de la imagen
que se transferirá hacia los sensores ópticos. Esta selección se
realizará a medida que el grupo de lentes se desplace de atrás
hacia adelante, definiendo la distancia focal en cada punto, y con
ello el ángulo de apertura visual en torno al eje del objetivo. El
recorrido de este grupo óptico define dos características del
objetivo: la distancia focal mínima y el número de aumentos.
Así, si encontramos un objetivo identificado como 15 x 8,
supondrá que la distancia focal mínima es de 8 milímetros,
pudiendo aumentarse hasta quince veces consiguiendo, por lo
tanto, una distancia focal máxima de 120 milímetros.

 Lentes de foco trasero. En los objetivos de distancia focal variable, se debe garantizar que la luz incida sobre la
superficie de los sensores de imagen en foco correcto para todo el recorrido de las lentes de zoom. Por este
motivo se incorpora una lente que se ajustará cada vez que se monte el objetivo sobre la cámara. Entre las
lentes de zoom y foco trasero se encuentra el diafragma o iris, una cortina circular que se abre o se cierra,
acomodando la cantidad de luz que se transfiere hacia el interior a las necesidades para la obtención de una
imagen correcta. El iris está calibrado en números de diafragma (f), que representan la relación entre la distancia
focal y el diámetro de apertura del iris. De este modo, cuanto más bajo sea el número que se corresponde con el
diafragma totalmente abierto, más luminoso resultará el objetivo.

Ejemplo 1:
Durante las operaciones habituales de la cámara en un estudio, el operador dispone de mandos de control para el foco y el zoom,
situados en los brazos del trípode. El control del iris se realiza desde el control técnico, para garantizar que todas las cámaras entregan una
señal con niveles de luminosidad semejantes.

LOS FILTROS DE CÁMARA


Podemos diferenciar las ondas luminosas que llegan en planos paralelos al eje óptico o próximas a éste
(llamadas componentes P); y aquellas componentes cuyo plano de incidencia está más cercano a la perpendicular
del mismo eje, que reciben el nombre de componentes S. Deberemos establecer un método para eliminar las dife-
rencias en el tratamiento de las distintas polarizaciones de la luz. Por esta razón se incorpora un filtro de un cuarto
de onda, que permitirá el paso de las componentes cuyo plano de polarización coincida con el eje óptico del propio
filtro.

Tras el filtro de cuarto de onda se dispone, montado en un


carro que permite al operador su intercambio de forma rápida y
sencilla, de un grupo de filtros de corrección de color, denominados de
modo abreviado «filtros CC». El objetivo de estos filtros es adaptar la
luz incidente, modificando su temperatura de color, de forma que los
separadores cromáticos reciban una señal luminosa adecuada a la
sensibilidad en las diferentes longitudes de onda en que trabajan.
Habitualmente se podrá elegir entre 3 y 5 filtros diferentes,
dependiendo del modelo de cámara, siendo los más frecuentes los
filtros para luz de incandescencia (3.200 0 Kelvin) o para luz de día, en
torno a los 5.600 0 Kelvin. Es importante seleccionar, en cada situación,
el filtro más adecuado a cada iluminación, con el fin de conseguir un correcto balance de blancos y, por lo tanto, una
adecuada respuesta cromática de la cámara.

Ejemplo 2:
El cambio de la polarización lineal múltiple, que teníamos originalmente, a la polarización circular hace que desaparezcan las diferen-
cias entre las distintas componentes luminosas de la señal de entrada. A partir de este punto, la luz polarizada circularmente se comportará de
manera uniforme en los espejos dicroicos y en las superficies reflectantes que encontraremos posteriormente.

Junto a los filtros de compensación de color se utilizan otros destinados a compensar los excesos en la
cantidad de luz de la escena a captar: se trata de los
filtros de densidad neutra (ND). El iris o diafragma del
objetivo se encarga de ajustar la cantidad de luz que
llega a los sensores de la cámara. Sin embargo, cuando
se actúa sobre el iris también se ve modificada
intrínsecamente la profundidad de campo, es decir, la
zona del espacio que se mantiene enfocada, delante y
detrás del punto focal. Por lo tanto, si deseamos
realizar una toma con poca profundidad de campo (en
un retrato en primer plano, por ejemplo) deberemos
abrir el iris, seleccionando un número bajo de
diafragma.

Encontraremos un filtro de infrarrojos, que se


encargará de limitar las señales de longitud de onda
superior a unos 680 nm. Este filtro se hace
imprescindible en las cámaras con sensores CCD, ya que estos elementos tienen una respuesta muy superior a la del
ojo humano, resultando sensible en la zona de los rayos infrarrojos.
Unido a este filtro de infrarrojos, que definirá la frecuencia mínima
que se transferirá a los captadores, se coloca un filtro paso bajo, que
completará la banda pasante del filtro óptico de entrada. La
justificación de la necesidad de este filtro reside en el hecho del
muestreo que se producirá posteriormente en los captadores de
imagen. En efecto, para convertir la imagen en señales eléctricas se
utilizará una matriz de diminutos sensores, y la separación entre ellos
definirá la resolución máxima que se podrá conseguir en la cámara.
De forma similar a lo que sucede en el muestreo de una señal
eléctrica, al aplicarse sobre una imagen se debe respetar el teorema de Nyquist, por el cual la frecuencia de
muestreo deberá ser, al menos, de valor doble que la máxima frecuencia muestreada. Extrapolando la norma,
deberemos garantizar que la longitud de onda más pequeña que pueda llegar es muestreada por, al menos, dos
elementos sensores de imagen. De no respetarse esta norma podrían aparecer señales espúreas (denominadas
genéricamente aliasing) producto de intermodulaciones, que producirían efectos no deseados sobre la imagen. Para
evitarlo se incorpora un filtro de cuarzo cuyo eje óptico se ha desplazado respecto del normal de la superficie, por lo
que se producirá un fenómeno de doble refracción.

Ejemplo 3:
La utilización de estos filtros neutros puede ser independiente o conjunta con los compensadores de color, y es frecuente encontrar,
dentro del conjunto seleccionable en la cámara, un filtro CC de 5600°K asociado a otro de densidad neutra, de utilización en tomas de exteriores
donde exista una “luz día” de elevada intensidad.

SEPARACIÓN CROMÁTICA
En las cámaras domésticas, la imagen transferida por el objetivo se aplica a un captador de imagen, en cuyo
interior existen elementos sensibles a diferentes colores (tradicionalmente ciano, verde, magenta y amarillo) y, por
matrizado de estas componentes, se obtienen
posteriormente las señales de luminancia y croma. Esta
solución es económicamente interesante, pero su
limitada resolución hace inviable su utilización en
sistemas profesionales. Cuando se requiere una mayor
calidad en la captación, se recurre a dividir la imagen
por procedimientos ópticos, extrayendo sus
componentes básicas de rojo, verde y azul. Una vez
separadas, las componentes cromáticas resultantes se
muestrearán en tres captadores independientes, por lo
que se obtendrán señales eléctricas correspondientes a
las tres señales básicas. El elemento que se encarga de
separar la luz en sus componentes básicas en cámaras
profesionales es el prisma dicroico, un conjunto de
espejos semirreflectantes que permiten el paso de uno
de los colores principales, reflejando el resto.

Los filtros dicroicos utilizados no reflejarán exclusivamente la


longitud de onda correspondiente al color para el que fueron diseñados,
por lo que inevitablemente se reflejarán colores que, no siendo
expresamente rojo o azul, tienen una longitud de onda cercana a la suya.
Para garantizar que a cada sensor le llega únicamente la componente
lumínica deseada, se incorporan, justo delante de los detectores, filtros
(7, 8 y 9) que transferirán las componentes básicas roja, verde y azul, de-
sechando el resto. Un problema asociado a los separadores cromáticos
son las imágenes fantasma, generadas cuando la luz se refleja de forma
no deseada en las paredes del prisma divisor, apareciendo en alguno de
los sensores un haz luminoso no deseado que se sumará (o se restará,
según la diferencia de fases) a la imagen original.

Ejemplo 4:
En la Figura 9.6 puede apreciarse el proceso que sigue la luz en el interior del prisma. Así, a través del objetivo llega la información
visual, una vez atravesados los diferentes filtros ópticos que incorporan las cámaras, hasta la cara frontal de un semiespejo (1) que permite
pasar la luz en la dirección de entrada, perpendicular a su superficie. La luz incide, a continuación, en la cara oblicua del primer prisma, donde
está ubicado un filtro dicroico de reflexión azul (2), por lo que la componente de este color se verá reflejada y conducida de nuevo hacia el
exterior del prisma. Sin embargo, como ahora el ángulo de incidencia no es perpendicular, el tratamiento de la superficie provocará una
reflexión total de la componente azul (3), que se dirigirá hasta el sensor de imagen correspondiente a ese color (4). El resto de las componentes
lumínicas podrán atravesar este primer filtro dicroico y llegar hasta el segundo prisma que, a su vez, incorpora un segundo espejo dicroico (5),
éste de color rojo, que se encargará de llevar estas longitudes de onda mediante una nueva reflexión total (6) hasta el sensor de imagen
correspondiente. Si a la imagen original le restamos, mediante estos dos separadores ópticos, las componentes de azul y de rojo, el resto
corresponde a las componentes de color verde contenidas en la escena, que habrán logrado atravesar las dos superficies dicroicas, siendo
recogidas por un tercer sensor situado detrás del separador cromático.

SENSORES CCD
En 1986, Sony comercializó la primera cámara de televisión que no utilizaba tubos de vacío como captadores
de imagen. Este hecho supuso una auténtica revolución del concepto mantenido hasta ese momento. Entre las
evidentes ventajas de los dispositivos de acoplamiento de cargas (Charge Coupled Device, CCD) podemos
encontrarlas de tipo físico y de tipo eléctrico, pudiendo resaltar las siguientes:

 Mucho menor volumen y peso, pudiéndose conseguir cámaras más pequeñas y ligeras, por lo que
resultaban idóneas para aplicaciones de reportería gráfica (ENG, Electronic News Ghathering).

 Menor fragilidad ante golpes, al haber desaparecido la ampolla de vidrio de su predecesor.

 Eliminación de las deformaciones geométricas, desapareciendo también la necesidad de corrección


mediante sistemas electrónicos.

 Aumento del tiempo de vida útil, que se ve multiplicada por veinte, con la gran ventaja de mantener sus
características invariables durante toda la vida, por lo que desaparecen los continuos ajustes que requerían
las cámaras de tubos.

 Reducción drástica del consumo, al no tener sistemas de calentamiento y aceleración por alta tensión ni
sistemas de deflexión electromagnética.

 Mayor sensibilidad, permitiendo realizar tomas en condiciones de iluminación mínima, al haber disminuido
notablemente el ruido inherente al captador.

 Eliminación de la remanencia, por lo que se puede exponer la cámara a escenas con altos contrastes, e
incluso directamente al sol, sin que aparezcan zonas quemadas, arrastres en la imagen y sin riesgo de dañar
la superficie sensible.

El elemento que posibilita un avance de tal magnitud es el condensador MOS.

Ejemplo 5: FUNCIONAMIENTO DE UN CCD


Si aplicamos una tensión eléctrica positiva de, por ejemplo, 5 voltios al terminal externo del electrodo (1) (Figura 9.9), los electrones
libres que posee el sustrato se verán atraídos hacia ese punto, situándose debajo del electrodo (2). Como tenemos una capa aislante entre el
sustrato (ahora negativo en la zona afectada) y el electrodo, estos electrones no podrán neutralizarse, formando una acumulación de
electrones que denominamos pozo de potencial (3). Este pozo de potencial se comporta como si de un pozo de agua se tratase, y resulta tener
una «profundidad» proporcional a la tensión eléctrica aplicada al electrodo, por lo que si aumentásemos la tensión a 8 voltios, aumentaría
también la carga almacenada en el condensador, obteniendo así un sistema de «memoria» analógico. Consideremos nuestro condensador
cargado con 8 voltios, y asociado a otro condensador al que no se le ha aplicado tensión alguna. En esta situación inicial (Figura 9.10 A), el
primer condensador tendrá un pozo de potencial, mientras que el otro estará descargado. Si ahora le aplicamos al segundo electrodo un poten-
cial de mayor valor (por ejemplo 12 voltios), los electrones que teníamos en el primer pozo se verán atraídos hada el segundo (Figura 9.10 B),
de forma similar a lo que ocurriría si creásemos un pozo de agua contiguo de mayor profundidad que el primero, donde el agua fluiría desde un
pozo hasta el otro. Para completar el ciclo de transferencia, bastará con eliminar el potencial aplicado al primer electrodo, a la vez que se hace
descender el potencial del segundo en la misma proporción (Figura 9.10 C). A partir de este momento, el primer pozo de potencial habrá de-
saparecido, y la carga que teníamos en él se habrá desplazado al segundo, y repitiendo esta secuencia en una matriz de condensadores
podremos llevarlo al lugar que deseemos, mientras que gobernando la temporización de cada fase controlaremos también el tiempo que se
invierte en el desplazamiento desde el principio al final del trayecto. De hecho, una de las aplicaciones más usuales de esta estructura es la de
línea de retardo analógica, utilizada ampliamente en sistemas de radio y televisión

Pero la cualidad más interesante no reside en la capacidad


de almacenamiento, sino en la de poder mover las cargas
almacenadas. Esto se consigue asociando muchos de estos
condensadores (en la práctica cerca de un millón) y realizando un
movimiento coordinado de todos ellos, según describiremos a
continuación. Para conseguir un sensor de imagen, basándose en el
condensador MOS, se sustituye el electrodo por una capa de polisilicio transparente, que actúa como elemento con-
ductor al tiempo que permite el paso de los fotones de la luz que, al incidir sobre el sustrato de silicio, creará un
pozo de potencial, en este caso proporcional a la intensidad luminosa recibida. En un fotocaptador CCD se utiliza una
combinación de fotosensores, que se encargarán de realizar la conversión optoelectrónica. Las cargas obtenidas en
los pozos de potencial son extraídas por un único terminal, en forma
de una serie ordenada de señales eléctricas analógicas correspon-
dientes a los puntos de cada línea. A continuación, se extraerá la
línea siguiente de información, y así se irá completando la imagen
capturada. Durante el proceso de lectura, las cargas deben ser
retenidas en una zona de almacenamiento temporal, para dejar libres
los elementos sensores, que irán captando la siguiente imagen. EL
paso de las cargas desde la zona expuesta a la luz hasta el área de
almacenamiento se produce en el intervalo de borrado vertical. No
todos los fotosensores utilizan el principio del condensador MOS.
Existe una variante basada en una estructura de unión P-N
inversamente polarizada, que forma pequeños fotodiodos que pueden funcionar, según el modelo y fabricante, por
acumulación de huecos, en lugar de electrones, funcionando conceptualmente de forma similar. Tal es el caso de los
sensores de tipo HAD (Hole Acumulation Diode).

TIPOS DE CCD
A continuación repasaremos las diferentes estructuras por
orden cronológico, comentando sus características más importantes.

 Sensor de transferencia de cuadro (Frame Transfer, FT). En los


primeros sensores de imagen de estado sólido, se dispusieron
las áreas de captación y de almacenamiento separadas, según
se puede apreciar en la Figura 9.13. Junto a la zona de
almacenamiento se encuentra el registro de desplazamiento
horizontal, asociado al terminal de salida. Cuando el objetivo
proporciona una imagen sobre la zona sensible, se forman los
pozos de potencial bajo los fotosensores. Al llegar el periodo de
borrado vertical, un obturador mecánico se encargará de bloquear la luz, iniciándose la fase de
almacenamiento. Durante este tiempo se generará un rápido tren de impulsos a las puertas de transferencia
de los fotosensores, que actúan también como registro de desplazamiento vertical. Estos impulsos aplicados
desplazarán, paso a paso, la imagen desde un sensor al inmediatamente inferior, hasta conseguir ubicar la
imagen dentro de la zona de almacenamiento, oculta a la luz mediante una máscara óptica. Una vez que la
imagen está en la zona segura, el obturador de la cámara volverá a permitir el paso de la luz, formándose una
nueva imagen sobre los sensores.

Simultáneamente se irán aplicando pulsos al registro de salida horizontal, de forma que la primera de las
líneas de información empezará a salir por el terminal adecuado. El tiempo empleado en extraer los puntos corres-
pondientes a cada línea es, naturalmente, de 52 μs, coincidiendo con el periodo activo de línea. Tras la extracción de
la primera línea, un impulso a la fase vertical del área de almacenamiento provocará que la imagen almacenada suba
una posición, quedando la segunda línea dispuesta para ser extraída por el registro de desplazamiento horizontal.
Esta secuencia se repetirá hasta que se obtenga toda la información almacenada de la primera imagen, tras lo que se
producirá un nuevo intervalo de borrado vertical, transfiriendo la segunda imagen a esta zona de almacenamiento.
La estructura descrita, si bien es sencilla de construir, adolece de tres problemas básicos: de una parte, la necesidad
de disponer de un obturador mecánico que se encargue de bloquear la luz durante el proceso de transferencia. De
no ser así, nos encontraríamos con un grave problema, ya que durante el proceso de transferencia hacia el área de
almacenamiento se continuarían cargando los pozos de potencial, provocando graves mezclas de potencial y, por lo
tanto, contaminaciones en las señales obtenidas. Los otros problemas también están relacionados con la
contaminación de cargas, si bien se deben a razones diferentes y producen situaciones que tienen nombre propio:

 Smear: Al captar una imagen con puntos de elevada luminosidad, los pozos de potencial correspondientes a
estas zonas serán sometidos a una cantidad de luz tal que no podrán acumular tanta carga, por lo que se
producirá un «rebosamiento» de estos pozos. Esto supondrá
una pérdida de definición de la zona sobreiluminada, por lo
que la luz se visualizará como una zona borrosa blanca o, en
algunos modelos de cámara, ligeramente coloreada. Como
resultado de estos derrames aparecerá una línea luminosa en
la vertical del punto luminoso original, producido por el
«rastro» de celdas contaminadas durante el periodo de
desplazamiento vertical de las cargas desde el área sensible
hacia la zona de almacenamiento.

 Lag: También llamado “efecto cometa”, es un problema que se


manifiesta cuando visualizamos un punto altamente iluminado
y en movimiento sobre un fondo oscuro. En efecto, al
desplazar las cargas de un lado a otro, tendremos de nuevo una situación de contaminación de pozos
adyacentes, pero en esta ocasión en la dirección del movimiento de la fuente luminosa.

Ejemplo 6:
Para comprobar la calidad del sensor, una de las pruebas que se pueden realizar es enfocar la cámara a una escena donde existan
grandes contrastes, sometiendo así a los sensores y circuitos a condiciones extremas de funcionamiento. Estas condiciones se producen, por
ejemplo, cuando se toma la luz de una vela en un entorno de total oscuridad. En tal caso, se podrá observar fácilmente si existe smear, que
aparecerá como una mancha blanca alrededor y una línea vertical iluminada en la posición de la llama. Para comprobar el grado de lag,
bastará con mover la vela por la pantalla. Si existe, se manifestará como una estela de luz que sigue a la vela.

 Sensor de transferencia interlínea (Interline Transfer, IT). Con el fin de resolver alguno de los problemas del
sensor FT, se desarrolló una estructura diferente, que dispone los elementos captadores intercalados con los
elementos de almacenamiento. Como en el caso anterior, es necesario ocultar el área de almacenamiento de
la luz, por lo que se utiliza un filtro opaco en forma de peine, como se observa en la Figura 9.15. En este
sistema se incorpora por primera vez el obturador electrónico, por lo que la luz incidente formará la imagen
de cargas sobre los sensores cuando se cierren las compuertas de drenaje. Pero la mayor diferencia reside en
la transferencia hacia la zona de almacenamiento. Como los sensores se encuentran intercalados con sus
celdas de retención, el espacio entre los elementos sensibles es mayor, por lo que se reducirá la con-
taminación por fugas luminosas (lag).
Asimismo, la nueva disposición presenta otra
ventaja: bastará un único ciclo de
desplazamiento horizontal para trasladar la
imagen a la zona segura. Durante el siguiente
campo se irá extrayendo la información de las
diferentes líneas a través de los registros de
desplazamiento verticales y el registro
horizontal de salida, mientras se forma una
nueva imagen sobre la superficie sensible.

La contrapartida la encontramos en el hecho


de que las cargas almacenadas deberán permanecer
adyacentes a los sensores durante el proceso de lectura de la información, suponiendo un tiempo relativamente
grande y una causa potencial de problemas en condiciones extremas de funcionamiento.

Ejemplo 7:
Si sometemos a nuestra particular prueba de la vela sobre fondo oscuro a este sensor, encontraremos que si bien su respuesta es sen-
siblemente mejor en cuanto a lag, aún adolece del problema del smear vertical. Esto se debe a que, durante la transferencia hacia el terminal
de salida, cada registro de desplazamiento vertical está flanqueado por dos columnas de sensores. Si a través de este registro se desplaza un
punto con una gran cantidad de carga, parte de ésta se podrá «derramar», contaminando los sensores adyacentes, sobre todo si éstos se
encuentran vacíos originalmente, por pertenecer a una zona oscura de la imagen.

 Sensor de transferencia de cuadro interlineal (Frame Interline Transfer, FIT). A partir de las experiencias
anteriores, se dedujo que la estructura ideal sería aquella en la que se dispusiera de una zona de
almacenamiento separada del área sensible
(como en el tipo FT) y que para llegar hasta ella
la imagen no utilizara los sensores, disponiendo
para ello de un camino alternativo (como en el
tipo IT). Según estas premisas se crea el sensor
FIT, que resulta ser una mezcla de los dos
anteriores, combinando lo mejor de cada uno.
En este sistema encontraremos, por lo tanto,
una zona en la que se disponen, intercalados, los
sensores ópticos junto a los registros de
desplazamiento verticales. Como en el sensor IT,
una vez creados los pozos de potencial a partir
de la imagen, se transferirán, mediante una fase
de movimiento horizontal, hacia el canal de
desplazamiento situado a la derecha de cada
sensor. Inmediatamente después, y a una gran
velocidad, se aplica un tren de impulsos que
provocará la rápida transferencia de la imagen
hasta la zona de almacenamiento, situada en este caso lejos del área de captación. Una vez que la imagen está
en zona segura, se procederá, a la velocidad nominal, a extraer el contenido de cada línea a través del registro
horizontal de salida. El hecho de que la transferencia se realice a una elevada velocidad, de una parte, y que la
imagen se almacene lejos del área sensible, por otra, hacen desaparecer los inconvenientes presentes en otros
tipos de CCD, presentando unas características de calidad excepcionales. Sin embargo, por cada elemento de
imagen, este sensor necesita otros dos (uno para el canal de desplazamiento vertical y el otro en la zona de
almacenamiento). Esto supuso que, para poder mantener una buena resolución con tal cantidad de
elementos, se tuviera que incrementar el grado de integración, reduciendo el tamaño de cada unidad de
captación.

PROCESO DE LUMINANCIA
Una vez extraídas las señales correspondientes a los tres colores básicos, con ellas se realizarán diferentes
procesos dirigidos a conseguir la señal de vídeo según el estándar PAL. Para ello se utilizan dispositivos diferenciados
para los tratamientos de las señales de luminancia y croma, de forma complementaria a los utilizados en los
receptores de televisión. En el caso de la señal de luminancia, el proceso es relativamente sencillo. Básicamente se
encarga de adecuar la información de luminosidad de la escena, para compensar la falta de linealidad de los
diferentes circuitos del sistema de transmisión, desde los captadores de la cámara hasta los tubos de imagen del
receptor. En este bloque encontraremos, por tanto, los circuitos de ajuste de gamma, los controles del nivel de los
picos de blanco y negro, los mejoradores de detalles, limitadores de ancho de banda, amplificación y control de
ganancia, etc. Una vez realizadas estas operaciones, las señales RGB se aplicarán a una matriz, donde se obtendrá, a
partir de las componentes unitarias ponderadas, la señal de luminancia (Y).

 Matriz de luminancia. Una vez realizado el ajuste de los amplificadores RGB a fin de obtener un nivel de
gamma de 0,45, es necesario unificar estas tres señales unitarias para obtener la información de luminancia.
Para obtener un nivel blanco no se pueden mezclar los colores básicos uniformemente, sino que se deben
establecer los factores de ponderación adecuados para adaptarlos a la sensibilidad del ojo humano para cada
uno de ellos. La componente de luminancia (Y) correcta se obtendría a partir de la siguiente mezcla:

30 % R + 59 % G + 11 % B = 100 % Y

Esta mezcla se producirá en un circuito de matrizado, obteniéndose en su salida la señal de luminancia.

 Otros circuitos de luminancia. Además de los procesos fundamentales para la formación de la señal de
luminancia, en las cámaras se incorporan otros circuitos auxiliares encaminados a mejorar sus prestaciones.
Algunos de estos circuitos son:

 Mejoradores de detalles: configurados en base a un filtro paso


alto adaptativo, su misión consiste en compensar el limitado
ancho de banda de los amplificadores de vídeo, consiguiendo así
una respuesta en frecuencia de la señal más elevada.

 Limitadores de blanco y negro: como resultado de estos


magnificadores, se pueden producir picos de nivel excesivos de
señal que se extiendan por encima del nivel de blanco o por
debajo del nivel de negro, que podrían resultar problemáticos y
deben ser limitados.

 Controles de pedestal y ganancia: una vez acotado el margen en


el que se podrá mover la señal, se definirá con el control de
pedestal en nivel mínimo que entregarán los amplificadores,
correspondiente al nivel de negro, así como la ganancia de los
amplificadores para poder representar adecuadamente una
imagen blanca del 100 por 100. Además, las cámaras incorporan
magnificadores de ganancia, que permitirán operar en
condiciones de baja luminosidad, a pesar de llevar unido un
incremento del ruido de nivel de negro.
 Controles de pendiente y knee: si la cámara se orientase sobre una escena sobreiluminada, la señal de salida
se saturaría, por lo que la calidad de imagen se vería notablemente resentida. Para evitarlo, las cámaras
incorporan circuitos de codo y pendiente, que detectan la sobreexposición de la imagen, y modifican la
ganancia de los amplificadores (representada por la pendiente de una recta en la gráfica de transferencia) a
partir de un determinado punto, llamado knee («rodilla» en inglés, aunque en español se suele llamar
«codo»). Este cambio provocará una disminución de la ganancia en la zona de alta iluminación,
comprimiendo de esta forma la señal, por lo que resulta una imagen mucho más agradable.

PROCESO DE CROMINANCIA
Para obtener la señal de crominancia es necesario someter a las señales RGB a varias transformaciones que
ajustarán los parámetros de colorimetria, formarán las señales diferencia y se modularán para conseguir la señal de
color de la escena.

 Balance de blancos. Antes de efectuar cualquier operación con las cámaras que van a utilizarse en una
grabación o retransmisión, es imprescindible efectuar una serie de ajustes técnicos que garanticen que las
diferentes cámaras presentan una imagen similar, sin cambios bruscos de matiz cuando se producen
transiciones entre ellas. Uno de los ajustes fundamentales es el de balance de blancos, que garantizará una
correcta representación del resto de los colores captados por la cámara. El balance automático de blancos se
activa momentáneamente mientras se presiona un interruptor, cuando la cámara se encuadra sobre una
superficie blanca, que refleja la misma luz que se empleará durante la toma, y con una cantidad de luz
incidente que no produzca saturación de los amplificadores. Una vez efectuada la operación de ajuste, el
sistema guarda en una memoria de escena los valores correspondientes a las ganancias aplicadas a los
amplificadores de rojo y azul, manteniéndolos hasta que se realiza un nuevo ajuste. Comparando los valores
almacenados con otros preestablecidos para cada cámara, se obtiene una medición de la temperatura de
color, que resulta de utilidad para la selección de los filtros ubicados entre la óptica y los sensores de imagen.
Es frecuente encontrar, asociado a este balance de blancos, un balance de negro, que garantiza que los tonos
asociados a bajos niveles de luminancia (azules, marrones, etc.) serán representados adecuadamente. Esta
función provoca el cierre total del iris de la cámara, y el ajuste de los amplificadores para diferentes ganancias
del sistema.

Ejemplo 8:
Cuando se selecciona esta función, la cámara ajusta los niveles de los amplificadores de los canales rojo y azul, aplicándoles una
tensión de control en forma de rampa creciente, comparándolos con el nivel de verde, que se utiliza como referencia, hasta que las señales
diferencia que se obtienen en la salida de la matriz de crominancia desaparecen. En este momento, cuando no existe señal de crominancia, se
puede garantizar que la imagen presenta un matiz blanco, con ausencia de pigmentaciones debidas al tipo de luz empleada u otros factores.

 Matriz de crominancia. Si bien la cámara de televisión captura los tres colores básicos, sabemos que no se
transmiten directamente, sino que se matrizan para obtener la información de blanco y negro (luminancia). Al
enviar ahora conjuntamente información cromática, podemos apoyarnos en la señal actual para disminuir la
cantidad de información añadida al canal de transmisión. Por ello se recurre a obtener las señales diferencia
de color respecto de la señal de luminancia. Aunque en principio cabria pensar en la obtención de las tres
señales diferencia de color (R-Y, G-Y, B-Y), al transmitir también la información de luminancia, podemos ahorrar
aún más espectro, ya que enviando únicamente dos de estas señales diferencia, en el receptor de televisión se
puede recomponer la tercera. Así, con las señales Y, R-Y, B-Y se pueden obtener a través de matrices las
componentes unitarias RGB originales. En la matriz de crominancia se obtienen, por lo tanto, las señales
diferencia de rojo y de azul respecto de la señal de luminancia, suprimiéndose la señal diferencia de verde, por
ser la que estadísticamente lleva una mayor cantidad de información y, por lo tanto, la que supone un mayor
ahorro en el proceso de transmisión.
 Modulador U –V. Las señales diferencia de color que extraemos de la matriz deben tener un formato idóneo
para la incorporación al canal de vídeo. Para ello se recurre a modular las señales R-Y y B-Y utilizando una
portadora cuyo valor resulta ser un múltiplo impar de la mitad de la frecuencia de líneas. El valor elegido para
esta subportadora de crominancia será más adecuado si se encuentra en la zona superior del ancho de banda
de luminancia, donde los armónicos de esta señal tienen un valor pequeño, por lo que la interferencia con
ellos se ve así reducida. En el sistema PAL B/G, este valor es de 4,433619 MHz.

El sistema de modulación empleado es el de doble banda lateral para cada una de las dos señales diferencia.
Con el fin de que puedan coexistir las dos modulaciones sin mezclar las informaciones que contienen, ya que se mo-
dulan con la misma frecuencia de la portadora, se recurre a aplicar las portadoras con una diferencia de fase de 90°,
lo que se conoce como modulación en cuadratura. De este modo, a la
señal diferencia de azul (B-Y) se le aplica una subportadora con fase 0o,
mientras que al modulador de la señal diferencia de rojo se le desfasa
la subportadora 90°. Las dos señales moduladas reciben el nombre de
señal U (B-Y modulada) y señal V (R-Y modulada), y se encontrarán en
ejes diferentes de fase, lo que permitirá que se sumen y se transmitan
como una única señal que se denominará «señal de crominancia».
Como esta señal de crominancia se va a sumar a la señal existente de
luminancia, deberemos garantizar que la señal resultante (señal de
vídeo compuesto) permanece en todo momento dentro de los límites
establecidos para el estándar PAL, por lo que la señal de crominancia
no deberá exceder, en ningún caso, en más de un 33 por 100 de los
límites del nivel de blanco, en la zona superior, ni del nivel de borrado,
en la zona inferior. Sin embargo, si utilizamos las señales diferencia tal
como se producen y las modulamos directamente, obtendremos una señal de vídeo con un excesivo nivel de
crominancia en la barra correspondiente al amarillo, mientras que el nivel inferior de la barra azul excede por debajo
del nivel de sincronismos, pudiendo causar serios problemas. Para evitar este efecto se procede a modificar las
señales diferencia antes de ser moduladas, de forma que se mantengan en todo momento dentro de los límites
establecidos. Se aplica un factor de ponderación a cada una de las señales diferencia, dividiendo la señal diferencia
de rojo por 1,14 (o multiplicándola por 0,877) y la señal diferencia de azul por 2,03 (o multiplicándola por 0,493).

 Codificador PAL. El sistema PAL incorpora un codificador o modulador de tiempo, que provoca una
alteración sistemática de la fase de la componente R-Y, produciéndose en una de cada dos líneas, por lo que
se transmite una línea con fase 90° y la siguiente con fase 270° (-90°). Esto permite en el receptor la
restauración de posibles errores de fase producidos durante el proceso de transmisión, por comparación de
las señales diferencia de dos líneas de televisión consecutivas.

La inclusión del codificador PAL supone que por cada color, en realidad, no queda representado por un único
vector, sino por dos vectores: uno con componente R-Y positiva y otro con componente R-Y negativa. El sistema de
modulación se completa con la inclusión del sobreimpulso o burst, consistente en un grupo de entre 9 y 11 ciclos de
la señal subportadora de color, con una fase de 135° (225° para la siguiente línea), que sirve como elemento de
identificación de que la señal transmitida contiene información de color, y como referencia para la demodulación.
Este burst se añade en el pórtico posterior de cada línea de televisión. Una vez conformada la señal de crominancia,
se aplica al mezclador, donde confluye con la señal de luminancia y la inserción de los sincronismos, creando la señal
conocida como «vídeo compuesto». Por otro lado, las señales de luminancia y croma se llevan al conector de salida
independiente que suelen llevar las cámaras.

TEMPORIZACIÓN Y CONTROL
Los procesos que se llevan a cabo en el interior de la cámara precisan de un supervisor que los sincronice y
controle su correcto desarrollo. Todas estas funciones están encomendadas al bloque de temporización y control,
que adquiere en cada generación de cámaras un nivel de complejidad y prestaciones más importante. La base de
este sistema es un microcontrolador.

 Control de iris. Otro de los ajustes que efectúa el sistema es el de la apertura o cierre del iris, que controla la
cantidad de luz que incide sobre los sensores de imagen,
procedente de la óptica correspondiente. Habitualmente se
puede seleccionar un funcionamiento del iris en modo auto-
mático o manual. El sistema de control lo complementa con el
ajuste automático de la ganancia de los amplificadores de RGB,
obteniendo con este funcionamiento conjunto un amplio
margen de iluminaciones en los que la cámara opera
adecuadamente. En todas las cámaras es posible desconectar el
sistema de control automático de iris, con el fin de poder realizar
correctamente tomas situadas en contraluz, o crear un efecto de elevados contrastes.

 Control de los CCD. Una de las misiones fundamentales del sistema de temporización consiste en generar las
fases de lectura de los sensores CCD. Detrás de todo este sistema de exploración se encuentra un
controlador específico, encargado de activar los diferentes electrodos durante las distintas fases del proceso.
Este controlador está sincronizado por un oscilador patrón de temporizaciones, cuyo funcionamiento
gobierna el microcontrolador. Así, es misión de este sistema, por ejemplo, el control del obturador
electrónico que incorporan las cámaras modernas, al comprobar el tiempo de carga de los elementos
sensores de cada captador. A partir del oscilador patrón se genera también la señal subportadora de
crominancia, necesaria para la correcta modulación de las señales diferencia de color, así como los patrones
de sincronismos horizontales y verticales que acompañarán a la información de imagen para su correcta
representación en los receptores.

INTERFAZ DE USUARIO
El interfaz de usuario suele estar diseñado en torno a un segundo microprocesador, dedicado en este caso a
presentar información en pantalla o en el visor del estado de la cámara, mientras rastrea el teclado a la espera de la
introducción de órdenes por el usuario, y mantiene con el microcontrolador principal una comunicación
bidireccional a través de un bus serie interno. De cara al usuario, la información le llega fundamentalmente por tres
caminos diferenciados:

 A través de la pantalla de cristal liquido que cada vez incorpora un mayor número de equipos, y que se
encarga de mostrarnos, mediante un sistema de menús, las condiciones de operación del aparato, sus
ajustes, etc.

 Del generador de datos en pantalla, que sobreimpresiona sobre la imagen del visor o monitor los datos
fundamentales y ayudas de manejo, como el recuadro de «imagen segura» que facilita el correcto encuadre
de la escena, o la señal zebra, que marca con franjas claras y oscuras alternativas las zonas de la imagen que
se encuentran sobreexpuestas a la luz.

 Por los diferentes pilotos indicadores de estado que incorporan. De entre estos últimos cabe destacar el
indicador Tally, visible frecuentemente para el operador y para el actuante, que informa de cuándo la señal
de la cámara está siendo grabada o seleccionada por el mezclador de producción.

LA UNIDAD DE CONTROL DE CÁMARA


Esta unidad puede comunicarse con la cámara a través de señales analógicas unitarias para cada uno de los
ajustes que incorporan, en el caso de las antiguas, o bien efectuar el diálogo directamente con el microcontrolador
interno a través de un puerto serie de comunicación auxiliar, dedicado especialmente a tal fin. Esto permite efectuar
las operaciones de ajuste de las funciones de las diferentes cámaras que operan conjuntamente en un plato desde el
control de producción del mismo, estableciendo la comparación entre ellas, garantizando así que presentan una
respuesta uniforme, y pudiendo realizar si es preciso pequeñas correcciones durante la marcha sin necesidad de
alterar el trabajo del operador de cámara.

 Conexión de la unidad de control de cámara. En una cámara con CCU


encontraremos un gran número de conectores, que dotarán al equipo
de numerosas prestaciones. A continuación expondremos las más
habituales:

 Entrada de sincronización externa: se utiliza una señal externa como


referencia de sincronización común. Como el resto de las entradas,
suele contar con dos conectores, para posibilitar la conexión en bucle
de varias unidades. Suele estar identificada como Sincro ext. o Genlock in.

 Entrada de retorno de vídeo: en algunas tomas es necesario que el operador de cámara vea en su monitor la
señal de programa o incluso la imagen captada por otra cámara. Para realizar esta función, a la cámara le
llega una señal de retorno de vídeo a través de La CCU.

 Entradas de señales auxiliares: una función adicional incorporada en algunas cámaras puede ser la de
transportar señales complementarias a las propias. Tal es el caso de las líneas de audio para intercomunicar
al operador de cámara con el control de realización, o la línea de vídeo necesaria para mostrar los textos que
el presentador del programa debe leer. Estas señales también se transportan a través del cable que une la
cámara con su unidad de control.

 Salidas de vídeo: en una unidad de control


encontraremos múltiples conectores de salida
de vídeo, en los diferentes formatos en los que
esta señal se puede presentar. Así, podremos
tomar la salida de señales unitarias RGB, en
componentes analógicas {Y, R-Y, B-Y), en
componentes digitales (SDI), con señales
separadas Y/C e incluso en vídeo compuesto.
Utilizar una u otra dependerá de la calidad que
queramos obtener y de las posibilidades del
equipo al que conectaremos la cámara.

 Controles remotos: se suele situar las unidades


de control de cámara en un armario de equipos,
y realizar las funciones de ajuste a través de
mandos de control remotos colocados en una
mesa. Éstos se conectan a la CCU mediante
cables multihilo.

 Conexión cámara-CCU: la conexión entre la cámara y el control de producción puede hacerse a través de
tres métodos diferentes:

I. Cable multicor: (multicore) es un enlace de cable múltiple (de 20 a 30), que incorpora hilos coaxiales
para el envío de la señal de vídeo desde la cámara hacia el control y para la señal de enclavamiento
con el generador de sincronización. En la manguera disponen de algunos hilos para la
intercomunicación con los operadores de cámara, activación del indicador de tally y la propia
alimentación de la cámara, entre otros, de características diferentes según la necesidad. Con estos
cables se pueden conectar cámaras que no se encuentren lejos del control, porque los cables
deberían entonces tener una sección muy grande.

II. Cable triaxial: fabricado como un coaxial con dos


mallas conductoras concéntricas. Esta construcción
permite llevar con mínimas pérdidas, y con una sola
línea, gran número de señales, que van desde la
alimentación de la cámara, los servicios de
intercomunicación, audio, señales de sincronización y
monitorización, comandos de ajuste de cámara, etc. El
sistema trabaja multiplexando en frecuencia las
diferentes señales. Así, se modulan en frecuencia las
señales de audio, datos y vídeo con diferentes
portadoras, siendo necesaria en la unidad de control
de cámara su demodulación antes de ser enviadas a
sus destinatarios. Se pueden cubrir distancias de hasta
1.500 metros entre la cámara y su unidad de control.

III. Fibra óptica: en las cámaras más actuales podemos


optar por establecer un enlace óptico entre la cabeza
de cámara y su unidad de control. Cubriendo grandes
distancias con una atenuación mínima. La conexión con fibra óptica transmite las señales de vídeo,
audio y datos de control bidireccionales multiplexados, separándose en la unidad de control de la
cámara.

Ejemplo 9:
En un programa de debate, el realizador decide componer un plano en el que se ven, enfrentados, a dos contertulios que mantienen
posturas opuestas, y que en realidad no están situados el uno frente al otro. Para lograrlo utiliza dos cámaras: en una de ellas, el orador que
mira hacia la derecha aparecerá en la mitad izquierda de la pantalla, y la otra tomará una imagen complementaria. Para que no se solapen las
dos figuras, y mantengan un tamaño y encuadre correctos, será necesario que los operadores de cámara vean el resultado de la composición
de las dos imágenes. Sin duda, durante esta operación los monitores de las cámaras mostrarán la señal de vídeo de retorno, en lugar de la
imagen que está captando la cámara en ese momento.

 Ajustes a realizar. A través de los mandos del panel frontal, o bien desde el control remoto de la CCU,
podremos acceder a los ajustes del funcionamiento de la cámara. Aunque pueden variar ligeramente de
unos modelos a otros, los principales parámetros que podremos controlar son los siguientes:

 Iris: el mando de mayor tamaño suele ser el que controla la apertura de la cortinilla del iris de la cámara.

 Pedestal: está asociado al mando de iris, pero en este caso se varía girándolo de derecha a izquierda.

 Ganancia: una vez fijado el nivel de pedestal, ajustaremos también el nivel máximo de la señal.

 Balance de blanco y negro: podremos optar por realizar los ajustes de forma automática, o bien controlar la
ganancia de las señales roja y azul manualmente. En esta zona encontraremos también la función ATW (Auto
Trace White). Al activarla, el sistema evaluará constantemente las señales de color, y ajustará
automáticamente los amplificadores para realizar un ajuste de blanco continuo.

 Gamma y knee: con el primero de estos controles podremos modificar la relación luminosidad-señal
eléctrica de la cámara, como ya hemos estudiado. En algunas cámaras podremos encontrar un limitador de
codo y pendiente, pudiendo ajustarse el punto en el cual se reduce la ganancia del equipo.
 Obturador: otra de las funciones que podremos encontrar es el control de la velocidad de obturación de la
cámara.

 Compensación de cable: como la longitud del


cable que une la cámara con la CCU suele ser
muy grande, podremos compensar las
pérdidas de señal y los desfases que se
producen en dicho cable.

 Fase de cámara: para garantizar que la cámara


se integra correctamente con el resto de los
equipos, encontraremos dos mandos que
ajustarán la fase de los sincronismos. Por un
lado, tendremos el mando de fase del
sincronismo de línea, mientras que para
controlar la fase de la señal subportadora de
color encontraremos dos. Primero actuaremos
sobre un conmutador que realizará un ajuste
grueso (0-180°) y después retocaremos un
potenciómetro de ajuste fino.

CÁMARAS DE PROCESADO DIGITAL


En la actualidad, un gran número de las cámaras que se comercializan incorporan circuitos que procesan la
imagen digitalmente. En este tipo de cámaras, el grupo óptico y el sistema captador de imagen es idéntico al de las
cámaras convencionales, residiendo las diferencias en los procesos de matrizado de las señales RGB. Si analizamos su
esquema de bloques (Figura 9.28), encontraremos un bloque de preproceso analógico, encargado de realizar los
ajustes básicos de la señal captada por el sistema captador. Entre los ajustes a realizar en esta etapa se encuentran
el balance de blancos y de negros, la ganancia de los amplificadores, y su linealidad de funcionamiento (gamma);
aunque este último parámetro, según el modelo concreto, también puede realizarse en los circuitos digitales. Hasta
este punto, la cámara sigue funcionando con circuitos analógicos por dos razones fundamentales:

 La señal que entregan los sensores tiene un nivel muy bajo, por lo que es necesaria una adaptación previa
para adecuarla al margen de funcionamiento óptimo de los convertidores analógico a digital, por lo que se
aprovechan estos amplificadores para realizar las correcciones propias del sistema al mismo tiempo.

 La realización de estas funciones digitalmente supondría la necesidad de insertar circuitos digitales de cierta
complejidad, lo que encarecería el precio de la cámara innecesariamente.

Una vez superado el procesado previo, las señales primarias se aplican a tres conversores de analógico a
digital, que realizarán el muestreo y conversión de las señales analógicas, entregando en un bus digital paralelo los
datos correspondientes a los puntos de imagen muestreados por los sensores CCD. Para optimizar la conversión,
estos convertidores reciben una tensión de referencia entregada por el sistema de control. Esta referencia definirá el
margen de tensión de entrada muestreado, variándose según la luminosidad de la imagen, por lo que el sistema
realizará una conversión adaptativa, y se conseguirá así una adecuada cuantificación incluso en escenas con baja
iluminación. Ya en formato digital, los buses de las señales roja, verde y azul se aplican a un bloque de procesado
digital de la señal (DSP), donde se realizarán estas funciones:

 Matrices de luminancia y croma: combinando numéricamente las señales RGB, se obtienen los datos
correspondientes a las señales de luminancia y crominancia.
 Compresión del margen dinámico: cuando una muestra representa un punto excesivamente iluminado, a
partir de las componentes primarias, se aplicará un factor de corrección para evitar la saturación de la señal
de luminancia. Esta corrección funciona como el circuito knee de las cámaras analógicas.

 Mejora de detalles: las muestras digitales obtenidas para las señales RGB, así como para las salidas de
luminancia (Y) y crominancia (C), están formadas por 8 bits. El ojo humano no presenta una gran resolución
en los colores de la escena, por lo que esta longitud de palabra nos proporciona una precisión suficiente. Sin
embargo, para conseguir una señal de luminancia con un elevado índice de detalle, se comparan muestras
diferentes, y a partir de sus diferencias se detecta la complejidad de la imagen. De ello se obtiene una
información de los detalles finos de la escena que se añadirá a la generada en la matriz digital. Con este
bloque conseguiremos que la señal de luminancia multiplique por cuatro su resolución, al convertirse ahora
en muestras de 10 bits. Estos bits adicionales habrán sido aportados por la información de los mejoradores
de detalle vertical y horizontal.

EL sistema se completa con los sistemas de temporización y control y de interfaz de usuario, que mantienen su
principio de funcionamiento y estructura básica. Una vez realizadas estas operaciones, las señales de luminancia y
croma están dispuestas para ser entregadas al usuario. La forma en la que se extrae la información dependerá de las
características de la cámara. La salida más directa sería en componentes digitales Y, CR, CB. En este caso únicamente
precisaremos un convertidor paralelo a serie, y la inclusión del protocolo de la trama digital. Otras formas de salida
digital serie utilizadas serían los formatos SDI o el IEEE 1394. Si se desean las señales en formato analógico a partir
de las componentes digitales, mediante conversores de digital a analógico se pueden obtener las señales de
componentes analógicas de luminancia (Y) y diferencia de color (R-Y) (B-Y). Si aplicamos estas señales analógicas a
un codificador PAL, podríamos utilizar las señales de luminancia y crominancia separadas (Y/C) a través de un
conector S-Video. Por último, uniendo estas dos señales obtendríamos la señal de vídeo compuesto.

Ejemplo 10:
Si realizamos una toma nocturna, el sistema de control generará, una vez analizada la señal de vídeo generada, una tensión de
referencia de pequeño valor. Esto provocará una reducción del margen de cuantificación del conversor A/D, por lo que su trabajo se centrará
sobre las señales de bajo nivel, desechando el resto. Con ello se consigue una mayor resolución y un aumento del contraste en este tipo de
escenas.
TEMA Nº 4 – S.T.I. – S.P.A. – 2020 - 2021
“PROCESADORES DE VÍDEO”
GENERACIÓN Y DISTRIBUCIÓN DE SEÑALES
En los estudios de producción de programas es habitual encontrar una serie de elementos que, cumplen
funciones muy importantes en la estructura general del sistema. Dentro de este equipamiento podemos localizar los
siguientes elementos:

 Generador de sincronismos. Para poner en fase el conjunto de señales que se generan en el estudio, es necesario
establecer un patrón común a todos los elementos de la cadena. Observamos un generador que entregará una
señal conteniendo la estructura de sincronización que sirve como referencia en todos los procesos. La señal que
genera se identifica frecuentemente como Black Burst (BB), al poseer, aparte de los sincronismos verticales y
horizontales, un nivel de negro constante durante el periodo activo, además de la referencia de sincronismos
propia de la información cromática.

 Generador de logotipos. Se inserta en una esquina de la imagen un elemento identificativo que permite al usuario
reconocer la emisora que está recibiendo. Esta firma visual se crea en equipos específicos.

 Generador de señales de prueba. Asociadas a la propia señal de imagen y ocupando algunas de las líneas vacías
que existen al principio de cada campo, se insertan informaciones que facilitan el control de calidad de la señal
en las distintas fases del proceso al que se ve sometida. De ello se encargan los generadores de señales de
prueba de intervalo vertical, conocidas como VITS (Vertical Interval Test Signal). En la salida de estos equipos
podremos ver la señal que se aplicó en su entrada, en la cual se han sustituido cuatro líneas (dos en cada campo)
por otras que contienen estas señales de control de calidad.

 Generador de cartas de ajuste. Para alinear los monitores del estudio, insertarlas al inicio de las grabaciones o
como señal de reserva ante fallos temporales, resulta imprescindible contar con generadores de cartas de ajuste.

 Distribuidores de vídeo. Estos elementos están formados por una entrada y varias salidas (habitualmente entre
dos y ocho) y funcionan de tal forma que en cada una de las salidas aparecerá la misma señal que se aplicó en su
entrada.

MATRICES Y SELECTORES
La complejidad de las instalaciones de producción de televisión requiere de equipos que permitan establecer
las configuraciones más adecuadas en cada caso, para cubrir todas las necesidades de explotación. De estas
operaciones de enrutamiento se encargan estos equipos:

 Paneles de interconexión.

Son los encargados de establecer las conexiones de


señales entre los diferentes elementos que la compo-
nen. Estos patch panels están estructurados como un
conjunto de conectores montados sobre un soporte en
el armario de equipos, identificándose sobre éste sus
entradas y salidas. Mediante latiguillos de conexión
externos, el técnico especificará la configuración general
de la instalación.
 Preselectores.

Frecuentemente es necesario insertar elementos que ayuden a seleccionar una señal de entre varias para aplicarle
un proceso concreto. En este caso, pueden ser de utilidad los preselectores, elementos mecánicos o electrónicos
que, asociados a otros equipos, permitirán llevar a cabo varias configuraciones sobre una misma instalación. Suelen
poseer un gran número de entradas, una de las cuales es conducida hasta su única salida.

Ejemplo 1:
Una aplicación típica de un preselector es la monitorización técnica de un estudio. En este caso, un único equipo de medida se podrá conectar,
mediante este aparato, a todas las señales que se quiera evaluar. Actuando sobre el preselector, se dispondrá de una visión rápida de la calidad
de las señales, sin necesidad de modificar el cableado de la instalación.

 Matrices de conmutación.

Cuando se requiere un gran número de entradas y salidas, así como un elevado índice de versatilidad en las
configuraciones, la alternativa más adecuada es, sin duda, una matriz. Este equipo dispone de sistemas de
conmutación electrónicos, ejecutándose los cambios seleccionados durante los periodos de borrado de campo. Se
usa como un gran nudo de comunicaciones, ya que hasta estos elementos llegan la práctica totalidad de las señales
de los estudios. EL tamaño de estas matrices se define por el número de entradas y salidas que poseen, pudiendo
encontrar desde las pequeñas de 4 X 4 hasta 144 X 144. El último desarrollo en matrices consiste en incorporar un
sistema de conmutación que, en lugar de ejecutar el cambio de forma instantánea, realiza un fundido entre la señal
de la entrada seleccionada y la que existiera antes de ordenar el cambio, se denominan matrices seamless.

TITULADORES Y GENERADORES DE EFECTOS


Actualmente, la mayoría de los procesadores de efectos se basan en entornos informáticos, pues disponer
de un sistema de uso generalizado abarata los costes, al tiempo que permite su ejecución bajo múltiples
configuraciones sólo con cambiar el programa que se activa en cada momento. Así, se pueden utilizar con programas
que inserten gráficos o títulos de propósito general, o bien con software creado especialmente para una aplicación
concreta.

Ejemplo 2:
Dentro de estos programas de aplicación específica podemos encontrar los habituales en los eventos deportivos, donde se gestionan
los marcadores y las estadísticas del juego en tiempo real. También están en este grupo los programas dedicados a mostrar la información
meteorológica o los que informan de los resultados obtenidos tras la celebración de unas elecciones.
En cualquier caso, el problema técnico en
este tipo de elementos estriba en la inserción de los
gráficos en el programa de vídeo. Para intercalar
estas informaciones se idearon los dispositivos de
sincronización denominados gen-lock. Con la
incorporación de sistemas de almacenamiento en
disco, que disponen de acceso aleatorio a la infor-
mación, también se han visto ampliadas las
posibilidades de llevar a cabo funciones que antes
requerían un equipamiento específico, de
complejidad y precio muy elevados. Tal es el caso,
por ejemplo, de los sistemas slow motion,
procesadores de cámara lenta muy frecuentes en los eventos deportivos, cuyas prestaciones han crecido
notablemente al tiempo que se han reducido sus costes.

MEZCLADORES DE VÍDEO
La operación más importante a la que se someten las imágenes durante el proceso de producción es, sin
duda, la del mezclado y la inserción de efectos. Para llevar a cabo estas labores se requiere un equipo técnicamente
complejo y su coste suele ser elevado. Dicho equipo es el mezclador de vídeo (video switcher) que, lejos de realizar
únicamente labores de mezclado, incorpora también un amplio surtido de efectos de transición y filtros para la señal
de imagen. Existen mezcladores que trabajan con la señal de vídeo compuesto, pero también los hay con entradas
en componentes analógicas o digitales, adaptándose así a las configuraciones en las que se desee integrar. El
diagrama básico de un mezclador de vídeo típico aparece en la Fig. 15.6, y en él se pueden observar los siguientes
grandes grupos:

 Matriz de entrada.

Este bloque se
erige como el gestor de
enrutamiento de las
entradas de vídeo hacia
sus lugares de proceso.
Estará formado por
tantas columnas
verticales como
entradas de vídeo
disponga el mezclador,
más una que permitirá
seleccionar un color de
fondo (denominado
«mate») generado
internamente. Como
elementos de salida
encontraremos los
buses de efectos,
formando las filas de la
matriz. En los puntos
de unión de la matriz
están los pulsadores de
selección de fuente, que distribuirán las entradas a sus respectivos buses.
 Sistema de efectos.

Una vez seleccionadas las señales que serán procesadas, éstas se llevan hasta los bloques que, a partir de
operaciones de mezcla, inserción de cortinillas, etc., compondrán la señal definitiva. Estas operaciones se desarrollan
en los bloques de Mezcla de Efectos (M/E), basados en la aplicación de multiplicadores de señal, que elevan o
disminuyen el nivel de cada fuente de modo coordinado, según las órdenes recibidas desde sus sistemas de control.
En los equipos más sencillos existe un único banco de efectos, a partir de dos buses de entrada. En muchos de los
sistemas actuales, el procesado de las señales se efectúa en formato digital, por lo que podremos ver, asociados a los
buses de mezcla, conversores de analógico a digital, aplicándose las señales a procesadores digitales que realizarán
las labores de mezcla y efectos por combinaciones lógicas. Al final del proceso se dispondrá de un conversor de
digital a analógico previo a la salida, para mantener el formato de la señal de vídeo original. Además de crear efectos
entre imágenes, el mezclador incorpora la posibilidad de insertar títulos, para lo cual servirá el bloque denominado
DSK (Down Stream Keyer). Este elemento se encarga de evaluar el nivel de la señal que llega desde un generador de
caracteres externo y, durante el tiempo en el que no aparece información del título (en los espacios interiores o
entre las letras), inserta la señal de vídeo. El resultado es una imagen en la que aparece, superpuesto, el rótulo con
los atributos preseleccionados. Ahora ya tenemos la imagen elaborada según los deseos del realizador. Pero antes
de extraerla se aplicará a un sistema de control de salida.

 Interfaz de usuario.

El mezclador de producción a menudo se configura en los dos elementos siguientes:

 La unidad central. Ésta se montará sobre un armario de equipos; su aspecto, que recuerda a una caja negra,
guarda en su interior toda la electrónica del sistema de efectos, temporización y control. Asimismo, su panel
posterior contendrá las conexiones de las líneas de entrada y salida.

 La consola de control. Es el elemento que se dispone sobre la mesa de realización. En realidad es aquí donde
encontramos la interfaz de usuario, puesto que incorpora todos los elementos de control de las funciones
operativas del mezclador. Esta consola de control está llena de pulsadores de selección, desde los selectores
de fuente hasta el teclado de selección de efectos; pero, sin duda, el elemento más llamativo es la barra T, el
mando cuya forma recuerda a esa letra y que acciona el efecto seleccionado, transfiriendo la imagen entre los
buses.

Asociado a cada pulsador, un indicador luminoso que nos avisará cuando esté seleccionada la fuente o la
operación que le corresponde. También es habitual un display alfanumérico (y en algunos casos incluso un monitor
de vídeo) con la información de la configuración elegida en el procesador de efectos. El mezclador incorpora un
control de tally, que generará un grupo de señales en la salida para poder activar los indicadores luminosos de «en
el aire», situados en las cámaras, así como en los monitores de control del propio estudio.

 Temporización y control.

En esta área encontramos los bloques de control de efectos de


cada banco, que se configurarán a partir de las órdenes del usuario y
generarán, en consecuencia, las señales que controlen los
multiplicadores de efectos. En la actualidad, la práctica totalidad de
los mezcladores incorporan microprocesadores dedicados, en los que
los patrones de mezcla y efectos se obtienen a partir de los datos
almacenados en la memoria correspondiente, pudiéndose generar
señales de control muy complejas, que producirán vistosos efectos
dinámicos. Dentro del capítulo de efectos haremos una especial
mención a los keys de luminancia y croma. Estas operaciones se basan
en la composición de una imagen compleja a partir de otras dos, que
formarán el fondo y el primer plano, respectivamente. Para desarrollar el efecto, la imagen que compone el primer
plano deberá tener, en aquellas zonas que se deseen eliminar, un elemento «clave»:

Key de luminancia. La separación se efectúa por la variación de nivel de la señal lumínica. En el bloque de proceso
de key, el operador ajustará el nivel de corte, por lo que todas las zonas con iluminación inferior serán desechadas.

Key de crominancia. Se discrimina un color de la escena, que se volverá transparente para realizar la composición.
El color clave también puede ser seleccionado por el usuario, siendo los más adecuados aquellos que proporcionan
una saturación máxima en un color básico (a menudo azul o verde) y mínima
en el resto.

De cualquier forma, se obtendrá del procesador de key una señal de recorte


que indicará, mediante dos niveles bien diferenciados (habitualmente blanco y
negro), las zonas a sustituir y aquellas en las que la imagen permanecerá una
vez creado el efecto. A partir de esta señal, el controlador de efectos activará
la señal del bus de mezcla correspondiente al fondo o al primer plano en cada
instante.

Ejemplo 3:
Los efectos de sustitución de una parte de la imagen según su nivel de luminosidad o
color no son exclusivos de los mezcladores. Por el contrario, podemos encontrar en el mercado
procesadores especializados en esta operación, denominados keyers; estos sistemas se utilizan en
los sistemas de escenarios virtuales para insertar a los presentadores de un programa sobre el
fondo generado por un ordenador.

Encontramos otro bloque de control DSK de títulos, que realiza


funciones similares al key de luminancia, pero específicamente adaptadas al
tratamiento de rótulos y textos generados por una tituladora. Mediante las
órdenes llegadas desde la interfaz de usuario, el control de funciones
establecerá el patrón de funcionamiento general del equipo y transferirá las
instrucciones oportunas al resto de los sistemas para llevarlas a buen término.
El bloque de control de temporización adquiere una importancia capital en un
sistema como el mezclador de vídeo. En primer lugar, resulta imprescindible
que todas las fuentes que procesa el equipo estén sincronizadas, para que las
transiciones aplicadas a las señales no supongan una alteración del patrón de
sincronismos que lleva asociado. Además, será fundamental controlar el
momento exacto en el que se aplican los efectos seleccionados, para crear el
resultado deseado sobre la pantalla. En la estructura más común, el estudio
contará con un generador de sincronismos que se distribuirá a todos sus com-
ponentes, aplicándose al mezclador a través de la entrada de
sincronización externa. Para estudios de ámbito local, donde el
presupuesto es limitado, existen mezcladores de video que incorporan
sincronizadores de cuadro en los buses de proceso.

Ejemplo 4:
En las estaciones de postproducción, el gobierno de las funciones de los
magnetoscopios y los mezcladores de audio y vídeo no se hace de modo local, sino que se
centraliza en un único controlador de edición para lograr su funcionamiento coordinado. A
través de los puertos serie RS-232 o RS-422 se pueden transferir instrucciones complejas,
como el código de activación de una cortinilla y el tiempo que debe durar la transición
entre fuentes. Sin embargo, el puerto GPI tiene un funcionamiento más sencillo. Mediante
esta línea solamente podremos diferenciar un contacto abierto o cerrado, por lo que ser-
virá para dar la orden de ejecución de una función, que previamente habremos configurado en el equipo.

SERVIDORES DE VÍDEO
Desde hace algunos años, en los sistemas de televisión se han ido implantando, cada vez con mayor
presencia, unos equipos capaces de digitalizar, almacenar y distribuir contenidos de audio y vídeo. Estos equipos son
los servidores de vídeo, y su utilidad es tan grande que en la actualidad están presentes en prácticamente todos los
procesos que se desarrollan en un centro de producción de programas de televisión. Su estructura interna es similar
a la de un grabador sobre soporte informático, y se han desarrollado algunas prestaciones adicionales que los hacen
aún más versátiles. Entre ellas podemos destacar:

 Entradas y salidas múltiples. La mayoría de los servidores de vídeo


disponen de varios canales de entrada, en general entre dos y
cuatro. Esto supone que podemos realizar ingestas desde varias
fuentes a la vez. Paralelamente, también podremos extraer
información desde varios puestos para procesarlos por separado.

 Gestión amigable del contenido. Junto al equipo físico, se entrega


un software de control que permite, además de configurar los
parámetros de funcionamiento, establecer una estructura de los
contenidos audiovisuales similar al sistema de carpetas de un
entorno informático. De esta forma cada departamento podrá
acceder a la información que sea de su interés, y dejar en su carpeta correspondiente aquellos documentos
audiovisuales con los que esté trabajando.

 Control de sistemas de almacenamiento. Para ampliar la capacidad del servidor, frecuentemente lo


encontraremos asociado a un sistema RAID de almacenamiento sobre soporte múltiple. Desde el servidor se
gestionará esta batería de discos duros, configurándose para dotar al sistema de una gran capacidad de
almacenamiento.

 Conexión en red. Lo más habitual es encontrar al servidor como núcleo de una red de datos, por la cual se
suministra la información al resto de los elementos de la emisora.

“LA EDICIÓN ELECTRÓNICA”


FUNDAMENTOS DE LA EDICIÓN
Cuando realizarnos la grabación de un acontecimiento, ponemos el máximo interés en registrar cuanto ocurre, por lo
que habitualmente mantenemos la cámara grabando durante mucho tiempo a la espera de que se produzcan los
hechos realmente relevantes. Además, resulta inevitable captar escenas no deseadas. Estas causas, nos llevan a
plantear la necesidad de depurar la información almacenada en la cinta, seleccionando las escenas adecuadas para
narrar la historia con el ritmo y las imágenes deseadas, y descartar aquellas tomas que, por una u otra razón, no
cumplen los requerimientos necesarios que justifiquen su inclusión en el producto final. Al conjunto de estas
operaciones, aplicadas a la cinta de forma posterior al momento de su grabación, se las denomina postproducción.
Dentro de este grupo se encuadran la selección de escenas, su composición y mezclado, la inserción de gráficos,
efectos y títulos, entre otras operaciones. Su núcleo principal es la edición de las imágenes y el sonido grabado
originalmente.

TIPOS DE EDICIÓN
Se utilizan sistemas de edición basados en dispositivos electrónicos, que actúen sobre la señal de vídeo en lugar de
hacerlo sobre el soporte que la contiene.
Aplicando estas técnicas de proceso electrónico, se
nos abre un amplio abanico de posibilidades, que se pue-
den enmarcar en los siguientes tipos de edición:

 Ensamblado. Resulta el sistema más simple, por


cuanto se limita a grabar sobre una cinta virgen las
escenas seleccionadas de la grabación original. Por su
similitud con la edición física, se la denomina también
edición al corte, porque las transiciones entre las
diferentes escenas se producen por cambio simple de
las imágenes que contiene. Este tipo de edición lleva
aparejada la grabación conjunta de la imagen y su
sonido asociado, mientras que la sincronización de la
cinta puede realizarse tomando como referencia la
primera secuencia grabada, o bien “formateando” previamente la cinta al grabar sobre ella únicamente los
impulsos de control de pista, que serán respetados
durante los diferentes ensamblajes.

 Inserción. En ocasiones interesa realizar una edición


directamente sobre la cinta original, para evitar
pérdidas de calidad producidas por multigeneración.
Esta operación está indicada cuando deseamos
eliminar una escena de la cinta original, y colocar en
su lugar imágenes procedentes de otra fuente. En
este caso, se define sobre la cinta el punto de inicio y
el punto final de la cinta en la que se aplicará la
sustitución, así como el inicio de la secuencia que se
insertará en su lugar. Esta operación se desarrolla
habitualmente sobre las pistas helicoidales, y se
pueden mantener el sonido y los impulsos de control
de la grabación original.

Algunos magnetoscopios incorporan la edición de


inserción por prelectura. En estos casos, las imágenes
se reproducen por un juego de cabezas adelantadas
respecto de las principales, lo que permite realizar un
proceso de edición o mezcla de la información grabada
en la cinta con otras fuentes, y grabarse estas imáge-
nes modificadas sobre la propia cinta utilizando las
cabezas principales.

 Edición A-B roll. Cuando queremos introducir tran-


siciones más complejas que los cambios por corte,
deberemos utilizar un sistema más complejo que
los anteriores. En él se dispondrá de varias fuentes
de reproducción, que identificaremos por letras,
más un soporte en el que se almacenará el resul-
tado de la edición. Al conjunto de magnetoscopios
se le sumará el mezclador de audio y video, que
posibilitará las transiciones entre los diferentes
«rollos» utilizando fundidos y cortinillas, así como
la consola de control de todo el conjunto. Si utilizamos dos fuentes, que llamaremos A y B, deberemos marcar las
posiciones de inicio y final de las secuencias que formarán la escena definitiva, y definiremos también el punto
de la cinta de destino en la que quedará grabada. En este caso
seleccionaremos el tipo de transición que deseamos utilizar, y la
duración del proceso de mezclado. Una vez configurados todos los
parámetros del evento podremos realizar una vista previa, en la
que se producirá una simulación de las operaciones programadas,
y en caso favorable se podrá realizar la edición de la escena sobre
la cinta.

 Edición en Split. En ocasiones nos interesa que el sonido y el vídeo


se editen en diferentes puntos, logrando efectos creativos muy
interesantes. En estos casos utilizaremos una variante del sistema
anterior, consistente en definir una edición del audio desplazada
una cantidad de tiempo respecto de la del vídeo. El sistema es
básicamente igual al A – B roll, pero indicando cual de los dos
elementos se conmuta en primer lugar y la distancia a la que le
seguirá el otro.

EL CÓDIGO DE TIEMPO
Resulta imprescindible controlar la posición de la cinta en la que se producirán los cortes y transiciones, para
lo cual se realizan «marcas» de identificación. A diferencia de lo que sucede en la edición física, estas marcas no son
sino la memorización electrónica del código que acompaña la grabación. En los sistemas domésticos la única señal
de control almacenada sobre la cinta es la de CTL, por lo que los controladores de edición determinan la posición de
la cinta contando estos impulsos, y las marcas memorizan la posición de este contador. En los sistemas pro-
fesionales, en cambio, se almacenan junto al resto de las señales unos códigos que identificarán de forma mucho
más precisa las imágenes registradas. Estos códigos están formados por señales digitales asociadas a cada imagen,
identificándola en horas, minutos, segundos y número de cuadro de ese segundo. Además, se prevé la inclusión de
datos adicionales, como comentarios sobre la escena u otras informaciones del usuario. De este modo se podrá
definir con toda precisión el punto exacto en el que se desea iniciar un fundido o finalizar una escena. La forma en la
que se insertan estas informaciones en la cinta da lugar a diferentes códigos de tiempo:

 Longitudinal (LTC, Longitudinal Time Code). Se utiliza una pista auxiliar independiente del resto de las señales
registradas, y mediante una cabeza estática adicional se graba un código binario en las posiciones que ocuparán
las pistas de vídeo. Cuando la cinta se detiene, como en modo pausa, el magnetoscopio será incapaz de
interpretar este código, esto supone un inconveniente importante.

 Helicoidal (VITC, Vertical Interval Time Code). Para solventar este problema, se recurre a insertar, sobre algunas
de las líneas vacías de la señal de vídeo, una ráfaga de 90 bits con datos de sincronización jerarquizados por
capas. Las líneas en las que se insertan estos códigos suelen ser la 7 y 11, durante el primer campo, y la 270 y
274 en el segundo. Al estar insertados en la propia información de vídeo, serán las cabezas helicoidales las
encargadas de leer los datos, y éstos estarán disponibles, no sólo durante la operación de reproducción, sino
cuando la cinta está detenida. Esto es posible porque las cabezas están montadas sobre el tambor giratorio, lo
que permite la lectura de las pistas de vídeo. El punto débil de los
códigos VITC aparece cuando se altera la velocidad nominal de
arrastre de la cinta.

Ejemplo 1:
Como podemos observar, cada uno de los sistemas tiene sus inconvenientes,
por lo que los fabricantes habitualmente toman la determinación de utilizar los dos
métodos al mismo tiempo. De esta forma se grabarán los códigos de sincronización repetidos en diferentes partes de la cinta, lo que posi-
bilitará su lectura en cualquier condición durante las operaciones de lectura, grabación y edición. Será el magnetoscopio, al reproducir, quién
determinará cuál de los dos códigos utiliza, según la función que esté realizando en cada momento.

SISTEMAS DE EDICIÓN CLÁSICA


Los métodos clásicos de edición se basan en la utilización de
varios magnetoscopios para albergar las cintas que contienen las
imágenes y sonidos originales, y aquel que realizará las operaciones de
grabación sobre la cinta virgen. Según los requerimientos de cada
caso, la instalación se completará con un número más o menos alto de
equipos complementarios. Así, no tendrá las mismas necesidades una
pequeña estación de edición al corte para montaje rápido de noticias
que una sala de edición A-B roll para postproducciones de docu-
mentales, por ejemplo. Por esta razón, podemos establecer varios
niveles de equipamiento de los sistemas editores. En el caso más
sencillo, podríamos encontrar un sistema de edición al corte, en el que
se utilizaría un único magnetoscopio reproductor asociado directa-
mente al equipo de grabación. Para comprobar las secuencias a editar
se conectaría un monitor de audio y vídeo al equipo reproductor,
mientras que otro en el magnetoscopio editor permitirá comprobar el punto de inserción de las escenas y,
posteriormente, el trabajo realizado.

En nuestra instalación básica el magnetoscopio editor


controlará al reproductor a través de una línea de datos, por la cual se
enviarán las órdenes de operación oportunas para conseguir una
correcta sincronización. Aunque con la instalación anterior podríamos
realizar las funciones básicas de edición, es susceptible de incorporar
numerosas mejoras, que ampliarán el campo de aplicación y sus
posibilidades de funcionamiento. El primer complemento que
considerar sería, probablemente, un controlador de edición, que
facilitaría notablemente el trabajo del operador al proporcionar un
entorno amigable para la localización y marcado de escenas. El
controlador de edición es un equipo dedicado específicamente a servir
como interfaz entre el usuario y el sistema, centralizando y
racionalizando los mandos de control de todos los dispositivos. Una vez
programados los parámetros relativos a cada uno de los eventos que
formarán el programa editado, este equipo se encargará de generar las
señales de control de cada proceso de la secuencia de edición,
quedando bajo su control los dos magnetoscopios. Para realizar su fun-
ción el controlador dispone de diferentes puertos de comunicación
serie, siendo los más utilizados los estándares GPI, RS 232 y RS 422. Para
ampliar más las prestaciones de nuestro sistema, podríamos añadirle la
posibilidad de insertar comentarios «en off», lo que resulta
especialmente útil en aplicaciones de informativos. Esta ampliación
supone la inclusión de un mezclador de audio, que recibirá las señales de
sonido de los magnetoscopios y las procedentes de los micrófonos de
comentarios, que situaremos en un pequeño locutorio anexo a la sala de
edición. En este locutorio deberemos instalar también un monitor de
vídeo, para que el comentarista pueda realizar el seguimiento de las
imágenes y la sincronización de la secuencia. Para monitorizar el sonido
podremos optar por utilizar auriculares o altavoces, en cuyo caso precisaremos de un amplificador que proporcione
la potencia necesaria para excitarlos. Aunque la estructura anterior ya presenta un razonable número de elementos,
todavía tiene la limitación de editar únicamente por transiciones bruscas. Si deseamos un sistema verdaderamente
versátil, deberemos replantear nuestra estación de edición con miras más amplias, que nos permitan realizar
ediciones por fundidos, cortinillas y otros efectos sobre la imagen y el sonido. En esta situación podríamos utilizar la
estructura A/B roll de La Figura 16-9, donde dispondremos de dos fuentes reproductoras (que se podrían ampliar en
caso necesario) con los correspondientes monitores de audio y vídeo. Las señales de estos magnetoscopios se llevan
ahora hasta los sistemas de mezcla y efectos, formados por un mezclador de vídeo y otro de sonido. Asociado al
mezclador encontraremos el monitor de previo, donde se podrán observar los efectos de una transición antes de
ejecutarla. Para terminar con el proceso de señales, la salida de programa de los mezcladores se conducirá hasta el
magnetoscopio editor, donde se grabará el resultado de las operaciones de edición del sistema, pudiéndose
visualizar este producto final en su monitor asociado.

Ejemplo 2:
En el caso de utilizar dos equipos independientes, éstos deberán trabajar en modo audio follow video, es decir, que el trabajo del
mezclador de sonido estará vinculado a las transiciones efectuadas sobre el mezclador de imagen. También existe la posibilidad de utilizar un
equipo híbrido, que integra los sistemas de mezcla y efectos de imagen con un pequeño mezclador de sonido, muy indicado para este tipo de
aplicaciones.

Para el funcionamiento correcto del sistema es imprescindible garantizar la correcta sincronización de todos
los elementos, ya que se realizarán operaciones de mezclado e inserción que requerirán que todos los
magnetoscopios estén reproduciendo exactamente
la misma línea de imagen. De esta sincronización se
encargará una red específica de sincronismos de
referencia instalada a tal efecto. La base de sincroni-
zación del conjunto podrá ser externa, o bien
generarse una señal de referencia en la propia esta-
ción de edición. En este segundo caso se suele utili-
zar el generador de sincronismos incorporado en el
mezclador de video como elemento de referencia,
aplicándose al resto de los elementos por la entrada
de sincronización exterior, una vez seleccionada esta
función con los controles de cada equipo. Un sistema
de este nivel de prestaciones requiere de un sistema
de control centralizado, desde el cual se gobiernen
todos los equipos y se programen las operaciones de
edición de una forma eficaz y sencilla. Para esto se
utiliza el controlador de edición, que estará unido
mediante puertos de comunicación serie con los
magnetoscopios y el mezclador, que se habrán
configurado para atender las instrucciones que le lle-
gan de forma remota. Este controlador de edición será, habitualmente, más complejo que el que utilizamos en el
sistema de edición al corte, puesto que deberá gestionar un número mayor de máquinas. De cara a los
magnetoscopios, el controlador generará las órdenes de búsqueda de las escenas que se desean editar,
memorizando los códigos de tiempo correspondiente a las marcas que el operador establece para los reproductores
y el grabador. Una vez programado el evento, el controlador ordenará rebobinar las fuentes, y controlará el avance
de las cintas para sincronizar los procesos de lectura, en el tiempo denominado preroll, mientras que activará al
magnetoscopio de registro. En la comunicación con el mezclador se transferirán las instrucciones programadas
previamente por el operador, que habrá definido qué fuentes intervendrán en un evento, su duración y el tipo de
transición.
EDICIÓN POR ORDENADOR

Se basa en la utilización de soportes informáticos para el


almacenamiento de las fuentes y su procesado, estos sistemas se
denominan de edición no lineal, frente a los sistemas lineales que
operan directamente con el soporte original. Como en todos los sistemas
informáticos, debemos realizar una diferenciación entre los elementos
físicos (hardware) necesarios en la instalación, y el programa o conjunto
de ellos (software) que configuran el modo de funcionamiento para cada
aplicación concreta.

 Equipamiento físico.

Los sistemas de edición no lineal utilizan sistemas informáticos de elevadas prestaciones, puesto que de ello
dependerá la velocidad y potencia de cálculo, parámetros fundamentales en la composición de la nueva secuencia.
Además de una alta velocidad de proceso y suficiente memoria para gestionar el gran volumen de información de las
imágenes, resulta especialmente importante cuidar la elección del soporte de los datos relativos a las señales de
vídeo. Los requerimientos en este apartado pasan por conseguir una elevada tasa de transferencia de datos
sostenida (en régimen permanente), para garantizar los flujos de datos durante las operaciones de captura y
reproducción de secuencias. Si deseamos almacenar
una gran cantidad de escenas, será necesario que la
capacidad del disco duro también se dimensione
holgadamente. Por último, el elemento
imprescindible en toda estación de edición no lineal
será el sistema de captura de datos, que posibilitará
el volcado de la información de imagen y sonido en
formato analógico y/o digital, según el modelo.

 Programas de aplicación.

Para obtener el máximo rendimiento del equipo


físico, resulta fundamental utilizar un programa que
permita un gran número de acciones, tanto en el
tratamiento de las imágenes y el sonido como en los
efectos, filtros, mezclas y transiciones que se les
aplicarán. Dentro de este campo de aplicación se han
hecho muy populares algunos de ellos (Adobe
Premiere, Ulead MediaStudio, etc.) que, si bien
presentan particularidades y elementos diferenciales,
se basan en una estructura común. El área de trabajo
de estos programas contiene, en la zona superior, las
barras de herramientas que permitirán insertar las
imágenes o aplicarles diferentes procesos previos a la
composición final. Por debajo de estas herramientas
encontraremos la barra de tiempo, que nos indicará la duración total del programa editado y nos permitirá ampliar
una zona o dirigirnos a un punto concreto de todo el proyecto. La zona principal de la imagen está ocupada por los
canales de edición independientes para vídeo, audio y efectos. Las transiciones de la señal de imagen se desarrollan
sobre los canales principales, y quedan reflejadas en la línea de efectos que las separa (Fx) el patrón de cortina que se
utilizará en cada caso, así como su duración por la extensión horizontal que ocupa cada una. Desde el punto de vista
del sonido, también se le podrá aplicar efectos que modifiquen el registro original, incorporándole reverberación,
eco, etc. Tras esta operación, si se utiliza el interfaz gráfico podrá determinarse el nivel de señal de cada una de las
fuentes de sonido en cada momento de la secuencia, realizando así la programación de la edición de audio.

Ejemplo 3:
La funcionalidad de este tipo de sistemas de edición se basa en la edición A/B roll, con la particularidad de que la programación de los
eventos se realiza de modo gráfico, de manera que las marcas de entrada y salida de cada evento se definen por la posición de la ventana de
efecto en la línea de tiempo. Las escenas estarán almacenadas como archivos de vídeo, por lo que su manipulación es muy simple, incluso para
personas sin entrenamiento en el manejo de estos equipos. Así mismo, el número de transiciones, efectos y filtros es muy elevado, puesto que
se realizan por combinaciones numéricas durante el proceso de ejecución del programa. Una vez configurado, el programa podrá realizar una
previsualización rápida del conjunto editado y, si estamos conformes con el resultado, creará un nuevo archivo de vídeo con el producto final.

CONFIGURACIÓN DE SISTEMAS DE EDICIÓN POR ORDENADOR


La utilización de sistemas informáticos en aplicaciones de edición de video requiere, como hemos visto, unas
prestaciones considerables. Para garantizar un rendimiento óptimo en los sistemas de edición por ordenador,
debemos tener en cuenta algunas consideraciones, que afectan desde la elección y conexión de los dispositivos de
hardware hasta la configuración del software del sistema. A continuación repasaremos los puntos más importantes a
considerar para garantizar el funcionamiento de estos sistemas:

 Configuración hardware.

El tratamiento de imágenes en movimiento requiere un especial cuidado en la elección de los elementos que
integrarán el ordenador, así como de su configuración. Desde el punto de vista físico son los elementos siguientes.

 Tarjeta capturadora. El primer elemento a considerar será el tipo de tarjeta de adquisición de vídeo y audio. EL
mercado nos ofrece una gran variedad de productos, desde los muy sencillos que únicamente sirven como
interfaz para realizar las capturas, hasta los que permiten editar con complejos efectos multicapa en tiempo real.
La elección dependerá de las necesidades del cliente, que considerará si es conveniente utilizar sistemas con
efectos y compresión por hardware (en los sistemas de mayores prestaciones) o si, por el contrario, es suficiente
con la potencia de «renderización» por software que ofrece la mayoría de los programas de aplicación. Respecto
de la instalación, es importante recordar que la placa
capturadora no debe conectarse en el sistema hasta
que el ordenador esté perfectamente configurado.

 Placa base. Elegir la placa base adecuada para


garantizar un funcionamiento óptimo. Generalmente,
los fabricantes de tarjetas de captura y edición de
vídeo ofrecen una relación de placas base
«certificadas», que cuentan con su aval de fun-
cionamiento correcto.

 Memoria y procesador. En muchos sistemas de edición


por ordenador, la cantidad de operaciones que se
pueden desarrollar en tiempo real depende de la
velocidad del procesador y de la cantidad de memoria
RAM disponible, por lo que utilizaremos una regla muy
simple para dimensionar el sistema en este aspecto: cuanto más, mejor. Naturalmente, los fabricantes del
hardware y el software de edición informan de las prestaciones mínimas que debe tener el equipo, y que
deberán ser superadas holgadamente para asegurar un buen funcionamiento.

 Tarjeta gráfica. Al elegir la tarjeta gráfica, deberemos plantearnos las necesidades del sistema. En sistemas de
edición es habitual trabajar con dos pantallas de ordenador (e incluso tres) simultáneamente, por lo que
deberemos optar por tarjetas profesionales con salidas RGB múltiples. Utilizaremos un monitor de vídeo inde-
pendiente de los propios del ordenador para comprobar el resultado final del trabajo.

 Sistema de almacenamiento. Éste es, sin duda, el punto más sensible del sistema. En los sistemas de captura y
edición actuales se exigen transferencias con los discos duros de, al menos, unos 12 MB/s en régimen
permanente. Esto supone que para almacenar los clips de vídeo deberemos utilizar unos discos duros
específicos, denominados discos A/V, que los fabricantes comercializan para estas aplicaciones. De la potencia
requerida dependerá la estructura de almacenamiento, pero si pensamos
en una estación de edición deberemos plantear la utilización de un
mínimo de dos discos duros. Uno de ellos, de tipo convencional, será el
disco de sistema, donde se almacenarán el sistema operativo y los
programas de aplicación. El otro disco se utilizará exclusivamente para
contener los archivos de audio y vídeo, siendo éste un disco rápido A/V.

Los sistemas más sofisticados aumentarán la capacidad a través de


sistemas RAID (Redundat Array Inexpensive Disks). Están formados por una
batería de discos que se reparten la información para conseguir una
velocidad y capacidad de almacenamiento mayor. Paralelamente, se
establece un protocolo de redundancia de la información almacenada, protegiendo el sistema ante eventuales fallos
de uno de los discos. En tal caso, el Raid permite sustituir el disco dañado «en caliente», sin desconectar el sistema, y
recuperar la información que contiene. Desde el punto de vista del sistema de edición, el Raid se comporta como si
de un único disco se tratara, al compartir una misma unidad lógica para todas las unidades físicas.

 Configuración software.

 Particiones. Como norma, los discos de almacenamiento de audio y vídeo deben tener una sola partición. Crear
varias particiones sobre un disco complica la estructura de archivos y ralentiza la transferencia de datos.

 Formato de discos. Los discos A/V se formatearán siempre bajo el sistema de archivos NTFS. Esto permite utilizar
varios discos físicos con una única unidad lógica (discos RAID). Otra ventaja importante de este formato de
archivos es que no tiene límite en el tamaño de los archivos que maneja. EL sistema FAT32 sólo puede manejar
archivos de hasta 4 GB.

 Compresión de unidades de disco. Para conseguir la mayor tasa de transferencia, tampoco podremos utilizar la
opción de compresión de los archivos guardados en el disco que ofrecen algunos sistemas operativos.

 Instalación de aplicaciones. Deberemos empezar por configurar el ordenador con las últimas versiones de sistema
operativo y de los controladores de sus componentes. Una vez que el ordenador funciona correctamente,
instalaremos los programas de edición, sonido, efectos, etc. Por último, tras conectar la tarjeta capturadora se
instalará su software específico, concluyendo así el proceso de instalación.

 Desfragmentación. Por último, debemos considerar que el sistema de almacenamiento precisa un mantenimiento
periódico, que incluirá una desfragmentación de la información contenida en los discos para mantener la
velocidad de almacenamiento tras varias fases de grabación y borrado de archivos audiovisuales.

Ejemplo 4:
Al comprar un sistema de edición por ordenador, por ejemplo de Matrox, lo más frecuente es que utilice un programa de edición
genérico, como el Adobe Premiere. En el paquete de instalación encontraremos un disco con herramientas de software que se añaden a estos
programas, para ampliar sus prestaciones o adaptar su funcionamiento a las posibilidades de la tarjeta. Estas herramientas, denominadas
plug-ins, necesitan que el programa base esté instalado previamente en la máquina, puesto que se ubicarán en los directorios creados por él,
pudiendo incluso modificar los archivos originales del programa.
TEMA Nº 5 – S.T.I. – S.P.A. – 2020 - 2021
“ESTUDIOS DE TELEVISIÓN”
ESTRUCTURA BÁSICA DE UNA EMISORA
Solemos llamar «emisora de televisión» al conjunto de recursos materiales, técnicos y humanos que
permiten generar un programa audiovisual y difundirlo hasta los usuarios, que actuarán como receptores del
mensaje transmitido. Desde el punto de vista técnico, podemos establecer una primera clasificación, ya que el
proceso se divide en dos partes bien diferenciadas:

 Centro de producción de programas. Es el lugar


donde se elabora, a partir de informaciones
generadas en él mismo o recibidas del exterior,
el producto audiovisual. Éste, a su vez, está
dividido en áreas funcionales.

 Centro de emisión. Una vez generado el


programa, se envía a la red de distribución, que,
suele encontrarse separada del centro de
producción, sobre todo si se utiliza la
distribución por radiofrecuencia. Los centros de
emisión constan, esencialmente, de equipos de
emisión, reemisión y radioenlaces, además de
los sistemas de alimentación de energía y
acondicionamiento ambiental.

Aunque existen notables diferencias entre los


centros de producción de las grandes cadenas televisivas y aquellas que tienen un ámbito de cobertura local,
podemos establecer la estructura-marco en la que se encuadran estas instalaciones.

EL PLATÓ
EL espacio donde se desarrolla gran parte de la escenificación necesaria para realizar un programa de tele-
visión es el plato. Se trata de una construcción diáfana, cuyo tamaño varia sensiblemente dependiendo de la
aplicación a que se destine: desde el pequeño set de informativos locales de apenas 20 m2 hasta un plato de 1.000
m2. En el plato se busca obtener las mejores condiciones de captación de la señal y, por extensión, la calidad óptima
desde el inicio del proceso. Para ello se acondiciona el local acústicamente, aislándolo del exterior y dotándolo de un
bajo nivel de reverberación. Se cuidan todos los aspectos, desde la construcción de las paredes hasta la instalación
de puertas especiales con materiales absorbentes acústicos específicos, si es necesario. Las condiciones de
aislamiento requeridas son incompatibles con las ventanas, por lo que se disponen también sistemas de renovación
y acondicionamiento del aire, prestando especial atención al nivel de ruido que producen estos elementos. Para
reducirlo, se recurre a sistemas refrigerantes de baja velocidad del aire.

Ejemplo 1:
Las paredes de los platos están, a menudo, recubiertas de ladrillo macizo colocado verticalmente, de modo los agujeros que quedan
expuestos hacia el interior del plato. De esta forma, se consigue que la acústica del local sea muy «sorda», puesto que las cavidades de los
ladrillos se comportan como absorbentes del sonido.
Como en los locutorios de radio, también encontraremos en el plato los micrófonos encargados de captar el
sonido de los distintos elementos que formarán el programa. Para conectarlos se dispondrá de conectores
(habitualmente, Canon XLR3) situados en un cajetín de escenario, desde donde saldrán las líneas hasta el control de
sonido correspondiente. En el caso de usar sistemas inalámbricos, se suele optar por ubicar en el plato únicamente
un par de antenas (recordemos que cada receptor diversity utiliza dos antenas) del tipo yagui o marconi. Estas
antenas, asociadas a sistemas de distribución, proporcionarán suficiente ganancia para poder distribuir la señal a
todos Los receptores de radio, que pueden situarse en el propio plato o bien en el control de sonido. También se
necesitarán sistemas de intercomunicación con el personal técnico del estudio (regidor, director del programa, etc.)
e, incluso, con el presentador, por lo que el rack de conexiones contendrá las líneas pertinentes. Para que los
participantes en el programa tengan referencias de la señal de
programa, se envían desde el control las líneas de imagen y sonido, que
se llevarán a los equipos de monitorización pertinentes para informar a
los presentadores, a los técnicos y al público del resultado de la
producción. Esto plantea un problema importante, puesto que deberán
coexistir sin interferirse los altavoces de monitorización con los
micrófonos del plató. La forma de reducir al máximo los acoplamientos
consiste en utilizar muchos altavoces, alimentados con poca potencia.
Así, situaremos en cada zona del plató varias parejas de altavoces, de
forma que todos los actuantes y el público estén cerca de alguno de
ellos, y escuchen su sonido con una potencia acústica baja. Si queremos
asegurar aún más nuestra instalación, podremos insertar en la línea de
entrada de cada amplificador equipos supresores de realimentación.
Estos aparatos son ecualizadores paramétricos que analizan la señal de
audio que les llega, y si detectan que se inicia una realimentación,
ajustan de forma automática uno de sus filtros para cancelarla,
intentando no perturbar el audio original. El sistema de iluminación
ocupará mayoritariamente la zona superior del plató. Su disposición
debe permitir configurar fácilmente la cantidad de luz de cada zona, e
incluirá sistemas de posicionamiento de los pantógrafos mediante
dispositivos deslizantes o plegables, manuales o automatizados. Para cada aplicación se dispondrá de un número
suficiente de líneas de iluminación independientes. Estas líneas, que se mantendrán separadas de las de sonido e
imagen, confluirán en un armario de iluminación, que contendrá los dimmers o reguladores de intensidad luminosa
de los proyectores que no lo lleven incorporado. Debido al gran número de cables que se requieren en la elaboración
de un programa de televisión, es frecuente realizar las conducciones bajo suelo técnico elevado.

 Configuración de las cámaras.

Podremos encontrar cámaras configuradas de forma diferente. La clasificación más habitual se basa en dos
estructuras diferentes:

 Cámaras ENG: cuando un equipo se desplaza hasta el lugar de la noticia, se utiliza una cámara con mag-
netoscopio incorporado (llamada camascopio o camcorder), bien formando una sola pieza o adosado a la propia
cámara. Este elemento será el centro técnico del sistema en las labores de ENG (Electronic News Gothering, que
traducimos como «periodismo electrónico»), y hasta él llegará la señal de sonido del reportero, bien a través de
un micrófono de cable o mediante un receptor inalámbrico colocado en la parte posterior de la cámara, junto al
alojamiento de la batería que suministrará energía al sistema. Al tratarse de un sistema portátil, a menudo
deberá utilizarse sobre el hombro, por lo que se utiliza un visor con montura ocular, que incorpora un pequeño
monitor de 1,5 " con los indicadores de estado de la cámara. En esta aplicación, el operador manejará los
controles de la óptica directamente, girando el anillo de enfoque y el iris con la mano izquierda, mientras que la
derecha se ocupa de controlar los pulsadores de zoom y activar la grabación.
 Cámaras de estudio: en el plato se ubican las cámaras encargadas de captar la imagen, que se conectarán con el
control de producción a través de cajas de conexiones instaladas para este fin, bien sobre las paredes o bien
montadas sobre armarios especiales para contener equipos, denominados racks. A través de estas conexiones,
que suelen usar cables multicore o triaxial, se recibirá también la energía que alimentará la propia cámara, así
como las señales auxiliares de intercomunicación, retornos de vídeo, señalización, etc., propios de la
configuración de cámara de estudio. En este modo de trabajo las cámaras van frecuentemente montadas sobre
un trípode o un pedestal hidráulico, que soporta su peso y operación sin vibraciones. En ambos casos se
instalará, para dotar al soporte de movilidad, un dolly o base rodante. Sobre esta estructura se montará la cabeza
de cámara con su óptica correspondiente, que llevará ahora conectado el sistema de control remoto que
permite al operador de cámara trabajar cómodamente, al disponer de un servo mecánico para controlar el
enfoque (situado en el brazo izquierdo del trípode) y de un mando con la extensión del control de zoom, que
gobernará con la mano derecha. Para visualizar el plano captado, se monta sobre la cámara un monitor de entre
5 y 7 " en lugar del pequeño visor de las cámaras configuradas para ENG. Estos monitores son monocromos, para
conseguir así la mayor resolución posible. Sobre este monitor se situará el indicador luminoso de tally, que
tendrá unas medidas adecuadas para que se perciba a distancia la selección de la cámara desde el mezclador de
vídeo.

Las cámaras pueden


montarse en múltiples
soportes. Es frecuente
encontrar en el suelo una
estructura con raíles, por
los que se deslizará la
cámara montada sobre
un carro para realizar
travellings o
desplazamientos de
cámara. Habituales
resultan también las
denominadas cabezas
calientes, formadas por
un gran brazo (de hasta
varias decenas de
metros) implementado
sobre un soporte que le
permite realizar giros en
sentido vertical y
horizontal, pudiendo
obtenerse una amplia variedad de planos de imagen. Para compensar el peso que supone el brazo, se incorporan
elementos de contrapeso en el lado opuesto a la cámara. Otro modo de montar la cámara, muy común en la
actualidad, es el steady-cam. Se trata de un arnés que incorpora un estabilizador de la cámara, que se coloca ahora
suspendida en el aire delante del operador. El sistema se diseña para absorber las vibraciones propias de una cámara
portátil, realizando tomas estables incluso si el operador se desplaza a la carrera. Como la posición de la cámara se
ha modificado, el monitor ya no está en la propia cámara, montándose habitualmente en la parte inferior del eje
vertical del sistema. Para desarrollar aún más las ventajas de este método, a menudo se complementa con un
sistema de transmisión inalámbrico de vídeo, que permite una autonomía de movimientos total, evitando así la
dependencia de los cables de las cámaras convencionales. El inconveniente de este sistema es el elevado peso del
conjunto cámara-arnés. Para conseguir el equilibrio deseado, el estabilizador utiliza contrapesos, lo que unido al
hecho de que el sistema está separado del cuerpo del operador, supone un incremento notable del peso del
conjunto.
En aquellos programas en los que el presentador tiene que leer
guiones o textos, como en los informativos, se usa un sistema de ayuda
denominado teleprompter o autocue. Este equipo utiliza las propiedades
semirreflectantes de un espejo especial colocado delante de la cámara,
con un ángulo de 45° de inclinación hacia delante. La zona posterior del
espejo, donde se encuentra el objetivo de la cámara, está protegida de la
luz mediante una cubierta semirrígida, con el fin de que la única luz que
incida sobre la cámara provenga del cristal. En la parte delantera, por
debajo del espejo, se
sitúa un monitor de
vídeo en el cual irán
apareciendo los textos
que el presentador debe
leer. Estos textos los genera un ordenador situado en el control del
estudio, donde un operador controla el avance del texto sobre la
imagen, adaptándolo a la velocidad de lectura. Actualmente se está
trabajando en la incorporación de un sistema informático de
identificación de la voz, que controlará este avance
automáticamente.

Ejemplo 2:
En un plató de programas de entretenimiento, se puede utilizar una
cámara con autocue para pasarle los textos al presentador. Al mismo tiempo, junto a los montajes convencionales, una steady-cam para los
planos dinámicos y una cabeza caliente para los planos largos o de público permitirán crear vistosas secuencias en las actuaciones musicales.

 Escenarios virtuales.

Los escenarios virtuales, derivados del clásico croma key, difundido masivamente en la información
meteorológica (donde el actuante se colocaba delante de un fondo azul, que era sustituido por la imagen decidida
en el control de producción). Los presentadores del programa están rodeados por un ciclorama, una tela tensada y
montada sobre bastidores que no presenta esquinas, por lo que a la vista de la cámara aparecerá un fondo
homogéneo. Su color suele ser azul o verde, ya que no están presentes en la piel humana y, por lo tanto, son
fácilmente identificables en el proceso posterior, que suele tomar una de las siguientes configuraciones:

Planos predefinidos. El escenario habrá sido generado por ordenador en tres dimensiones, según las indicaciones de
los responsables del programa. Sobre este escenario se introducen, virtualmente hablando, las cámaras y se recogen
las vistas que se producirían en cada una, teniendo en cuenta factores como la modificación del plano según el
objetivo utilizado o el punto de enfoque y la profundidad de campo resultante. Las cámaras de este sistema tendrán
una posición fija, si bien pueden modificar mediante una cabeza móvil el encuadre, así como el factor de zoom
aplicado en cada caso, obteniéndose una serie de planos posibles (tradicionalmente unos cinco por cámara) que
coincidirán con las instantáneas memorizadas del fondo virtual. Por lo tanto, al controlador llegarán las señales de
las distintas cámaras, incorporándose los fondos correspondientes al encuadre seleccionado en cada una de ellas.
Cuando el realizador desea tomar en la cámara 1 un primer plano, por ejemplo, selecciona esta opción entre las
tomas posibles, por lo que dicha cámara se sitúa automáticamente en el encuadre y zoom prefijados para esta

selección. Simultáneamente, el ordenador sustituye el fondo real por la imagen correspondiente a esa toma que
tiene memorizada, confeccionándose así la escena completa.

Ejemplo 3:
Este sistema es frecuente en programas donde los actuantes están sentados, como telediarios y programas de entrevistas. En este
caso, los movimientos del presentador y los invitados son limitados, lo que permite una correcta toma de los planos medios y cortos
predefinidos.

Este sistema no es únicamente un generador de escenarios, sino que se ocupa del control de las cámaras y
simplifica notablemente la realización del programa, que puede llevar a cabo una sola persona. Además, las
herramientas infográficas permiten incluir rótulos, ventanas de imagen, etc.. Sus limitaciones estriban en tener que
ceñirse a planos concretos y preestablecidos, ya que no pueden cubrir adecuadamente los planos imprevistos, por lo
que la creatividad en la realización se ve reducida.

 Detección por ejes de cámara. Cuando se requiere el movimiento libre de las cámaras por el escenario, se puede
optar por este método, en el que se instala en cada cámara un sistema de «balizas» que identifican su posición
en los tres ejes.
Estos elementos, de forma esférica, van montados sobre una
estructura de varillas en forma de estrella, de modo que, cuando la
cámara gira en algún sentido, las esferas situadas en los vértices marcan
el desplazamiento realizado. Este movimiento es captado a través de un
sistema de identificación óptico de las estructuras de señalización, basado
en un conjunto de cámaras situadas en el perímetro del plato. Analizando
las imágenes recibidas, se puede deducir la ubicación de la cámara y su
posición, y con esta información se genera la imagen del decorado
correspondiente a cada situación concreta. Si se producen movimientos
de cámara, el sistema informático calculará en tiempo real las
modificaciones del plano de visión, conformando las nuevas vistas que le
corresponden.

Si bien este método permite una mayor libertad en la producción, el


hecho de tener que identificar los movimientos y “renderizar” (calcular
numéricamente) las imágenes en tiempo real limita la resolución con la
que se obtendrá el decorado. Como este método se basa en la identificación de las balizas de las cámaras, se
requiere que el área de movimiento de éstas se mantenga libre de obstáculos visuales, que dificultarían la
identificación.

 Detección por matriz en imagen. Otro sistema que permite libertad


de movimientos de las cámaras está basado en la identificación de la
imagen captada por cada una de ellas. Sobre el ciclorama del plato se
dibujan una serie de líneas verticales y horizontales de referencia,
que formarán una matriz de identificación visible sobre el fondo azul.
Las señales de todas las cámaras se llevarán ahora a un equipo que
analizará la imagen captada. En función del número de cuadrículas
que aparecen en la imagen y su curvatura, se determinará la
distancia existente entre la cámara y el fondo, así como la distancia
focal utilizada para la toma. Si la cámara está a la altura del centro de
la rejilla de referencia, la imagen captada formará rectángulos de
lados perfectamente perpendiculares. Pero si la cámara se desplaza
hacia la derecha, por ejemplo, la figura captada se convertirá en un
trapecio, adquiriendo las líneas horizontales cierta inclinación que
permitirá evaluar su desplazamiento. Si la cámara se mueve hacia
abajo, serán las líneas verticales las que se inclinarán, debido a que el
lado más cercano a la cámara (el inferior, en este caso) se verá de
mayor tamaño que el opuesto. A partir de estos datos, se podrá
conocer la posición y el movimiento individual de las cámaras que
operan en el plato, calculando la vista del escenario que le corres-
ponde en cada instante. Para que no aparezca sobre la imagen definitiva, el sistema detectará y eliminará la
información de la rejilla de referencia antes de crear la máscara de inserción del fondo.

 Detección por sensores de posición. Consiste en utilizar sensores asociados a los ejes de movimiento posibles.
Así, encontraremos sistemas de escenarios virtuales que utilizan detectores de posición horizontal y vertical en
la cabeza del trípode, por lo que se podrá calcular, a partir de una posición inicial de referencia, la dirección de la
cámara en cada momento. También se coloca un sensor que comprueba la posición del zoom, que como los
anteriores se llevará hasta un sistema informático que analizará los datos de posición y encuadre de la cámara,
recreando el fondo virtual correspondiente al plano que la cámara capta en cada instante.

Ejemplo 4:
A menudo este sistema comporta el uso de cámaras asociadas a cabezas robotizadas, de modo que se utilizan los propios
codificadores de posición integrados en el sistema de robotización.

CONTROL DE PRODUCCIÓN
Íntimamente relacionada con el plato
aparece la sala de control, a la que llegarán
todas las señales captadas y donde serán
procesadas hasta conformar el programa final
que será grabado o emitido. El control de
producción de televisión no tiene por qué ser
adyacente al plato ni tener contacto visual con
él, si bien es aconsejable, para que los cables
no tengan una longitud excesiva, que no
medie demasiada distancia entre ellos. Será
en este lugar donde se realizarán los ajustes
previos de los equipos, se mezclarán las
señales del plato con otras recibidas desde el exterior o grabadas con anterioridad, y se insertarán rótulos, cabeceras
y melodías. Este cúmulo de funciones hace que, en la mayoría de los casos, se establezcan divisiones por áreas
funcionales. Podemos distinguir las siguientes zonas:

 Control técnico. Este espacio servirá de puerta de entrada de las señales que llegan desde el plato,
distribuyéndose desde aquí al resto de los elementos que integran el control de producción. Desde este lugar se
regulan los parámetros de las cámaras del plato, de forma que todas entreguen una imagen homogénea en
cuanto a ganancia, cromaticidad, etc. Estas operaciones se ejecutan sobre las unidades de control de cámaras
que se encuentran en esta zona. También están aquí los monitores de fuente de imagen y los equipos de
medida de vídeo (monitor de forma de onda y vectorscopio), así como los sistemas de conmutación y
distribución de las señales de imagen, sonido e intercomunicación, para poder implementar variados modos de
funcionamiento del sistema.

 Realización. Esta zona se erige como el centro de operaciones del conjunto de producción, donde se toman las
decisiones y se coordina a todo el equipo. Desde el control técnico llegarán las señales hasta la zona de
realización, en la que serán monitorizadas y conducidas al mezclador de vídeo situado en ella. Aquí se insertarán
también los efectos oportunos sobre la imagen, se integrarán los rótulos y se generará la señal de programa.

Sonido. Las operaciones relativas al audio se centralizan en un área específica, donde se localizan las fuentes de
sonido auxiliar, los generadores de efectos de audio y el propio mezclador. Suele estar próxima a la zona de
realización, separándose por medio de un cristal, de forma que obtiene visión de lo que ocurre en el plato a
través de sus monitores.

Sala de equipos. Se dispone de una sala en la cual se ubica la mayor parte del equipamiento técnico, y en las
zonas de operación únicamente están sus consolas de control. Esta centralización permite realizar de manera
óptima las labores de control de calidad, al tiempo que se pueden montar mejores sistemas de
acondicionamiento ambiental, al no tener que mantener un umbral de ruido de fondo bajo como en el resto de
los departamentos.

 El control técnico de cámaras.

La señal entregada por las cámaras se lleva, a través del cajetín de plato, hasta las Unidades de Control de
Cámara (CCU) que se encontrarán en este control. Generalmente, estos equipos disponen de varias salidas, entre las
que encontraremos una específica para monitorizar la imagen en el control técnico, mientras llevamos otra hasta un
preselector asociado al puente de monitorado técnico existente en este lugar. Generalmente, definimos así al
conjunto formado por un monitor de forma de onda, un vectorscopio y un monitor de imagen de alta calidad (grado
1). De esta forma, el técnico podrá comprobar visualmente y a través de los equipos de medida la calidad de las
señales, así como realizar el alineamiento y los ajustes de las cámaras (iris, pedestal, etc.). Por último, extraeremos
una tercera línea de vídeo de la unidad de control de cámara, que conduciremos hasta el patch panel del control de
realización.

Además de las líneas de vídeo, a las CCU llegarán otras señales, necesarias para el correcto funcionamiento del
sistema. En primer lugar, debemos tener en cuenta que todo el conjunto de equipos de una cadena de producción
ha de mantener igual patrón de sincronización, de forma que las mezclas se produzcan en la misma línea del mismo
campo de las diferentes fuentes. De no ser así, las combinaciones entre cámaras tendrían resultados desastrosos,
puesto que se producirían saltos en las imágenes y pérdidas de sincronización en cada cambio de fuente de imagen.
Para fijar este patrón se precisa un generador de sincronismos, que entrega una señal de referencia denominada
black burst, formada por los sincronismos horizontales, verticales y de color, como cualquier imagen de televisión,
pero con un nivel de negro fijo durante los periodos activos de línea. Esta señal será distribuida a todos los equipos,
tanto de plato (a través de las CCU de las cámaras) como del control de producción, sincronizándose adecuadamente
la totalidad de las fuentes de vídeo a partir de una referencia única. Esta referencia parte de un generador situado
en el control central, y sirve para enclavar los generadores que, como este del control de cámaras, funcionan como
esclavos para regenerar la señal original y sincronizar los equipos del control de producción. Además de
sincronismos, estos generadores entregan cartas de ajuste por un conector de salida diferente, generalmente señal
de barras de color. Esta señal de test servirá como referencia para la comprobación de la instalación, por lo que la
llevaremos hasta el control de realización para utilizarla como señal visual de referencia patrón.

Otra línea de entrada a las unidades de control de cámara es la denominada «retorno de vídeo». Procede del
mezclador de realización de vídeo, permite que el operador de cámara pueda visualizar en su monitor, si lo desea, la
señal de programa en lugar de la captada directamente por su cámara. Las conexiones de las CCU se completan con
las líneas de intercomunicación para los operadores de cámara, procedentes del sistema de intercom del control de
producción, y la línea de activación de los pilotos luminosos que indican que la cámara está seleccionada en el
mezclador de realización (tally). Encontraremos otro monitor que mostrará la señal del programa final que, como las
señales de retorno de vídeo, suele proceder del distribuidor de vídeo de programa del control de realización. En
algunas instalaciones, además de la salida de programa, también se monitoriza en el control de cámaras la señal de
previo del mezclador de vídeo. Esta señal resulta útil para que el técnico no ejecute ajustes sobre una cámara que
está «saliendo al aire» o que lo va a hacer de forma inminente. Paralelamente, también llegará desde el control de
sonido el audio de programa, que se llevará hasta dos altavoces, previa amplificación, completando así las labores de
monitorización. Si la instalación dispone de una sala de aparatos, se llevarán hasta un panel de conexiones situado
allí las líneas multicore o triaxial de las cámaras de todos los platos. También estarán en esta sala las unidades de
control de cámara, y sólo se llevarán hasta el control de cámaras sus controles remotos. Paralelamente al control de
cámaras, a menudo se utiliza este espacio para otra función bien distinta. En algunos casos, cuando no se realiza
desde el propio plato, se instala en el control técnico la mesa de control de iluminación.

Ejemplo 5:
Como norma general, todos los equipos de vídeo del control de producción deberán estar sincronizados, lo que supone la necesidad
de un gran número de líneas de sincronismos. Para reducir el número de cables, podemos realizar una conexión en bucle, ya que los equipos
disponen para este fin de un conector de entrada y otro de salida. Así, llevaremos la línea procedente del generador de sincronismos hasta la
entrada del primer equipo, que estará configurada de forma que presente alta impedancia. De su salida de sincronización llevaremos ahora
otra línea hasta la entrada del aparato siguiente, y así sucesivamente. El último de los equipos de la serie deberá cerrar la línea, activando la
impedancia terminal de 75 Ω asociada a esa entrada. De esta forma podremos simplificar nuestra instalación, si bien no es aconsejable utilizar
la conexión en puente en una cadena de equipos muy numerosa.
Ejemplo 6:
Tener centralizado el panel de conexión de cámaras permite combinar en un mismo programa imágenes tomadas en varios platos.
Por ejemplo, el set desde el que se hace la información metereológica en las instalaciones de Televisión Española en Torrespaña no está en el
plato de informativos, sino en otro plato contiguo. Sin embargo, la cámara que lo capta está «patcheada» hacia el control de producción del
informativo, por lo que se procesará como si de una cámara más de su plato se tratase.

 Control de realización.

La señal de vídeo de las cámaras, procedente del control técnico, llegará hasta un panel de conexiones situado
en el control de realización. Desde este equipo se aplicarán a los distribuidores, que se encargarán de trasladar estas
señales hasta los monitores de realización, además de conectarse a las entradas del mezclador de video. Para
seleccionar el resto de las señales que contribuirán a la elaboración del programa, utilizaremos una matriz de
conmutación, donde se establecerá la configuración de los recursos técnicos disponibles para obtener el máximo
rendimiento en cada circunstancia. Se decidirá aquí qué fuentes se llevarán hasta el mezclador, cuáles serán
grabadas y en qué equipos, etc. Para ello las entradas de la matriz estarán conectadas a las fuentes de utilización
más común (magnetoscopios, servidores de vídeo, entradas auxiliares, etc.), se configurarán las salidas y según las
funciones a realizar (mezclador, grabación, monitorización técnica …).

Ejemplo 7:
En algunas instalaciones, como sucede habitualmente en las unidades móviles, los magnetoscopios se encuentran en el propio control
de producción. Sin embargo, en otros casos se decide utilizar, para rentabilizar mejor los equipos, un sistema centralizado. Entonces se utiliza
una sala separada del resto, donde se montan magnetoscopios que serán utilizados por varios controles de producción, e incluso se amplían sus
funciones con labores de cambio de formato o edición. En este tipo de instalaciones, las señales de vídeo y audio de los magnetoscopios se
enrutan, a través del control central, a las entradas de la matriz principal del centro de producción de programas. Desde el punto de vista del
control de realización, se seleccionarán estas líneas de VTR a través de su matriz, como si se tratase de una línea auxiliar. Mediante el sistema
de intercomunicación del centro, el realizador dará las instrucciones al operador de VTR para lanzar las piezas en el momento oportuno.
Algunas líneas de salida de la matriz nos conducirán, tras pasar por el patch correspondiente, hasta el mez-
clador de vídeo, donde se compondrá el programa final. Todos los mezcladores de vídeo incorporan varios tipos de
cortinillas para enlazar imágenes, resulta habitual aumentar la capacidad creativa añadiendo un generador de
efectos digitales de vídeo (DVE). Este equipo se suele conectar a partir de dos líneas específicas procedentes del
mezclador, una con la señal de vídeo a la que aplicar el efecto (DVG) y otra con la señal de sustitución [Key). Por su
parte, el resultado del efecto aplicado se llevará de nuevo hasta una entrada en el mezclador. Para visualizar el
efecto aplicado, el generador utiliza un monitor, que situaremos en el panel frontal de monitores del control de
realización. La utilización del mezclador requiere el uso de, al menos, dos monitores más. Sin duda, la imagen más
importante a monitorizar es la de salida de programa, por lo que esta señal se lleva hasta un monitor, generalmente
de mayor tamaño que los de las entradas. También suele ser grande el monitor de previo, donde se ensayan las
mezclas y los efectos antes de pasar a la salida del programa.

 Sistemas complementarios.

Junto al sistema de producción básico, encontraremos otros elementos que nos ayudarán a mejorar el programa
audiovisual. Para insertar los títulos en un programa de televisión utilizaremos los generadores de caracteres. Para
conectar estos equipos también podemos encontrar dos tendencias:

En algunos casos, encontraremos que el generador de caracteres incorpora el incrustador (keyer) necesario para
insertar los títulos sobre la imagen. Estos equipos reciben por su entrada una señal de vídeo, sobre la cual se
sobreimpresionan los títulos, obteniendo el resultado de esta operación por su línea de salida. Por su forma de
trabajar, lo conectaremos a la salida de la señal de programa del mezclador. Este tipo de tituladoras utiliza un
monitor de previo, para elegir el tipo de letra, color y aspecto, y comprobar si el título seleccionado es correcto antes
de ejecutar su inserción. Otros generadores de caracteres se limitan a entregar, a través de dos líneas
independientes, las señales correspondientes al título que se desea insertar (DSK fill) y la que se utilizará para
realizar la sustitución sobre la imagen de fondo (key). Estas dos líneas se llevarán hasta el bloque DSK del mezclador
en cuyo interior se insertará el título correspondiente. En lugar de un monitor de previo, estas tituladoras disponen
de un monitor «de servicio», con el cual podremos elegir tipos, tamaños y colores de letra, así como componer el
texto. Asociado al mezclador de vídeo también encontramos el controlador de tally, encargado de informar a los
actuantes, operadores de cámara y técnicos del control de producción de la fuente seleccionada en cada momento.
Esto se puede realizar con simples pilotos de señalización, como en el caso de las cámaras, o con sistemas más
sofisticados en los que se coloca, debajo del monitor (en el control técnico y en realización), un rótulo electrónico
con el nombre de la fuente o del operador de cámara correspondiente. Este cartel indicará, mediante el uso de
diversos colores en las letras, si la imagen del monitor correspondiente está seleccionada en el mezclador, o si está
preparada para ser utilizada. Para realizar estas indicaciones, el mezclador dispone de una salida por cada línea de
entrada de vídeo, que se activa cerrando un contacto interno cuando se selecciona en la matriz de entrada del
equipo la entrada correspondiente. El controlador de tally trasferirá la orden hasta las CCU de las cámaras, para
encender el piloto correspondiente, al tiempo que mediante un bus serie ordenará la activación del cartel del
monitor de esa misma cámara. Otro de los sistemas de apoyo a la producción que encontraremos frecuentemente
es el teleprompter o autocue. En el control de realización se situará la unidad central de este equipo, generalmente
basado en un sistema informático, del cual saldrá una línea de vídeo hacia el monitor montado delante de la cámara.
Algunas cámaras de estudio permiten transferir esta señal a través del cable multicore o triaxial. El cable de salida
del prompter se aplicará a la entrada correspondiente de la CCU, y la señal se extraerá en el adaptador de la propia
cámara para visualizar los textos en el monitor correspondiente. Si en el estudio utilizamos cámaras robotizadas, la
posición y el encuadre de las mismas se realizará desde este control de realización, donde un operador de cámara
gobernará los mandos del equipo de control remoto. Este equipo se conectará con las cabezas robotizadas a través
de un cable de datos, si el control es por puerto serie, o bien mediante una línea multihilo. Una vez conformada, con
sus mezclas, efectos y títulos, la señal de programa debe llevarse a múltiples destinos, desde los monitores de plato,
control técnico y realización, hasta los magnetoscopios de grabación o el control de calidad de la imagen, al tiempo
que se conduce hasta el control central para ser emitida. Por ello se dispone de un distribuidor de programa, que
proporcionará las salidas oportunas para realizar todas estas funciones.

Ejemplo 8:
Al cablear las instalaciones de la emisora de televisión, se utilizan cables de diferentes colores para diferenciar las señales que trans-
portan. Las líneas de vídeo analógico utilizan cable de color verde, mientras que la señal de sincronismos se lleva por cables con funda amarilla.
Para conducir vídeo digital SDI se usa el color azul, y los cables de color violeta se utilizan para vídeo digital comprimido en MPEG. Por último, el
color rojo se suele reservar para los cables de audio.

 La red de emergencia.

Cuando estudiamos los sistemas de emisión,


vimos la tendencia a utilizar sistemas redundantes,
que activaban un equipo de reserva cuando se
producía el fallo del emisor principal. Las unidades
de producción disponen de equipamiento suficiente
como para prescindir de una fuente de señal, y
mediante los patches se puede reconfigurar la
instalación para solucionar el problema en casi todas
las ocasiones. Existen algunos elementos clave en el
sistema, cuya avería supondría un grave problema
de cara a la explotación del centro de producción.
Uno de esos puntos débiles es, sin duda, un fallo en
el mezclador de vídeo. Al tratarse del elemento cen-
tral de la producción, una avería en este equipo
dejaría inútil a toda la unidad de producción. Para
ello tomaremos una línea de cada uno de los dis-
tribuidores de las señales de entrada al mezclador (o
al menos de las más importantes), y las conduciremos hasta un preselector, que situaremos junto al mezclador de
vídeo. La salida de este aparato se conducirá hasta el patch en el que se conecte la salida de programa del
mezclador. Otro elemento crítico en el sistema es la matriz principal, situada en el control central. Normalmente, la
salida de programa va al control central, y desde allí se enchufa hacia el control de continuidad. Como medida de
seguridad, los controles de producción suelen enviar una línea de programa directamente hasta el control de
continuidad.

 El control de sonido.

Un gran panel de conectores para centralizar todas las señales que intervienen en el proceso. Aquí llevaremos el
audio de las cámaras, que extraeremos de las CCU correspondientes, situadas en el control de cámaras. El resto de
las fuentes de vídeo (magnetoscopios, servidores de vídeo, etc.) nos entregarán el audio que las acompaña a través
de la matriz de conmutación, ya que dispondremos de sistemas de conmutación de vídeo y audio simultáneos,
muchos magnetoscopios se sirven de conectores XLR3 para la entrada y salida de la información de código de
tiempo, por lo que serán conducidos hasta una sección del panel de conexiones.

Además de las líneas de sonido de los equipos de vídeo, en el control dispondremos de otras fuentes de sonido
(minidiscos, reproductor de discos compactos, magnetófono de cásete e, incluso, el híbrido telefónico) que se
llevarán también hasta este panel. La excepción la podemos encontrar, en las señales que proceden directamente de
micrófonos. Como su nivel es muy bajo y, en ocasiones, necesitan alimentación remota, estas líneas de micro llegan
directamente hasta el mezclador de sonido, evitando así la perturbación con ruidos externos. Sin embargo, las
entradas de línea de alto nivel características de los instrumentos musicales, receptores de sistemas inalámbricos,
etc., sí podrán pasar a través del patch. Además de las entradas de micro, a la mesa de sonido se llevarán líneas
suficientes como para poder componer el programa final de audio. El número total de líneas mono y estéreo
dependerá del modelo concreto de mesa elegida, los mezcladores de audio permiten insertar procesadores de
sonido en serie con las entradas, a través de una conexión denominada insert. Para implementar esta opción se
trasladarán hasta el panel de señales estas entradas y salidas de inserción. Esto permitirá aplicar un procesador
externo a una línea de entrada individualmente. De hecho, lo más habitual es tener conectadas de esta forma las
líneas de inserción de algunas entradas, varias puertas de ruido, que se accionarán en caso necesario.

El modo más frecuente de aplicar efectos es a través de las salidas auxiliares, que toman las entradas por grupos que
se procesan conjuntamente. Por ello conectaremos un procesador de efectos en uno de los envíos auxiliares del
mezclador, recibiendo por una línea de retorno los sonidos con su efecto correspondiente. La salida de programa del
mezclador se conectará a un compresor de sonido, que limitará el margen dinámico para evitar saturaciones de
nivel, antes de convertirse en la señal definitiva de sonido de programa. Utilizaremos un distribuidor para conducir la
señal de programa de audio a diferentes destinos, siendo el principal de ellos la línea de salida hacia el control
central. Por otro lado, tendremos que monitorizar esta señal en las áreas de control. La señal de programa, o la de
cualquiera de los grupos del mezclador, podrá ser grabada en los magnetoscopios o en los sistemas de grabación
analógicos y digitales de la instalación, por lo que llevaremos la señal de programa y algunas líneas auxiliares hasta la
matriz y los equipos de grabación de sonido de nuestro control.

 Sistema de intercomunicación.

El sistema de intercomunicación de la unidad de producción, se diferencian dos niveles de intercomunicación:

 Comunicaciones internas. Se producen durante el proceso de producción entre los distintos técnicos, que
involucran también al personal del plato. Para su desarrollo se montan, en las zonas de control, consolas de
intercomunicación. Desde una de ellas se decidirá la configuración del sistema. Los cámaras recibirán estas ins-
trucciones a través del cable que les une con el control, por lo que la línea de intercom se aplicará a la CCU. Para
el regidor, el presentador y el resto de los técnicos de plato se utilizarán belt packs, como se denominan
técnicamente las petacas de comunicación bidireccional que se sujetan al cinturón, que pueden estar
conectadas por cable o sistemas de radiofrecuencia. A través del sistema intercom, el realizador también podrá
dar órdenes a todo el personal de plato. Para ello se conecta una de las líneas a un sistema de megafonía, con un
amplificador y altavoces en el plato.

 Comunicaciones externas. El personal del control


de producción también necesita comunicarse
con el exterior, bien con departamentos del
propio centro de producción de programas, o
bien con otros ajenos a éste. Dichas operaciones
se llevan a cabo con un segundo sistema
intercomunicador, que cuenta con estaciones en
las secciones del control, que forman parte de
una red de interfonía más amplia que abarca al
resto de los departamentos (control central,
continuidad, etc.). El sistema de intercomuni-
cación del centro de producción de programas
se basa en la utilización de una matriz de audio
bidireccional, habitualmente alojada en el
control central o en la sala de aparatos. En cada
dependencia del centro (control central,
continuidad, cabinas de postproducción,
controles de realización, etc.) se colocará una
consola de intercom, dotada de un micrófono, un altavoz y el teclado para realizar llamadas.

Ejemplo 9:
Cuando en un programa se recibe una llamada telefónica, ésta llega, tras filtrarla primero una operadora, hasta el control de
realización, a través de la red de intercomunicación externa. Allí se decide si entrará en el programa y, se informará por la red interna al
presentador de tal contingencia.

El centro de producción de programas dispondrá de una centralita telefónica, con extensiones en cada uno
de sus departamentos, que permitirá un segundo plano de comunicación entre dependencias. Desde el punto de
vista de la conectividad, podemos clasificar los sistemas de intercomunicación en dos grupos:
 Intercom a dos hilos: el método más simple consiste
en utilizar una única línea de transmisión
bidireccional. En ella, cada terminal activo de la línea
insertará la señal de su micrófono, realizándose todas
las comunicaciones de forma conjunta. Como en
telefonía, la impedancia de la línea es de 600 Ω.

 Intercom a cuatro hilos: este sistema utiliza líneas


balanceadas independientes para la transmisión y la
recepción de mensajes de voz.

POSTPRODUCCIÓN
Las operaciones así denominadas son aquellas
que se aplican a las imágenes (y sus sonidos
correspondientes) que han sido grabadas previamente.
La configuración de un departamento de postproducción completo se
puede basar hasta en tres espacios, que podrán aparecer diferenciados en
distinta medida, como veremos a continuación.

 Locutorio. Se dispondrá de una pequeña sala insonorizada, donde se


captarán los comentarios que servirán de complemento a las
imágenes editadas, apareciendo habitualmente como voz en off o
fuera de imagen, aunque también se podrán reservar para doblajes o
traducciones. En este locutorio se montarán las líneas de sonido y los
micrófonos necesarios para que puedan trabajar simultáneamente
varios comentaristas. También se instalará un sistema de visualización
del vídeo editado, que les servirá de referencia junto con la
monitorización de audio, llevándoles el sonido del programa hasta los
auriculares.

 Grafismo. Básicamente se trata de un potente sistema informático


adaptado a la aplicación infográfica, con programas de dibujo en dos y tres dimensiones, retoque fotográfico y
videográfico, generación de títulos animados y presentación gráfica específica para diversas aplicaciones. El
sistema se completa con tarjetas de captura de vídeo, para poder insertar imágenes reales en los gráficos, y de
conversión al formato de vídeo en que se trabaje, para la salida del efecto elaborado. En esta sala se montará
también un magnetoscopio y su monitor correspondiente, que servirá de fuente de señal de vídeo y permitirá la
grabación de los gráficos generados para una utilización posterior.

 Edición. El lugar donde se realizan las labores de montaje final es la sala de edición. Aquí llegan las señales de
audio procedentes del locutorio, así como los productos de grafismo, y se integran con las señales de vídeo y
sonido de diversas fuentes.

La estructura de una sala de edición clásica está formada por un conjunto de magnetoscopios reproductores,
que suministran las señales fuente de la edición. La señal de estos magnetoscopios será visualizada en los monitores
correspondientes, que recibirán las imágenes y sonidos reproducidos por cada uno. Desde los monitores llevaremos
las líneas hasta el mezclador, donde se realizan los fundidos y efectos que se desean aplicar. Hasta este mezclador
llegan también las fuentes auxiliares de sonido, basadas en reproductores de discos compactos, magnetófonos, etc.
Estas fuentes permitirán introducir melodías o bases musicales durante la edición. También son frecuentes los
sistemas de generación de efectos de vídeo y audio, formados a menudo por ordenadores con aplicaciones
específicas, conectados a los equipos de la sala de grafismo. El resultado de la edición se visualizará en los monitores
de previo y programa antes de conducirse hasta el magnetoscopio editor, donde se grabarán las señales finales.
Simultáneamente, se establecerá un control técnico de las señales editadas a través de un monitor de forma de onda
y un vectorscopio conectados a la señal de entrada del magnetoscopio editor. El control de los magnetoscopios
fuente y grabador, así como el mezclador de vídeo y audio, dependerán ahora del controlador de edición. Desde este
elemento partirán las líneas de datos de control en serie hasta los diferentes equipos, y así se decidirá cuándo se
arranca cada reproductor o el momento de realizar la mezcla, por ejemplo. Para sincronizar estas operaciones se
distribuyen también las líneas de referencia de sincronismos en forma de señales block burst, generadas desde el
propio mezclador o a partir de un equipo específico para este fin.

Ejemplo 10:
En emisoras de televisión local, donde la disponibilidad de equipos es limitada, se puede añadir al control de producción el equipo de
control del proceso de edición. De esta forma, cuando no se estén produciendo programas se podrán usar los mismos equipos para labores de
postproducción, reduciéndose así los costes de explotación.

Existen otras estructuras que posibilitan la edición no lineal de imágenes y sonidos, así como la edición
rápida para la elaboración de noticias y otras aplicaciones afines.
Para estas utilidades se suelen emplear redes de sistemas
informáticos de alta tasa de transferencia, basadas en estándares
Fast Ethernet o fibra óptica. Como elemento maestro de la red
encontraremos un servidor de vídeo, en el que se volcarán las
secuencias grabadas por los reporteros en el lugar de la noticia. Para
esta función los servidores incorporan módulos de transferencia de
imágenes y sonidos digitales en alta velocidad, así como
capturadoras de señal de vídeo analógico. Y para el almacenamiento
de estas secuencias se dota al servidor de una elevada capacidad de
registro, conseguida a partir de raids o baterías de discos duros de
vídeo, cuyo tamaño lógico definirá el tiempo máximo de
almacenamiento del sistema. Una vez en el servidor, cualquiera de
los puestos de la red, o varios de ellos, podrá solicitar una copia de
trabajo de las secuencias que se deseen.


 Cambio de formato: existen un gran número de formatos de vídeo diferentes, por lo que podrán llegar hasta
nuestra emisora productos audiovisuales en soportes diversos. Como resulta imposible disponer de
magnetoscopios de todos los tipos en cada departamento, la solución adoptada mayoritariamente consiste en
montar una sala donde se pueda pasar una cinta de un formato a otro. Su estructura es simple: una batería de
magnetoscopios reproductores, cuya diversidad permita cubrir la mayoría de los formatos de grabación
existentes, conectados mediante una matriz a otros magnetoscopios grabadores en los sistemas utilizados por
nuestra emisora.

En el momento de cambiar de formato, nos encontraremos con un problema, al utilizar sistemas de grabación
distintos, nos encontraremos que algunos de ellos disponen de salidas SDI, mientras que otros trabajan en
componentes analógicas y otros únicamente disponen de salida de vídeo compuesto. Por esta razón, deberemos
elegir la matriz de un formato de señal compatible con todos los equipos, aunque ello suponga en muchos casos
trabajar en vídeo compuesto. Como en el resto de las dependencias dispondremos de un puente de monitorado
técnico, para comprobar la calidad de las señales tratadas, que se conectará a los magnetoscopios, como es habitual,
a través de un preselector.

Ejemplo 11:
Los magnetoscopios DVCPRO pueden reproducir, además de este formato, cintas grabadas en DVCAM y DV. Por su parte, Los equipos
Betacam Digital también reproducen cintas grabadas en Betacam analógico. También los magnetoscopios S-VHS pueden grabar y reproducir
en formato VHS.

CONTROL CENTRAL TÉCNICO


En los grandes centros de producción de programas es frecuente encontrar varios platos, con sus corres-
pondientes salas de control. Esto hace necesario un elemento que establezca una coordinación entre ellos, y que
controle las señales que se envían o reciben de cada uno. En una primera aproximación, podríamos considerar este
departamento como un «control de controles», con las siguientes funciones básicas:

 Realizar las conmutaciones precisas para suministrar a cada estudio las señales necesarias para la elaboración de
los programas.

 Ejecutar la supervisión técnica de las señales que se emitirán, detectando posibles anomalías y estableciendo
estrategias para solventarlas.

 Servir de enlace con el resto de los centros de producción y de emisión involucrados en la difusión de los
programas.

 Establecer un patrón de sincronización único para todo el centro de producción de programas, distribuyéndolo a
los controles de producción que estén a su cargo.

Desde el punto de vista del equipamiento, el control central se estructura en torno a una gran matriz de
conmutación, a menudo redundada por un panel de conectorización mecánico, para poder garantizar el funcio-
namiento ante eventuales averías. Hasta esta matriz llegan las señales de programa de los estudios de producción,
los receptores de enlaces externos, las señales de las unidades móviles, las procedentes de transmisiones vía satélite
y, en definitiva, todas las líneas que contienen información útil en los diversos departamentos del centro de
producción. Como salidas de la matriz encontraremos las líneas auxiliares que se encargan de llevar las
informaciones audiovisuales solicitadas hasta los estudios de control. Las líneas de programas internos, así como los

difundidos por la red de radioenlaces, se conducirán mediante distribuidores hasta el control de continuidad, donde
se decidirá la información que se va a emitir. Precisamente la salida del control de continuidad será la señal de video
a emisión, que llegará hasta este control central para distribuirse. Sobre esta línea de programa a emitir se
insertarán las señales de test VITS, que harán posible realizar medidas de calidad durante el proceso de transmisión
sin detener el servicio audiovisual. Para cumplir adecuadamente con su cometido, el control central incorpora una
serie de monitores de audio y vídeo que le permitirán visualizar varias fuentes de señal, entre los que destaca un
monitor de grado A (máxima resolución) para evaluar visualmente la calidad de la señal seleccionada. Sin embargo,
este control de calidad va mucho más lejos que la mera inspección visual, por lo que se incorporan equipos de
medida de las señales de vídeo y sonido, como el
monitor en forma de onda, el vectorscopio, el
analizador de sincronismos y el medidor de nivel de
audio, entre otros. Aquí se encontrará también el
generador de sincronismos patrón que definirá las
temporizaciones de todo el centro de producción de
programas. Se desplaza hasta aquí el generador de
sincronismos que inicialmente se encontraba en el
control de producción, donde se montaría en el caso
de que solamente existiera un estudio de televisión.
La señal de este generador se conduce a las distintas
dependencias a través de un distribuidor de
sincronismos, y se permite así el enervamiento de las
fuentes. Para las fuentes exteriores, no sincronizadas
inicialmente, se usarán sincronizadores de cuadro
antes de entrar en el sistema de conmutación. También podemos encontrar aquí equipos complementarios de
procesado de imagen, como conversores de normas o correctores de color, que harán posible adaptar señales
llegadas desde el exterior con formatos diferentes al utilizado por esta emisora. Otros equipos típicos de un control
central son los sincronizadores audio-video. Se utilizan para poner en fase la señal de sonido con el vídeo que lo
acompaña, cuando hasta el control llegan desincronizadas. EL sistema se completa con la central de intercomuni-
cación del centro de producción, que enlazará los departamentos entre sí.

Ejemplo 12:
Durante la emisión de un informativo, se realizan numerosas conexiones con corresponsales y equipos móviles. Las señales de estos
elementos externos son recibidas por el control central, desde donde se conducen mediante líneas auxiliares hasta el control de producción y se
integran en el programa. A su vez, el estudio entrega la señal final de programa al control central, que evaluará la calidad técnica de la señal y
la enviará hasta el control de continuidad.

En las emisoras de televisión de grandes dimensiones, podemos encontrar el control central técnico dividido
en dos áreas:

 Control de exteriores: gestiona todo el tráfico de señales desde y hacia el exterior del centro de producción.
Estarán a su cargo los enrutamientos de la red de contribución, los radioenlaces con unidades móviles o las
señales recibidas por satélite, así como los enlaces a través de las líneas telefónicas.

 Control central de los estudios: se dedica a proporcionar las señales a los diferentes departamentos de
producción, postproducción, continuidad, etc. Establecerá, por lo tanto, las conexiones internas necesarias
para garantizar la operatividad del centro de producción.

Ejemplo 13:
Si en un control de realización se requiere una señal de una unidad móvil, se solicitará al control central de exteriores que configure su
matriz de forma que dirija la línea procedente del receptor de radioenlace correspondiente (que estará en la sala de enlaces) hacia el control
central de estudios. A su vez, desde esta segunda matriz se enrutará hacia el control de producción, donde insertarán la señal en el mezclador
de realización.

CONTROL DE CONTINUIDAD
En el control de continuidad es donde se centraliza la producción audiovisual, y será aquí donde se establezca qué
informaciones, en qué orden y cuándo serán emitidas. Todos estos elementos aparecen en la escaleta de emisión,
un documento en el que se reflejan los horarios de emisión, los programas que se emitirán, su origen, aquellos que
deberán ser grabados para archivo, las ventanas de conexión y desconexión local y regional, etc. Paralelamente se
gestiona desde aquí la publicidad de la emisora, definiéndose qué spots y a qué hora se visualizarán. En resumen,
desde este puesto se regula la emisión de los contenidos que llegan hasta el público.

Para llevar a cabo su función, se reciben desde el control central las líneas de programa de los controles de
producción. Además, se suministran las señales recibidas por fuentes externas, como los programas generados en
otros centros y que se transmiten por la red de difusión en una conexión en cadena. A su vez, desde la propia sala de
continuidad se pueden reproducir películas o programas grabados previamente, a través de los magnetoscopios
instalados para tal fin, así como pequeñas cuñas de vídeo con el indicativo de la emisora, que se generarán a partir
de un sistema informático o un reproductor de discos de vídeo. Todas estas señales, junto con la de la carta de

ajuste procedente de un generador de señal de reserva, se llevan a un panel de monitorización, de forma que el
operador pueda comprobar los programas que están llegando hasta el sistema de conmutación. Desde la consola del
conmutador o mezclador se decide cuál de las fuentes presentes se devuelve al control central como señal de
emisión. Esta línea pasa por un generador de logotipos, que inserta el icono característico de la emisora durante la
emisión de los programas, y que se elimina de la pantalla en los tiempos dedicados a la publicidad. El sistema se
completará con la inclusión de fuentes de sonido auxiliar, que se utilizan para transmitir música de fondo ante
eventuales fallos de señal. También se puede ver un sistema de titulación, que permite incluir mensajes de texto con
noticias urgentes o información complementaria sobreimpresionada durante el programa emitido. La gestión de los
anuncios requiere una infraestructura variable, según la magnitud de la emisora de que se trate. En la configuración
clásica se dispone de una serie de magnetoscopios de varios formatos, que podrán recibir los anuncios en un amplio
abanico de sistemas. La salida de estos magnetoscopios está conectada a un conmutador de vídeo, donde se
selecciona la fuente con el vídeo comercial que será emitido. En los sistemas más sencillos, un operador se encarga
de controlar este proceso, así como de alimentar a los reproductores con las cintas establecidas en cada ventana
publicitaria. En emisoras de mayor presupuesto se usan sistemas automatizados, donde las cintas se almacenan en
posiciones codificadas de un armario especial. El orden de reproducción se introduce en un ordenador que controla
todo el sistema, de forma que localiza la cinta seleccionada en el armario, la inserta automáticamente en el
magnetoscopio que esté libre de los que tiene incorporados y, en el momento oportuno, ordena su ejecución, al
tiempo que activa la entrada del reproductor en el conmutador correspondiente. Una vez terminada la
reproducción, se genera automáticamente la orden de rebobinado y se devuelve la cinta a su posición en el armario
de almacenamiento. De forma complementaria, el ordenador
generará el informe de reproducción de los anuncios, lo que facilitará
la facturación al cliente. En los sistemas más modernos se sustituye o
complementa el manejo de magnetoscopios por servidores de vídeo.
En este caso, cada anuncio tendrá el formato de un archivo de vídeo
MPEG-2 dentro del disco duro, y la escalilla de publicidad determinará
el orden en que esos archivos serán ejecutados. Se puede ampliar la
automatización a todo el proceso de continuidad. En este supuesto, se
almacenan en la escaleta del sistema tanto los espacios publicitarios,
que se reproducirán desde el disco duro, como los programas, que
serán reproducidos desde los magnetoscopios correspondientes.

Ejemplo 14:
EL sistema de continuidad automática resulta especialmente útil para cubrir
las programaciones nocturnas en emisoras de ámbito local o regional con la emisión
de programas grabados con anterioridad. De esta forma se reducen las necesidades
de personal durante la noche.

SALA DE ENLACES Y EMISIÓN


Es el último eslabón de la cadena de producción,
puesto que desde aquí se difundirá la señal de programa
hacia el usuario final, en el caso de una emisora local, o
bien hasta la red de difusión, en sistemas de mayor
entidad. Esta sala, como la de continuidad, está
íntimamente relacionada con el control central, ya que
desde ese puesto se le suministran todas las señales
recibidas por medios externos. De modo complementario,
el control central proporcionará el programa que se
emitirá a los equipos ubicados en este lugar, para su
divulgación externa. La sala de enlaces incorpora los
equipos de emisión y recepción de enlaces vía radio con el
centro emisor, que suele estar ubicado en un lugar
estratégico, fuera del casco urbano. También se recibirán
desde aquí las señales llegadas desde fuentes externas,
como transmisiones vía satélite de otras emisoras, señales
procedentes de unidades móviles e, incluso, las fotografías
de los satélites meteorológicos. Si el propio centro de
producción se encarga de las labores de emisión, también
se encontrarán aquí los dispositivos de emisión del pro-
grama principal. Asociada a esta sala se encuentra la torre de comunicaciones, donde se instalan las antenas
correspondientes de todos los equipos montados. Al ser el punto desde el que se generan las radiaciones
electromagnéticas, en el diseño de esta sala se deberán adoptar las medidas de acondicionamiento y protección
electrostática ya comentadas.

SISTEMAS DE TELEVISIÓN INFORMATIZADOS


En los últimos años, los sistemas de producción audiovisual han sufrido grandes cambios, provocados por la
rápida inserción de los sistemas informáticos como complemento o sustituto de los equipos tradicionales. El
panorama actual presenta una coexistencia de ambas tecnologías, con una clara tendencia a integrar cada vez en
mayor medida una estructura basada en redes informáticas y servidores de vídeo. Estos sistemas, implantados ya
masivamente en la producción de informativos, permiten simplificar el flujo de trabajo al reducir el número de
operaciones necesarias para obtener el producto audiovisual, al tiempo que se dota de mayor flexibilidad y
prestaciones al sistema. A continuación, analizaremos la estructura de este tipo de instalaciones.

Ingesta: lo primero que debemos hacer es proporcionar al sistema los contenidos necesarios para realizar los
programas. Esto se realizará en el área de ingestas, hasta donde llegarán líneas procedentes del control central,
con las informaciones procedentes del exterior (enlaces telefónicos, radioenlaces, etc.). Estas señales se
aplicarán a uno (o varios) servidores de vídeo, que digitalizarán las señales de audio y vídeo, creando clips con
las secuencias seleccionadas. También se transferirá
a través de estos servidores el material grabado por
los reporteros ENG, para lo cual encontraremos
magnetoscopios conectados en algunas de sus
entradas. El sistema de ingestas estará controlado
por un ordenador con software específico, para lo
cual se utiliza una red Ethernet convencional. De
forma paralela a esta red encontraremos otra, de
alta velocidad, encargada de transferir la señal
capturada por estos servidores hasta el resto del
centro de producción de programas. La tecnología
más frecuente en esta red es Gigabit-Ethernet o
Fiber Channel, que se expande a través de los
switches correspondientes.

Almacenamiento compartido: los datos recibidos de


los servidores de ingesta se integran en una red de
almacenamiento compartido (Storage Area
Network, SAN). Estará implementado en base a sistemas RAID de discos duros, con niveles de redundancia que
les permita asegurar la información contenida ante el fallo de alguno de sus discos. Aquí se almacenarán los
contenidos audiovisuales durante un tiempo.

 Postproducción: la información en bruto capturada podrá editarse fácilmente, puesto que utilizaremos
estaciones de edición conectadas con la red de almacenamiento compartido. En este caso, se tratará de una
edición no destructiva, puesto que no se modificará la información del clip original. Cuando desde un puesto de
edición se requiere un material grabado, el servidor le transfiere una copia, que podrá modificar libremente.
Una vez realizado el trabajo de edición se generará un documento nuevo con el producto terminado, que se
almacenará de nuevo en la SAN.

 Edición rápida: un caso especial de edición es el necesario para montar una noticia que se emitirá casi
instantáneamente. En esta situación, será directamente el periodista, desde su puesto de trabajo, el que realice
una edición rápida a partir del material grabado. Para ello se suele disponer de un servidor de informativos, que
hace las funciones de browser. De él están colgados, a través de una red Ethernet convencional, los puestos de
edición rápida de noticias. Cuando uno de ellos solicita un material grabado, este servidor le suministra una
copia en baja resolución, para que el periodista pueda visualizarlo y seleccionar qué contenido le resulta útil y en
qué orden desea colocar las secuencias. También podrá, utilizando el software específico para edición de
noticias, insertarle los comentarios de voz directamente desde su ordenador. Una vez finalizado el vídeo, el
puesto de periodista trasferirà hasta el servidor de noticias la lista de decisiones de edición (EDL), con los
códigos de tiempo de los fragmentos seleccionados en los clips originales.

 Producción: desde los diferentes controles de producción podremos acceder a los contenidos almacenados en
la SAN (Área de Almacenamiento compartido), bien directamente o a través de un servidor específico para
labores de producción. En esta instalación no será preciso utilizar magnetoscopios ni cintas, puesto que las
«piezas» se lanzarán directamente desde este servidor. También aquí podremos almacenar el programa
realizado, bien para ser emitido posteriormente o para llevarlo hasta el sistema de archivo.

 Emisión: en este tipo de instalaciones también está prevista la gestión de la señal de emisión. Si en una emisora
convencional se utiliza una sala donde se almacene el material preparado para emitir, su equivalente será un
servidor de play out, que contendrá los programas, spots publicitarios y jingles de autopromoción de la emisora.
Desde el control de continuidad, mediante un ordenador de control, se irá gestionando la escaleta de emisión,
pudiendo alterar la programación ante eventos de última hora e incluso controlar magnetoscopios externos, por
si es necesario lanzar un vídeo sin tiempo para digitalizarlo previamente. Por seguridad, se suele montar un
segundo servidor de emisión que actúa como reserva activa, y que puede entrar en servicio en cualquier
momento si se produce un fallo del equipo principal.

 Catalogación y archivo: otra actividad que se desarrolla en las emisoras de televisión es la clasificación,
indexado y catalogación del material para su almacenamiento a largo plazo. En esta área se le añade a la
información audiovisual otra que servirá para facilitar su búsqueda posterior. La fecha, el lugar, el evento
grabado, qué personas aparecen y otros datos formarán los metadatos, que se asociarán a los documentos
antes de ser archivados. Para realizar esta función también dispondremos de un servidor específico, que
suministrará su señal a un sistema de almacenamiento masivo.

Ejemplo 15:
La edición mediante servidores de vídeo permite la utilización de un archivo en diferentes labores de edición de forma simultánea, sin
que se deteriore en ningún caso la información original. Se evitan así los problemas que se crean cuando dos periodistas o técnicos de edición
quieren trabajar con una cinta de vídeo al mismo tiempo.

UNIDADES MÓVILES
Muchas veces las particularidades de la información o del programa requieren que la producción se realice,
parcial o totalmente, fuera del centro de producción de programas. Para estos casos se dispone de sistemas de
producción móvil, que pueden variar desde la simple unidad de ENG, formada por una cámara y un micrófono, hasta
sofisticados estudios dotados de todos los medios necesarios para realizar las labores de producción que un
programa pueda necesitar. En este caso se intenta establecer, dentro de la zona de actuación de la unidad móvil, la
diferenciación por áreas de trabajo propias de los centros de producción, por ser la forma en que los técnicos están
acostumbrados a desarrollar su labor. Así, podremos distinguir una zona en la que se realizan las labores de control
técnico, donde se evalúa la calidad de las señales desde la cámara hasta el programa generado.

Frecuentemente en esta zona se ubican los enlaces de radiofrecuencia, la matriz de conmutación de señales,
los sistemas de intercomunicación y los magnetoscopios de la unidad, al no disponer de espacio suficiente para
diferenciar una sala de aparatos. También existirán las áreas de realización y control de sonido, equipadas de forma
similar a como se encontrarían en un estudio convencional, excepto por limitaciones de espacio. Las particularidades
del sistema hacen que se deban cuidar, en el diseño de la unidad móvil, algunos aspectos que no resultan tan
necesarios en los estudios estacionarios, como son los siguientes:

 Ubicación de armarios. En el interior de la unidad se definirán zonas donde se localizarán los racks de equipos o
monitores.

 Refuerzo de estructuras. Precisamente en el lugar de colocación de los armarios de equipos se producen, por su
propio peso, fuerzas de cizalladura que, durante el transporte de la unidad, pueden ser muy importantes, por lo
que se precisa un entramado de vigas que soporte adecuadamente todo el equipamiento. Además, para las
labores de orientación de antenas es necesario transitar por el techo de la unidad.
Acondicionamiento ambiental. En una unidad móvil se encuentran conectados simultáneamente un gran número
de equipos electrónicos en un espacio muy reducido, por lo que la temperatura interior del habitáculo puede
fácilmente rebasar los límites tolerables. Por esta razón se instalan potentes sistemas de refrigeración y
canalizaciones que establecerán un circuito de circulación de aire en el interior de los armarios, garantizando así
una temperatura de funcionamiento adecuada.

 Aislamiento acústico. Como la unidad móvil trabajará en el exterior, se tendrá que aislar adecuadamente su
interior para evitar molestias producidas por ruidos, ya que el ambiente en que se desarrolla su trabajo
(competiciones deportivas, conciertos, etc.) puede resultar muy nocivo para la necesaria concentración en las
labores de producción. Por esta razón se insertan recubrimientos en las paredes exteriores que aíslan térmica y
acústicamente la cabina.

 Almacenaje de equipos. La unidad móvil posee los sistemas de control de producción de un sistema que, en parte,
trabajará en el exterior. Las cámaras, los micrófonos, monitores de plato y otros elementos auxiliares deberán
transportarse en bodegas que se construyen para tal fin. A su vez, como estos elementos pueden operar a
distancias importantes, se precisan grandes rollos de cable para establecer las conexiones oportunas.
Normalmente se reserva la parte trasera de la unidad para contener las bobinas de cable necesarias para
conectar todo el sistema externo.

 Suministro eléctrico. Se suele incorporar un sistema mixto de alimentación, de manera que se pueda conectar a la
red eléctrica si está disponible o trabajar de forma autónoma. En este último caso, se optará por instalar un
generador eléctrico por gasóleo, o bien un grupo de baterías asociado a un ondulador, que proporcionará a
partir de ellas la tensión alterna necesaria para los distintos sistemas. Además de los elementos de protección
eléctrica tradicionales (interruptores diferenciales, térmicos, etc.), se adjuntará un sistema de protección de
descargas electrostáticas, basado en una red de protección que se conectará a tierra a través de una pica
exterior.
El plano cinematográfico es el que selecciona la cámara para
mostrar al espectador, es un elemento del lenguaje audiovisual.
La "realidad" es una, pero la cámara con que se graba la puede
mostrar de varias maneras. Con la cámara se selecciona la parte
de la realidad que interesa.
1 - EL ENCUADRE
 El encuadre es la selección de la realidad que se quiere
registrar. El operador de cámara, artista audiovisual o
fotógrafo selecciona detrás del objetivo de la cámara, lo
que verá finalmente el espectador de la obra. Según la
distancia, la situación y la inclinación de la cámara, se
pueden conseguir diferentes expresiones de la realidad.

La acción de seleccionar la parte de imagen que importa a


la expresión buscada recibe el nombre de encuadrar. Al
encuadre se le llama comúnmente plano. El plano
cinematográfico es la unidad narrativa más pequeña pero
significativa del hecho audiovisual y es la parte de una
película rodada en una única toma, de manera que una
película se compone de un conjunto de tomas.
 Existen diferentes tipos de planos que hemos clasificado en
10 tipos diferentes, aunque esto no significa que sean los
únicos que existen, el lenguaje audiovisual es un arte y se
pueden combinar entre ellos o incluso crear estilos
personales.
1.1. Gran plano general

 El Gran plano general o Plano general largo (P.G.L.)


muestra un gran escenario o una multitud. El sujeto (o
figuras) no se puede ver o bien queda diluido en el
entorno, lejano, perdido, pequeño, masificado. Tiene un
valor descriptivo y puede adquirir un valor dramático
cuando se pretende destacar la soledad o la pequeñez del
hombre enfrente del medio. Recoge la figura/s humana/s
en contextos tan amplios en los que se pierde la figura o el
grupo. Se da así más relevancia al contexto que a las
figuras que se graban.
1.2. Plano general

 Muestra con detalle el entorno que rodea al sujeto o al


objeto, como un amplio escenario. A veces se muestra al
sujeto entre una 1/3 y una 1/4 de la imagen. Se utiliza para
describir a las personas en el entorno que les rodea.
1.3. Plano conjunto

 El plano conjunto (P.C.), es el encuadre en donde se toman


la acción del sujeto principal con lo más cercano.
1.4. Plano entero

 El plano entero (P.E.), también llamado “plano figura”, es


denominado así porque encuadra justamente la figura
entera del sujeto a tomar, es decir, se podría decir que el
plano abarca justo desde la cabeza a los pies.
1.5. Plano americano

 El Plano americano (P.A.), se de denomina también plano


medio largo o plano de 3/4, encuadra desde la cabeza
hasta las rodillas. Se le llama americano porque era
utilizado en las películas de vaqueros para mostrar al
sujeto con sus armas.
1.6. Plano medio

 El Plano medio (P.M.) encuadra desde la cabeza a la


cintura. Se correspondería con la distancia de relación
personal, distancia adecuada para mostrar la realidad entre
dos sujetos. Por ejemplo una entrevista entre dos
personas.
1.7. Plano medio corto

 El Plano medio corto (P.M.C.) encuadra al sujeto desde la


cabeza hasta la mitad del torso. Este plano nos permite
aislar una sola figura dentro de un recuadro, y
descontextualizarla de su entorno para concentrar en ella la
máxima atención.
1.8. Primer plano

 El primer plano (P.P), en el caso de la figura humana,


recogería el rostro y los hombros. Este tipo de plano, al
igual que el Plano detalle y el Primerísimo primer plano, se
corresponde con una distancia íntima, ya que sirve para
mostrar confidencia e intimidad respecto al sujeto.
1.9. Primerísimo primer
plano
 En este plano se capta una parte del cuerpo del sujeto,
como una mano, una boca, un ojo y la ceja, etc.
 En el ejemplo vemos que al hombre le llega el mensaje del
chico telepáticamente. La cámara se acerca cada vez más
hasta llegar al primerísimo primer plano. Así sentimos las
imágenes terribles que le atraviesan, una detrás de otra.
Casi nos acercamos tanto que podemos meternos en la
mente del hombre.
1.10. Plano detalle

 También llamado “plano primerísimo”. Este plano se utiliza para


destacar un elemento que en otro plano podría pasar desapercibido,
pero que es importante que el espectador se de cuenta para seguir
correctamente la trama. Un ejemplo típico son las películas de la
detective Sra. Fletcher (de la serie televisiva “Murder, She Wrote”),
donde al principio del capítulo casi siempre aparecen algunos “planos
detalle” como un papel que cae en el suelo, una cerradura oxidada, un
interruptor de la luz, etc y al final del capítulo se entiende la resolución
del misterio gracias a estos detalles.
En la animación se muestra la mano de una mujer cerrando una
puerta. Este gesto es muy importante para la escena. Una chica
drogodependiente le pide dinero. La mujer abre la puerta para echarle
de su casa. Pero entonces la chica le hace una oferta: Le vende su
bebé. Cuando la mujer cierra la puerta el espectador sabe que ha
aceptado la oferta sin que ella diga nada. Por eso el plano detalle de la
mano es muy simbólico. Además representa la clandestinidad de la
situación: Cierra la puerta para ocultar el pacto prohibido que ha hecho.
La angulación o ángulo visual, és sencillamente posicionar la
cámara inclinada de manera que se pueda "manipular" el plano
para crear cierto efecto en el resultado final. Un ejemplo típico
de angulación es el contrapicado con que se graba a Dart Vader
en la película Star Wars, que hace que parezca más majestuoso e
imponente. Recurso que por cierto también es utilizado
sutilmente por ciertos políticos.
2.1. Plano Zenital o plano
Cenital
 También llamado “plano cenital”. Es un plano realizado
desde arriba, justo encima de los sujetos u objetos, con un
ángulo de 90 grados perpendicular al suelo, como si se
hubiese captado desde un satélite o un
helicóptero. Generalmente tiene un efecto estético de la
imagen.
2.2. Plano picado

 La cámara graba a una altura ligeramente superior a los


ojos (en caso de sujetos) o de la altura media (en caso de
objetos), con la cámara ligeramente orientada hacia el
suelo. Se utiliza para transmitir al observador que alguien
es inferior, inocente, débil, frágil, inofensivo o incluso para
ridiculizar. Un ejemplo sería el robot R2D2 al inicio de la
película “Star Wars IV, Una nueva esperanza”,
especialmente en escenas un poco cómicas cuando
discute con el robot C3PO.
2.3. Plano contrapicado

 La cámara se sitúa enfrente y a una altura ligeramente


inferior a los ojos del sujeto, o inferior de la altura media de
un objeto. Con la cámara ligeramente orientada hacia el
techo. Es el plano opuesto al plano picado. Sirve para
ensalzar y magnificar al sujeto u objeto. Un ejemplo típico
es Darth Vader en la película Star Wars, en todas las
escenas la cámara lo graba en contrapicado para ensalzar
su tenebrosidad. En los últimos tiempos también se utiliza
este plano cuando los políticos graban sus mítines con
circuitos cerrados propios y luego pasan las imágenes a los
informativos, para “magnificar” a sus líderes.
2.4. Plano Nadir

 La cámara se sitúa totalmente por debajo del sujeto, con


ángulo perpendicular al suelo. Se usa a nivel estético para
dar dramatismo, interés a la escena o dinamismo.
 En este caso vemos a una gallina que pasa por encima de
la cámara. Acaba de escapar de su matanza pero está
siendo perseguida. Este plano da dinamismo a la acción.
2.5. Plano dorsal

 También llamado “plano semisubjetivo”. Nos explica que ve


el protagonista pero incluyéndolo, nos confirma nuestro rol
de espectadores, no de posibles protagonistas. También
nos da un poder sobre los sujetos: nosotros los vemos pero
ellos a nosotros no. Es típico de las películas de miedo,
cuando están a punto de atacar a una persona por detrás.
2.6. Plano Escorzo

 Incluye al sujeto protagonista de cara y al sujeto que


escucha de espalda. Enfatiza al sujeto que tiene la acción
en ese momento (por ejemplo, hablar). La cámara se sitúa
detrás del sujeto filmado, en 45 grados.
2.7. Plano perfil

 También llamado “plano lateral”. La cámara está a un lado


del sujeto. En este plano vemos la expresión de
ensimismamiento del personaje. Intuye que algo terrible
está a punto de suceder y se dirige a su destino.
2.8. Plano frontal

 Es el plano más habitual. También llamado “plano normal”


o “plano neutro”. El ángulo de la cámara es paralelo al
suelo y delante del sujeto que se está grabando, a la altura
de los ojos. Nos muestra al sujeto y su aspecto físico. En
caso de ser un objeto, se graba a su altura media.
2.9. Plano flip over

 Este juego de cámara sirve para subvertir nuestras expectativas con un


inesperado movimiento de cámara de 180 grados que nos indica que lo
que estábamos viendo estaba en realidad al revés.
 En el ejemplo hay un bebé con superpoderes sentado tan ricamente, y
después del movimiento de 180 grados vemos a la canguro caminando
por el suelo “real” (último fotograma) y con este movimiento de cámara
descubrimos que el bebé, en realidad está sentado ¡en el techo boca
abajo!.
 En esta escena acentúa el descontrol que tiene la canguro sobre un
bebé con superpoderes.
2.10. Plano holandés

 LLamado también “plano aberrante”. La cámara está inclinada unos 45


grados y comunica al espectador un efecto de inestabilidad, a la vez
que sirve para dar dinamismo a la escena.
 En este caso se usa para dar sensación de una admiración hacia el
muchacho con el balón, con un contrapicado.
El punto de vista se refiere a como el espectador vivirá la obra
audiovisual. Por ejemplo mientra visualiza la toma el espectador
puede vivirla como si mirase a través de uno de los personajes de
la película, u otro ejemplo sería vivirla como si fuese una tercera
persona invisible que está dentro de la acción.
3.1. Plano objetual

 La cámara se sitúa como si quien mirase por ella fuese un objeto. En el


ejemplo vemos la escena como la vería el peor retrete de Escocia (sic),
dando un carácter de comicidad.
3.2. Plano subjetivo

 También llamado “plano PDV”. La cámara nos muestra lo que ve el


sujeto, como si la cámara estuviese en sus ojos. Se intenta meter al
espectador, en la piel del sujeto. En el ejemplo vemos el punto de vista
de un niño pequeño, es fácilmente reconocible por su altura.
 El chico se acerca a una puerta de una habitación prohibida. El
espectador se pone en el lugar del chico para sentir su curiosidad y al
mismo tiempo la tardanza. Además se crea una cierta tensión.
3.3. Plano subjetivo voyeur

 Es un plano que nos muestra que está observando al sujeto, a través de


un objetivo, una cerradura, unos prismáticos, etc. Y mientras observa, el
observado no es consciente.
 El protagonista de esta película observa su vecino más de cerca, a
través de un objetivo, después de notar algo extraño en su
comportamiento. La observación oculta se muestra por la ignorancia del
vecino de estar vigilado. Además el plano de sus movimientos se reduce
por observarle a través de una ventana estrecha, lo que transmite aún
más el sentimiento del voyeur escondido.
3.4. Planos indirectos

 Se observa el mundo mediante reflejos. Pueden ser en el agua, en un


espejo, en un escaparate. Nos da un poder sobre el personaje. Es un
juego estético interesante. En este caso, vemos el reflejo de alguien que
quiere desengancharse del caballo, y se está tomando tranquilizantes. A
través del espejo vemos por su rostro que no está seguro de querer
hacerlo realmente..
Los movimientos de cámara en el lenguaje audiovisual se refiere
al desplazamiento de la cámara, ya sea de manera física u óptica.
Un ejemplo típico de movimiento físico sería cuando se coloca
una cámara encima de unos raíles y esta se mueve al lado y a la
misma velocidad, que un personaje que camina. Un ejemplo de
movimiento óptico de la cámara sería el clásico zoom para ver
una panorámica general e ir acercándose hasta ver a un
personaje u objeto. También es posible combinar ambas técnicas,
como hacía Alfred Hitchcock que en algunos de los planos de sus
películas realizaba un zoom de acercamiento mientras la cámara
se alejaba físicamente creando un curioso efecto "persona
confusa".
4.1. Cámara en mano

 Se filma con la cámara en la mano, sin trípodes, produce una sensación


de verismo, de vídeo doméstico, y hace más creíble la escena.
4.2. Pan Descriptiva

 Este movimiento panorámico nos introduce en un nuevo escenario de la


película. En el ejemplo los protagonistas llegan de la gran ciudad a la
playa. El movimiento de la camera nos presenta el nuevo lugar hasta
llegar al destino final: el hotel, en el que los protagonistas continuarán
su historia.
4.3. Travelling de
Descubrimiento
 Es como un travelling de seguimiento, pero este finaliza bruscamente
con un elemento que cambia la acción, con algo inesperado. En el
ejemplo la cámara va siguiendo al chico en uno de sus paseos por el
hotel, cuando se encuentra frente a frente con las apariciones de las
gemelas.
4.4. Travelling presentación
progresiva
 Nos muestra los detalles de un objeto. Nos muestra los detalles de algo,
que, en este caso, también está viendo el personaje, por lo que
además, sería un plano subjetivo.
4.5. Travelling de
seguimiento
 La cámara sigue al sujeto, justo detrás de él, descubriendo el entorno al
mismo tiempo que lo hace el sujeto. En el ejemplo, a través del
travelling se muestra la persecución del chico por su padre. Se crea la
tensión por la fuga del chico de la cámara. Además se gira varias veces
lo que refuerza el efecto del seguimiento.
4.6. Travelling retro

 La cámara se sitúa delante del rostro del sujeto, mientras la cámara


retrocede a medida que el sujeto avanza.
4.7. Travelling avant

 Al contrario que el trávelling retro, la cámara avanza a medida que el


sujeto retrocede.
4.8. Travelling aéreo

 La cámara sigue al sujeto desde un punto de vista muy elevado para


acabar con la cámara siguiendo al personaje.
4.9. Travelling circular

 Se realiza describiendo un movimiento circular en torno al objeto.


4.10. Steadycam
interdependencia
 Se trata de un plano que se obtiene “enganchando” la cámara a la
cintura del sujeto. A medio camino entre la subjetividad y el
distanciamiento.
4.11. Plano en Rotación

 La cámara hace un movimiento de rotación sobre el eje Z, mientras


graba. En este ejemplo la cámara se aproxima al personaje y luego
empieza el plano de rotación.
4.12. Movimientos Gruas

 La cámara cambia de altura aproximándose al sujeto u objeto.


CURSO: 2020-2021
TEMA Nº 1 – S.T.I. – S.P.A. – 2020 - 2021
“SISTEMAS DE ILUMINACIÓN PARA TELEVISIÓN”
INTRODUCCIÓN
La iluminación para televisión es, además de todo un arte, una técnica elaborada y compleja que requiere la
intervención de especialistas con un alto grado de formación. Como técnicos de sistemas, abordaremos la
iluminación desde el punto de vista electrónico, describiendo los equipos utilizados para la iluminación, sus
estructuras y los sistemas de control.

PARÁMETROS DE LA LUZ
Ya se ha mencionado que la captación de las imágenes de una escena es uno de los objetivos fundamentales
en el sistema televisivo. Para llevar a cabo correctamente esta función, hay que garantizar que la imagen esté
iluminada adecuadamente, de forma que se adapte a las necesidades de los sistemas de captación, y sin olvidar los
requerimientos creativos de la escena. Para poder controlar la iluminación es necesario considerar, al menos, tres
parámetros fundamentales que definen la naturaleza de la luz: cantidad, calidad y relación de contraste.

 Cantidad de luz.

También conocida como iluminancia, define la cantidad de luz que incide sobre un objeto. Se mide en lux o
en candelas-pie (= 10,764 lux) y, sobre la escena, se puede comprobar mediante fotómetros de luz incidente o
luxómetros. De este nivel de luz dependerá la abertura de los diafragmas (o iris) de las cámaras y la relación de
contraste conseguida, así como la profundidad de
campo enfocado por la cámara. En la Tabla 17.1 se
relaciona la escala de cantidad de luz para diversas
situaciones, destacando las zonas en las que tendremos
que usar sistemas de iluminación complementarios.
 Calidad de la luz.

Es interesante, establecer parámetros que definan cualitativamente la iluminación de una escena. La caracterís-
tica fundamental en este sentido es la temperatura de color. Esta magnitud, expresada en grados kelvin (K),
proporciona información sobre la pigmentación de la luz elegida. El hecho de que se mida en grados deriva de que
la escala se establece a partir del calentamiento de un cuerpo negro (aquel que absorbe absolutamente todas las
radiaciones que le llegan, no reflejando componente alguna). De esta forma, al calentar este elemento, se observa
que su color inicial se modifica, obteniéndose así un
matiz distinto para cada temperatura aplicada.
Aunque el cuerpo negro es, en realidad, un material
teórico, el tungsteno con el que se fabrican los
filamentos de las lámparas se comporta de un modo
similar, variando el color de la luz generada en
función de la tensión eléctrica y, por lo tanto, de la
temperatura que alcanza. El instrumento que mide la
temperatura de color es el termocolorímetro, si bien
muchas cámaras disponen, asociada al balance de
blancos, de la información de la temperatura
medida.

Antes de efectuar las tomas de la escena, será


preciso ajustar las cámaras para que exista
concordancia con la temperatura de color de la
fuente de luz. De esta forma, le «enseñaremos» a la
cámara cuál es el color blanco y, a partir de esta
operación, situaremos correctamente el matiz de
todo el rango de colores. La Tabla 17.2 muestra
diversas situaciones y fuentes luminosas, la tempe-
ratura de color y la pigmentación de cada una de
ellas.

Ejemplo 1:
Una técnica habitual para adecuar la temperatura de color a las necesidades de la escena consiste, precisamente, en
modificar la tensión eléctrica de las lámparas. Así se pueden obtener desde tonos rojizos propios de un atardecer, hasta otros
muy azulados, cuando se aplican sobrevoltajes a los focos. Sin embargo, hacer trabajar las lámparas a tensiones superiores a las
nominales supone un rápido acortamiento de su vida útil, por lo que es aconsejable hacer uso de esta técnica con precaución.

 Relación de contraste.

Define la diferencia más importante que se puede detectar entre un punto fuertemente iluminado y otro en
penumbra. Es imprescindible regular la intensidad de iluminación
para situar todas las zonas dentro de los márgenes tolerados. Dicha
magnitud se puede expresar como la relación existente entre los
puntos de máxima y mínima intensidad luminosa. También es
frecuente encontrarla indicada en pasos de diafragma, definiendo
entonces la variación que debemos aplicar al anillo del iris para
captar las zonas más claras y tomando como referencia la posición
idónea para las oscuras. A continuación, se exponen las relaciones de
los soportes de grabación más comunes.

Ejemplo 2:
De la tabla 17.3 se desprende que las cámaras de televisión adolecen de una relación de contraste muy escasa, lo que
nos obligará a mantener un grado de iluminación más o menos homogéneo para evitar la aparición de grandes zonas oscuras en
la imagen, frente a otras en las que el exceso de luz provoca “quemados” o grandes áreas blancas.

LAS LÁMPARAS
Para conseguir una iluminación correcta, en los platós de televisión
podemos encontrar un amplio abanico de fuentes de luz, que
seleccionaremos según nuestras necesidades. De una parte, veremos,
como se aprecia en la Tabla 17.2 de temperatura de color, varios tipos
de lámparas, que, por su construcción interna, producen virajes en la
cromaticidad de la escena. Por esta razón, se optará por una gama de
lámparas para la iluminación de base, que será la que determine el
balance de blancos en las cámaras. Se podrán elegir otros modelos de
lámpara para crear efectos a través de la variada coloración de la luz que
proporcionan. Los tipos más usuales son los siguientes:

 Tungsteno.

Son las lámparas estándar del mercado doméstico. Disponen de un


filamento incandescente encerrado en una ampolla de vidrio, en la cual
se ha hecho el vacío para evitar la combustión. Las aplicaciones profesionales de estas lámparas son muy limitadas,
por tener un rendimiento lumínico (20 lumen/W) y una temperatura de color muy bajas (2.500 - 2.800 K). Algunos
focos de bajo coste utilizan lámparas de incandescencia sobrevoltadas, si bien su tiempo de vida se sitúa por debajo
de las 50 horas. (Ya no se fabrican).

 Halógenos.

También se trata de lámparas de incandescencia, pero, en este


caso, la ampolla está fabricada con cuarzo, soportando así
temperaturas notablemente más elevadas. En lugar de vacío, se inserta
en el interior un gas halógeno que le da nombre. Su temperatura de
color típica ronda los 3.200 K y se comercializan en múltiples formas y
tamaños. Debido a la elevada temperatura de la lámpara, se evitará
manipularla con los dedos, incluso estando fría, puesto que la grasa
natural de la piel puede provocar un calentamiento excesivo que
fundiría el cuarzo de la ampolla.

 Fluorescente.

Debido a su gran rendimiento (60 a 90 lumen/W), cada vez


adquieren una mayor implantación en aplicaciones de televisión.
Dentro de una cápsula de cristal se colocan dos electrodos, que ionizan
el gas, provocando una radiación luminosa. Según el tipo de gas
contenido en su interior, se obtienen varias temperaturas de color,
adoptando valores desde unos 3.000 hasta más de 6.000 K, (5600K).

 Halogeniuro metálico (HMI).

Como las lámparas halógenas, poseen ampollas de cuarzo rellenas de gas, pero, en lugar de utilizar filamento,
disponen de dos electrodos, entre los que se realizan periódicas descargas de corriente que provocan la radiación
luminosa. Probablemente es la tecnología que consigue un mayor aprovechamiento de la energía que recibe,
logrando un rendimiento de unos cien lúmenes por vatio aplicado. Su temperatura de color se sitúa entre 5.500 y
6.000 K, proporcionando una luz día de alta calidad.

 Xenón.

El grupo de lámparas de descarga se completa con las que insertan este gas noble en el interior de ampollas de
cuarzo. También comparten con las lámparas HMI un alto factor de eficacia, mientras que su temperatura de color
alcanza valores ligeramente inferiores, siendo muy típico el de 5.400 K. Como todas las lámparas de descarga,
precisa un tiempo de calentamiento de entre dos y cuatro minutos para que proporcione la temperatura de color
adecuada y su máxima potencia lumínica.

Ejemplo 3:
Un problema clásico de las lámparas de descarga y fluorescencia era la necesidad de usar sistemas de excitación
externos, denominados balastos, que ocupaban un volumen y peso importantes. Además, la intensidad de la luz no podía ser
regulada con los sistemas tradicionales aplicados a la incandescencia. Sin embargo, actualmente se han desarrollado balastos
electrónicos que reducen drásticamente sus dimensiones, al tiempo que posibilitan la regulación de forma sencilla.

TIPOS DE PROYECTORES
Para crear un foco, se debe asociar a la lámpara un sistema de proyección de la luz que genera, el cual la diri-
girá con un determinado grado de concentración en la dirección
adecuada. Se podrán emplear sistemas de enfoque de la luz mediante
lentes, con la consecuente generación de haces de luz concentrados,
que sirven para iluminar objetos puntuales y resaltar las sombras sobre
el decorado. Atendiendo a estas diferencias constructivas, los modelos
de focos se pueden clasificar en:

 Proyector de ciclorama. Se trata de lámparas halógenas, de entre


500 y 1.200 W de potencia, asociadas a un reflector sencillo, lo que
proporciona una luz de haz muy abierto.
 Cuarzos. Se definen así los focos que usan lámparas halógenas, puesto que la ampolla de la lámpara está
fabricada con este material. Montados con un reflector parabólico, proporcionan un haz de luz muy amplio, que
puede delimitarse mediante viseras de aletas. La luz generada es bastante dura, se puede suavizar con gasas o
difusores. Su campo de aplicación es la iluminación general, tanto en luz directa como de relleno, se encuentran
en el mercado con potencias entre 250 W y 2 kW.
 Brutos. Cuando se quiere iluminar una zona muy amplia, un único foco no resulta adecuado; en su lugar
empleamos los maxibrutos o los minibrutos. Estas asociaciones de focos de cuarzo se gestionan de forma
conjunta, generalmente por columnas, lográndose orientar cada una de ellas para conseguir la abertura deseada
en el haz general que genera. Se pueden asociar a viseras o difusores, según las necesidades de cada uno.
 Proyectores de haz difuso. Cuando se quiere una luz suave, en la que las sombras pasen desapercibidas, se
emplean estos equipos. Para iluminaciones generales utilizaremos los softligth, con grandes reflectores y
lámparas longitudinales halógenas o HMI, que pueden llegar a potencias de hasta 8 kW. Si deseamos iluminar de
modo más económico y puntual, nuestra elección deberá ser un scoope o flood, con lámparas de tungsteno de
ampolla blanca que proporcionan unos gradientes de luz suaves. La potencia de estos focos suele ser baja, entre
250 y 1.000 W.
 Proyectores planoconvexos. Sobre la base de un foco de cuarzo, de entre 250 y 3.200 W, se añade una lente
que en su cara interior es plana, mientras que la externa adquiere una curvatura convexa. El resultado es un
proyector PC, que crea una luz dirigida, con bordes duros, y que servirá para resaltar figuras sobre la iluminación
general. La apertura del haz puede controlarse variando la distancia entre la lámpara y el reflector,
consiguiéndose haces de entre 5° y 60° aproximadamente.

 Proyectores Fresnel. Son proyectores de haz concentrado, aunque los bordes del haz principal se muestran más
suaves. Precisan lámparas halógenas o de mercurio HMI, de entre 300 y 20 kW. Asociado a la lámpara, aparece
un reflector parabólico desplazable longitudinalmente para definir la apertura del haz luminoso entre unos 7° y
50°. Delante de este conjunto encontramos una lente que da nombre al proyector, tallada en forma de
circunferencias concéntricas de diferente espesor. Debido a su amplio abanico de potencias, encontraremos
focos Fresnel de muy diversos tamaños, desde los pequeños inkies de 120 mm montados sobre la cámara para
iluminar la cara del presentador, hasta los big eyes de 24 pulgadas utilizados en iluminación cinematográfica.


 Proyectores de recorte. Cuando queremos un haz de luz muy concentrado, con los bordes claramente
marcados, tenemos que recurrir a estos proyectores. Al conjunto lámpara (HMI o halógena) y reflector se le
añade ahora un diafragma, que nos permitirá abrir el haz en la medida que nos interese. Además, incorpora un
grupo de lentes de enfoque, las cuales proyectan imágenes procedentes de plantillas troqueladas (que llamamos
gobos), insertadas en el punto focal interno. Una variante son los cañones de seguimiento, diseñados para
iluminar el motivo principal de la escena a larga distancia. El diafragma se encarga de concentrar el haz, junto a
la distancia entre la lámpara y las lentes de enfoque, pudiendo obtenerse aberturas de entre 2° y 15°.
 Focos PAR. Muy extendidos en teatros, conciertos y espectáculos, se trata de una familia de proyectores, de
varios tamaños, que usan una lámpara de incandescencia o halógena de hasta 1 kW, encerrada en un reflector
cerrado. Esto hace que la lámpara forme un proyector completo, sirviéndose de una carcasa exterior
(denominada “bote”). Cuanto mayor es la longitud del bote, más concentrado es el haz que proporciona, que
tiene un borde suave.

 Robotizados de espejo móvil. En aplicaciones en que se requiera una iluminación espectacular, encontraremos
este tipo de proyectores inteligentes, que emplean una lámpara de descarga (entre 150 y 575 W), un reflector y
lentes de enfoque; aunque la diferencia fundamental es la asociación de un obturador, un selector de colores,
un generador de gobos y un posicionador del haz controlados de forma remota. Los selectores de color y gobos
son discos en los que se instalan los distintos filtros a los dibujos que se desea proyectar, seleccionándolos
mediante la rotación de los motores a los que van unidos. Para controlar la posición del haz, se emplea un
espejo montado sobre un sistema de dos ejes de libertad gobernados por motores pasa a paso, lo que les
confiere un alto grado de precisión y capacidad de sincronización de proyectores.
 Robotizados de cabeza móvil. Una de las últimas innovaciones en el campo de la iluminación es el proyector
móvil. Está compuesto por un foco halógeno a de descarga de entre 200 W y 1 kW, montado sobre un sistema
móvil que permite el giro en el eje horizontal (pan) y en el vertical (tilt). Además de orientar el haz luminoso,
podremos ajustar su apertura a través del obturador (iris) incorporado, cambiar su color, incorporarle gobos y,
variar la intensidad luminosa; un inconveniente es que su precio es bastante elevado.

 Luminarias de luz fría. Los avances en la tecnología de la luz fluorescente han supuesto una revolución del
mercado. El resultado es la implantación de sistemas de luz fría, creados con lámparas de bajo consumo de 55 W
de potencia, agrupadas para conseguir proyectores de hasta 880 W (16 lámparas). Esta modalidad de luz
presenta notables ventajas, como reducir el consumo hasta en un 90 % respecto a los sistemas convencionales,
posee una vida útil cien veces mayor que las lámparas de cuarzo, llegando hasta las 10.000 horas. La luz que
generan es muy suave y difusa, por lo que resultan una excelente elección como iluminación de base en un plató
o como iluminación principal en un escenario virtual. Se fabrican lámparas de bajo consumo con temperaturas
de color de 5.500 y 3.200 K, lo que facilita su disposición conjunta con focos de tipo halógeno.
Como elementos comunes a los modelos de proyectores, encontramos un gran número de accesorios.
Desde el punto de vista de la instalación, los sistemas más comunes para sustentar los proyectores son seguramente
los pantógrafos, un método de suspensión desplegable en forma de tijera que mantiene cualquier altura gracias a
un sistema de contrapesos. Para dotarlos de mayor versatilidad, los pantógrafos se instalan a menudo sobre una
parrilla horizontal, que al desplazarse a través de sus carriles, posibilita una gran capacidad de maniobra. En los
sistemas de mayor nivel, los pantógrafos se motorizan, permitiendo el control remoto de la posición de cada
proyector en los tres ejes de coordenadas.
 Iluminación LED. Con el avance de la tecnología de la televisión se han desarrollado también nuevos sistemas
de iluminación. Los podemos encontrar, que en lugar de montar lámparas convencionales de incandescencia o
descarga, utilizan grupos de diodos emisores de luz como generador luminoso. Este sistema de iluminación tiene
la ventaja de poder alimentarse a bajo voltaje, teniendo además un consumo mínimo y una duración mayor que
el de cualquier lámpara (en torno a las 100.000 horas). Su regulación de intensidad es muy sencilla, y si
intercalamos diodos de colores rojo, verde y azul formando un mosaico, en el mismo proyector podremos
conseguir múltiples colores sin necesidad de filtros, únicamente combinando la potencia que se aplica a cada
grupo de color. Esto permite construir focos de aplicación en iluminación decorativa y espectacular, que crearán
eficaces efectos cromáticos sobre el plató. Otra ventaja de los diodos LED es que generan una luz cuyo matiz
cromático está muy definido, y de colores muy puros. Esta característica es especialmente útil en sistemas de
iluminación de escenarios virtuales. Si deseamos un sistema sencillo de iluminación para croma key, podemos
colocar en la cámara un anillo de iluminación LED. Este dispositivo se fija en la parte delantera de la óptica, y
está formado por una serie de diodos LED de luz azul o verde, que se ordenan formando un círculo concéntrico
al propio objetivo de la cámara. De esta forma, se consigue un haz de luz cuya dirección es la misma que la del
eje óptico de la cámara que, al incidir sobre una superficie gris de alta reflectividad, hace que la cámara perciba
el fondo como si fuera del color de la luz.

Ejemplo 4:
Si queremos iluminar un plató en el que se emiten programas de entretenimiento, deberemos efectuar una combinación
de proyectores para cubrir las necesidades que se plantean. Por una parte, para iluminar al público e, incluso, la zona dedicada a
entrevistas, puede resultar adecuado instalar luminarias de luz fría. Para crear una mayor expresividad, en el área de entrevistas
colocaremos también proyectores de ciclorama para iluminar el fondo y, mediante focos Fresnel, resaltaremos determinadas
zonas u objetos del decorado, sin que resulte muy evidente el cambio de iluminación. Este tipo de foco también servirá para
iluminar al presentador, tanto frontal y lateralmente como desde la parte trasera, montando proyectores Fresnel de baja
potencia sobre las cámaras, para dar luz frontalmente a los rostros del presentador y los invitados.
En la parte dedicada a las actuaciones recurriremos, además de a sistemas de luz fría para una iluminación fría para una
iluminación básica, a la instalación de proyectores de recorte y cañones de seguimiento para la iluminación de los actuantes. Los
efectos creativos quedarán a cargo de los focos PAR fijos y, si el presupuesto lo permite, montaremos proyectores robotizados
que completarán la iluminación de forma muy espectacular.

OTROS CONCEPTOS Y EJEMPLOS VARIOS DE ILUMINACIÓN


Banderas, rejillas: Puertas de metal que llevan algunos instrumentos de iluminación para controlar la
expansión del haz de luz.
Luz base: Luz no direccional (difusa) necesaria para que la cámara opere óptimamente. También se le llama
base. Es el nivel general de luz de una escena.
Luz de clip: Una pequeña bombilla que se coloca en piezas de escenario o muebles con un clip.
Temperatura de color: Tendencia rojiza o azulada de la luz, medida en grados Kelvin. En iluminación de
televisión en interiores es 3200 grados Kelvin y en exteriores es de 5600 grados Kelvin.
Luz difusa: Luz que ilumina un área grande con un haz de luz amplio. Luz difusa, creada por luces suaves, que
producen sombras suaves.
Luz direccional: Luz que ilumina una pequeña área con un haz de luz distinguible. Luz direccional producida
por luces duras (spot), crea sombras duras y definidas.
Luz spot elipsoidal: Luz spot que produce un haz definido, que puede ser mucho más definido con las
banderas.
Luz flood: Instrumento de iluminación que produce luz difusa con un borde de haz de luz relativamente
indefinido.
Luz Fresnel: Uno de los más comunes spot, llamado así después de la invención de sus lentes. Tiene unos
anillos concéntricos.
Gel: Nombre genérico para los filtros de color puestos frente a las luces spot o luces floods para dar al haz de
luz un tinte específico. También se le llama color media. Son filtros de plástico que producen el color del gel.
Luz incidente: Luz que golpea al objeto directamente desde su fuente.
Grados Kelvin (K): Una medida de temperatura de color, tendencia rojiza y azulada de la luz blanca.
Luminaria: Término técnico para un instrumento de iluminación.
Luminiscente: Lámpara que produce la luz; la fuente de luz.
Luz reflejada: Luz que rebota en un objeto iluminado. La lectura de la luz reflejada se hace con un luxómetro
puesto cerca del objeto iluminado.
Scrim: Una pieza de cristal que se coloca en frente de un instrumento de iluminación como un difusor
adicional de luz.
Spot light: Un instrumento de iluminación que produce luz no difusa direccional con un borde de haz
relativamente definido.
Balance de blancos: El ajuste de los circuitos de color en la cámara para producir el color blanco con las
diversas temperaturas de color de la luz. Para balancear el blanco en la cámara necesitarás enfocar a un objeto
blanco que esté iluminado en la escena que estás grabando.
ENG: (RECOPILACIÓN ELECTRÓNICA DE NOTICIAS): Se utilizan cámaras portátiles, luces y equipo de audio
para la producción diaria de noticias. La actividad de las unidades no está planeada. Transmite en vivo o después de
la postproducción.
EFP: (PRODUCCIÓN ELECTRÓNICA EN CAMPO): Es la producción televisiva que normalmente se realiza fuera
del estudio. Tomas para postproducción (no en vivo). Se les suele llamar “Producción de Campo”.
F – STOPS: Es la calibración de las lentes mediante la apertura del diafragma (por tanto, la cantidad de luz
que traspasa la lente). Cuanto mayor sea el número F – STOPS, más pequeña será la apertura, y cuanto menor sea,
mayor será la apertura.
DIAFRAGMA DE LA ÓPTICA O IRIS: Mecanismo que ajusta la apertura de la lente y controla la cantidad de luz
que pasa a través de la lente.

ESQUEMAS Y FIGURAS
Luz de fondo o de relleno: Iluminación del plato, piezas del plato y fondos. También se llama luz de
decorado.
Contraluz: Iluminación desde detrás del sujeto y opuesto a la cámara.
Luz base o principal: La luz necesaria para que la cámara trabaje bien, puede ser incluso una luz no
direccional (difusa).
Iluminación camacea: Las figuras de primer plano se iluminan con una luz fuerte muy direccional, con el
fondo oscuro.
Chroma Key: Un efecto especial que utiliza el color (normalmente azul o verde) para el fondo, el cual se
sustituye con otra imagen de fondo.
Cross-key: Es el cruce de luces principales para dos personas, una enfrente de la otra.
Luz de relleno: Luz adicional en el fondo opuesto de la cámara para iluminar áreas de las sombras y reducir
la caída. Normalmente se usan floodlights.
Plano del estudio: Un plano del espacio del estudio, mostrando las paredes, las puertas y la localización del
control, con la parrilla de iluminación o un patrón transparente sobre él. Más común, un diagrama del escenario y
sus propiedades en un papel cuadriculado.
Highkey: Luz de fondo y amplia en la escena, no tiene que ver con la posición vertical de la key light.
Key Light: Fuente principal de luz en posición vertical.
Kicker Light: Normalmente una luz direccional que se posiciona baja desde un lado y por detrás del sujeto.
Low Key: Fondo oscuro y unas pocas fuentes luminosas y selectivas en la escena. No tiene nada que ver con
la posición vertical de la key light.
Principio de iluminación fotográfica: La composición triangular de las luces principales, contraluz y relleno,
con el contraluz opuesto a cámara y directamente detrás del objeto, y las luces principal y de relleno en los lados
opuestos de la cámara; en frente y a un lado del objeto. También se llama iluminación triangular.
Luz lateral: Normalmente direccional desde un lado del objeto. Actúa como relleno adicional que delimita el
contorno.
Silueta: Objeto sin iluminar o figura en frente de un fondo iluminado brillante.
 Ten precaución en las operaciones de iluminación. No mires directamente a las luces y ponte guantes cuando
sujetes focos que aún están calientes.

 Casi todos los decorados de iluminación de TV utilizan el principio básico fotográfico, o iluminación triangular:
principal, relleno y contraluz.

 La luz principal es la principal fuente de iluminación y revela la forma básica del objeto. La luz de contraluz
diferencia la sombra del objeto y el brillo al objeto. La luz de relleno hace que la sombra sea menos densa. Para
principales y rellenos puedes utilizar spot Fresnel, broads, softlight o parrillas fluorescentes.

 Luces adicionales son: la luz de fondo o decorado, luz que ilumina el fondo de la escena y el decorado; la luz
lateral que actúa como un relleno adicional y la luz kicker que se utiliza para subrayar el contorno de un objeto
que de otra manera se mezclaría con el fondo.

 La iluminación de áreas grandes incluye la iluminación para acciones continuas y áreas grandes. Aplicaciones
especiales de iluminación incluyen la utilización del reflector, camaceo, silueta e iluminación del área de chroma
key y control de la sombra de los ojos y de la caña.

 El plano de luces indica la posición de los instrumentos de iluminación y la dirección principal de los haces de la
luz, y en algunas ocasiones, el tipo y tamaño de los instrumentos utilizados.
 TELEPROMTER: Dispositivo apuntador que proyecta la copia de texto (normalmente generada por ordenador)
sobre la lente, de tal manera que el presentador pueda leerla sin perder contacto visual con el espectador.
También denominado “auto-cue”.
 La mejor luz de grabación en exteriores es la de un día nublado. Si el día es soleado, coloca al protagonista en la
sombra mejor que en la zona de sol.

 Evita fondos brillantes. Los reflectores son de gran ayuda en el relleno de sombras durante la grabación en
exteriores.

 Cuando se graba con ENG por la noche, utiliza la luz de la cámara como fuente principal de luz si no dispones de
más luces. Si dispones de alguna más utilízala de relleno.

 Cuando grabes frente a un gran ventanal, filtra la intensidad y baja la temperatura de color de la luz para ajustar
la principal y relleno utilizados en la persona que se ubica frente a la ventana.

 Antes de cualquier iluminación de EFP, haz un reconocimiento de la localización.

 Cuando alimentes luz portátil con corriente doméstica comprueba la capacidad del circuito. No lo sobrecargues.

 Los porcentajes de iluminación son relativos, dependen del efecto que quieras obtener. El criterio final es cómo
queda la escena en la pantalla del monitor.

OTRAS COSAS DE ILUMINACIÓN

También podría gustarte