Está en la página 1de 5

Material extraído del libro “Postproducción digital, cine y vídeo no lineal”.

Autores:
José Luis Fernández Casado y Tirso Nohales Escribano.
UT 11: POSTPRODUCCIÓN LINEAL

1. Introducción:

La edición de vídeo mediante el uso de un ordenador llamado


controlador de edición o editora comenzó a mediados de los años 70, tras
aparecer el código de tiempo. La identificación del magnetoscopio como
dispositivo periférico del ordenador fue el primer paso en la introducción
informática o digital dentro del, hasta entonces, medio analógico que
representaba el vídeo. En el camino hasta la actual grabación de audio y vídeo
digital en disco de ordenador o en magnetoscopio digital, ha habido otros
momentos importantes.
La cadena tecnológica comenzó con la aparición del corrector de base
de tiempos digital, el TBC, que permitía la manipulación de la forma de onda de
la señal, y que abrió el camino a las memorias de cuadro, capaces de
almacenar uno o varios fotogramas de vídeo. Estos sistemas, a su vez, dieron
impulso a los generadores de efectos digitales, equipos revolucionarios que
permitían manipular y mover la imagen de vídeo en tiempo real.
Igualmente revolucionaria fue la salida al mercado de los primeros
sistemas digitales de dibujo: las paletas gráficas, que utilizaban medios
digitales y electrónicos para elaborar gráficos, acortando tiempos y facilitando
procesos que se mantenían casi sin cambios desde el nacimiento del medio
televisivo. A su vez, a mediados de los 80 se empezaron a introducir los
archivos digitales, que permitían el almacenamiento y recuperación de
imágenes. El paso siguiente fue el grabador de disco digital o grabador en
estado sólido, que permitía leer imágenes, almacenarlas, o reproducir y grabar
simultáneamente añadiendo una nueva información en cada caso.
Paulatinamente se han seguido convirtiendo al medio digital diferentes equipos,
y han ido saliendo al mercado, por ejemplo, magnetoscopios, y mezcladores de
vídeo y audio digitales.
Los sistemas se han abaratado y cada vez existen más estudios y más
salas de postproducción digitales. Así hemos saltado de la sala de
postproducción analógica a la sala digital, en algunos casos pasando por una
convivencia de equipos analógicos y digitales en el mismo recinto.

2. TBC y Sincronizadores:

El corrector de base de tiempos (TBC) es un dispositivo electrónico que


puede procesar la forma de onda analógica de la señal de vídeo, y se utiliza
para corregir y estabilizar la reproducción de las imágenes. Antes de su
existencia ocurría con frecuencia que una cinta grabada en una máquina no se
podía reproducir en otra, por variaciones mecánicas entre ellas. También
creaba problemas el copiado de cintas, debido a que en el proceso se podían
introducir degradaciones tanto en el vídeo como en los sincronismos, y los
reproductores no eran capaces luego de estabilizar las imágenes.
Se desarrollaron correctores de base de tiempos analógicos de ventana
estrecha, para procesar y recolocar las señales de sincronismos inestables. El
término "ventana estrecha" hace mención a la cantidad de tiempo que el
corrector era capaz de corregir: sólo dos microsegundos. Reprocesando los
Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores:
José Luis Fernández Casado y Tirso Nohales Escribano.
sincronismos hay una mayor probabilidad de reproducir correctamente una
cinta donde éstos estén distorsionados.
Los correctores de base de tiempo digitales de ventana ancha
aparecieron a finales de los años 70, y proporcionaban de una a doce líneas de
corrección de error. Esto era un gran avance y permitió utilizar en emisión
algunos nuevos formatos como el Betacam. Cuando este tipo de cinta comenzó
a utilizarse para las noticias de los informativos, se hizo necesario difundir
directamente las cintas originales (por escasez de tiempo para su procesado).
Era imprescindible, para asegurar que la cinta saliera al aire en buenas
condiciones, la utilización de un TBC que pudiese corregir digitalmente las
variaciones mecánicas entre la máquina de reproducción del estudio y el
camcorder (cámara y grabador portátil, que resulta menos estable).
Los correctores de base de tiempos dieron paso a las memorias de
cuadro, dispositivos que pueden almacenar uno o varios cuadros de vídeo. Una
de las razones por las que se desarrollaron las memorias de cuadro fue la
necesidad de transmisión de señales remotas en directo.
En el proceso de difusión televisiva, todas las fuentes que forman parte de un
programa tienen que estar en fase, y así el vídeo de una noticia debe estar en
sincronía con la cámara del presentador, y con la línea que llega de la conexión
en directo. Si no hay sincronización entre las diferentes señales de vídeo que
llegan al mezclador, alguna de las fuentes puede aparecer como una imagen
inestable. El genlocking o enganche en fase es el nombre del proceso que
proporciona esta sincronización. Cuando las fuentes se ponen en fase, un
generador de sincronismos maestro ha de suministrar las señales básicas de
estabilización: el patrón de sincronismos horizontales y verticales, y la
subportadora de color.
Cada fuente se ha de enganchar a estas señales de modo que los
generadores de sincronismos internos de cada aparato generen la misma
frecuencia y fase que el maestro. Sin embargo, cuando la señal es enviada a la
emisora de televisión por medio de un enlace de microondas o por satélite, no
hay manera de enganchar la cámara. En este caso se utilizan los
sincronizadores, que introducen la señal recibida en una memoria de cuadro, la
cual procesa y pone en fase la señal mediante un procedimiento simultáneo de
escritura y lectura de diferentes posiciones de la memoria.
Tras esto las imágenes ya pueden ser sacadas al aire.
Si la transmisión suministrada por la cámara falla repentinamente, la
memoria de cuadro normalmente entrega el último cuadro almacenado. Por
eso en las retransmisiones deportivas por satélite, ocasionalmente se congela
la imagen. Lo que ocurre es que la memoria de cuadro del sincronizador
congela el último fotograma completo antes de perder la señal, mientras trata
de volver a enganchar los siguientes cuadros que le van llegando.
Un posterior planteamiento consistió en utilizar la señal ya almacenada
en la memoria para realizar una serie de efectos muy sencillos, que constituían
nuevas herramientas incorporadas en los sistemas mencionados. Así podía ser
el manipular la luminancia, crominancia y otros parámetros de la señal de
vídeo, en el caso del TBC; o por ejemplo la presentación de la imagen reducida
de tamaño, en el caso de los sincronizadores.
La introducción de estos equipos se potenció con la espectacularidad en
aquellos momentos de dichos efectos, dada por ejemplo la facilidad con la que
era posible cambiar el tamaño de la imagen en una época en que el único
Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores:
José Luis Fernández Casado y Tirso Nohales Escribano.
tamaño era la pantalla completa. Además, los sincronizadores permitían
conseguir efectos de mosaico, bordes coloreados en las imágenes reducidas,
recorte o cropeado de la señal, etc.

Los avances en velocidad de proceso hicieron que se pensara en el


diseño de un equipo dedicado exclusivamente a la generación de efectos
digitales, pasando del procesamiento dentro del plano de la pantalla a uno más
complejo que introducía la apariencia de perspectiva, simulando así la
colocación de la imagen en el espacio tridimensional.

3. Generador de efectos digitales:

Nacidos a partir de los avances conseguidos con el procesamiento de la


señal digital dentro de los TBCs, es con la introducción de la perspectiva con lo
que los generadores de efectos digitales o DVEs alcanzan su mayoría de edad,
rápidamente consolidada con nuevos efectos como la realimentación o las
luces, que añaden mayor sensación de realismo. Además se pueden conectar
varios canales de efectos para generar figuras como cubos, prismas, etc. Y, por
supuesto, los efectos pueden ser almacenados en disquete y recuperarse
posteriormente.
También fue importante el desarrollo de los canales de key (key-channel), que
posibilitan realizar efectos solamente sobre las zonas de la imagen definidas
por la señal de llave o de key. En lugar de manipular mediante rotación o
desplazamiento la imagen completa, por ejemplo un logotipo sobre un fondo, si
disponemos de la señal de key de parte de ésta, la que definiría el contorno del
logotipo o su silueta en blanco sobre negro (aunque también se podría utilizar
al revés), podemos manipular sólo la zona de imagen que comprende
exclusivamente al logotipo, desapareciendo el fondo. De igual manera,
utilizando las salidas de vídeo y de key que proporciona un titulador, podemos
animar los rótulos en el DVE para luego incrustarlos en el fondo deseado.
La aparición de efectos curvilíneos supuso otro hito en la evolución de los
DVEs, al pasar de trabajar sólo con imágenes planas a poder simular que se
doblaban y moldeaban según unas formas determinadas.

4. Postproducción lineal:

La postproducción es la realización de todos los procesos que un


programa necesita tras su grabación para su perfecto acabado.
Esta definición en algunas ocasiones no es precisa, ya que hay muchos
procesos de postproducción que deberían estar terminados antes de la
grabación, como la elaboración de la cabecera del programa. Hay que añadir
que vamos a hablar casi en exclusiva de la postproducción de vídeo, ya que el
tema del audio no es objetivo principal en este trabajo, de manera que cuando
empleamos el término postproducción, sólo nos referimos a la postproducción
de vídeo.
En cualquier caso, la postproducción reúne todas las técnicas que
tienden a hacer más atractivo el producto final, desde el montaje o la
incrustación de un rótulo, a elaborados procesos tridimensionales. Hasta hace
unos años esas técnicas implicaban la utilización de diversos equipos. Por
tanto, un postproductor debía conocer y en muchos casos saber manejar todos
Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores:
José Luis Fernández Casado y Tirso Nohales Escribano.
ellos: magnetoscopios de distintos formatos, mesas de edición, mezcladores,
correctores de color, generadores de efectos, tituladores, grabadores de disco
duro, paletas gráficas e incluso sistemas 3D.
Esos conocimientos tan amplios eran precisos para poder hacer una
planificación de los trabajos complicados, decidiendo los métodos de
elaboración en cada caso, los equipos a emplear, el tiempo de utilización de
cada uno, y el orden de cada proceso.
Por otro lado, todos esos dispositivos resultaban muy caros y su
integración podía ser compleja, siendo necesaria una gran destreza operativa.
La estructura de las antiguas salas de postproducción venía definida por la
tecnología analógica en la que se basaban los equipos. Había que controlar, y
muchas veces limitar, el número de generaciones de las copias. Los ajustes
técnicos eran complicados y requerían mucho tiempo, consistiendo no sólo en
controlar los niveles sino que, además, había que ajustar la fase de las señales
con márgenes de pocos nanosegundos para evitar problemas de sincronismos,
o los feos y habituales bordes en las imágenes tratadas. Por otra parte, debido
a la propia naturaleza de la cinta de vídeo, las operaciones se realizaban en
tiempo real.
La necesidad de operación síncrona obligó a requerimientos técnicos de
enfasamiento de las señales que limitaban el número de operaciones que se
podían realizar en una pasada.
Si eran demasiadas se introducían retardos en la señal y la volvían
asíncrona. Se podían llevar a cabo procesos más complejos grabando un
resultado parcial y volviéndolo a pasar por el sistema tantas veces como fuera
necesario, o sea haciendo varias generaciones. Pero esto introducía el
problema de las pérdidas por generación, además de las dificultades prácticas
para lograr buenos y sofisticados resultados construidos fragmento a
fragmento.
Todo ello dio como resultado instalaciones muy grandes diseñadas para
conseguir ediciones y efectos de vídeo complicados en una o muy pocas
pasadas. El puesto del operador, repleto de teclados, paneles y pantallas,
parecía el de una nave espacial.
Otro problema habitual era la variedad de monitores y su diferente respuesta, lo
que provocaba situaciones en las que no se sabía cual de ellos era más fiable.
En general, los sistemas de postproducción lineal basados en cinta fueron
víctimas de su propio éxito y llegaron al límite de su desarrollo. Para ir más allá
había que cambiar toda la estructura del sistema.
Las salas de postproducción más grandes se diseñaron con una
estructura en paralelo, que permitía realizar procesos simultáneamente en
varios equipos. Aunque con varias personas operando los sistemas se podían
reducir algunos problemas de tiempo, se necesitaban controladores de edición
muy sofisticados para coordinar todas las herramientas. Puesto que los
diferentes equipos tienen sus características propias, la editora sólo es capaz
de manejar totalmente una parte de ellos, generalmente los VTRs, el
mezclador, y a veces el DVE, que otras veces se acciona mediante impulsos
de referencia o GPls (interfaces de propósito general), señales que disparan
acciones o efectos previamente preparados.
La evolución del medio digital y los continuos equipos salidos al mercado
implicaban un continuo esfuerzo por estar al día.
Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores:
José Luis Fernández Casado y Tirso Nohales Escribano.
La aparición de los mezcladores de vídeo y audio digitales, y del VTR digital en
componentes D1, hizo posible trabajar de principio a fin en un entorno
completamente digital, eliminando el problema de las pérdidas por generación,
con el aumento de posibilidades que eso supuso.
Así, durante cierto tiempo la postproducción de alto nivel se pasó a
elaborar en salas de equipamiento digital. Se usaban máquinas digitales
diferenciadas: del DVE al mezclador de audio y de vídeo, con magnetoscopios
también digitales. También se probó el uso de grabadores en disco duro
sustituyendo a los VTRs, lo cual presentaba ventajas frente al uso de la cinta,
en concreto un acceso más rápido y menos mantenimiento. Pero así no se
cambiaba el método general de operación ni el diagrama de bloques general de
la sala de postproducción, que en vez de trabajar con magnetoscopios,
utilizaba grabadores de disco. La sala seguía pareciendo una nave espacial.
La tendencia actual al uso de una plataforma, el ordenador, que aglutina todo
tipo de tareas, ha creado un enfoque nuevo de la postproducción digital: la
postproducción integrada, que reúne en una estación de trabajo diferentes
programas y herramientas compatibles entre sí, y permite todo tipo de procesos
desde el mismo puesto.
Para entenderlo mejor, pasemos a analizar la situación de las salas
tradicionales de postproducción digital, sus problemas y sus posibles mejoras.
Los sistemas lineales tienen muchos puntos fuertes. Durante años han definido
lo que significa on-line, así que es inevitable que resulten idóneos para su
aplicación. Los clientes y los usuarios entienden ya perfectamente los equipos
lineales, que constituyen así un entorno de trabajo coherente y familiar. Cuando
el grabador está funcionando todo ocurre en tiempo real, no hay tiempos de
espera para los efectos.
Sin embargo, cada uno de estos puntos fuertes oculta un inconveniente.
Una comprensión clara de lo que se puede y no se puede hacer en un sistema
lineal conlleva necesariamente reconocer que la tecnología está limitando la
operación.
Que todo ocurra en tiempo real puede ser una ventaja al crear efectos
complejos, pero la dificultad de añadir un plano en medio de una edición
constituye su mayor debilidad. Modificar los trabajos, hacer versiones
diferentes o volver a empezar un trabajo que ha sido interrumpido, provoca
muchos dolores de cabeza.
La edición de vídeo basada en copiar restringe la flexibilidad:
No es posible reordenar planos y reajustar puntos de edición de manera fácil y
rápida, una vez que se han copiado en la cinta de grabación. Los controladores
de edición han desarrollado estrategias para ocuparse de esto, como sistemas
avanzados de gestión de EDLs y funciones de time-track de ediciones
anteriores, pero en realidad sólo hay dos opciones para hacer cambios: repicar
la secuencia editada o empezar de nuevo, y ambas llevan tiempo.
Por otro lado no existe la posibilidad de acceso compartido a las imágenes sin
hacer copias múltiples de las cintas fuente, o sea que no es fácil para otros
sistemas acceder a una edición que se está efectuando.

También podría gustarte