Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Año: 2022
Manual de Cátedra de Técnica de Registro y Posproducción
Índice
Introducción 3
3. Relación de aspecto 35
7. La compresión de datos 71
8. Conexiones digitales 84
2
Manual de Cátedra de Técnica de Registro y Posproducción
Introducción
El presente manual de cátedra de la materia Técnica de Registro y
Posproducción (TRyP) reúne una serie de artículos, publicaciones e
información técnica de muy diversa procedencia. La misma ha sido
organizada, corregida y reformulada en función de la propuesta y los
requerimientos pedagógicos de la materia en cuestión. En todos los casos
que fue posible se indicó el autor o autores de los textos u origen de la
información utilizada.
La segunda parte del manual aborda las temáticas vinculadas con la edición
y la postproducción. Se desarrollan en profundidad procedimientos típicos de
trabajo, tecnologías de uso frecuente, herramientas fundamentales de trabajo
y configuraciones estándar de equipamiento. Finalmente la última parte
aborda de forma introductoria cuestiones referidas a los transmedia.
3
Manual de Cátedra de Técnica de Registro y Posproducción
1
Ricaldoni, Jorge.
http://cinelibre.blogspot.com/2006/06/cunta-definicin-tiene-la-visin-humana.html
4
Manual de Cátedra de Técnica de Registro y Posproducción
Lo que parece una lentilla y que está al frente del ojo, protegiéndolo y
siempre húmeda es la córnea. La transparencia, falta de cicatrices y rayones
en la córnea la hace más permeable y por lo tanto permite entrar a los
distintos rayos de luz con mayor facilidad. Si está ulcerada, tiene cicatrices o
rayones, ocurrirá lo contrario. La córnea frente a la pupila es de 500 micrones
(1u = 1 milésimo de mm). De allí la extrema fragilidad de esta capa fibrosa.
La esclerótica es lo que llamamos "lo blanco del ojo". En la esclerótica se
insertan los músculos externos que mueven a los ojos. De su parte posterior
sale el nervio óptico, formado por las fibras nerviosas de las células
ganglionares de la retina.
El iris está entre la córnea y el cristalino. Es un circulo de color que va del
marrón oscuro, pasando por varias gamas del verde, celeste o gris, lo que da
el color a los ojos. El iris, como su nombre lo indica, actúa como un diafragma
que se cierra ante la presencia de mucha luz o se abre cuando es escasa o
nula. Participa del sistema dióptrico del ojo al contribuir a la convergencia de
los rayos luminosos sobre la mácula.
5
Manual de Cátedra de Técnica de Registro y Posproducción
Ahora que sabemos dónde está cada cosa, veamos cómo funcionan
Los estímulos luminosos que percibe el organismo provienen de la función
visual, que discrimina las formas y colores, enfoca a distintas distancias y se
adapta a diferentes grados de iluminación. Mediante la visión binocular y la
fusión se obtiene la visión en profundidad o en relieve (estereopsis), o sea la
visión tridimensional.
Las formas se aprecian por la diferencia de iluminación de los distintos
sectores de la imagen proyectada (sensibilidad al contraste). Esta variedad
de estímulos impresiona a los fotorreceptores (conos y bastones) en forma
desigual, lo que permite la captación de esas diferencias
6
Manual de Cátedra de Técnica de Registro y Posproducción
7
Manual de Cátedra de Técnica de Registro y Posproducción
8
Manual de Cátedra de Técnica de Registro y Posproducción
9
Manual de Cátedra de Técnica de Registro y Posproducción
10
Manual de Cátedra de Técnica de Registro y Posproducción
11
Manual de Cátedra de Técnica de Registro y Posproducción
12
Manual de Cátedra de Técnica de Registro y Posproducción
13
Manual de Cátedra de Técnica de Registro y Posproducción
La percepción de la profundidad
Los procesos y fenómenos que implican la visión binocular son muy
complejos frente a la monocular, pero sus ventajas son muchas. Con
solamente dos justifican esta complejidad evolutiva: una mayor amplitud del
campo visual, y la estereopsis o percepción de los volúmenes, distancias y
profundidades que además representa un enorme cambio en la visión a nivel
cualitativo, proporcionando un sistema mucho más preciso y con mejor
calidad perceptual en la evaluación de las distancias. Puede comprobarse
este punto observando cualquier estereogramas en la web (los hay por
docenas).
Ahora, tengamos en cuenta que la estimación de las distancias no se realiza
de forma absoluta, sino que se establece con relación al punto de fijación. La
calidad de esta percepción mejora cuando las distancias al objeto van
disminuyendo hasta un cierto límite. La máxima calidad se da en las
distancias accesibles con el brazo extendido. Este hecho se explica porque la
sensación de profundidad se basa fundamentalmente en las diferencias
existentes entre las imágenes captadas por ambas retinas, de forma que
cuanto más cercano está el objeto, mayores diferencias existen.
En este sentido, y dado que las disparidades surgen por la diferente posición
de los dos ojos en una línea horizontal, las diferencias que puedan producirse
entre las dos imágenes en sentido vertical, no producen estereopsis aunque
tampoco la impiden.
Los Colores
La visión cromática es una sensación que aparece en algunos de los
organismos más evolucionados y que está a cargo de los conos. En la zona
macular se observan los colores más brillantes dentro de la gama
rojo-amarillo, mientras que en la retina periférica se perciben los azules.
Hasta hace poco se suponía que nuestra visión era como el súper video Y/C
(luminancia / crominancia). Que los conos veían los colores y los bastoncillos
la luz, sin embargo hoy la teoría más aceptada (que se llama de
Young-Helmholtz) o tricrómica explica los tres tipos de receptores para los
colores principales: rojo, verde y azul. Es decir que nuestros ojos en la zona
macular es RGB como Dios manda y en la periferia es monocromática como
14
Manual de Cátedra de Técnica de Registro y Posproducción
Bibliografía y links:
Web:
Un tutorial introductorio a la visión estéreo:
http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/MARBLE/medium/stereo/stereo.htm
Visión estéreo, problemas e imágenes 3D. Presenta un enfoque más desde un punto de vista fisiológico:
http://www.vision3d.com/stereo.html
El problema de la visión en estéreo: http://www.inria.fr/robotvis/demo/rkeriv/stereo.html
Investigación en la visión por computadora:
http://www.merl.com/threads/vision/index.html
En este enlace, aparte de tratar aspectos generales de la visión artificial, se puede encontrar un apartado
dedicado a la teoría de la imagen en estéreo:
http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/MARSHALL/
Aquí encontraremos una descripción matemática extensa de diversos aspectos relacionados con la
visión estéreo:
http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/EPSRC_SSAZ/node13.html
Aproximación a la visión estéreo. Se encuentra también desde el punto de vista de las redes neuronales:
http://axon.physik.uni-bremen.de/~rdh
15
Manual de Cátedra de Técnica de Registro y Posproducción
http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/HENKEL/research/stereo/tyc/node1.html
Percepción de la profundidad. Principios de la visión estéreo desde un punto de vista más psicológico.
Con muchos ejemplos:
http://server.esc.cquest.utoronto.ca/psych/psy280f/ch7/chapter7.html
Enlace a una extensa lista de lugares relacionados con la visión tridimensional. Muy variada y
completa:
http://www.dddesign.com/3dbydan/3dlinks/linksz.htm
Visión estereoscópica. Uno de los pocos lugares en castellano. Breve pero clara:
http://www.users.inycom.es/~agonzalez/vision.htm
16
Manual de Cátedra de Técnica de Registro y Posproducción
Resolución o Definición
La resolución mide el nivel de detalle que se puede alcanzar en la
composición de la imagen. Tradicionalmente en los sistemas analógicos se
especificaba en líneas horizontales. Actualmente y con proliferación de
equipos digitales la resolución se mide en pixeles, específicamente en
millones de pixeles (Megapixeles) que puede resolver un determinado
equipo: cámara de foto, cámara de video, monitores, televisores, etc.)
2
Autor desconocido. http://www.imagendv.org/resolucion/. Este artículo es una traducción de
un informe muy interesante llamado "La dura realidad acerca de la Resolución" escrito por
Peter Utz, un respetado experto.
3
Extraído de http://jesubrik.eresmas.com/
17
Manual de Cátedra de Técnica de Registro y Posproducción
Factor de Kell
A raíz de la aparición de la televisión digital (DTV) se ha observado la
importancia del factor de Kell o relación de utilización, que evidencia que la
exploración progresiva es preferible a la entrelazada. Por esta circunstancia,
la industria de la teledifusión, especialmente en Estados Unidos, se está
equipando con cámaras y sistemas para exploración progresiva. En Europa
los teledifusores, aunque difundan en digital, todavía siguen anclados en el
viejo y querido PAL.
En 1940, Ray Davis Kell de la RCA Labs colaboró con Vladimir Kosma
Zworkin en el desarrollo de la televisión. Ray Davis Kell realizó
investigaciones sobre la resolución subjetiva y objetiva de la imagen de
televisión. A través de sus investigaciones se desprende que el telespectador
visualiza una resolución subjetiva inferior a la resolución objetiva (real). La
relación entre la resolución subjetiva y la resolución objetiva se conoce por
factor de Kell o relación de utilización. El factor de Kell toma en consideración
efectos psicovisuales, en donde el cerebro resuelve menos información de la
que existe en realidad. En los sistemas de exploración entrelazada el factor
de Kell es de 0,7 y en los sistemas de exploración progresiva es de 0,9. En
NTSC, también conocido por 480i, se utiliza un sistema de exploración de
525 líneas totales y 480 líneas activas (las que se restituyen en pantalla),
pues 45 líneas, que no son visibles, se utilizan para el borrado. Por tanto, en
NTSC el espectador tan sólo percibe 336 líneas (330 líneas, redondeando).
En PAL, también conocido por 576i, se utiliza un sistema de exploración de
625 líneas totales y 576 líneas activas, pues 49 líneas se utilizan para el
borrado, y por tanto, el espectador percibe 403,2 líneas (400 líneas
redondeando). Las 400 líneas del PAL corresponden a la resolución vertical,
es decir, la habilidad del sistema para definir las líneas horizontales de la
imagen. Se desprende, por tanto, que el PAL ofrece una resolución de un
21,2% superior al NTSC.
El término resolución espacial es aplicable en fotografía, pero no en televisión
o vídeo. En fotografía la resolución espacial depende del grano de la
emulsión y es idéntica en todas las direcciones. En televisión debido a los
barridos horizontal y vertical existen dos resoluciones: vertical (función del
número de líneas del sistema) y horizontal (función del ancho de banda del
sistema). En PAL, para mantener una resolución espacial idéntica tanto en
sentido vertical como horizontal y teniendo en cuenta que la relación de
18
Manual de Cátedra de Técnica de Registro y Posproducción
Resolución informática
La industria informática, a diferencia de la industria teledifusora, se apoya en
sistemas cerrados, en donde cada fabricante diseña el sistema que mejor se
adapta a sus necesidades técnico-económicas. Por esta circunstancia se ha
desarrollado una gran diversidad de sistemas. Además, la industria
informática, que se apoya en sistemas digitales, utiliza el término resolución
vertical para definir el número de líneas activas y el término resolución
horizontal al número de elementos elementales o píxeles por línea. En la
tabla 1 se muestran las características básicas de diferentes tarjetas gráficas.
Puede apreciarse que la resolución espacial, tomando en consideración la
relación de aspecto, es idéntica, tanto en sentido horizontal como en vertical.
Todas las imágenes informáticas son de resolución progresiva y en estas
condiciones el factor de Kell es de 0,9. Por tanto, para una imagen XGA la
resolución vertical que percibe el espectador es de 0,9.768, es decir, 691,2
líneas (690 líneas, redondeando). Por tanto, si este espectador la compara
con una buena imagen PAL (400 líneas) aprecia una notable diferencia, ya
que la imagen XGA ofrece una resolución de un 72,5% superior a la imagen
PAL.
19
Manual de Cátedra de Técnica de Registro y Posproducción
Exploraciones
20
Manual de Cátedra de Técnica de Registro y Posproducción
21
Manual de Cátedra de Técnica de Registro y Posproducción
resolución horizontal. Debido a ello, los monitores de TRC para 1.080 líneas
son de grandes dimensiones y de precio muy elevado.
Frecuencia Relación
Líneas de Pixelación Velocidad
Formato de de Formatos
exploración (V x H) de cuadro
exploración aspecto
525 total 15.750Hz 24P, 30P,
SDTV 640 x 480 4:3 4
480 activas (60i) 60P o 60i
525 total 31.500Hz 24P, 30P,
EDTV 704 x 480 4:3 y 16:9 8 (4 x 2)
480 activas (60P) 60P o 60i
750 total 45.000Hz 24P, 30P o
HDTV 1.280 x 720 16:9 3
720 activas (60P) 60i
1.125 total 33.750Hz 1.920 x 24P, 30P o
HDTV 16:9 3
1.080 activas (60i) 1.080 60i
Figura 3. Resoluciones de los formatos digitales ATSC. La definición baja
(LDTV) no se contempla en esta norma.
22
Manual de Cátedra de Técnica de Registro y Posproducción
23
Manual de Cátedra de Técnica de Registro y Posproducción
debe diseñar la rejilla de programación con gran cuidado para evitar una
degradación de los programas que se transportan por el canal.
Contraste
Respuesta a la iluminación y discriminación.
Debido a que las imágenes digitales se presentan como un conjunto de
puntos brillantes, la capacidad del ojo de discriminar entre diferentes niveles
de iluminación es una consideración importante para presentar los resultados
del procesamiento de la imagen.
La relación entre la intensidad de la luz que entra al ojo y su brillo percibido
no es una función lineal. Esto significa que a medida que la intensidad de una
fuente luminosa cambia, el observador no percibirá un cambio igual en el
brillo. La respuesta de la intensidad real del ojo es más logarítmica, similar a
la curva de la Figura 2. De hecho, se ha mostrado experimentalmente que la
intensidad de una fuente luminosa debe ser cercana al doble antes de que el
ojo pueda detectar que esta ha cambiado. Por lo tanto, los cambios ligeros en
la intensidad en regiones oscuras de una imagen tienden a ser más
perceptibles que los cambios iguales en regiones brillantes. Esta relación que
hay entre la intensidad de la iluminación y el brillo percibido, es conocida
como Ley de Weber.
Las siguientes figuras ilustran la Ley de Weber. Son mostradas dos imágenes
junto con sus curvas de intensidad reales. En las figuras 3 y 4, la intensidad
de las barras asciende de izquierda a derecha en franjas iguales. Las franjas
de intensidad abarcan el rango completo de grises desde el negro hasta el
blanco. Como se esperaría de la curva en la Figura 2, las franjas en la región
oscura de la imagen son fácilmente perceptibles, mientras que las franjas en
24
Manual de Cátedra de Técnica de Registro y Posproducción
25
Manual de Cátedra de Técnica de Registro y Posproducción
La capacidad del ojo para discriminar entre cambios de iluminación para cada
nivel específico de adaptación también es de considerable interés. Un
experimento utilizado para determinar la capacidad del sistema visual
humano de discriminar la iluminación consiste en colocar a un sujeto
observando un área plana, uniformemente iluminada, lo suficientemente
grande para que ocupe todo el campo visual.
26
Manual de Cátedra de Técnica de Registro y Posproducción
27
Manual de Cátedra de Técnica de Registro y Posproducción
28
Manual de Cátedra de Técnica de Registro y Posproducción
Resolución de color.
El ojo no es uniformemente sensible a todo el espectro visible. La Figura 14
muestra la respuesta relativa del "ojo medio" a la luz de luminancia constante
proyectada en las varias longitudes de onda comprendidas en el espectro. El
pico (máximo) de la curva está en la región verde-amarillo y es interesante
observar que una curva que represente la distribución de energía de luz solar
o natural tiene su máximo en esta área. La curva de línea gruesa representa
la impresión subjetiva de brillo del observador medio en condiciones de luz
natural. Como muestra la segunda curva, en condiciones cercanas a la
oscuridad la curva de respuesta se desplaza hacia la izquierda.
29
Manual de Cátedra de Técnica de Registro y Posproducción
30
Manual de Cátedra de Técnica de Registro y Posproducción
31
Manual de Cátedra de Técnica de Registro y Posproducción
32
Manual de Cátedra de Técnica de Registro y Posproducción
33
Manual de Cátedra de Técnica de Registro y Posproducción
34
Manual de Cátedra de Técnica de Registro y Posproducción
3 - Relación de aspecto4
Una imagen cuadrada tiene una relación de aspecto de 1:1 porque la altura y
el ancho es el mismo, así que esa proporción se mantendrá aunque la
resolución de la imagen sea enorme: desde 100 x 100 hasta 3000 x 3000, por
ejemplo.
¿Qué pasa cuando no son cuadradas? Pues que el ancho y el alto no es el
mismo, por lo que la relación cambia a los famosos monitores 16:9 (pantallas
panorámicas), monitores 4:3 (antigua relación), monitores 21:9 (pantalla
ultrapanorámica) o, incluso, monitores 32:9 que son menos habituales.
Esto no quiere decir que «X» sea el ancho e «Y» el alto, simplemente
describen la relación entre ellos. Es importante atender a la relación de
aspecto porque está más presente de lo que creéis:
● A la hora de grabar una película, se suele tener una relación de
aspecto de 16:9.
● Cuando usamos el smartphone para grabar un vídeo o sacar una
foto, podemos elegir entre varias resoluciones y relaciones de
aspecto.
● En caso de que vayamos a jugar a videojuegos, podemos
configurarla en el menú de opciones. El juego suele configurarse
automáticamente según la resolución que elegimos.
4
Contenido tomado (y adaptado) de las páginas webs:
https://www.profesionalreview.com/2021/08/28/relacion-de-aspecto-que-es/
https://www.chamanexperience.com/video/tipos-de-relacion-de-aspecto/
35
Manual de Cátedra de Técnica de Registro y Posproducción
36
Manual de Cátedra de Técnica de Registro y Posproducción
37
Manual de Cátedra de Técnica de Registro y Posproducción
38
Manual de Cátedra de Técnica de Registro y Posproducción
39
Manual de Cátedra de Técnica de Registro y Posproducción
40
Manual de Cátedra de Técnica de Registro y Posproducción
Esto es obvio ya que viene dada por el tamaño de los sensores de las
cámaras actuales. Lógicamente la idea es poder aprovechar al máximo el
tamaño del sensor, por lo que la proporción de las fotos es exactamente igual
a este.
El problema de los ratios de aspecto de los sensores fotográficos actuales es
que no tienen la misma proporción que los papeles usados comúnmente
(DIN). Pero si vas a hacer una impresión de calidad de alguna de tus
fotografías, merece la pena que te gastes el dinero que haga falta para que
esta muestre la proporción que deseas (ya que si no cambia la composición
de la misma completamente).
41
Manual de Cátedra de Técnica de Registro y Posproducción
Pero esto no acaba aquí, ya que dependiendo de la red social que estés
usando, e incluso de lo que vayas a hacer en la misma, vas a tener una
proporción u otra.
Relación de aspecto Instagram
En Instagram hay diferentes relaciones de aspecto, dependiendo del tipo de
contenido que vayas a subir:
● Historias de Instagram: estas suelen ser en 16:9
● Feed de Instagram: aquí realmente puedes usar el formato que
quieras, ya que puedes subir una foto ya hecha desde la galería con el
formato que hayas usado o bien hacerla al momento con la proporción
que ofrece Instagram. Esta proporción es 4:5 (en formato vertical), y
está diseñada para que ocupe el máximo espacio en la pantalla
dejando un hueco para ver el nombre del usuario y los
likes/comentarios que tiene. Esto hace que llame más la atención y
recibas el máximo engagement posible en esta red social.
Si quieren saber más sobre las relaciones de aspecto usadas en cine y tienes
un nivel de inglés bueno (tienen subtítulos automáticos en español), se
recomienda ver los siguientes dos vídeos que abordan de forma muy
interesante el tema a lo largo de la historia:
4.1 Introducción
En la década del 40 solo existía televisión monocromática o blanco y negro,
es decir, que la señal de video transmitida por las estaciones existentes, solo
incluía la información de brillo de la imagen, la cual era representada en la
pantalla del receptor como una sucesión de puntos con mayor o menor
intensidad (tonos de grises). Si bien hoy en día, ver imágenes en blanco y
negro pueden no resultan atractivas, esta modalidad de transmisión logra
cumplir con un objetivo muy necesario: dotar a la imagen reproducida de
definición suficiente para que el espectador pueda discriminar dentro de la
imagen, las formas, y tamaños relativos de los componentes de la escena.
Cuando la tecnología pudo agregarle color a la imagen, hubo que analizar la
forma de incluir dentro del canal de televisión, la información de color
(crominancia), sin detrimento de la información de brillo (luminancia), ya
existente.
Compatibilidad
Es la propiedad de un sistema de televisión color que permite la reproducción
de las emisiones a color, en los receptores monocromáticos existentes (por
supuesto se verán las imágenes en blanco y negro, aunque se hayan
generado en el transmisor a color).
43
Manual de Cátedra de Técnica de Registro y Posproducción
44
Manual de Cátedra de Técnica de Registro y Posproducción
45
Manual de Cátedra de Técnica de Registro y Posproducción
Vamos a ver en detalle 5 de estos tipos de señal así como los conectores
más típicos para la transmisión de estas señales y que normalmente están
asociados a un tipo particular de formato de vídeo. Pero no debemos olvidar
que, al fin y al cabo, un conector es un simple medio de conexión entre dos
partes y, por lo tanto, no implica que no se puedan emplear otros tipos
aunque no sean los más comunes. Los cuatro seleccionados son el RGB, la
señal de Video por componentes (Y-Cr-Cb o Y-Pr-Pb o Y-U-V o Y/Y-R/Y-B), el
S-Video (o Y/C), Video compuesto y RF que resultaron los de mayor uso en
el campo de la producción en video.
46
Manual de Cátedra de Técnica de Registro y Posproducción
Este tipo de señal se encuentra presente en casi todos los equipos de ámbito
domestico y es la mejor forma de conexión que se dispone actualmente, ya
que también se obtienen todos los componentes de color básicos separados
unos de otros. Incluido la señal de sincronismo, pues aunque sus
componentes estén juntos (sincronismo horizontal y sincronismo vertical) la
señal, como tal, está separada de la correspondiente señal de color.
48
Manual de Cátedra de Técnica de Registro y Posproducción
otra parte una señal compuesta de Croma o Crominancia (C), que es la que
contiene toda la información de color de tipo matricial.
Como vemos, ya no hay una separación de la señal de color en este tipo de
conexión, sino que los tres componentes básicos están modulados de forma
conjunta y no en parte con la señal de luminancia como hemos visto
anteriormente.
4.10 - RF
Hasta ahora, siempre hemos hablado de señales de vídeo, pero en ningún
momento se han mencionado las correspondientes señales de audio.
50
Manual de Cátedra de Técnica de Registro y Posproducción
5
Jim Slater 'Modern Television Systems. To HDTV and beyond' Ed. Pitman Publishing 1991
51
Manual de Cátedra de Técnica de Registro y Posproducción
6
Para ver una lista más exhaustiva consultar: "Grabación de vídeo" Alfonso Martín Marcos Tomo 1 páginas 14 a 16 [2] A.
Michael Noll 'Television Technology: Fundamentals and Future Prospects' Ed. Artech House, 1988
52
Manual de Cátedra de Técnica de Registro y Posproducción
Betamax.
El sistema Betamax, más conocido por Beta, fue inventado por Sony en el
año 1975. En la actualidad este sistema casi ha desaparecido del mercado
debido a una mala política comercial por parte de Sony. Este sistema de
exploración helicoidal posee dos cabezales con los que graba cada campo.
Así cada giro del tambor corresponde a un cuadro.
53
Manual de Cátedra de Técnica de Registro y Posproducción
8 mm.
54
Manual de Cátedra de Técnica de Registro y Posproducción
El formato de 8 mm, nace a raíz de una propuesta hecha por parte de Sony,
Hitachi, Matsushita, JVC y Phillips a principios de 1982, para la
estandarización del formato doméstico de vídeo. Su nombre viene del ancho
que usan las cintas de este formato, o sea 8 milímetros.
Este formato ha sido el último formato analógico que ha aparecido en el
mercado y es muy probable que no se desarrolle ninguno más. Entre las
características que incorpora este sistema se encuentra su alta densidad de
grabación ya que usa cintas de metal (se pueden conseguir grabaciones de
alta frecuencia usando velocidades menores) y la eliminación de la pista de
sincronismos (CTL).
Para poder hacer el seguimiento de la pista de manera correcta este sistema
recurre a una técnica que se desarrolló en el desaparecido formato 2000 de
Philips, y que recibe el nombre de DTF (Dinamic Tracking Following).
En este sistema se ha previsto que el audio se graba en la pista de vídeo
modulado en FM, para lo cual se le ha dejado un espacio entre la luminancia
y la croma centrado en 1.5 Mhz y además la posibilidad de grabar sonido en
formato digital PCM. Para ello se utiliza parte de la pista de vídeo. Al igual
que el formato VHS evolucionó a un formato semiprofesional el S-VHS, el 8
mm condujo al formato Hi8 de características similares que será visto en un
apartado posterior.
● industrial
● broadcast
55
Manual de Cátedra de Técnica de Registro y Posproducción
U-Matic
El formato U-Matic es un formato introducido por Sony a principios de los
setenta, presenta una cinta de ancho de ¾ de pulgada, guardada en un
cartucho, comúnmente llamado cinta de casete. Este formato fue el
introductor de este sistema en el mundo profesional, ya que hasta su
introducción los demás usaban cinta en bobina abierta. Usa grabación
helicoidal, y subportadora de color corregida. Hasta la fecha se han
comercializado tres versiones diferentes que reciben los nombres de LB (low
band), HB (high band) y SP (superior performance); que solo se diferencian
en las distintas frecuencias usadas para realizar la modulación y la
conversión de subportadora de color. Los dos primeros pueden considerarse
sistemas industriales y el último broadcast, aunque su calidad hoy en día no
es muy alta. En este sistema hay banda de guarda entre las distintas pistas
de vídeo y además incorpora dos pistas de audio longitudinales, y en algunos
magnetoscopios se incorpora una pista extra para la grabación del código de
tiempo. El gran tamaño de las cintas de este formato, y su corta duración, ha
imposibilitado la creación de camascopios en este formato, lo cual ha tenido
como consecuencia que en la actualidad su uso sea bastante pequeño y en
muchas aplicaciones está siendo sustituido por el S-VHS y el Hi8. Aun así es
por el momento el formato profesional más extendido con más de un millón
de equipos vendidos en el mundo.
S-VHS
Incorpora nuevas mejoras al sistema VHS, convirtiéndose en un formato
industrial de muy alta implantación en el mercado. Entre sus principales
diferencias están el cambio de las frecuencias de modulación para permitir un
mayor ancho de banda. Con lo cual conseguimos tener casi 400 líneas de
resolución frente a las 270 del VHS estándar. Otra de sus características
diferenciadoras es que las componentes de luma y croma se introducen en el
magnetoscopio por canales diferentes. Lo habitual es disponer de un
conector especial denominado “S” que posee 5 patillas.
56
Manual de Cátedra de Técnica de Registro y Posproducción
Por enumerar algunas más de sus innovaciones diremos que usa un nuevo
tipo de cabezal amorfo, la cinta contiene partículas magnéticas más finas con
una mayor coercitividad, introduce mejoras en los circuitos de preénfasis y
dispone de dos pistas de audio longitudinales además de las dos pistas de
audio hifi. No entraremos más en detalle acerca de todas estas mejoras.
Hi8
En el sistema Hi8 las mejoras y la calidad obtenida son similares al S-VHS
así que no entraremos en detalle a describirlas. Sus ventajas entre otras, son
un tamaño menor de cinta y la incorporación del código de tiempo en una
zona de la pista de vídeo.
FORMATO B
Este formato tenía como principal característica que era segmentado, o sea
que cada campo se grababa en varias pistas diferentes. Con ello se
imposibilitaba, o se hacía muy complicado, la lectura del vídeo en parada y
en velocidades diferentes a la normal. Por ello en la actualidad este formato
está ya casi abandonado por los teledifusores de todo el mundo.
FORMATO C
El formato C, a diferencia del B, no fragmenta la imagen por ello permite la
parada del vídeo y las velocidades diferentes a la normal. Gracias a su alta
calidad de grabación es hoy en día uno de los formatos más usados en las
televisiones de todo el mundo. Por contra su volumen es muy grande, las
cintas son voluminosas y de difícil manipulación; y su duración máxima es de
hora y media.
En este sistema se usa sólo una cabeza de vídeo sobre el tambor para
grabar cada campo, es por ello que la cinta debe de abrazar al tambor en su
totalidad, 360 grados. En realidad son solo 343 lo que origina que algunas
líneas de vídeo no sean grabadas. Esto no representa ningún problema ya
que estas líneas corresponden al intervalo de borrado vertical y son siempre
iguales. Aun así en algunos equipos se opta por incorporar una segunda
cabeza, desplazada de la anterior, que permite la grabación de estas líneas
57
Manual de Cátedra de Técnica de Registro y Posproducción
Graban señal de video por componentes. Los formatos que usan este tipo de
grabación son principalmente dos: El Betacam y el MII. Ambos formatos son
muy parecidos en su filosofía de funcionamiento por ello solamente
describiremos el primero de ellos, el Betacam que ha sido desarrollado por
Sony. El MII ha sido desarrollado por JVC y Panasonic.
Estos formatos poseen una alta calidad de grabación, lo que unido a unas
dimensiones de cinta razonables, ha hecho posible que se puedan fabricar
camascopios de estos formatos. Ambos sistemas son en la actualidad los
formatos usados en todo el mundo para E.N.G. o periodismo electrónico,
aunque la implantación del Betacam es muy superior llegando a copar por lo
menos el 90 % del mercado.
Betacam
En este formato la luminancia y la crominancia se graban en pistas
separadas. Además la chroma se divide en sus componentes R-Y y B-Y para
su grabación; es por ello que se puede decir que este formato realiza la
grabación en componentes.
Para poder grabar las dos componentes de diferencia de color en la misma
pista este formato recurre a comprimir las dos líneas en una sola para poder
grabar la información de color en una pista única. Con posterioridad ha salido
al mercado una versión de este formato denominada Betacam SP que es el
más usado hoy en día. A finales de 1994 salió una versión que graba en
formato digital en componentes según la norma CCIR 601 de grabación
digital en formato 4:2:2; y usa una compresión de 2:1.
58
Manual de Cátedra de Técnica de Registro y Posproducción
59
Manual de Cátedra de Técnica de Registro y Posproducción
El fin de una era: Sony deja de fabricar las cintas de video Betamax
BBC Mundo Tecnología - 10 noviembre 2015
60
Manual de Cátedra de Técnica de Registro y Posproducción
Durante años este formato analógico permitió a las familias grabar programas
de televisión para verlas después.
Gracias a ello su caso, el caso Betamax, se estudió durante años en las
facultades de derecho de todo el mundo.
61
Manual de Cátedra de Técnica de Registro y Posproducción
Como consecuencia, ese mismo año Sony vendió 2,3 millones de unidades
de su cinta para video y JVC tres veces esa cantidad.
62
Manual de Cátedra de Técnica de Registro y Posproducción
Superviviente
Por lo tanto, Betamax ganó algunas batallas y perdió otras, pero a todas ellas
sobrevivió.
Y desde el lanzamiento del innovador formato Sony siguió sacando al
mercado aparatos compatibles con el formato y fue añadiendo a éste
tecnologías que aumentaban sus prestaciones.
Por ejemplo, en 1975 sacó al mercado un videograbador junto con un
televisor de gran tamaño.
Y en 1976 empezó a vender el grabador por separado.
63
Manual de Cátedra de Técnica de Registro y Posproducción
Bibliografía
Grabación de vídeo tomos I y II, Alfonso Martín Marcos.
Técnicas del vídeo. Gordon White.
Fundamentos de la señal de vídeo y formatos de grabación, Marcel Rius. Sony.
Formatos de vídeo, Sony, División profesional.
64
Manual de Cátedra de Técnica de Registro y Posproducción
65
Manual de Cátedra de Técnica de Registro y Posproducción
7
Cuello Rojas, Fredy Fabián y Crazo, Juan Carlos
http://www.fuac.edu.co/autonoma/pregrado/ingenieria/ingelec/proyectosgrado/compresvideo/
doc_b.htm
66
Manual de Cátedra de Técnica de Registro y Posproducción
Para las señales diferencias de color se utilizan 224 niveles, que se reparten
a ambos lados del cero análogo, que se hace corresponder con el número
digital 128. Así pues, la señal variará entre los valores extremos 128 + 112 =
240 y 128 - 112 = 16, con una reserva de 16 niveles a ambos lados.
67
Manual de Cátedra de Técnica de Registro y Posproducción
68
Manual de Cátedra de Técnica de Registro y Posproducción
misma manera que la norma 4:2:2, es decir que por cada 4 muestras de
luminancia (Y) hay dos muestras de cada una de las componentes de color
(Cr y Cb). En la segunda línea sólo existente muestras de la componente de
luminancia (Y) y no hay de las componentes de color (Cr y Cb). La tercera
línea es igual a la primera y así sucesivamente.
En el caso de la norma 4:1:1 la estructura de muestreo define que en la
primera fila, por cada cuatro muestras de luminancia (Y) hay una de una de
las señales diferencia de color (por ejemplo Cr) y en la siguiente fila por cada
cuatro muestras de luminancia se representa la otra componente de color (en
este caso Cb). La tercera fila es igual a la primera y así sucesivamente, de
manera que en todas las filas hay información de alguna componente de
color.
Gráficamente esto tiene una representación como la que se ve en el gráfico a
continuación:
69
Manual de Cátedra de Técnica de Registro y Posproducción
70
Manual de Cátedra de Técnica de Registro y Posproducción
7 – La Compresión de datos
∙ Redundancia de codificación
∙ Redundancia entre pixeles
∙ Redundancia psicovisual
Redundancia de codificación
Se trata de asignar menos bits a los niveles de gris más probables y más bits
a los menos probables, se puede conseguir la compresión de datos. A este
proceso se le denomina codificación de longitud variable. Si los niveles de
gris de una imagen están codificados de forma que se emplean más símbolos
que los estrictamente necesarios para representar cada uno de ellos,
entonces se dice que la imagen resultante contiene redundancia de código.
En general, la redundancia de código aparece cuando los códigos asignados
a un conjunto de niveles de gris no han sido seleccionados de modo que se
obtenga el mayor rendimiento posible de las probabilidades de estos niveles.
71
Manual de Cátedra de Técnica de Registro y Posproducción
Redundancia psicovisual
El ojo humano, como ya se dijo anteriormente, no responde con la misma
sensibilidad a toda la información visual. Cierta información tiene menor
importancia relativa que otra en el proceso visual normal. Se dice que esta
información es psicovisualmente redundante, y se puede eliminar sin que se
altere significativamente la calidad de la percepción de la imagen.
En general, un observador busca características diferenciadoras, como
bordes o regiones de diferentes texturas, y luego las combina mentalmente
en grupos reconocibles. A continuación, el cerebro relaciona estos grupos
con el conocimiento previo con el fin de completar el proceso de
interpretación de la imagen.
Al contrario que la redundancia de codificación y la redundancia entre
píxeles, la redundancia psicovisual está asociada a la información visual real
o cuantificable. Su eliminación es únicamente posible porque la propia
información no es esencial para el procesamiento visual normal. Como la
eliminación de los datos psicovisualmente redundantes se traduce en una
pérdida de información cuantitativa, a menudo se denomina cuantificación.
Cuantificación significa que a un amplio rango de valores de entrada le
corresponden un número limitado de valores de salida. Puesto que es una
operación irreversible, ya que se pierde información visual, la cuantificación
conduce a una compresión con pérdida de datos.
72
Manual de Cátedra de Técnica de Registro y Posproducción
73
Manual de Cátedra de Técnica de Registro y Posproducción
74
Manual de Cátedra de Técnica de Registro y Posproducción
75
Manual de Cátedra de Técnica de Registro y Posproducción
76
Manual de Cátedra de Técnica de Registro y Posproducción
7. 3 La compresión de video
La compresión de video surge de la necesidad de transmitir o grabar
imágenes a través de un canal que contenga un ancho de banda aceptable.
A continuación se examinarán cuales son los métodos más utilizados que
permiten obtener este resultado, y las diferentes normas que se utilizan hoy
día.
Estos métodos de compresión, recurren a los procedimientos generales de
compresión de datos, aprovechando además la redundancia espacial de una
imagen (áreas uniformes), la correlación entre puntos cercanos y la menor
sensibilidad del ojo a los detalles finos de las imágenes fijas (JPEG) y, para
imágenes animadas (MPEG), se saca provecho también de la redundancia
temporal entre imágenes sucesivas.
La Figura muestra que cuando las imágenes individuales son comprimidas
sin referencia a las demás, el eje del tiempo no entra en el proceso de
compresión, esto por lo tanto se denomina codificación intra (intra=dentro) o
codificación espacial. A medida que la codificación espacial trata cada
imagen independientemente, esta puede emplear ciertas técnicas de
compresión desarrolladas para las imágenes fijas. El estándar de compresión
ISO (International Standards Organization) JPEG (Joint Photographic Experts
Group), está en esta categoría. Donde una sucesión de imágenes codificadas
en JPEG también se usan para la televisión, esto es llamado "JPEG en
movimiento".
77
Manual de Cátedra de Técnica de Registro y Posproducción
78
Manual de Cátedra de Técnica de Registro y Posproducción
Los datos que se generan al hacer la diferencia entre dos imágenes, también
se pueden tratar como una nueva imagen, la cual se debe someter al mismo
tratamiento de transformadas utilizado en la compresión espacial.
Un sistema básico de codificación inter se muestra en la.
Desafortunadamente existe la posibilidad de transmitir errores, si se utiliza
una secuencia ilimitada de imágenes previstas. Por esto es mejor utilizar un
número limitado de imágenes previstas para de este modo garantizar una
mejor transmisión de los datos. En MPEG periódicamente se envía una
imagen la cual no ha sido tratada con algún método de compresión con
pérdidas y que a su vez es idéntica a la imagen original, refrescando los
datos en la secuencia de transmisión.
La Figura muestra el recorrido de una imagen original, llamada imagen I o
intra, la cual es enviada entre imágenes que han sido creadas usando una
diferencia entre imágenes, llamada imágenes P o previstas. La imagen I
requiere grandes cantidades de información, mientras que las imágenes P
79
Manual de Cátedra de Técnica de Registro y Posproducción
Codificación Bidireccional
Cuando un objeto se mueve, este oculta lo que hay detrás de él, pero esto va
cambiando a medida que se va moviendo, permitiendo observar el fondo. El
revelado del fondo exige nuevos datos a ser transmitidos, ya que el área del
fondo había sido ocultada anteriormente y la información no pudo ser
obtenida desde una imagen previa.
Un problema similar ocurre si se hace una toma panorámica con una cámara
de video; aparecen nuevas áreas al observador y nada se sabe acerca de
ellas. MPEG ayuda a minimizar este problema utilizando codificación
bidireccional, la cual deja información para ser tomada de imágenes
anteriores y posteriores a la imagen observada. Si el fondo ya ha sido
revelado, y este será presentado en una imagen posterior, la información
puede ser movida hacia atrás en el tiempo, creando parte de la imagen con
anticipación.
La Figura muestra en qué se basa la codificación bidireccional. En el centro
del diagrama un objeto se mueve revelando su fondo, pero éste no se conoce
hasta la siguiente imagen. Entonces se toman los datos de las imágenes
anteriores y posteriores, o incluso se utiliza el promedio de los datos,
descubriendo de esta forma el fondo.
80
Manual de Cátedra de Técnica de Registro y Posproducción
Codificación bidireccional
81
Manual de Cátedra de Técnica de Registro y Posproducción
83
Manual de Cátedra de Técnica de Registro y Posproducción
8 - Conexiones Digitales
84
Manual de Cátedra de Técnica de Registro y Posproducción
85
Manual de Cátedra de Técnica de Registro y Posproducción
En esta tabla de arriba tienes las principales diferencias entre los USB 2.0 y
3.0. La más notable es la velocidad, ya que con sus cinco líneas por cable de
más, es capaz de transmitir datos a velocidades máximas 10 veces más
rápidas que las del USB 2.0. Eso sí, queda destacar que las velocidades son
las máximas, y que depende de muchas cosas el que se consigan alcanzar o
no. Por lo general, las transmisiones suelen ser más lentas.
También hay diferencias importantes en la energía que pueden suministrar
cuando se conecta un dispositivo a ellos para cargarlo. Los puertos USB 2.0
pueden suministrar hasta 500 mA, mientras que los puertos USB 3.0 ofrecen
hasta 900 mA. Esto quiere decir, que tus móviles u otros dispositivos podrán
cargarse bastante más rápido.
Un USB 2.0 tiene una comunicación unilateral, lo que quiere decir que
cuando los conectas pueden enviar información o recibirla. Sin embargo, esto
cambia en los USB 3.0, que pueden enviar y recibir información al mismo
tiempo.
86
Manual de Cátedra de Técnica de Registro y Posproducción
Con los conectores de tipo A no hay problema, son compatibles entre ellos,
pero los conectores de los USB 3.0 de tipo B y MicroUSB 3.0 son diferentes a
los del USB 2.0. Esto quiere decir que habrá que utilizar un adaptador para
poder utilizar los 3.0 en los 2.0, y siempre haciendo que se limiten las
capacidades a las del 2.0.
8.1.2 FIREWIRE
También es conocido como IEEE 1394 y como i.Link. Es un interfaz diseñado
por la empresa Apple para conectar periféricos en un ordenador y con la idea
de sustituir al bus SCSI. Permite velocidades de 100, 200 y 400 Mb/s. Al igual
que el USB acepta conexiones en "caliente", o sea sin apagar ni reiniciar.
Utiliza una arquitectura punto a punto es decir podemos conectar una cámara
a un disco duro sin necesitar equipo adicional.
El Firewire DV- 1394 permite transmitir señal de video a distancias de hasta
50 kilómetros.
Es ampliamente conocida ya que fue adoptada por cámaras DV, unidades de
DVD, empresas que producen tarjetas digitalizadoras como la Matrox,
Pinnacle y Canopus así como por softwares como el Avid, Adobe Premiere,
Final Cut Pro, entre otros. El nombre Firewire es propio de Apple. En 1995 la
organización IEEE (Institute of Electrical and Electronics Engineers) lo
rebautizó como IEEE 1394.
i.Link es una variante desarrollada por SONY. Los periféricos que lo usan no
reciben la alimentación eléctrica por el cable usado para la transferencia de
datos, lo que obliga a tener una fuente de alimentación con su propia
conexión a la red eléctrica.
El principal aporte del Firewire al mundo del vídeo es la transferencia de
audio y vídeo sin merma de la calidad y sin pérdida de "frames" o
desincronización. Asimismo permite transferir además el Timecode, que es
un registro digital del tiempo que se graba en la cinta, lo cual permite ubicar
rápidamente una escena durante la edición.
La clásica versión permite una longitud máxima de hasta 4.5 metros (en USB
la distancia es de 5 metros). Pero lo nuevo en Firewire es el DV- 1394 que es
la transmisión vía fibra óptica. Este tipo de Firewire, hecho especialmente
para el mundo de la televisión, permite transmitir video digital a una distancia
de hasta 50 kilómetros, sin perder calidad. Es el sistema ideal para una
estación de TV que desee enviar archivos de video desde un lugar a otro. Sin
embargo, la conexión Firewire está limitada a los formatos DVC CAM, DVC
PRO y Mini - DV.
87
Manual de Cátedra de Técnica de Registro y Posproducción
88
Manual de Cátedra de Técnica de Registro y Posproducción
Interfaz eléctrico
Los diversos estándares SDI utilizan cables coaxiales con conectores tipo
BNC con una impedancia de 75 ohms como el RG59. Es el mismo tipo de
cables utilizado en las conexiones analógicas de video. Usando un
amplificador en el receptor es posible enviar un flujo de datos de 270 Mbits/s
SD-SDI hasta 300 metros sin repetidoras intermedias. En el caso del HD-SDI,
la distancia máxima son 100 metros.
90
Manual de Cátedra de Técnica de Registro y Posproducción
Además de los datos TMDS, el estándar DVI maneja otro tipo de señales
denominadas DCC (Display Data Channel). En este canal se establece una
comunicación entre la fuente y la pantalla de informaciones auxiliares de
vídeo (AVI), que permite entre otras cosas identificar la resolución soportada
por el monitor, la relación de aspecto nativa del mismo, el tipo de señal que
envía (RGB o Y/Cb/Cr) y diversos datos sobre colorimetría o geometría de la
imagen.
A pesar de que esta conexión naciera para el mundo informático, enseguida
se vio la validez de la misma para el entorno audiovisual doméstico pero,
como suele ocurrir en estos casos, existía un importante inconveniente:
disponer de una imagen digital en estado puro suponía dejar en manos de los
usuarios la posibilidad de crear copias perfectas (bit a bit), algo que ningún
proveedor de contenidos desea, y mucho menos los grandes estudios de cine
o las plataformas de televisión digital.
Para evitar que la piratería compara a sus anchas, se desarrolló un sistema
de encriptación de nombre HDCP (High-Bandwidth Digital Contention Protect)
que se basa en el intercambio de información entre dos dispositivos con
conexiones DVI y que obligatoriamente han de confirmar las señales de
validación que se envían entre ellos para seguir transmitiendo. Esto nos
puede llevar al caso de tener una fuente DVI-HDCP y un proyector o panel de
plasma que no disponga de este certificado anticopia y resulten
absolutamente incompatibles a pesar de contar con el mismo conector. Para
concluir la migración del DVI desde el mundo informático al audiovisual, se
añadieron las señales digitales de vídeo por componentes de diferencia de
color Y/Cb/Cr a las originarias señales RGB. Esta combinación, más cercana
a nuestros intereses de conexión DVI+HDCP+Y/Cb/Cr, ha sido denominada
DVI-HDTV.
El conector DVI está compuesto por dos grupos de pines. En un extremo del
conector siempre encontraremos un grupo de 24 pines en tres filas de ocho.
91
Manual de Cátedra de Técnica de Registro y Posproducción
Puede existir en el otro extremo un solo pin central de mayor tamaño (24+1)
que nos indica que el mismo es DVI-D o digital y que sólo transmite este tipo
de señales, o bien podemos tener este mismo pin rodeado de cuatro pines
añadidos (24+5) que contienen adicionalmente la señal de vídeo analógica
por componentes RGB y que se denomina DVI-I o Integrado.
92
Manual de Cátedra de Técnica de Registro y Posproducción
93
Manual de Cátedra de Técnica de Registro y Posproducción
Para poder entender un poco más este tema, tenemos que entender algunos
conceptos básicos y las diferencias entre un contenedor, el esquema de
compresión y un códec. Para explicarlo de forma más sencilla utilizaremos
una analogía que leímos en alguna ocasión y que nos ha parecido la forma
más sencilla de explicarlo, tenemos que entender a un archivo de vídeo como
una repisa llena de libros.
La repisa = contenedor
La repisa es el contenedor (así como la repisa puede tener muchos libros, el
contenedor puede tener muchas pistas de audio y vídeo), los formatos más
comunes de contenedores son MOV, AVI y MXF.
● Adquisición
● Edición y Post
● Distribución
Cada uno de ellos tiene su lugar específico y sus ventajas particulares, pero
empecemos analizando los conceptos básicos:
95
Manual de Cátedra de Técnica de Registro y Posproducción
Esquemas de Compresión
Descomprimido
Este esquema de compresión se contradice un poco ya que no hay
compresión y el hecho de que no haya compresión no significa que será igual
en todos los casos ya que puede tener un origen con un bit depth de 8, 10 o
12 bits y una profundidad de color de 4:2:0, 4:2:2, 4:4:4, etc. Realmente se
usa muy poco ya que tanto en HD como en 4K requieren cantidades enormes
de almacenamiento.
DV
El esquema de compresión DV es uno de los más antiguos de todos, surgió
originalmente para comprimir vídeo en definición estándar en cinta y de ahí
posteriormente nace el DVCPRO HD. Estos esquemas de compresión se
usaron tanto en adquisición, edición y post así como entrega.
HDCAM
Este esquema desarrollado por Sony se deriva de la compresión de Betacam
y es utilizado igualmente en adquisición, edición y post, así como distribución
o entrega.
MPEG 2
El MPEG 2 es uno de los esquemas probablemente más utilizados hasta
ahora, se ha implementado con distintos bitrates, profundidad de color y
resoluciones dependiendo de la media de adquisición. El MPEG 2 se usa en
DVD, Blu-Ray, HDV, XDCAM entre otros y es usado tanto en adquisición,
edición y distribución.
96
Manual de Cátedra de Técnica de Registro y Posproducción
MPEG 4
Este es un esquema más moderno de compresión que MPEG 2 y se
considera el antecesor de h.264. Como un esquema profesional se ha
implementado como parte del codec de alta gama de Sony el HDCAM-SR,
pero también se ha utilizado en implementaciones para consumo como el
DivX.
H.264
También conocido como MPEG4 parte 10 o AVC es el sucesor natural de
MPEG 2 ya que se ha implementado con múltiples bitrates, resoluciones y
profundidad de color y se usa en múltiples cámaras, desde las DSLR de
Canon, Cámaras AVC-Intra, AVCHD, XAVC, etc. y es usado en las tres
categorías.
Apple ProRes
Este esquema diseñado específicamente para edición y post por Apple se ha
convertido en un estándar en muchas de las fases de la post-producción ya
que está diseñado para mantener un equilibrio entre el tamaño de los
archivos, la calidad y el uso de recursos del sistema, en sus variantes HQ y
444 soporta múltiples fases de procesamiento sin degradación. Este
esquema se usa normalmente en la fase de edición y post-producción,
aunque hay cámaras y grabadores externos que permiten usarlo como
formato de adquisición.
Avid DNxHD
Similar al ProRes, pero disponible tanto para Mac como para Windows,
DNxHD es un esquema de compresión que además está calificado como un
standard por la SMPTE como VC-3 y es usado normalmente en la fase de
edición y distribución, aunque ya también hay grabadores externos y algunas
cámaras que permiten usarlo en la fase de adquisición.
Codecs
Los codecs como lo mencionamos ya, son los codificadores/decodificadores
de un esquema de compresión determinado que puede tener múltiples
variantes tanto en calidad, resolución, rendimiento, etc.
97
Manual de Cátedra de Técnica de Registro y Posproducción
98
Manual de Cátedra de Técnica de Registro y Posproducción
https://recoverit.wondershare.es/video-repair/mpeg-vs-h264.html#:~:text=MPEG2%20tiene%20un%20
tama%C3%B1o%20de,sin%20perder%20su%20alta%20calidad.
99
Manual de Cátedra de Técnica de Registro y Posproducción
¿Qué es MPEG2?
MPEG2 es el códec que se utiliza para comprimir video de transmisión digital
y DVDs. Los archivos multimedia codificados con el códec MPEG-2
generalmente tienen las extensiones de archivo .mpg, .mpeg, .m2v, .mp2 o,
100
Manual de Cátedra de Técnica de Registro y Posproducción
101
Manual de Cátedra de Técnica de Registro y Posproducción
¿Qué es MPEG4?
El estándar MPEG4 es un formato MPEG4 que se inició en 1995. Alcanzó el
estado de borrador de comité en 1998 (marzo) y al final del mismo 1998, se
finalizó su creación. Inicialmente, se creó específicamente para velocidades
de bits muy bajas, pero actualmente puede admitir hasta 4 Mbps. MPEG4
contiene seis partes que le permiten realizar sus funciones, estas son: visual,
software, sistemas, framework de integración de entrega multimedia (DMIF),
pruebas de conformidad y audio.
Este estándar de codificación de video está diseñado para ser utilizado en
transmisión, en entornos conversacionales e interactivos. También está
diseñado para llevar a cabo una escalabilidad basada en el contenido.
Debido a cómo se construye MPEG4 (habiendo adoptado características de
MPEG1, MPEG2 y VRML), puede usarlo tanto en entornos web como en
televisión y puede integrar contenido de ambos canales en el mismo entorno
multimedia.
Las ventajas de MPEG4 se pueden ver en más de sus características y estas
incluyen:
102
Manual de Cátedra de Técnica de Registro y Posproducción
transmisión de video por Internet. Por otro lado, MPEG4, con su alta
tasa de compresión en archivos de menor tamaño, puede funcionar en
redes móviles sin perder su alta calidad.
Si desea codificar sus datos digitales en DVDs, el método ideal para usar es
MPEG2. Si desea codificar sus datos digitales en línea y en dispositivos
portátiles, MPEG4 es el estándar de codificación de referencia. Para la
codificación de video en discos Blu-ray, se recomienda el H264 como el
formato más utilizado.
En comparación con MPEG4, el formato MPEG2 es bastante más fácil de
usar como formato de compresión de video. Sin embargo, H264 está abierto
y tiene una especificación publicada, disponible para la implementación de
prácticamente cualquier persona.
MPEG4 contiene más funciones interactivas que le permiten manipular
diferentes elementos en sus videos en tiempo real.
H264 tiene la mayor flexibilidad lo que le permite ser aplicado a muchas
aplicaciones diferentes en una amplia gama de sistemas y redes.
104
Manual de Cátedra de Técnica de Registro y Posproducción
10
Jim Donnelly | 5/1/2022.
https://massive.io/es/transferencia-de-archivos/dcp-what-is-a-digital-cinema-package/?cn-reloaded=1
105
Manual de Cátedra de Técnica de Registro y Posproducción
106
Manual de Cátedra de Técnica de Registro y Posproducción
107
Manual de Cátedra de Técnica de Registro y Posproducción
Puedes hacer tu propio DCP exportando a 'DCP' en Premiere Pro, Final Cut,
DaVinci Resolve, o por utilizando herramientas online gratuitas. También se
puede recurrir a una tienda profesional de DCP para obtener una mejor
calidad.
Para obtener la máxima calidad DCP posible, se recomienda empezar por
con una secuencia de imágenes DPX o TIFF (conocida como Digital Cinema
Distribution Master, o DCDM). DCDMs se convierten en DCP una vez
comprimidos, encriptados y empaquetados para su distribución.
108
Manual de Cátedra de Técnica de Registro y Posproducción
1-La imágenes deben tener la máxima calidad posible que nos pueda
proporcionar la fuente de la que provengan. Hay que evitar degradar la señal
capturando en un formato inferior al que se usó para grabar.
2-Debemos procurar que las imágenes no se degeneren en ningún momento
a lo largo de la cadena de procesos aplicados en postproducción. Hay que
evitar la pérdida de generaciones y no realizar renders o recompresiones
sobre formatos ya comprimidos.
Por eso es muy importante tener claro y entender cómo funcionan los
formatos de vídeo digital, cómo registran la señal y cómo proporcionan esa
señal a nuestro sistema de edición, de manera que sepamos cómo tratarla en
cada momento.
Para ello es preciso definir los siguientes conceptos
Muestreo de color
Los diferentes formatos de vídeo se clasifican principalmente por el tipo de
muestreo de color que utilizan. Aquí tenemos una clasificación de los
principales formato según su ratio de muestreo:
110
Manual de Cátedra de Técnica de Registro y Posproducción
111
Manual de Cátedra de Técnica de Registro y Posproducción
Pero ¿qué nos aporta una mayor profundidad de color en vídeo si una
imagen de 8 bits es suficiente para el ojo humano? Una mayor profundidad
de color nos da un mayor rango de actuación sobre la imagen, pudiendo
ajustar mucho más los retoques de color precisos, los chromas etc... En
general la profundidad de color es beneficiosa para cualquier proceso de
postproducción sobre el material con el que trabajamos.
112
Manual de Cátedra de Técnica de Registro y Posproducción
113
Manual de Cátedra de Técnica de Registro y Posproducción
114
Manual de Cátedra de Técnica de Registro y Posproducción
El Digital8
El sistema Digital8 de Sony usa la compresión DV sobre el mecanismo de
transporte de las cintas de video8/Hi8. Digital8 graba sobre estas cintas al
doble de la velocidad (a 1,5x en PAL), reduciendo así a la mitad el tiempo de
grabación (a 2/3 del tiempo en PAL).
Digital8 también reproduce cintas de video8 y Hi8, permitiendo a las antiguas
grabaciones poder introducirse en sistemas de edición no lineal (si bien lo
harán sin código de tiempo).
Digital8 parece un esfuerzo del departamento de Sony de Video 8mm, con un
sistema híbrido que permita aprovechar la base existente de aficionados
usuarios de este sistema.
Entonces, ¿Cuán bueno es el sistema DV comparado con otros formatos?
Los sistemas DV suelen ser reconocidos como de igual o ligeramente mejor
calidad que los sistemas Betacam SP y MII en términos de calidad de imagen
115
Manual de Cátedra de Técnica de Registro y Posproducción
116
Manual de Cátedra de Técnica de Registro y Posproducción
HDV11
El formato HDV está desplazando al DV como estándar de vídeo de uso
doméstico-industrial. Las videocámaras HDV pueden grabar imágenes de
hasta 1080 líneas de definición en las habituales cintas miniDV y transferirlas
al PC vía firewire para su edición con los programas de toda la vida.
La televisión en alta definición (HDTV) supone el mayor avance para la
televisión desde la aparición del color. La idea de HDTV no es nueva, y los
sistemas de HDTV llevan ya muchos años desarrollándose. Aún así parece
que todavía falta para la generalización de las emisiones HDTV.
El desarrollo de la tecnología de la HDTV digital ha simplificado tanto la
producción audiovisual en HD que ya son muchas las productoras que
trabajan en estos formatos, aún cuando la exhibición final se vaya a realizar
en definición estándar (SD). Por otro lado, la potencia de los ordenadores
domésticos actuales, les hace capaces de reproducir sin problemas
contenidos en alta definición, mientras llegan reproductores de sobremesa
compatibles con estos formatos. Prácticamente todos los codecs de uso
habitual en informática tienen una variante que soporta alguna de las
especificaciones HD. Y de la misma manera, las pantallas de ordenador se
constituyen en elementos ideales para visualizar estos contenidos. Por otro
lado, la oferta de los comercios de audio y video incluyen cada vez mayor
número de pantallas de todo tipo, LCD, TFT, plasmas o proyectores,
totalmente compatibles con las especificaciones de HD.
Solo falta facilitar la creación de contenidos HD al videoaficionado. Y para
cubrir este objetivo se ha creado HDV, un formato de video en HD que
11
Selección de artículos: Ing. Luis Felipe Tejeda (1999); Adam Wilt (www.adamwilt.com);
Antonio Moreno ( http://www.imagendv.org/hdv)
117
Manual de Cátedra de Técnica de Registro y Posproducción
El formato HDV
Las especificaciones del estándar HDV se fijaron el 30 de septiembre de
2003 por cuatro compañías: Canon, Sharp, Sony, y Victor Company. El
concepto del estándar HDV es desarrollar una videocámara doméstica que
pueda grabar fácilmente imágenes HD de gran calidad.
El estándar HD puede usar las cintas existentes DV como soporte de
grabación, y el mecanismo de las videocámaras es el mismo que el de las
videocámaras DV, con lo que se reducen costes de desarrollo. Pero se
abandona el esquema DV, poco eficiente pero sencillo, en beneficio del
MPEG-2.
Hay cinco características que definen el formato HDV. La primera es que las
cintas utilizadas para grabar DV pueden usarse para grabar HDV, y los
tiempos de grabación son también equivalentes. La segunda característica es
la elección de MPEG-2 como formato de compresión. Se trata del mismo
formato de compresión usado para broadcast digital y DVD. Esto permite
que, manteniendo el mismo bit rate que en las grabaciones DV podamos
grabar imágenes de alta calidad HD. Para comprimir en MPEG-2 la gran
cantidad de datos HD se requiere un circuito de procesado de señal
extremadamente largo. Pero los avances en el desarrollo de semiconductores
y en la tecnología del procesado de señal permiten utilizar este estándar para
dispositivos domésticos. Como tercera característica, el formato HDV hace
uso de una capacidad de corrección de errores potenciada drásticamente.
Esto se debe a que HDV es un formato de compresión intraframe, y el
impacto en la imagen de cualquier dato perdido es mucho mayor que en DV.
En HDV se ha potenciado la tolerancia a pérdida de datos debida a dropouts.
La cuarta característica definitoria hace referencia al sonido. Este se graba en
la cinta también comprimido, pero en este caso en MPEG-1 LAYER II,
proporcionando una calidad equiparable a la de un CD.
Y para terminar de definir el formato, tenemos dos sistemas de grabación:
720p (progresivo) y 1080i, entrelazado. Cada uno de los modelos de cámaras
conformes con el estándar HDV, puede optar por uno, el otro, o ambos
sistemas de grabación. Hasta el momento, solo JVC y SONY han lanzado al
mercado videocámaras HDV. JVC fue la pionera con la GR-HD1. Pensada
para el mercado americano, consta de un solo CCD y utiliza el formato
progresivo 720p a 30 fps. No funciona a 25 fps, lo que la ha hecho poco
popular en Europa. SONY acaba de anunciar el lanzamiento de un modelo A
1080i (HDR-FX1), ha levantado una gran polvareda. CANON parece no
haberse enterado que existe esta especificación, y lanza la XL2 que aún no
118
Manual de Cátedra de Técnica de Registro y Posproducción
Atomos Ninja V 👉 Así es como la Sony A7S III graba vídeo en RAW
119
Manual de Cátedra de Técnica de Registro y Posproducción
12
Andy Shipsides es un especialista en tecnología de cámaras en N.Y. en el departamento de
capacitación de Abel Cine. Para conocer más acerca de Abel Cine, visita training.abelcine.com.
Artículo publicado con autorización del Autor y de Abel Cine, traducido al español por CineDigital.tv.
https://www.cinedigital.tv/una-explicacion-de-los-formatos-raw-log-y-video-descomprimido/.
21/05/2012
120
Manual de Cátedra de Técnica de Registro y Posproducción
el sensor. Las grabadoras en Raw no eran comunes en los sets, así que
debemos reconocer a Red por popularizar la grabación en Raw en el negocio
de las películas.
Así que ¿qué es Raw?, de una forma sencilla, son los datos obtenidos
directamente del sensor antes de realizar cualquier proceso en la imagen. En
una cámara de un sólo sensor, como la Alexa, el color se produce filtrando
cada fotosito o píxel para producir valores rojo, verde o azul. El patrón de
color de estos fotositos más usado es el patrón de Bayer, inventado por el Dr.
Bryce E. Bayer en Kodak. Los datos en Raw en la cámara representan el
valor de cada fotosito. Debido a que cada píxel contiene un solo valor, la
imagen en Raw no puede ser vista en un monitor de manera adecuada. En
una señal de vídeo que podemos ver en un monitor, cada pixel contiene
información tanto de color como de brillo, el vídeo puede decirle a cada pixel
en un monitor tanto su brillo como su color. Esto significa que Raw no es
vídeo, el Raw tiene que ser convertido a vídeo para poder ser visto. Esto
normalmente se hace a través de un proceso llamado De-Bayer, que
determina tanto el color como el brillo de cada píxel en tu imagen. La
conversión de la información Raw a video puede tomar mucho tiempo en la
post-producción, aunque hay muchas herramientas que lo hacen de forma
adecuada y sin mayor problema. La ventaja de la grabación en Raw es que
ninguno de los procesos de conversión a vídeo ha sido fijado en la imagen. El
sensor transmite exactamente lo que ve, sin ajustes de balance de blancos,
ISO o ajustes de color. Esto junto con un bitrate alto, permite una gran
flexibilidad para hacer ajustes en post.
Todas las cámaras tienen un paso Raw en el proceso de la captura de la
imagen. La información del sensor siempre se recopila antes de convertirse
en vídeo, pero no todas las cámaras permiten grabar esos datos. Las
cámaras de Red graban exclusivamente los datos en Raw. La Sony F65
puede grabar tanto en Raw como en Vídeo HD y la Alexa de Arri puede
transmitir la información en Raw a través de una conexión SDI mientras
graba vídeo de manera interna al mismo tiempo. Estas cámaras convierten
los datos en Raw a vídeo de manera simultánea para efectos de monitoreo y
la Alexa agrega la posibilidad de darle salida a la información Raw de modo
simultáneo.
Así que si los datos en Raw son la información real del sensor, eso significa
que es descomprimido? Aquí es donde empieza la confusión.
121
Manual de Cátedra de Técnica de Registro y Posproducción
F65Raw. Los datos en Raw son comprimidos de la misma forma que el vídeo
tradicional se comprime y el proceso tiene algo de efecto en la calidad de
imagen. La forma en la que se muestra en el producto final puede ser muy
difícil de detectar y las opciones con menos compresión en estas cámaras se
consideran lossless (poca o nula pérdida de calidad). Del otro lado la Alexa
permite la salida de los datos en Raw descomprimidos, lo cual puede ser
grabado de forma externa y esto sería lo más cercano a una señal realmente
descomprimida.
¿Así que cual es el vídeo descomprimido? El término «descomprimido»
obviamente implica la falta de compresión, pero no es muy claro lo que
realmente significa en términos de vídeo. Como lo mencionamos con
anterioridad, el vídeo se deriva de los datos en Raw de un sensor sencillo o
algo como un bloque de 3 CCD y normalmente algo se pierde en el camino.
Los datos en Raw normalmente tienen una profundidad de bits muy alta,
generalmente entre 12 y 16 bits, pero el vídeo generalmente tiene una
profundidad de bits reducida. Adicionalmente la información del color también
se reduce, de 4:4:4 a 4:2:2. Entonces, ¿La salida HD-SDI no está
comprimida? Bueno, en teoría está descomprimida en el sentido de que no
se ha aplicado un block, wavelet o compresión temporal aplicado. Por lo tanto
podemos llamarlo vídeo descomprimido de 10 bit 4:2:2 y es mejor que el
vídeo comprimido?
La Alexa puede transmitir vídeo descomprimido en su salida HD-SDI, ya sea
en 10-bit 4:2:2 ( a través de un Single-Link HD-SDI) o 10-bit 4:4:4 (a través de
Dual-Link HD-SDI). Pero de forma inexplicable, la cámara puede grabar de
forma interna en 12-bit 4:4:4 en ProRes, pero el HD-SDI estándar solo acepta
10-bit. En este caso, la salida descomprimida es más limitada en cuanto a la
profundidad de bits, porque Arri está conformando la señal a los estándares.
122
Manual de Cátedra de Técnica de Registro y Posproducción
10.4 - Conclusiones
Así que regresando a la pregunta original ¿Grabar en Log es como grabar en
Raw?. La respuesta sigue siendo «si y no». Esperamos que ahora puedas
ver por qué. Raw no es log, porque Log está en un formato de vídeo y Raw
no es vídeo. Los datos en Raw no tienen ningún proceso horneado y tiene
que ser convertido a vídeo para poder ser visualizado. Log es vídeo y tiene
factores como el balance de blancos fijo. Son muy diferentes entre sí, pero
ambos han sido diseñados para obtener la mayor información del sensor.
Raw toma todo lo que el sensor puede ofrecer, de la misma forma las curvas
en Log han sido diseñadas para obtener el mayor rango tonal del sensor.
Aunque son formatos completamente diferentes, tienen la misma aplicación.
Ambos Raw y Log pueden ser descomprimidos, pero eso depende del
dispositivo de grabación. Estos términos y muchos más se han convertido en
parte de nuestro vocabulario en este mundo del cine digital. Esperamos que
este artículo los ayude a entender estos términos de una mejor manera.
Curvas de gamma
123
Manual de Cátedra de Técnica de Registro y Posproducción
124
Manual de Cátedra de Técnica de Registro y Posproducción
13
En el switcher, mezclador de video que utiliza para “ponchar” (seleccionar) la cámara que está al
aire, tiene una hilera paralela de botones donde puede “practicar” estos cambios de planos o efectos y
solo ser visualizados en su monitor, antes de hacerlos en la hilera de botones que manda la señal al aire.
14
Ya sea en video o en otro soporte analógico o digital.
15
Por copiado (en islas lineales) o por una mayor compresión digital (en islas no lineales).
125
Manual de Cátedra de Técnica de Registro y Posproducción
126
Manual de Cátedra de Técnica de Registro y Posproducción
16
Footage
17
Control Tracking Lineal
127
Manual de Cátedra de Técnica de Registro y Posproducción
18
Society of Motion Pictures and Television Engineers
19
HH:MM:SS:FF es la nomenclatura más común ya que “cuadros” en ingles es “frames”.
20
Linear Time Code
21
Vertical Interval Time Code
128
Manual de Cátedra de Técnica de Registro y Posproducción
22
Editing Decision List
129
Manual de Cátedra de Técnica de Registro y Posproducción
23
Actualmente hay islas de edición lineal de formatos digitales. Ver 1.5
24
Se usan los términos en ingles pues el lector los encontrará en la mayoría de los equipamientos que
utilice.
130
Manual de Cátedra de Técnica de Registro y Posproducción
Fig : Control de Edición – Detalle de teclado para ingreso de datos y jog &
shuttle
25
Switcher es un término de la televisión pues sirve para “cambiar” entre los planos de las diferentes
cámaras.
131
Manual de Cátedra de Técnica de Registro y Posproducción
● 1 Reproductora
● 1 Grabadora
● 1 Control de Edición
● 1 Mezclador de video digital (con congelado)
● 1 Titulador (optativo)
● 2 Reproductoras
● 1 Grabadora
● 1 Control de Edición para 3 caseteras
● 1 Mezclador de video analógico o digital
● 1 Titulador (optativo)
26
En caso de que el formato original sea digital, este procedimiento no supondría una pérdida de
calidad. Ver 1.5
133
Manual de Cátedra de Técnica de Registro y Posproducción
134
Manual de Cátedra de Técnica de Registro y Posproducción
edición, sino que pueden pasar días, incluso años, desde que el video es
editado hasta que se lo copia a una cinta definitiva.
El hardware necesario para una isla de edición es similar al de una
computadora personal: un CPU27, un monitor, un teclado y un mouse. Dentro
del CPU se encuentran la placa madre, la placa de audio, la placa de video
que controla el monitor y el disco rígido. Para que esta computadora sea una
isla de edición digital para formatos analógicos, es imprescindible que cuente
con una placa capturadora de video28, capaz de realizar la conversión
analógica digital y viceversa. Esta placa tiene conexiones de entrada y salida
de video (analógicas y/o digitales) para ser conectada a las caseteras
reproductoras y grabadoras. Para formatos digitales, es posible capturar el
material solo por conexión de datos (Firewire, USB, Card Reader, etc).
Con respecto al software, o programas necesarios para la edición, la
computadora debe contar con un sistema operativo (WINDOWS, MAC OS,
LINUX, etc) y un programa para editar video (Premiere, Final Cut, Edius,
Vegas, Avid, etc29), además de los que eventualmente se necesitan para
procesar el audio, la gráfica y los efectos especiales.
El primer paso para la edición de video digital es la captura de video.
Para video analógico, se debe conectar la fuente de videocasetera, cámara,
etc a la placa capturadora de la isla. La señal de video analógica proveniente
de la fuente, es convertida en señal digital de video por la placa y luego, en
caso de que el formato lo requiera, es comprimida para ser almacenada
magnéticamente en el disco rígido. Una vez allí, los programas de edición
pueden acceder a estas tomas de video y procesarlas según la necesidad del
editor. Para formatos de video digital, la captura se realiza por conexión de
datos, ya sea por Firewire, USB o Card Reader (Lector de Tarjetas). De esta
forma, la información digital pasa de la cámara o la casetera, directamente al
disco rígido.
Los programas de edición digital suelen tener un entorno gráfico que
facilita las operaciones de edición, ya que podemos “ver” las tomas de video
como si se trataran de fotogramas de película. A estas tomas, que en la jerga
se las conoce como “clips”, se las puede recortar, mover, pegar, separar,
alargar, acortar, ralentizar o acelerar.
Es importante comprender que la información de las tomas de
video permanece inalterada en el disco rígido. El programa solo realiza
una serie de operaciones con los datos de esas tomas y construye, para sí
mismo, una EDL. Es decir, la edición no se realiza efectivamente sino que se
realiza de forma “virtual”, en el cerebro digital de la computadora; pero la
información grabada en el disco permanece tal como se guardó en el
momento de la captura. Es por esto que resulta extremadamente sencillo
hacer y rehacer cuantas veces queramos la edición, sin alterar la calidad del
material con el que estamos trabajando.
Cuando la edición está concluida, se conecta la placa capturadora de
la isla con la casetera grabadora y se reproduce el video desde la
27
Central Processing Unit, o Unidad Central de Procesamiento
28
No debe confundirse con la placa de video que controla el monitor
29
Entre los programas semi profesionales más difundidos. Los sistemas profesionales tienen software
específico de cada marca.
135
Manual de Cátedra de Técnica de Registro y Posproducción
computadora. La señal digital que sale del disco rígido (según el orden de
tomas de la EDL del programa), es descomprimida y convertida nuevamente
en señal analógica por la placa y es grabada por la casetera, obteniendo así
el video editado.
30
Tomando como referencia lo que existe en el mercado a Julio del 2010
31
De ahora en más nos dedicaremos, salvo que se indique, a las computadoras IBM compatible, ya que
las MAC de Apple vienen preconfiguradas de fábrica y cumplen ciertos estándares que las hace ser
pensadas como un todo y no como la suma de partes como las PC
136
Manual de Cátedra de Técnica de Registro y Posproducción
137
Manual de Cátedra de Técnica de Registro y Posproducción
Fig: Memorias DDR4 con disipador y ventilación Corsair (imagen del sitio
web)
138
Manual de Cátedra de Técnica de Registro y Posproducción
140
Manual de Cátedra de Técnica de Registro y Posproducción
141
Manual de Cátedra de Técnica de Registro y Posproducción
Fig : Ventana de carga de datos por teclado para Captura por Lotes
del Adobe Premiere
142
Manual de Cátedra de Técnica de Registro y Posproducción
12.1. INTRODUCCIÓN
En la actualidad se hace cada vez más factible grabar producciones
audiovisuales en formatos de video de alta definición (HD). Hay una
interesante oferta de cámaras que registran video en estos formatos, desde
el HDV que en realidad es un formato hogareño, hasta el XDCAM EX y el
DVCPRO HD (P2) considerados formatos prosumer, pasando por las DSRL
como las Canon y Nikon.
Pero la posproducción de estos formatos acarrea dudas y complicaciones
mucho mayores que en el caso de los formatos de definición estándar (SD).
Sobre todo, cuando el objetivo final de nuestro audiovisual es la emisión por
televisión estándar o la distribución en DVD, ya que esto implica que en algún
momento del proceso habrá que pasar de HD a SD con la menor pérdida de
calidad posible.
El software utilizado en esta guía es el Premiere y el After Effects de Adobe,
pero el proceso es fácilmente extrapolable a cualquier programa de edición
y/o de composición digital de imagen. Esta guía tiene la intención de
funcionar como una recomendación basada en experiencia personal como
profesional y docente, y no pretende ser el único ni el mejor método para
encarar este proceso.
143
Manual de Cátedra de Técnica de Registro y Posproducción
12.3.1 HDV
144
Manual de Cátedra de Técnica de Registro y Posproducción
12.3.2 XDCAM EX
145
Manual de Cátedra de Técnica de Registro y Posproducción
12.3.3 DVCPRO HD
146
Manual de Cátedra de Técnica de Registro y Posproducción
147
Manual de Cátedra de Técnica de Registro y Posproducción
148
Manual de Cátedra de Técnica de Registro y Posproducción
Hasta la edición CS4, el After Effects no contaba con un preseteo propio para
el XDCAM EX. Pero como se vio anteriormente, solo se debe encontrar uno
que cumpla con las características de ese formato. Se encuentran esas
características dentro del grupo de preseteos identificados como HDTV. Solo
hay que asegurarse de elegir el correcto dependiendo del tipo de video que
se haya grabado en XDCAM EX. Este preseteo es absolutamente
independiente de la calidad de registro, por lo que sirve tanto para HQ como
para SP.
12.5. POSTPRODUCCIÓN EN HD
Una vez que las tomas están ordenadas en la composición, podemos
comenzar la posproducción propiamente dicha. Contar con las tomas por
separado nos posibilita realizar un tratamiento de color independiente para
cada una de ellas, además de realizar efectos visuales solo en las tomas que
lo requieran.
Una consideración con respecto a la gráfica animada que se desee
incorporar al audiovisual, ya sean textos, fotografías o dibujos. Hay que tener
muy en cuenta que las dimensiones del video con el que se trabaja son
cuatro veces mayores que en el video SD, por lo que si antes bastaban
imágenes de 800x600 píxeles para tener una calidad aceptable, para HD no
se debería trabajar con imágenes más pequeñas que 2000x1500 píxeles
para asegurar una calidad propia del HD. Aún mayores si se precisa hacer
panorámicas digitales o trabajarlas con acercamientos de cámara 3D. Lo
recomendable, en cuestión de imágenes, es trabajar con formatos de curvas
149
Manual de Cátedra de Técnica de Registro y Posproducción
como los del Illustrator, ya que esto permitiría ampliar los gráficos todo lo
necesario sin perder calidad.
150
Manual de Cátedra de Técnica de Registro y Posproducción
151
Manual de Cátedra de Técnica de Registro y Posproducción
152
Manual de Cátedra de Técnica de Registro y Posproducción
153
Manual de Cátedra de Técnica de Registro y Posproducción
33
En https://marketing4ecommerce.net/author/susana-galeano/
154
Manual de Cátedra de Técnica de Registro y Posproducción
Principio 5: Serialidad
La historia transmedia se deberá poder fragmentar en pequeñas unidades
para poder ser distribuida. Esto nos recuerda las series televisivas, donde los
espectadores esperan con impaciencia el próximo capítulo, los comics
seriados que se venden por entregas y las series radiofónicas.
En nuestro caso, la historia transmedia se caracteriza no solo por su
serialidad, sino porque los fragmentos se expandirán en distintos medios.
Principio 6: Subjetividad
Con la subjetividad, se integra la posibilidad de que el usuario pueda tomar
la historia con diferentes puntos de vista y percepciones sobre los
personajes con lo que incluso se puede ampliar la narrativa.
En Twitter suelen aparecer cuentas de personajes de historias transmedia, y
mientras que algunas de ellas son oficiales, otras incluso son realizadas por
los mismos fans… lo que nos lleva al:
155
Manual de Cátedra de Técnica de Registro y Posproducción
156