Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Supervisión Tecnica de Rodaje
Supervisión Tecnica de Rodaje
La
idea es que cuentes todos los procesos de postproducción y las decisiones que
tomaron en cada caso.
Por ejemplo: ¿por qué eligieron esa cámara? ¿Qué ventajas y desventajas tiene? Y así
con cada etapa del flujo de trabajo.
Los dos temas más importantes son el formato raw y la compresión. Las preguntas
sobre raw podrían ser:
Y sobre compresión:
Fincher cropea al final, en sus películas, pero graba siempre con margen, de
esa manera se toman menos decisiones en rodaje.
Desventajas de utilizar archivos de 4K, 8k: Se utiliza mucho peso y hay
más limitaciones con digitales. Se sigue inventando formatos de mayor
tamaño por el “fetiche de hacer todo más grande”.
Profundidad de color
Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits
(224 colores, 8 bits por canal de color) o con 48 bits (248 colores);
en fotografía avanzada y digitalización de imágenes profesional se utilizan
profundidades aún mayores, expresadas siempre en valores de bits/canal de
color en lugar de la suma de los tres canales. Los primeros son los más
utilizados, reservando el de 8 bits para imágenes de alta calidad pero en
tonos de grises, o bien con 256 colores en paleta seleccionada para baja
calidad colorimétrica; el de 24 bits es el más común y de alta calidad, se lo
utiliza en la mayoría de las imágenes fotográficas.
Relación de aspecto
La relación dimensional, a menudo llamada relación de aspecto de una imagen, es la
proporción entre su ancho y su altura. Se calcula dividiendo el largo entre la altura de la
imagen visible en pantalla, y se expresa normalmente como «X:Y».
La relación de aspecto de una pantalla de televisión tradicional fue, aproximadamente
hasta 2009, de 4:3, que también se puede expresar como 1.33:1, que a simple vista puede
parecer cuadrada, pero no lo es. Los televisores actuales (incluyendo los de alta
definición), conocidos inicialmente como "panorámicos", suelen tener una relación de
aspecto de 16:9 ( 1.77:1 es decir 1,77 veces más ancho que alto). Esta es la relación
utilizada por los DVD, lo que en una pantalla tradicional deja dos franjas negras arriba y
abajo de la imagen.
En el cine las relaciones de aspecto más usadas son 1.85:1 y 2.39:1.
14:9 (1.55:1)
• Un estándar que no es ni ancho ni cuadrado, lo que permite a todos
los televisores 4:3 y 16:9 recibir una transmisión.
16:10 u 8:5 (1.60:1)
• El estándar usado hace años por los portátiles de 15,6" y algunos
otros aparatos; es ancho como el 16:9.
• El estándar también por el cine, pero no se debe confundir con la
relación de aspecto de 70 mm.
16:9 (1.77:1)
• Es el estándar usado por la televisión de alta definición y en
computadoras a partir aproximadamente de 2009. Es ancho y normalmente se le
suele llamar panorámico o widescreen, aunque todas las relaciones (a excepción
de la 1:1) son widescreen.
• Es equivalente a 1.77:1.
• El ángulo de la diagonal es de 29,36°.
1.85:1 (17:9)
• Ligeramente más ancho que el popular 16:9, es el estándar más
extendido en salas de cine.
• Introducido por Universal Pictures en 1953.
2.00:1 (18:9)[editar]
• Este formato conocido como Univisium fue creado en 1998 por el
director de cine Vittorio Storaro como solución para unificar el 21:9 de cine y el 16:9
de las pantallas y televisores bajo un mismo estándar. Algunas marcas
de teléfonos inteligentes como Xiaomi, OnePlus, Huawei y Lg han utilizado esta
relación de aspecto para sus productos.
2.33:1 (21:9)[editar]
• El estándar usado en las salas de cine y filmación de algunas
películas.
• En 2009 la compañía PHILIPS lanzó un televisor llamado CINEMA
21:9, diseñado para mostrar en Cinemascope con ausencia de las barras negras
en la parte superior e inferior de la pantalla durante la visualización de contenido. 1
• Recientemente la marca sur coreana LG lanzó un monitor de
computadora con este aspecto.2
• En 2019 la marcas de teléfonos Motorola y Sony lanzaron al
mercado un smartphone con este formato; Motorola One Vision 3 y Sony Xperia 1.4
2.39:1 (12:5)[editar]
• 35mm anamórfico a partir de 1970. Relación de aspecto anamórfico
actual (pantalla ancha) que se ve en el cine. Normalmente conocido en el mercado
como formato Panavision o CinemaScope. Especificado como 2.40:1 para
estrenos de películas en discos Blu-ray (1920x800 de resolución).
2.55:1 (23:9)[editar]
• Relación de aspecto original de CinemaScope antes de añadir el
sonido óptico a la película en 1954. Esta fue también la relación de aspecto
de Cinemascope 55.
Camaras y propiedades:
F900 Camara:
Digitalización de imagen
Las IMÁGENES DIGITALES son fotos electrónicas tomadas de una
escena o escaneadas de documentos -fotografías, manuscritos, textos
impresos e ilustraciones. Se realiza una muestra de la imagen digital y se
confecciona un mapa de ella en forma de cuadrícula de puntos o elementos
de la figura (píxeles). A cada píxel se le asigna un valor tonal (negro,
blanco, matices de gris o color), el cual está representado en un código
binario (ceros y unos). Los dígitos binarios ("bits") para cada píxel son
almacenados por una computadora en una secuencia, y con frecuencia se
los reduce a una representación matemática (comprimida). Luego la
computadora interpreta y lee los bits para producir una versión analógica
para su visualización o impresión.
Sistema digital-analógico.
• Cuando una señal digital es atenuada o experimenta
perturbaciones leves, puede ser reconstruida y amplificada mediante
sistemas de regeneración de señales.
• Cuenta con sistemas de detección y corrección de
errores, que se utilizan cuando la señal llega al receptor; entonces
comprueban (uso de redundancia) la señal, primero para detectar
algún error, y, algunos sistemas, pueden luego corregir alguno o
todos los errores detectados previamente.
• Facilidad para el procesamiento de la señal. Cualquier
operación es fácilmente realizable a través de cualquier software de
edición o procesamiento de señal.
• La señal digital permite la multigeneración infinita sin
pérdidas de calidad.
• Es posible aplicar técnicas de compresión de datos sin
pérdidas o técnicas de compresión con pérdidas basados en la
codificación perceptual mucho más eficientes que con señales
analógicas.
Inconvenientes de la señal digital
• Se necesita una conversión analógica-digital previa y
una decodificación posterior, en el momento de la recepción.
• Si no se emplean un número suficiente de niveles de
cuantificación en el proceso de digitalización, la relación señal ruido
(SNR) de la señal resultante se verá reducida.
Cuantificación
En el proceso de cuantificación se mide el nivel de voltaje de cada una de
las muestras. Consiste en asignar un margen de valor de una señal
analizada a un único nivel de salida. Incluso en su versión ideal, añade
como resultado una distorsión no deseada a la señal de entrada: el ruido de
cuantificación.
Codificación
La codificación consiste en traducir los valores obtenidos durante la
cuantificación al código binario. Hay que tener presente que el código
binario es el más utilizado, pero también existen otros tipos de códigos que
también son utilizados.
Ejemplo de digitalización
Compresión
La compresión consiste en la reducción de la cantidad de datos a transmitir
o grabar, pues hay que tener en cuenta que la capacidad de almacenamiento
de los soportes es finita, de igual modo que los equipos de transmisión
pueden manejar sólo una determinada tasa de datos.
Por eso, la compresión del sonido y la imagen para Internet se basa más en
el conocimiento del funcionamiento de nuestros sentidos. Son técnicas que
asumen pérdidas de información, de ahí su nombre de compresión con
pérdidas, pero están diseñados de modo que las “pérdidas” no sean apenas
percibidas por los seres humanos.
Buses de transferencia de datos
Ancho de banda
Transferencia de datos
Alimentación de electricidad
USB 1
12
1,5
Si
USB 2
480
60
Si
USB 3
5000
400
Si
Firewire 400
400
50
Si
Firewire 400
800
100
Si
E sata
3000
300
No
Thunderbalt
6000
600
No
Thunderbalt
2
10000
1250
Si
Thunderbalt
3
20000
2500
Si
PC le flash
40000
5000
Si
Storage
9600
1200
No
Ethernet
10/100/1000
1,25 /12,5/12,5
No
Firewire: Para disco rigido (mac)
E-sata: Disco rigido de una computadora
Codecs
Codecs
Codecs data rate
Data rate
DV
Canon XL1
25 mb
XDCAM HD
Sony x160
50 mb
Red Code
Red Dragon
123 mb
Arri Raw (3,5)
Alexa
276 mb
Pro Res 1T
Apple
102 mb
DNX HD36
Avid
36 mb
DPX (4K 16 bits)
Adyssey 70
1,3 gb/seg
• Secuencia de cuadro: Todos los fotogramas los guardo
en un formato (lo menos complimido posible).
Precios de disco duro / Ind rate `costo de suedo de hilos de edición, color,
sonido (CXR - formato)
Red gamma --- Red color /// Digital intermediate (FX y color) // No debe
haber saltos de color en el empate de las tomas // El CGI no limita al
colorista, no molesta su trabajo // La postproducción de una película
comercial puede tardar hasta 1 año.
DFX:
• Pasa a 2048 x 880 el proyecto del colorista (como pasa
en montaje)
• Se extrae de 4k a 2k = 2048x880
Halation = Efecto de luz en alto contraste
Nodos:
-Fidelidad espacial (puede ser pésima para factores externos) =/ concepto
de resolución
-Sony presenta una compresión temporal – XHX (Se coloca un nombre
único “por las dudas”)
Preguntas puntuales del final:
• ¿Qué significa que una cámara graba raw?
El formato de imágenes raw (entiéndase como "bruto" o "en crudo"
siguiendo el término anglosajón para denominar a los brutos de cámara)2 es
un formato de archivo digital de imágenes que contiene la totalidad de los
datos de la imagen tal y como ha sido captada por el sensor digital de la
cámara, ya sea fotográfica u otro tipo
El formato raw generalmente lleva aplicada compresión de datos sin
pérdida de información.
La red graba RAW pero puede tener compresión/ Básicamente es como
“hacer un zip” de la imagen grabada. (raw: negativo original)
Sin embargo, el formato raw nos muestra la foto tal y como el sensor la
capturó, sin ningún filtro de mejora. Se verán colores más neutros, menos
saturados, un enfoque más blando y una iluminación que dependerá de la
exposición que hicimos, más visiblemente sobre o subexpuesta si fuera el
caso. Sin embargo, una foto en jpg, al estar en modo RGB, tiene 24
bits/píxel (8 por canal) frente a los 30 a 48 bits/píxel (10 a 16 por canal)
que suele contener la imagen obtenida al revelar el archivo raw. Los 24 bits
del RGB serán suficientes para ver toda la gama de colores posibles, pero
serán claramente insuficientes cuando queramos realizar ciertos ajustes
a la imagen (iluminación, corrección de tonalidades, etc.).
Los archivos raw se conocen también como negativo digital. Las cámaras
que soportan archivos raw normalmente vienen con su propio software para
la conversión de raw a otros formatos como TIFF o JPEG.
Para saber cómo es percibido un color, hay que tener en cuenta que existen
tres tipos de conos con respuestas frecuenciales diferentes, y que tienen
máxima sensibilidad a los colores que forman la terna RGB. Aunque los
conos, que reciben información del verde y el rojo, tienen una curva de
sensibilidad similar, la respuesta al color azul es una veinteava (1/20) parte
de la respuesta a los otros dos colores. Este hecho lo aprovechan algunos
sistemas de codificación de imagen y vídeo, como el JPEG o el MPEG,
«perdiendo» de manera consciente más información del componente azul,
ya que el ser humano no percibe esta pérdida.
Señal de luminancia
La sensación de luminosidad viene dada por el brillo de un objeto y por su
opacidad, pudiendo producir dos objetos con tonalidades y prismas
diferentes la misma sensación lumínica. La señal de luminancia es
la cuantificación de esa sensación de brillo. Para mantener la
compatibilidad entre las imágenes en blanco y negro y las imágenes en
color, los sistemas de televisión actuales (PAL, NTSC, SECAM) transmiten
tres informaciones: la luminancia y dos señales diferencia de color.
Por otro lado, los fabricantes de CMOS argumentan que los sensores CCD
necesitan una electrónica externa compleja que eleva el coste. En la
práctica, es posible encontrar implementaciones de alta calidad de ambas
tecnologías.
Existen dos tipos de imágenes digitales y cada uno de ellos tiene unas
características bien diferenciadas:
• Los Mapas de Bits, también llamados imágenes raster o
rasterizadas. Este tipo de imagen digital es el más usado. Casi todas
(por no decir todas) las imágenes que nos descargamos de internet
están en este formato.
Las imágenes en mapa de bits están formadas por píxeles. A cada
píxel se le asigna un color. Es por ello, que a mayor resolución,
mayor calidad tendrá la imagen. Pongo un ejemplo para que quede
todo más claro. Supongamos que tengo una imagen de 750 x 420 px.
Esto quiere decir, que la imagen tendrá 750 píxeles verticales y 420
horizontales.
El mayor problema de las imágenes en Mapa de Bits es el pixelado
que se produce al agrandarlas, ya que el editor de imágenes se
“inventa” los píxeles que se añaden.
Este tipo de imagen digital se suele usar en fotografías, ilustraciones
digitales o gráficos para web. En definitiva, se usan cuando se quiere
obtener una gran calidad del detalle.
El editor más conocido para las imágenes en Mapa de Bits es
Photoshop
• Las imágenes vectoriales no están formadas por
píxeles, por lo que son independientes de la resolución. Esto quiere
decir que al agrandar o menguar la imagen no se producirá un
pixelado.
Los gráficos vectoriales están formados por los llamados puntos de
control que poseen curvas entre ellos y que son definidas gracias a
una fórmula matemática que el editor de imágenes se encarga de
calcular.
Los vectores son muy utilizados en gráficos de baja complejidad
como logotipos, iconos, composiciones tipográficas… Los
programas más usados para crear y modificar los gráficos
vectoriales son Adobe illustrator y Corel Draw.
Cabe mencionar que una imagen vectorial puede ser convertida a mapa de
bits de forma fácil pero es mucho más difícil convertir una imagen en mapa
de bits a vectores (sobre todo si tratamos de hacerlo de forma automática).
Es muy complicado obtener la calidad de una imagen rasterizada en
vectores, siempre se pierden detalles.
Compresión en los formatos de imagen: LOSSY (con
pérdidas) y LOSSLESS (sin pérdidas)
La mayoría de los formatos de imagen se presentan con cierta compresión
para ahorrar espacio. Ésta puede ser de dos tipos: LOSSY (con pérdidas) y
LOSSLESS (sin pérdidas).
Las imágenes con una compresión sin pérdidas (LOSSLESS) son
capaces de reconstruir la imagen a su estado original. No se producen
pérdidas.
Por el contrario, las imágenes con una compresión con pérdidas
(LOSSY) se aproximan a la imagen original, aunque no es exactamente
igual (en muchas ocasiones esta pérdida no es notable). Ocupan menos
espacio. Un ejemplo es querer reducir la cantidad de colores de una
fotografía para que el archivo pese menos. Se emplean mucho en internet,
para que pesen poco y sea fácil y rápido su descarga.
Tipos de formatos de imágenes rasterizadas (Mapas de Bits)
Después de hablar sobre la diferencia entre Mapa de Bits y vector ha
llegado la hora de hacer una pequeña lista con las extensiones de imágenes
más usadas en cada uno de estos campos.
Voy a empezar enumerando los tipos de formatos de imágenes
rasterizadas (Mapas de Bits) más comunes:
Formato de imagen JPEG / JPG
La extensión de imagen .jpg o .jpeg es de lo más usados, sobretodo en
internet, en fotografías o en gráficos web. Es un formato de imagen con
pérdidas y pesa poco aunque en resoluciones pequeñas puede aumentar
notablemente su pixelación.
Se recomienda usar el formato de imagen JPEG o JPG para imprimir
archivos en alta resolución (pero con una baja compresión para evitar
demasiadas pérdidas). También puedes usarlo para enviar una miniatura o
vista previa de tu trabajo a un cliente por email. Así protegerás tu imagen y
evitarás que pueda robarla sin haber recibido antes tu pago.
La extensión de imagen .gif
El formato de imagen GIF es sin pérdidas y se usa casi exclusivamente
para web ya que permite crear pequeñas animaciones. Últimamente ha
adquirido gran popularidad gracias a los memes.
A pesar de que Gif es un formato de imagen sin pérdidas, se puede guardar
en un formato reducido para menguar su tamaño.
No obstante no se recomienda usar gif para fotografías de alta calidad ni
para imprimir, ya que solo tiene 256 colores.
Formato de imagen PNG
El formato de imagen PNG no posee pérdidas y puedes añadir una
transparencia con degradado al fondo (GIF solo permite una transparencia
pura). Es muy común actualmente. Es ideal para gráficos web como iconos
y funcionan muy bien con una paleta de color reducida.
Con PNG también puedes guardar fotografías con una calidad alta, no
obstante se recomienda usar .jpeg para esto porque con .png el tamaño será
mucho mayor.
La extensión de imagen .tiff / .tif
El archivo de imagen TIFF es sin pérdidas y ofrece mucha calidad a las
fotografías, aunque suele ser bastante pesado. También puedes usarlo para
escanear en alta calidad. Sin embargo, no se recomienda en gráficos web,
ya que la extensión de imagen .tiff o .tif está optimizada para imprimir.
El formato de imagen RAW
El formato de imagen RAW es totalmente diferente a los vistos
anteriormente. Se trata de archivos “no procesados” que se obtienen
directamente desde una cámara (por lo general una cámara de fotos
profesional) o de un sensor de escaner. Normalmente, las imágenes
(como .jpg o .png) son procesadas ya que se les ajusta el color, la
exposición…
Las imágenes RAW, por el contrario, almacenan los datos no procesados y
los procesados en dos archivos totalmente independientes. Así, puedes
editar la imagen sin tener miedo de las pérdidas o de “destruir” la original.
Por lo tanto, la extensión de imagen .raw se usa mucho en fotografía
profesional para editar las imágenes. Se recomienda convertir a cualquier
otro archivo una vez hayamos terminado de editar ya que es un archivo
muy pesado. Así, si queremos subir la imagen a internet, se recomienda
hacerlo en .jpg.
• ¿Qué es la debayerización?
Demosaico de Bayer
Cuando la imagen a color en formato RAW es captada, todavía le falta ser
procesada. El demosaico de Bayer es un proceso algorítmico cuya función
es interpretar la señal y asignar finalmente un color RGB a cada píxel.
Dependiendo del tipo de análisis (cantidad de bloques de celdas), se
determina la cantidad de píxeles efectivos y reales que un sensor posee.
Los algoritmos de captura de las cámaras comerciales generalmente
incluyen los siguientes pasos:
1) Adquisición de la señal
2) Debayerización
3) Reducción de ruido
4) Compresión (a jpeg, por ejemplo)
Cuando en fotografía decimos que es mejor sacar en RAW, es porque
podemos interrumpir este algoritmo luego de la parte de adquisición. Amén
de que el proceso de reducción de ruido (ni hablar de la compresión)
eliminan datos a veces muy valiosos, durante el proceso de debayerizado
también se pierde cierta información. La ventaja de tener los datos crudos
es que no dependemos del algoritmo de debayerización de la cámara, el
cual dependiendo de la calidad de la cámara, puede no ser muy bueno.
Por otra parte, sobre todo el método de VNG, donde hay que calcular varias
derivadas por cada pixel, a veces no pueden ser utilizados en los
procesadores gráficos de las cámaras digitales y por ello se prefiere trabajar
en RAW para hacer el procesado en una computadora y así aplicar
algoritmos mejores.
Calidad de vídeo
La mayoría de las compresiones de vídeo son con pérdida, se realizan con
la premisa de que muchos de los datos presentes antes de la compresión no
son necesarios para percibir una buena calidad de vídeo. Por ejemplo,
los DVD usan una codificación estándar llamada MPEG-2 que puede
comprimir de 15 a 30 veces los datos de un vídeo, mientras sigue
produciendo una calidad de imagen generalmente considerada de alta
calidad para la definición estándar. La compresión de vídeo es una
compensación entre el espacio de almacenamiento, la calidad del vídeo y el
costo del hardware requerido para descomprimir el vídeo en un tiempo
razonable. Sin embargo, si el vídeo es sobre-comprimido con pérdida, se
pueden hacer visibles (y en ocasiones hasta distraer) las distorsiones de
imagen.
La solución: Compresión
La solución lógica a este problema es la compresión digital. Compresión
implica disminuir el número de parámetros requerido para representar la
señal, manteniendo una buena calidad perceptual. Estos parámetros son
codificados para almacenarse o transmitirse. El resultado de la compresión
de video digital es que se convierte a un formato de datos que puede
transmitirse a través de las redes de comunicaciones actuales y ser
procesadas por computadoras.
Para entender el proceso de compresión es importante reconocer las
diferentes redundancias presentes en los parámetros de una señal de video:
• Espacial
• Temporal
• Psicovisual
• Codificación
La redundancia espacial ocurre porque en un cuadro individual los pixeles
cercanos (contiguos) tienen un grado de correlación, es decir, son muy
parecidos (por ejemplo, en una imagen que muestre un prado verde bajo un
cielo azul, los valores de los pixeles del prado serán muy parecidos entre
ellos y del mismo modo los del cielo). Los pixeles en cuadros consecutivos
de una señal también están correlacionados, determinando
una redundancia temporal (si la señal de video fuera un recorrido por el
prado, entre una imagen y la siguiente abría un gran parecido). Además, el
sistema de visión humano no trata toda la información visual con igual
sensibilidad, lo que determina una redundancia psicovisual.
El ojo es también menos sensible a las altas frecuencias. Por lo tanto, un
criterio que toma mucha importancia es estudiar cómo percibe el ojo
humano la intensidad de los pixeles para así, dar mayor importancia a unos
u otros parámetros.
Finalmente, no todos los parámetros ocurren con la misma probabilidad en
una imagen. Por lo tanto resulta que no todos necesitarán el mismo número
de bits para codificarlos, aprovechando la redundancia en la codificación.
Durante los últimos años han emergido diferentes estándares de
compresión, incluyendo algunos propietarios, dirigidos a diversas
aplicaciones con diferentes necesidades de velocidad. MPEG, Moving
Picture Expert Group, es un comité del organismo ISO e IEC que es
responsable de los estándares MPEG-1, MPEG-2, y los actuales MPEG-4
y MPEG-7 aún en fase de especificación.
Los estándares MPEG son genéricos y universales en el sentido que
simplemente especifican una sintaxis de la trama para el transporte de los
datos obtenidos mediante los algoritmos de compresión de video y audio,
no estando definidos los procesos de compresión (lo que permite plena
libertad en su realización).
MPEG
En la especificación MPEG-1 y MPEG-2 existen tres partes diferenciadas,
llamadas, Sistema, Video y Audio. La parte de video define la sintaxis y la
semántica del flujo de bits de la señal de video comprimida. La parte de
audio opera igual, mientras que la parte Sistema se dirige al problema de
la multiplexación de audio y video en un único flujo de datos con toda la
información necesaria de sincronismo, sin desbordar los buffers del
decodificador.
MPEG-2
Formato AVI
Es, probablemente, uno de los formatos contenedores más conocidos. Es
uno de los formatos más populares, quizá por su amplia utilización en
plataformas Windows. Al ser uno de los más básicos, sólo permite canales
de audio y de video.
Entre los códec que podemos encontrarnos están el códec DivX y el XViD.
Formato MPG
Más que tratarse de un formato, se trata de una especificación,
estandarizada por el Moving Picture Experts Group (MPEG). Los archivos
MPG se utilizan para crear películas que se distribuyen en Internet y,
dependiendo de su compresión, nos encontramos con las versiones MPG-1
o MPG-2.
Formato MP4
La especificación MPEG-3 fue interrumpida y nunca llegó a desarrollarse,
pasando más tarde a definirse el estándar MPEG-4.
Los códecs que suelen utilizarse son el x264.
Formato HEVC
La especificación MPEG-H/HEVC (High Efficency Video Coding) es la
que se considera H.265, y duplica el rendimiento de su predecesor,
soportando resoluciones que podrían llegar a 8K (UHDTV).
Formato ASF
Es un formato muy similar a AVI, muy creado y utilizado por Microsoft
desde el año 1997 en su famoso programa Windows Media. Son aquellos
videos con la conocida extensión WMW (Windows Media Video).
En esta ocasión, el códec utilizado era el WMV.
Formato MOV
Fue creado por Apple en el año 2001, y estaba asociado a su
aplicación QuickTime.
El códec utilizado es el h264, que utiliza una versión propietaria de MPEG-
4, junto al códec de audio AAC.
Formato FLV
Es el formato Flash Video, creado por adobe 2002. Se hizo muy famoso
porque permitía con facilidad transmitir contenido de video por Internet,
llegando a ser utilizado por plataformas como Youtube para
realizar streaming vía web. El códec que utiliza FLV es Sorenson Spark.
Códec
El códec es el código específico que se utiliza para la
codificación/decodificación de los datos. Precisamente, la palabra Códec es
una abreviatura de Codificador-Decodificador.
Los archivos de video son diferentes a los otros: para decirlo en pocas
palabras, en ellos hay un contenedor y un contenido. Imagina una cinta de
VHS o un DVD: el contenedor vendría a ser el cassette que lleva la cinta
adentro o el DVD físico que contiene las pistas. El contenedor guarda
distintos tipos de datos, entre ellos el video y sirve para sincronizarlos,
activar unas pistas y desactivar otras (subtítulos, pistas secundarias de
audio).
El contenido es la información que se aloja en él, en este caso, una
corriente de unos y ceros que forma nuestro vídeo y que deberá ser
decodificada. De esta tarea se encargará un códec.
La palabra códec viene de codificador/decodificador y es una pieza de
software que sirve a nuestro reproductor para mostrar correctamente la
información que hay en esa corriente de unos y ceros. Un buen códec
comprime la información lo máximo posible sin que el video final pierda
calidad.
El formato del archivo es lo que llamamos el tipo de archivo, por ejemplo
un .avi puede tener información codificada con un códec Xvid o AC3. Los
códecs y los archivos van relacionados por aspectos técnicos y comerciales,
es decir que no necesariamente pueden combinarse todos con todos.
H.264
También conocido como MPEG-4 AVC, este códec provee alta calidad de codificación
y decodificación para aplicaciones de transmisión de video en tiempo real, a ratios que
van desde un cuarto a la mitad del tamaño de los archivos de los formatos de video
previos. El tamaño de archivo logrado es 3 veces más pequeño que los logrados con los
códecs MPEG-2.
Logra imágenes de buena calidad tanto a altos como a bajos ratios y una mejor calidad
de imagen que MPEG-2, MPEG-4 o H.263. Es dos veces más eficiente que MPEG-4.
Es fácil de integrar y cubre un amplio rango de formato de imágenes. Entre sus
desventajas encontramos que requiere un tiempo de codificación mayor y que los
acuerdos de licencia son algo complicados.
MPEG-1
Este códec da una excelente calidad de imagen a ratios de CD-ROM. Uno de los usos
más populares del MPEG-1 es el VCD, o video CD llamado «libro blanco». MPEG
incluye compresión de video y audio. El mayor problema que hay con el MPEG son sus
altos requerimientos para la reproducción, lo que ha hecho que este códec no tenga gran
acogida.
MPEG-2
Está optimizado para calidad de difusión para video digital y ofrece muy buena calidad
de imagen y resolución. Es el estandar de vídeo principal para DVD-Video. Se requiere
pagar la licencia para distribuir video con MPEG-2.
DiVx
Su nombre viene de la marca que lo ha creado, Divx Inc. y por lo tanto es un códec
comercial, por el uso del cual hay que pagar. Este códec utiliza compresión lossy (con
pérdida) MPEG-4 Part 2 y es totalmente compatible con MPEG-4-Advanced Simple
Profile, MPEG-4 ASP. Es bastante simple de utilizar y es popular debido a su facilidad
para comprimir largos segmentos de video en tamaños pequeños manteniendo una
calidad visual relativamente alta.
x264
En marzo de 2012, en forma conjunta varias comunidades de uploaders decidieron
utilizar este códec y dejar de usar Xvid/avi, por la mayor calidad y compresión a
resoluciones SD. X264 es una implementación abierta y disponible de forma open
source del estándar H.264. Ofrece la mejor calidad al menor tamaño de archivo posible.
Flujo de trabajo:
• Etapas de la producción audiovisual,
desde el registro hasta la exhibición.