Está en la página 1de 34

Si tenés el TP de workflow, repasalo porque lo tomamos como punto de partida.

La
idea es que cuentes todos los procesos de postproducción y las decisiones que
tomaron en cada caso.

Por ejemplo: ¿por qué eligieron esa cámara? ¿Qué ventajas y desventajas tiene? Y así
con cada etapa del flujo de trabajo.

Los dos temas más importantes son el formato raw y la compresión. Las preguntas
sobre raw podrían ser:

¿Qué significa que una cámara graba raw?

¿Cómo funciona el filtro bayer? ¿Qué es la debayerización?

Y sobre compresión:

¿Qué es la compresión espacial?

¿Qué es la compresión temporal?

¿Qué codecs usan una y otra?

¿Para qué sirve un tipo de compresión y otra?


Postproducción: Comienza cuando se decide qué cámara utilizar. La
postproducción se puede pensar en el guion. Influye en el workflow de
producción. Formatos (RAW, H264, ETC), contenedor (extensión como
por ejemplo .mov), el filtro Bayer, y CODEXS (DV, XDCAMHD, etc)
Proceso = subproceso: El proceso de divide en pasos que interactúan entre
ellos.
Cambios en el nombre del archivo fecha y nombre – apellido (ROTULO: AAMMDD – nombre – TP001) // Es un TP que ayuda
con la organización de los archivos del autor.

4 k- Escaneo de la película con muchos efectos especiales. Se utilizan +


bits para las composiciones.
2k – Es utilizado para intermedios digitales- Ej: Color y vuelta

Fincher cropea al final, en sus películas, pero graba siempre con margen, de
esa manera se toman menos decisiones en rodaje.
Desventajas de utilizar archivos de 4K, 8k: Se utiliza mucho peso y hay
más limitaciones con digitales. Se sigue inventando formatos de mayor
tamaño por el “fetiche de hacer todo más grande”.

Metadata: Es información que tiene el IN, el OUT, el tiempo de duración,


etc. El md fundamental es el timecode, encargado de mostrar el framerate y
madre de la mediadata. Si se produce algún defecto se nota más con 4Ka,
que con HDR (HIGH (procesa imágenes que buscan abarcar el mayor
rango de niveles de exposición en todas las zonas) DINAMIC RANGE).
Este formato se acerca a la versión humana real.

Mediadata: Es la data que ordena los datos (la esencia)

Deliverys: Material terminado (para web, podcast, proyectos digitales)


Pixel: Un píxel o pixel,1 plural píxeles (acrónimo del inglés picture
element, ‘elemento de imagen’), es la menor unidad homogénea
en color que forma parte de una imagen digital.
Ampliando lo suficiente una imagen (zoom) en la pantalla de
una computadora, pueden observarse los píxeles que la componen, basta
con ver esta pantalla a través de una gota de agua. Los píxeles son los
puntos de color (siendo la escala de grises una gama de color
monocromática). Las imágenes se forman como una sucesión de píxeles.
La sucesión marca la coherencia de la información presentada, siendo su
conjunto una matriz coherente de información para el uso digital. El área
donde se proyectan estas matrices suele ser rectangular. La representación
del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma
un área homogénea en cuanto a la variación del color y densidad por
pulgada, siendo esta variación nula, y definiendo cada punto sobre la base
de la densidad, en lo referente al área.

En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel


se codifica mediante un conjunto de bits de longitud determinada
(la profundidad de color); por ejemplo, puede codificarse un píxel con
un byte (8 bits), de manera que cada píxel admite hasta 256 variaciones de
color (28 posibilidades binarias), de 0 a 255. En las imágenes llamadas
de color verdadero, normalmente se usan tres bytes (24 bits) para definir el
color de un píxel; es decir, en total se pueden representar unos 224 colores,
esto es 16.777.216 variaciones de color. Una imagen en la que se utilicen
32 bits para representar un píxel tiene la misma cantidad de colores que la
de 24 bits, ya que los otros 8 bits son usados para efectos de transparencia.

Para poder visualizar, almacenar y procesar la información numérica


representada en cada píxel, se debe conocer, además de la profundidad y
brillo del color, el modelo de color que se utiliza. Por ejemplo, el modelo
de color RGB (Red-Green-Blue) permite crear un color compuesto por los
tres colores primarios según el sistema de mezcla aditiva. De esta forma,
según la cantidad de cada uno de ellos que se use en cada píxel será el
resultado del color final del mismo. En el modelo RGB lo más frecuente es
usar 8 bits al representar la proporción de cada una de las tres componentes
de color primarias. Así, cuando una de las componentes vale 0, significa
que ella no interviene en la mezcla y cuando vale 255 (28 – 1) significa que
interviene dando el máximo de ese tono, valores intermedios proveen la
intensidad correspondiente.

Profundidad de color
Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits
(224 colores, 8 bits por canal de color) o con 48 bits (248 colores);
en fotografía avanzada y digitalización de imágenes profesional se utilizan
profundidades aún mayores, expresadas siempre en valores de bits/canal de
color en lugar de la suma de los tres canales. Los primeros son los más
utilizados, reservando el de 8 bits para imágenes de alta calidad pero en
tonos de grises, o bien con 256 colores en paleta seleccionada para baja
calidad colorimétrica; el de 24 bits es el más común y de alta calidad, se lo
utiliza en la mayoría de las imágenes fotográficas.

Relación de aspecto
La relación dimensional, a menudo llamada relación de aspecto de una imagen, es la
proporción entre su ancho y su altura. Se calcula dividiendo el largo entre la altura de la
imagen visible en pantalla, y se expresa normalmente como «X:Y».
La relación de aspecto de una pantalla de televisión tradicional fue, aproximadamente
hasta 2009, de 4:3, que también se puede expresar como 1.33:1, que a simple vista puede
parecer cuadrada, pero no lo es. Los televisores actuales (incluyendo los de alta
definición), conocidos inicialmente como "panorámicos", suelen tener una relación de
aspecto de 16:9 ( 1.77:1 es decir 1,77 veces más ancho que alto). Esta es la relación
utilizada por los DVD, lo que en una pantalla tradicional deja dos franjas negras arriba y
abajo de la imagen.
En el cine las relaciones de aspecto más usadas son 1.85:1 y 2.39:1.

4:3 ó 12:9 (1.33:1)


• Hasta 2009 fue el estándar utilizado en la televisión; muchas
pantallas de computadora y televisores usaban este estándar, usualmente llamado
cuadrado, aunque en la realidad es rectangular o wide.
3:2 ó 15:10 (1.50:1)
• Es el estándar usado por las cámaras de película de 35 mm y sus
derivados digitales.

Relación de aspecto de películas en 4:3

14:9 (1.55:1)
• Un estándar que no es ni ancho ni cuadrado, lo que permite a todos
los televisores 4:3 y 16:9 recibir una transmisión.
16:10 u 8:5 (1.60:1)
• El estándar usado hace años por los portátiles de 15,6" y algunos
otros aparatos; es ancho como el 16:9.
• El estándar también por el cine, pero no se debe confundir con la
relación de aspecto de 70 mm.
16:9 (1.77:1)
• Es el estándar usado por la televisión de alta definición y en
computadoras a partir aproximadamente de 2009. Es ancho y normalmente se le
suele llamar panorámico o widescreen, aunque todas las relaciones (a excepción
de la 1:1) son widescreen.
• Es equivalente a 1.77:1.
• El ángulo de la diagonal es de 29,36°.
1.85:1 (17:9)
• Ligeramente más ancho que el popular 16:9, es el estándar más
extendido en salas de cine.
• Introducido por Universal Pictures en 1953.
2.00:1 (18:9)[editar]
• Este formato conocido como Univisium fue creado en 1998 por el
director de cine Vittorio Storaro como solución para unificar el 21:9 de cine y el 16:9
de las pantallas y televisores bajo un mismo estándar. Algunas marcas
de teléfonos inteligentes como Xiaomi, OnePlus, Huawei y Lg han utilizado esta
relación de aspecto para sus productos.
2.33:1 (21:9)[editar]
• El estándar usado en las salas de cine y filmación de algunas
películas.
• En 2009 la compañía PHILIPS lanzó un televisor llamado CINEMA
21:9, diseñado para mostrar en Cinemascope con ausencia de las barras negras
en la parte superior e inferior de la pantalla durante la visualización de contenido. 1
• Recientemente la marca sur coreana LG lanzó un monitor de
computadora con este aspecto.2
• En 2019 la marcas de teléfonos Motorola y Sony lanzaron al
mercado un smartphone con este formato; Motorola One Vision 3 y Sony Xperia 1.4
2.39:1 (12:5)[editar]
• 35mm anamórfico a partir de 1970. Relación de aspecto anamórfico
actual (pantalla ancha) que se ve en el cine. Normalmente conocido en el mercado
como formato Panavision o CinemaScope. Especificado como 2.40:1 para
estrenos de películas en discos Blu-ray (1920x800 de resolución).
2.55:1 (23:9)[editar]
• Relación de aspecto original de CinemaScope antes de añadir el
sonido óptico a la película en 1954. Esta fue también la relación de aspecto
de Cinemascope 55.

Los comentarios como “buena toma” o “mala toma” ayudan al editar en


la selección de planos (con la grilla de comentarios de sonido)

Nuk: Programa usado para la composición de películas.


Shake: Reemplazo de Nuk, es un after effects “con esteroides”

Camaras y propiedades:
F900 Camara:

• Imagen RGB 2/3 (media pulgada de diagonal) – CCD


(sensor)
• Effective pixels – 1920 x 1080 (XH) x (V) each (La
resolución del mismo)
• Cassette tape – HDCAM : BCT – 22 HD, BCT 32 HD,
or BCT – 40 HD
Running tunes – 22 minutes (En su época era innovador)

1895: La primera proyección de los Lumiere


1903: “Asalto y robo en un tren” Porter (montaje)
1924: Invento (La moviola)
1937: Primera TV electrónica en UK
1951: TV en Argentina
1989: Avid presenta su NLE (non lineal editing)
1997: Sony F900 (Star wars con 24 fps)
1998: Mini DV (formato hogareño, casero, buena calidad, menor costo)
2003: HDCAM SR
2005: Digital cinema package (DCP) / Apple lanza FCPS
2008: Red one

35 mm ------------ “La sortie des u sines Lumiére (Hermanos Lumiere,


1895)
------------- “Sin aliento” (Godard , 1986)
------------- “ Kill Bill” (2003)
------------- “Breaking Bad”

Mini DV ------------ “La celebración” (1998)


------------ “Los idiotas” (1998)
------------ “Buena vista social club” (1998)
------------ “Fuckland” (2000)

Red One ----------- Che Soderbergh (Spielberg, 2008)

El invierno llega después del otoño está grabada en Super 8 y luego


escaneada a 4K.

Linear editing was the method originally used with analogue video


tapes. Non-linear video editing is achieved by loading the video
material into a computer from analogue or digital tape.

A Digital Cinema Package is a collection of digital files used to store


and convey digital cinema audio, image, and data streams. 

Bits, Bytes, Megas y Teras:

Digital 0 y 1 ---- Datos: Si pueden ser interpretados se transforman en


información y cobran sentido (Esa es la diferencia entre datos crudos e
información). El sistema binario es el sistema de numeración que cuenta
con sólo dos números: 0 y 1. Por lo que utiliza la base 2. En otras palabras,
es una manera de escribir los números naturales con sólo los números 0 ó 1.

Bit (Binary digit): Es la unidad mínima de información, se encarga de la


transferencia de datos y representa duplas de valores cualquier (si/no) ,
(blanco/negro). Un bit es un dígito del sistema de numeración binario. La
capacidad de almacenamiento de una memoria digital también se mide
en bits, pues esta palabra tiene varias acepciones. Se agrupan como una
bombilla que puede estar en uno de los siguientes dos estados:
Apagada  o encendida 

Bytes: Es la misma cantidad de bits significativos que interpreta una


computadora. Se encarga del almacenamiento de datos. Prefuga potencia de
datos ( 2 elevado a la décima potencia = 1042 , 2 (elevado a la potencia 20)
= 10485761
Es una unidad de información formada por una secuencia de bits
adyacentes. El diccionario de la Real Academia Española señala que byte
es sinónimo de; sin embargo, el tamaño del byte depende del código de
caracteres en el que ha sido definido. Byte proviene de bite (en inglés:
‘mordisco’), como la cantidad más pequeña de datos que una computadora
podía «morder» a la vez.

1 Byte = 1042 b /// 1 megabyte: 1024 kb kilobyte: 104856 B

1 gb: 1024 MG = 1073741824 B /// 1 tera: 1024 MG = 1099511627776

Digitalización de imagen
Las IMÁGENES DIGITALES son fotos electrónicas tomadas de una
escena o escaneadas de documentos -fotografías, manuscritos, textos
impresos e ilustraciones. Se realiza una muestra de la imagen digital y se
confecciona un mapa de ella en forma de cuadrícula de puntos o elementos
de la figura (píxeles). A cada píxel se le asigna un valor tonal (negro,
blanco, matices de gris o color), el cual está representado en un código
binario (ceros y unos). Los dígitos binarios ("bits") para cada píxel son
almacenados por una computadora en una secuencia, y con frecuencia se
los reduce a una representación matemática (comprimida). Luego la
computadora interpreta y lee los bits para producir una versión analógica
para su visualización o impresión.

La conversión analógica-digital consiste en la transcripción de señales


analógicas en señal digital, con el propósito de facilitar
su procesamiento (codificación, compresión, etcétera) y hacer la señal
resultante (digital) más inmune al ruido y otras interferencias a las que son
más sensibles las señales analógicas.

Comparación de señales analógica y digital


Una señal analógica es aquella cuya amplitud (típicamente tensión de una
señal que proviene de un transductor y amplificador) puede tomar en
principio cualquier valor, esto es, su nivel en cualquier muestra no está
limitado a un conjunto finito de niveles predefinidos como es el caso de las
señales cuantificadas.

Las señales analógicas no se diferencian, por tanto, de las señales digitales


en su precisión (precisión que es finita tanto en las analógicas como en las
digitales) o en la fidelidad de sus formas de onda (distorsión). Con
frecuencia es más fácil obtener precisión y preservar la forma de onda de la
señal analógica original en las señales digitales que en aquellas que
provienen de soportes analógicos, caracterizados típicamente por relaciones
señal a ruido bajas en comparación.
Ventajas de la señal digital

Sistema digital-analógico.
• Cuando una señal digital es atenuada o experimenta
perturbaciones leves, puede ser reconstruida y amplificada mediante
sistemas de regeneración de señales.
• Cuenta con sistemas de detección y corrección de
errores, que se utilizan cuando la señal llega al receptor; entonces
comprueban (uso de redundancia) la señal, primero para detectar
algún error, y, algunos sistemas, pueden luego corregir alguno o
todos los errores detectados previamente.
• Facilidad para el procesamiento de la señal. Cualquier
operación es fácilmente realizable a través de cualquier software de
edición o procesamiento de señal.
• La señal digital permite la multigeneración infinita sin
pérdidas de calidad.
• Es posible aplicar técnicas de compresión de datos sin
pérdidas o técnicas de compresión con pérdidas basados en la
codificación perceptual mucho más eficientes que con señales
analógicas.
Inconvenientes de la señal digital
• Se necesita una conversión analógica-digital previa y
una decodificación posterior, en el momento de la recepción.
• Si no se emplean un número suficiente de niveles de
cuantificación en el proceso de digitalización, la relación señal ruido
(SNR) de la señal resultante se verá reducida.

• El contenido en frecuencia de la señal digital viene


limitado por la frecuencia de Nyquist, de forma que la componente
máxima se corresponde con la mitad de la tasa de muestreo. Además,
por cuestiones prácticas, se debe dejar un margen de seguridad desde
la frecuencia de Nyquist y el límite de la banda de interés.
Muestreo
La digitalización o conversión A/D, básicamente, consiste en realizar de
forma periódica medidas de la amplitud (tensión) de una señal; por
ejemplo, la que proviene de un micrófono si se trata de (retención) por
un circuito de retención (hold), el tiempo suficiente para permitir evaluar su
nivel (cuantificación).

Desde el punto de vista matemático, este proceso no se contempla porque


se trata de un recurso técnico debido a limitaciones prácticas, y carece de
modelo matemático.

Durante el “muestreo” y la “retención”, la señal aún es analógica, puesto


que aún puede tomar cualquier valor. No obstante, a partir de la
“cuantificación”, cuando la señal ya toma valores finitos, la señal ya es
digital. Los cuatro procesos tienen lugar en un conversor analógico-
digital.

Cuantificación
En el proceso de cuantificación se mide el nivel de voltaje de cada una de
las muestras. Consiste en asignar un margen de valor de una señal
analizada a un único nivel de salida. Incluso en su versión ideal, añade
como resultado una distorsión no deseada a la señal de entrada: el ruido de
cuantificación.
Codificación
La codificación consiste en traducir los valores obtenidos durante la
cuantificación al código binario. Hay que tener presente que el código
binario es el más utilizado, pero también existen otros tipos de códigos que
también son utilizados.

Ejemplo de digitalización

Digitalización por muestreo de una señal analógica.


• Si el valor de la señal en ese instante está por debajo de
un determinado umbral, la señal digital toma un valor mínimo (0).
• Cuando la señal analógica se encuentra por encima del
valor umbral, la señal digital toma un valor máximo (1).
El momento en que se realiza cada lectura, es ordenado por un sistema de
sincronización que emite una señal de reloj con un período constante. Estas
conversiones analógico-digitales son habituales en adquisición de datos por
parte de una computadora y en la modulación digital para transmisiones y
comunicaciones por radio.

Compresión
La compresión consiste en la reducción de la cantidad de datos a transmitir
o grabar, pues hay que tener en cuenta que la capacidad de almacenamiento
de los soportes es finita, de igual modo que los equipos de transmisión
pueden manejar sólo una determinada tasa de datos.

Para realizar la compresión de las señales se usan complejos algoritmos de


compresión.

Hay dos tipos de compresión:


• Compresión sin pérdidas: en esencia se transmite toda
la información pero eliminando aquella que es redundante. Para ello
se hace uso de conceptos de la Teoría de la Información.
• Compresión con pérdidas: se desprecia cierta
información considerada perceptualmente poco relevante. Este tipo
de compresión aprovecha las limitaciones en la percepción del ser
humano para eliminar aquella información que difícilmente puede
percibir. No obstante una aplicación excesiva de esta compresión
puede conducir a una pérdida de la “calidad” en el resultado final.
Las técnicas de compresión sin pérdidas se basan en algoritmos
matemáticos que permiten la reducción de los bits que es necesario
almacenar o transmitir. Un ejemplo común es la llamada “codificación de
longitud de secuencias” (o codificación Huffman), utilizada por ejemplo en
el código Morse.

Las técnicas de codificación mencionadas son de gran utilización en los


sistemas de transmisión digital. Sin embargo, en lo que se refiere al
tratamiento digital de imagen y sonido, dada la aleatoriedad de este tipo de
señales, son poco efectivos en cuanto a la reducción del tamaño de los
archivos resultantes.

Por eso, la compresión del sonido y la imagen para Internet se basa más en
el conocimiento del funcionamiento de nuestros sentidos. Son técnicas que
asumen pérdidas de información, de ahí su nombre de compresión con
pérdidas, pero están diseñados de modo que las “pérdidas” no sean apenas
percibidas por los seres humanos.
Buses de transferencia de datos

Ancho de banda
Transferencia de datos
Alimentación de electricidad
USB 1
12
1,5
Si
USB 2
480
60
Si
USB 3
5000
400
Si
Firewire 400
400
50
Si
Firewire 400
800
100
Si
E sata
3000
300
No
Thunderbalt
6000
600
No
Thunderbalt
2
10000
1250
Si
Thunderbalt
3
20000
2500
Si
PC le flash
40000
5000
Si
Storage
9600
1200
No
Ethernet
10/100/1000
1,25 /12,5/12,5
No
Firewire: Para disco rigido (mac)
E-sata: Disco rigido de una computadora
Codecs
Codecs
Codecs data rate
Data rate
DV
Canon XL1
25 mb
XDCAM HD
Sony x160
50 mb
Red Code
Red Dragon
123 mb
Arri Raw (3,5)
Alexa
276 mb
Pro Res 1T
Apple
102 mb
DNX HD36
Avid
36 mb
DPX (4K 16 bits)
Adyssey 70
1,3 gb/seg
• Secuencia de cuadro: Todos los fotogramas los guardo
en un formato (lo menos complimido posible).

• ¿Qué es el tape beta max? Betamax is a consumer-level


analog-recording and cassette format of magnetic tape for video. It
was developed by Sony and was released in Japan on May 10, 1975

¿Cómo funciona un workflow?


• Elaboramos una carpeta por toma (imagen + sonido =
Data manager)
• Laboratorio Digital (material para editar) = Offline (se
crean proxys = metadata original pero otra compresión de menos
calidad. Luego se relinkea en color y efectos especial)
• Sincronizar el trabajo para editarlo (Hacer
sincronización, organizar material , asistente favorito)
• Cuando termino de editar= Exportar (sonido en .omf ,
color en .edl, y FX en xml – versión en baja para poder verlo) //
Conformado enlmaterial – Lista de edición EDL – (Escaneo en alta)
• Sacar la metadata del corte final ( a veces) – Sonido
• Sincro final / masterizado / online (alta)
• El delivery puede ser un DCP
• El formato nos debe importar
• Un formato que ya no se usa mas es el DCDM
*Utilizar muchos formatos para la distribución, no es lo mismo subir
un tera o 3 teras x 150 gb.

Revelado a una luz: Doilies. Conexión en fílmico (regulado de luces en el


revelado para la corrección del color)

Peor es tener un asistente malo a no tener ninguno.

Posee la capacidad para comunicar:


-Entender el proceso del montaje
-De los deliveries, que comprimir y que subir a la nube

LTO: acepta pocos caracteres = TP001 ---


TP01 --- (Puede quedar rota la secuencia)

2 formas de editar en Avid


• Insertando o sobreescribiendo
• Pasar el monitor de izquierda a derecha
Las tomas se encuentra en un BIN – (o en una secuencia)

Doilies: Lo que se produce al día, a la noche se revela y después, a la tarde,


el director y el montajista seleccionaran las escenas correspondientes.
DoT . laboratorio digital (opus)
--- Proxys: Un proxy es un agente o sustituto autorizado para
actuar en nombre de otra archivo.
Raw: Bruto de cámara y sonido.
DPC. Disco duro

Placas de testeo: Cortan delante de la cámara para la señal de todas las


cámaras estén igual.

Precios de disco duro / Ind rate `costo de suedo de hilos de edición, color,
sonido (CXR - formato)

Red gamma --- Red color /// Digital intermediate (FX y color) // No debe
haber saltos de color en el empate de las tomas // El CGI no limita al
colorista, no molesta su trabajo // La postproducción de una película
comercial puede tardar hasta 1 año.
DFX:
• Pasa a 2048 x 880 el proyecto del colorista (como pasa
en montaje)
• Se extrae de 4k a 2k = 2048x880
Halation = Efecto de luz en alto contraste

Ver: Case studio --- Ender’s game {https://vimeo.com/78581143}


+ Resolución
+ Calidad

Nodos:
-Fidelidad espacial (puede ser pésima para factores externos) =/ concepto
de resolución
-Sony presenta una compresión temporal – XHX (Se coloca un nombre
único “por las dudas”)
Preguntas puntuales del final:
• ¿Qué significa que una cámara graba raw?
El formato de imágenes raw (entiéndase como "bruto" o "en crudo"
siguiendo el término anglosajón para denominar a los brutos de cámara)2 es
un formato de archivo digital de imágenes que contiene la totalidad de los
datos de la imagen tal y como ha sido captada por el sensor digital de la
cámara, ya sea fotográfica u otro tipo
El formato raw generalmente lleva aplicada compresión de datos sin
pérdida de información.
La red graba RAW pero puede tener compresión/ Básicamente es como
“hacer un zip” de la imagen grabada. (raw: negativo original)

Debido a que contiene la totalidad de los datos de la imagen captada


por la cámara y una mayor profundidad de color (por lo general 36 a
48 bits/píxel), sus ficheros tienen un tamaño de archivo muy grande, a
pesar de que, generalmente, usan compresión.
El gran inconveniente de este formato es la falta de estandarización: cada
fabricante de cámaras usa su propia versión del formato, lo que puede
producir incompatibilidades o que esa versión de raw no se pueda usar en
el futuro.

Utilidad y usos comunes


Correcciones posteriores
Si disparamos dos fotos del mismo motivo, una en JPG con baja
compresión de datos (alta calidad) y otra en raw, seguramente se verá mejor
la tomada en jpg: tendrá mayor nitidez/enfoque, mejor contraste, mejor
iluminación y los colores aparecerán mejor representados. Esto es debido a
que una cámara digital suele aplicar distintos filtros digitales para mejorar
la imagen.

Sin embargo, el formato raw nos muestra la foto tal y como el sensor la
capturó, sin ningún filtro de mejora. Se verán colores más neutros, menos
saturados, un enfoque más blando y una iluminación que dependerá de la
exposición que hicimos, más visiblemente sobre o subexpuesta si fuera el
caso. Sin embargo, una foto en jpg, al estar en modo RGB, tiene 24
bits/píxel (8 por canal) frente a los 30 a 48 bits/píxel (10 a 16 por canal)
que suele contener la imagen obtenida al revelar el archivo raw. Los 24 bits
del RGB serán suficientes para ver toda la gama de colores posibles, pero
serán claramente insuficientes cuando queramos realizar ciertos ajustes
a la imagen (iluminación, corrección de tonalidades, etc.).

Por otro lado, una imagen en formato raw, aunque en apariencia


parezca más pobre, contiene muchísima más información y será muy
manipulable al ajustar luces y colores. Comparado con JPG, el problema
es su tamaño, ya que ocupa sensiblemente más que su equivalente en jpeg.
Comparado con formatos de archivo con compresión de datos sin pérdida
de información como TIF o PNG, el problema se reduce a la necesidad de
"revelarla" antes de poder procesarla normalmente para cualquier uso.

Los archivos raw se conocen también como negativo digital. Las cámaras
que soportan archivos raw normalmente vienen con su propio software para
la conversión de raw a otros formatos como TIFF o JPEG.

El formato RAW te conviene si quieres editar después la imagen y obtener


un buen resultado, gracias a que no habrás tenido una pérdida previa de
datos. La parte no tan buena es que, este tipo de archivos pesan poco más
de 10 veces más que un convencional JPEG, así que dependerá del espacio
de tu computadora y del propósito de la foto si la quieres conservar con su
“negativo digital”.

El precio a pagar de esta característica, evidentemente es el tamaño del


archivo. El video codificado solo requiere un reproductor de video para
abrirse, y el tamaño de los archivos no suele superar los 20 gigabytes. El
RAW, por otro lado, requiere una administración cuidadosa de los archivos
que pueden ser docenas de gigabytes. Es necesario el poder de
procesamiento de un superordenador para reproducir estos
archivos. Afortunadamente, gran parte del procesamiento de material
de formatos RAW se ha integrado en gran medida en los modernos editores
no lineales (NLE). el video en bruto ofrece una imagen final que ha
maximizado el rango dinámico, los detalles y la calidad general de la
imagen.
La mayoría de las cámaras RAW actuales que existen en el mercado no
tienen un buen rendimiento con poca luz. Entonces, si se fuera a alquilar
una RED Epic para filmar su escena nocturna, podría terminar con algunas
imágenes realmente granulosas e inutilizables. Mientras que algunas
cámaras (como RED) se disparan en un formato raw comprimido, muchas
otras (como las Black Magic) disparan en formato raw sin comprimir, y de
cualquier manera los tamaños de archivo para cualquier clip en bruto dado
serán muy grandes.

Cuando disparamos con el formato RAW, la cámara registra no sólo los


datos de la imagen sino todos los posibles valores, dejando la foto de
alguna manera «abierta» a cualquier cambio posteriormente. Imaginaros,
por ejemplo disparamos la foto con unos valores de exposición y balance
de blancos x, pero posteriormente hemos cambiado de opinión y queremos
cambiar esos valores a otros, pero ya no podemos disparar la foto
nuevamente porque ya estamos en casa en frente de nuestro ordenador. Si
tuviéramos sólo una imagen JPG poco podríamos cambiar la verdad, pero
si tuviésemos una RAW entonces la abriríamos, aportaríamos las
modificaciones necesarias, y ya en ese momento obtendríamos nuestra
imagen JPG definitiva, ya en el ordenador.

¿POR QUÉ? ¿QUÉ VENTAJAS ME APORTA EL


FORMATO RAW?

Calidad de imagen: El fotmato RAW no comprime la foto como lo hace el


JPG. Con una foto RAW podemos estar seguros de que captamos TODA la
calidad posible.

Permite cambios posteriores, ajustes, mejoras: Con el formato RAW


puedes cambiar casi todo en la foto. Excepto detalles como el encuadre, la
disposición de los objetos/sujeto, etc., lo demás casi todo lo puedes cambiar
más tarde: puedes darle a la foto más exposición (luz), cambiarle el balance
de blancos, darle más calidez o más frío, cambiarle la saturación, etc. Por
ejemplo todos sabemos que para disparar una foto en condiciones de poca
luz se suele recurrir a altos valores de ISO, y eso provoca que la foto tenga
ruido en las partes más oscuras. Pues bien, gracias al formato RAW
podemos tranquilamente desde la comodidad de nuestra mesa de ordenador
suprimir ese ruido, gracias a la posibilidad que nos ofrece el modo RAW.

DESVENTAJAS DEL MODO RAW


Pero si decidís hacer fotos en RAW no todo va a ser ventajas.
Veamos:

Espacio en la tarjeta de memoria: El formato RAW, al estar «crudo» y


sin comprimir, nos ocupa mucho más espacio en la tarjeta de memoria
que el formato JPG. Donde caben 400 fotos JPG a lo mejor sólo
caben 110 fotos RAW.
Engorroso proceso de postproducción: Al principio mola hacer fotos en
formato RAW y trabajarlas más tarde en el ordenador, pero pasado un
tiempo empieza a parecernos una tarea fatídica, larga y aburrida. Y es
que si haces fotos en RAW sólo podrás utilizarlas, enviarlas,
publicarlas y compartirlas una vez las hayas procesado en el
ordenador.

El formato RAW no es único y universal: El formato JPG es único y


universal. Todos los JPG’s son iguales, todos los programas abren y
leen fotos JPG de la misma manera. Esto no sucede con las RAW ya
que cada cámara tiene su propia manera de hacer RAW. Por ejemplo
las RAW de Canon son distintas de las RAW de Nikon. Esto plantea
un problema de compatibilidad. Muchos alertan de que una foto RAW
se podría abrir y utilizar hoy pero dentro de 7 años tal vez no se
pueda, ya que los fabricantes actualizan sus software y algunas veces
cambian de RAW, así que las RAW que tienes de antes ya no te
sirven.

• ¿Cómo funciona el filtro bayer?


Un píxel o pixel, plural píxeles es la menor unidad homogénea
en color que forma parte de una imagen digital.
Un sensor de píxeles activos es un sensor que detecta la luz basado
en tecnología CMOS y por ello más conocido como Sensor CMOS.
El CMOS, al igual que el sensor CCD, se basa en el efecto fotoeléctrico.
Está formado por numerosos fotositos, uno para cada píxel, que producen
una corriente eléctrica que varía en función de la intensidad de luz recibida.
En el CMOS, a diferencia del CCD se incorpora un amplificador de la
señal eléctrica en cada fotosito y es común incluir el conversor digital en el
propio chip. En un CCD se tiene que enviar la señal eléctrica producida por
cada fotosito al exterior y desde allí se amplifica a la computadora. La
ventaja es que la electrónica puede leer directamente la señal de cada píxel
con lo que se soluciona el problema conocido como blooming, por el que la
recepción de una gran intensidad lumínica en un punto influye en los
píxeles adyacentes (un brillo fuerte produce líneas blancas en la imagen).
La desventaja es que entre los receptores de luz (fotositos) se encuentra
mucha electrónica que no es sensible a la luz, lo que implica que no pueda
captar tanta luz en una misma superficie del chip.

La solución al problema vino no sólo por una mayor densidad de


integración, por lo que la electrónica no sensible se reducía en tamaño, sino
por la aplicación de micro lentes que a modo de lupa concentran la luz de
cada celda en su fotosito.
Contiene un filtro para recoger solo la luz roja, otros para la verde y otros
para el azul.

RGB es un modelo de color basado en la síntesis aditiva, con el que es


posible representar un color mediante la mezcla por adición de los tres
colores de luz primarios. El modelo de color RGB no define por sí mismo
lo que significa exactamente rojo, verde o azul, por lo que los mismos
valores RGB pueden mostrar colores notablemente diferentes en distintos
dispositivos que usen este modelo de color. Aunque utilicen un mismo
modelo de color, sus espacios de color pueden variar considerablemente.

Percepción y sensación de color


Los ojos humanos tienen dos tipos de células sensibles a la luz
o fotorreceptores: los bastones y los conos. Estos últimos son los
encargados de aportar la información de color.

Para saber cómo es percibido un color, hay que tener en cuenta que existen
tres tipos de conos con respuestas frecuenciales diferentes, y que tienen
máxima sensibilidad a los colores que forman la terna RGB. Aunque los
conos, que reciben información del verde y el rojo, tienen una curva de
sensibilidad similar, la respuesta al color azul es una veinteava (1/20) parte
de la respuesta a los otros dos colores. Este hecho lo aprovechan algunos
sistemas de codificación de imagen y vídeo, como el JPEG o el MPEG,
«perdiendo» de manera consciente más información del componente azul,
ya que el ser humano no percibe esta pérdida.

Señal de luminancia
La sensación de luminosidad viene dada por el brillo de un objeto y por su
opacidad, pudiendo producir dos objetos con tonalidades y prismas
diferentes la misma sensación lumínica. La señal de luminancia es
la cuantificación de esa sensación de brillo. Para mantener la
compatibilidad entre las imágenes en blanco y negro y las imágenes en
color, los sistemas de televisión actuales (PAL, NTSC, SECAM) transmiten
tres informaciones: la luminancia y dos señales diferencia de color.

De esta manera, los antiguos modelos en blanco y negro pueden obviar la


información relativa al color, y reproducir solamente la luminancia, es
decir, el brillo de cada píxel aplicado a una imagen en escala de grises. Y
las televisiones en color obtienen la información de las tres componentes
RGB a partir de una matriz que relaciona cada componente con una de las
señales diferencia de color.

Para cada uno de los sistemas de televisión se transmiten de diferente


manera, motivo por el cual podemos tener problemas al reproducir una
señal NTSC en un sistema de reproducción PAL.

Un sistema de color aditivo es un modelo que permite obtener un color a


partir de la suma de la representación numérica de las componentes de
color. El proceso de reproducción aditiva normalmente utiliza
luz roja, verde y azul como componentes para producir el resto de colores.
Combinando uno de estos colores primarios con otro en proporciones
iguales se obtienen los colores aditivos
secundarios: cian, magenta y amarillo. Combinando los tres colores
primarios de luz con las mismas intensidades, se produce el blanco.
Variando la intensidad de cada luz de color finalmente deja ver el espectro
completo de estas tres luces.

Comparación con otros sensores


Según los fabricantes de CCDs, los sensores CMOS tienen un elevado
ruido de patrón fijo pero sus defensores indican que tienen un bajo
consumo de energía (lo cual redunda en una mayor autonomía de la
cámara).

Al parecer, el 'ruido' mencionado se debe a que los sensores CMOS


convencionales tienen un amplificador por separado en cada píxel y estos
amplificadores normalmente no serán uniformes por todo el chip y la
desigualdad residual será la que genere el ruido. Por el contrario, todos los
píxeles de un CCD se activan a través de una etapa común del
amplificador, de modo que se evita este problema.

Por otro lado, los fabricantes de CMOS argumentan que los sensores CCD
necesitan una electrónica externa compleja que eleva el coste. En la
práctica, es posible encontrar implementaciones de alta calidad de ambas
tecnologías.

Finalmente, se achaca a los sensores CMOS una escasa sensibilidad a la luz


ultravioleta e infrarroja.

Las ventajas y desventajas dependen en parte de cada dispositivo puesto


que es posible encontrar sensores CCD con características similares a los
CMOS y viceversa. Sin embargo, es posible listar las características típicas
como siguen:

Ventajas de los sensores CMOS respecto a los sensores CCD


• Consumo eléctrico muy inferior
• Son más económicos porque necesitan menos
componentes externos
• Pueden leer un mayor número de píxeles de forma
simultánea
• El conversor digital puede estar integrado en el mismo
chip
• Escaso o inexistente Blooming ("Smear")
• Mayor flexibilidad en la lectura (Previsualización más
rápida, vídeo,...)
• Permiten la exposición y lectura de los píxeles de forma
simultánea
• Distintos tipos de píxeles (según tamaño y sensibilidad)
combinables.
• Muy alta frecuencia de imagen en comparación a un
CCD del mismo tamaño

Desventajas de los sensores CMOS respecto a los sensores CCD


• Menor superficie receptora de la luz por píxel
• Menor uniformidad de los píxeles (mayor ruido de
patrón fijo-FPN)
• Efecto "jelly" o inestabilidad en la imagen con
movimientos rápidos (se tuerce el vídeo) o flashes debido al tipo de
obturación giratoria que utiliza.

Existen dos tipos de imágenes digitales y cada uno de ellos tiene unas
características bien diferenciadas:
• Los Mapas de Bits, también llamados imágenes raster o
rasterizadas. Este tipo de imagen digital es el más usado. Casi todas
(por no decir todas) las imágenes que nos descargamos de internet
están en este formato.
Las imágenes en mapa de bits están formadas por píxeles. A cada
píxel se le asigna un color. Es por ello, que a mayor resolución,
mayor calidad tendrá la imagen. Pongo un ejemplo para que quede
todo más claro. Supongamos que tengo una imagen de 750 x 420 px.
Esto quiere decir, que la imagen tendrá 750 píxeles verticales y 420
horizontales.
El mayor problema de las imágenes en Mapa de Bits es el pixelado
que se produce al agrandarlas, ya que el editor de imágenes se
“inventa” los píxeles que se añaden.
Este tipo de imagen digital se suele usar en fotografías, ilustraciones
digitales o gráficos para web. En definitiva, se usan cuando se quiere
obtener una gran calidad del detalle.
El editor más conocido para las imágenes en Mapa de Bits es
Photoshop
• Las imágenes vectoriales no están formadas por
píxeles, por lo que son independientes de la resolución. Esto quiere
decir que al agrandar o menguar la imagen no se producirá un
pixelado.
Los gráficos vectoriales están formados por los llamados puntos de
control que poseen curvas entre ellos y que son definidas gracias a
una fórmula matemática que el editor de imágenes se encarga de
calcular.
Los vectores son muy utilizados en gráficos de baja complejidad
como logotipos, iconos, composiciones tipográficas… Los
programas más usados para crear y modificar los gráficos
vectoriales son Adobe illustrator y Corel Draw.
Cabe mencionar que una imagen vectorial puede ser convertida a mapa de
bits de forma fácil pero es mucho más difícil convertir una imagen en mapa
de bits a vectores (sobre todo si tratamos de hacerlo de forma automática).
Es muy complicado obtener la calidad de una imagen rasterizada en
vectores, siempre se pierden detalles.
Compresión en los formatos de imagen: LOSSY (con
pérdidas) y LOSSLESS (sin pérdidas)
La mayoría de los formatos de imagen se presentan con cierta compresión
para ahorrar espacio. Ésta puede ser de dos tipos: LOSSY (con pérdidas) y
LOSSLESS (sin pérdidas).
Las imágenes con una compresión sin pérdidas (LOSSLESS) son
capaces de reconstruir la imagen a su estado original. No se producen
pérdidas.
Por el contrario, las imágenes con una compresión con pérdidas
(LOSSY) se aproximan a la imagen original, aunque no es exactamente
igual (en muchas ocasiones esta pérdida no es notable). Ocupan menos
espacio. Un ejemplo es querer reducir la cantidad de colores de una
fotografía para que el archivo pese menos. Se emplean mucho en internet,
para que pesen poco y sea fácil y rápido su descarga.
Tipos de formatos de imágenes rasterizadas (Mapas de Bits)
Después de hablar sobre la diferencia entre Mapa de Bits y vector ha
llegado la hora de hacer una pequeña lista con las extensiones de imágenes
más usadas en cada uno de estos campos.
Voy a empezar enumerando los tipos de formatos de imágenes
rasterizadas (Mapas de Bits) más comunes:
Formato de imagen JPEG / JPG
La extensión de imagen .jpg o .jpeg es de lo más usados, sobretodo en
internet, en fotografías o en gráficos web. Es un formato de imagen con
pérdidas y pesa poco aunque en resoluciones pequeñas puede aumentar
notablemente su pixelación.
Se recomienda usar el formato de imagen JPEG o JPG para imprimir
archivos en alta resolución (pero con una baja compresión para evitar
demasiadas pérdidas). También puedes usarlo para enviar una miniatura o
vista previa de tu trabajo a un cliente por email. Así protegerás tu imagen y
evitarás que pueda robarla sin haber recibido antes tu pago.
La extensión de imagen .gif
El formato de imagen GIF es sin pérdidas y se usa casi exclusivamente
para web ya que permite crear pequeñas animaciones. Últimamente ha
adquirido gran popularidad gracias a los memes.
A pesar de que Gif es un formato de imagen sin pérdidas, se puede guardar
en un formato reducido para menguar su tamaño.
No obstante no se recomienda usar gif para fotografías de alta calidad ni
para imprimir, ya que solo tiene 256 colores.
Formato de imagen PNG
El formato de imagen PNG no posee pérdidas y puedes añadir una
transparencia con degradado al fondo (GIF solo permite una transparencia
pura). Es muy común actualmente. Es ideal para gráficos web como iconos
y funcionan muy bien con una paleta de color reducida.
Con PNG también puedes guardar fotografías con una calidad alta, no
obstante se recomienda usar .jpeg para esto porque con .png el tamaño será
mucho mayor.
La extensión de imagen .tiff / .tif
El archivo de imagen TIFF es sin pérdidas y ofrece mucha calidad a las
fotografías, aunque suele ser bastante pesado. También puedes usarlo para
escanear en alta calidad. Sin embargo, no se recomienda en gráficos web,
ya que la extensión de imagen .tiff o .tif está optimizada para imprimir.
El formato de imagen RAW
El formato de imagen RAW es totalmente diferente a los vistos
anteriormente. Se trata de archivos “no procesados” que se obtienen
directamente desde una cámara (por lo general una cámara de fotos
profesional) o de un sensor de escaner. Normalmente, las imágenes
(como .jpg o .png) son procesadas ya que se les ajusta el color, la
exposición…
Las imágenes RAW, por el contrario, almacenan los datos no procesados y
los procesados en dos archivos totalmente independientes. Así, puedes
editar la imagen sin tener miedo de las pérdidas o de “destruir” la original.
Por lo tanto, la extensión de imagen .raw se usa mucho en fotografía
profesional para editar las imágenes. Se recomienda convertir a cualquier
otro archivo una vez hayamos terminado de editar ya que es un archivo
muy pesado. Así, si queremos subir la imagen a internet, se recomienda
hacerlo en .jpg.

• ¿Qué es la debayerización?
Demosaico de Bayer
Cuando la imagen a color en formato RAW es captada, todavía le falta ser
procesada. El demosaico de Bayer es un proceso algorítmico cuya función
es interpretar la señal y asignar finalmente un color RGB a cada píxel.
Dependiendo del tipo de análisis (cantidad de bloques de celdas), se
determina la cantidad de píxeles efectivos y reales que un sensor posee.
Los algoritmos de captura de las cámaras comerciales generalmente
incluyen los siguientes pasos:

1) Adquisición de la señal
2) Debayerización
3) Reducción de ruido
4) Compresión (a jpeg, por ejemplo)
Cuando en fotografía decimos que es mejor sacar en RAW, es porque
podemos interrumpir este algoritmo luego de la parte de adquisición. Amén
de que el proceso de reducción de ruido (ni hablar de la compresión)
eliminan datos a veces muy valiosos, durante el proceso de debayerizado
también se pierde cierta información. La ventaja de tener los datos crudos
es que no dependemos del algoritmo de debayerización de la cámara, el
cual dependiendo de la calidad de la cámara, puede no ser muy bueno.

Existen varios algoritmos de debayerización, pero entre los más


importantes quería comentar estos cuatro:

Nearest Neighbor (los vecinos más cercanos):


Es de los algoritmos más sencillos pero el que peores resultados visuales
arroja. Resulta sumamente fácil de implementar, ya que por ejemplo, si
quiero saber el valor de rojo pero para un pixel verde o azul, simplemente
me copio el valor de el pixel rojo más cercano que tenga (generalmente el
de la derecha o el de arriba. Este método produce todo tipo de artefactos en
imágenes con bordes muy marcados (en frecuencias altas). Una estrella
blanca sobre el fondo negro tendrá en los bordes pixeles rojos, azules y
verdes.

Bilinear interpolation (interpolación bilineal):


Este algoritmo es levemente más complicado que el anterior. Se basa en
que una propiedad que cumplen casi todos los pixeles y es que todo pixel
de valor desconocido, tiene 4 vecinos con valores para ese canal que sí se
conocen. Lo que hacemos para calcular el valor de un pixel rojo para el
cual no tenemos información es promediar el valor de sus 4 vecinos rojos
más próximos. Este algoritmo produce imágenes con bordes suaves, tantos
artefactos como con el método anterior, a costa de que se ven afectadas las
frecuencias altas. En el caso de una estrella blanca sobre fondo negro, se
verá rodeada por un halo suave multicolor, ya que los pixeles que no se
conocen en el borde de la estrella se promedian con información de la
estrella e información del fondo.

Smooth hue transition interpolation (Interpolación por transición de tonos


suaves o algo por el estilo):
Este algoritmo se basa en un argumento que dice que el color (tono) de una
imagen cambia mucho más lentamente que el brillo (luminosidad). Por lo
tanto se trata de reproducir imágenes con cambios graduales en el tono
(hue). Esto se logra haciendo una interpolación similar a la bilineal pero
interpretando la información como luminancia y crominancia en lugar de
como colores en sí. Primero se interpola el canal verde ya que hay mucha
más información para este canal respecto de los anteriores. Luego se
calcula la cantidad de tonos rojos para un pixel desconocido como R/G, es
decir al relación entre el rojo y el verde. La interpolación es similar al
método anterior, es decir que en caso de no conocer la cantidad de rojo para
un pixel dado, se interpola con dos o cuatro vecinos. Si bien no se producen
artefactos de colores como en los dos casos anteriores, las frecuencias altas
se ven degradas y los bordes filosos en la imagen original se verán
difuminados.

Variable number of gradients (Número de gradientes variable):


Por lejos, la mejor técnica de las cuatro y también por lejos, la más
demandante en cálculos (ya volveremos sobre este tema). Este algoritmo
trata de mejorar la respuesta a las zonas de altas frecuencias, es decir donde
hay bordes muy marcados. En tratamiento de imágenes se suele ver a una
imagen como una función de dos variables. Quienes recuerdan sus clases
de álgebra lineal, recordarán que el gradiente es un vector de derivadas que
indican la dirección y velocidad de cambio en una función y de ahí el
nombre del método. Y es que en los bordes de una estrella, la intensidad
varía abruptamente pero no en cualquier dirección. Si estamos interpolando
en cercanías de un borde vertical, podemos no interpolar respecto a los
vecinos horizontales y así evitar que se degraden las altas frecuencias.

A modo de resumen, si bien los algoritmos Nearest Neighbor y Bilinear


interpolation son sencillos, no arrojan buenos resultados aunque en la
práctica (sobre todo la interpolación bilineal) se utilizan a menudo cuando
hay que hacer una previsualización rápida del resultado ya que no son
demandantes en cuanto a tiempos de cómputo.

Por otra parte, sobre todo el método de VNG, donde hay que calcular varias
derivadas por cada pixel, a veces no pueden ser utilizados en los
procesadores gráficos de las cámaras digitales y por ello se prefiere trabajar
en RAW para hacer el procesado en una computadora y así aplicar
algoritmos mejores.

¿Qué es la compresión espacial? ¿Qué es la compresión


temporal?

La compresión de vídeo se refiere a la reducción del número de datos


usado para representar imágenes de vídeo digital, es una combinación de la
compresión espacial de imágenes y compensación de movimiento
temporal.

Un vídeo comprimido puede reducir efectivamente el ancho de banda


requerido para transmitir un vídeo a través de emisión terrestre, a través de
cables de TV o de servicios vía satélite.

Calidad de vídeo
La mayoría de las compresiones de vídeo son con pérdida, se realizan con
la premisa de que muchos de los datos presentes antes de la compresión no
son necesarios para percibir una buena calidad de vídeo. Por ejemplo,
los DVD usan una codificación estándar llamada MPEG-2 que puede
comprimir de 15 a 30 veces los datos de un vídeo, mientras sigue
produciendo una calidad de imagen generalmente considerada de alta
calidad para la definición estándar. La compresión de vídeo es una
compensación entre el espacio de almacenamiento, la calidad del vídeo y el
costo del hardware requerido para descomprimir el vídeo en un tiempo
razonable. Sin embargo, si el vídeo es sobre-comprimido con pérdida, se
pueden hacer visibles (y en ocasiones hasta distraer) las distorsiones de
imagen.

La compresión de vídeo opera típicamente en grupos cuadriculados de


píxeles vecinos, a veces llamados macro-bloques. Estos grupos o bloques
de píxeles son comparados con el fotograma siguiente y el codec de
compresión de vídeo envía solo las diferencias dentro de esos bloques. Esto
funciona extremadamente bien si el video no tiene movimiento. Un
fotograma de texto, por ejemplo, se puede repetir muy poco con los datos
transmitidos.

La solución: Compresión
La solución lógica a este problema es la compresión digital. Compresión
implica disminuir el número de parámetros requerido para representar la
señal, manteniendo una buena calidad perceptual. Estos parámetros son
codificados para almacenarse o transmitirse. El resultado de la compresión
de video digital es que se convierte a un formato de datos que puede
transmitirse a través de las redes de comunicaciones actuales y ser
procesadas por computadoras.
Para entender el proceso de compresión es importante reconocer las
diferentes redundancias presentes en los parámetros de una señal de video:
• Espacial
• Temporal
• Psicovisual
• Codificación
La redundancia espacial ocurre porque en un cuadro individual los pixeles
cercanos (contiguos) tienen un grado de correlación, es decir, son muy
parecidos (por ejemplo, en una imagen que muestre un prado verde bajo un
cielo azul, los valores de los pixeles del prado serán muy parecidos entre
ellos y del mismo modo los del cielo). Los pixeles en cuadros consecutivos
de una señal también están correlacionados, determinando
una redundancia temporal (si la señal de video fuera un recorrido por el
prado, entre una imagen y la siguiente abría un gran parecido). Además, el
sistema de visión humano no trata toda la información visual con igual
sensibilidad, lo que determina una redundancia psicovisual.
El ojo es también menos sensible a las altas frecuencias. Por lo tanto, un
criterio que toma mucha importancia es estudiar cómo percibe el ojo
humano la intensidad de los pixeles para así, dar mayor importancia a unos
u otros parámetros.
Finalmente, no todos los parámetros ocurren con la misma probabilidad en
una imagen. Por lo tanto resulta que no todos necesitarán el mismo número
de bits para codificarlos, aprovechando la redundancia en la codificación.
Durante los últimos años han emergido diferentes estándares de
compresión, incluyendo algunos propietarios, dirigidos a diversas
aplicaciones con diferentes necesidades de velocidad. MPEG, Moving
Picture Expert Group, es un comité del organismo ISO e IEC que es
responsable de los estándares MPEG-1, MPEG-2, y los actuales MPEG-4
y MPEG-7 aún en fase de especificación.
Los estándares MPEG son genéricos y universales en el sentido que
simplemente especifican una sintaxis de la trama para el transporte de los
datos obtenidos mediante los algoritmos de compresión de video y audio,
no estando definidos los procesos de compresión (lo que permite plena
libertad en su realización).
 
MPEG
En la especificación MPEG-1 y MPEG-2 existen tres partes diferenciadas,
llamadas, Sistema, Video y Audio. La parte de video define la sintaxis y la
semántica del flujo de bits de la señal de video comprimida. La parte de
audio opera igual, mientras que la parte Sistema se dirige al problema de
la multiplexación de audio y video en un único flujo de datos con toda la
información necesaria de sincronismo, sin desbordar los buffers del
decodificador.

MPEG-2

Adicionalmente, MPEG-2 contiene una cuarta parte llamada DSMCC


(Digital Storage Media Command Control), que define un conjunto de
protocolos para la recuperación y almacenamiento de los datos MPEG
desde y hacia un medio de almacenamiento digital.
El estándar MPEG-2 es una evolución de MPEG-1, fue ideado para
conseguir calidad no interior a NTSC/PAL y superior a la calidad CCIR
601.Soporta las siguientes relaciones de aspecto 4:3, 16:9 y 2.21:1
(cinemascope). Existen diferentes alternativas para poder ver imágenes
16:9 o cinemascope en el formato estándar 4:3.

Formato AVI
Es, probablemente, uno de los formatos contenedores más conocidos. Es
uno de los formatos más populares, quizá por su amplia utilización en
plataformas Windows. Al ser uno de los más básicos, sólo permite canales
de audio y de video.
Entre los códec que podemos encontrarnos están el códec DivX y el XViD.

Formato MKV (Matroska)


Se trata de un formato contenedor de código abierto, creado en 2002.
Entre los códecs más habituales que podemos encontrarnos son el H264.

Formato MPG
Más que tratarse de un formato, se trata de una especificación,
estandarizada por el Moving Picture Experts Group (MPEG). Los archivos
MPG se utilizan para crear películas que se distribuyen en Internet y,
dependiendo de su compresión, nos encontramos con las versiones MPG-1
o MPG-2.

Formato MP4
La especificación MPEG-3 fue interrumpida y nunca llegó a desarrollarse,
pasando más tarde a definirse el estándar MPEG-4.
Los códecs que suelen utilizarse son el x264.

Formato HEVC
La especificación MPEG-H/HEVC (High Efficency Video Coding) es la
que se considera H.265, y duplica el rendimiento de su predecesor,
soportando resoluciones que podrían llegar a 8K (UHDTV).

Formato ASF
Es un formato muy similar a AVI, muy creado y utilizado por Microsoft
desde el año 1997 en su famoso programa Windows Media. Son aquellos
videos con la conocida extensión WMW (Windows Media Video).
En esta ocasión, el códec utilizado era el WMV.

Formato MOV
Fue creado por Apple en el año 2001, y estaba asociado a su
aplicación QuickTime.
El códec utilizado es el h264, que utiliza una versión propietaria de MPEG-
4, junto al códec de audio AAC.

Formato FLV
Es el formato Flash Video, creado por adobe 2002. Se hizo muy famoso
porque permitía con facilidad transmitir contenido de video por Internet,
llegando a ser utilizado por plataformas como Youtube para
realizar streaming vía web. El códec que utiliza FLV es Sorenson Spark.
Códec
El códec es el código específico que se utiliza para la
codificación/decodificación de los datos. Precisamente, la palabra Códec es
una abreviatura de Codificador-Decodificador.

Parámetros que definen el códec


• Número de canales: Indica el tipo de sonido, señal en
un sentido más general, con que se va a
tratar: monoaural, binaural o multicanal.

• Frecuencia de muestreo: La frecuencia o tasa de


muestreo se refiere a la cantidad de muestras de amplitud tomadas
por unidad de tiempo en el proceso de muestreo (uno de los
procesos, junto con el de cuantificación y el de codificación, que
intervienen en la digitalización de una señal periódica. La tasa de
muestreo sólo determinará el ancho de banda base de la señal
muestreada, es decir, limitará la frecuencia máxima de los
componentes sinusoidales que forman una onda periódica (como el
sonido, por ejemplo). De acuerdo con este teorema, y siempre desde
la perspectiva matemática, una mayor tasa de muestreo para una
señal no debe interpretarse como una mayor fidelidad en la
reconstrucción de la señal. El proceso de muestreo es reversible, lo
que quiere decir que, desde el punto de vista matemático, la
reconstrucción se puede realizar en modo exacto (no aproximado).
La tasa de muestreo se determina multiplicando por dos el ancho de
banda base de la señal a muestrear.

• Resolución (Número de bits). Determina la precisión


con la que se reproduce la señal original. Se suelen utilizar 8, 10, 16
o 24 bits por muestra. Mayor precisión a mayor número de bits.

• Bit rate. El bit rate es la velocidad o tasa de


transferencia de datos. Su unidad es el bit por segundo (bps).
• Pérdida. Algunos códecs al hacer
la compresión eliminan cierta cantidad de información, por lo que la
señal resultante, no es igual a la original.

El vídeo es un conjunto de datos codificado mediante un algoritmo


denominado codec de vídeo.

Un codec permite tanto codificar como decodificar la información. Por


tanto, si la información es codificada por un codec concreto, para poder
reproducirla es necesario tener ese mismo codec en el reproductor.
El vídeo en sí puede estar formado por varias pistas (archivos) de vídeo,
normalmente codificadas por el mismo codec.

El formato contenedor es el tipo de archivo que identifica al contenedor.


Un ejemplo de contenedor flv sería el vídeo casero “micumpleaños.flv”.

Algunos contenedores y codecs más empleados son:


• Contenedores: avi, mp4, mkv, mov, flv, rmvb, ogg,
webm.
• Codecs de vídeo: DivX, H264, Xvid, VP8, Theora,.

• Un códec es una pieza de software que nuestro


reproductor de video necesita para poder interpretar esos chorros de
información. Gracias a software tan maravilloso como VLC ya no
necesitamos preocuparnos de qué códecs tenemos y cuales no, pero
aún así es importante entenderlo porque el códec puede determinar la
calidad de imagen o incluso si nuestro ordenador es lo
suficientemente potente como para decodificar un vídeo concreto.
• La extensión del archivo (lo que viene después del
último punto) nos indicará el tipo de contenedor. Algunos de los más
populares son Audio Video Interleave (.avi), Matroska (.mkv)
y Ogg (.ogg). Cada uno tiene diferentes capacidades, y aunque
suelen ir más asociados a un códec concreto, no es necesariamente
así. El tipo de códec que necesitará un archivo suele ir indicado en el
nombre del archivo. Anotaciones como Xvid, x264 o Theora se
refieren al tipo de códec, que, como ya hemos dicho, resultará
fundamental.

Los archivos de video son diferentes a los otros: para decirlo en pocas
palabras, en ellos hay un contenedor y un contenido. Imagina una cinta de
VHS o un DVD: el contenedor vendría a ser el cassette que lleva la cinta
adentro o el DVD físico que contiene las pistas. El contenedor guarda
distintos tipos de datos, entre ellos el video y sirve para sincronizarlos,
activar unas pistas y desactivar otras (subtítulos, pistas secundarias de
audio).
El contenido es la información que se aloja en él, en este caso, una
corriente de unos y ceros que forma nuestro vídeo y que deberá ser
decodificada. De esta tarea se encargará un códec.
La palabra códec viene de codificador/decodificador y es una pieza de
software que sirve a nuestro reproductor para mostrar correctamente la
información que hay en esa corriente de unos y ceros. Un buen códec
comprime la información lo máximo posible sin que el video final pierda
calidad.
El formato del archivo es lo que llamamos el tipo de archivo, por ejemplo
un .avi puede tener información codificada con un códec Xvid o AC3. Los
códecs y los archivos van relacionados por aspectos técnicos y comerciales,
es decir que no necesariamente pueden combinarse todos con todos.

El vídeo es un conjunto de datos codificado mediante un algoritmo


denominado codec de vídeo.
Un codec permite tanto codificar como decodificar la información. Por
tanto, si la información es codificada por un codec concreto, para poder
reproducirla es necesario tener ese mismo codec en el reproductor.
El vídeo en sí puede estar formado por varias pistas (archivos) de vídeo,
normalmente codificadas por el mismo codec.
Todos estos elementos se encuentran dentro de un contenedor. Una
analogía que ilustra esta idea es una caja de herramientas.
• La caja de herramientas es el contenedor. Existen
distintos tipos de contenedores.
• Las herramientas son el resto de elementos. No todas las
herramientas pueden estar dentro de todas las cajas de herramientas.
Esto significa que no todos los contenedores admiten los mismos
codecs de audio o de video, así como subtítulos, metadatos o menús.
El formato contenedor es el tipo de archivo que identifica al contenedor.
Un ejemplo de contenedor flv sería el vídeo casero “micumpleaños.flv”.

Algunos contenedores y codecs más empleados son:


• Contenedores: avi, mp4, mkv, mov, flv, rmvb, ogg,
webm.
• Codecs de vídeo: DivX, H264, Xvid, VP8, Theora,.
• Codecs de audio: AAC, MP3, WMA, FLAC, ogg.

El problema que se pretende acometer con los códecs es que la información


de video es bastante ingente en relación a lo que un ordenador normal es
capaz de manejar. Es así como un par de segundos de video en una
resolución apenas aceptable puede ocupar un lugar respetable en un medio
de almacenamiento típico (disco duro, Cd, Dvd) y su manejo (copia,
edición, visualización) puede llevar fácilmente a sobrepasar las
posibilidades de dicho ordenador o llevarlo a su límite.
Cómo leer un archivo
La extensión del archivo nos indica el tipo de contenedor, entre los más populares
encontramos:
• .avi: Audio Video Interleave
• .mkv: Matroska
• .ogg: Ogg
• .mp4
• .mov
• .rmvb
Dentro del nombre del archivo podemos encontrar el tipo de códec que se ha usado. En
las búsquedas más usuales veremos los siguientes:
• Xvid
• AC3
• H.261
• H.262
• H.264
• X264
• Theora
• MPEG-1
• MPEG-2
• MPEG-4
• WMV

• Excelente calidad: DVDRip, TVRip, HDRip ó BDRip, HR


HDTV, DVDFULL, DVD9, DVD5, HDTV, DVD-R
• Calidad regular, aceptable pero puede variar: DVD-SCREENER
(DVDscr), VHSRip, TC.
• Mala calidad, no recomendada: DivX Re-Enc, CAM, TS, VHS-
SCREENER (VHSscr)

H.264
También conocido como MPEG-4 AVC, este códec provee alta calidad de codificación
y decodificación para aplicaciones de transmisión de video en tiempo real, a ratios que
van desde un cuarto a la mitad del tamaño de los archivos de los formatos de video
previos. El tamaño de archivo logrado es 3 veces más pequeño que los logrados con los
códecs MPEG-2.
Logra imágenes de buena calidad tanto a altos como a bajos ratios y una mejor calidad
de imagen que MPEG-2, MPEG-4 o H.263. Es dos veces más eficiente que MPEG-4.
Es fácil de integrar y cubre un amplio rango de formato de imágenes. Entre sus
desventajas encontramos que requiere un tiempo de codificación mayor y que los
acuerdos de licencia son algo complicados.
MPEG-1
Este códec da una excelente calidad de imagen a ratios de CD-ROM. Uno de los usos
más populares del MPEG-1 es el VCD, o video CD llamado «libro blanco». MPEG
incluye compresión de video y audio. El mayor problema que hay con el MPEG son sus
altos requerimientos para la reproducción, lo que ha hecho que este códec no tenga gran
acogida.
MPEG-2
Está optimizado para calidad de difusión para video digital y ofrece muy buena calidad
de imagen y resolución. Es el estandar de vídeo principal para DVD-Video. Se requiere
pagar la licencia para distribuir video con MPEG-2.
DiVx
Su nombre viene de la marca que lo ha creado, Divx Inc. y por lo tanto es un códec
comercial, por el uso del cual hay que pagar. Este códec utiliza compresión lossy (con
pérdida) MPEG-4 Part 2 y es totalmente compatible con MPEG-4-Advanced Simple
Profile, MPEG-4 ASP. Es bastante simple de utilizar y es popular debido a su facilidad
para comprimir largos segmentos de video en tamaños pequeños manteniendo una
calidad visual relativamente alta.
x264
En marzo de 2012, en forma conjunta varias comunidades de uploaders decidieron
utilizar este códec y dejar de usar Xvid/avi, por la mayor calidad y compresión a
resoluciones SD. X264 es una implementación abierta y disponible de forma open
source del estándar H.264. Ofrece la mejor calidad al menor tamaño de archivo posible.

Flujo de trabajo:
• Etapas de la producción audiovisual,
desde el registro hasta la exhibición.

También podría gustarte