Está en la página 1de 49

TEMA 4

Grabación y edición de vídeo. Formatos





Profesor: Enrique Sánchez Oliveira
2020
4.1 Señales analógicas y digitales
•  El sensor de imagen (CCD, CMOS, Foveon), que es el verdadero transductor óptico-eléctrico de la
cámara de vídeo, convierte la luz (la imagen que capta el objetivo) en electricidad (señal vídeo).
•  Esa señal vídeo es analógica, sus valores eléctricos varían según la luz (más fotones llegan al
sensor, más electrones salen del sensor), es decir, existe analogía (proporcionalidad) entre la
cantidad de luz y el valor eléctrico de la señal
•  En sus inicios, la TV y el vídeo eran analógicos
•  En los años 90 del siglo XX se produce un avance que cambia el mundo de los medios
audiovisuales: la digitalización de señales
•  Con la digitalización, la señal de vídeo analógica que nos proporciona el sensor se convierte en un
flujo de bits
•  Así pues, para poder digitalizar previamente tenemos que obtener una señal analógica
•  Lo anterior hay que matizarlo: podemos crear imágenes digitales directamente como datos
digitales. Son imágenes que llamamos virtuales que no provienen del mundo real, aunque a veces
traten de imitarlo
•  señal analógica
•  es aquella cuyas variaciones guardan analogía
(proporcionalidad, similitud) con lo que se
verifica en la naturaleza
•  Una señal analógica es una señal continua (lo
que significa que podemos conocer su valor en
cualquier instante de tiempo)

•  señal digital
•  es una señal discreta: conocemos su valor en
instantes de tiempo discretos; entre un
instante y el siguiente no conocemos su valor
•  la principal ventaja de la información binaria es
que solo presenta dos estados: 0 ó 1 (el cero
corresponde a baja tensión eléctrica y el 1
corresponde a alta tensión eléctrica)
•  se expresa como una sucesión de ceros y unos
(código binario)

•  Cero = ausencia de impulso eléctrico


•  Uno = impulso eléctrico
De analógico a digital
•  Una cámara de vídeo analógica y una cámara de vídeo digital presentan muchas
similitudes tecnológicas: óptica, división en colores primarios, sensores (que son
analógicos); lo que las diferencia es la conversión a código binario de la señal que
proporciona el sensor
•  Mediante la digitalización convertimos la señal vídeo original en una aproximación
a ella codificada en código binario, o sea, expresada en bits. Esta transformación
se realiza en un conversor analógico-digital
•  Un conversor de analógico a digital se expresa así: A/D (la A es de analógico y la D de digital)
•  También es usual escribirlo como ADC (siglas de Analog to Digital Conversion)
•  El conversor ADC es un procesador muy rápido que convierte la señal analógica en
una señal digital (flujo digital de datos binarios) para poder ser almacenada o
transmitida. Para poder ser vista esa información en un monitor o televisor
previamente hay que convertir la señal digital de nuevo a señal analógica en un
conversor digital-analógico
•  Un conversor de señal digital a señal analógica se escribe: D/A o DAC
•  El proceso de digitalización genera una gran cantidad de datos
•  En formato HD (1920x1080) un frame tiene 33.177.600 bits
(aproximadamente 4 MB)
•  Esta gran cantidad de bits obliga a reducir la información para tener un flujo
de datos manejable
De analógico a digital
La digitalización de una señal analógica requiere de dos
operaciones fundamentales:
•  Muestreo y cuantificación
•  Posteriormente, dada la cantidad ingente de datos resultado de estas dos
operaciones es necesario comprimir y codificar los bits obtenidos
Muestreo (sampling)
•  Consiste en tomar muestras a
intervalos regulares de tiempo de
los valores de la señal analógica.
Cada una de estas muestras son
las que luego convertiremos a
números (0 y 1)
•  si las muestras son pocas (frecuencia
demasiado baja) no son capaces de
representar la señal.
•  si son demasiadas (frecuencia
demasiado alta) resultan redundantes
•  Posteriormente, en un convertidor
D/A la señal puede recuperarse
completamente a partir de las
muestras
Muestreo
— Frecuencias de muestreo o tasa de muestreo (sampling
rate)
•  número de muestras por segundo
•  cuanto mayor sea la cantidad de muestras que tengamos de la
señal analógica, mejor podremos reconstruirla

—  Principio de Nyquist: la frecuencia de muestreo debe ser al menos el doble


de la mayor frecuencia que pueda tomar la señal a digitalizar
÷ En audio digital la frecuencia de muestreo mínima recomendada es 40 KHz
÷ En vídeo digital la frecuencia de muestreo mínima recomendada para la
luminancia es 12 MHz
Cuantificación
•  Es el proceso de expresar todas y cada una de las muestras en código binario
•  Se preestablecen una serie de niveles de cuantificación y a cada uno se le da
un valor en código binario
•  El procesador ADC trabaja a una velocidad increíble para ver que nivel toma
cada una de las muestras
•  Cuando una muestra se encuadra en un nivel, se le asigna el valor binario
correspondiente
•  El número de niveles de cuantificación que se pueden establecer es una
característica de los distintos formatos de vídeo. En realidad es algo muy
estandarizado: en la TV y el vídeo actual es muy frecuente que los archivos de
vídeo tengan 256 niveles de cuantificación (como veremos en la página
siguiente eso implica que cada muestra tiene 8 bits)
•  Cuanto mayor es el número de bits por muestra, mayor es el número de
niveles preestablecidos posibles, mayor es el tamaño del archivo resultante y
más calidad tiene la imagen digital
•  Junto a la frecuencia de muestreo, el número de bits de cada muestra es una
característica fundamental del vídeo y el audio digital
Cuantificación
—  Cuantos más bits tiene cada muestra, más niveles de
cuantificación son posibles y mejor la calidad del vídeo
digital
—  Como vemos en el esquema si cada muestra se compone
de 1 bit, podemos establecer dos niveles de
cuantificación distintos: nivel 0 y nivel 1 y por tanto cada
muestra puede tomar uno de esos dos valores, ninguno
más
—  Un formato en que cada muestra tenga 2 bits permite
establecer 4 niveles: 00, 01, 10, 11
—  Un formato con 8 bits por muestra permite 256 niveles
de cuantificación posibles
—  Por ejemplo, si utilizamos 8 bits por muestra para
digitalizar una imagen en blanco y negro, podemos
establecer 256 niveles de cuantificación que representan
256 niveles distintos de grises que puede tomar cada
muestra

•  10 bits = 1024 niveles de cuantificación


•  16 bits = 65.536 niveles
•  20 bits = 1.048.576 niveles
—  Sabiendo el número de bits por muestra podemos
calcular el número de niveles de cuantificación posibles
con la sencilla fórmula 2ⁿ, siendo n= número de bits por
muestra
Compresión
•  Los datos obtenidos del muestreo y la cuantificación de vídeo se convierten en una ingente
cantidad de datos digitales
•  Si los almacenamos conformarían un archivo de gran tamaño.
•  Para transmitirlos y reproducirlos, dada la gran velocidad de bits requerida (bits rate: bits por segundos que
tenemos que transmitir, almacenar…) por los archivos de vídeo, necesitaríamos una conexión a internet muy
rápida con un gran ancho de banda.
•  Comprimir (reducir) esos datos es esencial para reducir el tamaño del archivo de vídeo y
disminuir la velocidad de bits necesaria
•  Los datos binarios se someten a un proceso de codificación y decodificación (códec). Los
codificamos para almacenarlos o transmitirlos y los decodificamos para reproducirlos. Los datos
de vídeo organizados según un determinado códec tienen que ser reproducidos en el dispositivo
de visionado con el mismo códec.
•  Los codificadores utilizan un determinado patrón, una determinada manera, de comprimir los
datos Cada codificador cuenta con su correspondiente decodificador para descomprimir e
interpretar los datos y poder reproducirlos
•  Hay una gran variedad de códecs disponibles; no hay un único códec adecuado para todas las
situaciones. Por ejemplo, un códec para comprimir imágenes de vídeo sobre las que vamos a
realizar efectos digitales en postproducción para un spot publicitario, no suele ser el más
adecuado para comprimir vídeos que vamos a colgar en nuestro blog de internet. No es lo mismo
codificar vídeo para ser visto en una clase virtual en la plataforma de la US que para cine digital
Compresión (reducción de datos)
—  El tratamiento digital de la señal vídeo conlleva procesar una gran cantidad
de datos
¡  Ej.: digitalizar una señal de vídeo monocroma PAL (calidad SD, ni siquiera HD) supone: 720 muestras por
línea, 8 bits por muestra, 575 líneas por frame, 25 frame por segundo = 82,8 millones de bits por segundo
si la imagen es en color, debemos digitalizar R,G y B = 82,8 x 3 = 248,4 millones de bits por segundo
—  La compresión es esencial para reducir el tamaño de los archivos de vídeo de
forma que se puedan almacenar, transmitir y reproducir con eficacia
—  Para procesar, almacenar o transmitir esta información hay que comprimirla
eliminando la redundancia de los datos, de tal manera que los dígitos binarios
no se codifican tal y como salen de la cuantificación sino que se comprimen
para reducir peso (tamaño en Byte de un archivo de vídeo) y flujo de datos o
bitrate (cantidad de bits por segundo para transmitir vídeo)
—  Así surgen distintas soluciones técnicas que buscan reducir la cantidad de
datos:
—  compresión sin perdida de datos o lossless donde no hay una pérdida de la
calidad de la imagen a pesar de la reducción de datos
—  compresión con perdida de información o lossy donde se descarta información y
se reduce el número de bits, lo implica una cierta pérdida de calidad, aunque en
muchos casos sigue siendo una imagen de alta calidad)
Compresión (reducción de datos)
—  Para la compresión de la información en vídeo se recurre a la eliminación de la
información redundante (datos que son repetitivos o predecibles) y a las
cualidades de la percepción visual humana
—  La redundancia puede ser intra-frame o inter-frame
÷ La compresión intra-frame se aplica sobre un fotograma independientemente de los
fotogramas que le rodean, elimina información teniendo en cuenta la redundancia
espacial.
÷ En un frame eliminamos la información relativa a algunos píxeles que tienen la
misma información que pixeles vecinos o información muy similar que el ojo humano
no puede diferenciar. Por ejemplo consideremos un frame donde aparece una pared
blanca de fondo. Hay zonas de píxeles que tienen el mismo color (la misma
información binaria) y habrá píxeles blancos con diferentes tonos de blanco tan
sutiles que el ojo humano no es capaz de percibir y pueden considerarse del mismo
color blanco. No es necesario repetir la información para todos y cada uno de los
píxeles.
En la redundancia intra-frame se comprime cada frame por separado.

÷ La compresión inter-frame se aplica sobre un grupo de frames sucesivos eliminando
la información que se repite en varios de ellos (elimina pues la redundancia
temporal)
La compresión inter-frame reduce información a partir de las similitudes entre los
frames y se envía y/o almacena la información que cambia de un frame a otro.
Compresión inter-frames

La compresión interframe trabaja sobre un grupo de imágenes o GOP (Group Of Pictures). Llamamos GOP al grupo de frames comprendidos entre dos frames I
Localizar los frames I en la serie superior: los 5 primeros son claramente diferentes y el primero de ellos es un frame I; el 6 frame es distinto y sería un nuevo
frame I que daría inicio a otro GOP
Cuando los cambios entre un frame y el siguiente superan un tanto por ciento se origina un nuevo frame I y por tanto un nuevo GOP

En una serie GOP la diferencia entre un frame y el siguiente no es muy grande, así que hay información “redundante”, que se repite en todos los frames y que se puede
eliminar.
La compresión temporal identifica las diferencias entre los frames y solo codifica (almacena) estas diferencias. La información de las áreas de la imagen que son iguales
en todos los frames del GOP solo se codifican una vez: en el frame I.
En el ejemplo de arriba codificaríamos toda la información del árbol y el cielo del primer frame I; de los 4 frames siguientes solo necesitamos la información del
balón de fútbol, que es lo único que cambia respecto al frame I. La información del árbol y el cielo de esos 4 frames la suprimimos y la tomamos del frame I
En un GOP, además de un frame inicial que denominamos “I” (I-Frame) que es un frame completo del que se da toda la información, existen los frames “P” (Predicted
frame) y los frames “B” (Bidirectional frame). P y B contienen información de las modificaciones que se producen en el tiempo respecto al fotograma I.
Múltiplos del Sistema Internacional de Medidas
No hay que memorizarlo, hay que familiarizarse con el significado de los prefijos)

Prefijo Símbolo Valor


expone •  Prefijos binarios
ncial
•  Pebibyte PiB) = 250
Peta P 1015 1.000.000.000.000.000 Trillón
•  Tebibyte (TiB) = 240
Tera T 1012 1.000.000.000.000 Billón
•  Gibibyte (GiB) = = 230
Giga G 109 1.000.000.000 Mil Millones
•  Mebibyte (MiB) = 220=1 048 576 byte
Mega M 106 1.000.000 Millón
Kilo K 103 1.000 Mil •  Kibibyte (KiB) = 210 = 1024 byte
Hecto H 102 100 Cien
Deca D 101 10 Diez
•  1 Byte = 23 = 8 bits

1 Kilobyte = 1.000 Byte 1 Kibibyte = 1024 Byte


1 MegaByte = 1.000.000 Byte 1 Mebibyte = 1.048.576 Byte
4.2 Formatos de vídeo digital
Formatos digitales

•  Los formatos digitales de vídeo son un universo lleno de acrónimos


•  Para valorar las características de un formato digital de vídeo debemos
considerar cinco conceptos fundamentales (algunos de ellos ya estudiados):
a)  Definición o Resolución (Resolution)
b)  Muestreo de color (Color sampling)
c)  Profundidad de color (Color Depth o Bitdepth)
d)  Velocidad de fotogramas o Frecuencia de imágenes (Framerate)
e)  Compresión (Compression)
•  Los diferentes formatos se basan en la manera en que gestionan estos
parámetros básicos del vídeo digital y en como comprimen la información
•  Un mismo formato puede ofrecer distintos valores en alguno de estos
parámetros (lo más usual es que ofrezca distintas resoluciones y cadencias)
a) Definición/Resolución (Resolution)

•  La manera usual de expresar la definición


de una imagen en vídeo es:

•  Resolución se refiere al número de píxeles


que tiene la imagen •  Número de pixel por línea (resolución
horizontal) x número de líneas (resolución
vertical)/frames por segundo

•  Cuantos más píxeles tenga la imagen, más •  Ejemplos
resolución tendrá (y más peso tendrá un •  1920 x 1080/25i = 1920 pixel por
archivo en ese formato) línea; 1080 líneas con exploración
entrelazada; 25 frames por
segundo
•  1280 x 720/50p = 1280 pixel por
•  Distinguimos entre: línea; 720 líneas en progresivo; 50
•  Resolución vertical: nº de líneas horizontales frames por segundo
•  720 x 576/25i = es el estándar de
•  Resolución horizontal: nº de píxeles individuales la imagen televisiva de la TDT
por cada línea actual; las 625 líneas del sistema
PAL se convierten en 576 líneas
activas (las líneas que realmente
c o n f o r m a n l a i m a g e n q u e
visualizamos)
Definición/Resolución (Resolution)

•  Atendiendo a la definición existen


varios estándares en televisión:

•  SD (Standard Definition) digital
•  PAL (720x576)
•  NTSC (720x480)
•  HD (High Definition)
•  HD Ready (1280x720)
•  Full HD (1920x1080)

•  UHD (Ultra Alta Definición) ó 4K En televisión los formatos se conocen por el número de líneas
(resolución vertical): 720 o 1080, mientras que en cine digital
los formatos se nombran atendiendo al número de pixeles por
•  3840x2160 línea (resolución horizontal): 2K (2048 píxeles) o 4K (4096
•  4096x2160 píxeles)
b) Muestreo de color (Color sampling)

•  Para que la TV analógica en color y la TV en blanco y negro (B/N) fueran


compatibles, y para optimizar el espacio radioeléctrico, se recurrió a la
codificación de la señal RGB en dos señales: Luminancia (Y), que lleva la
información de la intensidad de luz, y Crominancia (C), que lleva la información
del color
•  Entendemos codificar como agrupar los bits según unas normas o códigos
•  Recordar que estas señales Y y C llegan a un televisor donde se decodifican para obtener una señal
RGB que permite estimular cada celda de color (o subpíxel) R, G o B separadamente y obtener (por la
síntesis aditiva) u píxel a “todo color”

•  En vídeo digital también se codifica en Luminancia y Crominancia. Esta última


consta de dos componentes de color que se denominan CB y CR
CB = Componente de color Blue y CR = Componente de color Red

•  Dado que el ojo humano es muy sensible a las variaciones de luminosidad pero
no tanto a los cambios de color. En el vídeo digital, para reducir el tamaño de los
archivos y disminuir el bits rate, se suele utilizar toda la información de
luminancia pero menos información de cada componente de color. A esto se
denomina muestreo de color


Muestreo de color (Color sampling)
•  El muestreo de color se expresa consignando la proporción de muestras
de luminancia, de muestras de la componente de color azul (CB) y de
muestras de color rojo (CR) en una cuadrícula de 4x4 píxeles
Y:CB:CR (número de muestras de luminancia: nº de muestras de CB: nº 4:4:4
muestras de CR)

•  Muestreo 4:4:4 (muestreo completo) significa que se muestrea y
digitaliza toda la información de Y, CB y CR para cada uno de los píxeles,
es sinónimo de RGB
•  Muestreo 4:2:2 significa que por cada 4 muestras de Y se obtienen dos
de CB y dos de CR.
Es el tipo de muestreo de color que se utiliza en televisión y significa la mitad de 4:2:2
información de color que de luminancia. No presenta pérdidas aparentes de
calidad
•  Muestreo 4:2:0 se obtienen en una fila de píxeles: 4 muestras de Y, dos
de CB, cero de CR; en la siguiente fila de píxeles: 4 muestras de Y, cero de
CB, dos de CR
La proporción es de ¼ de información de color en relación a la información
de luminancia. Hay pérdida de la calidad de color

Resumiendo (a grosso modo):


Los formatos con muestreo 4:4:4 tienen toda la información de color. Son los que utiliza el
cine digital de calidad 4:2:0
Los formatos 4:2:2 proporcionan la mitad de información de color que los 4:4:4 y los
formatos 4:2:0 un cuarto de información de color
c) Profundidad de color

•  La profundidad de color (Colordepth o Bitdepth)


nos indica la cantidad de matices de color que
podremos obtener con una señal vídeo
•  Se mide en bits
•  Cuantos más niveles de cuantificación
establezcamos para digitalizar la señal de vídeo en
color, más niveles o tonos distintos de cada color
primario R, G, B podremos establecer y por tanto
más calidad de la imagen en color
•  Comencemos por la imagen en Blanco y Negro. Si
establecemos 8 bits (1 Byte) por muestra como
La imagen de la derecha no tiene gama de grises, se forma con píxeles
característica del formato, tendremos 256 niveles blancos y negros. La profundidad de color es de 1 bits, que nos
de cuantificación distintos. Por tanto cada píxel en permite que una muestra tome el valor 0 o 1, ningún otro.
la pantalla podrá tomar 256 valores distintos de Si el valor de la muestra es 0 el píxel será blanco; si la muestra vale 1
el píxel correspondiente será negro
gris (incluidos el blanco y el negro). En conclusión: La imagen de la izquierda tiene una profundidad de color de 8 bits y
con una profundidad de color de 8 bits obtenemos está formada con muestras que pueden tomar 256 valores distintos y
por tanto cada píxel puede mostrar 256 niveles distintos de gris
una imagen en blanco y negro a partir de 256
valores distintos de gris
c) Profundidad de color
•  En la imagen en color cuantos más bits por muestra
apliquemos para digitalizar la señal vídeo, mayor será el
número de matices de color distintos que puede tomar
cada píxel (y mayor el tamaño del archivo que
obtenemos)
•  El número de bits por muestra más utilizado en la
televisión en color es también de 8 bits, pero en este
caso 8 bits por cada color R, G y B
•  Esto significa que en un píxel su celda roja puede tomar
256 valores distintos de rojo, igual en la celda azul e
igual en la verde. Ese píxel puede tomar todos los
matices de color que permite la mezcla aditiva de rojo,
verde y azul pudiendo tomar cada uno de los colores
primarios 256 niveles o gradaciones distintas
•  En SD y HD se utilizan 8 bits por canal, 256 niveles
distintos para cada color primario. En total 24 bits (8 x
3) ó 16.777.216 de diferentes tonos de colores
•  Otras profundidades de color utilizadas son 10 bits y 12
bits que, lógicamente, significan mayor riqueza
cromática pero muchísima más información
d) Frecuencia o Velocidad de fotogramas (Framerate)

•  La Velocidad de fotogramas es el número de


imágenes por segundo
•  Cuanta más elevada sea la velocidad con más suavidad
se reproducen los movimientos. Esto es interesante
para escenas de acción donde hay movimientos muy
rápidos. Pero cuantos más fotogramas, más datos y
archivos más grandes.
•  Las velocidades de fotogramas estandarizadas son:
•  Cine: 24 fps
• 
TV: 25 ó 30 fps (en realidad 29,97 fps, no 30) 1 segundo: 25 frames
•  Barrido o exploración se refiere a cómo se forma
cada uno de los frames en el monitor o televisor
•  Entrelazado (i) cada frame contiene la mitad de sus
líneas en el campo impar (líneas con numeración impar:
1, 3, 5…) y la otra mitad en el campo par (líneas 2, 4,
6…). El vídeo entrelazado es propio de la televisión
•  Progresivo (p) se muestran todas las líneas del frame
de arriba abajo. Los monitores de los ordenadores
trabajan con vídeo no entrelazado o progresivo
e) Compresión (Compression)

•  Como ya vimos, dada la enorme cantidad de datos


que es necesario manejar en la imagen digital, se
hace necesario comprimir para reducir peso
(tamaño en Byte de los archivos) y bitrate (flujo de
datos medido en bits por segundo)
•  Cada fabricante opta por una compresión propia
aunque hay recomendaciones y estándares
•  La manera de comprimir y descomprimir los datos
para que ocupen menos espacio origina los
distintos códec.
•  Cuando elegimos un códec la información se
comprime según los patrones de compresión del
codificador de ese códec. Para poder abrir y
r e p r o d u c i r e s e a r c h i v o n e c e s i t a m o s e l
decodificador de ese códec que permite
descomprimir e interpretar los datos
Formatos digitales más frecuentes
Formatos TV

•  Para emisión y distribución por TV las normas de compresión están


muy estandarizadas para facilitar el acceso de la audiencia. Todas las
empresas deben trabajar con los mismos estándares definidos por
organismos internacionales
•  Hay dos estándares en TV digital: SDTV y HDTV

•  La televisión utiliza sistemas de codificación de la familia mpeg:


•  mpeg2 para la televisión SD
•  mpeg4 para la televisión HD (en concreto la versión H.264)
Formatos TV
•  SDTV (Standard Definition)

Formato Resolución Muestreo Prof. Bits fps
PAL ó SD576 720x576 4:2:2 8 50i
NTSC ó SD480 720x480 4:2:2 8 60i

•  HDTV (High Definition)


Formato Resolución Muestreo Prof. Bits fps
1080 1920x1080 4:2:2 8 24p,25p,30p,
50i, 60i, 60p
720 1280x720 4:2:2 8 30p

códecs
•  Como vimos anteriormente, la información en vídeo con una resolución aceptable
ocupa mucho espacio de almacenamiento y un flujo de datos (bitrate) muy alto. La
finalidad de los codécs es comprimir la información en el momento de guardarla y
descomprimirla en tiempo real para la visualización
•  Para comprimir se utilizan algoritmos matemáticos conocidos como códecs (de
COmpressor/DECompressor)
•  Los códecs son más eficientes cuanto más comprimen la señal sin pérdida aparente
de la calidad
•  La eficiencia en la compresión será más alta cuanto mayor sea la compresión y
menor la pérdida de información relevante. Se específica por medio de una relación
tipo X:1 (ejemplo: compresión 5:1 significa que se reduce 5 veces el tamaño
original)
•  En general , los códecs pretende mantener la calidad subjetiva de la imagen y el
sonido con una menor cantidad de datos y hacer más eficientes los sistemas de
compresión. Pero en el complejo universo de los códecs también intervienen
intereses comerciales y políticos que a veces complican el flujo de trabajo con
archivos de vídeo y audio digital.
•  Códecs propietarios o cerrados son aquellos sujetos a una licencia o patente; son propiedad
de una empresa
•  Códecs abiertos son aquellos que se pueden utilizar sin necesidad de pagar derechos o
royalties; son desarrollados por organismos internacionales; el más conocido es la familia de
códecs mpeg (acrónimo de Motion Picture Expert Group)
códecs
•  En el ámbito de los códecs nos encontramos:
•  Los que se utilizan en la grabación
Comprimen la información de la imagen en “ficheros de captación o nativos “ para
almacenar los datos en el dispositivo de grabación (cinta, tarjeta, disco)
•  Los que se utilizan en la edición y postproducción
Permiten ahorrar espacio y optimizar el disco duro en el ordenador de edición,
facilitan los efectos en tiempo real, acortan el tiempo de renderización (tiempo que
duran los procesos informáticos de la imagen)
Nosotros trabajamos en FCproX con “ficheros de postproducción” Apple ProRes
•  Los que se utilizan en la distribución y emisión de señales
Con estos códecs obtenemos “ficheros de distribución”.
Existen multitud de códecs de vídeo: Sorensen, H.264, DivX, X-Vid, On2, Theora…
Y de audio: AAC (Advanced Audio Coding), MP3, FLAC, Speed
Actualmente la tendencia es que las codificaciones sean:
•  VBR (Variable Bitrate ) y
•  VFR (Variable Framerate video)
Formatos de vídeo digital de grabación (formatos de captura) más
usuales

•  Formatos domésticos
•  DV (Digital Video), originariamente DVC (Digital Vídeo Cassete), creado por un consorcio de empresas liderado por Panasonic en 1996;
existen dos tamaños de cinta: DV y miniDV; todos los fabricantes utilizaron este formato en la versión miniDV para el mercado doméstico
•  DVD (Digital Versatile Disc) es un formato de distribución (para visionado final con un reproductor) aunque posteriormente se utilizó
para grabación con videocámaras domésticas en disco
•  HDV (High Definition Video) vídeo en Alta Definición comercializado en 2003 por varios fabricantes con opciones para 720p y 1080i
•  AVCHD (Advance Video códec High Definition) desarrollado por Sony y Panasonic, lanzado al mercado en 2006; no utiliza cinta como
soporte de grabación, pudiendo almacenarse la información en Disco Duro, tarjeta SD, Memory Stick

•  Formatos profesionales
•  DVCProHD, es la gama de Panasonic para el mundo profesional; el DVCPro surge en 1996 y tiene gran implantación en el ámbito
profesional; con versiones mejoradas hasta el DVCPro HD
•  DVCam, variante profesional del estándar DV, fue creado por Sony también en 1996
•  HDCam y XDCam , ambos de Sony; admiten resoluciones muy altas. Han aparecido varios formatos que mejoran la imagen tanto en HD
como en XD (Cine Alta)
•  AVC-Intra, presentado por Panasonic en 2007 para el sector profesional, también ha conocido desde entonces sucesivas mejoras
•  Red R3D, ofrece resoluciones muy altas de 2K y 4K
•  Raw, (“bruto”, “en crudo”), en realidad no es un formato puesto que contiene todos los datos de la imagen tal como los capta el sensor
(o sea, sin formatear). Posteriormente con un procesador se ajusta el color, la ganancia, el balance de blanco o la luminosidad. Se conoce
también como “negativo digital” por las posibilidades de modificación a posteriori. Son archivos de gran tamaño.
Archivos contenedores
•  Para los usuarios se trata de un único archivo, por ejemplo hablamos
de un archivo Quicktime o un archivo mp4, pero para el ordenador
es un archivo con varios archivos distintos
•  Los archivos contenedores son una especie de cajón en el que
guardamos vídeo, audio, subtítulos, etc. Suelen tener, además de
una pista o canal de vídeo, dos o más pistas de audio y un canal de
metadatos (datos sobre los archivos que van dentro, por ejemplo:
resolución, velocidad de frames, códecs usado, relación de aspecto,
información de idiomas y subtítulos…)
•  El audio y el vídeo van comprimidos utilizando distintos códecs, o
sea, dentro de un archivo contenedor podemos encontrar distintos
tipos de archivos codificados con códecs distintos
•  Necesitamos que el entorno de hardware y software con que
trabajamos reconozca el archivo contenedor y también los códecs
que utilizan los archivos que contiene para descomprimirlo en la
reproducción
Archivos contenedores
•  Archivos contenedores de vídeo usuales:
•  QuickTime (.mov), de Apple. Sería mejor hablar de archivos mov dado que QuickTime era en
principio el reproductor para estos archivos
•  MP4 (.mp4), sistema contenedor de audio y vídeo definido dentro del estándar MPEG-4
•  ASF (Advanced Systems Format) que suele contener archivos Windows Media Video (.wmv) y
Windows Media Audio (.wma). Fue diseñado por Microsoft para el streaming
•  Audio Video Interleaved (.avi), presentado por Microsoft en 1992. Ha experimentado
sucesivas mejoras y sigue siendo utilizado
•  Material Exchange Format (.mxf)
•  Flash Video (.f4v /.flv). Se utiliza, no es el único, para transmitir vídeos por internet
•  Matroska (.mkv)

•  El reproductor del ordenador (VLC, QuickTime, Windows Media, etc) separa los
distintos archivos que incluye un contenedor, los decodifica y los reproduce
4.3 Soportes de grabación
Cinta magnética
•  Es el soporte en que se grababa el vídeo analógico
•  La cinta siempre es de acceso secuencial, es decir, hay que pasar por los puntos
intermedios para ir de un punto a otro de la grabación.
•  Por ejemplo, en una cinta VHS para ir del principio de una película a una escena del final hay
que ir en avance rápido, no podemos posicionarnos en un punto determinado de manera
aleatoria o no-secuencial. En un CD de música si podemos seleccionar el tema que queremos
de forma no secuencial.
•  La grabación en cinta necesita siempre un mecanismo de arrastre
•  Los formatos más utilizados y en los que podemos encontrar material de
archivo sin digitalizar eran:
•  Formatos profesionales
•  Quadruplex, 1 pulgada B , 1 pulgada C, Betacam
•  Formatos industriales
•  U-Matic , S-VHS
•  Formatos domésticos
•  Betamax, VHS, Vídeo 2000, , Vídeo 8, Hi 8
vídeo analógico
Betacam U-matic

1 pulgada C

VHS Hi 8
Discos Duros (HD: Hard Disk)
•  El disco duro es un dispositivo de grabación de datos digitales capaz de
conservar la información almacenada una vez que se apague el
ordenador (almacenamiento no volátil)
•  Se compone de uno o más discos, llamados platos, unidos por un mismo
eje que giran a la vez y a gran velocidad en el interior de una caja
metálica sellada. Cada plato tiene su propio cabezal de lectura/escritura
con dos cabezas: una para la cara superior y otra para la cara inferior
•  Los discos duros rotan a gran velocidad, es muy usual a 7.200 rpm
(revoluciones por minuto) aunque pueden llegar a 15.000 rpm
Discos Duros (HD: Hard Disk)
•  La tasa de transferencia: velocidad a la que puede transferir información desde o
hacia el disco duro se mide en Mbps (Megabits por segundo) y es mayor en lectura
que en escritura

•  El tiempo de acceso a distintas informaciones grabadas en disco duro (Latencia


media) es muy rápido

•  Los discos duros son frágiles como unidades de grabación en exteriores, sin embargo,
es un dispositivo muy usado en la edición: ofrece gran capacidad de almacenamiento
a precio relativamente económico y buena velocidad de transferencia

•  Cuando vamos a editar una gran cantidad de vídeo, para mejorar la tasa de
transferencia se suele montar en entornos profesionales varios discos duros en RAID
(Redundant Array of Independents Disks, conjunto redundante de discos
independientes), que funcionan como si fuera una sola unidad.

•  Cómo funciona el disco duro de un ordenador


•  https://www.youtube.com/watch?v=3BWWiCVuJGA
SSD (Solid State Drive, Unidades de Estado Sólido)
•  Memorias de tipo no volátil (memoria flash) dado que no se pierde
la información al desconectar la corriente eléctrica
•  No tienen partes móviles y son, por tanto, muy resistente a golpes
y caídas, consumen menos energía y son más duraderos. Además,
son muy silenciosos
•  Su coste por GB sigue siendo elevado respecto al Disco Duro,
aunque la capacidad de almacenamiento se va incrementando
aceleradamente y el precio va siendo más competitivo respecto al
disco duro tradicional de platos giratorios
Tarjetas de memoria flash
•  Al igual que los discos, las tarjetas flash
son memorias de tipo no volátil, que
n o p i e r d e n l a i n f o r m a c i ó n a l
desconectar la corriente eléctrica .
Igualmente , no tienen partes móviles y
son, por tanto, muy resistente a golpes
y caídas, consumen menos energía
•  Se utilizan para la grabación en las
cámaras de vídeo digital domésticas y,
cada día más, profesionales.
•  En vídeo doméstico las más utilizadas
son las tarjetas SD (con sus variantes
MicroSD, SDHC, SDXC), Memory Stick
(Sony)…
•  En vídeo profesional: P2 (Panasonic),
Express Card, SxS (Sony y JVC)…
Bitrate y capacidad. Unidades de medida

•  Las tarjetas Secure Digital High Unidades de medida de


Capacity (SDHC) vienen capacidad de un disco duro:
catalogadas en clases (o tipos) Megabyte (Mhz) 1 MB =
según la velocidad mínima de un millón de bytes
transmisión que garantizan
Gigabyte (GB) 1 GB = mil
•  Es lo que se denomina “flujo de millones de bytes
datos” o “tasa de Terabyte (TB) 1 TB = un
transferencia” o “bitrate” billón de bytes
•  Se expresa en bits por segundo •  La capacidad de un disco duro se
refiere a la cantidad total de
Clase Velocidad información que puede almacenar
Class 2 2 Mb/s mínimo
Class 4 4 Mb/s mínimo
•  La capacidad de almacenamiento se
expresa en Bytes.
Class 6 6 Mb/s mínimo
Class 10 10 Mb/s mínimo •  1 Byte = 8 bits
•  B mayúscula se refiere a Byte; b
minúscula a bit (no siempre se
expresa adecuadamente)
4.4 Edición de vídeo
Edición
•  Podemos definir edición como la selección, ordenación y posterior combinación
de las imágenes y sonidos obtenidos durante el rodaje (además de imágenes y
sonidos de archivo, gráficos, efectos especiales, rótulos…) para componer
nuestro programa final
•  La edición se encuadra en la última fase de elaboración de un programa
audiovisual, en la denominada postproducción
•  La edición de imágenes electrónicas comienza a finales de los cincuenta de forma
similar al montaje de imágenes cinematográficas: corte físico y unión con
adhesivo especial
•  Este método tan laborioso pervive hasta principios de los años setenta del siglo
XX, cuando se instaura la edición lineal por copia (transferencia) de imágenes y
sonidos. Actualmente se utiliza la edición no lineal
Edición lineal
•  Edición lineal
•  Era la edición característica del vídeo analógico aunque también se utilizó con cintas de
vídeo digital; está prácticamente en desuso
•  Trabaja directamente con las cintas de vídeo
•  Se basa en la copia (en la transferencia) de fragmentos seleccionados de audio y/o
video desde el magnetoscopio lector (donde está la cinta de rodaje) al magnetoscopio
grabador (donde está la cinta máster)
•  La edición lineal obliga a montar los planos sucesivamente desde el principio hasta el
final (de ahí su nombre); cualquier corrección en el orden y la duración de los planos es
complicada y puede implicar comenzar de nuevo toda la edición
•  Hay dos modos de grabación (de transferencia) en la edición lineal:
•  Por ensamble (assembly)
•  Por inserto (insert)


Edición no lineal
•  Edición no lineal
•  Es la edición característica del vídeo digital; comienza a implantarse en los años noventa
•  Se captura en el disco duro de un ordenador la información de audio y vídeo
•  Cuando damos órdenes de edición, el ordenador no realiza ninguna copia de audio y/o video de un
lugar a otro, lo que hace es mostrar de manera virtual el resultado de nuestras ordenes de edición
•  Es en la última fase cuando se renderizan las órdenes de edición y el resultado se exporta a un
dispositivo de almacenamiento o se comparte en internet
•  Las ventajas de la edición no lineal son numerosas: ahorro de tiempo y coste, calidad, libertad para
experimentar opciones de edición, cambiar o modificar escenas y planos con facilidad, etc.
•  Ha sustituido por completo al montaje lineal sobre cinta de vídeo
Edición no lineal (ENL)
•  Las fases fundamentales (lo que se denomina flujo de trabajo) de la
edición no lineal son:
•  Capturar (hablamos también de importar o de “ingesta”) es transferir al disco
duro del ordenador de edición el material grabado por cámara (que tenemos
en cinta, disco duro, tarjeta de memoria…) y otros medias (imágenes fijas,
gráficos, material de archivo, música…) susceptibles de ser utilizados en la
edición
•  Editar es montar (ordenar, manipular, ajustar, corregir…) el material
capturado y darle una línea narrativa
•  Exportar (“Compartir”) es pasar el montaje definitivo a un soporte para su
almacenamiento y/o visionado final (DVD, disco duro externo, tarjeta,
internet…). Cuando lo pasamos a cinta se suele decir “volcar” en lugar de
exportar
Interfaz de Final cut pro X
Biblioteca Canvas

Proyecto
Edición
•  Edición off-line
•  Es una edición provisional
•  Es una preedición con un equipo no profesional; se hacen copias en baja
calidad del material grabado (con el mismo código de tiempo) y se monta un
máster en baja calidad, normalmente en un ordenador personal
•  Su objetivo primordial es ver la estructura del programa, los puntos de corte,
etc. sin soportar los costes de una sala de edición profesional sofisticada (y
cara)
•  Se obtiene una EDL (edit list o lista de decisiones de edición)
•  Edición on-line
•  Es la edición definitiva
•  Es la edición en una sala de edición profesional, con el material grabado en
buena calidad, cuyo resultado es el máster definitivo
•  Si previamente hemos confeccionado la EDL (Edit Decision List) en la edición
off-line, ahorramos tiempo y dinero porque ya hemos fijado el orden y los
puntos de entrada y salida de cada plano, y, además, conocemos sus códigos
de tiempo (TC) porque son los mismos en ambas ediciones (off-line y on-line)
Programas de edición no lineal

•  Algunos programas de edición no lineal de vídeo:


•  AVID Media Composer: hardware y software de edición bastante implantado en el entorno profesional
•  Premiere: software de Adobe, versiones en Mac y Windows
•  Final Cut: software para Mac

•  Y otros muchos softwares de edición: Pinnacle, Sony Vegas, Windows Movie Maker, Corel (para Windows) iMovie
(para Apple), Kino (software libre)…
•  Bibliografía
•  ASCHER, Steven y PINCUS, Edward: The Filmmaker's handbook. A comprehensive guide for the
digital age, A Plume Book, New York, 2012
•  Carrasco, Jorge: Cine y televisión digital. Manual técnico, Universitat de Barcelona, 2010
•  Domínguez, Juan José: Tecnología digital y realidad virtual, Síntesis, Madrid, 2011
•  Capítulo 1: El registro, la grabación y la compresión de las imágenes digitales, págs.: 13-64
Capítulo bastante recomendable aunque se escribiera hace algunos años
•  Hartwig, Robert L.: Tecnología básica de televisión digital y analógica, Ediciones Omega, Barcelona,
2008
•  Morales, Fernando: Montaje audiovisual. Teoría, técnica y métodos de control, Editorial UOC,
Barcelona, 2013
•  Moreno, Rafael: Vídeo digital, Ediciones Anaya Multimedia, Madrid, 2009
•  Schenk, Sonja y Long, Ben: Manual de cine digital, Ediciones Anaya Multimedia, Madrid, 2012
Libro muy recomendable
•  Ward, Peter: Cámara de vídeo digital, Escuela de Cine y Vídeo, Andoain, 2002

También podría gustarte