Está en la página 1de 8

Repaso Video Digital

Comienzos del Video (Medios y Formatos Electronicos)

La imagen de video se forma por la diferencia de tonos, cada pixel se transforma en un tono para
crear una imagen.

En Digital: píxeles organizados (serie ordenada de impulsos).


En Análogico: haluros de plata desorganizados (por eso es distinta la textura).

Sensor: cuanta más luz llega a un píxel, más electricidad se genera, cuanta menos luz, menos
electricidad. Las tonalidades son una sucesión de brillos.
Tasa de Refresco: el tiempo que tarda entre que se genera una imagen y otra en el sensor (la
cantidad de veces que se toma la imagen).

Disco de nipkow (1884): El primer sistema de video, es un disco con agujeros en forma espiralada.
Envía impulsos eléctricos a través de un cable. El selenio transforma la imagen en impulsos
eléctricos. Es una sucesión de puntos ordenados con distintos valores de intensidad. (Es el
mismo paradigma con el que funciona una Arri Alexa).

Los fotosensores tienen un efecto fotoeléctrico donde una carga negativa desequilibra un átomo,
el fotón se absorbe por el electrón y emite electricidad. SI son la misma cantidad están
equilibrados, si hay más fotones que carga positiva, se despide un electrón en forma de
electricidad para equilibrarse.

Iconoscopio (1923): primer sensor importante, Vladimir Zvorykin EEUU. Está basado en el efecto
fotoconductor, la imagen entra por un tubo que la proyecta sobre una superficie de píxeles, cada
punto recibe luz y se carga de una cantidad de electrones lo cual transforma la conducción de
electricidad. Cuando la luz impacta en el píxel, cambia su conductibilidad, la resistencia o el paso
del píxel, cuanta más luz llega, más cambia la resistencia. La cantidad de luz que puede absorber
cada píxel es lo que determina la calidad del sensor.

Tubo de rayos catódicos: se utiliza para proporcionar la electricidad a los pixeles. Escupe
electrones a través de un cátodo y los recibe un ánodo (pantalla, o superficie que recibe datos
negativos). Emite cada punto de la pantalla, pero nunca se proyecta más de un punto a la vez. A
menor tasa de refresco, más se nota la continuidad. Tienen mala definición de color y generan una
estética video. Son electrónicos, ya no es necesario lo mecánico. Funcionan desde el
fotoconductor que los emite en corriente eléctrica. Los tubos se miden por su diámetro.

Disector de Imagenes (1927): Es el primer sistema de imagenes totalmente electronico. Lo creó


Philo Taylor Farnsworth que decía haber inventado el iconoscopio a los 13 años y Zvorykin se lo
robó

Baird Television (1927): primer sistema de tele transatlántica, transmite señal 483 millas a través
de una línea de telégrafo. En 1929 crea la Baird Television Develoment y las lineas de pixeles son
verticales en vez de horizontales, 30 líneas verticales y refresco de 12 imágenes por segundo.

Marconi Television (1937): Sistema de 405 lineas totalemnte electrico, problema de códigos.

NTSC (1940)
National Television Committee Service (comisión para homologar todos los sistemas de TV)
525 líneas
29,97 cuadros (tasa de refresco)
60 campos (video interlaceado)
6 mhz ancho de banda
PAL (1963)
Phase Alternating Line (crean otro sistema porque hay distintas alternancias de electricidad)
625 líneas
25 cuadros
50 campos
5 mhz ancho de banda

Grabación (1956): Antes de esto solo se transmitía, no se grababa, en 1956 Ampex presenta la
VR 1000, el primer magnetoscopio

Color (1968): ya se hace cine, Ampex desarrolla el primer magnetoscopio a color.

Phillips VCR (1970): primer sistema hogareño, utiliza cinta de ½ pulgada, grabadora desde la caja.

Sistema U-Matic (1972): cinta magnetica de ¾ de pulgada, primer sistema profesional de casette.
250 lineas de resolucion horizontal (lineas verticales).

Betta (1975): Betamax (1975) / Betacam (1982). Las cintas de ½ pulgada se pueden usar en 2
tipos de magnetoscopio. Betamax es hogareño, video compuesto, 3hs de grabacion. Betacam es
profesional, video por componentes, 30min de grabacion.

VHS (1977): Vertical Helical Scan, USA, JVC. Sistema con más exito comercial de la historia.

DVR 1000 (1986): Sony, primera grabadora de video digital (se usaba para hacer transfers), utiliza
el formato 4:2:2, casette D1.

FOTOSENSORES

Los fotosensores son el primer proceso en la captura de la imagen y realizan tres tareas
principales:
Generar cargas (proceso fotoeléctrico que transforma luz en electricidad)
Transportar cargas
Absorber cargas

Hay dos tipos de sensores, los de imágen completa (CCD) y los de imagen continua (C-MOS). Su
diferencia está en cómo transportan las cargas. Los CCD son más caros porque los fabrican
empresas distintas a las que hacen las cámaras, en cambio los C-Mos fueron desarrollados por su
propia industria.

CCD
Estos sensores transportan las cargas tomando la información de la imagen completa y luego la
descarga línea por línea.

CCD FT (Frame Transfer): Toma una mitad de la imagen (target) y la descarga en la segunda
placa formando la señal de vídeo. Hace esto para deshacerse rápidamente de la imagen que
captura y que no sucedan los efectos del blooming que se dan porque el sensor no tiene
obturación (está expuesto a la luz todo el tiempo), cuando cambio el shutter en una reflex lo que
estoy cambiando es el tiempo de descarga.

Blooming
→ smear: línea blanca de un determinado brillo alto, cuando un píxel recibe demasiada luz se
desbordan los electrones en un punto, la información se “vuelca” en los píxeles contiguos.
→ lag: efecto cometa, un punto luminoso en movimiento sobre fondo oscuro, el píxel se
sobrecarga y continúa emitiendo luz, para corregirlo se crea el interline transfer.
CCD IT (interline transfer): intercala los elementos captores con los de almacenamiento, tiene una
línea intermedia entre cada línea de píxeles para hacer la descarga más rápido.

CCD FIT (frame interline transfer): es una combinación entre el CCD FT y el CCD IT. Reduce el
lag y el smear.

CMOS
Sensor de luz continua, por lo que no hace funcionar todos los píxeles a la vez si no que lee la
información de a líneas (los píxeles de cada línea toman la información de intensidad de luz y la
descargan por separado). → active pixel transfer.
Es más barato, más sensible al ruido, capacidad de transmisión desde cada celda.

Jelly effect → problema del CMOS, alarga la imagen al mover la cámara repentinamente porque
tarda más en cargar cada línea de imagen de lo que tardan en moverse los personajes.
Sensibiliza las líneas

Sensibilidad

La sensibilidad de un sensor depende del tamaño de los pixeles en el sensor, ya que cuanto más
grandes son más luz atrapan y de la eficiencia cuántica (cuánta luz llega y cuanto responden los
pixeles, cuánta luz es capaz de transformar en electricidad).

En los últimos años se mejoró la sensibilidad promedio, ya que sus sensores son más grandes por
lo tanto sus píxeles también. En las cámaras de alta gama que ya eran full frame lo que mejoró
fue la ganancia del sensor.

EFICIENCIA CUÁNTICA: Es la capacidad que tiene una superficie fotosensible para convertir
fotones de luz en electrones que dan lugar a señales eléctricas, como responde el material.

La eficiencia cuántica está ligada a la longitud de onda, cambia según la proporción de


sensibilidad que tenga a las radiaciones de los distintos colores. (La temperatura color es la
proporción de radiación en el espectro). En video se tiene más sensibilidad para colores cálidos y
en cine digital más sensibilidad para los colores fríos (menos la RED que tiene el sensor a 5000k).
EC= Número de electronesNúmero de fotones

Color en el sensor

Todo fotosensor funciona monocromáticamente, el color es reproducido a partir de una serie de


filtros.
→ FIltro bayer: tiene un sistema llamado Mosaico Bayer está formado por un 50% de filtros
verdes, un 25% de rojos y un 25% de azules.
→ Prisma Dicroico: son 3 sensores con cámaras gesell, necesita solo un píxel para formar los
colores. Trabaja en resolución real.
→ Sony CCD RGBE: Es una variación del sistema Bayer. E es color esmeralda que representa
mejor los colores piel. En vez de tener doble de verde tiene 25% de verde y 25% esmeralda.
→ Sensor Foveon: cada capa (electrónica) para cada color (RGB) es traslúcida para los otros
colores, por lo tanto tiene más resolución.

Ganancia

El sensor trae una sola sensibilidad verdadera, la ganancia es como cambiarle la multisensibilidad
(si no existe la información, no la agrega). Sirve cuando uno está muy cerca del stop con el
mínimo de información.
Cuando filmo en RAW no es realmente crudo, hay un mínimo de amplificación (la imagen cruda no
se vería porque son solo valores). El valor de amplificación en RAW es 0dB que sería la imagen
inicial que se ve bien (ISO nativo). La ganancia negativa sería amplificar la imagen menos que
0dB, por lo que necesito más luz.

Relación de decibeles:

Va (voltaje de entrada de información) Vb (imagen amplificada electrónicamente)

Nivel de amplificación =VbVa → esto se pasa a logaritmo para que el valor sirva con los valores
chicos y grandes (hacer equivalente la diferencia entre 2 y 5 y 200 y 500)

Niv amplificación = LogVbVa → la ganancia entonces es lo que se aumenta Va para llegar a Vb.
Por convención se decide multiplicar el valor logarítmico por 2.

Niv amp = 2 LogVbVa → BELIO, como daba valores muy chicos lo multiplican por 20.

Niv amp = 20 LogVbVa

Resolución

Factores que se tienen en cuenta:


- Agudeza visual: capacidad de resolución del sistema humano, es decir de percibir y diferenciar
dos estímulos separados por un ángulo determinado.
AV = 1/ángulo
promedio = 1’ de grado = 1/60 = 0,0002907 radianes. → con 1’ se calcula la distancia del
espectador.

- Distancia del espectador:


En PAL el espectador debe estar a 6 veces el alto de la pantalla
En NTSC el espectador debe estar 7 veces el alto de la pantalla

- Número de líneas: Número de líneas según la agudeza visual y la distancia del espectador.
N = 1/AV x d -> PAL = 1/0,0002907 x 6 = 573 líneas
En PAL se toman menos líneas que en NTSC por que es más moderno y se dieron cuenta que la
gente se acercaba más a la pantalla. En tele (toda transmisión) siempre se emite la misma
cantidad de líneas, aunque la TV sea más grande (si te sentas muy cerca de una TV grande se va
a ver peor que en una TV chica).

- Número de líneas activas: Son las líneas horizontales, su cantidad está definida por la norma. Es
la resolución vertical.
NTSC tiene 491 líneas → 480 activas
PAL tiene 573 líneas → 576 activas
De 625 líneas se usan 573 para visión, las otras se usan para el borrado.
un poco más que las líneas de visión.

- Factor de Kell: Lo que interpreta la mente (no puede interpretar todas las líneas a la vez)
FK en sistemas entrelazados = 0.7 (tiene menos resolución)
FK en sistemas progresivos = 0.9

NTSC → 480 líneas activas x 0.7 = 336 líneas


PAL → 576 líneas activas x 0.7 = 403 líneas

Norma 601 -> define todos los elementos del video para SD
ITU 709 -> para ver bien en HD
ITU 2020 -> UHDTV: pensado para el cine digital (DCP)

Resolución Horizontal: cantidad de líneas verticales. puede variar, es lo que diferencia un formato
de otro.

Ancho de banda: cantidad de elementos, información que transcurre por segundo. la máxima
cantidad de datos que pueden pasar por una ruta de comunicación en un segundo.
En NTSC (sin compresión):
525 líneas x 30 fps = 15.750 líneas/seg (Resolución Horizontal)
452 píxeles x 15.750 líneas/seg = 7.119.000 elementos
7.119.000 elementos / 0,82 segundos = 8.681.707 elementos de información x segundo
(en cada píxel)

Se puede cuantificar los píxeles según la onda. Cada ciclo dice cuánto brillo tiene el píxel, y al
tener dos crestas te da la información de 2 píxeles (uno con más brillo y otro con menos).
Entonces si tengo 8.681.707 elementos y lo divido sobre 2 = 4.340.853 ciclos (se divide por dos
porque se tiene el doble de ancho de banda que de cantidad de ciclos.

Interpolación: para disminuir la resolución de una imagen (ej pasar de HD a SD), le saca a la
imagen líneas y puntos con una selección (compresión) inteligente. Si se hace interpolación se
puede tener mejor imagen que grabando a una resolución nativa igual a la que se va a proyectar
porque al sacar las líneas eligiendolas, la información que queda es una selección de lo mejor de
la imagen.

Interpolación positiva: es lo mismo pero al revés, se pasa de una resolución menor a una mayor
duplicando líneas.

PROCESOS DE VIDEO

Codificación de color

Determina cómo viaja la información de color. Hay cuatro tipos principales de codificación, sin
embargo el vídeo siempre parte siento RGB y termina siendo RGB aunque se comprima en el
medio (se codifica y decodifica).

→ RGB: R(30%) + G(59%) +B(11%) = Blanco. Hay un canal para cada color. viaja bien, sin
interferencias, sin distorsión de color. Es la codificación más pesada.

→ Video por Componentes (Y-Cb-Cr): Para que la imagen pese menos se saca un canal (se
elimina el verde), R+G+B=Y, si se elimina G (que es el más pesado) se puede saber el dato por la
diferencia entre R, B y Y. Hay menos calidad de color, se ve menos saturado y con menos textura.

→ Vídeo de Croma Separada: Hay un canal para luminancia y otro para crominancia

→ Vídeo Compuesto: Viaja toda la información por el mismo canal.

Codificador analógico digital (CAD) - transforma las ondas en data de 0 y 1


Esto crea una carga llamada ADU (analogic digital unit) tantos ADUs dan tantos Bits. Pasa de un
valor continuo (corriente) a valores discretos.

Matrizado de cámara: Para reducir el peso en la codificación y tener un ancho de banda menor.

Muestreo

Se toman muestras de la la onda (señal analógica) para poder cuantificar.


→ Estructura 4:4:4: Se toman muestras de cada canal de información en todos los píxeles. Para
RGB se necesita si o si usar 4:4:4 por que saco los datos de Y a partir de los datos de R G y B

→ Estructura 4:2:2: Del primer píxel se toman datos de todos los canales, del segundo solo se
toma brillo (Y), en el tercero se toman todos y en el cuarto solo Y. Es decir, de 4 píxeles se
tomaron 4 de Y, 2 de R y 2 de B= 4:2:2

→ Estructura 4:2:0: Del primer píxel de arriba se toma luma+rojo, del segundo luma, el tercero
luma+rojo y el cuarto luma solo. Del primer píxel de abajo se toma luma+azul, el segundo luma
solo, el tercero luma+azul y el cuarto luma solo. Luego se hace un promedio entre la línea de
arriba y la de abajo para generar el color que falta. La F3 y las DSLR usan este tipo de muestreo,
se pierde calidad.

→ Estructura 4:1:1: El primer píxel toma Y+R+B, y el segundo tercero y cuarto toman solo Y. El
color se polariza e invade los píxeles que no tienen, la imagen es casi toda cromática (75%), la
saturación va a estar reducida.

Cuantificación

La imagen que se obtuvo con el muestreo, se transforma en código binario que define la cantidad
de tonos en la imagen (como el bit). El muestreo define la calidad del color y la cuantificación la
cantidad de tonos. La imagen a esta altura ya es digital.

El vídeo, a diferencia del ojo y el fílmico tiene una respuesta a la intensidad de luz lineal (el ojo y la
película tienen una respuesta logarítmica). El vídeo entonces puede grabar lineal y modificar la
imagen para hacerla logarítmica o darle otras formas (ej SLog, CLog). Hace esto comprimiendo la
línea y achicando el rango dinámico, para modificarla y que sea curva.

El gama 709 está pensado para las televisiones LCD. Con un Slog o Clog la imagen va a estar
mucho más lavada porque en una sala de cine al estar todo oscuro, el ojo percibe con 0,5 menos
de gama, entonces se compensa para que se vea con un gama normal.

banding → al tener poco nivel de cuantificación los tonos se reducen a un solo tono que no es el
de la realidad. Se nota más en los degrades de tonos. Cuando la cuantificación es mala, se nota
en la calidad del color y en el banding.

Compresión

Es la erradicación de datos, se hace para tener una imagen más ágil. Hay dos tipos de
compresión, con o sin perdidas, y estas pueden ser intraframe o interframe.

→ Intraframe:comprime frame por frame, utiliza el algoritmo DCT (toma de cada frame bloques de
8x8 y elimina la información que le parece redundante, por ejemplo los tonos repetidos).

→ Interframe: Toma bloques de fotogramas (fotogramas predictivos) y comprime dentro de eso,


aprovecha la redundancia de información que hay entre los fotogramas consecutivos o GOP
(Group of Pictures). La compresión interframe siempre tiene una codificación intra porque la
primer imagen se codifica con intra y el resto con inter.

Las variables que definen como va a estar comprimida la imagen son:


por tiempo o por espacio
si es intraframe o interframe
por el codificador o decodificador
Codecs

La compresión pasa a dar forma a los CODECS (Codificadores decodificadores).

AppleProres: Codificación interframe


MPEG: Codificación intra e inter. MPEG-1 es el más antiguo, lo crearon para cosas caseras o
cámaras tipo la X1. MPEG-3y4 usan compresión intra, fue diseñado para imagenes livianas.
H264: Suaviza los bordes de los bloques que se generan con la compresión intraframe.

Puertos

Es el ancho de banda, define (y está definido) por todos los valores anteriores, depende del peso
de la codificación. Si se tiene un canal de salida más ancho, se puede grabar con mejor
cuantificación, o muestreo, o menor compresión.

ELEMENTOS ESTÉTICOS

Curvas
Hay cierto nivel de entrad para cierto nivel de salida.
Si la curva está más inclinada la imagen va a tener más contraste, si los grises están más altos en
el output que en el input las altas se comprimen y los grises suben (queda más lavada).

Knee
El término inglés knee significa "rodilla”, y se refiere a la curvatura de la respuesta en esa zona,
similar a la rótula humana.
Cambia el gamma en una porción de la curva, la inclinación se llama slope.
knee point: donde se empieza a formar la curva
slope: más slope = menos contraste
knee sat level: compensar los colores
white clip (o cómo se llame?): hasta donde puedes tener los blancos

Acutancia
Es el grado de contraste que se genera en los límites entre las zonas de distinta densidad
(Microcontraste). En video se llama “Detail”.
El nivel 0 es el detail prendido al 0%, si esta en off se va a -30 (en negativo desenfoca y si se pone
en exceso logra una imagen pétrea y se notan los defectos).

CALIBRACIÓN DE MONITOR
(Barras SMPTE)

Brillo
Lìneas Pludge: La primera y la segunda tienen que estar igual y la tercera tiene que ser apenas
distinguible

Contraste
Hay que conseguir el blanco 100% (se sube el contraste hasta que no cambie más)

Saturación
Blue Only: (algunos monitores tienen la opción) la barra corta de azul tiene la misma cantidad de
azul que la barra larga de blanco. Cian y Magenta tambien, esas barras se tienen que ver azules y
las Amarillo y Negro, Verde y Negro, Rojo y Negro, se tienen que ver negras, cada pareja como
una barra sola.