Está en la página 1de 9

RESUMEN VIDEO DIGITAL

MEDIOS Y FORMATOS ELECTRÓNICOS

- Disco de Nipkow (1884)


- El Iconoscopio (1923): Es un sensor que funcionaba con el principio del tubo del rayo catódico,
que quiere decir que conduce la luz y la transforma en electricidad. No es mecánico. No es
fotoemisor, es fotoconductor. Tubo de rayos protesta electricidad a cada punto y a todos los
puntos iguales pero cuando se forma la imagen a través de un lente la electricidad pasa pero
cambia dependiendo de la luz (puntos donde llega mas luz, hay mas electricidad, etc.)
- Baird Television (1927)
- Marconi Television (1937): 405 líneas. Surgen normas para homogeneizar todos los sistemas:
NTSC (National Television System Committee) (1940 / EEUU)
- 525 líneas
- 29,97 cuadros (30 frames)
- 60 campos
- 6 MHz de ancho de banda (flujo de datos)
PAL (Phase Alterning Line) (1963 / Alemania)
- 625 líneas
- 25 cuadros
- 50 campos
- 5 MHz de ancho de banda
Son diferentes por la señal eléctrica de la corriente alterna. Se sincroniza por la corriente alterna
que es cuando la corriente se prende y se apaga (el ritmo, la pulsión). Por eso las luces de tubo
flickean en la cámara sino la sincronizas.

En Argentina: 50 Hertz USA: 60 Hertz

Grabación (1956)
Recién en este año se puede grabar (antes fílmico o transmisión)
AMPEX presenta la VR 1000.
Las pistas se grababan verticalmente, perpendiculares a la cinta, para poder comprimir y ocupar
menos espacio. El problema era que si había un salto se cortaba la imagen a la mitad.

Color (1968)
AMPEX desarrolla magnetoscopio a color, era chica y portátil.

Philips VCR (1970)


Sistema hogareño. Cinta de 1/2 pulgada almacenada en cassettes.
Estaba la N15002 (grababa 60 minutos) y la N1700 (grababa 180 minutos)

Sistema U-Matic (1972)


Cinta magnética de 3/4 pulgadas. Primer sistema profesional en cassette. 250 líneas de resolución
horizontal (líneas verticales). Ej: Antonioni editaba en el momento los colores. “No” filmada con
esta cámara. “Suspiria" de Argento.
Trajo el poder trabajar con in cassette único y no cinta abierta (polvo, difícil de enebrar). Lo
resolvió haciendo un cassette compacto que solo tenías que empujarlo.

Betacam
Profesional, duró hasta el 2000.

Betamax
Hogareña
VHS (1977)
Sistema mas popular de la historia porque no tenia tantas deficiencias técnicas (no saltaba).
La primera grabadora grababa verticalmente y se cortaba. El VHS graba las pistas de manera
diagonal, cubrías mas espacio de las pistas.

FOTOSENSORES

El fotosensor y el procesador son los dos aspectos mas importantes de la cámara.

Tubo de rayos catódicos


Sensores de VHS, UMatic, Betacam. Se deja de usar por errores de geometría.

CCD
- Dispositivo de carga acoplada. Superficie de silicio.
- Funciona, en oposición al tubo de rayos catódicos, mediante carga acoplada y consiste en una
matriz de diodos independientes denominados Picture Elements (Pixeles)
- Sensor tiene un target, que es un espacio donde se va a formar la imagen. No es todo el
sensor, el target define el radio de aspecto nativo.
- Tareas que realiza:
1) Generar cargas
2) Recolectar cargas preguntarle
3) Transferir cargas
4) Detectar cargas

1) Generar cargas: Efecto fotoeléctrico: particularidad que tienen los átomos de determinada
superficie para reaccionar a la luz. Cuando se acerca la luz llega la unidad mínima de la luz, el
fotón. El átomo está estable (igual carga positiva y negativa). El fotón es negativo y sobrecarga
de energía negativa al átomo de silicio y trata de volver a equilibrarse. Despide lo negativo
para equilibrarse. El electrón que pasó a una órbita nueva despide el sobrante en electrones.
Sale electricidad, entra luz.

Factores de sensibilidad:
- Eficiencia cuántica: capacidad que tiene una superficie fotosensible para convertir fotones de
luz en electrones que da lugar a señales eléctricas. La eficiencia cuántica es igual al número de
electrones sobre el numero de fotones. La cantidad de electricidad que se produce en relación a
la cantidad de luz que llega.
- Tamaño pixel.
- Superficie mas grande, mas sensibilidad. Superficie mas chica, menos sensibilidad.
ARRI Alexa: sensor full frame. Resolución baja pero pixel mas grande y 8k.
Difracción: cuando la luz pasa por un orificio muy chico hay un fenómeno físico de difracción. Si la
superficie es chica, el punto se agranda (círculo de airi). La única manera de tener mejor
resolución es un sensor más grande (70mm). Si tenes un sensor chico y agregas píxeles, va a
haber difracción. Hay ventajas de tener mas píxeles pero en resolución, cuando achicas mucho el
tamaño del pixel y trabajas con diafragma chico, hay difracción y no hace mejor la resolución. Por
ejemplo, cámaras con sensores de 65mm posibilitan trabajar con una superficie mayor pero lentes
son mas caros. googlear y sino preguntar

Temperatura color nativa: es la temperatura color sin seteo de filtros en la cámara, sin modificar
nothing. Hay sensores que reaccionan mejor a los colores azules y otros a los rojos.
Si estás en un lugar todo rojo y tu sensor reacciona mucho al azul, va a compensar. Si reacciona
mucho al rojo, va a producir poco azul y va a tener una dominante muy fuerte.
RED tiene mucha sensibilidad del rojo. Funciona bien cuando hay luz fría. Eficiencia cuántica en el
rojo y no en otros. Esto depende del tipo de sensor que desarrollaste.
RED DRAGON ya no tiene tanta dominancia rojo.
Siempre hay que trabajar con la temperatura nativa. Porque sino estás dando ganancia donde no
es. Hay que adaptar las cosas para trabajar con la temperatura color nativa de la cámara.

Desarrollo de los sensores

CCD FT (Frame Transfer)


- Superficie donde tiene el target de la imagen y otra superficie donde va a descargar la imagen.
Se descarga hacia abajo, baja línea por línea y tarda más que el IT.
- Trabaja con hileras para que uno no contagie al otro.
- Smear: cuando grabas un punto de luz muy fuerte el contenedor se desborda y genera muchos
electrones que se van contagiando y derramando a los otros contenedores. El contagio se da
en una linea.
- Rango dinámico: que cantidad de doble de luz tienes. Cuantos puntos se duplicó lo mínimo de
luz que tenés. Límite de rango dinámico hasta cuanto puede captar. Sensor mas grande, mas
rango dinámico. Al tener rango dinámico tan grande, no hay cambio de sensibilidad porque
todavía tenes negros y blancos en el rango dinámico.
- Viper FilmStream de Thompson: para evitar el smear se puso un obturador mecánico, que
impedía esto. Mayoría de las cámaras no lo tienen porque era caro, la F65 es la otra que la
tiene. preguntar porque el obturador mecánico impide el smear

CCD IT (Interline Transfer)


- Descarga se da rápidamente a nivel lateral, haciendo que el smear se reduzca. Se descarga
hacia un costado y se tiene que liberar rápido.Se privilegia la rapidez de descarga que la
resolución.
- Efecto lag: hipersensibilidad, sensibilización muy alta de un pixel. Llega mucha luz, emitía
muchos electrones pero cuando se cortaba, quedaba editado y seguía generando electrones.
- Se produce smear y lag preguntar si es mas o menos
CCD FIT
- Es la combinación de ambos. Transfiere cargas (es lo que diferencia del CMOS)
- Recolector de cargas: fotón pega en el fotosito googlear y preguntar
CMOS
- Era usado en cámaras baratas.
- Opera línea por línea. Se sensibiliza una línea y se va para los costados.
- Rolling shooter y después global shooter (tiene menos jelly pero le entra poca luz). En el rolling
shooter gira mas rápido el barrido del sensor que el obturador mecanico.

Obturador mecánico: tapa el sensor entero, entonces no se sobrecarga, no tiene blooming, smear
o lag.
La velocidad de las cargas afecta que tanto hay de contagio en los compartimientos de los
píxeles.
¿Cuales son los dos ejes de la luz? El tinte y la temperatura color.

MOSAICO

Cámara 3 sensores: la diferencia es que no dividís la imagen, es un sensor por color. Tiene un
prisma dicroico. Entran tres colores, el primer triángulo tiene el sensor azul (CCD azul) y es un
filtro dicroico que lo filtra pero lo refleja, después pasa por el CCD rojo y por último el CCD verde
(más sensibilidad que rojo y azul). Mayoría de las cámaras buenas de video tienen este sistema
porque cuando se transmite hay mucha compresión y necesita ser buena calidad.

Sensor Foveon: Sensor de 3 capas (funciona como la película). No tiene mosaico pero tiene 200
iso (mucho ruido).
Ganancia: Es un valor agregado de electricidad mas una amplificación para poder formar una
imagen donde no hay imagen, es decir, cuando la luz es escasa se puede amplificar con
electricidad artificial (agregar ganancia) pero no puede adivinar la proporción (sube todo por igual).
Mediante un logaritmo se determina que 6 db son 1 stop.
La ganancia es: la relación entre cuánto consumo eléctrico tiene la señal y cuánto se amplifica. La
ganancia reconoce información y vuelve el gris mas clarito pero sin detalle. Se agrega todo
cuando agregas ganancia, por eso todo lo que se puede hacer en toma se debería hacer.

Relación señal - ruido: SNR (signal to noise ratio). Es un logaritmo raro, es la variable a tener en
cuenta al comprar una cámara.
Relación luz - material: es la eficiencia cuántica, diferente a la relación señal - ruido.

RESOLUCIÓN

Factores que se tienen en cuenta:


- Agudeza visual: la capacidad de percibir y diferenciar dos estímulos separados por un ángulo
determinado. O sea, la capacidad de resolución de una persona.
- Distancia del espectador con la pantalla
- Número de líneas
- Número de líneas activas
- Factor de Kel que son estas cosas
2 tipos:
- Vertical (cantidad de lineas horizontales)
- Horizontal (cantidad de lineas verticales)
Ancho de banda: cuanta cantidad de datos pueden salir de un dispositivo. Es lo que condiciona la
cámara.

Formato Full HD: 1080 lineas horizontales x 24 cuadros, 60 millones elementos

Formato 4K: 300 millones elementos

¿Cómo se transforman los elementos en datos?

Una onda tiene un ciclo, que tiene un período positivo y negativo. Cada cresta es el nivel de
luminosidad del pixel. Cuanto más cerca al eje, hay menos luminosidad. Cada periodo es un pixel
porque en un periodo tienes una distancia al eje. Entonces, la diferencia de cada brillo del pixel
depende de la amplitud.
Entonces, el ancho de banda es la cantidad de elementos que da el sensor dividido 2 (porque un
ciclo contiene 2 píxeles)
1 Hertz es un ciclo y se divide por 2 porque un ciclo de la onda tiene una cresta y un pozo. Cada
ciclo puede dar información sobre dos píxeles. Si la información se mide en ciclos por segundo
(Hertz) tenemos toda la información dividida 2.

Compresión se da al final del sistema y quita elementos. Pero antes, todos los procesos están
puestos para comprimir la imagen porque es muy pesado todo. Cada proceso condiciona el
sistema original.
La primera compresión que se hace es:

Codificación de color

Niveles de calidad:
1) RGB: Sistema Bayer genera 3 canales que salen del sensor. Rojo (30%) + Verde (59%) + Azul
(11%): Blanco (Y, luma)
Esos 3 canales se van a matrizar (recodificar) y se va a eliminar uno de los canales: el verde. Se
elimina el verde porque es el que pesa mas. Para hacer este proceso sin que se note, lo que se
hace es mandar el azul y el rojo, y como ya sabes el total, la pantalla lo reconstruye como si fuese
una regla de 3.
Todas las cámaras reflex, mirrorless, etc. trabajan así. Implica que no sea la misma calidad que si
estuvieran en RGB porque esa codificación genera ruido. Lo que baja es la definición del color, no
la saturación.

2) Por componentes: (Y/B-Y/R-Y) no recuerdo

3) Dos canales (Y/C): Otra compresión es Y/C, es comprimir los canales de rojo y azul en un solo
canal que se llama C (Croma). Genera mucho ruido y no se usa mucho.

4) Comprime todo: Se usa en sistema de video. Ej: cable amarillo del video, mucha compresion y
todo va por un mismo canal.

Esto afecta la calidad del color de la imagen no la resolución porque los pixeles son los mismos. El
filtro bayer es anterior, no tiene ningún proceso electrónico, solo dice lo que pasa cuando entra
luz. Entra RGB y sale RGB siempre, puede haber problemas en el medio pero siempre el primer y
ultimo sistema es RGB.

Todo esto es diferente al muestreo:

Muestreo
Se toman muestras de la onda para reconstruir la imagen y pasarla a cierto número de datos.
Se va a tomar de cada uno de esos canales, una cantidad de información. Siempre trabajo con
Y/BY/RY por que

Estructura 4.4.4
De 4 píxeles toma 4 veces Y, 4 veces R y 4 veces B. Es el sistema de más calidad.

Estructura 4.2.2
De cada cuatro píxeles el primero va a tomar los 3, el segundo va a tomar solo la información del
brillo, el tercero de color y de brillo y el cuarto solamente brillo. Esto lo recrearon del ojo humano,
que vemos 70% de diferencia de tonos y el restante de 30% de color. Se ve afectada la saturación
de color.

¿Por qué en la estructura RGB no puede ser 4.2.2 el muestreo?


Porque solo puedo hacer un muestreo de 4.4.4. Esto es porque si sacas un color en 4.2.2, se
transforma el color restante. amplia

¿Para qué hago esa compresión? Para que el canal sea mas liviano y pueda procesarlo y
guardarlo.

Estructura 4.1.1
Compresión máxima. Solo toma 1 vez el color de 4 píxeles y te va a quedar mas desaturado.

Estructura 4.2.0
En una línea toma información de rojo dos veces cada 4 píxeles y en la linea siguiente dos veces
del azul. Así se reconstruye cuanto debería dar de azul y rojo. Implica mucha compresión y
deterioro de imagen. Es parecida en calidad a 4.1.1.

Con una grabadora externa te ataca la salida después del matrizado y podes cambiar el muestreo.

Estructura 4.4.4.4
El próximo 4 es para canal Alfa.
Todo esto no quiere decir que no pueda saturar el color en post, pero trae ruido.
CUANTIFICACIÓN

Es cuantos tonos tenemos por cada pixel. Ese pixel que tenemos en la pantalla va a tener un tono
desde negro, pasando por grises hasta el máximo blanco.

Diferencia entre digital y analógico: el digital es discreto, no concreto, escalonado, no existe vida
en los intermedios (si hay 100 tonos entre negro y blanco, va a existir tono 50 y 51 pero no hay
nada entre ambos, lo que está en el medio va a uno de los dos). Cuanto mas tonos tengo, mas
específico puedo retractar los tonos de la realidad. Hoy en día es mas importante cuantificación
que los píxeles. Como espectador no voy a notar diferencia entre los tonos pero entonces la
cuantificación sirve por el defecto de banding.

¿Qué es banding? Cuando tenes un degradado desde algo brillante que pasa por los intermedios
y llega a un oscuro.

Tenemos una cierta cantidad de tonos que se expresan en bits. Cuando tengo 8 bits = 256 tonos
(mínimo que puedo tener porque es el límite del ojo humano).

El video dice “si” o “no” con pulsos de electricidad. Esto quiere decir que para saber que tono es,
tiene que hacer todas las preguntas. Pregunta “es tono 1?” no y así hasta llegar al tono que está
en ese pixel. Por lo que hace 256 preguntar x 3, porque es por canal.
¿Por qué no se ve bien el video? Porque es muy pesado el archivo y son muchos 0 y 1 por cada
canal de cada pixel.

En digital: hicieron un sistema de clave para tener menos preguntas. Esto quiere decir que
comprime mucho mas. Haces 8 preguntas (2,4,8,16,32,64,128 etc.) F65=65.000 tonos.
Si se reduce cuantificación se empiezan a ver líneas que se llama banding.

También se ve en la transmisión: Netflix mucho banding, Odeon mas compresión.

Postproducción: come bits (lo bueno de la F65 es que podes hacer una post violenta). Si estoy
trabajando en 8 bits, hacer todo lo que quieras hacer en tonos. Lo que se come la post son tonos,
entonces si no lo tocas mucho no te afecta demasiado.

Red One: 12 bits, DCI es 12 bits.

Ante la duda: fílmico: sobreexponer: porque si el material no reacciona no hay información.


Digital: subexponer porque se desbordan los píxeles.

La cuantificación actúa en la relación entre el sensor y el procesador.

¿Cómo se distribuyen los bits?


- Forma logarítmica
- Forma lineal
La forma lineal funciona con el tope de tono mas alto y cada vez que bajamos un stop se baja el
doble de luz. (128, 64 -1 stop, 32 -2 stop, etc.). Entonces, en las zonas mas oscuras, donde mas
necesito semitonos, hay menos. No hay tonos intermedios, cantidad de grises. Esto es un
problema porque falta detalle.

Forma logarítmica: Se crea luego otro sistema en donde no se baja la mitad de luminosidad sino
que un poco menos. Esto hace que se achate la imagen, haya menos contraste. Tira tonos para
abajo donde más los necesitaba y aplana la imagen haciendo menos contraste.

Para el ojo humano y fílmico, cuando llega a un momento que no puede ver, no hace el doble de
luz sino que lo apaga. En el video funciona de manera lineas, el doble de luz es el doble de
electricidad, por eso el video se corta abruptamente. En digital, se usa este método llamado curva
c para que no pase lo dicho anteriormente. El sensor si recibe y hace doble de electricidad pero se
cuantifica.

La F65 trabaja a 16 bits lineales pero vos no los ves en ningún lugar. La cámara te ofrece que
grabes 10 bits logarítmicos (lo que pude reproducir la pantalla).
No es la misma saturación porque hay menos contraste.

Gama: es el contraste creo what diego what

Apenas sale del sensor es lineal, tiene contraste, y vos podes elegir como grabarlo (s log, curva c,
curva h) y el logaritmo es cuando comprimis los tonos altos y por lo tanto no tienes tanto contraste.
Si grabas en RAW, tienes el original como lo vio el sensor, de alguna forma. Porque el RAW tiene
16 zonas pero ninguna pantalla tiene para verlo. Las cámaras tienen mucho rango dinámico pero
las pantallas no y el ojo no puede ver tanto contraste tampoco.

COMPRESIÓN

Desde el sensor pasa por el matrizado (codificación del color), luego el muestreo junto a la
cuantificación. Estas son compresiones pero no se le dice así. Todos estos procesos no llegan a
quitar el suficiente peso a la imagen por lo que se necesita una compresión mas intensa.

¿Por qué se comprime? Porque es muy pesado y no se puede guardar o procesar.


Hay dos maneras:
- Compresión con pérdidas: INTRAFRAME
- Compresión sin pérdidas: INTERFRAME
Intraframe: toma los datos adentro de cada fotograma. El cuadro se divide en macrobloques de
8x8 píxeles. (En 720 píxeles hay 90 bloques).
Se aplica un algoritmo DCT que aplica la lógica de que se saca y que no. Los algoritmos
intraframes están basados en JPG 2000. Con este algoritmo elige que saca de los bloques. Es el
algoritmo genérico de todos los formatos de compresión intraframe.
Cada compresión es independiente, no hay relación entre macrobloques. Como son compresiones
independientes, pueden ser bloques diferentemente comprimidos entonces veo esa linea que los
separa. En el algoritmo H264, hicieron bloques más chicos (se podía comprimir mas), depende del
codec, disuelve esa línea.

Filtro Deblocking: se generó un código que hace que los bordes se parezcan y no se distinga entre
bloque y bloque. Esto lo tiene la 5D, que tiene esta compresión pero con el filtro no se nota. Con
este filtro, pierdo acutancia, que es el grado de contraste generado en los límites entre las zonas
de distinta densidad (microcontraste de bordes). Cuando detecta un borde aclara el borde mas
claro y oscurece el mas oscuro.
Algoritmo es la forma que elegís para quitar datos y el codec la marca registrada.

Interframe: es el MPEG. La compresión se hace entre fotogramas (trabaja en el tiempo mientras


que el intraframe trabaja en el espacio). Lo que pensaron fue que, si un fotograma se parece a
otro fotograma, se puede codificar lo que había cambiado entre uno y otro. La compresión más
alta que se le puede dar a una imagen es un plano fijo con cámara fija. El interframe ya tiene
compresion intraframe.

GOP: tantos fotogramas que tiene cierto codec. Cuanto más largo el GOP es mas deformado,
menos precisa porque se deformó mas. Con GOP largo no te deja cortar donde querés en edición.
Primer y último fotograma del GOP ya están comprimidos intraframe. Empieza con intraframe para
empezar con compresión, porque el resto sigue con ese. Después viene B (bidireccional). IBP
(Intra Bidireccional Predictivo). Se relaciona en base al otro B y el P. El bidireccional lee la relación
entre el fotograma anterior y el posterior. Si son iguales, construye con un solo fotograma la
misma imagen. El predictivo analiza los vectores e inventa como va a proseguir ese vector
(inventa información). El H264 tiene mas predictivos.
El problema del predictivo es si pasa algo en el medio no se entera pero se recamado con el
siguiente. Ese es el movimiento feo que tienen las cámaras mirrorless por eso las cámaras
buenas de cine tienen intraframe.
Si vas a hacer movimientos bruscos, impredecibles, cámara en mana, no usar interframe. El ratio
de compresión es 50:1.

Ratio de compresión (RC): cuantas veces comprime. Es la relación entre el archivo original y el
archivo comprimido.
Compresión muy alta en archivo intra: te toca la textura.
Compresión muy alta en archivo inter: te toca el movimiento.
ALL-I: todo intra
IPB: inter
Eso es como lo setas en la cámara.

AGREGAR PARTE DE FORMATOS DIGITALES

TRANSFER

Televisión necesita estar acorde al ritmo eléctrico. Cuadros por segundo va a estar relacionado
con la pulsión eléctrica.

El registro de la imagen tiene dos formas de escaneado:


- Progresivo
- Interlaceado
Escaneo Progresivo
Hay una primera linea de información (horizontal) y va bajando a las otras lineas, después vuelve
a empezar. Solo hay un pixel prendido por vez pero es tan rápido que lo ves como movimiento.
(1/25). Efecto mas cinematográfico porque es un fotograma después de otro.

Escaneo Interlaceado
Primero hace un recorrido de las líneas impares y después de las pares, y cargas menos el buffer.
(1/50). Son diferentes en movimiento, no en calidad.

25p: progresivo 50i: interlaceado

24p: histórico, en digital grabas porque vas a terminar en DCP o pasar a fílmico. Si vas a hacer
miniserie para tv no tiene sentido, es snob.

50i: Esta puesta en relación a la velocidad de los campos. Es a 25 cuadros por segundo (50
campos por segundo). Es para TV PAL.

TV: interlaceado Computadora: progresivo

60i: 30 cuadros por segundo. Es para TV NTSC

25p: para emisiones que se hagan en progresivo pero con una base PAL. Cualquier cosa para
internet/youtube.

30p: NTSC progresivo. Generalmente para TV USA.

23,976p: te permite pasar hacia un tipo de transfer o al otro con una perdida mínima. AGREGAR
PULLDOWN ETC

Obturación
En digital no necesitas tapar para pasar al otro fotograma, tienes un barrido. En digital puedo
modificar también el tiempo que la imagen está capturada. Si las imágenes duran menos tiempo,
cada fotograma dura menos y es mas entrecortado (estrobostópico). En video/digital lo podes
cambiar, te lo ponen en ángulo, ángulo mayor es mas estrobostopico.

Frame rate: velocidad de cuadro, cuantos fotogramas por segundo.


Obturación: cuanto dura cada frame (fotograma)
Time base: como se va a reproducir el archivo. Es la velocidad de cuadro que va a tener el
formato.
Si pones time base 25 y la velocidad en 30, te va a salir cámara lenta. Lo que cuenta es la
diferencia entre time base y frame rate (velocidad) para que se note.

Color en video

AGREGAR TODO

También podría gustarte