Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Grabación (1956)
Recién en este año se puede grabar (antes fílmico o transmisión)
AMPEX presenta la VR 1000.
Las pistas se grababan verticalmente, perpendiculares a la cinta, para poder comprimir y ocupar
menos espacio. El problema era que si había un salto se cortaba la imagen a la mitad.
Color (1968)
AMPEX desarrolla magnetoscopio a color, era chica y portátil.
Betacam
Profesional, duró hasta el 2000.
Betamax
Hogareña
VHS (1977)
Sistema mas popular de la historia porque no tenia tantas deficiencias técnicas (no saltaba).
La primera grabadora grababa verticalmente y se cortaba. El VHS graba las pistas de manera
diagonal, cubrías mas espacio de las pistas.
FOTOSENSORES
CCD
- Dispositivo de carga acoplada. Superficie de silicio.
- Funciona, en oposición al tubo de rayos catódicos, mediante carga acoplada y consiste en una
matriz de diodos independientes denominados Picture Elements (Pixeles)
- Sensor tiene un target, que es un espacio donde se va a formar la imagen. No es todo el
sensor, el target define el radio de aspecto nativo.
- Tareas que realiza:
1) Generar cargas
2) Recolectar cargas preguntarle
3) Transferir cargas
4) Detectar cargas
1) Generar cargas: Efecto fotoeléctrico: particularidad que tienen los átomos de determinada
superficie para reaccionar a la luz. Cuando se acerca la luz llega la unidad mínima de la luz, el
fotón. El átomo está estable (igual carga positiva y negativa). El fotón es negativo y sobrecarga
de energía negativa al átomo de silicio y trata de volver a equilibrarse. Despide lo negativo
para equilibrarse. El electrón que pasó a una órbita nueva despide el sobrante en electrones.
Sale electricidad, entra luz.
Factores de sensibilidad:
- Eficiencia cuántica: capacidad que tiene una superficie fotosensible para convertir fotones de
luz en electrones que da lugar a señales eléctricas. La eficiencia cuántica es igual al número de
electrones sobre el numero de fotones. La cantidad de electricidad que se produce en relación a
la cantidad de luz que llega.
- Tamaño pixel.
- Superficie mas grande, mas sensibilidad. Superficie mas chica, menos sensibilidad.
ARRI Alexa: sensor full frame. Resolución baja pero pixel mas grande y 8k.
Difracción: cuando la luz pasa por un orificio muy chico hay un fenómeno físico de difracción. Si la
superficie es chica, el punto se agranda (círculo de airi). La única manera de tener mejor
resolución es un sensor más grande (70mm). Si tenes un sensor chico y agregas píxeles, va a
haber difracción. Hay ventajas de tener mas píxeles pero en resolución, cuando achicas mucho el
tamaño del pixel y trabajas con diafragma chico, hay difracción y no hace mejor la resolución. Por
ejemplo, cámaras con sensores de 65mm posibilitan trabajar con una superficie mayor pero lentes
son mas caros. googlear y sino preguntar
Temperatura color nativa: es la temperatura color sin seteo de filtros en la cámara, sin modificar
nothing. Hay sensores que reaccionan mejor a los colores azules y otros a los rojos.
Si estás en un lugar todo rojo y tu sensor reacciona mucho al azul, va a compensar. Si reacciona
mucho al rojo, va a producir poco azul y va a tener una dominante muy fuerte.
RED tiene mucha sensibilidad del rojo. Funciona bien cuando hay luz fría. Eficiencia cuántica en el
rojo y no en otros. Esto depende del tipo de sensor que desarrollaste.
RED DRAGON ya no tiene tanta dominancia rojo.
Siempre hay que trabajar con la temperatura nativa. Porque sino estás dando ganancia donde no
es. Hay que adaptar las cosas para trabajar con la temperatura color nativa de la cámara.
Obturador mecánico: tapa el sensor entero, entonces no se sobrecarga, no tiene blooming, smear
o lag.
La velocidad de las cargas afecta que tanto hay de contagio en los compartimientos de los
píxeles.
¿Cuales son los dos ejes de la luz? El tinte y la temperatura color.
MOSAICO
Cámara 3 sensores: la diferencia es que no dividís la imagen, es un sensor por color. Tiene un
prisma dicroico. Entran tres colores, el primer triángulo tiene el sensor azul (CCD azul) y es un
filtro dicroico que lo filtra pero lo refleja, después pasa por el CCD rojo y por último el CCD verde
(más sensibilidad que rojo y azul). Mayoría de las cámaras buenas de video tienen este sistema
porque cuando se transmite hay mucha compresión y necesita ser buena calidad.
Sensor Foveon: Sensor de 3 capas (funciona como la película). No tiene mosaico pero tiene 200
iso (mucho ruido).
Ganancia: Es un valor agregado de electricidad mas una amplificación para poder formar una
imagen donde no hay imagen, es decir, cuando la luz es escasa se puede amplificar con
electricidad artificial (agregar ganancia) pero no puede adivinar la proporción (sube todo por igual).
Mediante un logaritmo se determina que 6 db son 1 stop.
La ganancia es: la relación entre cuánto consumo eléctrico tiene la señal y cuánto se amplifica. La
ganancia reconoce información y vuelve el gris mas clarito pero sin detalle. Se agrega todo
cuando agregas ganancia, por eso todo lo que se puede hacer en toma se debería hacer.
Relación señal - ruido: SNR (signal to noise ratio). Es un logaritmo raro, es la variable a tener en
cuenta al comprar una cámara.
Relación luz - material: es la eficiencia cuántica, diferente a la relación señal - ruido.
RESOLUCIÓN
Una onda tiene un ciclo, que tiene un período positivo y negativo. Cada cresta es el nivel de
luminosidad del pixel. Cuanto más cerca al eje, hay menos luminosidad. Cada periodo es un pixel
porque en un periodo tienes una distancia al eje. Entonces, la diferencia de cada brillo del pixel
depende de la amplitud.
Entonces, el ancho de banda es la cantidad de elementos que da el sensor dividido 2 (porque un
ciclo contiene 2 píxeles)
1 Hertz es un ciclo y se divide por 2 porque un ciclo de la onda tiene una cresta y un pozo. Cada
ciclo puede dar información sobre dos píxeles. Si la información se mide en ciclos por segundo
(Hertz) tenemos toda la información dividida 2.
Compresión se da al final del sistema y quita elementos. Pero antes, todos los procesos están
puestos para comprimir la imagen porque es muy pesado todo. Cada proceso condiciona el
sistema original.
La primera compresión que se hace es:
Codificación de color
Niveles de calidad:
1) RGB: Sistema Bayer genera 3 canales que salen del sensor. Rojo (30%) + Verde (59%) + Azul
(11%): Blanco (Y, luma)
Esos 3 canales se van a matrizar (recodificar) y se va a eliminar uno de los canales: el verde. Se
elimina el verde porque es el que pesa mas. Para hacer este proceso sin que se note, lo que se
hace es mandar el azul y el rojo, y como ya sabes el total, la pantalla lo reconstruye como si fuese
una regla de 3.
Todas las cámaras reflex, mirrorless, etc. trabajan así. Implica que no sea la misma calidad que si
estuvieran en RGB porque esa codificación genera ruido. Lo que baja es la definición del color, no
la saturación.
3) Dos canales (Y/C): Otra compresión es Y/C, es comprimir los canales de rojo y azul en un solo
canal que se llama C (Croma). Genera mucho ruido y no se usa mucho.
4) Comprime todo: Se usa en sistema de video. Ej: cable amarillo del video, mucha compresion y
todo va por un mismo canal.
Esto afecta la calidad del color de la imagen no la resolución porque los pixeles son los mismos. El
filtro bayer es anterior, no tiene ningún proceso electrónico, solo dice lo que pasa cuando entra
luz. Entra RGB y sale RGB siempre, puede haber problemas en el medio pero siempre el primer y
ultimo sistema es RGB.
Muestreo
Se toman muestras de la onda para reconstruir la imagen y pasarla a cierto número de datos.
Se va a tomar de cada uno de esos canales, una cantidad de información. Siempre trabajo con
Y/BY/RY por que
Estructura 4.4.4
De 4 píxeles toma 4 veces Y, 4 veces R y 4 veces B. Es el sistema de más calidad.
Estructura 4.2.2
De cada cuatro píxeles el primero va a tomar los 3, el segundo va a tomar solo la información del
brillo, el tercero de color y de brillo y el cuarto solamente brillo. Esto lo recrearon del ojo humano,
que vemos 70% de diferencia de tonos y el restante de 30% de color. Se ve afectada la saturación
de color.
¿Para qué hago esa compresión? Para que el canal sea mas liviano y pueda procesarlo y
guardarlo.
Estructura 4.1.1
Compresión máxima. Solo toma 1 vez el color de 4 píxeles y te va a quedar mas desaturado.
Estructura 4.2.0
En una línea toma información de rojo dos veces cada 4 píxeles y en la linea siguiente dos veces
del azul. Así se reconstruye cuanto debería dar de azul y rojo. Implica mucha compresión y
deterioro de imagen. Es parecida en calidad a 4.1.1.
Con una grabadora externa te ataca la salida después del matrizado y podes cambiar el muestreo.
Estructura 4.4.4.4
El próximo 4 es para canal Alfa.
Todo esto no quiere decir que no pueda saturar el color en post, pero trae ruido.
CUANTIFICACIÓN
Es cuantos tonos tenemos por cada pixel. Ese pixel que tenemos en la pantalla va a tener un tono
desde negro, pasando por grises hasta el máximo blanco.
Diferencia entre digital y analógico: el digital es discreto, no concreto, escalonado, no existe vida
en los intermedios (si hay 100 tonos entre negro y blanco, va a existir tono 50 y 51 pero no hay
nada entre ambos, lo que está en el medio va a uno de los dos). Cuanto mas tonos tengo, mas
específico puedo retractar los tonos de la realidad. Hoy en día es mas importante cuantificación
que los píxeles. Como espectador no voy a notar diferencia entre los tonos pero entonces la
cuantificación sirve por el defecto de banding.
¿Qué es banding? Cuando tenes un degradado desde algo brillante que pasa por los intermedios
y llega a un oscuro.
Tenemos una cierta cantidad de tonos que se expresan en bits. Cuando tengo 8 bits = 256 tonos
(mínimo que puedo tener porque es el límite del ojo humano).
El video dice “si” o “no” con pulsos de electricidad. Esto quiere decir que para saber que tono es,
tiene que hacer todas las preguntas. Pregunta “es tono 1?” no y así hasta llegar al tono que está
en ese pixel. Por lo que hace 256 preguntar x 3, porque es por canal.
¿Por qué no se ve bien el video? Porque es muy pesado el archivo y son muchos 0 y 1 por cada
canal de cada pixel.
En digital: hicieron un sistema de clave para tener menos preguntas. Esto quiere decir que
comprime mucho mas. Haces 8 preguntas (2,4,8,16,32,64,128 etc.) F65=65.000 tonos.
Si se reduce cuantificación se empiezan a ver líneas que se llama banding.
Postproducción: come bits (lo bueno de la F65 es que podes hacer una post violenta). Si estoy
trabajando en 8 bits, hacer todo lo que quieras hacer en tonos. Lo que se come la post son tonos,
entonces si no lo tocas mucho no te afecta demasiado.
Forma logarítmica: Se crea luego otro sistema en donde no se baja la mitad de luminosidad sino
que un poco menos. Esto hace que se achate la imagen, haya menos contraste. Tira tonos para
abajo donde más los necesitaba y aplana la imagen haciendo menos contraste.
Para el ojo humano y fílmico, cuando llega a un momento que no puede ver, no hace el doble de
luz sino que lo apaga. En el video funciona de manera lineas, el doble de luz es el doble de
electricidad, por eso el video se corta abruptamente. En digital, se usa este método llamado curva
c para que no pase lo dicho anteriormente. El sensor si recibe y hace doble de electricidad pero se
cuantifica.
La F65 trabaja a 16 bits lineales pero vos no los ves en ningún lugar. La cámara te ofrece que
grabes 10 bits logarítmicos (lo que pude reproducir la pantalla).
No es la misma saturación porque hay menos contraste.
Apenas sale del sensor es lineal, tiene contraste, y vos podes elegir como grabarlo (s log, curva c,
curva h) y el logaritmo es cuando comprimis los tonos altos y por lo tanto no tienes tanto contraste.
Si grabas en RAW, tienes el original como lo vio el sensor, de alguna forma. Porque el RAW tiene
16 zonas pero ninguna pantalla tiene para verlo. Las cámaras tienen mucho rango dinámico pero
las pantallas no y el ojo no puede ver tanto contraste tampoco.
COMPRESIÓN
Desde el sensor pasa por el matrizado (codificación del color), luego el muestreo junto a la
cuantificación. Estas son compresiones pero no se le dice así. Todos estos procesos no llegan a
quitar el suficiente peso a la imagen por lo que se necesita una compresión mas intensa.
Filtro Deblocking: se generó un código que hace que los bordes se parezcan y no se distinga entre
bloque y bloque. Esto lo tiene la 5D, que tiene esta compresión pero con el filtro no se nota. Con
este filtro, pierdo acutancia, que es el grado de contraste generado en los límites entre las zonas
de distinta densidad (microcontraste de bordes). Cuando detecta un borde aclara el borde mas
claro y oscurece el mas oscuro.
Algoritmo es la forma que elegís para quitar datos y el codec la marca registrada.
GOP: tantos fotogramas que tiene cierto codec. Cuanto más largo el GOP es mas deformado,
menos precisa porque se deformó mas. Con GOP largo no te deja cortar donde querés en edición.
Primer y último fotograma del GOP ya están comprimidos intraframe. Empieza con intraframe para
empezar con compresión, porque el resto sigue con ese. Después viene B (bidireccional). IBP
(Intra Bidireccional Predictivo). Se relaciona en base al otro B y el P. El bidireccional lee la relación
entre el fotograma anterior y el posterior. Si son iguales, construye con un solo fotograma la
misma imagen. El predictivo analiza los vectores e inventa como va a proseguir ese vector
(inventa información). El H264 tiene mas predictivos.
El problema del predictivo es si pasa algo en el medio no se entera pero se recamado con el
siguiente. Ese es el movimiento feo que tienen las cámaras mirrorless por eso las cámaras
buenas de cine tienen intraframe.
Si vas a hacer movimientos bruscos, impredecibles, cámara en mana, no usar interframe. El ratio
de compresión es 50:1.
Ratio de compresión (RC): cuantas veces comprime. Es la relación entre el archivo original y el
archivo comprimido.
Compresión muy alta en archivo intra: te toca la textura.
Compresión muy alta en archivo inter: te toca el movimiento.
ALL-I: todo intra
IPB: inter
Eso es como lo setas en la cámara.
TRANSFER
Televisión necesita estar acorde al ritmo eléctrico. Cuadros por segundo va a estar relacionado
con la pulsión eléctrica.
Escaneo Interlaceado
Primero hace un recorrido de las líneas impares y después de las pares, y cargas menos el buffer.
(1/50). Son diferentes en movimiento, no en calidad.
24p: histórico, en digital grabas porque vas a terminar en DCP o pasar a fílmico. Si vas a hacer
miniserie para tv no tiene sentido, es snob.
50i: Esta puesta en relación a la velocidad de los campos. Es a 25 cuadros por segundo (50
campos por segundo). Es para TV PAL.
25p: para emisiones que se hagan en progresivo pero con una base PAL. Cualquier cosa para
internet/youtube.
23,976p: te permite pasar hacia un tipo de transfer o al otro con una perdida mínima. AGREGAR
PULLDOWN ETC
Obturación
En digital no necesitas tapar para pasar al otro fotograma, tienes un barrido. En digital puedo
modificar también el tiempo que la imagen está capturada. Si las imágenes duran menos tiempo,
cada fotograma dura menos y es mas entrecortado (estrobostópico). En video/digital lo podes
cambiar, te lo ponen en ángulo, ángulo mayor es mas estrobostopico.
Color en video
AGREGAR TODO