Está en la página 1de 5

MTC2 TRANSMISION DIGITAL POR MOSAICOS EN DSP

TRANSMISION DIGITAL POR MOSAICOS EN DSP


Diego Duque
diegodupo@hotmail.com

ABSTRACT To understand how all El siguiente paso del “viaje” de la luz en su


the recording device from which frame to captación y posterior grabación es el sensor.
En este “chip” es donde tiene lugar la auténtica
we give the recording button, the video captación. La luz que forma parte de la escena
signal passes through a number of o motivo -es decir, la realidad- pasa a través de
complex processes. la lente y alcanza una serie de elementos
The sensor, internal circuitry or the cargados eléctricamente llamados píxeles.
Estos tienen la propiedad de reaccionar
recording system used in either chamber eléctricamente con mayor o menor intensidad
are al punto origen al cual están asociados, es
fundamental to understand the differences decir, al brillo de la imagen original.
of why the light is captured and Para entenderlo mejor, supongamos que
estamos encuadrando a una persona de
subsequently recorded in an HD camera. noche con un proyector directo a su camisa
blanca. Si tomamos una exposición “correcta”,
1 INTRODUCCIÓN su piel está expuesta al 0,35v, su camisa a
0,67v y el fondo a 0,20mv (noche).
Tomaremos como referencia Los píxeles que forman parte de la camisa
propuestas tecnológicas basadas reaccionaran con una mayor carga eléctrica
en sensores CMOS y captura RAW, que los que forman parte del fondo, donde
así como apuestas inherentes a prácticamente no habrá reacción y serán
sensores con tres CCD. interpretados como ausencia de luz. Como
Encontramos varias etapas entre la captura veremos más adelante, dentro de un sistema
de datos y la grabación de la señal de video: digital, podríamos hablar de que el máximo
1. Formación de la imagen brillo de luz es 1 y el mínimo, es decir,
2. Captura de la imagen en el sensor ausencia de luz (negro) es 0.
3. Procesado de la señal (Sistemas HD / Raw) Por supuesto, la variación de luz mediante el
4. Conversión A/D diafragma y el control de iluminación, afectará
5. DSP a todo este proceso de captación de la
6. Compresión imagen.
7. Debayering Antes de que esta “energía lumínica”, llegue a
los elementos activos, ha de pasar por un
2 FORMACION DE LA IMAGEN separador cromático, que como si de un tamiz
se tratase, dejará pasar una determinada
longitud de onda. Es en este punto donde se
El viaje de la luz comienza al encuadrar el motivo puede establecer una de las principales
con una lente, ya sea fija o de focal variable. divisiones tecnológicas en cuanto a sensores
Dentro de este motivo (paisaje, retrato...) existen se refiere, por un lado encontramos el prisma
diferentes valores tonales de gris y color, sobre dicroico, típico de los CCD, y por el otro, la
la base de la propiedad de los objetos a reflejar denominada “máscara Bayer”
una determinada longitud de onda.
La óptica es la encargada de que se forme
una imagen lo más nítida posible. Además de 4 PROCESADO DE LA SEÑAL
marcar el valor de plano (de angular a tele) y
la profundidad de campo, ayuda a determinar Es en este punto donde podemos establecer
la luminosidad de la escena mediante el ajuste las dos grandes diferencias en cuanto al
del diafragma. procesado de la señal se refiere. En los
Gracias a la propiedad de refracción de las procesos con cámaras HD convencionales, la
lentes la luz que reflejan los objetos dentro señal es transformada y su origen queda
del motivo es transmitida hacia delante y “inservible”, mientras que en los procesos
focalizada en un sensor. RAW, siempre estamos a tiempo de
recuperar la señal original.
3 CAPTURA DE LA IMAGEN EN EL
SENSOR 4.1 Proceso típico señal cámara
con procesamientos digitales

1
MTC2 TRANSMISION DIGITAL POR MOSAICOS EN DSP
.

cuales realizan los cálculos necesarios para


Antes de que la señal se digitalice (recordemos procesar (nuevamente mediante algoritmos)
que nuestra señal actual es analógica), se señales de vídeo en tiempo real. Los
establece un punto de No retorno. En otras procesadores DSP son habituales dentro de
palabras, estamos haciendo un “positivo” de una cámara de altas prestaciones y en
una señal negativa pura. Como ventaja muchas ocasiones se interponen entre el
principal tiene la inmediatez, el poder utilizar la conversor A/ D y el posterior conversor
imagen en, por ejemplo, directos (noticias, digital analógico.
deportes, eventos...) o en muchos casos ni Los DSP necesitan una memoria para
entalonarla. Por supuesto, esto provoca una almacenar los datos y un programa
pérdida de calidad de la señal RGB original. especifico de cada fabricante para ejecutar
La señal RGB que proviene de los sensores ha la aplicación. Son procesadores complejos
de ser convenientemente adecuada para su que tienen la capacidad de trabajar con
posterior grabación, emisión…, por lo que es varios datos en paralelo. Una de sus
introducida en una serie de PRE-amplificadores funciones típicas es la de poder manipular la
cuya función es la de estabilizar la señal, con señal en tiempo real (CCU, remotos...) y
mayor ganancia y menor ruido. tocar así los diversos procesos de la señal
de cámara (gamma, knee...).
5 El Conversor A/ D La Red One también cuenta con
procesadores DSP, cuya función principal es
la de corregir ya en cámara (sin afectar al
El conversor A/D transforma la señal origen
RAW) las previsualizaciones de las
analógica (continua en tiempo y amplitud) en
diferentes salidas de cámara. Es posible
una señal digital (discreta) en la cual, a partir
variar el balance de blancos, o la
de la información eléctrica, a cada píxel se le
distribución de la ganancia de cámara,
asigna un determinado valor fijo formado por
siendo estos valores almacenados como
unos y ceros (sistema binario). Estos valores
metadatas dentro de los clips creados por la
serán interpretados como un color diferente en
cámara. Posteriormente, o bien los
los canales RGB que forman la imagen final.
recuperaremos o bien los descartaremos
Las ventajas de hacer esto son:
para postproducción.
! La señal digital puede ser reconstruida con
El caso de la SI es similar, ya que incorpora
más facilidad que la analógica,
un software dentro de la propia cámara que
recuperando y regenerándose sin
hace esta función, mediante algoritmos
introducir distorsiones típicas de la señal
aplicados sobre el debayering del sensor,
analógica.
siendo siempre recuperables los datos
! Una mayor facilidad de procesamiento de
capturados en Raw.
la señal en software de edición, corrección
Otras funciones de los DSP pasan por
de color, efectos...
hacer una corrección de gamma, restaurar
! Multigeneración infinita de copias digitales,
el color desde la máscara Bayer, preparar la
sin pérdida de calidad, en soportes media
compresión o simplemente ajustar niveles
tales como discos duros, tarjetas de
automáticos de blancos, ganancia,
memoria sólida, discos ópticos… En el
contraste, en cámaras de vigilancia.
caso de la cinta magnética (digital) sí que
hay pérdida, aunque mucho menor que la
cinta magnética analógica (soporta 4 ó 5 7 COMPRENSION
generaciones)
! El proceso básico de esta conversión es el Una vez tenemos la información codificada
coger muestras de la amplitud de la señal (datos informáticos, señal digital,) lo que
(analógica) de forma periódica y traducirlas necesitamos es reducir su volumen o ancho
numéricamente al sistema binario. Durante de banda, antes de grabar o emitir, de
esta conversión intervienen cuatro forma que se grabe toda (o casi toda)
procesos: Muestreo, Retención, empleando el mínimo espacio posible. A
Cuantificación y codificación. este proceso, normalmente hecho en
tiempo real, le llamamos compresión.
6 DSP Recordemos que la información que hemos
codificado es la resultante de la cantidad de
muestras y su posterior conversión como
Antes de que la señal sea comprimida y profundidad de color (resolución en bits).
finalmente grabada, pasará por una serie de Como ya hemos visto antes, mediante
microprocesadores, compuestos algoritmos matemáticos intentaremos
básicamente de un hardware y software, los reconstruir la señal original. La finalidad de

2
MTC2 TRANSMISION DIGITAL POR MOSAICOS EN DSP
.

estos algoritmos es la de reducir en la La imagen captada por el sensor son escalas


medida de lo posible tanto la redundancia de grises, monocromas, siendo
espacial como la temporal, de forma que al posteriormente, mediante el demosaicing y la
decodificar la imagen se minimice al máximo aplicación de un W/B y matriz de color,
la distorsión visual y de paso consigamos un cuando podremos visualizar correctamente la
flujo de datos (BIT rate) cuanto menor, imagen. Las cámaras que incorporan un
mejor. único sensor (CMOS o CCD) presentan tres
El método más interesante es la compresión filtros en forma de mosaico, formado cada
sin pérdidas, más acorde a la tecnología uno por los colores primarios RGB (filtro
actual. En ella se transmite toda la Bayer). Sobre el sensor se superponen estos
información, pero eliminando la información tres filtros de forma que cada uno de ellos
repetida, agrupándola para que ocupe deja pasar sólo su propia frecuencia (longitud
menos. de onda). El Rojo no tendrá frecuencias
Cámaras como la Red o la SI 2K están verde ni azul. Posteriormente, se reconstruirá
basadas en wavelets, lo que permite la señal completa (RGB) a partir de los
procesar la imagen completa sin problemas píxeles adyacentes de cada color. Como
de distorsión. Los wavelets “descomponen” curiosidad el filtro verde tiene el doble de
señales en distintas bandas de frecuencias, lo microfiltros que los otros dos (R y B), ya que
que es más acorde a las imágenes naturales así el sensor “imita” la respuesta más sensible
y a la visión humana, ya que en éstas hay al verde del ojo humano.
cambios bruscos en zonas homogéneas En este proceso se generan diferentes
(como una transición sol-sombra). Los matrices que toman como referencia los
wavelets son un conjunto de procedimientos píxeles adyacentes y ayudan a discriminar
matemáticos que significan “pequeñas cada matriz para reconstruir la información de
ondulaciones” y nos permiten comprimir una color. De esta forma se consigue que cada
mayor cantidad de datos que se utilizaran píxel tenga la información con tres valores de
posteriormente para almacenar la imagen. color cada uno el conversor RAW rellena los
Así, será posible almacenar una imagen más espacios en base a la información de estas
detallada en un espacio menor. La Red o la matrices. El debayering introduce ruido,
SI 2K utilizan este tipo de compresión sin aunque se va mejorando, muestra de ello es
perdidas basadas en wavelets. Siguiendo con la Red, que al mejorar el algoritmo del
el ejemplo de la SI 2K, lo que la cámara hace debayering se logra reducir.
es codificar/comprimir a 10 bits Raw aunque Durante estos procesos es normal la
de saque, el conversor A/D nos dé 12 bits. replicación de píxeles, interpolación bilineal
La compresión se anota en términos de y la mediana de interpolación. Otra de las
relación 2:1, 5:1. Una buena compresión es cosas que hace el proceso de demosaicing
la relación de 2:1, de cada 100 megas (por es la de “recuperar” toda la resolución
cada 25fps) lo bajamos a 50. espacial del sensor y mostrarla en un
Mediante el uso de codecs se reduce cada espacio de color RGB, donde se puede ver
uno de los fps, según el sistema, a la imagen más que aceptable.
relaciones de 2:1 en el caso de la Sony Aunque el debayering sea inherente al
F950; 4,4:1 para la Sony F750 o de 6,7:1 software de cada fabricante y formato RAW,
para la Varicam de Panasonic. la extracción del color es un proceso de
La resolución, frame rate, muestreo o cálculo que también se puede realizar en el
codificación, serán algunos de los factores interior de la cámara mediante circuitos
determinantes con los que, mediante DSP, permitiéndonos realizar la operación
operaciones matemáticas, llegaremos a la en tiempo real, obteniendo de estos
cifra final que nos indicará la frecuencia de archivos una señal analógica o digital en
datos (el bitrate) expresada en megabites. RGB. A estos archivos vienen asociados
Esta es la cantidad de información que una seria de metadatos que posibilitan
encierra el sistema, el flujo de datos que poder abrir el Raw en un espacio de color
mueve la cámara. tal como el de un monitor de rodaje, RGB
La frecuencia de datos del HD es de 100- con curvas de gamma de video (Itu-709).
140 mbs, en comparación con la de los Estos metadatos nos permiten previsualizar
sistemas HDV que son de 25 mbs. A un en rodaje la señal más o menos como
mayor número de mbs una mayor calidad de quedará.
imagen. Cámaras como la SI 2K, junto con el
software de la cámara, permiten aplicar un
8 DEBAYERING Y DEMOSAICING demosaico sobre la marcha, en tiempo real
directo (con los DSP) de la descompresión

3
MTC2 TRANSMISION DIGITAL POR MOSAICOS EN DSP
.

de sus archivos Cineform RAW. En este formándose 3 imágenes: R, G y B.


caso puedes aplicar la mitad de resolución
V y H (quadlet) o la total (bilineal). La Red
One hace un debayering (quadlet) en
previsualización mediante procesadores
DSP que nos permite ver cómo quedará
más o menos la imagen sin necesidad de
aplicar software en rodaje (Red Alert),
aunque también está la opción de hacerlo
en el mismo set de una manera más
completa con este tipo de software.

IMÁGENES CAPTURADAS

La máscara Bayer
Para separar el color se aplican filtros de color
verde, rojo o azul sobre cada píxel, de forma
discontinua encima del sensor. La “máscara
Bayer” está muy relacionada con los CMOS,
los cuales veremos, en el caso que nos
interesa, desde el punto de vista de la captura
RAW. Como en el caso anterior, esta máscara
con forma de mosaico permite pasar una serie
de longitudes de onda a cada uno de los
píxeles. Como veremos más adelante, la
extracción de la información de color tiene
lugar durante el proceso de debayering o
demosacing (que viene a ser lo mismo).

El prisma dicroico
Tanto los CCDs como los CMOS son
monocromos, por eso la principal función de En el caso de la captura en Raw no
los separadores cromáticos es la de separar podemos hablar de una señal concreta, como
la luz que llega a través de la lente, en las puede ser la de componentes analógicos de
tres longitudes de onda correspondientes a una cámara de vídeo convencional. En este
los colores primarios: Rojo, Azul y Verde. caso, el proceso A/D se hace en base a los
El prisma dicroico, muy utilizado en sensores datos en crudo del sensor.
CCD, consiste en una serie de espejos dentro
del “bloque dicroico” que reflejan y dejan pasar ALGORITMO PARA MOSAICO KOHONEN
las determinadas longitudes. Cada una de
estas imágenes es enviadas a cada uno de los En el caso del proceso de clasificación por Kohonen la
interface creada se puede ver en la figura 8 y en esta, a
3 CCDs a los que están asociados,
diferencia de FCM, el proceso de clasificación se hace
de manera directa, es decir, se especifican las dos
clases, good (buena) y bad (mala) y una vez que pasa
por la red neuronal la señal de los mosaicos nos dice a
cuál de las clases pertenece cada mosaico.
El resultado es igual a la de FCM y los resultados
muestran que el mosaico 1 no tiene defectos mientras
que el segundo fue clasificado como bad (con defectos).

4
MTC2 TRANSMISION DIGITAL POR MOSAICOS EN DSP
.

Fig. 8. Clasificación de dos mosaicos usando el modelo


Kohonen
REFERENCIAS

• Gabi Garcia, “Capturando la señal de video”.


• Gerardo Barrera C., Guillermo Carreón G. y Alberto Ruíz
M.

También podría gustarte