Está en la página 1de 388

» 001

/ CINE Y
/ TELEVISIÓN
/ DIGITAL
MANUAL TÉCNICO

Jorge Carrasco

C • M U N I
CACIÉN
ACTIVA
frmsM
» 003
UNIVERSITAT DE BARCELONA. Dades catalográfiques

Carrasco, Jorge

Cine y televisión digital: manual técnico. - (Ube Comunicación activa ; 6. Cine)


ISBN 978-84-475-3457-9

I. Títol II. Col lecció: Comunicación activa ; 6 III. Col lecció: Comunicación activa. Cine
1. Cinematografía (Técnica) 2. Televisió digital 3. Processament d'imatges 4. Electrónica digital
5. Mitjans de comunicació digitals

© PUBLICACIONS I EDICIONS DE LA UNIVERSITAT DE BARCELONA, 2010


Adolf Florensa, s/n, 08028 Barcelona, tel.: 934 035 442, fax: 934 035 446,
comercial.edicions@ub.edu; www.publicacions.ub.es

Diseño gráfico de la cubierta y del interior: Estudi Quim Duran

ISBN: 978-84-475-3457-9

Depósito Legal: B-19.982-2010

Impresión: gáfiques 92, S.A.

Impreso en España/Printed in Spain

Queda rigurosamente prohibida la reproducción total o parcial de esta obra. Ninguna parte de esta publicación,
incluido el diseño de la cubierta, puede ser reproducida, almacenada, transmitida o utilizada mediante ningún
tipo de medio o sistema, sin autorización previa por escrito del editor.
» 005
» 006
ÍNDICE

Prólogo
por José Marta Aragonés 25

Introducción
por ]Jorge Carrasco 27

Contenidos de la obra.............................................................................................................. ......29

PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Cuatro palabras antes de comenzar 23

1. Definiendo la calidad objetiva 35


> Definiendo la calidad.................................................................................................... ...... 35
> Estándares y flexibilidad............................................................................................... ...... 36
> Cine, televisión, vídeo................................................................................................... ...... 36
Cine: el formato fotoquímico............................................................................................ ...... 37
> Fotoquímico......................................................................................................................... 38
> La resolución en fotoquímico........................................................................................ ......38
> Grabación digital en fotoquímico................................................................................. ....... 39
> Parámetros de calidad.................................................................................................... ...... 39
> Límites y estándares............................................................................................................ 40
> La cadencia.......................................................................................................................... 41
> Negativo y positivo....................................................................................................... ....... 41
> Tiraje de copias y sonorización..................................................................................... ...... 42
> Pérdidas de calidad.............................................................................................................. 42
> El cine totalmente digital..................................................................................................... 43
Televisión: la señal electrónica......................................................................................... ....... 44
> Del analógico al digital y de SD a HD.......................................................................... ...... 44
> El mundo televisivo actual............................................................................................ ...... 44

» 7
índice

> Grabación analógica...................................................................................................... ........ 45


> Estándares analógicos.................................................................................................... ........46
> Cadencia................................................................................................................................ 47
> Megahercios y ancho de banda...................................................................................... ....... 47
> El color en televisión: RGB........................................................................................... ....... 48
> Suma aditiva..........................................................................................................................49
> Monitorización del color............................................................................................... ........ 49
> La cuantificación digital................................................................................................ ........49
> Ventajas digitales........................................................................................................... ....... 49
> Sistema binario......................................................................................................................50
> Compatibilidad......................................................................................................................51
> El bitrate................................................................................................................................51
El nacimiento del cine digital............................................................................................ ....... 52
> Telecine y escáner digital.............................................................................................. ........52
> Intermediación digital (DI)............................................................................................ ....... 53
> Filmado digital............................................................................................................... ....... 54
> La conexión indie.......................................................................................................... ........54
> Alta definición y cine digital......................................................................................... ....... 54
> Distribución digital........................................................................................................ ....... 55

2. Parámetros digitales........................................................................................................... .......57


> La “sopa de letras"......................................................................................................... .......57
> Conceptos fundamentales.............................................................................................. ....... 57
> Estándares internacionales y formatos comerciales............................................................. 58
> Las particularidades del cine e internet......................................................................... ....... 59
> Tres categorías "pro''...................................................................................................... .......60
> Normativa HDTV.......................................................................................................... .......61
> Resolución..................................................................................................................... .......62
> Muestreo............................................................................................................................... 62
> Profundidad de color..................................................................................................... ....... 63
> Cadencia............................................................................................................................... 63
> Compresión..........................................................................................................................63
> Calidad e información................................................................................................... ...... 64
> Un poco menos de “selva”............................................................................................. ..... 64

3. La resolución..................................................................................................................... .......67
> Definición............................................................................................................................67
> Cine y televisión................................................................................................................... 68
Resoluciones HDTV.......................................................................................................... ......68
> Cambio de relación de aspecto (aspect ratio)............................................................... ......69

»8
índice

> Dos estándares............................................................................................................... 69


> HD Ready y Full HD..................................................................................................... 70
> Ultra High Definition.................................................................................................... 70
Resolución en el cine digital y HR.................................................................................... 70
> Formato de pantalla....................................................................................................... 70
> Resolución horizontal.................................................................................................... 72
> Recomendación DCI..................................................................................................... 72
> E-Cinema....................................................................................................................... 74
> Full Aperture............................................................................................................. 74
> Captación 2K / 4K......................................................................................................... 76
> 3K, 6K, 8K................................................................................................................... 76
Otras resoluciones no estandarizadas................................................................................ 76
> VGA y otros.................................................................................................................. 77
> Equipamientos de usuario y profesional....................................................................... 78
> Resolución “nativa”....................................................................................................... 78
> Visionados correctos..................................................................................................... 78
> Megapíxeles................................................................................................................... 80
Recapitulación................................................................................................................... 80

4. Profundidad de color ........................................................................................................ 83


> Etapa A/D...................................................................................................................... 83
> Color expresado en bits................................................................................................. 83
> El estándar 8 bits........................................................................................................... 84
> Canales separados......................................................................................................... 85
> 10, 12 bits..................................................................................................................... 85
> Otras terminologías....................................................................................................... 86
> SNR: signal noise ratio................................................................................................. 87
Recapitulación................................................................................................................... 87

5. El muestreo ...................................................................................................................... 89
> Muestreo total y parcial................................................................................................. 89
> De la televisión en blanco y negro al color................................................................... 89
> Luminancia y crominancia............................................................................................ 90
> Las limitaciones del espacio radioeléctrico.................................................................. 92
> El submuestreo o muestreo parcial............................................................................... 92
> Submuestreo analógico................................................................................................. 93
> TV 4:2:2........................................................................................................................ 93
> Cine 4:4:4...................................................................................................................... 94
> Reducción de flujo de datos.......................................................................................... 94
> Pérdida de calidad efectiva........................................................................................... 94

»9
índice

> Número de muestras...................................................................................................... 95


> 4:2:0 y 4:1:1 .................................................................................................................. 96
Recapitulación................................................................................................................... 97

6. Cadencia y barrido ............................................................................................................ 99


La cadencia......................................................................................................................... 99
> Cadencia ideal................................................................................................................ 99
> Cadencia en el cine........................................................................................................ 99
> Televisión: diferentes cadencias.................................................................................... 100
> Cadencia HD.................................................................................................................. 101
> 23,976 ............................................................................................................................ 101
El barrido............................................................................................................................ 103
> Captación en diferentes momentos................................................................................ 105
> La captación interlazada exige emisión interlazada....................................................... 105
> Ventajas y desventajas del progresivo: resolución dinámica......................................... 106
> Limitaciones a la obturación.......................................................................................... 106
> Cadencias interlazadas................................................................................................... 107
> Cadencias del futuro...................................................................................................... 107
> Cine: 48 fps, 72 fps........................................................................................................ 108
> Televisión i/p.................................................................................................................. 108
> ¿Una cadencia universal?.............................................................................................. 110
Recapitulación.................................................................................................................... 110

7. Definición de formatos: peso y flujo........................................................................................111


Formatos estandarizados.................................................................................................... 111
> Compresión.................................................................................................................... 111
> Formatos TV.................................................................................................................. 112
> Standard Definition (SD).............................................................................................. 112
> SD analógico.................................................................................................................. 112
> SD digital....................................................................................................................... 113
> Formatos High Definition (HD).................................................................................... 114
> ¿Otros formatos?............................................................................................................ 115
> El mundo IPTV.............................................................................................................. 115
> Cine................................................................................................................................ 116
> Digitalización de fotoquímico....................................................................................... 117
> Captación digital............................................................................................................ 118
> Cadencias en el cine digital........................................................................................... 118
> Grabación 2K, 4K, 3K y otras....................................................................................... 119
> Distribución digital........................................................................................................ 120

» 10
Indice

Peso y bitrate..........................................................................................................................121
> Peso o tamaño....................................................................................................................121
> Flujo de datos o bitrate...................................................................................................... 121
> Cálculo del peso y el bitrate.............................................................................................. 122
> Redondeo...........................................................................................................................123
> Cuidado con la "b" ........................................................................................................... 125
> GigaBytes por hora............................................................................................................125
Formatos comerciales............................................................................................................ 126
> Submuestreo............................................................................................................. 126
> Compresión....................................................................................................................... 127
> 2 estándares, muchas etiquetas.......................................................................................... 127
Recapitulación....................................................................................................................... 129

8. La compresión 131
> La necesidad de compresión..............................................................................................131
> Origen de la compresión....................................................................................................131
> Codees............................................................................................................................... 131
> MXF.................................................................................................................................. 132
> Familias de códecs.............................................................................................................132
> Familias de compresión.....................................................................................................133
> Dentro del cuadro (intraframe)......................................................................................... 133
> Entre varios cuadros (interframe)...................................................................................... 133
> Diferencias entre familias.................................................................................................. 134
> Compresiones pro y prosumer........................................................................................... 135
> I-Frame...............................................................................................................................135
> Tendencias..........................................................................................................................135
Recapitulación........................................................................................................................ 136

9. Sonido.................................................................................................................................... 137
> La importancia del sonido..................................................................................................137
> Peso del sonido.................................................................................................................. 137
> Estándar SDTV.................................................................................................................. 138
> Estándar HDTV................................................................................................................. 138
> Bitrate.................................................................................................................................138
> Sonido en el cine................................................................................................................138
> Sonido óptico (banda internacional).................................................................................. 139
> Sonido digital.....................................................................................................................139
> Sonido digital en proyección digital.................................................................................. 140

»11
índice

PARTE II: CAPTACIÓN

> Captación: las cámaras y algo más................................................................................ 143


> Límites en la captación.................................................................................................. 144
> Destino final................................................................................................................... 144
> Coste total...................................................................................................................... 144
> Tipo de producción y presupuesto................................................................................. 145
La línea de la luz................................................................................................................ 145
> Conjunto óptico............................................................................................................. 146
> Separación tricromátrica................................................................................................ 147
> Sensor............................................................................................................................ 147
> RAW.............................................................................................................................. 147
> ¿Qué es una cámara?..................................................................................................... 147
La línea de datos................................................................................................................ 148
> Monitorización............................................................................................................... 149
> Almacenamiento............................................................................................................ 149
> Dispositivos I/O............................................................................................................. 149

1. Elementos comunes a todas (as cámaras............................................................................ 151


> La calidad como proceso global.................................................................................... 151
> Concepto MTF.............................................................................................................. 151
Las lentes........................................................................................................................... 152
> Nitidez, definición, contraste........................................................................................ 153
> Luminosidad.................................................................................................................. 153
> Variedad focal................................................................................................................ 154
> Relación entre sensor y focal........................................................................................ 154
> Lentes fijas o intercambiables....................................................................................... 155
> Lentes no intercambiables............................................................................................. 155
> Soluciones intermedias.................................................................................................. 156
> Opticas intercambiables................................................................................................ 156
> Compatibilidades........................................................................................................... 156
> La profundidad de campo.............................................................................................. 157
> ¿Influye el tamaño del sensor en la PDC?.................................................................... 158
> ¿Hay que tener en cuenta el sensor a la hora de valorar la PDC?................................. 159
> Distancias focales “equivalentes"................................................................................. 159
> Formato de proyección y PDC...................................................................................... 160
> El tamaño de visionado................................................................................................. 160
> El “look" cinematográfico............................................................................................. 160
> La labor del foguista...................................................................................................... 162

» 12
Indice

> Mala visualización............................................................................................................... 163


> Backfocus....................................................................................................................... ...... 164
Recapitulación................................................................................................................... ...... 164
La separación tricolor........................................................................................................ ...... 165
> Sensores: analógicos y monocromos............................................................................ ...... 165
> Prisma dicroico....................................................................................................................165
> Máscara Bayer..................................................................................................................... 166
> GRGB, RGBW, stripped............................................................................................... ......166
> RAW, demosaico e interpolación................................................................................. ...... 167
> Ventajas y desventajas.................................................................................................. ...... 167
> Foveon........................................................................................................................... ......168
Recapitulación................................................................................................................... ...... 168
Los sensores....................................................................................................................... ..... 169
> CMOS y CCD..................................................................................................................... 169
> Capturar fotones..................................................................................................................169
> Resolución y sensibilidad.............................................................................................. ..... 170
> Tamaño del sensor...............................................................................................................171
> Sensores Súper 35 (FullAperture, FA)......................................................................... ......172
> Sensores de fotografía (FullFrame, FF)....................................................................... ......173
> Opción Full Frame/8 perforaciones............................................................................. ...... 174
> Tamaño del fotodiodo y rango dinámico...................................................................... ......175
> Ruido...................................................................................................................................175
> SNRyRD............................................................................................................................. 176
> Fill Factor..................................................................................................................... ......177
> Tecnología: CCD y CMOS........................................................................................... ......177
> Arquitectura de cada tecnología................................................................... ......................178
> Ventajas y desventajas.................................................................................................. ......179
> Shutter y artifacts................................................................................................................180
> Contaminación (smear)................................................................................................. ..... 181
> Desarrollos posteriores: IT, FIT, 4T............................................................................. ..... 182
> Tecnologías equivalentes.............................................................................................. ......183
> Nativo, interpolación y rasterizado............................................................................... ..... 183
> Píxeles activos.................................................................................................................... 194
> Windowed o región de interés (ROI)............................................................................ .....184
> Sobremuestreo....................................................................................................................185
> Demosaico y resolución................................................................................................ ..... 185
> Otras máscaras y demosaicos......................................................................................... ... 186
> Máscara stripped................................................................................................................187

» 13
índice

> Aliasing.......................................................................................................................... ......187


> Filtro anti-aliasing (AA, OLBF)................................................................................... ..... 187
Recapitulación.................................................................................................................... .....187

2. Elementos diferenciadores de cada cámara.............................................................................189


La conversión analógica/digital (A/D).............................................................................. ..... 189
> ISO y ganancia............................................................................................................... .....190
> Límites.................................................................................................................................191
> Matrización......................................................................................................................... 191
> Correcciones de gama.................................................................................................... .....192
> Utilidad del manejo de gamas........................................................................................ .....193
> Riqueza en tonos medios............................................................................................... ..... 193
> Situaciones extremas de rodaje..................................................................................... ......194
> Trabajo con el color....................................................................................................... ..... 194
> Detail Pedestal, lift, skin, knee, cinelike..............................................................................195
> Irreversibilidad............................................................................................................... .....195
> Grabación de datos RAW.............................................................................................. ..... 195
> Ventajas RAW................................................................................................................... 196
> Desventajas RAW..............................................................................................................196
> Reversibilidad....................................................................................................................197
> Tiempo real........................................................................................................................197
Almacenamiento y salidas................................................................................................. .... 198
> Camascopios...................................................................................................................... 198
> Compresión interna en el camascopio........................................................................... ....198
> Tipos de compresión...................................................................................................... ....199
> Grabación externa sin compresión................................................................................ .... 199
> Cadena HDTV/DC......................................................................................................... ....200
> Tipos de salidas..................................................................................................................200
> Downconversion SDi.........................................................................................................200
> 800 mbs, 3 gbs...................................................................................................................201
> Uso de conexiones informáticas.................................................................................... ....201
> Captura, importación, log & transfer, FAM................................................................. .... 202
> Salida HDMI..................................................................................................................... 203
> Conexiones Ethernet...................................................................................................... ....203
> Memorias búfer.............................................................................................................. ... 203
> Grabación no lineal: soluciones de estado rígido.............................................................. 204
> ¿Qué cámara comprar?.................................................................................................. ....205

» 14
índice

PARTE III: MONTAJE Y POSTPRODUCCIÓN

> Premisa fundamental.......................................................................................................... 209


> Conversiones...................................................................................................................... 209
> Upconveision..................................................................................................................... 210
> Crossconversion................................................................................................................. 210
> Downconversion................................................................................................................. 210
> Etapas de la cadena............................................................................................................ 210
> Terminología......................................................................................................................211

1. Montaje...................................................................................................................................213
Generalidades......................................................................................................................... 213
> Mesa de montaje de cine.................................................................................................... 213
> A-BRoll.............................................................................................................................. 214
> Variedad de ENL................................................................................................................214
> Sistemas abiertos o cerrados.............................................................................................. 215
> Diferencias de sistemas y versiones................................................................................... 215
> La duda del montador.........................................................................................................216
> Cualquier programa es bueno............................................................................................ 216
> Cualquier máquina no es suficiente.................................................................................. 216
> Streams.............................................................................................................................. 217
> Codecs de edición............................................................................................................. 217
> Procesos destructivos y no destructivos............................................................................ 217
> Renderizados, lealtime effects, on the fly.......................................................................... 218
> ¿Dónde se guardan los renderizados?............................................................................... 218
> Exportación....................................................................................................................... 219
> Renderizados y código de tiempo..................................................................................... 219
> Media y proyecto...............................................................................................................219
> Offline, online....................................................................................................................219
> Conformado...................................................................................................................... 220
> Proxies o ficheros de baja resolución................................................................................220
La ingesta de material............................................................................................................221
> Ingesta................................................................................................................................ 221
> La importancia de la ingesta online.................................................................................. 221
> Percepción y calidad......................................................................................................... 222
> Codecs de edición y postproducción online......................................................................222
> Codecs nativos de cámara para la edición........................................................................ 223
> Modos de ingesta.............................................................................................................. 224
» Captura y volcado......................................................................................................... 224
» Importación y exportación............................................................................................ 224

» 15
índice

» Direc to Edit............................................................................................................... ......225


» Log & transfer (selección y transferencia)...................................................................... 225
» Ventajas y desventajas............................................................................................... ......225
» La importancia del backup........................................................................................ ......226
> La ingesta en fotoquímico............................................................................................. ......226
» Escaneado y telecine.................................................................................................. ..... 226
» Telecine y kinescopiado............................................................................................. ......226
» Cinevator......................................................................................................................... 227
» Escaneado y filmado.................................................................................................. ......227
» Otros transfers.................................................................................................................228
» Calidad y textura............................................................................................................. 228
> CGI en efectos y animación.......................................................................................... ......228
» Efectos............................................................................................................................. 229
» Animación........................................................................................................................229
» Cartoon............................................................................................................................229
» Stop Motion..................................................................................................................... 230
» Timelapse y otras animaciones.................................................................................. .....230
Proceso de montaje............................................................................................................ .....231
> Montaje tradicional.............................................................................................................231
> Montaje sencillo de imagen........................................................................................... .....231
> Sincronización con el sonido: la claqueta..................................................................... .....232
> Mezclas de sonido.............................................................................................................. 232
> Edición por corte................................................................................................................ 233
> Negros, silencios y wildtrack o pista libre..........................................................................233
> Transiciones y colas...................................................................................................... ..... 233
> Encadenados y fundidos................................................................................................ .....234
> Encadenados fotoquímicos............................................................................................ .....234
> Dpto color...................................................................................................................... .....235
> Cortinillas...........................................................................................................................235
> Cortinillas 2D y 3D............................................................................................................ 235
> Uso y abuso de las transiciones..................................................................................... .... 236
> Montaje terminado......................................................................................................... ....236
> Montaje televisivo..............................................................................................................236
> La percepción del espectador........................................................................................ .....237
Conformado....................................................................................................................... .....238
> Offline a online...................................................................................................................238
> Identificación de las cintas............................................................................................ .....238
> La grabación del código de tiempo............................................................................... 239
> Código de tiempo en ficheros IT................................................................................... 240

» 16
Indice

> Identificación de fichero IT........................................................................................... .... 240


> Tipos de fichero IT.............................................................................................................240
> De offline a online mediante EDL................................................................................. .... 241
> Lenguajes de metadata.................................................................................................. .....241
> Estándares comerciales.................................................................................................. ....242
> Mejora en el flujo de trabajo......................................................................................... .....242
> Las suites de edición..................................................................................................... .....243
> Cine: proceso tradicional............................................................................................... ....243
> Cine: proceso con intermediación digital...................................................................... ....244
> Exportación vía referenciado........................................................................................ .... 244
> Renderizado de efectos y transiciones.......................................................................... .... 244
> Consolidado.......................................................................................................................245
> Trabajo en red (SAN)..................................................................................................... ....245

2. Postproducción.................................................................................................................. ....247
> Formatos para DI............................................................................................................... 247
> ¿Excepciones?................................................................................................................... 248
> ¿Por qué sin comprimir?............................................................................................... .... 248
> Ingesta online.................................................................................................................... 249
> Límites al trabajo sin compresión................................................................................. ...250
> RAID................................................................................................................................251
> Tipos de RAID.................................................................................................................. 251
> SAN.............................................................................................................................. ....252
> Capacidad de cálculo del software................................................................................ ... 252
> Etapas de la postproducción: renderizados................................................................... .. 253
> Incrustación de imágenes generadas por ordenador (CGI)........................................... ....255
> Broadcastsafe................................................................................................................ ....255
> Superwhite y pedestal.................................................................................................... ... 256
> LUTs de visionado y exportación................................................................................. ....256
> LUT 2D y 3D.................................................................................................................. 257
> Procesos de intermediación en cine.............................................................................. ...258
> Masterizado final: el negativo digital o DSM............................................................... ..258
> Copias de seguridad...................................................................................................... .. 259
> Otras opciones para el backup...................................................................................... .. 260

»17
Indice

PARTE IV: DISTRIBUCIÓN

> El nuevo mundo multicast............................................................................................. 265

1. Televisión convencional..................................................................................................... 267


Digital Video Broadcasting............................................................................................... 267
Generalidades técnicas....................................................................................................... 267
La televisión “terrestre" o TDT......................................................................................... 268
El apagón analógico........................................................................................................... 268
Espacio radioeléctrico........................................................................................................ 269
Ventajas y diferencias de la emisión digital....................................................................... 270
TDT = DVB-T................................................................................................................... 271
TDT en España................................................................................................................... 271
Calidad teórica................................................................................................................... 272
Ventaja del multiplex......................................................................................................... 272
Interactividad en la TDT.................................................................................................... 273
Set Tbp Box........................................................................................................................ 273
Discos duros grabadores y VOD....................................................................................... 273
TDT de pago...................................................................................................................... 274
TDT en alta definición....................................................................................................... 275
Cadencia y resolución en HDTV....................................................................................... 276
3 DTV................................................................................................................................ 276
DVB-C y DVB-S............................................................................................................... 277
DVB-H............................................................................................................................... 277
SMPTE VC-1, VC-3......................................................................................................... 278

2. Vídeo doméstico................................................................................................................ 279


DVD................................................................................................................................... 279
DVD de alta definición: Blú-Ray....................................................................................... 279
¿Ha llegado tarde el Blu-Ray?........................................................................................... 280
El futuro ya........................................................................................................................ 281
El Blu-Ray ROM como soporte de datos........................................................................... 282

3. IPTV: distribución por internet 283


Estándares.......................................................................................................................... 283
Reproductores en internet.................................................................................................. 284
Codees y reproductor......................................................................................................... 285
El ancho de banda.............................................................................................................. 285
Streamingy descarga (download) 286

» 18
índice

Emisión en directo ............................................................................................................ .... 286


¿Qué formatos son los adecuados para una distribución
en internet?......................................................................................................................... ....287
Servidores.......................................................................................................................... .... 287
Metacapas.......................................................................................................................... ...289
Piratería y DRM................................................................................................................. ....289
Otras utilidades del DRM.................................................................................................. ....289
Los modelos del negocio en internet......................................................................................290

4. La distribución digital en salas 293


> Características técnicas de una proyección digital.............................................................293
> La necesidad de un estándar.......................................................................................... ....294
> Digital Cinema Initiatives.............................................................................................. ..295
El sistema DCI................................................................................................................... ....295
> Terminología......................................................................................................................296
> DSM.............................................................................................................................. 297
> DCMD........................................................................................................................... 297
> Resolución y cadencia del DCMD................................................................................ .... 298
> Cadencia 48 fps............................................................................................................. ...298
> Sonido DCI...................................................................................................................... 299
> DCP..................................................................................................................................300
> Compresión en DCP...................................................................................................... ....300
> Seguridad....................................................................................................................... 301
> Polémica sobre la seguridad y el pirateo....................................................................... 302
> Transmisión de datos..................................................................................................... ....303
> La proyección.................................................................................................................... 303
> Pieshow y contenidos alternativos....................................................................................304
Contenidos alternativos y E-Cinema.................................................................................... 305
> Cine independiente........................................................................................................ ...305
> E-Cinema..........................................................................................................................305
> Emisión en directo......................................................................................................... ....306
> Videojuegos......................................................................................................................306
> Futuro próximo.............................................................................................................. ...306

» 19
índice

ANEXOS

1. Resolución, definición, percepción y MTF 311

Resolución óptica en número de líneas......................................................................................311


Pares de líneas....................................................................................................................... .... 312
El teorema de Nyquist...............................................................................................................312
Resolución fotoquímica y digital............................................................................................... 313
MTF....................................................................................................................................... ...314
Percepción............................................................................................................................. .... 315

2. Visualización de la señal ..................................................................................................... .....317


Forma de ondas..................................................................................................................... ...317
Vectorscopio......................................................................................................................... ....318
Color 3D................................................................................................................................ ...318
Histograma............................................................................................................................ ...318

3. La rasterización.................................................................................................................... .....321

4. Relación de aspecto del píxel (Píxel Aspect ratio, PAR) 323

PAR y Ráster........................................................................................................................ ... 323


Pérdida de calidad vs economía............................................................................................. ....324
3:1:1 ..................................................................................................................................... ... 324
Futuro Full Ráster................................................................................................................. .. 324
Otros non square PAR.......................................................................................................... ... 325
Cine digital PAR 1:1 ............................................................................................................ .. 326

5. Barridos PSF, PN y otros..................................................................................................... .... 327


PSF...........................................................................................................................................327
PN.......................................................................................................................................... ..328
25P OVER 50i...................................................................................................................... ...328
PA.......................................................................................................................................... ..328

6. Codificación lineal y logarítmica 32g

Fotoquímico logarítmico...................................................................................................... ...329


Diferencias en la respuesta................................................................................................... ...330
Captación logarítmica........................................................................................................... ..330
Monitorado y LUTs.............................................................................................................. .. 330
Digitalización DPX............................................................................................................... ..331
LUTs 3D............................................................................................................................... .. 332
Tres aspectos en las LUTs.................................................................................................... ..332

» 20
índice

7. La gama 2.2.......................................................................................................................... 335


Gama en TV y en cine.......................................................................................................... 336

8. La corrección de gama 337

Correcciones de gama.......................................................................................................... 337


Corrección en las altas (knee)............................................................................................... 338
Skin detail/correction............................................................................................................ 338

9. Non Drop Frame / Drop Frame 339

El código de tiempo (Timecode, TC).................................................................................... 339


30 NDÍ 30 DP....................................................................................................................... 340

10. Pull down........................................................................................................................... 341


Transfer de progresivo a interlazado..................................................................................... 341
23,976p.................................................................................................................................. 342
29,97p: unusable................................................................................................................... 342
¿Una cadencia común?......................................................................................................... 343

11. Captación RAW 345

Matrización de la señal......................................................................................................... 345


Menor pérdida RAW............................................................................................................ 345
Trabajo en postproducción................................................................................................... 346
Ficheros RAW...................................................................................................................... 346

12. Entradas y salidas en una cámara 349

La importancia de las conexiones E/S (interfaces I/O)........................................................ 349


Cableado e información....................................................................................................... 349
Macho/hembra...................................................................................................................... 349
Calidad de información en una misma señal........................................................................ 350
> a) Conexiones de audio y vídeo....................................................................................... 350
» al) HD.SDi.................................................................................................................... 350
» a2) Dual Link................................................................................................................ 351
» a3) Cine Link................................................................................................................ 351
» a4) HDMI...................................................................................................................... 351
» a5) YPbPr..................................................................................................................... 352
» a6) S-Video (Y/C).......................................................................................................... 353
» a7) Cable A/V............................................................................................................... 353
» a8) CanonXLR.............................................................................................................. 353
» a9) Jack, minijack......................................................................................................... 353
» a10) Multicore.............................................................................................................. 354

» 21
índice

> b) Conexiones informáticas................................................................................................... 354


» b1) Firewire / IEEE 394 / iLink......................................................................................... 354
» b2) Firewire 800 ................................................................................................................355
» b3) USB 2.0........................................................................................................................ 355
» b4) GigabitEthernet............................................................................................................355

13. Requerimientos del equipamiento informático....................................................................... 357


Software..................................................................................................................................... 3 57
Plataformas.................................................................................................................................358
Hardware.................................................................................................................................... 358
Versiones.................................................................................................................................... 358
Interfaz de usuario......................................................................................................................359
Cadena de proceso de datos....................................................................................................... 359
Cuellos de botella....................................................................................................................... 360
Discos duros............................................................................................................................... 360
CPU y RAM...............................................................................................................................361
Tarjeta de vídeo GPU................................................................................................................. 361
Monitorado................................................................................................................................. 362
Cómo afecta la compresión de los códecs..................................................................................362
RGB progresivo..........................................................................................................................363

14. Tipos de ficheros de imagen digital......................................................................................... 365


Ficheros comprimidos o no........................................................................................................ 365
Resolución y calidad.................................................................................................................. 365
Ficheros comprimidos................................................................................................................365
Ficheros no comprimidos...........................................................................................................366
DPX............................................................................................................................................367
RAW..........................................................................................................................................367

15. Los códecs fluid DnxHd.........................................................................................................369


DnxHD 36 mbs......................................................................................................................... 370
Otros códecs.............................................................................................................................. 371

16. ¿Qué cámara comprar?........................................................................................................... 373

La línea de la luz....................................................................................................................... 373


> ¿Qué objetivo usa?................................................................................................................373
> ¿Qué apertura máxima?........................................................................................................ 374
> ¿Qué montura?......................................................................................................................374
> ¿Qué lentes puedo montar?...................................................................................................375
> ¿Qué accesorios permiten?................................................................................................... 375

» 22
Indice

Separación tricromática........................................................................................................ 375


> ¿Bayer, dicroico, Foveon?................................................................................................ 375
> ¿Qué máscara Bayer usa?................................................................................................. 376
Sensor................................................................................................................................... 376
> ¿Qué tipo de sensor usa?.................................................................................................. 376
> ¿Tiene opción ROI?.......................................................................................................... 377
> ¿Qué tamaño?................................................................................................................... 377
> ¿Cuántos fotodiodos tiene?.............................................................................................. 377
> ¿Qué tamaño tiene cada fotodiodo?................................................................................. ..... 378
> ¿Cuál es su Fill Factor?.................................................................................................... 378
> ¿Cuál es su rango dinámico?............................................................................................ 379
La línea de datos................................................................................................................... 380
> ¿Qué profundidad de cálculo tiene?................................................................................. 380
> ¿Permite el uso de curvas de gama?................................................................................. 380
> ¿Qué formatos o resoluciones ofrece?............................................................................. 381
> ¿Qué tipo de barrido?....................................................................................................... 381
> ¿Qué cadencias permite?.................................................................................................. 381
> ¿Qué espacio de color?..................................................................................................... 382
> ¿Qué profundidad de color?............................................................................................. 382
> ¿Qué bitrate ofrece el archivo?......................................................................................... 383
Salidas y almacenamiento.................................................................................................... 383
> ¿De qué salidas dispone?................................................................................................. 383
> ¿Dónde almacena la información?................................................................................... 384
> ¿Cómo almacena la información?.................................................................................... 384
Sobre el contenido................................................................................................................ 385
> ¿Cuál es nuestro público?................................................................................................. 385
> ¿Qué condiciones de trabajo?........................................................................................... 386
> ¿Qué tipo de producción?................................................................................................ 386
> Y por último..................................................................................................................... 387

GRÁFICOS EN COLOR .......................................................................................................... 389

» 23
» 024
PRÓLOGO

La imagen estática, las películas cinematográficas, la televisión y las múltiple;


aplicaciones industriales y científicas han ampliado considerablemente, en e
curso de los últimos veinte años, el empleo y el tratamiento de la imagen
digital. Por consiguiente, el conocimiento de los principios y las funciones de la
digitalización ha adquirido cada vez mayor importancia para los directores d<
fotografía y demás profesionales que intervienen en la industria de la imagen
Dos décadas ha necesitado la cinematografía para asimilar el cambio tec
nológico de la total digitalización y toda una para autoconvencerse el sector d<
que es posible y positiva. El cambio tecnológico no debemos aceptarlo tan sol<
como una comodidad de rodaje, una mayor rapidez de postproducción o una
mejor calidad de exhibición, ha de ser además una aportación para la evolución
del mismo lenguaje cinematográfico, al juego de sensaciones entre narrador e
interlocutor. El conocimiento de las tecnologías digitales será importante pero
no suficiente.
Si muchos, en la digitalización de la imagen, ven la pérdida del romanti
cismo del fotoquímico, de la artesanía y de su experiencia, les animaré en la
pérdida tan solo del mito: la evolución es el propio cambio de perspectiva y
ésta no cambia las cosas, sólo nos permite ver su lado oculto; la imagen digital
es tan excitante como la analógica, se trata de la combinación abstracta de la
pragmática implementación de la elegancia matemática con el placer visual
Admitiendo que la “elegancia” es la implementación matemática de la óptica
del movimiento de flujos, el espacio de color, de la sensitometría, de la percep­
ción, etc., e incluso de la psicología. Como siempre, será el propio artista quien
deba aportar el criterio de experiencias, de la combinación que genera placer
en definitiva, la búsqueda del error evolucionador.
El fin no es utilizar una nueva técnica para hacer cine, el fin es consegui:
hacer un cine mejor.
Migrar significa dejar los lastres, recoger tus valores importantes y trasladarte
a otro espacio que te pueda ofrecer nuevas oportunidades de desarrollarte.

» 25
PRÓLOGO

La migración al cine digital nos tiene que poner las cosas mas fáciles y
evidentemente así será para quien tenga conocimiento de él. Pero esto sólo es la
base, lo realmente importante es el desencadenante que se produce con el cruce
de la aportación de tus conocimientos y experiencias, cuando experimentas en
otras tecnologías.
Todas las experiencias vividas con la tecnología fotoquímica tienen su equi­
valencia en el mundo digital. Buscarlas, encajarlas dentro del puzle de la meto­
dología de trabajo te facilitará tu adaptación y ayudarás al enriquecimiento del
cine digital.

José María Aragonés


Barcelona, mayo de 2010

» 26
INTRODUCCIÓN

En la actualidad estamos viviendo en una época de transición. Las tecnologías


que durante décadas se usaron tanto en el cine como en la televisión están
cambiando, adaptándose a las nuevas herramientas digitales.
Este libro pretende ser una ayuda para entender estas nuevas herramientas,
útil para el profesional que tiene detrás de sí ya muchos años de trabajo, con
película fotoquímica o con sistemas tradicionales de televisión, y ahora se en­
frenta al cine digital y la alta definición, y que no precisa partir de cero en sus
conocimientos, sino una simple adaptación.
Las tecnologías digitales, contra lo que pudiera parecer, son sencillas. Ape­
nas son necesarios cuatro o cinco conceptos para entenderlas en profundidad.
Lo que complica su comprensión es una explicación incompleta y el uso de
una terminología en exceso rebuscada, con profusión de términos en inglés,
acrónimos, siglas, sobreentendidos y gran abundancia de cifras. Falta una in­
formación en castellano que explique al lector profesional "lo digital” de una
manera sencilla y clara. El objetivo de esta obra es ofrecer esa explicación en
un lenguaje sencillo, evitando el uso de tecnicismos y anglicismos en la medida
de lo posible, aunque dado que gran parte de la información la encontraremos
en este idioma, siempre incluiré el término inglés entre paréntesis.
El presente libro quiere también resumir cinco años de experiencia en el
campo de la formación audiovisual.

Jorge Carrasco
Barcelona, mayo de 2010

» 27
» 027
CONTENIDOS DE LA OBRA

I. Fundamentos teóricos de la imagen digital


Toda imagen de cine digital necesita tan sólo cuatro parámetros para ser defi­
nida, a partir del elemento básico, el píxel.
Una vez definidos, el lector podrá entender y descifrar el rango de calidad de
cualquier formato de cine digital o televisión.

II. Captación y cámaras


El trabajo digital comienza con la captación de imágenes, realizado con cáma­
ras. En el caso de cámaras de cine tradicional, la información captada por el
negativo se procesa en los laboratorios y posteriormente se transfiere median­
te escaneado o telecinado a un formato digital. Si hablamos de cámaras de
televisión o cámaras digitales específicas para cine, todas comparten la mis­
ma tecnología: un sensor que convierte la luz en corriente eléctrica y ésta en
información binaria.
En esta segunda parte se explicarán cuáles son las partes fundamentales de
una cámara que nos sirven para determinar su calidad.

III. Montaje y postproducción


Una vez creadas las imágenes, éstas deben ser editadas y manipuladas para
obtener el resultado final o máster digital (DSM Digital Source Master).
Explicaremos los procesos de trabajo más usuales, los sistemas de edición y
postproducción, formatos de trabajo y flujos de trabajo en función del resultado
que deseamos obtener.

IV. Distribución

Una vez terminado el trabajo en la máxima calidad posible del máster digital, es
necesario transformarlo para que se adapte a los diferentes sistemas de emisión
y distribución.

» 29
CONTENIDOS DE LA OBRA

Se prestará atención a los sistemas de televisión tradicionales (analógica,


TDT, cable, satélite...); los soportes físicos (DVD, Blue Ray); las especificaciones
de proyección digital en salas; y nuevos medios y formatos de distribución
(internet, iPod, 3G...), en lo que se conoce como multicast.

V. Anexos
Con el fin de no entorpecer la lectura fluida del texto principal, aquellas
partes que se considera merecen una especial atención se han incluido en
anexos separados para un consulta más cómoda.

» 30
» 031
PARTE I:
FUNDAMENTOS TEÓRICOS
DE LA IMAGEN DIGITAL
Cuatro palabras antes de comenzar
En el mundo profesional del audiovisual digital, y pese a lo que pudiera parecer,
trabajamos con estándares muy sólidos. En concreto, con sólo cuatro posibles
formatos, dos para cine digital (DC) y dos para televisión de alta definición
(HDTV).
Todos se definen por cuatro, y sólo cuatro palabras o parámetros que los defi­
nen y enmarcan: resolución, muestreo, profundidad de color (o bits) y cadencia.
Los dos formatos de HDTV se conocen como 1.080 y 720, o en ocasiones
como Full HD y HD Ready, respectivamente.
Los cuatro parámetros, bajo la Recomendación 709 de la Unión Internacional
de Telecomunicaciones (ITU), son:

Formatos HDTV

Formato resolución muestreo prof. bits cadencia

1.080 1.920 x 1.080 4:2:2 8 i/p

720 1.290 x 720 4:2:2 8 P

Los dos formatos de cine digital se conocen como 2K y 4K, y el estándar DCI
los define como:

Formatos DCI

Formato resolución muestreo prof. bits cadencia

2K 2.048 x 1.080 4:4:4 12 24/48 p

4K 4.096x2.160 4:4:4 12
p
2

» 33
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Esto es todo lo que necesitamos saber para trabajar en el mundo profesional.


Esta primera parte está dedicada a explicar en profundidad qué significan
estas cuatro palabras, y cómo, por razones puramente comerciales y prácticas,
puede parecer a veces que el mundo de la alta definición y el cine digital
está lleno de formatos y fórmulas extrañas, cuando en realidad no es así.

» 34
1. Definiendo la calidad objetiva

» definiendo la calidad
La calidad objetiva se puede medir técnicamente en función de sus cuatro
parámetros básicos. Hay otro tipo de calidad, subjetiva, que depende de los
valores artísticos de la obra audiovisual. Pero en este libro no entraremos en ella.
La calidad objetiva en digital es fácil de definir. La base de toda imagen digital
es el píxel (contracción del inglés picture e7ement). El píxel es el ladrillo básico
sobre el que se asienta la calidad de una imagen, su mayor o menor exactitud con
el objeto representado. Cada uno de ellos nos da una “muestra" de la realidad
que queremos representar. Sumando el número total de muestras, y la calidad
intrínseca de éstas, podemos hablar técnicamente, objetivamente, de calidad.
Por eso, en el fondo, hablar de calidad objetiva en digital no es más que
contar píxeles. Y para todo ello, como veremos a lo largo del libro, no usaremos
más que sencillas operaciones aritméticas. A partir de ahí definiremos todos
los posibles formatos, estándares, ficheros o señales que nos ofrece la industria
audiovisual. Dado que este libro pretende ser una ayuda para el profesional con
experiencia previa, creo que es necesario, antes de adentrarnos en la definición
de la calidad digital, un somero repaso de lo que hasta ahora, en el mundo del
audiovisual, entendíamos por calidad.

» 35
1. DEFINIENDO LA CALIDAD OBJETIVA

» Estándares y flexibilidad
A pesar de la utilidad de los estándares, la gran ventaja de cualquier sistema
digital es su flexibilidad. En este libro hablaremos de multitud de formatos,
ficheros y señales, pero no hay que olvidar que las posibilidades del sistema
digital son infinitas. En cualquier momento se puede pensar en un nuevo for­
mato, adecuado para un trabajo o un evento específico, simplemente añadiendo
o quitando un determinado número de píxeles.
Esto permite, también, un futuro muy amplio y libre para explorar.
Entendiendo que una imagen digital sólo depende de dos factores funda­
mentales, su resolución y profundidad de color, más la cadencia y el muestro de
la imagen en movimiento, cualquier combinación es posible.

» Cine, televisión, vídeo


Tradicionalmente, lo que entendemos por audiovisual engloba dos amplios cam­
pos: cine y televisión. Son campos "hermanos” por cuanto usan el mismo len­
guaje, pero diferentes en lo que que respecta a su comercialización y forma de
comunicación con el público.
La televisión (para otros, el vídeo), a su vez, puede subdividirse en tres campos:

• Profesional (Broadcast), sujeta a estrictos estándares internacionales.


• Industrial (Prosumer), que intenta mejorar la relación calidad/precio.
• Doméstico (Consumer), que son los aparatos destinados al usuario no pro­
fesional.

Cine, televisión y vídeo trabajan con la misma materia: imagen y sonido en mo­
vimiento. Sin embargo, históricamente han usado normas, formatos y soportes
de grabación diferentes. Y se han encontrado y separado más de una vez.
La misma aparición del “vídeo" lo prueba. En un principio, la información
televisiva no se podía almacenar. Todos los programas eran en directo, no había
cintas ni magnetoscopios, ni montaje (más allá de la edición o mezcla de los
directos). Si algo se quería guardar, o se precisaba para hacer un montaje, era
necesario realizar una copia a cine (un kinescopiado), con medios en ocasiones
tan rudimentarios como colocar una cámara de 16 mm delante de un monitor.
Pero a partir de los años sesenta y setenta se empezó a desarrollar la gra­
bación magnética de las señales de televisión: el "vídeo" propiamente dicho,
palabra que hoy en día se usa en un sentido más amplio. Esto supuso un cambio
no sólo técnico, sino artístico y creativo. Pero separó de nuevo cualquier relación
entre el cine fotoquímico y la televisión electrónica, pues los kinescopiado se
volvieron caros e innecesarios.

» 36
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Sucede, sin embargo, que en la actualidad las dos áreas están convergiendo
otra vez en una misma dirección: "lo digital’’.
Eso no significa que acabemos con un único formato, pues hay implicaciones
comerciales que lo impiden: el cine siempre tendrá la vocación de ofrecer "algo
más” que la televisión. Por otro lado, la televisión exigirá una mayor estandari­
zación, pues su tecnología debe ser compatible con los millones de televisores
instalados en los hogares.
Cada uno de estos ámbitos ha tenido su propia “evolución digital”, y sólo en
los últimos años han empezado a encontrarse.
A todo ello, un nuevo jugador entra en escena: internet, al que la mayoría
ve como el nuevo medio de distribución, y el de más futuro. ¿Unirá internet
en uno solo el mundo del cine y la televisión? No me atrevería a responder a
esa pregunta, pues las implicaciones comerciales y tecnológicas pueden ser tan
caóticas como el vuelo de una mariposa.
No obstante, lo que es evidente es que estos mundos se entremezclan cada
vez más.
Pero para entender este proceso, pasemos primero a hacer un breve repaso a
estas dos industrias hermanas, y a cómo han ido evolucionando hasta el punto
donde ahora se encuentran.

B3T Quien ya conozca la evolución y los estándares del mundo del cine y la televisión
tradicional, puede pasar directamente al capítulo 2.

Cine: el formato fotoquímico

En cine, el soporte tradicional de trabajo durante casi un siglo ha sido el foto-


químico, mientras en televisión siempre hemos hablado de soporte electrónico.
Dentro del soporte fotoquímico nos encontramos con diferentes formatos.
Entre ellos, el estándar internacionalmente aceptado es el formato de 35 mm.
Treinta y cinco milímetros es sólo una manera de definir sucintamente un for­
mato de calidad, y que en este caso hace referencia a la medida del ancho físico
de la película donde se ruedan las imágenes.
No es el único formato fotoquímico, pues existen otros de calidad inferior,
como el 16 mm o el 8 mm; o superior, como el 65 mm. Históricamente, incluso,
hubo otros formatos (28 mm; 9,5 mm; 17,5 mm; 22 mm...) que desaparecieron
con la progresiva estandarización del 35 mm como formato universal.

» 37
1. DEFINIENDO LA CALIDAD OBJETIVA

» Fotoquímico
El fotoquímico es un sistema muy físico. La calidad final vendrá condicionada
por dos razones puramente físicas:

• el ancho de la película
• la calidad de la emulsión

La emulsión es el conjunto de partículas químicas fotosensibles que en una


fina película recubre el soporte plástico que le sirve de base. La peculiaridad de
este sistema es que las imágenes son captadas negativamente, invirtiendo los
colores y las intensidades que observamos a simple vista. Antiguamente, este
soporte plástico era de un material conocido como celuloide, hoy en desuso.
Tanto película (que en latín significa “piel o capa muy fina”) como celuloide,
negativo o fotoquímico se usan como sinónimos del soporte cinematográfico, si
bien el último quizá sea el más apropiado para definirlo.

» La resolución en fotoquímico
Como veremos, el término “resolución" es ambiguo. En este libro, entenderemos
“resolución” como el número de píxeles de una imagen. En el caso del fotoquími­
co, esta definición no es posible. ¿Cómo estimar entonces la resolución?
Se trata de un tema muy estudiado, a través de pruebas y tests. La mayoría
de los expertos coinciden en que el negativo tiene una resolución de entre 150 y
180 líneas por milímetro cuadrado. Si consideramos que el tamaño de la imagen
de un negativo de cine es aproximadamente 25 x 19 mm, tendremos que sería
equivalente a cerca de 3.750 x 2.850 píxeles de resolución horizontal.
En este caso, al reducir el tamaño de la película y del cuadro impreso,
disminuye la resolución. En el caso de un negativo de 16 mm, con un cuadro

» 38
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

de aproximadamente 12,35 mm x 7,45 mm, la resolución equivalente sería de


1.825 x 1.125 píxeles.

cifras no son exactas, pues el cuadro del fotograma de 35 mm tendría en realidad


24,576 mm (originalmente se creó en pulgadas, sistema imperante en Estados Unidos).
E incluso puede variar ligeramente según la óptica o la cámara usada.
Igualmente, la resolución en líneas por milímetro puede variar según la fuente (un
poco más, un poco menos). Esto es lógico, pues esta medición varía en función de la
óptica empleada, el diafragma usado, la calidad de la emulsión y su valor ISO. 150 líneas
es una convención comúnmente aceptada, por eso la usamos aquí. Técnicamante, la
película de 16 mm y la de 35 mm tendrían la misma "resolución óptica" entendida como
líneas por milímetro; pero distinta "resolución” tal como la entendemos aquí, es decir,
por el número total de muestras.
El origen del 4K y el 2K viene precisamente de estas diferencias entre el 16 y el 35 mm,
como veremos.

» Grabación digital en fotoquímico


Es incorrecto pensar en el soporte fotoquímico como algo incompatible con lo
digital. Digital es la manera de almacenar los datos en una sucesión de unos y
ceros, no el soporte utilizado.
En una obra audiovisual, las imágenes se impresionan en el negativo a
través de una lente, de una manera, si se quiere, analógica o continua (frente
a lo "discreto” del digital). Pero también podemos usar el soporte fotoquímico
como soporte digital. Un ejemplo claro es el sonido digital (Dolby, SDD, etc.),
que está almacenado digitalmente en la propia copia positivada.
Asimismo, durante años se ha usado el soporte fotoquímico para almacena­
miento de datos debido a su gran durabilidad, como es el caso de los microfilms.

>> Parámetros de calidad


Las partículas fotosensibles son de carácter microscópico. Juntas, nos propor­
cionan una reproducción visual más o menos fiable de la realidad. Nos propor­
cionan "muestras" de una realidad. Cuanto más ancho sea el soporte plástico,
más partículas fotosensibles contendrá, y por ende, más muestras nos propor­
cionará. La representación de la realidad será más fiel: tendrán más “definición".
Por eso, una película de 35 mm tendrá más definición, más nitidez que una de
16 mm. Pero “definición” o "nitidez” son términos ambiguos. En nuestro medio
preferimos hablar de resolución (aquí es el término inglés, Resolution, el que
en ocasiones resulta ambiguo; no obstante es el que usaremos en este libro).
Para ampliar la información, véase el anexo “Resolución, definición, percepción
y MTF”.

» 39
1. DEFINIENDO LA CALIDAD OBJETIVA

La otra variante es la propia composición de este material fotosensible. Los


fabricantes (Kodak, Fuji y otros ya desaparecidos) han ido desarrollando con­
tinuas mejoras en este material, permitiendo mejores respuestas tanto a las
intensidades de luz como a las diferencias cromáticas. Son las diferentes "emul­
siones comerciales" disponibles en el mercado. “Vision Color 2242” de Kodak es
un ejemplo, un nombre comercial.
La propia composición de estas partículas es un secreto industrial en la
mayoría de los casos; es, de hecho, otro de los vectores de calidad y también de
la diferencia entre las diferentes emulsiones.
Otra de las diferencias de calidad entre emulsiones es la rapidez de res­
puesta del material fotosensible, medida en cifras ASA o ISO (dos normas de
estandarización muy similares). Un negativo de 100 ASA tendrá una respuesta
menor que uno de 500 ASA, por lo que precisará un mayor tiempo de exposición
(obturador) o mayor abertura de diafragma; más luz, en definitiva. Las películas
con mayor número ASA o ISO permiten grabaciones en condiciones de luz baja;
por contra suelen generar más grano, más imperfecciones en la representación
de la realidad.

>> Límites y estándares


Teóricamente, podríamos ir mejorando infinitamente la calidad del fotoquímico
aumentando el ancho del soporte y la cantidad y calidad de la emulsión. Pero am­
bas cosas resultan caras. Tendríamos el inconveniente de la compatibilidad de
herramientas y lentes. Si hubiese diferentes anchos (21 mm; 13,5 mm; 172 mm),
igualmente nos encontraríamos con problemas para que tanto la cámara que
rueda como el proyector que muestra las obras fueran compatibles. Por eso, en
la industria se adoptó hace muchos años (no sin la previa “guerra comercial”)
el soporte de 35 mm como “estándar universal”, que es el que se ha mantenido
hasta ahora.
Junto a él, apenas se usan dos o tres más. El 65 mm, que se utiliza para las
producciones de los espectaculares IMAX. El 16 mm, de inferior resolución al
35 mm, pero muy usado en producciones para televisión, obras independientes
o incluso documentales, principalmente debido al gran ahorro que supone con
respecto al anterior. Y también encontramos, ya casi de manera residual, los
formatos "caseros” de cine, como el 8 mm y el Súper 8 mm, que fueron muy po­
pulares en las décadas de 1970 y 1980 antes de la irrupción del vídeo doméstico
en los hogares.

» 40
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» La cadencia
Una característica del cine (y del audiovisual en general) es que realmente
nunca grabamos una imagen en movimiento, sino diferentes imágenes fijas
que permiten recrear la sensación de movimiento. Nunca tomamos toda la
realidad, sino fragmentos sucesivos de la misma que luego nuestro cerebro
reconstruye (engañándonos, en realidad) como un todo. Un matemático diría que
el audiovisual es un sistema discreto antes que continuo: quantos, antes que on­
das...
Técnicamente, se captan 24 imágenes o fotogramas por segundo (“fps”, o
también “ips”, images per second, imágenes por segundo), con el resultado
de obtener 24 instantes diferentes' de la misma acción en el intervalo de un
segundo. Gracias al fenómeno conocido como “persistencia retiniana”, nuestro
cerebro “recrea'' la sensación de movimiento necesaria para la acción.

Los últimos estudios indican que la persistencia retiniana no existe como tal, sino que
la sensación de movimiento se forma en el cerebro por otras causas. Pero el término ha
devenido un lugar común, y por eso lo mantengo.

24 ips es la cadencia (íramerate) tradicional del cine. Pero 24 es también una


convención o acuerdo comercial, más que técnico. 24 imágenes por segundo
es poco para una sensación de movimiento perfecto. El doble estaría mejor, e
incluso el triple. Pero también sería el doble o el triple de caro, económicamente
hablando. Por eso, en las primeras décadas del cine se llegó a un compromiso:
rodar a 24 fotogramas pero proyectar a 48 fps. En la sala, cada fotograma se
muestra dos veces mediante un mecanismo giratorio situado delante del pro­
yector y que se conoce como “cruz de malta”. Gracias a eso, el espectador ve 48
imágenes (24 X 2) por segundo, que atenúa la sensación de parpadeo o "fliqueo"
fickering).
No habría ningún obstáculo técnico para rodar a 48 fps. Pero, además del
coste superior, nos encontraríamos con un problema de logística. Actualmente,
un largometraje de 90 minutos de duración supone unos 2.500 metros de película,
que suele transportarse en cinco o más rollos o latas de unos 50 cm de diámetro.
El peso total es superior a los 20 kilogramos. Si aumentáramos todas estas cifras
al doble, se obtendría un formato cuya distribución será prácticamente inviable.

» Negativo y positivo
En cine se utiliza un sistema negativo/positivo para poder realizar múltiples
copias, totalmente comparable al proceso de las cámaras de fotos tradicionales.

» 41
1. DEFINIENDO LA CALIDAD OBJETIVA

Los rodajes se realizan utilizando una emulsión, en color o blanco y negro,


que capta de manera inversa ("negativa”) la realidad. Lo que es blanco, aparece
como negro, lo que es rojo aparece como verde (su color complementario).

» Tiraje de copias y sonorización


Este sistema nos impide ver a simple vista el resultado de la captación, pero es
el que permite tirar múltiples copias de un único negativo original, permitiendo
la distribución en salas cinematográficas.
Una vez tenemos un negativo, será necesario convertirlo a positivo para
que pueda ser visualizado por el espectador: el negro del negativo se convierte
otra vez en blanco, el verde en rojo. Son las copias positivadas (prints) lo que
finalmente veremos en las pantallas, proyectadas mediante el paso sucesivo de
las imágenes delante de la fuente de luz (véase página 391).
El sonido, ausente en el negativo, se incorpora en la copia positivada me­
diante impresión óptica (analógica o digital).

» Pérdidas de calidad
Hay que apuntar que este proceso es muy laborioso y, debido al material y la
maquinaria usada, muy sensible a errores, defectos y pérdidas de calidad.
Para tirar una copia positivada el proceso es conocido como “de contacto":
el negativo ha de ser proyectado sobre el positivo virgen para que éste quede
grabado. Este proceso se realiza mecánicamente, por lo que el negativo pue­
de dañarse. No suele aguantar más de un número determinado de copias an­
tes de que el negativo quede irreversiblemente inutilizado. Pero sucede que mu­
chos estrenos en salas suponen cientos o incluso miles de copias a nivel mundial.
Por esa razón, el negativo original, conocido como OCN (siglas en inglés
de negativo original de cámara), se protege realizando una copia intermedia
en material positivo de alta calidad conocida como interpositivo o lavender.
De este lavender se tiran a su vez equis copias nuevamente negativas, que se
conocen como internegativos. De estos internegativos se tiran finalmente las
copias positivadas que veremos en las salas.
El negativo de cámara de 35 mm es ciertamente un soporte fantástico de
grabación, pero dada esta serie de procesos a los que se somete, y siendo cada
uno de ellos destructivo en cuanto a la calidad, la copia positivada apenas
retiene una tercera o cuarta parte, si cabe, de su calidad original. Y, aún más,
pierde parte de esta calidad a cada paso de proyección, pues aparecen rayas
y partículas de polvo, a lo que se suma el propio deterioro de la emulsión, que
por ser material de rápido consumo, no tiene una excesiva calidad intrínseca.

» 42
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Para más inri, la calidad de su sonido, embutido en unos límites físicos muy
pequeños, será siempre limitada.
Trabajar con negativo supone además un importante coste. Al del material
virgen hay que sumar el del relevado, tratamiento, almacenaje, tiraje de copias,
entrega y distribución en las salas y, posteriormente, su recogida, almacena­
miento y destrucción controlada.

1. Negativo original 2. Interpositivo 3. Internegativos 4. Copias


de cámara (OCN) (lavender) positivadas

» El cine totalmente digital

Por estas y otras razones de índole económico y artístico, la industria cinema­


tográfica se está orientado definitivamente hacia el digital en todo su proceso.
Si bien es cierto que el 35 mm sigue siendo un soporte estándar en la filma­
ción, el soporte electrónico digital aumenta su porcentaje cada año. En las obras
independientes y de bajo presupuesto, el digital es casi la única opción rentable.
En postproducción, hace muchos años que todo el montaje se realiza de
manera digital. Y desde hace pocos años, también se tiende a realizar en digital
los procesos de colorimetría y masterizado.
El último ámbito donde todavía domina el fotoquímico es la distribución en
salas comerciales. Pero más que un problema técnico (pues la proyección digital
supera la calidad de la copia positivada), se trata de un problema comercial y
financiero de grandes implicaciones. No obstante, dado que la tecnología ya
está preparada, se espera un cambio rápido a corto o medio plazo.

» 43
1. DEFINIENDO LA CALIDAD OBJETIVA

Televisión: la señal electrónica

» Del analógico al digital y de SD a HD


La televisión ha tenido su propia evolución.
Las primeras pruebas se remontan a la década de 1930. Posteriormente, a
finales de los años cuarenta, se comercializó en un formato de pantalla similar
al cinematográfico que tomó el nombre de definición estándar (SD, Standard
Definition). Comenzó en blanco y negro y más tarde apareció la televisión en
color (años sesenta) y ya entonces empezó a hablarse de la alta definición
(HD, High Definition). En los años setenta aparecieron las primeras opciones de
grabación analógica portátil. En los ochenta empezaron las primeras soluciones
digitales, y a partir de los noventa y hasta ahora se intenta una transformación
doble: pasar de la emisión analógica a la totalmente digital, y realizar el salto
cualitativo definitivo a la alta definición.
La principal característica de la televisión, y que condiciona todo posible
desarrollo, es que cualquier avance tecnológico ha de ser plenamente compa­
tible con los anteriores. El paso de la televisión en blanco y negro al color es
un ejemplo: no podía obligarse a los espectadores a cambiar de monitor, por lo
que la señal en color debía ser perfectamente visible en monitores en blanco y
negro.
La segunda característica es que la emisión televisiva usa un dominio público
como es el espacio radioeléctrico. Debe ser regulado por las autoridades nacio­
nales que gestionan ese dominio para evitar interferencias con otras señales
(radar, radio, móviles, etc.). Y dado que la televisión es un medio de comuni­
cación internacional, los Estados deben ponerse de acuerdo entre ellos para el
intercambio fluido de contenidos.
Por eso la televisión es un medio muy estandarizado, con las reglas muy
claras.

» El mundo televisivo actual

Hasta mediados de la década de 1980, la televisión era enteramente analógica. A


partir de esa fecha se fueron introduciendo equipamientos digitales para mejorar
sus prestaciones. La calidad tradicional es lo que conocemos como definición
estándar, o en sus siglas en inglés SD. Por razones comerciales y tecnológicas, en
sus inicios se crearon tres grandes sistemas mundiales de televisión analógica,
en vez de sólo uno, incompatibles entre sí: NTSC, PAL y SECAM. Todos ellos,
no obstante, se consideran de formato SD. La digitalización es un proceso que

» 44
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

lleva su tiempo, y actualmente toda la cadena de producción se hace en un 99 %


con tecnología digital. Lo único que todavía no ha dado el “salto” es la emisión
tradicional que llega a todos los hogares vía antena, que sigue siendo analógica.
El resto de los medios de emisión (satélite, cable, internet, móviles...) usan ya
una tecnología digital.
Sin embargo, se está en el camino para el definitivo “apagón analógico”: la
emisión analógica desaparecerá totalmente.

Paralelamente, la mayoría de las cadenas de televisión del mundo están en


proceso de, a la par de digitalizar toda la cadena de producción y emisión,
dar un salto de calidad que conocemos como alta definición. En un momento
dado se pensó que podría darse al mismo tiempo (TDT+HD), pero finalmente
no será así. Habrá que esperar todavía unos años para el "apagón SD”.
Aprovechando este salto cualitativo, también se pretende una unificación de
todos los estándares, por lo que ya no es correcto hablar de alta definición NTSC
o PAL. Será un único estándar común (si bien con algunas pequeñas diferencias,
debidas a la necesidad de compatibilidad con las tecnologías anteriores).

» Grabación analógica
Las señales analógicas de televisión se basan en la grabación y manejo de
ondas electromagnéticas. Aquí no trabajamos con negativo ni con emulsiones,
sino que usamos un “chip captador” (sensor imagen). La tecnología ha cam­
biado con los años, pero este sensor ya está dividido regularmente en equis
elementos electrónicos igualmente fotosensibles, colocados en forma de rejilla,
que anticipan los píxeles digitales.
1. DEFINIENDO LA CALIDAD OBJETIVA

Como veremos, no es correcto hablar de píxeles en analógico, sino de "líneas de resolu­


ción"; ni tampoco son píxeles lo que encontramos en los sensores, sino "fotodiodos".

Los sensores televisivos lo que hacen es convertir la energía presente en la luz


(los fotones) en corriente eléctrica (electrones), lo cual es un sistema totalmente
diferente al cinematográfico. La mayor ventaja sobre el cine es que la emisión es

/ Grabación analógica /
La luz se convierte en diferentes voltajes eléctricos

+i

posible en tiempo real: el espectador recibe la obra al mismo tiempo que se crea,
cosa que es imposible en el medio cinematográfico.
Básicamente, una intensidad lumínica alta logra un mayor valor en la co­
rriente eléctrica: un tono blanco. Una intensidad pequeña obtiene un escaso
valor en voltios: un tono negro. Una intensidad media nos daría valores medios,
los llamados tonos grises.
Hay que señalar que todos los sensores captadores son analógicos, por lo que
la televisión analógica y la digital difieren tecnológicamente en un solo aspecto
fundamental: el almacenamiento de datos.
En analógico, los datos se guardan de manera electromagnética, mientras
que en digital se hace en forma de bits.

» Estándares analógicos
Para su transmisión, la corriente que sale de los sensores se envía de manera
analógica, línea a línea. El número de líneas verticales es lo que delimita la
resolución de un formato.
En el caso de la televisión analógica, la señal PAL contaba con 625 líneas,
la NTSC un poco menos (algo más de 500) y el sistema SECAM un poco más
(superior a 700).

» 46
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Hay que señalar que el hecho de que existan diversas normativas se de­
bió principalmente a una cuestión comercial, dé licencias, patentes y royalties.
El NTSC es un sistema americano, el PAL es alemán y el SECAM, francés. Na­
die quería pagar licencias a otros estados, algo que los hizo desde el principio
altamente incompatibles.

» Cadencia
Otra de las cosas que diferencia la televisión del cine es la cadencia. En los
sistemas NTSC la cadencia es de 60 ips (60 campos que, como veremos, equi­
valen a 30 imágenes completas o cuadros por segundo). En PAL y SECAM, son
50 campos por segundo. ¿Por qué esta diferencia? ¿No se podía haber adoptado
una cadencia igual a la de cine? Actualmente, sí sería posible, pero hay que
tener en cuenta que la televisión se inició en la década de 1930, mucho antes de
la invención de la informática, la electrónica y los procesos de miniaturización.

En realidad, la cadencia NTSC es de 59,97 ips, pero es un lugar común redondear a 60,
sobre todo en el mundo analógico. Si hablamos de cadencias digitales, hay que ser más
cautos, como veremos más adelante.

Lo que se hizo en su tiempo es aprovechar la propia “cadencia” de la corriente


eléctrica que las redes eléctricas hacían llegar a los hogares: 60 hercios o ciclos
por segundo en el caso de Estados Unidos, y 50 Hz en el caso de Europa. De
ahí la diferencia de cadencia entre estos dos sistemas. Estos ciclos permitían
realizar las operaciones de los captadores de una manera sincronizada.

» Megahercios y ancho de banda


Para obtener la resolución vertical, usamos equis líneas. Para obtener la hori­
zontal sólo hay que modular esta corriente lineal, creando ondas que permitan
diferenciar unas muestras de otras.
Un ciclo es el recorrido de una onda entre dos valores de un mismo nivel. Un
hercio es la medida de un ciclo por segundo. Si queremos tener mil muestras
por segundo, sólo tendremos que conseguir mil ondas por segundo, lo que nos
da el valor de 1 MHz (megahercio).
Una medida típica de una señal analógica de televisión son los 13,5 MHz,
trece mil quinientos megahercios o trece millones y medio de muestras por
segundo. ¿De dónde sale esta cifra? Es fácil calcularla. Convinimos que una
señal PAL nos ofrecía 625 líneas de resolución vertical. Dado que el formato de
pantalla es de 4/3, entonces necesitamos unas 833 muestras horizontales.

» 47
1. DEFINIENDO LA CALIDAD OBJETIVA

Si multiplicamos 833 x 625 y a su vez lo hacemos por los 25 cuadros completos


por segundo, nos da un total de 13.015.625 muestras, un poco más de 13 MHz.
Falta incluir el sonido y algunos matices y estandarizaciones que no vienen al
caso, para lograr la cifra de 13,5 MHz.
Para retransmitir más o menos megahercios es necesario un determinado
"ancho de banda electromagnético”. En analógico, el ancho de banda es sinóni­
mo de calidad: a mayor calidad, mayor ancho de banda, pues mayor información
transmite.

» El color en televisión: RGB


Los sensores sólo responden a la intensidad lumínica, nunca a la variación
cromática. Son siempre "monocromos”, o en "blanco y negro".
En las cámaras en blanco y negro se contaba con un solo sensor para recrear
las diferencias lumínicas (la gama dé grises que llamamos "blanco y negro).
Pero para recrear el color es necesario recurrir al sistema conocido como RGB:
Red, Green, Blue (rojo, verde y azul). Esto se realiza dividiendo previamente la
luz incidente en la cámara en sus tres colores primarios y tomando muestras
separadas de cada uno de estos colores en sendos captores.

Esta división está tomada de la propia naturaleza de nuestro ojo, pues en la retina
tenemos miles de células sensibles a estos tres colores, llamados conos. No obstante,
nuestra retina tiene también receptores conocidos como bastoncillos, sensibles a la
intensidad lumínica general, de ahí su mayor precisión.

Es un sistema “aditivo" que permite recrear toda la gama de colores visible con
la combinación de estos tres, llamados “primarios” por esa razón.

» 48
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» Suma aditiva
Un amarillo puro, por ejemplo, se consigue con los máximos niveles (100 %) de
rojo y verde y el mínimo (0 %) de azul. Si le sumamos valores de azul, el amarillo
tenderá a ir a blanco, que se conseguirá con los tres primarios al máximo.
La representación típica del sistema aditivo RGB es el círculo cromático (véa­
se página 392).

» Monitorización del color


Este sistema exige que la representación, es decir, los monitores, sigan el mis­
mo esquema. En un monitor (sea de rayos catódicos o tubo, LCD, plasma,
etc.) la pantalla está divida en miles de pequeñas celdillas (células o subpíxe-
les) de los mismos tres colores primarios. Situados muy próximos, el ojo hu­
mano no los distingue individualmente, sino como un completo, produciéndose
de nuevo la mezcla aditiva necesaria para crear la sensación de color (véase
página 392).

» La cuantificación digital
En el mundo de la televisión, el analógico estaba lleno de problemas sobre todo a
la hora de la transmisión y el almacenamiento. Al ser una señal radioeléctrica y
electromagnética, ésta podía alterarse debido a múltiples causas presentes en la
misma naturaleza. Si la onda varía su forma original, se producen aberraciones
o pérdidas que afectan a la imagen mostrada.
Incluso el mero hecho del paso del tiempo podía degradar la información
analógica almacenada en una cinta, por muy cuidada que fuera su conservación
o por poco que se utilizara. Así, una señal que había alcanzado un blanco
luminoso, podía convertirse fácilmente en un gris o, más comúnmente en los
sistemas en color, adoptaba una coloración distinta a la original.
Otro defecto destacable del analógico era lo que se conoce como "pérdida
por generación" o copia. Una simple copia de una cinta a otra producía pérdidas
o alteraciones.
Para solucionar estos problemas, los ingenieros adoptaron la tecnología di­
gital. La base consiste en sustituir las muestras en forma de onda por informa­
ción binaria.

» Ventajas digitales
La principal ventaja de la información binaria es que sólo presenta dos estados:
0/1, o vacío/lleno. No hay variaciones de onda ni diferentes amplitudes. Aun

» 49
1. DEFINIENDO LA CALIDAD OBJETIVA

cuando la señal sea muy débil, mientras sea legible se podrá diferenciar entre 0
y 1. El margen de error prácticamente se elimina.
La información binaria, que es la misma que se utiliza en la tecnología
informática (IT, Information Technology), permite una mayor seguridad en la
transmisión y almacenamiento de datos. Se elimina también la “pérdida por ge­
neración”, pues las copias digitales son clónicas unas de otras, incluso después
de muchas generaciones (el límite en este caso lo marca la calidad del soporte).
Asimismo, su almacenamiento en cinta permite una mayor durabilidad (aun­
que no infinita). Y, desde hace no mucho, la eliminación de la cinta como formato
de grabación y archivo permite almacenar audio y vídeo digital en discos du­
ros como cualquier otra serie de datos binarios de manera no lineal. Es lo que
conocemos como “entorno IT".

» Sistema binario
En definitiva, la señal deja de ser analógica (continua) para ser numérica (dis­
creta). La amplitud de la señal analógica se sustituye por un número exacto,
codificado de forma binaria en una sucesión de unos y ceros.

/ Grabación digital /
Los electrones se convierten en código binario
Binario

E1 valor 15, por ejemplo, equivale en binario a 0001111. El número 241 equivale
a 11110001. Debido a los protocolos informáticos, el error es prácticamente
inexistente. Como hemos dicho antes, aun en el caso de que la señal se deteriore
o se debilite, siempre y cuando no se borre, no se podrá confundir entre un 1 y
un 0. De ahí su fiabilidad.
Además, la cuantificación numérica permite almacenar más información en
menos espacio.

» 50
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Esto es notable en la emisión de ondas de televisión. En la misma franja del


espacio radioeléctrico caben más señales digitales que analógicas de similar
calidad.

>> Compatibilidad

El resto de tecnología es la misma: mismos sensores (que siempre son analógicos


por definición), misma división en colores primarios y hasta mismo soporte
de grabación en cinta con soporte magnético. Lo único que diferencia una
cámara analógica de una digital es que esta última incluye una etapa electrónica
que convierte la señal (siempre analógica) procedente del sensor en números
binarios. Es la etapa conocida como A/D (analógica/digital).

» El bitrate
Un bit es la información básica en digital: un bit nos indica si está lleno o
vacío, 1 o 0. Cuanta más información tengamos, más bits necesitaremos para
almacenarla. Si en analógico usábamos los ciclos por segundo (hercios) para
calcular la calidad de la imagen, en digital usaremos los bits con el mismo
objetivo. Por esa razón, dejamos de hablar en puridad de "ancho de banda” y
pasamos a hablar de bitrate o flujo de datos. Como es obvio, cuanta más calidad
tenga una señal digital, más información precisará y por tanto se obtendrá un
bitrate más grande.
Por poner un ejemplo, una señal SD PAL, que según decíamos tiene un ancho
de banda de 13,5 MHz por canal, tiene, en digital, un bitrate o flujo de datos de

» 51
1. DEFINIENDO LA CALIDAD OBJETIVA

unos 53 mbs (megabits por segundo) por canal. El cálculo es igual de sencillo,
y lo explicaremos más adelante.

El nacimiento del cine digital

Paralelamente a este proceso televisivo de la alta definición, el cine empezó su


propio proceso de inmersión en sistemas digitales. En su caso, esto no se debía
a la poca calidad del soporte o a su precariedad como archivo. Todo lo contrario,
el negativo de 35 mm tiene una gran calidad y además perdura decenas de años
en perfectas condiciones si se maneja con cuidado. La digitalización vino más
por la necesidad de añadir los famosos efectos especiales digitales (FX) crea­
dos por ordenador (infografía o CGI, Computer Generator Imagery) a las películas
tradicionales. Había que “incrustarlos” en la película, y se vio que era más fácil
y efectivo si se digitalizaba el negativo original que si se filmaban los CGI y se
utilizaban las limitadas técnicas de laboratorio (conocidas como "truca") para
su integración.

» Telecine y escáner digital


En un primer momento, la transferencia de imágenes de cine a televisión se
realizaba mediante el proceso conocido como “telecine”. Sin embargo, la calidad
superior del formato fotoquímico se perdía al hacer el transfer a SD analógico o
digital.
Así, se ideó otra manera de transferir la información: el sistema Cineon de
Kodak, con grabación en ficheros 2K y 4K, que ha derivado en los estándares
de escáner o filmado digital, creado a principios de los años noventa.
Este sistema es el pionero de la cinematografía digital y se creó con la idea de
poder incluir en las producciones todas las posibilidades de los efectos digitales.
La “truca” tradicional de cine, basada en conceptos muy simples (que hoy tienen
cierto atractivo demodé), ya no daba más de sí. Kodak reunió a expertos y gente
de la industria y, dada su preminencia en el sector, los puso de acuerdo para
desarrollar el primer sistema de digitalización por escaneado de 35 mm a digital,
y su herramienta equivalente, el filmado desde digital a 35 mm. Fue entonces
cuando se estimó, en base a las 150 líneas por milímetro ya mencionadas, la
resolución del negativo en torno a los 4K (4 x 1.024 = 4.096 píxeles o líneas
horizontales).

» 52
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Habíamos apuntado que 25 mm x 150 líneas = 3.750. 4K equivale en reali­


dad a 4.096 (K, en binario, no es 1.000, sino 1.024, 210). 4.096 es un números más
"redondo", más cómodo de manejar para un sistema binario pues equivale a 212.
2K serían 2 x 1.024 = 2.048 píxeles. Equivaldría, también de manera aproxi­
mada, a la resolución del 16 mm. Pero también, dada la pérdida de calidad de
los procesos de laboratorio, a la resolución máxima que proporcionaría la copia
positivada de 35 mm.
En base a estos cálculos, el sistema Cineon de Kodak impuso este estándar
de digitalización que ha perdurado hasta ahora: un fotograma de cine en 35 mm
se convertiría en una imagen digital de 4.096 x 3.112 píxeles. El formato cineon
original de kodak derivó en uno más abierto, el digitalpicture exchange (dpx).

/ Estándar de digitalización /

Hoy en día también es posible digitalizar los fotogramas en formatos más po­
pulares como los ttífs (véase el anexo correspondiente a los ficheros de imagen
digital).

» Intermediación digital (DI)

Una vez obtenido el “transfer” digital desde el negativo a los ficheros dpx, éstos
se tratan infográficamente en el ordenador para conseguir los espectaculares
resultados que vemos hoy en día en nuestras pantallas. También se terminan en
soporte digital los procesos finales y la colorimetría (finishing y colorgrading),
pues las herramientas digitales son mucho más potentes, sencillas y flexibles.
Todo este proceso o conjunto de procesos es lo que se conoce como intermedia­
ción digital o Digital Intermedíate (DI).

» 53
1. DEFINIENDO LA CALIDAD OB]ETIVA

>> Filmado digital


Terminada esta etapa, es necesario devolver los datos a un soporte fotoquímico.
El proceso toma el nombre de “filmado", y al terminar tenemos de vuelta los
dpx convertidos en fotogramas de 35 mm. El material en este caso ya no es
un OCN (negativo original de cámara) sino un internegativo o, directamente un
interpositivo o Lavender.

» La conexión indie
Tras esta primera “revolución digital”, surgió una nueva basada en los conteni­
dos. A alguien se le ocurrió que, además de filmar los fotogramas dpx previa­
mente escaneados, se podían filmar o kinescopiar ficheros digitales captados
por cámaras de vídeo.
El proceso, evidentemente, no tenía tanta calidad como el tradicional, pero
era bastante más barato de rodar, debido al alto coste que tiene el negativo
virgen y los trabajos de laboratorio. Este proceso se expandió sobre todo cuando
empezaron a surgir cámaras de vídeo digitales (formato DY hoy obsoleto) que,
pensadas para el consumidor no profesional, tenían no obstante una calidad
suficiente a un precio imbatible. Eran equipos conocidos como gama baja o
prosumer: mezcla de profesional y consumer, o consumidor.
Muchos cineastas independientes vieron que con formatos como el DV, pri­
mero, y más tarde el HDV o sistemas HDTV podían obtener resultados iguales
o superiores a los formatos económicos del fotoquímico (8 y 16 mm), a mejor
precio y con mayor facilidad de uso.

» Alta definición y cine digital


Paralelamente, los cineastas con más medios económicos empezaron a experi­
mentar con los equipos de alta gama de la nueva alta definición para televisión y

» 54
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

descubrieron que también se conseguían grandes resultados. Algunos fabrican­


tes diseñaron cámaras de alta definición que eran compatibles con la mayoría de
los accesorios de fotografía a los que estaban acostumbrados los profesionales
del cine: lupas, portafiltros, objetivos intercambiables, aro de enfoque, etc.
Un nuevo paso más reciente ha sido cuando la industria de equipamiento
quiso llevar las cámaras digitales más allá de la propia alta definición, creando
equipamientos específicos para cine digital y que conocemos como High Reso-
lution o Ultra High Deñnition. Son cámaras que superan incluso las prestaciones
de las destinadas a la HDTV (High Definition Televisión), logrando resultados
impensables para muchos.
Sólo es cuestión de tiempo que la. tecnología supere la gran calidad del
negativo de 35 mm. Y quizá será en ese momento cuando los nostálgicos lo
echen de menos, tal vez con algo de razón, como está pasando en el mundo de
la fotografía.

» Distribución digital

La última fase de todo este proceso de convergencia entre el cine tradicional


fotoquímico y la televisión tradicional se dará cuando todas las salas de cine del
mundo estén digitalizadas y desaparezcan las tradicionales copias positivadas
como fórmula de distribución.
La realidad es que hoy en día el 95 % o más de todos los largometrajes de cine
pasan por alguna etapa digital (rodaje, edición, postproducción o distribución)
en su producción. Incluso las rodadas en 35 mm. Es cuestión de tiempo que
todas las películas sean totalmente digitales.
Todos estos procesos son los. que conocemos como revolución digital, y es en
este preciso y apasionante momento en el que nos encontramos.

» 55
» 56
2. Parámetros digitales

» La “sopa de letras”
Una de las cosas que más confunden a quien se adentra en el mundo del audio­
visual digital es la aparente “sopa" de cifras, códigos y formatos que rodean
toda su tecnología.
Hay dos razones para esta “selva” o “sopa de letras”. La primera, es que la
mayor parte de la información suele estar en inglés, y se usan con profusión
acrónimos, contracciones, tecnicismos, sinónimos, metonimias y hasta lugares
comunes y sobreentendidos.
El término “mpeg”, por ejemplo, es el acrónimo de Motion Pictures Expert
Groups, o grupo de expertos en imágenes en movimiento. Es ciertamente un
organismo internacional, pero por lo general sobreentendemos que hablamos
de un tipo de códec (contracción de codificador/descodificador) que usamos en
la compresión de una señal de vídeo. En algunas ocasiones, incluso, se usa
mpeg como antagónico de 2K (en la distribución digital en salas), por lo que
estamos ante un uso distinto de la palabra, una metonimia. También podemos
señalar que H.264 o VC1 (cifras y siglas) son también códecs de la familia mpeg
(puros tecnicismos de la industria). O que dentro de los diferentes códecs de la
familia mpeg, encontramos el popular mp3 de audio, el mpeg2 típico del DVD,
el mpeg4 (como el citado H.264) o incluso el mpeg 1, que también conocemos
con el sinónimo de VCD. Y, además, con el tiempo, alguno de estos significados
puede llegar a cambiar.
Es lógico, pues, que el no iniciado se desanime.

» Conceptos fundamentales
Sin embargo, no es todo tan complicado como parece si tenemos claros cinco
conceptos fundamentales. Al igual que para valorar la calidad de un formato
fotoquímico dijimos que se basa sólo en dos conceptos (calidad de la emul­
sión y tamaño del fotograma), o en el caso del analógico en el número de
muestras/hercios que portaba una señal, la calidad de un formato digital se
basará también sólo en estos cinco conceptos. Teniéndolos claros, apenas ne­
cesitaremos poco más para poder desentrañar el mayor de los galimatías.

» 57
2. PARAMETROS DIGITALES

Estos cinco conceptos fundamentales son:

• Resolución
• Muestreo
• Profundidad de color
• Cadencia
• Compresión

En inglés, estos términos son: Resolution, Sampling, Color Depht (o también


Bitdepth), Framerate y Compression.
Conociendo y comprendiendo todos estos conceptos, podemos llegar a tra­
bajar, analizar y entender todo lo relacionado con la industria. Pues todo el cine
y la televisión digital, en todo el mundo, se basa en estos cinco parámetros, y
sólo en éstos.

» Estándares internacionales y formatos comerciales


El complejo mundo del audiovisual televisivo se rige por normativas o estándares
internacionales. Organismos supranacionales de carácter mundial (como la ITU,
Unión Internacional de Telecomunicaciones) o regionales (como la UER/EBU,
Unión Europea de Radiodifusión), de los que son miembros las empresas e
instituciones representativas de cada estado, se reúnen, analizan y proponen
unas normas que permiten el libre intercambio de contenidos.
En cuestión de normativas, la televisión profesional o broadcast siempre
será mucho más exigente que los estándares del equipamiento de vídeo casero
o lo que sucede en el ancho y potente nuevo medio que es internet. La razón
es que es necesario armonizar todo el costoso equipamiento de la cadena que
lleva desde la realidad que se quiere transmitir hasta su percepción por parte
del espectador en su hogar. Es decir: la cámara, los sistemas de transmisión
(cables y conexiones inalámbricas), los sistemas de edición y postproducción,
el almacenamiento y archivo, la emisión por ondas terrestres y/o digitales, las
antenas receptoras y, finalmente, el televisor instalado en el salón del espectador.
Sobre esa base profesional, muy rígida, los fabricantes pueden ofrecer solu­
ciones un poco diferentes que animan el mercado para los segmentos no estric­
tamente profesionales (el industrial o prosumer, y el doméstico o de usuario final).
Un ejemplo es el popular formato DV La normativa internacional para una
señal de resolución estándar SD (Standard Deñnition), sea PAL o NTSC, es cla­
ra. El DV es un formato no estándar desarrollado por algunos fabricantes con
una ligera modificación que merma su calidad, pero sin impedir su compatibi­
lidad con muchos equipamientos SD profesionales. Por esa razón, el DV nunca

» 58
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

será un formato “profesional" (lo que no obsta para que en ocasiones se use en
contenidos profesionales).
A esta circunstancia se unen intereses comerciales. Siendo el DV un formato
con sus propios parámetros, algunos fabricantes rizan el rizo y ofrecen soluciones
“customizadas”. Es el caso del formato DVCAM de Sony o el DVCPro 25 de
Panasonic, que, aun siendo los dos formatos DV tienen pequeñas diferencias
que los distinguen.
¿Son estas pequeñas diferencias algo sustancial? Generalmente no, pues
apenas afectan a la calidad objetiva. Por lo general, se trata de estrategias
comerciales destinadas a crear mercados cautivos: si una empresa opta por una
cámara DVCAM, tendrá también que terminar comprándose un magnetoscopio
DVCAM y un editor DVCAM. Esto puede ser, y de hecho es, un inconveniente
grave, pero por otro lado hay que reconocer que precisamente la competencia
entre marcas es la que ha hecho evolucionar tanto el sector en los últimos años.

» Las particularidades del cine e internet


El cine es en general una industria menos estandarizada. La aceptación del paso
universal de 35 mm fue un acuerdo entre los diferentes operadores (productores,
distribuidores y exhibidores privados), hace ya muchas décadas y tras una previa
batalla comercial sin intervención pública o supraestatal. En estos casos, son por
lo general los proveedores de contenidos (productores y distribuidores) quienes
pueden forzar un poco más el uso de uno u otro estándar. La exhibición (los
dueños de las salas donde finalmente se proyectan las películas) tienen menos
poder de decisión, pues como interlocutores se encuentran muy divididos y
segmentados.
En el caso del cine digital (Digital Cinema, DC) sucede lo mismo: no hay
organismo internacional que regule la libre distribución de contenidos, así que
han sido las grandes distribuidoras y estudios de producción norteamericanos
(las conocidas como majors) las que intentan presionar en favor de un único
estándar digital (la propuesta DCI). Esto, como veremos, tiene sus pros y sus
contras.
La aparición de internet supone un nuevo campo para el audiovisual. Sin
embargo, aquí los estándares parecen diluirse, o no ser en absoluto necesarios.
Cada día surgen nuevas soluciones (códecs, reproductores, modos de distribu­
ción, etc.) que luchan por hacerse un hueco en el mercado global. Si bien la
competencia es intensa, internet tiene la ventaja de que cualquier actualiza­
ción es posible e inmediata: por lo general basta con descargarse un pequeño
programa de alguna página web. Es la misma competencia la que impide el
uso de licencias y royalties abusivos que el consumidor de internet rechaza

» 59
2. PARÁMETROS DIGITALES

de plano. Por eso en este campo las soluciones abiertas, no propietarias, son
las que tienen todas las oportunidades para imponerse..., aun contando con el
inconveniente de una continua actualización.
El único límite actual está en la conexión que llega a cada hogar. Cuanto
mayor sea la velocidad de conexión de los hogares, mayor calidad objetiva se
ofrecerá en los contenidos.

» Tres categorías “pro”


Para abordar el estrecho mundo de los estándares, pero el ancho de los formatos
comerciales, he decidido tomar como base de referencia de la calidad de los di­
ferentes formatos comerciales de cine digital y alta definición lo que conocemos
como la normativa HDTV o ITU Rec. 701.701 es el número de la Recomendación
de la ITU que se refiere precisamente a la normativa de alta definición para la
televisión profesional, y sus siglas en inglés son HDTV.

La ITU no impone ninguna norma (pues las organizaciones supranacionales no tienen


capacidad de legislar), sino simplemente hace recomendaciones que sus miembros si­
guen por consenso. No obstante, en ocasiones no es una única norma, sino varias, pues
ha de armonizar los diferentes intereses de todos los participantes. El caso de la alta
definición es claro, pues existen dos estándares (1.080 y 720) dentro de una única re­
comendación, la 701, y con diferentes opciones de cadencia y barrido. También se pue­
de interpretar como una misma norma, con un mismo flujo de datos, bajo dos formatos
(720p, 1.080Í).

Una cámara o un equipamiento que cumpla con la recomendación 701 podrá tra­
bajar en cualquier cadena de producción de alta definición a lo largo del mundo.
En este libro no hablaré de los estándares y formatos de televisión SD (como el
Betacam, el DV el DVCAM o el DVCPRO), excepto cuando sea necesario. Tam­
poco me centraré en las soluciones dirigidas al consumidor o usuario doméstico,
como las populares videocámaras handycam, por ejemplo, o los teléfonos, PDAs
y otros equipamientos móviles (mobile) que empiezan a ofrecer grabación en
vídeo. El motivo es que en este segmento doméstico (Consumer) hay una enor­
me oferta de muchos fabricantes con un infinidad de modelos. No obstante,
señalaré que estas cámaras y soluciones domésticas comparten evidentemente
la misma tecnología que las profesionales (el segmento “pro"), sólo que ofrecen
un mejor precio a costa de sacrificar la calidad. Para analizarlos, no se necesitan
conocimientos distintos que los expresados en este libro.
A partir de esta base, y de una manera un tanto arbitraria quizá, pero creo que
práctica, situaré todos los estándares internacionales y formatos comerciales en

» 60
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

la misma línea que esta normativa HDTV Por debajo de ella, el segmento prosu-
mer, y por encima, los equipamientos de mayor resolución (High Resolution,
HR), en función siempre de su calidad objetiva o técnica.
Prosumer es una contracción de los
términos ingleses professional & con-
sumer: a medio camino entre los for­
matos del vídeo doméstico (de usuario
final o consumidor) y los formatos más
profesionales.
También se los conoce como "HD
de gama baja” o "HDi'ndie”. Son for­
matos que, sin llegar a los estándares
broadcast de calidad, ofrecen una más
que interesante relación calidad/pre­
cio.
HR se refiere en este caso a los tér­
minos High Resolution o formatos
de mayor o más alta resolución (que
el HDTV). Es una convención como
cualquier otra, pero sirve para dejar claro que estamos ante soluciones que
superan las normativas internacionales de HDTV También se los conoce como
formatos 2K (por su resolución), o UHD, de Ultra High Definition si hablamos del
ámbito puramente televisivo (UHD será la televisión estándar dentro de quince
o veinte años, pero ya se está investigando en estos momentos).
Esta división es puramente arbitraria y no es compartida por todos los pro­
fesionales, pero sirve para conseguir un poco de claridad en esta "selva” de la
que hablaba al comienzo del libro.
Y esta división la haré en función de los cinco parámetros ya citados: resolu­
ción, muestreo, color, cadencia y compresión.

» Normativa HDTV
La Recomendación 701 define la señal estándar de televisión de alta definición
(HDTV) con los siguientes parámetros:

*Resolución: en este caso, la ITU permite dos: 1.080 y 720.


*Profundidad de color: 8 bits.
*Muestreo: 4:2:2.
* Cadencia: se admiten todas las entrelazadas heredadas del PAL y el NTSC,
así como la opción progresiva: 25p / 50i / 30p / 60i.

» 61
2. PARÁMETROS DIGITALES

• Compresión: En realidad, la compresión no es parámetro ITU, sino comer­


cial. Por eso, la señal siempre se entenderá sin compresión (uncompressed),
y sólo hablaremos de compresión cuando mencionemos las diferentes so­
luciones comerciales.

A algunas personas estos términos les resultarán a primera vista confusos. No


importa. Espero que al terminar esta primera parte del libro los comprendan per­
fectamente. Lo que quería señalar es que con sólo cuatro palabras -resolución,
profundidad de color, muestreo y cadencia-, más la solución comercial de la
compresión, se puede definir cualquier señal o formato digital.
Antes de desglosar en profundidad estos términos, tarea que nos ocupará la
primera parte de este libro, haremos una pequeña introducción para tener una
idea general de lo que estamos hablando.

>> Resolución
Resolución (Resolution) es el número de píxeles totales que tiene nuestra imagen.
Como siempre usamos un formato rectangular, sólo tendremos que multiplicar el
número de píxeles (o columnas) horizontales por el número de píxeles (o líneas)
verticales para saber su resolución: P(h) x P(v).
Es comprensible que cuantos más píxeles tenga una imagen, la representa­
ción de la realidad será más exacta y por tanto más calidad tendrá.
La alta definición HDTV sólo admite dos resoluciones: 1.080 y 720. En cine
digital, el uso más común (recordemos que no hay normativas en el estricto
sentido de la palabra) son otras dos: 2K y 4K.

» Muestreo
El muestreo (Sampling) nos dirá cuántos de estos píxeles son efectivamente
contabilizados.
El muestro es un concepto más difícil de entender, y tiene que ver con la
propia evolución histórica de la televisión. Simplemente cabe anotar ahora que,
por una razón de compatibilidad con los antiguos monitores en blanco y negro
y necesidades de reducción de ancho de banda para un mejor aprovechamiento
del limitado espectro radioeléctrico, en algunas ocasiones se elimina parte de
la información que capta la cámara para hacerla más manejable.
Habrá entonces dos tipos de muestreo: total, que conocemos como RGB, y
parcial, que llamamos YUV Dentro del muestreo parcial encontraremos además
algunas variantes, en función de cuánta información dejemos fuera para reducir
el flujo de datos.

» 62
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Por lógica, un muestreo total siempre tendrá mejor calidad que un muestreo
YUV

» Profundidad de color
La profundidad de color (Colordepth o Bitdepth) nos hablará del rango dinámico
de una señal; esto es, la cantidad de matices de luz y color que podremos ob­
tener. Digitalmente, este rango se mide en bits: cuantos más bits apliquemos
para cuantificar una señal, más matices de colores tendremos, y, por ende, más
calidad en la representación.
El mínimo de profundidad de color es de 8 bits por canal (24 bits en total).
Es también el estándar HDTV Pero, como veremos, empiezan a aparecer en el
mercado cámaras y herramientas de postproducción que pueden trabajar con
profundidades de 10 y 12 bits, y no están lejos los 14 bits. Esto significa una
mayor riqueza cromática y mejores texturas en nuestras imágenes.

» Cadencia
La cadencia o frecuencia de fotogramas se refiere al número de imágenes fijas
o instantáneas que tomamos para representar la realidad.
Como hemos dicho más arriba, la cadencia típica del cine es de 24 fps,
pero, por razones tecnológicas, la televisión adoptó otras diferentes, que han
continuado dentro de la normativa HDTV por necesidad de compatibilidad con
los equipamientos anteriores.
Pero la cadencia no nos habla sólo del número de imágenes por segundo, sino
también de su tipología o "barrido". En este caso, hay dos: barrido progresivo o
entrelazado (o más comúnmente interlazado, del inglés interlaced). Son también
características heredadas de la televisión tradicional que hay que conocer.

» Compresión
Por último, la compresión es un elemento que se añade por una razón de eco­
nomía o coste. Dada la enorme cantidad de datos que es necesario manejar en
televisión y cine digital, en ocasiones se comprimen con la intención de reducir
peso (tamaño en Bytes del fotograma) y flujo de datos (o cantidad de bits por
segundo), para conseguir herramientas más ágiles y baratas.
La compresión no es nunca una solución “estándar”, es decir, dentro de la
recomendación ITU, sino una serie de soluciones tecnológicas que ofrecen los
diferentes fabricantes de cámaras o de equipos de postproducción.
Sí existen, sin embargo, normativas para la compresión de emisión y dis­
tribución, es decir, la que se aplica a las señales de televisión que se emiten

» 63
2. PARÁMETROS DIGITALES

digitalmente vía área, por satélite o por cable. Asimismo, están estandarizadas
las aplicadas a los formatos de distribución digital como el DVD o el Blue Ray,
así como las copias digitales (virtualprínts) en salas de cine.
El objetivo último de toda compresión es reducir el peso y flujo, pero sin una
pérdida "aparente” o subjetiva de la información que recibe el espectador. La
eficiencia será más alta cuanto mayor sea la compresión y menor la pérdida de
información relevante.
La búsqueda constante y actual de mayor eficiencia en la compresión por
parte de la industria es lo que hace que, en este aspecto, no podamos hablar de
dos o tres tipos únicos de compresión, sino de bastantes más. Sobre todo si nos
fijamos en el mundo de internet.

>> Calidad e información


Cada uno de estos cinco conceptos se puede estimar en una cantidad mayor o
menor de bits de información. Inequívocamente, cuantos más bits tenga una
imagen, más correctamente representará la realidad y, por ende, más calidad
objetiva o técnica tendrá.
Esta es una norma general e indiscutible del audiovisual digital que hay que
tener en cuenta: a mayor información, mayor calidad.
Por otro lado, cuanta más información manejemos, cuantos más bits tenga­
mos que gestionar, mayores serán las exigencias de nuestros equipamientos,
tanto de captación (cámaras) como de postproducción (ordenadores). Los con­
ceptos informáticos generales, e incluso los propios de nuestros ordenadores
caseros, valen igualmente para el mundo audiovisual digital. Mayores presta­
ciones significará mejores calidades y, generalmente, aumento en los precios.
La relación calidad/precio también se mantiene en el equipamiento digital, pero
con la novedosa ventaja de que la propia idiosincrasia de la industria informáti­
ca nos ha permitido tener en los últimos años cada vez mejores prestaciones a
precios más asequibles.

» Un poco menos de “selva”


Como se puede ver, estamos hablando de cuatro resoluciones, dos espacios
de color, dos o tres cuantificaciones de bits y tres o cuatro cadencias normaliza­
das.
Es poco, pero si le añadimos los diferentes códecs de compresión, y multi­
plicamos sus posibilidades, entendemos que a primera vista el mundo digital
parezca una selva. Una cámara actual en el mercado nos puede ofrecer más
de veinte formatos distintos de grabación. Y un equipo de edición digital pue­

» 64
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

de admitir decenas de diferentes códecs de compresión. Decenas de diferentes


formatos comerciales, en suma.
No obstante, en los últimos años ha habido un esfuerzo de todos para aclarar
la situación, coordinar esfuerzos y buscar soluciones comunes. Y creo que vamos
por buen camino. Nunca se conseguirá un único formato para todo el mundo.
Ni creo que esto fuera bueno, pues eliminaría la competencia comercial y el
incentivo de la investigación. Pero sí es posible que a medio plazo se imponga
un reducido número de soluciones comerciales que satisfagan a todos... , hasta
la siguiente y maravillosa novedad.
En cualquier caso, todo lo que existe en la actualidad, y todo lo que pueda
existir en el futuro, siempre se reducirá a variantes de estos cinco conceptos
básicos que a continuación explicaré en profundidad.

» 65
» 066
3. La resolución

» Definición
La resolución es un concepto sencillo: indica el número de píxeles de los que
está formada una imagen digital. A mayor número de píxeles, mayor resolución,
lo que significa mayor calidad.

/ Resoluciones /

4.096 p(h)

En este gráfico se muestran las resoluciones de cine digital Full Aperture, no las ya
mencionadas del DCI. Las diferencias se explican más adelante.

» 67
3. LA RESOLUCIÓN

En fotografía digital se suele hablar de más o menos "megapíxeles" o millones


de píxeles. En cine y televisión lo habitual es referirnos a la resolución por una
sola cifra: bien la del número de líneas o bien el número de columnas. Pero el
sentido es el mismo: contar píxeles.

» Cine y televisión
En el gráfico anterior podemos ver todas las resoluciones estandarizadas propias
del mundo de la televisión y el cine.
Como ya apunté, las resoluciones de televisión siempre son más precisas.
En el caso del cine digital, nada nos impediría digitalizar un fotograma a una
resolución tipo 3K (3.072 x 2.240), por ejemplo. O incluso en el futuro podamos
trabajar con resoluciones de 8K (8.192 x 5.980).
Tampoco nadie nos impide, en internet, formatear una obra en una reso­
lución extraña, como 1.345 x 713. Pero nunca serían resoluciones estándares,
profesionales, Broadcast.

Resoluciones HDTV

Una vez más, el marco estandarizado


de la HDTV es el que nos permitirá fijar
la base de calidad.
En cuanto a la resolución, tampo­
co hay hoy en día un único formato.
Por razones históricas y comerciales
que no viene al caso comentar, la re­
comendación ITU admite dos resolu­
ciones profesionales: 1.920 x 1.080 y
1.280x720.

Hay que señalar que, a día de hoy, la inmensa mayoría de las cadenas de televisión
emiten en SD, y, por eso, aún no está fijada totalmente la normativa general de la HDTV
Pero de los cuatro parámetros, sólo la cadencia parece todavía en discusión. Hay un
intento de crear una nueva y única cadencia, 23,976 fps, en progresivo, pero no parece
que vaya a salir adelante. Véase el anexo “Non Drop Frame / Drop Frame".

»68
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» Cambio de relación de aspecto (aspect ratio)


El formato de pantalla o relación de aspecto (AR) es la relación entre el número
de columnas y el número de filas de nuestra pantalla (entre el ancho y el largo, si
se quiere). Se suele expresar bien por una fracción (4/3,16/9), por el resultado de
esta división (1,33 y 1,78 respectivamente) o también por la relación expresada
en referencia a la unidad (1:1,33, 1:1,78).
Al contrario que, por ejemplo, en el mundo de la fotografía, donde cada cual
puede “formatear" o encuadrar sus obras en el tamaño y relación que desee,
el mundo de la televisión y el cine profesional exige unas normativas estrictas.
Sobre todo, el mundo de la televisión, pues es inviable que en cada hogar cada
uno opte por una relación de aspecto diferente.
Observamos que la televisión SD, tanto PAL como NTSC, ofrecía una relación
de aspecto de 4/3 (1:1,33). En HD, la relación cambia, y siempre será 16/9 (1:1,78).
Por eso nos basta con una cifra para saber siempre el número total de píxeles, y
ya hemos comentado que en el mundo de la televisión se suele hablar de líneas
o resolución vertical. Así pues, nos referimos a estas resoluciones como 720 o
1.080, sin más, obviando la cifra de resolución horizontal.

» Dos estándares
Que haya dos tipos de resoluciones estándar, y no sólo una, se debe a pe­
culiaridades del mundo audiovisual en un tiempo de transición. En un primer
momento, la Rec. 701 hablaba de un formato 1.080 interlazado y otro 720 progre­
sivo (hablaremos de estos términos en el capítulo dedicado a la cadencia), que
ofrecían una calidad visual muy similar. Sin embargo, hoy también se admite el
formato 1.080 progresivo, que es claramente superior a los otros dos.
En la actualidad, el mercado ofrece equipamiento en las dos resoluciones,
dependiendo generalmente del fabricante, pero la tendencia cada vez más clara
es trabajar con el formato 1.080, pues proporciona más información y, por ende,
más calidad, en especial si es en modo progresivo.
No obstante, el formato 720 no debe descartarse, sobre todo en lo concer­
niente a la transmisión de la señal. Al tener menos información, puede ser
más eficientemente comprimido, y ocupar menor “ancho de banda” o bitrate
(algo menos de la mitad que el 1.080). Esto lo convierte en una opción óptima
para algunos canales de distribución, como internet o la televisión digital te­
rrestre. También es menor el coste de fabricación de los televisores y, cosa no
despreciable, se pueden fabricar de menor tamaño: ¿quién va a instalar un 32
pulgadas en la cocina de su casa? Hablaré de ello en la parte dedicada a la dis­
tribución.

» 69
3. LA RESOLUCIÓN

En cualquier caso, y como ambas resoluciones son estándares, han de ser


compatibles: un monitor 1.080 debe poder mostrar una señal 720, y viceversa.

» HD Ready y Full HD
Comercialmente, se crearon dos etiquetas de cara al usuario no profesional que
han tenido cierto éxito: HD Ready y Full HD.
En las tiendas de electrodomésticos no suelen hablar de tecnología, así que
parecía más fácil explicarlo con estos nombres. HD Ready sería el monitor
que permite una resolución de 720 (un mínimo de 1.280 x 720 píxeles) y Full
HD aquel que permite la reproducción en formato nativo de una señal 1.080 (un
mínimo de 1.920 x 1.080 píxeles de resolución).
¿Eran necesarias estas etiquetas? Lo eran, porque a pesar de que, como
digo, sólo tenemos dos resoluciones de televisión, estos monitores se basan en
tecnología informática, donde las posibles resoluciones son mucho más amplias:
VGA, XGA, SXGA, etc. Lo veremos un poco más adelante. A la postre, hoy se
asocian HDReady al 720, y HDFull al 1.080.

>> Ultra High Definition


Tampoco se pueden descartar en ab­
soluto nuevos estándares y nuevas cá­
maras para el futuro. Organismos de
estandarización como la SMPTE ya
están trabajando en la normativa que
definiría a largo plazo la televisión de
ultra alta definición. En este caso, las
propuestas serían dos: UHD 4.320 y
UHD 2.160.

Sería conveniente, aunque poco probable, que los estándares futuros de cine digital (8K)
coincidieran con los de la televisión UHDTV Una vez más, estarán en juego las cuestiones
comerciales.

Resolución en el cine digital y HR

» Formato de pantalla
El cine no comparte ni tamaño de pantalla ni relación de aspecto con la televi­
sión.

» 70
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Después de todo, en una sala de cine nosotros podríamos proyectar casi


cualquier resolución, simplemente “cacheando” (del inglés catch) la imagen
que sale por el proyector. Podríamos, incluso, hablar de resoluciones en forma
de círculo, ¿por qué no?
No obstante, y para evitar precisamente una excesiva variedad, la industria
cinematográfica estableció en diferentes etapas de su historia algunas relacio­
nes de aspecto consideradas estándares. La clásica fue en su tiempo la 1:1,37,
denominada formato académico (Academy), y que fue la que adoptó (1,33) la
televisión en sus inicios. Una vez que la televisión adopta un formato, como
sabemos, ya es difícil que pueda cambiarlo, pues implica cambiar toda la ca­
dena de equipamiento. Sin embargo, en cine no supone mucho problema ni
coste utilizar otras relaciones de aspecto, y así surgieron varios, generalmente
intentando diferenciarse de lo que ofrecía su gran competidora, la televisión.

Surgieron así los formatos panorámicos, de los que ha habido varios ejemplos.
Pero, a día de hoy, y abandonado el académico, el cine suele trabajar con sólo
tres relaciones de aspecto: 1:1,66, 1:1,85 y 1:2,35. Y el primero de ellos está en
franco abandono.

El formato televisivo 16/9 o 1,78 es muy similar al cinematográfico 1:1,85, pero no son
iguales. La diferencia estriba en un 4 %; es pequeña, pero puede producir efectos inde-
seados si no se tiene en cuenta.

» 71
3. LA RESOLUCIÓN

» Resolución horizontal
Al haber diversas opciones, en cine se adoptó la costumbre, mucho antes de que
se popularizara la alta definición, de nombrar los ficheros no por el número de
líneas o píxeles verticales, sino por el número de píxeles horizontales. El número
de píxeles horizontales siempre permanecería inalterable, y el de los verticales
vendría dado por la relación de aspecto que escojamos.
En cine lo usual es encontrarnos, pues, con dos resoluciones: 2K y 4K. "K”,
en este caso, no es más que la inicial de "kilo”. Y kilo, en informática, sabemos
que significa no 1.000 (103), sino más exactamente 1.024 (2a).
2K es entonces 2 x 1.024, lo que da un total de 2.048 píxeles de resolución
horizontal. Si hemos decidido, por ejemplo, que nuestra película tenga una
relación de aspecto de 1:1,85, basta con hacer una simple operación para obtener
una resolución vertical de 2.048/1,85 = 1.107 píxeles (el redondeo es obligatorio,
pues no podemos contar con decimales de píxel).
De la misma manera, 4K significa 4 x 1.024 = 4.096 píxeles de resolución
horizontal.
2K y 4K son pues las cifras que notan la resolución en el mundo de la
cinematografía digital.

» Recomendación DCI
En la actualidad estamos en medio de un proceso de digitalización de todas
las salas de proyección de cine del mundo. Al contrario que en la televisión, no
hay organismos internacionales que supervisen el proceso y hagan recomenda­
ciones técnicas de formatos. En este caso, han sido las grandes compañías de
producción y distribución de cine norteamericanas con sede en Hollywood (las
conocidas como majors) las que han sacado adelante una iniciativa de estanda­
rización que, a día de hoy, parece ser la que está alcanzando más consenso. Es lo
que se conoce como Digital Cinema Initiative, requisitos DCI (DCI Compliment)
o simplemente DCI, que veremos con detalle en los capítulos dedicados a la
distribución (parte IV del libro).
La normativa DCI ha decidido optar por sólo dos formatos de pantalla: el 1,85
y el 2:39, abandonando definitivamente el resto, y dentro de los dos tamaños
citados: 2K y 4K.
En el caso del 2K, y para que quepan correctamente estos dos aspects ratios,
el formato contenedor tendrá un máximo de 2.048 x 1.080 píxeles (es decir, muy
semejante al 1.080 de la televisión).
Si la película es de formato 2,39 (se han redondeando las cifras, por el motivo
antedicho), la parte visible será 2.048 x 858.

» 72
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Si el formato es 1,85, entonces tendremos una parte activa de 1.998 x 1.080.


Los cálculos son similares para el 4K DCI.

/ Resoluciones DCI para cine: 4K /

4K (4.096x2.160)

» 73
3. LA RESOLUCIÓN

» E-Cinema
Los datos citados son la propuesta de la recomendación DCI, también llamada
incorrectamente “D-Cinema". Actualmente, las majors dominan casi el 80 %
de la taquilla mundial, así que probablemente será lo que veamos. La también
potente asociación de exhibidores norteamericana (conocida como NATO, siglas
en inglés de la Asociación Nacional de Propietarios de Cines) no quiso dejarse
imponer una norma que podría favorecer exclusivamente a los proveedores
de contenidos, por lo que finalmente la DCI se presentó a la SMPTE para su
normalización.

SMPTE son las siglas de Sooiety of Motion Picture and Televisión Engineers o Saciedad
de Ingenieros de Televisión e Imagen en Movimiento. La SMPTE ejerce como agencia
de normalización, privada y norteamericana, pero internacionalmente reconocida como
neutral. En España actuaría la AENOR, la Agencia Española de Normalización, o en
Francia la AFNOR. Los países de la UE suelen actuar de manera coordinada, si bien no
ha ocurrido así en el tema del cine digital.

Un único estándar para el cine puede ser una buena idea, pero tampoco hay
que descartar otros estándares, como el E-Cinema (Electronic Cinema), que
utiliza resoluciones propias del HDTV y que es mucho más económico y, en
ocasiones, el único utilizable. Por ejemplo, en el caso de retransmisiones de
eventos musicales o deportivos directamente en las pantallas de cine, algo
que está teniendo mucho auge y con gran respuesta de público. Al ser una
retransmisión vía satélite por medios televisivos, siempre tendremos que pensar
en HDTV y no en 2K. No hay cámaras de televisión ni unidades móviles ni en
general ningún equipo televisivo broadcast que trabajen con resoluciones 2K o
4K. Así pues, será 1.080 o 720.
Dado que en ocasiones se usan proyectores más baratos, que pueden conte­
ner una señal HD, se habla de cine 1,4K, o 1,3K (que corresponderían al formato
720 o HD Ready).
Hablaré de ello más extensamente en la parte IV dedicada a la distribución.

» Full Aperture
Las resoluciones DCI mencionadas son las que finalmente verá el espectador
en la pantalla. No obstante, es usual trabajar en la industria del cine con el for­
mato conocido como Full Aperture (FA), Open Gate o, en castellano, "ventanilla
abierta". También es común llamar a este formato Súper 35 mm.

» 74
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

La idea es simple: en vez de cachear


/ Formato Full Aperture (Súper 35mm) /
(darle el formato o relación de aspecto
1. Negativo Full Aperture (FA)
a la imagen) durante la filmación de
las escenas, se deja este proceso pa­
ra el final, cuando se tiran las copias
positivadas (o, hoy en día, las Virtual
Prints o copias digitales).
El fotograma del negativo utiliza
todo el espacio disponible entre las
cuatro perforaciones, incluyendo el es­
pacio que en el positivo se reserva pa­
ra la banda de sonido (en fotoquímico,
el sonido siempre se graba en una he­
rramienta distinta de la cámara). Esto,
como vemos, nos da una relación de
aspecto de aproximadamente 1,33. La
ventanilla abierta nos permite tener
unos "márgenes" de seguridad (safe
area) para, por ejemplo, evitar la en­
trada de un micro en el encuadre co­
rrecto.
Durante el rodaje, tanto el director
como el operador tienen en su monitor
unas líneas que les señalan el encua­
dre correcto. Si por alguna razón lo ne­
cesitaran, siempre podrían reencua-
drar verticalmente un poco el plano
en la postproducción, pues el resto de
la información también se imprime en
el negativo.
Cuando Kodak y otras empresas de­
sarrollaron los primeros sistemas de
digitalización de negativo, allá por los
años ochenta, la ventanilla abierta es­
taba ya muy popularizada, por lo que
al crear el formato original Cineon op­
taron por darle las dos resoluciones 4K
o 2K pero con ventanilla abierta y for­
mato 1,33.

» 75
3. LA RESOLUCIÓN

Así pues, es costumbre digitalizar toda la información en ficheros con reso­


luciones de 4.096 x 3.112 para un formato 4K Full Aperture y de 2.048 x 1.536
para un formato 2K Full Aperture.

No hay que confundir el Full Aperture, FA, con el Full Frame, FF. Éste es un término que
se usa en el mundo de la fotografía tradicional, pero que ya se está incorporando a las
soluciones más avanzadas de cine digital. Se hablará de ello en la parte dedicada a la
cámara, en la sección de los sensores captadores.

» Captación 2K / 4K
Las cámaras de HDTV como hemos dicho, tendrán siempre una resolución má­
xima de 1.920 x 1.080 líneas.
En el caso de las cámaras de la categoría que llamamos de HR pueden darse
dos opciones: una, que mantengan esta resolución pero amplíen otras calidades,
como el muestreo o la profundidad de color.
La otra opción es que ofrezcan resoluciones superiores, del tipo 2K y 4K.
Estaríamos entonces ante cámaras específicas de cine digital, con sensores con
mayor número de píxeles que los tradicionales HD. Por este motivo, la grabación
siempre será en soporte rígido (IT), sea en tarjetas o en discos duros, pues no
existen magnetoscopios (VTR, Video Tape Recorder) para grabar señales más
allá de las 1.080 líneas HD.

» 3K, 6K, 8K...

Siendo las resoluciones de trabajo el 2K y el 4K, en ocasiones nos encontraremos


con otro tipo de cifras como 3K, 4,5K, 5K, 6K, 8K, etc.
Esto se puede deber a diversas razones: tamaño de un sensor, tamaño de una
imagen, escaneo del fotograma... Por lo general, son propuestas comerciales
que hay que tomar con cuidado, leyendo siempre las especificaciones técnicas
anexas. Pero usando el sentido común, se corresponderán siempre a múltiplos
de 1.024 píxeles.

Otras resoluciones no estandarizadas

Resumiendo, las resoluciones que manejamos en cine digital y HD son estas


cuatro:

» 76
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

• 1.080
. 720
• 2K (DCI para distribución / FA para producción)
• 4K (DCI /FA)

caso del cine, notar que es posible trabajar con ventanilla abierta (FA) en producción,
pero que finalmente optaremos por la ventanilla definitiva en distribución (DCI).

Sin embargo, el mercado nos ofrece algunas cifras y nombres más. No son, en
realidad, resoluciones propias de formato, sino de "visionado" o de monitoriza-
ción. Es decir, afectan en el momento de visualizar los trabajos, no de trabajar
con ellos (al menos en un entorno profesional). Analicémoslas.

» VGA y otros
Ya vimos el caso de las etiquetas Full Hd y HD Ready.
La necesidad de informar debidamente al consumidor final se debe a que,
como hemos dicho, en el momento actual se cruzan las tecnologías audiovi­
suales tradicionales con la informática. La informática desarrolló sus propios
estándares de visualización de contenidos, basados inicialmente en el VGA
(Video Graphic Array o matriz de gráficos de vídeo).
También en informática se trabaja con píxeles, y también, como veremos,
con el sistema de color RGB. Por eso son totalmente compatibles. Pero, como
sabemos, las pantallas de los ordenadores pueden tener diferentes resoluciones
y tamaños, en función de la tarjeta de vídeo de que dispongamos y de la diagonal
del monitor.
En 1988, IBM propuso un estándar de gráficos al que se sumaron los fabrican­
tes de "clónicos PC”. IBM ya no tiene la importancia en la industria informáti­
ca que tenía entonces, pero el esquema sigue vigente. Este estándar era el VGA,
que implicaba una resolución de 640 x 480.
Con el tiempo, las capacidades de las tarjetas de vídeo aumentaron y se fueron
diversificando. El primero de ellos, el extended Graphics Array (XGA), seguido
de otros que iban superando su resolución: Super VGA (SVGA), Wide VGA
(WGA), extended VGA (XGA), Ultra XGA (UXGA), etc. Surgió así un número
diferente de resoluciones, mucho más amplio que el propio de la televisión y
del cine, con relaciones de aspecto distintas al mundo audiovisual (4/3, pero
también 5/4,16/10, 8/5, 3/2, etc.). Porque, repetiré una vez más, la informática y
el audiovisual siguieron caminos diferentes en sus inicios y sólo se encontraron
más tarde.

» 77
3. LA RESOLUCIÓN

>> Equipamientos de usuario y profesional


Algunos equipamientos pensados para el usuario no profesional usan este tipo
de terminología informática para sus sistemas de vídeo. Es el caso de los teléfo­
nos móviles con grabación en vídeo, con resoluciones entre QVGA (Q de Quarter)
y VGA de mayor o menor calidad, así como algunas cámaras fotográficas con
opción de vídeo, que también pueden ofrecer una grabación VGA.
También es usual esta resolución en las consolas de videojuegos. Dada la
similitud entre la resolución VGA y la SD, suelen ser bastante compatibles.
En el terreno profesional, es común encontrar estas resoluciones en los mo­
nitores digitales (sin tubo de rayos catódicos (CRT) y también en los proyectores
digitales usados en salas de cine o servicios de postproducción.

>> Resolución “nativa”


Debemos tener en cuenta estos datos a la hora de elegir un monitor o un proyec­
tor digital para nuestro trabajo de postproducción y exhibición. Las resoluciones
de cine y televisión digital no suelen coincidir casi nunca con las informáticas. La
idea es considerar la resolución del aparato, que siempre vendrá dada en térmi­
nos informáticos (VGA y otros) como un “contenedor’’ capaz de mostrar de mane­
ra “nativa” el formato de cine o vídeo que hayamos seleccionado para el trabajo.
En caso contrario, lo que hará nuestro equipo será un reescalado (resizé), bien
hacia arriba o hacia abajo, de la resolución del archivo. Y eso influirá tanto en
su definición, luminosidad y contraste, como en posibles aberraciones ópticas
en las proporciones.

>> Visionados correctos


Por ejemplo: si queremos visualizar correctamente una señal 720, necesitaremos
un monitor al menos SXGA, que nos da una resolución de 1.280 x 1.024. Nos
sobrarían algunos , píxeles o líneas verticales, que aparecerían en negro en el
monitor o serían útiles para los controles del programa reproductor.
Pero ese monitor SXGA se quedaría corto para una señal 1.080. En el caso de
una señal 1.080, lo correcto sería trabajar con un monitor WUXGA: Wide Ultra
extended Graphic Array, con una resolución de 1.920 x 1.200 donde sí “cabe”
la de 1.080.
Es bueno seleccionar un monitor de tamaño mayor pero similar, nunca exce­
sivamente grande. Si mostráramos una pequeña imagen PAL (720 x 576) en un
monitor WUXGA a "pantalla completa”, observaríamos que el reescalado agu­
diza los defectos que pudiera tener, y afecta sobremanera al brillo y al contraste
de la imagen.

» 78
» 79
3. LA RESOLUCIÓN

Por esa razón, es conveniente trabajar siempre con monitores "nativos” para
el formato que estemos trabajando.
Haré una pequeña tabla de equivalencias

>> Megapíxeles
Ultimamente, es común encontrarse en algunas cámaras de cine digital con una
cifra de “megapíxeles" en referencia a la resolución del sensor. Esta costumbre
viene heredada del mundo de la fotografía, y se obtiene sumando el número
total de fotodiodos que tiene el sensor (imager).
Por ejemplo, en ocasiones se señala como “3 CCD de 2 megapíxeles” que­
riendo indicar que consta de tres sensores de tipo CCD, cada uno de ellos de
1.920 p(h) x 1.080 p(v).
La confusión es más evidente en cámaras con un único sensor. La cifra de
“12 megapíxeles", o “21 megapíxeles”, no nos puede dar una idea exacta de la
resolución nativa de la herramienta si se desconocen otros datos, como el tipo
de máscara Bayer de que dispone.
Por otra parte, tampoco es correcto asociar un “fotodiodo”, que es lo que
contiene un sensor, a un píxel, que es lo que forma una imagen.
En definitiva, el uso de “megapíxeles" en el mundo del audiovisual es más
un elemento comercial que técnico, y puede llevar a confusiones.
Profundizaremos en estos conceptos al hablar de cámaras.

Recapitulación

* Entendemos por resolución el número de píxeles o muestras digitales que


ofrece una imagen.
* En cine digital y HD, esta resolución se mide en áreas rectangulares con
diferentes relaciones de aspecto.
* En televisión, esta relación siempre será fija: 4/3 para la televisión SD y
16/9 para HD.

» 80
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

• En cine, esta relación es más flexible, pero lo habitual es trabajar con dos
relaciones: 1,85 y 2,39.
• En televisión, nos referimos a la resolución por el número de píxeles (o
líneas) verticales, mientras que en cine solemos usar el número de píxeles
horizontales.
• Actualmente, en HD tenemos dos resoluciones: 1.080 y 720, mientras que
en DC tenemos otras dos: 2K y 4K. Fuera de estas cuatro, no se considera
un formato profesional de trabajo.
• En el futuro, pueden aparecer nuevos formatos de alta resolución (6K, 8K...)
o ultra alta definición (UHDTV) que superen estos estándares.

» 81
» 082
4. Profundidad de color

» Etapa A/D
Hemos visto antes que los sensores captadores de las cámaras electrónicas
están divididos en fotodiodos que a su vez producen variaciones en pequeñas
corrientes al ser excitados por una intensidad lumínica (por los fotones presentes
en la luz). Hemos visto también que se precisan tres sensores, uno por cada color
primario, para lograr una representación pancromática.
En una cámara digital, este esquema se mantiene. El sensor o los sensores
producen siempre variaciones en la intensidad de microcorrientes. Pero si en
una cámara analógica estas variaciones se guardan tal cual en la cinta, en una
digital se interpone un paso previo, una etapa que convierte la señal analógica
en digital, cuantificándola en bits. Este es el proceso o etapa A/D, y es clave en
la calidad digital que proporcione.

» Color expresado en bits


Durante esta etapa la onda analógica del chip se convierte en una serie de
valores numéricos. Cuantos más valores seamos capaces de distinguir, más
diferencias o gradaciones tendremos en nuestra imagen. Si sólo aplicáramos dos

/ Niveles de bits /
4. PROFUNDIDAD DE COLOR

valores (negro absoluto y blanco absoluto) tendríamos una imagen poco reco­
nocible, sólo los contornos, sin ningún tipo de matiz. A medida que ampliemos
la gama de tonos, obtendremos más definición.
Si usáramos el sistema decimal, lo natural hubiera sido convertirlo en múlti­
plos de 10: 100, 1.000, 10.000 tonos. Pero como hemos dicho, el sistema que
empleamos es el binario, por lo que es lógico usar sus múltiplos: 2, 22, 23, 24,...,
28, que nos proporcionarán, respectivamente, 2, 4, 8,16, 32, ..., 256 niveles.
¿Cuál es el límite? El ojo humano es muy sensible, una herramienta de preci­
sión perfeccionada a lo largo de millones de años de evolución. Sería impensable
alcanzar su grado de exactitud a una tasa de bits manejable. Así pues, es nece­
sario un compromiso. Este compromiso debe ponderar, por un lado, conseguir
una representación creíble de la realidad; y por el otro, un flujo de datos, una
cantidad de información manejable por nuestras herramientas.

» El estándar 8 bits
El grado de compromiso para el mundo de la HDTV se fijó en 8 bits por canal: en
realidad no son ocho bits, sino que 8 es el exponente: 28 = 256 niveles o tonos
de gama.
Como hemos dicho, en color contamos con tres canales, por lo que si calcu­
lamos el número de combinaciones posibles de colores tenemos que 256 x 256
x 256 = 224 = 16.777.216 diferentes tonos de colores representa bles (los cono­
cidos 16 millones de colores que nos muestran nuestros ordenadores).
Estamos, pues, ante una señal de 8 bits de profundidad de color. Más exac­
tamente, sería una señal de "24 bits”; al hablar de 8 bits damos por supuesto
que nos referimos a la profundidad de color por canal.

» 84
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Se suele hablar de bits por canal, y no del total de bits, pues el número de canales puede
variar. Una imagen en blanco y negro, por ejemplo, sólo tiene un canal. O puede haber
una imagen con los tres canales de color primarios más un cuarto, el "alfa”, que permite
albergar una información de transparencia.

Si, por ejemplo, el chip capta mucha intensidad de luz, cercana a su límite, el
conversor A/D le asignará una cifra alta entre el 0 y 255 (el 0, en binario, también
es un valor): digamos 232. Si llega poca luz, el conversor le asignará un número
bajo: 16, por ejemplo. Un gris intermedio lo cuantificar con el valor 178...

» Canales separados
Hablamos de “gris medio”, pero como hemos dicho que trabajamos en un sis­
tema RGB, este “gris" en realidad es un rojo, o un azul o un verde intermedio.
Lógicamente, ni las ondas ni los bits se “tiñen” de ningún color, pero nuestros
dispositivos asocian este número a uno de los tres canales.
Pero, por otra parte, al ser pura información numérica, es fácil “reasociarlos”,
trabajar con ellos. Podemos decirle a nuestro ordenador que invierta los canales
y de una manera sencilla tendremos una imagen negativa, donde el azul se
convierte en amarillo, el rojo en can y el verde en magenta.
Este punto es clave para entender las enormes posibilidades de trabajo en
postproducción que permiten las herramientas digitales. Es lo que se conoce
como “trabajo por componentes (de color)”, terminología ya usada en analógico
(véase página 393).

» 10, 12 bits
¿Qué pasaría si nuestro conversor A/D, aprovechando la gran sensibilidad de
nuestro captador, decidiera darnos más posibilidades? Sería entonces una cuan-
tificación de nivel superior: por ejemplo, de 10 bits por canal.
El número de niveles o grados por canal sería entonces de 1.024 (210, del
0 al 1.023). 2 bits más, como vemos, nos multiplican exponencialmente las
posibilidades, pues ya no serían 16 millones de posibilidades de color, sino más
de mil millones (1.0243 = 1.073.741.824) de posibles tonos o colores distintos.
La magia de la cuantificación binaria por canales es que para aumentar
significativamente el número de colores nos basta con añadir dos bits más a la
señal, es decir, sólo un 20 % más de información.
8 bits por canal proporciona una gran fiabilidad con respecto a la represen­
tación de la realidad. Por eso, 8 bits es el estándar de la industria televisiva, y
será asimismo el que necesitemos para trabajar en alta definición para televisión
(HDTV).

»85
4. PROFUNDIDAD DE COLOR

Sin embargo, el negativo de 35 mm es un formato de gran calidad que


permite realmente captar gamas aún más realistas. Técnicamente, los estudios
demuestran que alcanzaría del orden de unos 13 bits (el cálculo no puede ser
exacto, dado que es un soporte fotoquímico, no digital).
Por eso, las cámaras pensadas específicamente para cine digital (las que
llamamos HR) intentan ofrecer esa mayor calidad, y muchas de ellas ofrecen
ya calidades de 10 y 12 bits. Tecnológicamente, es probable que a corto plazo
puedan ofrecer 14 bits, lo que alcanzaría la calidad del negativo. Y a más largo
plazo, incluso se podrían superar estas calidades con sensores aún más sensibles
y etapas A/D de mayor potencia de cálculo.

» Otras terminologías
A esta característica la llamamos indiferentemente profundidad de color, gama,
contraste o, muy comúnmente, rango dinámico (Dynamic Range). En cine el
término apropiado es latitud, que se entiende como el número de pasos de
diafragma o stops que permite capturar un negativo.
En electrónica de consumo (televisores y proyectores), el rango dinámico se
expresa en ocasiones en una relación tipo 1.000:1,2.000:1,4.000:1, etc. Se podría
asociar 4.096:1 a un rango dinámico de 12 bits, y 1.024:1 a uno de 8 bits, pero
no es exacto, pues aquí la terminología no está clara. Hay varias maneras de

» 86
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

“vender” una cifra así. Se puede referir a una medición ANSI o FF (dos formas
de medir el contraste), y los fabricantes no se ponen de acuerdo en el uso de
una única terminología.
Además, en el contraste de un proyector (incluso profesional) hay que con­
siderar la luz ambiente, el material donde se proyecta, así como la potencia
lumínica del proyector. Un proyector de poco contraste pero mucha luminosi­
dad puede ofrecer una mejor respuesta que otro de mayor contraste pero menor
potencia lumínica.

» SNR: signal noise ratio


Si hablamos de cámaras, la profundidad de color viene determinada principal­
mente por el rango dinámico que puede ofrecer el sensor. Pero el sensor es
una tecnología analógica, que se mide en decibelios, que es como se expresa
generalmente el RD en las especificaciones: 54 dB, 60 dB, 66 dB... Sólo tras su
paso por la etapa A/D se cuantifica en digital. La equivalencia estaría en torno
a 1 bit aprox 6 dB.

La equivalencia no es exacta, pues son dos señales distintas. Una fórmula en uso es:
n° dB = 6,02 x n° bits + 1,76. Una señal de 8 bits sería equivalente a 6,02 x 8 + 1,76 aprox
50 dB.

Más concretamente, un sensor profesional debe reflejar la relación entre señal


y ruido (Signal Noise Ratio, SNR, S/N). Como hemos comentado, toda imagen
está inseparablemente unida a un ruido subyacente, producto de su captación,
ampliación y transformación. Este ruido por lo general se asocia a los niveles
bajos de la señal (las sombras o negros).
Un equipo debe asegurar una señal útil "limpia”, con un número de gradacio­
nes suficiente entre su máximo nivel y su mínimo ausente de ruido, por debajo
del cual deja de ser una señal útil. La cifra de SNR es siempre más precisa en
este caso que el simple RD o rango dinámico.
Una vez más, los fabricantes no se ponen de acuerdo en usar un único dato,
pudiendo leerse en las especificaciones indistintamente el valor SNR o el RD, por
lo que en buena lógica entenderemos que el dato RD siempre será ligeramente
superior al SNR, y por tanto menos fiable.
Como veremos con más detenimiento en la parte dedicada a las cámaras y
sensores, esta señal analógica expresada en decibelios es lo que se convierte en
bits a su paso por la etapa A/D. Ambas etapas son importantes para determinar
la calidad de un dispositivo.

» 87
4. PROFUNDIDAD DE COLOR

Recapitulación

• El número de bits de profundidad de color (contraste, gama o rango dinámi­


co) es, junto a la resolución, un parámetro clave en la calidad de un formato.
Es el que nos proporciona una gama más grande o más pequeña de con­
traste y tonalidades de color.
• El estándar de la industria tanto de la televisión como de la informática es
de 8 bits por canal (24 bits en total, 16 millones de colores).
• Los nuevos equipamientos empiezan a ofrecer la posibilidad de una mayor
profundidad: 10, 12 bits.
• En cine digital se aspira a lograr el rango dinámico que ofrece el negativo
de 35 mm, que se estima alrededor de los 13 bits lineales.

» 88
5. El muestreo

» Muestreo total y parcial


Con lo explicado hasta ahora, el mundo reducido del cine digital no necesitaría
este capítulo dedicado al muestreo (Sampling). Resolución y profundidad de
color bastarían para determinar la calidad de un formato digital. Si tenemos que
hablar de muestreo es porque es un elemento que aparece en el mundo de la
televisión.
En cine digital, el muestreo es algo que se obvia, pues sólo se contempla una
opción: muestreo total o RGB. Con esto queremos decir que se cuenta con toda
la información proveniente del sensor, sin eliminar ninguna muestra.
Sin embargo, los sistemas de televisión estándar eliminan una parte de la
información: realizan un “muestreo parcial” o submuestreo de lo obtenido en
los sensores en lo que conocemos como espacio YUV.
Esto implica evidentemente una pérdida de calidad, un desaprovechamiento
de la verdadera capacidad de una cámara, pero se explica por la necesidad de
compatibilidad sistemas anteriores y de un mejor aprovechamiento del limitado
espacio radioeléctrico.
Una señal RGB (la que sale directamente de los sensores de las cámaras) se
transforma en una señal YUV mediante dos procesos:

• Una reordenación o transformación de la señal para su compatibilidad con


los monitores en blanco y negro.
• La eliminación de una parte de la información para reducir el flujo de datos
o ancho de banda.

Hablamos entonces de dos espacios de color diferentes: RGB puro o de muestreo


total, y YUV o muestreo parcial.

» De la televisión en blanco y negro al color


Hasta la década de 1950, la televisión comercial trabajaba en analógico y en
blanco y negro (un solo canal o “escala de grises”). Una señal en color, como

» 89
5. EL MUESTREO

hemos dicho, consta de sendos canales para los tres colores primarios. ¿Como
reproducir entonces la sensación de “blanco y negro”?
Esta necesidad era una condición sine cua non para el mundo de la televisión.
Al contrario que en el cine, donde un proyector sirve tanto para copias en blanco
y negro como en color, los televisores en blanco y negro no podrían reproducir
las señales de televisión en color. Era necesario adquirir un nuevo aparato para
poder verlas.
Este dilema (de alguna manera semejante a la actual transición entre SD y
HD) planteaba tres problemas comerciales. El primero, que no se podía obligar a
los espectadores a adquirir nuevos equipamientos. Los organismos reguladores
exigían que las nuevas emisiones en color fueran compatibles con los televisores
monocromos ya instalados en los hogares. El segundo problema es que a las pro­
pias cadenas de televisión no les interesaba perder audiencia. Querían empezar
a emitir en color, pues suponía una gran mejora técnica, pero estas emisiones
deberían ser captadas también por todos los espectadores, no sólo por aquellos
con capacidad económica suficiente para adquirir un nuevo televisor en color.
Y el tercer problema, no menos importante, en aprovechar adecuadamente el
espacio radioeléctrico, sin eliminar operadores.

» Luminancia y crominancia
La solución aparentemente más sencilla (una mezcla ponderada al 33 % de las
tres señales) no era visualmente correcta. La razón es que el ojo humano es más
sensible al color verde que a los otros dos primarios, quizá debido a nuestros
orígenes selváticos como primates. Una ponderación por igual de los tres colores
primarios no equivaldría a la sensación de contraste entre blancos y negros tal
como la percibe nuestro cerebro.
Por esa razón, y tras diversas pruebas técnicas, se convino en la señal en
blanco y negro más apropiada, a la que a partir de ahora llamaremos luminancia
(luminance, cuyo símbolo es la letra y griega mayúscula, Y), y era un balance de
los tres canales en la siguiente proporción:

Y = 0.299R + 0,587G +0.114B

que se suele redondear para decir que la luminancia es la suma del 30 % de la


señal del canal rojo, más el 60 % del verde, más el 11 % del azul.

Es importante no confundir luminancia con intensidad lumínica o luminosidad (ligth-


ness). Luminancia es equivalente a la escala de grises o señal en blanco y negro.

» 90
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El resto de la información tricolor se denomina crominancia (notada con la


letra ce mayúscula, C) y está formada a su vez por dos señales denominadas
arbitrariamente U y V. La fórmula, igualmente sencilla, es:

U = Y-R
V = Y-B
C=U+V

Asimismo, no hay que confundir crominancia con información de color.

Como se observa, la conversión de RGB a YUV es una sencilla operación aritméti­


ca que no requiere ni tecnología avanzada ni grandes complicaciones. Bajo esta
norma, si se quisiera volver a obtener el canal rojo, bastaría con hacer una resta:

Y-U = Y-(Y-R) = R

Un monitor en blanco y negro funciona tomando la señal Y y mostrándola en la


pantalla, desechando la señal de crominancia.
En el caso de un monitor en color, toma la señal YUV y la vuelve a convertir
en RGB, aplicando la fórmula inversa. Una vez convertida en RGB la muestra
en la pantalla con sus colores originales.
Se conseguía así salvar el principal escollo de aquella etapa de transición al
color en televisión, que era la compatibilidad con los equipamientos y televisores
ya establecidos en blanco y negro.

» 91
5. EL MUESTREO

>> Las limitaciones del espacio radioeléctrico


El otro gran reto de esa etapa fue también de índole comercial. Como podemos
deducir, una señal de color triplica la cantidad de información (ancho de banda
en analógico o bitrate en digital) de una señal en blanco y negro de iguales
características.
Aquí nos enfrentábamos a las limitaciones del espectro radioeléctrico de
emisión. Las emisiones de televisión vía antena tradicional (conocidas como
emisiones terrestres -Aerial o Terrestrian-, para distinguirlas de las realizadas
vía satélite o por cable) ocupan una parte del espacio radioeléctrico público,
accesible a todos los operadores. Este espacio ha de tener cabida también
para otro tipo de emisiones, como las señales de radio, las comunicaciones de
radiofrecuencias públicas y privadas, señales de satélite, de radar, aplicaciones
científicas y militares y, últimamente, las frecuencias para la telefonía móvil y
las soluciones wifi y Bluetooth.
Esto significaba que, si en la banda del espacio radioeléctrico destinada a
televisión (tradicionalmente conocida como de muy alta frecuencia -Very High
Frecuency- o VHF) podían "caber” 12 canales en blanco y negro, sólo podría
haber espacio para 4 en color.
Triplicar el ancho de banda de la señal implicaba, además, graves problemas
tecnológicos por lo que se refiere al cableado, equipamiento, mezcla y almacena­
miento de la información. Todos los costes se multiplicarían asimismo por tres.

» El submuestro o muestreo parcial


Por esa razón, los ingenieros buscaron una solución que permitiría reducir el
ancho de banda de la señal a algo más razonable. En aquel tiempo, el concepto
de compresión digital no se manejaba, así que hicieron sus pruebas en función
del espectador medio (el naked eye u ojo desnudo, no el ojo experto del profe­
sional). Se buscaba una reducción de la información objetiva pero sin “pérdida
aparente” o subjetiva. En estas pruebas advirtieron que el ojo humano es muy
sensible a los cambios de contraste lumínicos, pero no tanto a los cambios de
tono o color.
Dicho con un ejemplo quiere decir que si caminamos por un denso bosque,
con profusión de colores verdes y pardos y muchas sombras, enseguida dis­
tinguiremos un conejo blanco: sabremos casi inmediatamente que es blanco y
también que es un conejo. Por el contrario, si el conejo es gris o pardo, proba­
blemente lo confundamos con un tronco o una piedra o, aunque se mueva, no
distinguiríamos su forma de la de cualquier otro animal (y por esa misma razón
de supervivencia, los conejos árticos son blancos, y no pardos).

» 92
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Bajo este razonamiento se decidió que una vez obtenida la señal YUV, la
luminancia era intocable pero que las otras dos señales, que juntas formaban
la crominancia, se podían reducir a la mitad sin que el "ojo desnudo” apreciara
una pérdida significativa de la calidad.
Es lo que la técnica llama submuestreo (subsampling) o muestreo parcial, y
entra dentro de las recomendaciones ITU 609 (para SD) y 701 (para HD), siendo
el estándar internacional de la televisión. Por esta razón se entiende que toda
señal YUV de televisión está submuestreada.

» Submuestreo analógico
En términos numéricos, la señal SD analógica tiene un canal Y con una cantidad
de muestras de 13,5 MHz, mientras la señal U tiene sólo la mitad, 6,75 MHz y V
otros 6,75 MHz.
En HDTV la señal Y tiene 75 MHz, U = 37,5 MHz y V = 37,5 MHz.
Como U + V = C, se dice entonces que el muestreo de luminancia Y es igual
al de crominancia C, en ocasiones referida en una señal multiplexada como la
subportadora de color (insistiendo una vez más en que crominancia no es la se­
ñal de color, sólo una parte de ella).

» TV 4:2:2
En digital se utiliza una convención numérica conocida como 4:2:2. Lo único que
quiere decir de manera muy arbitraria (se podían haber elegido otros números,
como 10:5:5) es que de cada 4 muestras de Y, sólo obtendremos 2 de U y otras 2
de V.
4:2:2 es el equivalente digital al espacio de color analógico YUV (si bien se
usan indistintamente). En ocasiones también encontramos las siglas Y Pb Pe,
que se refieren al muestreo parcial para señales de alta definición.

» 93
5. EL MUESTREO

» Cine 4:4:4
Como ya hemos dicho, el cine digital es siempre un formato 4:4:4, y como tal
siempre se transfiere así a los archivos que maneja. 4:4:4 es sinónimo de RGB.

EL espacio de color RGB es propiamente televisivo e informático. En ocasiones, las


soluciones de cine digital usan un espacio de color específico, conocido como XYZ,
ligeramente diferente, pero también con muestreo total 4:4:4. Se profundizará en estos
aspectos en la parte dedicada a la postproducción.

Incluso en la actualidad muchas cámaras de gama alta HDTV pueden trabajar


completamente con muestreos RGB, sin pérdida de información, por lo que
pueden considerarse ya cámaras del segmento HR.
Por definición, también los ficheros y formatos de gráficos (dpx, tiff, bmp,
png, etc.), así como todo lo relacionado con la informática, son siempre RGB,
sin submuestreo.

» Reducción de flujo de datos


Es fácil calcular que si una señal con muestreo completo RGB ocupa el 100 %
de un determinado ancho de banda, la misma imagen submuestreada en YUV
ocupa sólo el 66 %.
Esto quiere decir, ni más ni menos, que donde antes emitían 12 canales en
blanco y negro, pueden emitir hasta 6 canales en color YUV y no tan sólo 4 en
RGB.
La misma reducción de ancho de banda o bitrate del 33 % es igualmente
provechosa para el diseño y funcionamiento del equipamiento televisivo, redu­
ciendo costes. De ahí que el espacio YUV que no presenta pérdidas aparentes
de calidad, tenga grandes ventajas de orden económico.

» Pérdida de calidad efectiva


Por pura lógica, no obstante, también debemos comprender que una señal
4:2:2 YUV siempre tendrá menos calidad que una señal con muestreo completo
RGB 4:4:4. Las pérdidas en la parte de crominancia quizá no sean apreciables
por el espectador medio, pero sí lo son en el entorno profesional.
Por esa razón, 4:2:2 siempre será un estándar admitido en el mundo de la
televisión, pero un exigente trabajo de cinematografía digital optará por trabajar
con imágenes 4:4:4.
Esta tendencia se observa también en el mercado. Casi todas las cámaras que
hemos calificado como de Higher Resolution (HR) ofrecen una captación 4:4:4.

» 94
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

E incluso empiezan a aparecer equipamientos de HDTV que pueden ofrecer esta


opción. Después de todo, la conversión RGB/YUV es un proceso añadido al flujo
de información propio de la cámara, que encarece el equipamiento: todas las
cámaras captan la señal en RGB, y es una etapa interna la que convierte esta
señal original en YUV
En cuestión de monitorización, los televisores tradicionales de tubo de ra­
yos catódicos (CRT, analógicos) trabajan en YUV Pero esta tecnología está en
desuso. Sus sustitutos, los monitores planos tipo LCD, TFT, plasma y similares,
trabajan siempre en RGB al igual que cualquier otro equipamiento informáti­
co (si muestran señales YUV es porque internamente constan de un conversor
RGB/YUV en la entrada correspondiente).
Tecnológicamente, hoy no supondría ningún problema que toda la industria
televisiva trabajara en RGB. Excepto en el caso de las emisiones, por el tema
ya comentado de la limitación del espacio radioeléctrico. También hace tiempo
que se dejaron de vender televisores en blanco y negro. Sin embargo, la nece­
saria compatibilidad con los equipamientos previos, permiten que el 4:2:2 siga
siendo el estándar televisivo profesional, como recogen todas las normativas y
recomendaciones internacionales (véase página 394).

No es impensable suponer que a medio plazo las opciones de grabación y postproducción


de todas las cámaras sean 4:4:4. El 4:2:2 se mantendrá como una conversión final para
su posible emisión por las televisiones y canales tradicionales.

» Número de muestras
Si pensamos en digital, la reducción de muestras se realiza en el número de
muestras horizontales. Siempre mantendremos la resolución vertical.
En una señal HD 1.080, sabemos que cada canal RGB necesitará 1.920 x 1.080
píxeles o muestras para un “sampleo" (del inglés sampling) completo. Habrá pues
1.920 x 1.080 = 2.073.600 muestras del canal rojo, otras tantas del canal verde
y otras tantas del canal azul.
Sin embargo, en 4:2:2 tendremos 1.920 x 1.080 muestras de luminancia, y
sólo 960 x 1.080 de la señal U y otras 960 x 1.080 muestras o píxeles activos del
canal V
Evidentemente, esto no quiere decir que haya “huecos" entre píxeles, sino
que una muestra U ocupa el espacio de dos. Como veremos, a pesar de que
visualmente es apenas apreciable, este hecho puede producir distorsiones y
falta de precisión en procesos de postproducción. Un caso típico es el uso de un
chroma key o incrustación por llave de color, que siempre será más preciso, con
bordes más definidos, trabajando sobre soportes RGB que sobre soportes YUV.

» 95
5. EL MUESTREO

» 4:2:0 y 4:1:1
Además del estándar 4:2:2, la industria ha desarrollado equipamientos pensados
para el consumidor final o incluso prosumer que eliminan aún más la informa­
ción de crominancia. Y también en formatos de distribución como el DVD o los
vídeos a los que accedemos a través de internet. La idea es reducir aún más el
flujo de datos para tener una señal más manejable, que pueda caber en cintas o
soportes más pequeños y que necesiten menos potencia en ordenadores caseros
en el momento de la edición.
Son señales a las que también podemos calificar de “espacio color YUV”, con
submuestreo, pero no son brodcast o profesionales. Son soluciones comerciales
ofrecidas por la industria, pero no admitidas (si bien toleradas) por las normativas
internacionales y las cadenas comerciales. La calidad, una vez más, se resiente,
pero a favor de un flujo de datos más reducido (un 33 % de ahorro sobre 4:2:2 y
un 50 % sobre el RGB).
Es por ejemplo el muestreo parcial 4:1:1. En este caso, por cada 4 muestras
de luminancia, sólo obtendremos 1 de la señal U y 1 de la señal V
Una imagen de HD 1.080 con muestreo 4:1:1 nos daría entonces

Y = 1.920 x 1.080 muestras


U = 480 x 1.080 muestras
V = 480 x 1.080 muestras

Hay otra cifra más común: 4:2:0. En este caso es preciso recordar que la intuición
numérica debe obviarse y, asimismo, que el uso de esta numeración en base 4 es
puramente arbitraria. 0 no quiere decir que carezca de información de la señal V
sino que su lectura es distinta. Una señal 4:1:1 aplica el mismo submuestreo en
todas las líneas de resolución, mientras que 4:2:0 lo hace alternando las líneas:
en una, obtendrá 480 muestras de U y 0 muestras de V y en la siguiente lo alter­
nará: 0 muestras de U y 480 de V En sistemas interlazados, 4:1:1 submuestrea
cuadro a cuadro, mientras 4:2:0 lo hace campo a campo.
Esto es útil para los sistemas interlazados, pero también para los progresivos,
por lo que la tendencia es abandonar el submuestreo 4:1:1. En cualquier caso,
4:1:1 y 4:2:0 tienen la misma cantidad de información.
Para entender estos conceptos, interlazado y progresivo, cuadro y campo,
tenemos que seguir avanzando y pasar a definir el último de nuestros cuatro
términos básicos: la cadencia y su barrido.

Para profundizar aún más sobre otras cifras, como 3:1:1 o 4:4:4:4, véase el anexo corres­
pondiente.

» 96
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Recapitulación

• Una señal digital en color contará siempre con tres canales. Cada uno
de ellos tendrá un número de muestras igual al de los demás para poder
representar fielmente la realidad. Es el sistema conocido como muestreo
total, RGB o 4:4:4.
• Sin embargo, en el mundo de la televisión (y exclusivamente en él) se
permite reducir una parte de la información con objeto de asegurar la
compatibilidad con equipos antiguos, ahorrar costes y aprovechar mejor
el espacio radioeléctrico. Es lo que se conoce como muestreo parcial de la
señal, YUV o 4:2:2.
• En formatos de gama baja o de distribución se puede reducir aún más la
información (4:2:0, 4:1:1) para una mejor relación calidad/coste.

» 97
» 098
6. Cadencia y barrido

La cadencia

» Cadencia ideal
El número de imágenes por segundo (images per second, ips o fotogramas/frames
por segundo, fps) es lo que conocemos por cadencia o framerate.
Este número también nos habla de calidad, pues es evidente que cuantas más
imágenes por segundo mostremos, mayor será la fidelidad de la representación
real. Si tenemos un número escaso de imágenes, se producirá el efecto conocido
como "parpadeo" o fliqueo (del inglés flicker) de la imagen, con la sensación de
que se desvanece entre dos fotogramas.
Lo primero es señalar que la cadencia siempre ha sido un compromiso entre
calidad y economía. Análisis técnicos indican que la cadencia ideal para una
representación “real", sin sensación de parpadeo, estaría en torno a los 72 ips.
Pero por razones económicas nunca se ha ofrecido esta cantidad de fotograma
Actualmente, tampoco ningún estándar de cine o televisión alcanza este núme
ro, pero no es descartable que lo pudiera hacer en el futuro. La tecnología actual
digital lo permite y en digital el capítulo de costes no se encarece tanto como
en fotoquímico.

» Cadencia en el cine
En cine el compromiso viene dado, una vez más, por el coste del material Rodar
con cadencias muy altas significa aumentar proporcionalmente el gasto en
negativo. De la misma manera, las ya de por sí voluminosas copias positivadas
(cuatro o cinco rollos de gran tamaño) también aumentarían, complicando su
distribución en las salas.
Durante los primeros años se probaron diferentes cadencias, siendo la más
popular la de 16 fps de la mayoría de las películas del cine mudo. Para evitar
el parpadeo, se proyectaba hasta tres veces cada fotograma. Sin embargo, aun
así era más que evidente. Posteriormente, se optó por el compromiso de rodal

» 99
6. CADENCIA Y BARRIDO

24 fotogramas (un gasto superior en negativo) proyectando en sala dos veces el


mismo fotograma, por lo que la cadencia que realmente ve el espectador es de
48 ips.

La recomendación actual para el cine digital de la DCI mantiene la cadencia tradicional


de 24 ips, pero con la posibilidad de aumentarla a 48 en los formatos 2K. La cadencia de
48 ips en formatos 4K puede resultar un poco excesiva por el gran tamaño de los ficheros,
pero una vez más no es descartable en un futuro a medio o largo plazo.

>> Televisión: diferentes cadencias


El compromiso en el caso de la televisión no es tanto de calidad/coste como
de calidad/flujo de datos. Dado que el "material virgen" televisivo (cinta o disco
duro) no es excesivamente caro en comparación con el del cine, no supondría
mucho problema de coste aumentar la cadencia. Pero sí de ancho de banda
o flujo de datos: si doblamos la cadencia, también doblamos la cantidad de
información.

Por razones tecnológicas, que no comerciales, los sistemas de televisión


optaron por cadencias similares pero un poco diferentes a las del cine.
En concreto, en los sistemas PAL y SECAM se optó por los 25 ips, y en los
sistemas NTSC por una cadencia un poco extraña, 29,97 ips.
La razón de esta divergencia tiene que ver con la frecuencia de la red eléctrica
en los distintos continentes. En Europa, la red de corriente alterna circula a
50 Hz, mientras que en Estados Unidos de América circulaba a 60 Hz. En los
primitivos sistemas de televisión, esta frecuencia se usaba para sincronizar la
señal, de ahí su utilidad.

» 100
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

La cadencia tradicional del NTSC es siempre 29,97 ips. Sucede sin embargo que por
comodidad se redondea esta cifra a 30 ips. Para profundizar sobre este tema, véase el
anexo Non Drop Frame

» Cadencia HD
Con la tecnología digital actual, la frecuencia de la corriente alterna es indife­
rente, pues ya no se precisa para una sincronización de la señal. Por esa razón,
dado que los sistemas HD vienen a superar las viejas diferencias entre NTSC
y PAL, sería conveniente que se estableciese una única cadencia para todas
las producciones, bien sea 24, 25 o 30/29,97. No obstante, hay implicaciones
comerciales y de compatibilidad con los sistemas antiguos que hacen que, a día
de hoy, esta cadencia universal no esté definida.
Por ello, la inmensa mayoría de los equipos actuales permiten, además del
trabajo multiformato en SD y HD, escoger entre todas las diferentes cadencias
admitidas.

» 23,976
Las pequeñas diferencias entre las cadencias en cine y en televisión generan,
no obstante, grandes problemas. Por ejemplo, cuando queremos adaptar para
televisión una película rodada en cine 24 ips.
La transferencia entre los 25 ips del PAL y los 24 ips no es muy problemática
(un 4% de diferencia temporal). Suele hacerse respetando todos los fotogramas

» 101
6. CADENCIA Y BARRIDO

de la imagen, sin eliminar ninguno, y alterando un poco la banda de sonido. Lo


mismo sucede si rodamos digitalmente a 25 ips y luego lo distribuimos en salas
a 24 ips.
En el caso del NTSC, los 24 ips se pasan a 30 (29,97 ips) mediante un sistema
algo más complicado conocido como pull down (véase el anexo), aprovechando
características de la señal de vídeo interlazada (que veremos ahora).
Sucede sin embargo que el proceso pull down debe eliminar un fotograma
de cada mil para que la sincronización temporal entre 24 y 29,97 se mantenga.
Para evitar la pérdida de este fotograma se desarrolló una cadencia más precisa,
de 23,976 ips (en ocasiones se nota redondeando a 23,98). Con esta cadencia,
no es necesario eliminar ningún fotograma del contenido.
Dado que 23,976 y también en el 29,94 es muy compatible con la cadencia
del cine 24 ips, y también con la tradicional de la zona PAL, 25 ips, algunos
técnicos la proponen como la cadencia universal que deberían adoptar todos los
sistemas de cine y televisión digital. Personalmente, creo que esto no sucederá, y
seguirá habiendo diferentes cadencias en las señales digitales. No obstante, en
un trabajo previsto para distribuir internacionalmente de manera muy amplia,
incluyendo estreno en salas comerciales de cine, 23,976 puede ser una elección
interesante, sobre todo en territorios tradicionales del NTSC.

» 102
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El barrido

Hemos hablado de 25 y 30 ips refiriéndonos a la televisión, pero debemos ser


aún más precisos.
El otro gran elemento a tomar en cuenta en el ámbito de la televisión es la
diferencia entre el barrido interlazado (interlaced) y el progresivo (progressive)
Esta palabra es una traducción un tanto desafortunada, que puede inducir a
confusión. Lo más correcto sería hablar de "barrido continuo”, pero el término
"progresivo” es el que se ha impuesto).
El origen del barrido interlazado se debe a dos motivos: por un lado, evitar
el efecto de excesivo parpadeo que tienen las cadencias bajas (24, 25 o 30 ips
lo son). Y por otro lado, corregir un defecto técnico de los televisores de tubos
catódicos que están en el origen de la televisión.
La solución fue hacer un barrido interlazado de la imagen. En los sistemas
de televisión tradicional, una imagen completa o cuadro [frame) se divide en
dos campos (fíelds) diferentes. Pero no es una división horizontal o vertical, sino
por líneas pares e impares.

/ Barridos /

Interlazado (i)
La imagen la componen dos campos de líneas: pares e impares

» 103
6. CADENCIA Y BARRIDO

Resaltar que el interlazado es, como el espacio de color YUY propio del mundo televisivo:
en cine no existe el rodaje interlazado, sino que siempre se trata de imágenes completas sin
separacion de campos.

Así pues, una imagen de 1.080 i (i de interlazada) está compuesta de dos campos
diferentes cada uno de ellos de 540 líneas. Uno corresponderá a las líneas impa­
res o superiores (even, up): 1, 3, 5, 7, 9.......................hasta 1.079; y otro a las líneas pares
o inferiores (odd, down): 2, 4, 6, ..., hasta 1.080.

» 104
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

» Captación en diferentes momentos


Estos dos campos, además, tienen una pequeña diferencia temporal en la capta­
ción: exactamente 1/50 de segundo. Una señal interlazada no toma 25 cuadros
completos cada segundo y luego los divide en 50, sino que toma nativamen­
te 50 campos incompletos. Un campo daría de por sí una imagen con saltos
de información. Sólo dos campos (fields) unidos en un cuadro (trame) dan una
información completa. Lo que sucede es que esos dos campos no se han cap­
tado al mismo tiempo, sino sucesivamente: la cámara primero capta un campo,
lo almacena, y luego capta el campo siguiente. Esto supone que entre ambos
campos hay una diferencia de un mínimo de 1/50 de segundo (la velocidad de
obturación mínima para obtener 50 campos por segundo).
En imágenes estáticas, como un bodegón, donde no hay movimiento, esta
diferencia es inapreciable. Pero en imágenes con movimientos rápidos, como un
partido de fútbol o una carrera de cien metros libres, la diferencia entre un campo
y otro puede ser muy grande, pues el objeto ha cambiado apreciablemente de
posición en esa pequeña fracción de segundo. Si unimos los dos campos en un
solo cuadro estático, observaremos el conocido efecto de "dientes de sierra”.

» La captación interlazada exige emisión interlazada


El barrido interlazado es una tecnología que no causa ningún problema en el
mundo televisivo, ni siquiera en el de la alta definición, siempre y cuando toda la
cadena de producción (desde la captación hasta la emisión) se realice siempre
en interlazado. El problema surge cuando, por ejemplo, usamos una cámara de
alta definición que trabaja en interlazado para un rodaje cinematográfico. Antes
o después, tendremos que pasar esa imagen interlazada a un modo progresivo,
que es el propio del cine, y entonces observaremos sin ninguna duda el efecto de
dientes de sierra. Hay sistemas actuales que desentralazan la señal, pero o son
muy burdos (como eliminar un campo y doblar el otro) o son muy laboriosos y
lentos (mediante comparaciones entre los dos campos y los cuadros siguientes).
Por esa razón, hay que descartar el barrido interlazado para un trabajo que se
prevé distribuir en salas de cine.
En caso de duda, también hay que optar por el progresivo. Hay que recor­
dar que traspasar un cuadro progresivo en dos campos interlazados no genera
ningún defecto visual apreciable, tan sólo un ligero aumento del "parpadeo”
que muchos espectadores asocian al "look” cine, por lo que es una opción es­
tética muy valorada.
También señalaremos que los viejos monitores de tubo de rayos catódicos
(CRT) trabajan en interlazado. Sin embargo, los monitores actuales trabajan

» 105
6. CADENCIA Y BARRIDO

originalmente en "progresivo". Sólo aquellos con una etapa previa de conversión


nos permiten ofrecer las imágenes también en interlazado sin problemas de
visionado.

» Ventajas y desventajas del progresivo: resolución dinámica


Por lo general, se entiende que los sistemas progresivos tienen una mayor
calidad debido a que su resolución real es el doble que el mismo formato en
interlazado. Tiene una mayor “resolución estática” o vertical.
Sin embargo, no podemos olvidar que el interlazado tiene más "resolución
dinámica”. Toma el doble de muestras de la realidad por segundo que el progre­
sivo. Produce sensaciones más fluidas, con menor efecto parpadeo.
Como hemos dicho antes, en una carrera de cien metros (apenas diez se­
gundos), el progresivo captará 250 imágenes de 1.080 líneas, pero el interlazado
tendrá 500 imágenes de 540 líneas. ¿Quién ofrecerá mejor reproducción de la rea­
lidad de cara al espectador? En este caso, probablemente el interlazado. La ca­
rrera tendrá una representación más fluida en interlazado que en progresivo.

» Limitaciones a la obturación
Hay que tener en cuenta otro aspecto relacionado con la captación fotográfica: la
obturación. Generalmente, la obturación en cine y televisión no es muy rápida:
1/48, 1/50, 1/60 de segundo. Esto provoca el efecto filage, como una mancha
borrosa en el fotograma si el objeto se mueve a gran velocidad (en el mundo
infográfico CGI se habla de motion blur para referirse a este efecto). Para evitarlo,
la solución es obturar a mayores velocidades: 1/250 de segundo nos daría una
imagen perfectamente definida del objeto en acción, sin filage. Pero, al hacerlo,
lo que obtendríamos es otro efecto indeseable: el llamado "estroboscopio".

» 106
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Tendríamos en un segundo 25 imágenes, pero la diferencia entre cada una de


ellas no sería de un veinticinca de segundo, sino de mucho más. Habría
mucha parte de la acción que nos perderíamos: un brazo estaría en alto en un
fotograma y en lo más bajo en el siguiente. Al contemplarlas seguidas, produciría
la sensación de que la imagen va “a saltos”, sin la continuidad de movimiento
que pretendemos simular. Es un efecto parecido a las luces estereoscópicas tan
populares en las discotecas, y por eso se conoce como “efecto estrobo”.
En general, una imagen tradicional de cine se capta a 1/48 de exposición, y
podría hacerse incluso a 1/96. Más allá de eso, el estorbo se haría evidente. Pero
en interlazado, una vez más, podemos siempre reducir la exposición, evitando
el filage, lo que en ocasiones nos resultará muy práctico.

» Cadencias interlazadas
Hasta hace pocos años, se notaba la cadencia de televisión como 25i, o 29,97i.
Posteriormente, al popularizarse las cámaras con opción progresiva, se hablaba
de 25i y de 25p. Pero para evitar confusiones, actualmente se ha optado por
notarlo más correctamente como 50i/25p, ya que las cadencias interlazadas
realmente generan 50 imágenes por segundo (si bien campos, y no cuadros).
Esta “nueva" terminología nos obliga a ser cuidadosos. Hay que tener cui­
dado, por ejemplo, con los redondeos del NTSC. Hoy en día se puede grabar en
59,94i, en 59,94p e incluso en 60p. Y para complicarlo aún más, en ocasiones
se usa 60p como redondeo de 59,94p (notándolo como drop frame, 60p DF o
similar, véase el anexo), y en ocasiones no. Hay que leer muy bien los manuales,
no queda otra opción.

» Cadencias del futuro


La solución sencilla para disfrutar de todas las ventajas del progresivo (mejor
resolución horizontal) y las del interlazado (mejor resolución dinámica) sería
doblar las cadencias estándares.
Como ya señalamos, los tradicionales 24 fps del cine son realmente pocos, lo
cual obliga a que en las salas se proyecte dos veces cada fotograma para evitar
el efecto parpadeo. Por eso se propone pasar a cadencias digitales de 48 fps
nativas. En televisión hablaríamos de cadencias de 50p/60p. Evitaríamos al
mismo tiempo los defectos del interlazado (el "diente de sierra") y del progresivo
(filage).
Algunas televisiones importantes, como la BBC, han anunciado sus pruebas
de HD en esas cadencias progresivas tan altas.

» 107
6. CADENCIA Y BARRIDO

» Cine: 48 fps, 72 fps...


Dado que el motivo fundamental de la baja cadencia del cine es el coste del
negativo, el trabajo con equipamientos digitales obvia este impedimento. El cos­
te de una cinta digital o un disco duro es casi inapreciable con respecto al coste
fotoquímico, por lo que en la actualidad sería económicamente factible captar
imágenes a 48 fps.
Por esta razón, como hemos señalado, la normativa DCI prevé esta posibilidad
en el futuro más cercano, al menos para el formato 2K. Para el formato de
4K implicaría doblar su ya de por sí alto flujo de datos, por lo que DCI no lo
incluye. Sin embargo, a medida que evolucionen los equipamientos, podrá llegar
a posibilitarse esta cadencia también en 4K.
Rodando a 48 fps evitaríamos asimismo la "doble proyección" que actual­
mente se lleva a cabo en las salas para evitar el parpadeo. Y, como ya hemos
visto, los expertos entienden como cadencias libres de parpadeo velocidades
iguales o superiores a los 72 ips, por lo que quizá también en un futuro ésta
será la cadencia ideal para la proyección cinematográfica.

Las obras estereoscópicas, popularmente conocidas como 3D (véase el anexo), exigen


doblar la cadencia, pues se obtiene un fotograma distinto por cada ojo. En la proyección
digital estereoscópica esto lleva a doblar también la cadencia, o incluso a triplicarla
(144 hz) para una mejor visión, pues la proyección digital estereoscópica conlleva una
pérdida de luminosidad, de ahí la solución del “triple flash". Es obvio señalar que esta
cadencia es sólo de proyección, no de captación ni del archivo.

» Televisión i/p
En el caso de la televisión, también es posible trabajar en la actualidad con el
doble de cadencia. El único problema en este caso sería el de la transmisión de
la señal.
Hay que tener en cuenta que una cadencia de 50p (50 cuadros completos
progresivos) supone exactamente el doble de datos que la misma señal 50i (50
campos, 25 cuadros). La limitación del espacio radioeléctrico impediría doblar
la cadencia de una señal 1.080. Pero, sin embargo, no podemos olvidar que una
señal 720 tiene algo menos de la mitad de bitrate que el 1.080, por lo que al­
gunos expertos señalan que el 720 50p (o 60p) puede ser una alternativa muy
interesante al 1.080 50i, con igual flujo de datos.
La adopción de estas altas cadencias supondría la desaparición definitiva
del barrido interlazado (en ningún caso se prevén cadencias de 100i o 120i).

» 108
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL
6. CADENCIA Y BARRIDO

» ¿Una cadencia universal?


Según todo lo dicho, resulta evidente que una de las mayores complicaciones
de los formatos en la actualidad son las diferentes cadencias de trabajo. Pe­
ro, paradójicamente, es quizá la más sencilla de corregir. Muchos especialistas
piensan que se tendría que optar por una única cadencia universal, válida tanto
para cine como para televisión, y para los entornos PAL como NTSC. Sería la ca­
dencia del Common Interchange Format o formato de intercambio común (CIF)
Esta cadencia es, para algunos, la mencionada 23,976 fps, por su versatilidad
a la hora de compatibilizarse con las demás.
Sin embargo, es de por sí una cadencia extraña, con decimales, y aunque
sirve para solucionar los problemas del NTSC, no aporta ninguna ventaja ni al
PAL ni al cine. Sobre todo cuando éstos ya hablan de cadencias que doblan su
número. ¿Veremos una opción de 47,952 ips? No sería lo normal.
Mientras tanto, nos queda seguir lidiando con las diferentes cadencias de
trabajo, que quedarían resumidas en el cuadro de la página anterior.

NOTA: en este gráfico no se ha incluido la cadencia 30p/30p NDF por ser poco habitual
en los sistemas profesionales. Se encuentra, no obstante, en algunos equipamientos
domésticos.

Recapitulación

• Las diferentes cadencias con las que se trabaja en el mundo profesional


tienen un origen técnico que las limitó y diferenció desde el principio. Se
mantienen hoy en día por una cuestión de compatibilidad en la evolución
de los sistemas.
• Sería recomendable el uso de una única cadencia para todos los formatos
de cine y televisión digital, pero razones comerciales pueden impedirlo.
Mientras tanto, tendremos que convivir con las diferentes opciones here­
dadas.
• En la actualidad, la mayor parte del equipamiento se fabrica para el mer­
cado global. Por esa razón, muchas de estas cámaras y equipos de edición
postproducción ofrecen todas las posibles cadencias.
• El barrido interlazado es propio del mundo televisivo, y produce aberracio­
nes al trasladarse a sistemas progresivos. Por ello, la tendencia más clara
a día de hoy es trabajar siempre con cadencias progresivas, compatibles
con todos los sistemas.

» 110
7. Definición de formatos: peso y flujo

Formatos estandarizados

Con los elementos estudiados, ya no necesitamos saber más para entender de


formatos digitales. Por eso insistiré en el siguiente enunciado:

Cualquier solución estándar o comercial en el terreno del audiovisual digital,


ha de venir definido por estos cuatro parámetros:

• Resolución
• Profundidad de color
• Muestreo
• Cadencia

De manera general podemos decir que los dos primeros son los verdaderamente
importantes para definir de manera objetiva la calidad de un formato. Y los otros
dos son particularidades heredadas de la evolución histórica, tanto del cine
como de la televisión.
En el terreno práctico nos encontramos con dos tipos generales de formatos
(señales, ficheros, sistemas..., como se quiera decir).

• Estándares
• Comerciales

Los primeros son aquellos definidos por organismos internacionales (ITU, SMPTE,
ASE/EBU...) que velan por la compatibilidad.

» Compresión
Los segundos son soluciones que los fabricantes introducen en el mercado
por cuestiones comerciales, generalmente ofertando diferentes relaciones ca­
lidad/precio. En este ámbito empezaremos a hablar de códecs de compresión,

» 111
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

pues los estándares televisivos siempre se definen sin compresión (1:1, uncom-
pressed, none).
La compresión será el quinto elemento importante de un formato comercial.
Se deja al arbitrio de las empresas el uso de códecs de compresión que
flexibilicen los flujos de trabajo. Estos códecs pueden ser “abiertos" (accesibles
a todas las soluciones) o “propietarios" (exclusivos de una marca o empresa),
dependiendo de la política comercial de su desarrollado!

La comprensión sí es estándar a la hora de distribuir la señal, por motivos ya explicados.

» Formatos TV
La compatibilidad es crítica sobre todo en el mundo de la televisión. No podíamos
pensar en un mundo donde el consumidor tuviera que elegir su televisor en
función de los canales que desea ver. Todos los emisores deben trabajar con los
mismos estándares para facilitar el acceso de la audiencia.
Por eso, la industria de la televisión mundial trabaja con dos estándares digi­
tales: SDTV o definición estándar (Standard Deñnition) y HDTV o Alta Definición
(High Defnition). En el momento actual, estamos en pleno proceso de transición
entre estos dos estándares, por lo que lo más común es que el equipamiento
siempre sea compatible entre ambos.

» Standard Definition (SD)


Tenemos que recordar que se adaptaron hasta tres sistemas SD, dependiendo del
país. La razón de esta decisión se debió a motivos económicos o técnicos. Entre
los motivos económicos más importantes está la fabricación de equipamiento
y royalties ligados a licencias. Por lo general, un país (o un grupo de ellos,
como es la Unión Europea) intentará crear sistemas que su propia industria
pueda fabricar, sin depender del extranjero o del pago de costosas licencias
industriales.

» SD analógico
En el mundo analógico de la televisión se establecieron hasta tres sistemas de
televisión: NTSC, PAL y SECAM.
NTSC son las siglas del National Telecomunication Standard Committee,
que es el organismo encargado de ordenar el espacio radioeléctrico en Estados
Unidos. NTSC es el conjunto de normas de la televisión en ese país, en muchos
países americanos dentro de su órbita de influencia, en Filipinas y otras partes

» 112
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

de Asia y, muy importante, en Japón (es importante porque gran parte de las
grandes industrias de equipamiento tienen su sede en ese país).
PAL son las siglas (Phase Alternating Liné) de un sistema de origen alemán
desarrollado por Telefunken. Mejora el sistema de color del NTSC y tiene una
resolución mayor (625 líneas frente a las 525 del NTSC). Como ya indicamos,
la cadencia es también diferente, esta vez por los motivos técnicos expuestos:
59,94i para el NTSC y 50i para el PAL. Es el sistema europeo por excelencia. Al ser
adoptado asimismo por Gran Bretaña, es también mayoritario en sus antiguas
colonias, excepto Canadá. Otros países como China, Argentina o Brasil también
lo adoptaron.

Hay algunas diferencias entre los países, las cuales nos llevan a hablar de PAL-B, PAL-G,
PAL-H...; no obstante, todos son compatibles de una forma u otra.

El último sistema analógico es el SECAM (Séquentiel Couleur a Mémorie),


creado por Francia y común en muchas de sus antiguas colonias. Por razones
políticas, en plena Guerra Fría, la Unión Soviética también optó por este sistema.
La mayor diferencia entre este sistema y el PAL es la resolución, superior a las
700 líneas. Pero comparte con éste la cadencia de 50 ips.

» SD digital
El paso de los sistemas analógicos a los digitales podía haber sido un buen
momento para crear un solo estándar, pero no fue así. No obstante, el sistema
SECAM desaparece (no hay un SECAM digital) y los países con estas normas
optan por el PAL.
Así pues, en definición estándar digital nos encontramos actualmente con
dos estándares bien definidos: NTSC y PAL.
Una manera también corriente de notarlos es SD 576 (para el PAL) y SD 480
(para el NTSC).

Formatos SDTV

Como se observa, el muestreo siempre es 4:2:2 y la profundidad de color de


8 bits. Son estándares interlazados, si bien algunos equipamientos permiten
trabajar en SD progresivo.

» 113
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

>> Formatos High Definition (HD)


A pesar de que las primeras pruebas de la alta definición se hicieron con sistemas
analógicos (en la década de 1960), actualmente el mercado no ofrece estas
soluciones: la alta definición siempre será digital por definición.
Como hemos repetido antes, ahora mismo estamos en un proceso de evolu­
ción desde el SD a la HD. Hubiera sido también un excelente momento para
contar con un solo formato universal, el denominado CIF universal (Common
Interchange File o Common Interchange Format). Sin embargo no ha sido así.
La ITU admite dos resoluciones distintas, 720 y 1.080. Y en la cuestión de
las compatibilidades entre los sistemas precedentes, NTSC y PAL, faltaría por
definir una cadencia común. La solución ha sido admitir todas las posibles
cadencias en curso: 23.98p, 25p, 29,97p, 50i, 59,94i, 60p.

Formatos HDTV

Formato resolución muestreo prof. bits cadencia

1.080 1.920 x 1.080 4:2:2 8


i/p
720 1.280 x 720 4:2:2 8 P

Originalmente, el formato 1.080 era interlazado y el 720 progresivo. Las pruebas


técnicas demostraban que ambos eran, por esta razón, similares en cuanto a
“definición y nitidez”.
Sin embargo, la tecnología actual permite ya la captura en 1.080 progresivo.
Por ello, muchos auguran que el 720 es un formato llamado a desaparecer, pues
en este caso sí se puede decir que un 1.080p es superior a un 720p. Pero, por
otra parte, como ya indicamos, algunos defienden el 720 como un gran formato
de distribución, pues ocupa más o menos la mitad del espacio que precisa el
1.080. Esto presenta tres grandes ventajas comerciales:

• Una emisión 1.080 ocupa el mismo bitrate que dos de 720, con la consi­
guiente ampliación de la oferta.
• Los televisores 720 (conocidos popularmente como HD Ready) son más
baratos y más pequeños que los de 1.080 (Full HD).
• El menor flujo de datos del 720 permitiría aumentar la cadencia, lo cual
incrementaría la “resolución dinámica” de este formato. Hoy en día, es
difícil contar con sistemas 1.080 50p, pero sí existen soluciones 720 de 50
y hasta 60 imágenes progresivas.

» 114
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En cualquier caso, y mientras la industria y los organismos internacionales


no definan finalmente sus políticas, tendremos que trabajar en un mundo HDTV
con dos resoluciones:

• 720p
• 1.080 i/p

» ¿Otros formatos?
En ocasiones, en el ámbito de internet podemos ver formatos como el HD 480p.
¿Existe realmente un formato de alta definición de sólo 480 líneas verticales?
En realidad, este supuesto "formato de alta definición” no es tal. Era sólo un
truco publicitario para atraer a la audiencia. También es habitual encontrarse
dispositivos de fotografía digital que ofrecen la posibilidad de grabación de vídeo
con formato VGA (640 x 480). ¿Es el VGA un estándar profesional? Tampoco.
¿Por qué sucede todo esto? Hay que insistir en que la HDTV sólo admite dos
formatos: 720p y 1.080i/p. Las cámaras de fotos no son herramientas broadcast
(si bien algunas empiezan a ofrecer opciones HD 720 o 1.080, que sí serían
HDTV), y los responsables de marketing de algunas empresas tampoco son
personas fiables en cuestiones técnicas, claro. Pero la cuestión de fondo viene
por el uso de los nuevos sistemas de distribución.

» El mundo IPTV
La televisión por internet (IPTV, Internet Protocol TeleVision, o televisión bajo
el protocolo de internet) no tiene ningún estándar, porque tampoco lo necesita.
O al menos no tan marcadamente como la televisión tradicional.
En primer lugar, el tamaño o resolución de las pantallas viene definido por
la industria informática, no por la de la televisión. Y esta resolución aumenta
a medida que los procesadores y las tarjetas de vídeo lo permiten. No existen
límites a la vista.
En segundo lugar, y por esta misma razón, la relación de aspecto no ha de ser
única. Si en HD sabemos que siempre tendremos una relación de 16/9, nadie nos
impide colgar en internet un formato con una relación cuadrada 1/1, una muy
apaisada 3/1, o una vertical 2/3. El ordenador puede leer esa señal y mostrarla,
bien de forma nativa o ajustándola a la pantalla, escalándola.
El último término importante en IPTV es el ancho de banda. La televisión
tradicional está limitada por el espacio radioeléctrico. La IPTV por el ancho de
banda de internet que llegue a los hogares, que como sabemos crece cada año.
La televisión tradicional presenta además otro inconveniente: tiene que emitir

» 115
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

una única señal que todos los receptores entiendan. Esto obliga a usar para
las emisiones digitales un único tipo de códec, el cual será descifrado por el
receptor situado en nuestra casa. No se puede pensar de la noche a la mañana
en cambiar el códec de emisión, pues obligaría a cambiar todos los receptores.
En internet, en cambio, sí sería posible: es posible hacer una emisión con dos
formatos diferentes, donde el espectador elige el más adecuado a su conexión.
También se pueden realizar actualizaciones casi automáticas del software re­
productor de nuestro ordenador. Esto supone una gran ventaja, pero también un
inconveniente: la selva de los diferentes códecs y reproductores que nos ofrece
ahora mismo la red: Windows Media Player, Quick Time, iTunes, Real Media Pla-
yer, Divx, etc., cada uno con sus diferentes algoritmos y códecs de compresión.
Dado que el futuro de la televisión, del cine y del audiovisual en general
está en internet, habrá que estar atentos a estos posibles cambios. Pero te­
niendo en cuenta el poder de la industria televisiva, tanto en producción de
contenidos como en fabricación de herramientas, es lógico pensar que a la
larga se impongan los formatos propios del HDTV a la IPTV y no al revés.
Mientras tanto, ningún formato inferior a 720 puede ser considerado alta
definición. Y cualquiera que sea diferente a 720 o 1.080, tampoco se puede
considerar profesional o broadcast.

» Cine
El caso del cine es un poco más peculiar.
Hasta ahora, en su formato fotoquímico, era un sistema muy universal: en
casi cualquier parte del mundo se contaba con un proyector de 35 mm y un
lector de sonido óptico. Por eso se hablaba del 35 mm como "paso universal".
Con la digitalización, surge el problema de las diferentes soluciones comer­
ciales posibles. Como ya hemos comentado, al contrario que el mundo de la
televisión y la radio, el cine no tiene un organismo internacional que vele por
sus estándares.
Por esa razón, lo común en esta industria es mirar hacia el lado de los
productores de contenidos. A nivel mundial, casi el 80 % de la recaudación se
genera por producciones salidas de Hollywood, California, Estados Unidos, por
lo que la industria de cine ha de tener en cuenta sus propuestas. Esto tiene
una implicaciones comerciales y políticas que, sin ser éste el libro que las trate,
no hay que perder de vista. Por ejemplo, países como China, India, Egipto o
Nigeria, que son grandes productores de largometrajes de gran éxito comercial
en sus territorios y zonas de influencia (allí el contenido norteamericano no tiene
apenas mercado), podrían también impulsar sistemas propios más acordes con

» 116
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

sus intereses. No les faltaría razón, pero se perdería entonces una de las grandes
virtudes del cine: su universalidad de acceso.
Asociada a esa falta de estandarización internacional, el cine digital puede
presentar una serie de formatos que varían unos de otros, si bien ligeramente.
Reseñando esta salvedad, me detendré sólo en los estándares más comunes en
el trabajo cinematográfico actual.

» Digitalización de fotoquímico
Una de las maneras comunes en el trabajo cinematográfico actual es rodar con
material fotoquímico y transferir los fotogramas posteriormente a información
digital.
Éste es un sistema originalmente desarrollado por Kodak en los años noventa
(Cineon), y para ello se almacenaba la información no en una cinta de vídeo
sino en discos duros en forma de secuencias de ficheros o imágenes. A partir
de ese desarrollo se originó el formato DPX (Digital Picture eXchange), que es
el que normalmente se usa en la actualidad para esta transferencia.
Es decir: un largometraje de 90 minutos a 24 fps nos resultaba en 24 x 60 x 90
= 129.600 ficheros dpx; individuales, pero numerados correlativamente.
Actualmente, la mayoría de los largometrajes comerciales se ruedan con
Ventanilla Abierta (Full Aperture), con una relación de aspecto cercana al 1,33,
así que normalmente se transfiere esta información tal cual, bien a 4K o a 2K.
Así pues, tendríamos los siguientes formatos de digitalización:

Formatos cine digital FA

Formato resolución muestreo prof. bits cadencia

4K 4.096 x 3.112 4:4:4 10 log 24 p

2K 2.048 X 1.536 4:4:4 10 log 24 p

La característica principal es que nunca hablaremos del espacio de color YUV


propio de la televisión, sólo en RGB o 4:4:4 (en ocasiones, encontraremos la
notación XYZ, que difiere un tanto del RGB tradicional, con una gama un po­
co más amplia o wide gamut\ hablaremos de ello en la parte dedicada a la
postproducción).
También es característico de estos formatos una mayor profundidad de color,
con cuantificación logarítmica que simula el propio comportamiento del soporte
fotoquímico.

» 117
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0

Para profundizar en el concepto de lineal vs logarítmico, véase el anexo dedicado al tema.

Recordemos también que el barrido interlazado no existe en el entorno cinema­


tográfico: siempre es progresivo.

» Captación digital
Si la opción es rodar directamente en digital, entonces hablamos de cámaras de
alta resolución, que superan los estándares definidos para la HDTV
Tal como explicamos, el estándar HDTV se acota por las cifras 1.080/4:2:2/8
bits, con cadencias de la zona NTSC o PAL (60i o 50i, generalmente). Cualquier
opción que supere este estándar ya sería considerado HR. Bien pudiera ser
aumentando la resolución (de 1.080 a 2K, por ejemplo), el muestreo (total 4:4:4,
en vez de parcial) o la profundidad de color (1 0 , 1 2 bits). O todas estas opciones
juntas.
Aquí nos encontramos generalmente con una limitación técnica: grabar
en cinta o en soporte rígido (disco duro, tarjeta, memoria RAM...). Las cintas
estándares tienen limitado su flujo por sus propias características físicas. Es
difícil aumentar su capacidad y/o velocidad sin cambiar también el aparato
reproductor y grabador o la propia cinta. Asimismo, la cinta se asocia al medio
televisivo, por lo que tiende a trabajar con sus formatos (1.080 en vez de 2 K).
Por esta razón, si trabajamos en cinta podemos hacerlo en 4:4:4 o 10 bits, pero
difícilmente en 2K o 12 bits. Sería pues una HD "aumentada", como el caso del
HDCAM SR, que graba 1.080/4:4:4/10 bits

Formatos HR

Formato resolución muestreo prof. bits cadencia

HD 1.080 4:4:4 10 24/23,98 p

DC 2K, 4K 4:4:4 10, 12 24 p

En el caso de otras resoluciones más altas, como 2K o 4K, se recurre a soporte


rígido, que permite mayores flujos de datos. Lo denominaríamos ya propiamente
“DC”, cine digital.

» Cadencias en el cine digital


En cuanto a la cadencia, tratándose de cine, se tiende al 24 fps. El barrido
entrelazado es totalmente desaconsejable. En la zona PAL se usa también la
opción 25p, por su fácil conversión. Y por las razones ya expuestas, se ha ar­

» 118
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

ticulado la opción 23,976 progresiva. Las cadencias 30p y 29,97p no son nada
aconsejables. En inglés se usa el término “unusable" para estas dos opciones,
pero no porque sea una mala solución, inutilizable, sino porque es poco útil
(sería la correcta traducción de unusable). El 30p es una cadencia tan válida
como cualquier otra, y técnicamente superior por su mayor resolución dinámica
a 24 o 25p. Lo que sucede es que su conversión a estas dos cadencias es
muy deficiente. Hemos visto en el anexo correspondiente que la técnica del
“pulldown”, es aplicable al 29,97 entrelazado, no al progresivo. Para pasar de 30p
a 24p sólo tenemos malas opciones: o bien eliminar 6 fotogramas por segundo;
o bien recalcularlos todos mediante complejos algortimos (con la pérdida de
tiempo, y en ocasiones de calidad, que supone); o bien acelerarlos (con pérdida
de sincronía con el audio)... Dado que en salas de cine nos pedirán 24p y en
la zona PAL 25p (o 50i), rodar a 30p sólo es válido para distribución en la zona
NTSC o bien para internet, por lo que profesionalmente, suele evitarse.
No obstante, algunas cámaras domésticas lo utilizan. Y también muchos
modelos de las novedosas DSLR-HD (cámaras de fotografía fija con opción HD).
Esto se debe al origen de muchos de estos modelos, Japón, que siendo de la
zona NTSC no advierte este problema. Afortunadamente, los fabricantes están
corrigiendo este problema ofreciendo opciones 24 o 25 progresivas mediante
actualizaciones de firmare o en nuevos modelos.

» Grabación 2K, 4K, 3K y otras


2K, como hemos visto, es una resolución muy parecida al formato HD 1.080. Por
eso algunas cámaras HR optan por este último formato que lleva aparejado la
posibilidad de grabación en cinta (por ejemplo, con el magnetoscopio HDCAM
SR). Por el contrario, si queremos un formato 2K de resolución tendremos que
optar por grabación en soportes rígidos (discos duros y tarjetas de memoria).
Dado que 2K no es un estándar televisivo, no existe ningún VTR que permita
grabar señales de estar resolución.
Entre las cámaras que graban 2K (2.040 píxeles horizontales) hay pequeñas
diferencias en cuanto a la resolución vertical. Algunas pueden ofrecer un
estándar con relación de aspecto 1,85, que nos daría 2.048/1,85 » 1.100 píxeles
verticales. Son más raras las que ofrecen una resolución de ventanilla abierta
(full aperture, FA), pues ello supone aumentar el flujo de datos considerable­
mente en una parte de la señal que no será visible para el espectador, y que
dificulta su manejo y almacenamiento.
En cuanto al 4K, la aparición de la revolucionaria cámara Red One, que ofrecía
grabación 4K, generó cierta polémica sobre si dicha resolución era nativa o no.
En realidad, Red traspasó terminología y procesos de fotografía fija (máscara

» 119
7 . DEFINICIÓN GE FORMATOS: PESO Y FLU]0

Bayer con un solo sensor) al mundo audiovisual (que generalmente trabaja con
3 sensores). Tradicionalmente, un formato “nativo” 4K FA exigiría 4.096 x 3.112
muestras por cada canal, es decir, un total de 38.240.256 muestras; o lo que
es lo mismo, un sensor de mínimo 38 megapíxeles (o 3 sensores de casi 13
megapíxeles cada uno).

El concepto de "megapíxeles" o millones de píxeles es común en la fotografía digital,


pero no en el mundo audiovisual, y generalmente se refiere al tamaño del sensor. No
obstante, ambos mundos se están “contaminando”, y en ocasiones ya se pueden leer es­
pecificaciones técnicas que aluden a “3 sensores de 2 megapíxeles" en cámaras HD 1080.
Personalmente, creo que es una tendencia clara del mercado, y no descarto una con­
vergencia a medio plazo entre las réflex digitales y los equipamientos de cine digital.

Esto no sucede con la Red One (ni otros modelos propuestos), por lo que su
formato 4K debe entenderse como "interpolado" o submuestrado. Este hecho
puramente técnico es independiente de la calidad o no que puedan demostrar
estos equipos.
Usando esta terminología, Red y otros fabricantes se han apresurado a ofrecer
más modelos con diferentes resoluciones: 3K, 4,5K, 5K, etc., en función no del
formato del fichero sino del sensor (más o menos megapíxeles, que en realidad
son "más o menos fotodiodos").

» Distribución digital
Lo que sí es importante es que el fichero que finalmente se exhiba digitalmente
en las salas de todo el mundo, el "fichero o formato de distribución", sea siempre
el mismo, para evitar errores y confusiones en las cabinas de proyección.
Ya hemos comentado la falta de organismos internacionales de estandariza­
ción, así que una vez más se mira a Hollywood para buscar soluciones.
Allí, a principios de este siglo, seis de las más grandes compañías de produc­
ción y distribución cinematográficas (conocidas como “estudios" o majors) se
agruparon para intentar promover una iniciativa común en busca de un único
formato de exhibición. Crearon la Digital Cinema Initiative, conocida como DCI,
y propusieron los siguientes estándares de distribución:

Formatos DCI

Formato resolución muestreo prof. bits cadencia

2K 2.048 x 1.080 4:4:4 12 24/48 p

4K 4.096 x 2.160 4:4:4 12


p
2

» 120
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

El formato 4K es una recomendación para medio plazo, ya que actualmente


el flujo de datos es tan grande que resulta poco operativo. Por esa razón, de
imponerse la iniciativa DCI, el formato más usual, al menos en los primeros
años, sería el 2K.
Llamamos a estos formatos 2K/4K DCI, para diferenciarlos de los 2K/4K FA
(o Full Aperture).
Como se observa, el espacio de color es RGB, siempre progresivo. En 2K se
piensa también en la posibilidad de doblar la cadencia, obviando la necesidad
actual de doble proyección del fotograma.
Estos formatos propuestos son de tipo "contenedor”. A la hora de la proyec­
ción final, el aspecto de pantalla tendrá sólo dos opciones: 1,85 y 2,39.
Volveremos al interesante tema de la distribución digital en la IV parte de
este libro.

Peso y bitrate

Cuando trabajamos con información digital, es clave tener conocimiento en todo


momento de cuántos datos estamos manejando. Esto determinará la potencia de
cálculo de nuestros equipamientos y su capacidad de almacenamiento y gestión
de la información. También es clave a la hora de formatear los contenidos de
cara a una distribución por canales habituales.
En el tema de la imagen, dos datos nos darán esta información: el peso o
tamaño de los ficheros, y el flujo de datos.

» Peso o tamaño

El peso lo definimos por la cantidad de información, en Bytes (generalmente, en


MegaBytes) que ocupa un fotograma completo de nuestro formato (en el caso
de las señales interlazadas, el peso sería el de un cuadro, esto es, el de dos
campos).
Este dato es importante para calcular el almacenamiento necesario en nues­
tros discos duros.

» Flujo de datos o bitrate


Asociada a esta información está la cantidad de información, por segundo, que es ne­
cesario manejar. Es lo que llamamos "flujo de datos” o simplemente "flujo", “tasa
de transferencia" o “tasa”, o más comúnmente con el término inglés bitrate.

» 121
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

El bitrate será simplemente el peso multiplicado por el número de fotogramas


o cuadros por segundo de nuestro formato; y, como su propio nombre indica, se
suele dar en bits (no en Bytes, como el peso: 1 Byte = 8 bits).

Hay que tener siempre en cuenta esta relación 1 Byte = 8 bits. La sigla B mayúscula
se refiere a Byte, mientras la b minúscula es bit. No siempre están claros estos datos en
algunas especificaciones técnicas.

El bitrate es un dato muy importante para saber qué tipo de conexiones nece­
sitaremos para transportar la señal, para almacenarla y para procesarla (CPU,
GPU y demás procesadores).
Por lo general, aunque no siempre, una mayor tasa o bitrate implica una
mayor calidad. Pero lo que siempre implicará es una mayor exigencia en nuestras
herramientas. Es importante conocer el bitrate del formato con el que deseamos
trabajar para poder optimizar nuestros recursos.

» Cálculo del peso y el bitrate


El cálculo de estas cantidades es muy sencillo, y podremos entender más clara­
mente que sólo la resolución, el muestreo, el color y la cadencia son necesarios
para entender cualquier formato audiovisual.
Se trata sencillamente de saber el número de bits que tiene nuestra imagen
digital.

1. Resolución. Primero es necesario saber el número de píxeles de nuestra


imagen. En una imagen 1.080, tendremos 1.920 x 1.080 píxeles por cuadro =
2.073.600 píxeles.
Vemos que si hablamos de dos campos interlazados, su suma equivale igual­
mente a un solo cuadro progresivo: (1.920 x 540) x 2 = 2.073.600 píxeles. Por
eso, una señal 50i siempre tendrá la misma tasa de transferencia que 25p.

2. Muestreo. Debemos recordar que precisamos tres canales RGB para una
información de color.
Por esa razón, un muestreo completo 1.080 RGB precisa multiplicar por tres
el número de píxeles de resolución, pues siempre tendremos un píxel rojo, otro
verde y otro azul para logar una señal.

3 X (1.920 x 1.080) = 6.220.800 píxeles

» 122
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En el caso de YUV 4:2:2 recordamos que Y tenía un muestreo completo


(1.920 x 1.080), pero tanto U como V se reducían a la mitad (960 x 1.080), por
lo que la cantidad de muestras 4:2:2 son (1.920 x 1.080) + 2 x (960 x 1.080) =
2 x (1.920 x 1.080) = 4.147.200 píxeles o muestras.
Entendemos, pues, que con un muestreo 4:2:2 reducimos en un tercio la
cantidad de información de la señal RGB.

3. Color. Sabiendo el número de muestras con que contamos, dependerá de la


profundidad de color obtener más o menos bits por imagen.
Si aplicamos a cada muestra 8 bits, veremos que una señal 1.080 4:2:2 tendrá un
total de 8 x 2 x (1.920 x 1.080) = 33.177.600 bits por cada cuadro o fotograma.
En el caso de la señal 1.080 RGB, podemos aplicarle una cuantificación a 10
bits. Entonces tendremos que 10 x 3 x (1.920 x 1.080) = 62.208.800 bits. Esta
cantidad será el peso o tamaño del fotograma.
Ahora bien, la costumbre del mundo informático para cantidades tan grandes
es, primeramente, notarlo en Bytes en vez de bits; y luego usar los multiplica­
dores de la informática (kilo, mega, giga, tera, peta, etc.).
Siguiendo el ejemplo, en el caso de una señal 1.080 4:2:2 8 bits tendremos
un peso de 4.147.200 Bytes, mientras que en el de 1.080 4:4:4 10 bits serán
7.776.000 Bytes.

» Redondeo
Ahora es necesario volver a tener en cuenta que en informática trabajamos con
un sistema binario, no decimal. Por esa razón, kilo no es sinónimo de mil (103),

» 123
7. DEFINICIÓN DE FORMATOS: PESO Y FLUJO

como en la vida corriente (kilómetro = 1.000 metros, kilogramo = 1.000 gramos),


sino de 1.024 (210). Y lo mismo sucede con el resto de multiplicadores: 1 MegaByte
= 1.024 KiloBytes; 1 GigaByte = 1.024 MegaBytes.
Por esa razón, al pasar 4.147.200 Bytes obtendremos 3,955 MegaBytes, y no
4,147 DB.
Se observa además que no es una cifra exacta, o que genera muchos deci­
males, por lo que se suele recurrir a los redondeos. Esto nos daría unas cifras
aproximadas de:

Peso 1.080 4:2:2 8 bits aprox 3,96 MB

Peso 1.080 4:4:4 10 bits aprox 7,4 MB

En ocasiones existe la costumbre, extendida en la informática del consumidor,


de redondear pero en múltiplos de mil, como sucede, por ejemplo, en los discos
duros que se venden en tienda. La etiqueta de "300 GB" que pone en la caja
equivale realmente a algo menos de 280 GB reales.
Este cálculo en ocasiones también lo realizan, por economía del rendimiento,
las interfaces del sistema operativo, por lo que siempre hay que estar atento
a estos datos. En pequeñas cantidades, apenas se nota. 4,2 MB, 3,96 MB o
simplemente 4 MB para una imagen 1.080 HDTV no parece mucho, apenas un
5 %. Pero si acumulamos estos redondeos en grandes cantidades (TeraBytes o
PetaBytes), el error también se multiplica.

4. Cadencia. Conocido el peso por fotograma o imagen (frame y picture, res­


pectivamente), para calcular el bitrate tendremos simplemente que multiplicar
el peso por la cadencia.
Si una imagen ocupa 10.000 bits, 2'5 imágenes por segundo ocuparán 25 x
10.000 = 250.000 bits.
Si la imagen ocupa 10.000 Bytes, tendríamos primero que pasarlo a bits,
80.000, para obtener 25 x 8.000 = 2.000.000 bits, que equivaldrían a 1.9 mbs
(megabits por segundo).
Sigamos con los ejemplos:
Los aproximadamente 4 MB por fotograma de una señal 1.080 HDTV típica,
trabajada a 25 ips, nos da un total de 4 x 25 = 100 MB por segundo. Pero como
hemos dicho que esta cantidad se suele expresar en bits, tendremos que volver
a multiplicar por 8 para obtener unos 800 mbs (megabits per second).

La cantidad exacta sería de 829.440.000 bits, que equivalen a 791,015625 mbs.

» 124
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

En el caso de la señal 1.080 RGB 10 bits, trabajando a 24 ips, tendríamos


7,4 MB X 8 bits x 24 ips aprox: 1.420 mbs aprox: 1,4 gbs.

Una aproximación más exacta nos daría 1,39 gbs.

» Cuidado con la “b”


Últimamente, dado el alto flujo de datos al que pueden llegar las cámaras HR,
nos podemos encontrar que éste se exprese no en bits (b minúscula) sino en
Bytes (B mayúscula).
1,4 gbs (gigabites per second) equivale entonces a 175 MBs (MegaBytes per
second). Personalmente, creo que esta terminología es confusa, pues hablamos
de "bitrate", y no de “byterate”. Sin embargo, es una costumbre cada vez más
extendida, así que siempre tendremos que estar atentos para evitar posibles
confusiones.

» GigaBytes por hora


Conociendo tanto el peso como el flujo de datos, es fácil calcular entonces el
espacio que precisaremos en nuestro ordenador para almacenar toda la infor­
mación. Es una información que suele darse en GB por hora o bien en GB por
hora y media, que es la duración más o menos estándar de un largometraje.
Basta con multiplicar el bitrate por 60 o por 90 para obtener la cifra (sin olvidar
al paso de bit a Byte ya señalado).
La siguiente tabla nos muestra los pesos, flujos de datos y espacio requeridos
por hora de los formatos SD, HD y DC:

» 125
7. DEFINICIÓN DE FORMATOS: PESO Y FLU]0

Tabla de pesos y flujos de datos sin comprimir

Formato resolución muestreo p. bits PESO MB/f cadencia BITRATE 1 hora

SD576 720 x 576 4:2:2 8 0,79 50i 158 mbs 70 GB

HD720 1.280 X 720 4:2:2 8 1,76 25/60p 350/844 mbs 154/370 GB

HD 1.080 1.920 x 1.080 4:2:2 8 3,96 25p 800 mbs 350 GB

HD1.080 RGB 1.920 x 1.080 4:4:4 10 7,42 23,976/25p 1,39/1,45 gbs 652 GB

2K DCI 2.048 X 1.080 4:4:4 12 9,49 48p 1,8 gbs 800 GB

2K FA 2.048 x 1.536 4:4:4 10 log 11,25 24p 2,11 gbs 950 GB

4K DCI 4.096 x 2.160 4:4:4 12 37,97 24p 7,12 gbs 3,13 TB

4K FA 4.096 X 3.112 4:4:4 10 log 45,59 24p 8,55 gbs 3,76 TB

Formatos comerciales

Como se puede observar, estamos hablando de flujos de datos muy altos. En la


mayoría de los casos, estos pesos y bitrate impiden un trabajo fluido, pues la
tecnología tiene sus límites.
De ahí que los fabricantes hayan investigado intentando bajar los flujos de
datos. Hay dos maneras de conseguirlo

• Con técnicas de submuestreo.


• Comprimiendo la señal.

No obstante, sea cual sea la técnica utilizada, estos formatos han de ser total­
mente compatibles con los estándares internacionales anteriormente explica­
dos. Es decir, que las herramientas deben poder des-submuestrear y descompri­
mir los datos para volver a obtener la señal estándar esperada, generalmente a
través de una interfaz de entrada y salida normalizada.
Obviamente, también es lógico deducir que por muy eficaces que sean los
métodos para reducir la información, siempre se perderá algo de calidad. Por
definición, una señal sin comprimir o sin submuestrear siempre tendrá una
calidad superior a la que sí lo está.

» Submuestreo
A partir de un estándar normalizado, un fabricante puede decidir sacrificar un
poco más los canales U, V de la señal YUV Es lo que quedó explicado al final

» 126
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

del capítulo 5 y en los anexos, cuando hablamos del muestreo 4:2:0 y 4:1:1. Con
esto se consigue reducir aún más la señal YUV hasta un 25 %.
Estos muestreos parciales se usan sobre todo en los aparatos para el con­
sumidor y los “prosumer", pero se entiende que un equipo profesional ha de
trabajar, como mínimo, en 4:2:2.
También se entiende como un submuestreo la técnica conocida como raste-
rización, que se explica igualmente en un anexo.

» Compresión
La otra forma de reducir el flujo de datos es comprimir todo este caudal de in­
formación, mediante complicadas técnicas de cálculo, que permiten reducir a
la mitad, a una cuarta parte o incluso a una veinticincoava parte, o más, el flujo
original.
Los métodos son diversos, y por ello les dedicaremos el siguiente capítulo.
Esta combinación de submuestreo y compresión, juntos o por separado, es lo
que fundamentalmente origina la diversidad de formatos de HD y DC que se
encuentran en el mercado.
Así pues, si a los cuatro pilares de la tecnología audiovisual (resolución,
muestreo, color y cadencia) les sumamos el submuestreo y la compresión, que
altera el flujo de datos final, obtendremos los diferentes formatos comerciales
de HD y DC existentes en el mercado.
Dependiendo de los avances de estas industrias, pueden aparecer nuevos
formatos, o desaparecer algunos considerados obsoletos.

>> 2 estándares, muchas etiquetas


Es fundamentalmente la aplicación de técnicas de reducción de bitrate, median­
te rasterización o submuestreo y diversos tipos de compresión, lo que posibilita
la aparición en el mercado de innumerables "formatos" HD.
Podemos ver que existen etiquetas comerciales como HDCAM, XDCAM,
XDCAM-EX, VARICAM, DCVPRO-HD, P2, HDV AVC-HD..., asociadas a nume­
rosos fabricantes, como Sony, Panasonic, Thomson, JVC, Canon, etc. Sin em­
bargo, esto no debe confundirnos: en HDTV sólo existen dos estándares: 1.080
y 720.
En el caso del cine digital, y como hemos visto anteriormente, la "flexibilidad"
es algo mayor pero sólo en cuanto a la resolución, que puede ser unos píxeles
más o menos que los fijados dentro del 2K y el 4K. Salvado ese punto, una
herramienta profesional de cine digital que se quiera considerar como tal, debe
cumplir con la cadencia propia del cine, 24 fps (o en su defecto 23,976 fps), ser de

» 127
7 . DEFINICIÓN DE FORMATOS: PESO Y FLU]0

barrido progresivo, llevar un muestreo completo (RGB/4:4:4) y una profundidad


de color superior a la televisión (de 10 bits en adelante).

Al hablar de cine digital hablamos del punto de vista técnico, refiriéndonos a equipa­
mientos de alta gama tipo HR. Huelga decir que se puede hacer "eme" con cualquier
herramienta, incluso con un móvil.

A continuación se muestra una tabla con los principales formatos comerciales


existentes en el mercado, que incluye los formatos más comunes en SD. No se
especifican las cadencias, pues se aceptan todas o al menos las más comunes.

Formatos Comerciales más comunes

Formato fabricante res. muestreo p. bits ráster compresión bitrate

DV varios SD 4:2:0 8 no jpeg DCT 5:1 25 mbs

DVCAM Sony SD 4:2:0 8 no jpeg DCT 5:1 25 mbs

DVCPRO 25 Panasonic SD 4:2:0 8 no jpeg DCT 5:1 25 mbs SD


DVCPRO 50 Panasonic SD 4:2:2 8 no DCT 3,5:1 50 mbs

BTC DIGITAL Sony SD 4:2:2 10 no 2:1 90 mbs

HDV varios HD 4:2:0 8 sí mpeg2 17:1(1) 25 mbs

XDCAM-EX Sony, JVC HD 4:2:0 8 sí/no mpeg2 25/35 mbs

XDCAM HD Sony HD 4:2:0/2 8 sí mpeg2 25 a 50 mbs

AVC-HD varios HD 4:2:0/2 8 sí/no mpeg4 variable

Inflnity Thomson HD 4:2:2 10 ? jpeg200(2) 50-100 mbs

DVCPro-HD Panasonic HD 4:2:2 8 sí 3,51:1/8:1 100 mbs

HDCAM Sony HD 4:2:2 8 sí 4:1 144 mbs HD

AVC-HD Intra Panasonic HD 4:2:2 8/10 sí/no mpeg4 50/100 mbs

D5(31 Panasonic HD 4:2:2 8 no no 320 mbs

HDCAM-SR (4) Sony 1.080 4:4:4 10 no 2:1 800 mbs

D21 Arri 4K(5) 4:4:4 12 sí ArriRAW variable

Viper Thomson 1.080 4:4:4 10 log no FilmStream variable

SI-2K Silicon Imaging 2K 4:4:4 12 no RAW variable


HR
Red One Red 4K(5) 4:4:4 12 sí Redcode RAW 192/288 mbs

(1) Cálculos para el HDV 1.440.


(2) Este sistema admite otros códecs.
(3) Este formato sólo se presenta en VTR, no en cámaras. No comprime a 720p.
(4) El HDCAM-SR es un magnetoscopio de altas prestaciones utilizable como camcorder por cámaras
del resto de fabricantes, como las F23/F35 de Sony, la Génesis de Panavision, D21 de Arri o la Viper de
Thomson, y en general en aquellas cámaras HR con salida 1.080 RGB Dual Link hasta 10 bits.
(5) Hay dudas sobre si considerar nativas o no la resolución 4K de estas cámaras. Quizá fuera más correcto
considerarlas 2K, por lo que en esta tabla se señala como “sí" en la rasterización, considerando que
interpolan o submuestrean cuando trabajan a 4K.

» 128
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

A este cuadro hay que añadirle los ficheros DCI que se proyectarán en las salas comercia­
les. A sus características ya conocidas, la única compresión admisible será con el códec
jpeg2000, con un bitrate variable dependiendo del tamaño. De éste y otros formatos de
distribución hablaremos en la cuarta parte del libro.

Recapitulación

• A pesar de las muy diferentes propuestas que existen en el mercado, en


realidad sólo nos encontramos con cuatro formatos distintos: 2 de HD (1.080
y 720) y dos de DC (2K y 4K).
• Los estándares de televisión HDTV son fijos. En cine digital es posible
encontrar pequeñas variaciones.
• La variedad de opciones de grabación en algunas cámaras o de edición en
algunos programas viene dada no por tratarse de diferentes formatos, sino
por aplicar pequeñas variables en la cadencia, el barrido, el muestreo o la
compresión.
• Las diferentes maneras de comprimir o reducir el alto flujo de datos propio
del HD es lo que genera la profusión de diferentes marcas o etiquetas
comerciales en el mundo de la alta definición.

» 129
» 130
8. La compresión

>> La necesidad de compresión


Dado el enorme flujo de datos de la alta definición y el cine digital, las empresas
comerciales desarrollaron sistemas que comprimían los datos generados por la
cámara para su grabación en cintas. Esta compresión estaba basada en la uti­
lización de algoritmos matemáticos que conocemos como códecs (codificador-
descodificador). Estos códecs utilizan diversos métodos para reducir la informa­
ción de imagen a un flujo de datos más manejable, pero sin perder la "calidad
subjetiva" de la misma. Entendemos por “calidad subjetiva” el hecho de que el
espectador final no aprecie diferencias significativas que estorben el correcto
entendimiento de los datos.
Los códecs son más eficientes cuanto más comprimen la señal sin pérdida
aparente de la calidad. Se nota por medio de una relación tipo X:l. Una com­
presión 5:1 significa que el flujo original se reduce hasta cinco veces el tamaño
original. No obstante, la compresión implica siempre pérdida de información, y
suele generar ruido y/o defectos indeseables (artifacts).

» Origen de la compresión
La compresión se realiza internamente mediante los camascopios en una etapa
inmediatamente anterior a su grabación en cinta. Y, por lo general, estas mismas
cámaras ofrecen salidas de audio y vídeo estandarizadas que ofrecen la señal
descomprimida o descodificada, devuelta a su formato original, para su posterior
trabajo en postproducción. Son las salidas tipo HD-SDi.

» Códecs
Los códecs son soluciones industriales que suelen tener una licencia o patente
comercial detrás. Cuando esto es así, forman parte del secreto tecnológico de
las empresas y se consideran por tanto como "códecs propietarios” o cerrados.
Necesitaremos tener licencia tanto para la codificación como para la descodifi­
cación o el simple visionado en nuestro ordenador.

» 131
8. LA COMPRESIÓN

No siempre todos los editores no lineales y/o softwares de postproducción


son compatibles con todos los códecs del mercado, o tienen actualizadas sus
últimas versiones. Por lo general, suele haber una demora entre el uso de un
nuevo códec en las cámaras y la implementación de su solución en el trabajo
de postproducción.
Al mismo tiempo, algunos organismos internacionales han desarrollado
códecs abiertos, utilizables sin necesidad del pago de royalties o derechos.
El más conocido de ellos es la familia de códecs mpeg (acrónimo de Motion
Picture Expeit Group).

» MXF
Para intentar una armonización de todos los equipos de trabajo, la industria
está embarcada en la consecución de un protocolo MXF (Media eXchange File)
que permita el uso de cualquier códec por cualquier equipamiento.
MXF no es un códec en sí, sino lo que se denomina un "empaquetador", o una
forma de almacenar la información dentro de un fichero informático. El protocolo
MXF determina dónde se situará la información de cabecera, la imagen, los
diversos canales de audio, el código de tiempo y el resto de metadatos. La idea,
todavía pendiente de un acuerdo general, parece estar ya calando en toda la
industria, lo cual acabaría con las "guerras de códecs" de años anteriores que
producían tantas incompatibilidades.

» Familias de códecs
En el ámbito de los códecs nos encontraremos aquellos que se utilizan en la
grabación (en las cámaras y/o magnetoscopios de estudio); aquellos otros que
solemos usar en la edición y postproducción; y finalmente aquellos que se usan
para la distribución y emisión de la señal.

• Ficheros de captación o nativos


• Ficheros de postproducción o trabajo
• Ficheros de distribución
• Trabajar sin compresión

Siendo lógicos, lo ideal sería trabajar siempre sin compresión. Pero esto
encarecería inevitablemente todos los equipamientos y complicaría el manejo
de tanta información.
En la captación, el “embudo" de este problema es el almacenaje de datos.
En cinta (con magnetoscopios), es muy difícil lograr un magnetoscopio que no
comprima la imagen. En el momento actual, y desde hace relativamente poco,

» 132
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

es posible grabar los datos sin compresión sólo en un par de magnetoscopios.


Sony ha desarrollado un grabador, conocido como HDCAM SR (que no hay que
confundir con el simple HDCAM) que ofrece esta posibilidad. Panasonic también
tiene un sistema, conocido como D5, si bien su sistema no está incorporado a
ningún equipo de camascopio. Es un magneto estacionario, no portátil.

La grabación “sin compresión" en estos formatos está bajo sospecha. La información


técnica de los fabricantes siempre deja que desear. En cualquier caso, estos dos sistemas
son los que más calidad ofrecen en la actualidad.

Sí empieza a ser posible una captación sin compresión en las cámaras que ya
no usan los magnetoscopios tradicionales en cinta. Estos dispositivos utilizan
sistemas de grabación no lineal en soporte rígido (tarjetas de memora, discos
duros, etc.). Con una conexión adecuada entre cámara y dispositivo grabador,
que soporte el flujo de datos completo, sin comprimir, esta opción puede ser
posible en la actualidad, y es más que probable que, poco a poco, se imponga
en el futuro a medio y largo plazo. Cualquier disco duro que permita un flujo
continuo de un mínimo de 800 mbs nos permitiría grabar sin comprimir una
señal 1.080 25p, por ejemplo.

» Familias de compresión
Los algoritmos y códecs que intervienen en una compresión son muy técnicos, y
explicarlos sería más propio de una carrera de ingeniero de telecomunicaciones
que de este breve manual. Sin embargo, es bueno saber varias cosas sobre la
compresión.
La primera de ellas es que existen dos grandes familias de compresiones: la
intraframe y la interframe.

» Dentro del cuadro (intraframe)


En la compresión intraframe, como su nombre indica, se comprime cada cuadro
o fotograma (frame, picture) individualmente, uno a uno, como si fuera una
secuencia de fotografías fijas individuales.

» Entre varios cuadros (interframe)


La compresión interframe, sin embargo, trabaja sobre grupos de imágenes o
GOPs (Group Of Pictures). La idea de partida es pensar que, en una secuencia,
la diferencia entre un fotograma y el siguiente no debe ser muy grande: pueden
cambiar los gestos del actor, pero probablemente no el decorado o los objetos

» 133
8. LA COMPRESIÓN

inanimados. Es lo que se conoce como información "redundante”, que se repite


a lo largo de una serie de fotogramas. Esta información es la que más fácilmente
se puede comprimir.
En un GOP se dispone por lo general de tres tipos de cuadros comprimidos:
I, que será un cuadro completo comprimido y que inicia el GOP hasta el siguiente
cuadro I. Entre ellos, existe un cuadro P que compara la información entre los
dos I sucesivos, obvia la información redundante y comprime el resto. Entre un
cuadro P y uno I existirán diversos cuadros B (dependiendo de la longitud del
GOP que puede ser variable), que comparan a su vez la información entre los
cuadros I y P y proceden de manera similar.

>> Diferencias entre familias


La compresión interframe se desarrolló, en un primer momento, para la distri­
bución de imágenes (exhibición y emisión), pero nunca para la captación. La
familia mpeg (mpeg1 o VCD, mpeg2 propia del DVD y la TDT en SD, y la mpeg4
de los últimos equipamientos) es un estándar internacional muy aceptado y

» 134
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

eficiente, que logra reducir los flujos originales de manera muy significativa
conservando una apariencia visual más que aceptable.
Sin embargo, una compresión interframe nunca será tan eficiente como una intra.
También requiere una mayor potencia de cálculo en los equipamientos, sobre todo si
se quiere hacer a “tiempo real". Que trabajemos sobre ficheros interlazados tampo­
co ayuda a la compresión interframe. Por último, en un inicio, no era posible
una edición precisa al corte con códecs que trabajasen con GOP (si bien este
problema ha sido resuelto de diferentes maneras por los fabricantes de software).

» Compresiones pro y prosumer


Por esta razón, generalmente las cámaras profesionales trabajan con códecs
intraframe. No obstante, en el ámbito prosumer sí aparecen equipamientos
con compresión interframe. El más conocido de ellos es el HDV que utiliza
una compresión de la familia mpeg2. Si comparamos el flujo de datos de un
HDV los 25 mbs, con los de un formato profesional como el HDCAM, 144 mbs,
entenderemos que no era posible que una compresión intraframe lograra unas
relaciones tan grandes de compresión (del orden de 15:1 o más).
Pero, gracias a esta reducción, estas cámaras dirigidas al consumidor final
y el segmento prosumer permiten seguir usando la popular cinta de 3/4 cono­
cida como miniDV de muy pequeño tamaño y escaso coste. En el camino, la
señal ha perdido tanta información original (una compresión 17:1, incluyendo
muestreo bajo de 4:2:0 y rasterizado de la imagen) que, a pesar de ser visual­
mente aceptable, se considera un formato muy frágil para trabajos exigentes de
postproducción.

» I-Frame
En algunos casos, es posible trabajar con compresiones tipo interframe sólo con
cuadros I, comportándose en ese caso como una compresión intraframe. Es el
caso del reciente códec de Panasonic AVC HD Intra, basado en el códec AVC
HD, que es interframe, de la familia mpeg4.

» Tendencias
En cuanto a las tendencias, se observa que para tratar los altos flujos de datos
del HD y cine digital, el mpeg2, excelente para las señales SD, está un tanto
obsoleto. Hoy en día se empieza a sustituir por la familia de códecs basados
en el mpeg4, mucho más eficiente (pero también más exigente en el cálculo),
que permite reducir el flujo a las cifras exigidas por la emisión de una manera
más correcta. El mpeg4 se basa en algoritmos de compresión con matemática

» 135
8. LA COMPRESIÓN

de ondículas (wavelets), pero más que eso es un “contenedor” que pretende ser
reconocible por todas las herramientas y equipamientos. El mpeg4 pretende
ser universal, escalable y adaptable a todos los entornos, además de incorporar
metadatos e incluso posibilidades de interacción 3D.
A medida que haya equipamientos de captación IT, sin cinta, y la tecnología
informática avance, será posible también una captación sin compresión.
En el caso de la captación en cámaras HR para cine digital, la tendencia es
trabajar sin comprimir, o con escasa compresión. En caso de llevarla, siempre
será intraframe. También se une la tendencia de trabajo con datos "en bruto”.
Esta opción es conocida como RAW (hablaremos de este tipo de formato RAW
en uno de los anexos).
En el caso de la distribución digital de cine en salas, la normativa DCI no
admite la codificación interframe, optando por una intra con el novedoso y
muy eficiente códec jpeg2000 (hablaremos de todo ello con más detalle más
adelante).
En el caso de la televisión profesional o broadcast, el códec usado en SD es el
mpeg2, mientras en HD usará una variante del mpeg4. Como dijimos, el mpeg4
es más un “contenedor”, pues admite muchas variantes o diferentes formas de
analizar y codificar la señal. La que parece que está ganando terreno es la conoci­
da como H.264; algunas emisiones de satélite ya han optado claramente por ella,
y es más que probable que se adopte en la TDT-HD de la mayoría de los países.
En internet depende mucho del reproductor: windows media player, quick
time, real time, divx, flash player... Aquí la variante es mayor, pero todo tiende
también al mpeg4. Volveremos a este tema en la última parte del libro.

Recapitulación

• La compresión es una opción comercial, no estandarizada, que permite


gestionar el alto flujo de datos de las señales HD y DC.
• Se usan gracias a familias de algoritmos matemáticos conocidos como
“códecs”.
• Son soluciones comerciales, no incluidas en los estándares y recomenda­
ciones de cada formato. Aparecen y desaparecen del mundo profesional a
medida que se logran nuevos avances.
• La compresión siempre produce una pérdida irrecuperable de la informa­
ción original. La mayor o menor calidad de un tipo de compresión es lo que
se conoce como “eficiencia”.

» 136
9. Sonido

» La importancia del sonido


Para muchos, entre los que me incluyo, la banda sonora es tan importante, al
menos, como la imagen para determinar la calidad de una obra audiovisual. Es
algo, quizá, sutil, que el espectador aprecia de manera más inconsciente que la
imagen. Pero es en los matices donde se distingue lo bueno de lo mejor.
Por otra parte, la calidad técnica del sonido ha de ser siempre impecable. Un
espectador puede "perdonar" una imagen deteriorada, o incluso mal rodada, si
el contenido es interesante. El cerebro humano puede "reconstruir" los datos
que necesita para obtener la información. Esto no sucede con el sonido: si se
pierde una línea de diálogo, o no se escucha un ruido clave de la escena, el
espectador no puede hacer nada para "reconstruirlo". Lo saca literalmente de
la obra. Lo mismo ocurre con sonidos deficientes, mal mezclados o pobres. Los
estudios demuestran que en la "impresión subjetiva de calidad" por parte de un
espectador tiene casi más peso el sonido que la imagen. Una imagen SD con
buen sonido se percibe subjetivamente de mejor calidad que una HD con un
mal sonido.
El sonido es casi un mundo aparte, una especialidad muy rica dentro del
audiovisual. En este libro no entraremos en él, pues nos es imposible abarcarlo
todo. Existen otros libros y fuentes que tratan del tema con profusión. Sí es
necesario, sin embargo, conocer algunos aspectos importantes a nivel técnico.

» Peso del sonido


A nivel de flujo y peso, el espacio que ocupa el sonido es muy bajo con respecto
al que ocupa la imagen, del orden de un 5 % o menos. Por eso no se suele
considerar a la hora de los cálculos, pero nunca se debe obviar del todo. Sobre
todo a medida que aumenta el número de canales.
Al igual que la imagen, puede ofrecerse comprimido o sin comprimir.

» 137
9. SONIDO

» Estándar SDTV
En el caso del sonido para televisión, el estándar en la normativa PAL es de dos
canales (estéreo) con un muestreo de 48 kHz y 16 bits.
48.000 hercios sería el número total de muestras, y 16 bits determinaría la
calidad de cada una de ellas.
Según el teorema de Nyquist, se entiende que una señal por debajo de los
40 kHz no reproduce todos los sonidos que es capaz de percibir el oído humano (el
ámbito de la música profesional, por ejemplo, trabaja a 44,1 kHz). La profundidad
de bits, al igual que en la imagen, puede ser aumentada para lograr una mayor
riqueza: 24, 36, etc.
El estándar es estéreo, con una mezcla balanceada para izquierda y derecha
(L/R). No obstante, la mayoría de los camascopios tiene la posibilidad de grabar
hasta cuatro pistas de audio independientes. E incluso algunas emisiones de
televisión convencionales emiten cuatro pistas (sistema dual: cuatro canales
comprimidos en dos). Esto permite, por ejemplo, la emisión simultánea de dos
versiones idiomáticas del mismo contenido.

>> Estándar HDTV


En cuanto al mundo de la HDTV la gran novedad estriba en que se espera que
se abandone el sonido bi-canal para pasar a un sonido multicanal de al menos
5.1 (5 canales activos con tres frontales y dos posteriores, más un canal para los
graves). Esto igualaría la experiencia televisiva a los mejores sistemas de Home
Cinema.
Al aumentar el número de canales, se hace casi necesaria una compresión
para su emisión y distribución. Aquí, una vez más, estamos ante soluciones
comerciales. La más extendida de ellas es la compresión 5.1 de Dolby, también
conocida como AC3.

>> Bitrate
En ocasiones, el sonido también se puede notar con un “bitrate". Es típico de
los sistemas basados en códecs mpeg, como el HDV o el AVC-HD. Se dice
entonces que cada canal de sonido “corre" a 256 o 326 kbs o equis (kilobits por
segundo). Lógicamente, mayor bitrate supondrá mayor calidad y peso y menor
compresión.

» Sonido en el cine
El sonido ha sido uno de los aspectos que más ha evolucionado en el cine desde
sus comienzos, pero también uno de los que más ha chocado con sus límites
físicos.

» 138
PARTE I: FUNDAMENTOS TEÓRICOS DE LA IMAGEN DIGITAL

Con la invención del sonoro, la idea original era proporcionar la imagen y el


sonido de manera separada: la imagen en la película de 35 mm y el sonido en
un soporte aparte. Sin embargo, el paso por el proyector en ocasiones rompe
la película. El operador de cabina ha de parar la sesión (esto, sin duda, era
muy habitual hace no mucho tiempo) y empalmar de nuevo los trozos. Pero con
esta acción era normal perder varios fotogramas, por lo que el sonido del disco
adjunto se desincronizaba.

» Sonido óptico (banda internacional)


La solución fue incluir el sonido en el mismo soporte que la imagen, es decir, en
la copia positiva. Esto se realiza filmando ópticamente el sonido en dos bandas
paralelas que recorren toda película.
Es un sonido analógico y estéreo que forma parte del estándar 35 mm y por
tanto siempre se ha de incluir en cada copia. Todo proyector de 35 mm tiene, al
menos, un lector de sonido óptico.

» Sonido digital
En los años ochenta, la digitalización llegó al mundo del sonido y se vio la
oportunidad de mejorar la calidad sonora de los largometrajes.
El problema era la falta de espacio que ofrecía el soporte. Diferentes empresas
ensayaron soluciones digitales, y finalmente fueron tres las que consiguieron el
consenso de la industria.

• Dolby presentó su solución multicanal con sonido digital comprimido. Este


sonido se incorpora en la copia en los espacios entre perforaciones.
• Sony propuso su solución SDDS (Sony Dynamic Digital Sound), que utili­
zaba el breve filo exterior a las perforaciones. Este espacio, no obstante, es
el más expuesto a roces y roturas.
• DTS (Digital Theaters Systems; theaters en inglés se refiere a cines o salas
de cine en castellano) es el tercer sistema digital comprimido. A falta de
espacio, el sonido DTS se adjunta en un CD-Rom junto a la copia, pero para
evitar pérdidas de sincronismo se incorporan una serie de pulsos paralelos
a la imagen en el positivo. Estos sincronismos están en el aún más breve
espacio entre el sonido óptico y la imagen.

Y poco más se puede hacer con el sonido en una copia digital. Señalar tam­
bién que, una vez más, las consideraciones comerciales, patentes y licencias
incluidas, primaron sobre una estandarización digital abierta y universal. Ac­

» 139
9. SONIDO

tualmente, una sala precisa hasta tres lectores y descodificadores distintos, cada
uno de los cuales genera sus propios royalties.

» Sonido digital en proyección digital


Para evitar este exceso de equipamiento, la proyección digital DCI evita el uso
de licencias ofreciendo el sonido directamente sin comprimir. Será un sonido de
tipo LPCM, lineal sin comprimir, con formato WAV (wave file format), dentro
de la recomendación ITU 3285 PCM WAVE Coding.
El problema de espacio también desaparece, pues toda la información se
guarda en un disco duro, al igual que la imagen. De esta manera, se puede
aumentar tanto la calidad (mayor frecuencia y profundidad de bits) como el
número de canales.
La especificación DCI prevé espacio para trabajar hasta con 16 canales de
sonido, con muestreo de 48 o 96 kHz y 24 bits de profundidad.
Como se puede observar, la revolución digital del cine también llegará al
sonido.

» 140
» 141
PARTE II:
CAPTACIÓN
» Captación: las cámaras y algo más

La elección del equipamiento de captación de imagen es quizá la más impor­


tante de todas, pues determinará la calidad de toda nuestra producción. Hay
que ser conscientes de que lo que queda grabado en la cinta o en el disco duro
fijará el máximo de calidad que podremos obtener. Nunca, en ningún proceso
posterior, podremos superar la calidad de los brutos de cámara. Por eso, al for­
mato de captación elegido lo llamamos "nativo". El objetivo será mantener su
calidad a lo largo de todos los procesos a los que le vamos a someter.
En la mayoría de las producciones, la captación se hará a través de cámaras,
sean de vídeo (HDTV) o de cine digital (HR); las cámaras pueden incluir la
grabación de la señal (camcorders, contracción de los términos ingleses camera
& recorder, en castellano se usa el término "camascopio" contracción a su vez
de "cámara" y “magnetoscopio"). O se puede recurrir a la grabación en un
dispositivo externo.
La grabación puede realizarse en los tradicionales sistemas lineales (mag­
netoscopios o VTR, del inglés, video tape recorder o grabador en cinta de
vídeo) o no lineales (grabación en discos, tarjetas de memoria rígida y otros dis­
positivos IT).
Pero, además de la captación con cámaras, no hay que olvidar otras opciones.
Una de ellas sería el uso de cámaras de fotografía fija (stills) para películas de
animación (técnicas como stop motion, el timelapse y otras). La tecnología es
prácticamente la misma, y sus especificaciones (resolución, muestreo, profun­
didad de color) también; la única diferencia es que no existen el espacio de color
YUV ni la cadencia.
Otra opción de creación de imágenes son las generadas por ordenador o CGI
(Computer generated images). Se pueden crear como secuencia de imágenes
fijas (lo más usual) o directamente como ficheros audiovisuales. Una vez más, sus
parámetros de calidad se basan en los mismos criterios: resolución, muestreo,
profundidad de color.
En esta parte del libro nos centraremos en las cámaras.

» 143
PARTE II: CAPTACIÓN

» Límites en la captación
Partamos de que la cámara ideal no existe.
Lo ideal sería poder captar la mayor cantidad de información sin ningún tipo
de compresión ni pérdida. Es decir, trabajar con señal de muy alta resolución
(4K o incluso 8K), con muestreo total RGB, mucha profundidad de color (12, 14,
16 bits... ) y a una cadencia alta sin interlazado que evite el parpadeo y el filage
(48 o incluso 72 fps).
Sin embargo, la cantidad de información, su bitrate, sería tan alto que, hoy
en día, con la tecnología disponible, resulta casi imposible o terriblemente
incómodo para un rodaje profesional.
Ya conocemos las posibles opciones para bajar el bitrate: reducir algunos
de los cuatro parámetros básicos (rasterizado, submuestreo, etc.) o añadir una
compresión a los datos.
La aplicación de estas técnicas es lo que abre el amplio abanico de solu­
ciones profesionales que los broadcasters nos proporcionan. Por eso, ya no sólo
tendremos que fijarnos en el “formato”, sea HD 1.080/720 o 2K/4K, sino también
en las soluciones comerciales que nos ofrece una cámara u otra. Y éstas han de
aparecer claramente en sus especificaciones técnicas.

>> Destino final


Por otro lado, el productor y el técnico no pueden perder de vista la rentabili­
dad del trabajo. Su amortización viene fundamentalmente por los canales de
distribución a la que está destinado.
Es posible que una cámara con formato 4K RGB 14 bits y 48 fps nos pro­
porcione una calidad fantástica, pero será a un precio igualmente “fantástico".
Ahora bien, si nuestro canal de distribución final es un DVD para un cliente
específico, ¿no obtendríamos un resultado final muy parecido con una cámara
HDTV de mucho menor coste? Un parámetro importante que se suele obviar es
precisamente el formato final. También debe estar presente en nuestros cálculos.
Optimizar los costes de captación puede además liberar más recursos para
otros aspectos igualmente importantes, como la preparación, los decorados, el
tiempo de rodaje, etc. El espectador no sabe de píxeles o de calidades técnicas;
ni tiene por qué. La calidad objetiva y la subjetiva son igualmente importantes:
el continente, pero también el contenido.

» Coste total
Por otra parte, en el coste de una producción no influye sólo el soporte, sino toda
la cadena. Hay que tener en cuenta que diferentes cámaras y diferentes formatos

» 144
PARTE II: CAPTACIÓN

pueden obligar a trabajar con posterioridad con diferentes equipamientos de


muy diversos presupuestos. Algo que también, y esto es importante, puede
ocasionar demoras o planes de trabajo distintos.
De la misma manera, a veces paradójicamente, trabajar con equipamien­
tos de baja gama puede obligar a tener más cuidado a la hora de iluminar,
pues sus límites son más grandes. En ese caso, el dinero que se ahorra en un
equipamiento, se gasta en más material de iluminación y tiempo de rodaje.

» Tipo de producción y presupuesto


Un técnico o incluso el productor siempre ha de apostar por la mayor calidad.
Pero, además del presupuesto, influye también el tipo de propuesta. Rodar una
gran película comercial, con un presupuesto de 200 millones de euros, muchos
efectos especiales y grandes escenas de masas en un formato como el HDV es
una gran tontería (objetivamente, me refiero: es posible que subjetivamente se
quiera trabajar con HDV por razones estéticas).
Pero el HDV o el AVHCD pueden ser grandes formatos para un documental
independiente de tipo social o de investigación, donde se puede sacrificar un
tanto la calidad del continente a favor del contenido: mayor cantidad de material,
más cámaras, más ergonomía en la grabación, menor intrusismo en la acción...
Grandes obras actuales hubieran sido imposibles de realizar con los voluminosos
sistemas (en material y personal) de trabajo tradicionales.
Así pues, lo primero que hay que tener en cuenta es que no hay formato
malo, sino elecciones desafortunadas para propuestas diferentes.

La línea de la luz

Para poder elegir y discernir entre la muy diversa oferta de cámaras existentes en
el mercado, recomiendo seguir el mismo camino que sigue la luz y ver qué tipo
de elementos clave de la calidad nos podemos encontrar.
Nos encontraremos con elementos ineludibles, comunes a todas las cámaras,
que son básicamente tres:

• El conjunto óptico
• La separación tricromática
• El sensor

» 145
PARTE II: CAPTACIÓN

» Conjunto óptico
Como "conjunto óptico” nos referimos no sólo a las lentes u objetivos, sino
también a los filtros que puedan usarse. Estos filtros pueden colocarse delante
del objetivo, o detrás, como ocurre con los filtros infrarrojos (IR) o la rueda de
filtros neutros (ND) o de balance de color usual en muchas cámaras de vídeo.
El filtro infrarrojo es muy usual en los sistemas digitales, no tanto en los
fotoquímicos (donde se usan casi siempre los ultravioletas, UV). Ello se debe
fundamentalmente al hecho de que los sensores digitales son muy sensibles
a las frecuencias infrarrojas de la luz, no visibles al ojo humano. Estos filtros
permiten mejorar los resultados visibles y evitar aberraciones cromáticas.
Los filtros usuales en fotografía quedan a criterio del director de fotografía
(DOP director of photography). Algunos lo usan con naturalidad, acostumbrados
al trabajo fotoquímico o de vídeo tradicional, y otros, dado las numerosas po­
sibilidades de la intérmedicación digital, prefieren “filtrar" en postproducción.
Ambas mecánicas de trabajo son válidas, pero hay que tener en cuenta que los
filtros físicos no son reversibles: su efecto queda fijado indisolublemente a la
señal.

En el mundo del cine en España, se suele usar operador como sinónimo de director de fo­
tografía, siendo el segundo operador el encargado de manejar la cámara; en el mundo del
vídeo, un operador o camarógrafo (o simplemente “cámara”) es el encargado del manejo
de la cámara, y el término “iluminador” se usa como sinónimo de director de fotografía.
En inglés, además de DOP también es usual encontrar la palabra cinematographer.

» 146
PARTE II: CAPTACIÓN

No es éste un libro dedicado a la fotografía (ni soy yo la persona adecuada, por


otra parte), por lo que nos limitaremos a hablar de las lentes u objetivos y su
influencia en la calidad de una imagen.

» Separación tricromátrica
Como ya hemos entendido en la primera parte, la información pura y dura carece
de color: son sólo unos y ceros, que nos proporcionan los diferentes niveles de
“grises". Para reproducir la sensación de color es necesario diferenciar los colores
primarios rojo, verde y azul.
Es lo que se conoce también como tri-estímulo (tristimulus).
Es preciso, pues, separar los tres colores básicos, y esto se realiza mediante
sólo tres técnicas:

• Prisma dicroico
• Máscara Bayer
• Foveon

De los tres, el último es el menos usual, y si bien es una tecnología promete­


dora, a día de hoy sólo está implementada en cámaras de fotografía digital.

» Sensor
Tras pasar por un proceso u otro de separación de color, la luz llega por fin
al sensor. Para un mejor estudio, en el término “sensor" (imager) incluiré no
sólo la rejilla de elementos fotosensibles, sino también, en la etapa conversora
analógico digital (A/D), el filtro anti-aliasing (AA filter), que consiste por lo
general en una fina película transparente que recubre el sensor. El filtro AA
también se conoce como filtro óptico de paso bajo (OLPF en sus siglas en
inglés).

» RAW
Lo que tendríamos justo después de la etapa A/D es una información en bruto
o en crudo (RAW) de lo que el sensor ha captado.
La forma de tratar esta información depende de las soluciones técnicas de
cada equipo en concreto, de sus elementos particulares. Dado que aquí la luz ya
se ha convertido en información digital, hablaríamos de la línea de datos (véase
más adelante).

» ¿Qué es una cámara?


Técnicamente, cualquier dispositivo que cuente con al menos dos de estos tres
elementos (óptica y sensor; la separación en colores no es necesaria en cámaras

» 147
PARTE II: CAPTACIÓN

en blanco y negro) puede ser considerado una cámara apta para un trabajo
audiovisual.
Por ello en este apartado tendremos que incluir no sólo el segmento tradicio­
nal de cine y vídeo, tanto profesional como doméstico, sino también el campo
de la visión artificial y la incorporación de las cámaras de fotografía fija con
capacidad de grabación en vídeo.

Ni que decir tiene que también se incorporan nuevos dispositivos móviles de pequeño
tamaño, como las cámaras que incorporan los teléfonos móviles o PDAs: si tiene una
óptica y sensor, es una cámara.

La línea de datos

Una vez obtenidos los datos digitales, los equipamientos modernos ofrecen una
alta variedad de opciones, pero todas siguen un camino lógico.
Los datos RAW podemos guardarlos tal cual, para un posterior procesamiento
en postproducción, o bien mandarlos a la etapa llamada "matriz", que convierte
esos datos en una señal entendible por el resto de equipamiento televisivo: es
decir, la convierte en un estándar.

Este estándar puede ser exclusivo del mundo del cine digital (RGB o XYZ, 12
bits, 24/48 fps y diferentes resoluciones y relaciones de aspecto de pantalla), o

» 148
PARTE II: CAPTACIÓN

bien del mundo de la televisión (HDTV), mucho más estandarizado pues ha de


acomodarse a la Recomendación 709 de la ITU: 1.080/720, 8 bits, etc.

» Monitorización
El principal escollo de una señal no HDTV es su monitorización. Los monitores
estándar de la industria están pensados para una conexión HD-SDi. Sólo en los
últimos tiempos están apareciendo monitores que superan esa norma (2K, 10
bits), y que permiten conexiones no estándares en el mundo de la televisión,
como el HDMI u otras de tipo informático (Ethernet, USB, etc...)
Por eso la mayoría de las cámaras que graban en formatos no estándares
HDTV incorporan una etapa de matriz para proporcionar una salida de visionado.
Esta salida, si es de calidad, permite igualmente su captación externa.

» Almacenamiento
El almacenamiento puede ser interno (en los camascopios) o externo.
Generalmente, si es interno, suele ir acompañado de compresión, que será ade­
más, por lo general, una solución comercial de cada casa. Si la grabación es
externa se puede pensar en una grabación sin comprimir, o elegir el códec más
apropiado.
Tanto interna como externamente, la grabación puede optar por un sistema
lineal (cinta) o no lineal (soporte rígido IT).

» Dispositivos I/O
Tanto para la monitorización como para la grabación externa, las cámaras han
de contar con dispositivos de entrada y salida (I/O, Input/Output interface), que
pueden ser, como hemos dicho, estandarizados o no.
Se suelen considerar de entrada y salida si hablamos de un camascopio, pues
en algunos de ellos se puede usar el magneto como grabador externo. Si no es
así, evidentemente, sólo contará con salida.
Las entradas y salidas y las diferentes conexiones (interfaces) nos dan siem­
pre una idea de la calidad del dispositivo. Por ello he incluido un anexo.

Pasemos a dar una visión más concreta de cada elemento, tanto de los comunes
como de los particulares.

» 149
» 151
1. Elementos comunes a todas
las cámaras

» La calidad como proceso global


Solemos asociar la calidad de una imagen con conceptos un tanto subjetivos
como "resolución” (en el sentido general de la palabra), "definición" o “nitidez”.
Y queremos pensar que éstos están definidos exclusivamente por los parámetros
digitales ya conocidos: resolución y profundidad de color. Sin embargo, esto no
siempre es así, pues en toda cámara influyen todos los procesos y elementos
físicos por los que pasa la luz hasta ser captada por el sensor.
La calidad se verá afectada, por ejemplo, por los filtros que interpongamos
delante de la lente, por la propia calidad y características de la lente, por filtros
posteriores como el infrarrojo (IR), y por el filtro anti-aliasing (AA) que suele
recubrir el propio sensor.
Una vez que llega la luz al sensor, debemos tener en cuenta la tecnología y
calidad del mismo, su conversión a señal eléctrica, con posible amplificación
y filtrado de ruido, y su conversión a digital en la etapa A/D.
Cada uno de estos procesos afecta indudablemente a la calidad, pues no
existen pasos “puros” que no impliquen una mínima pérdida de calidad (pro­
cesos con calidad 100 %). Si contáramos con sólo cinco procesos, por ejemplo,
cada uno de ellos optimizados al 90 %, tendremos un resultado de 0,9 x 0,9 x
0,9 x 0,9 x 0,9 = 0,59, esto es, de un 59 % de la calidad total. Pero si sólo uno
de ellos fuera del 60 %, la calidad final sería del 39 %. Por eso es importante que
todos los elementos que interfieren sean óptimos.

» Concepto MTF
Se puede medir la calidad final de una cámara con el cálculo conocido co­
mo Modulation Transfer Function (MTF), que analiza cada una de las etapas.
Generalmente, se muestra con un dato de "resolución en pares de líneas" por
milímetro (no confundir con la resolución entendida como número total de píxe-
les). A mayor número de pares de líneas, mayor calidad.
Sin embargo, no siempre los fabricantes proporcionan este dato, y no siempre
es fiable. Por otra parte, son reacios a dar más datos de los precisos (como la

» 151
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

composición de sus filtros AA). Así pues, nunca está de más recurrir a pruebas
de cámara en diferentes condiciones o consultar testeos realizados por profesio­
nales independientes.
Y tampoco podemos olvidarnos de que, dentro del concepto MTE hay que
incluir el resto de procesos necesarios para mostrar la obra al espectador. En el
caso de la televisión, por ejemplo, la emisión por antena, la recepción y el tipo
de monitor. El tiraje de copias, la calidad del proyector y el tamaño de la pantalla
en el caso de una obra cinematográfica.
En este capítulo hablaremos de los tres elementos que más influyen en la
calidad final de los datos y que son comunes a todas las cámaras.

Las lentes

Las lentes son el ojito derecho de todo buen director de fotografía. Lentes de­
fectuosas o mediocres logran resultados defectuosos y mediocres, aparte de
complicar el rodaje y estrechar los recursos creativos. Ahora bien: tienen un
precio. Fabricar una buena lente es caro, y fabricar una buena lente para el re­
ducido mercado profesional (cientos, quizás algunos pocos miles de unidades)
es mucho más caro que fabricar millones de lentes para el mercado final o de
consumidor. Las lentes profesionales de cine se diseñan además específicamen­
te para un trabajo muy exigente. Son muy luminosas, pues la obturación típica
(1/48) es crítica. Esta luminosidad, además, se ha de mantener en todo el juego
de lentes: si tenemos un 50 mm con f1.4, también necesitaremos un 24 mm y
un 135 mm con esa abertura. Los diafragmas son precisos, incluyendo pasos
intermedios (tercios, medios o incluso cuartos). Y están diseñados para trabajar
con otros accesorios profesionales, como el portafiltros o matte box y la rueda de
foco follow íocus). Por eso, las lentes profesionales son, por definición, de mejor
calidad que las demás, pero el precio de un buen conjunto de lentes puede ser
incluso superior a la propia cámara.
Por otra parte, el mercado final es mucho más sensible al precio que a la
calidad, por lo que es normal que en muchas cámaras pensadas para este
mercado se sacrifique hasta cierto punto la calidad de las lentes.
La conclusión es sencilla: la diferencia de precio del equipamiento audio­
visual, dado que la tecnología específicamente digital es compartida por la
mayoría de los equipos, estará cada vez más en las lentes que en las cámaras.
En este libro no hablaremos de las lentes y su complicado mundo (en ocasio­
nes, muy subjetivo), ni tampoco de fotografía. Es aconsejable tener unos cono­

» 152
PARTE II: CAPTACIÓN

cimientos previos, siquiera muy básicos. Sí destacaremos tres cosas a tener en


cuenta: nitidez o definición, luminosidad y variedad focal.

» Nitidez, definición, contraste


Estos tres términos son ambiguos, y pueden tener una valoración subjetiva u objetiva.
Técnicamente, en el mundo de las ópticas, la definición o nitidez (o en ocasiones
contraste) de una lente es sinónimo de estar libre de cualquier tipo de distorsión (de
perspectiva o cromática u otra), así como de efectos indeseados como refracción,
irisación (flare), etc. En definitiva, una lente será más perfecta, tendrá más
definición, cuanto menos distorsione la realidad que se intenta representar.
También aquí hablamos del número de líneas por milímetro que es capaz
de distinguir una lente. En este sentido hay que señalar que la mayoría de las
lentes dan valores distintos de líneas en la parte central de la óptica que en los
extremos.
Si hablamos de nitidez, podemos encontrarnos con juegos de lentes que
permiten una estética diferenciadora de los demás por su propio diseño. Lentes
más "duras” o más "blandas” en su nivel de definición y contraste.

» Luminosidad
La luminosidad es también crítica. Una lente no es cien por cien transparente, y
siempre se pierde un porcentaje de la luz proveniente del exterior. En lentes de
focal variables (zoom), este hecho es más evidente pues se incrementa el número
de lentes internas y, por ende, la pérdida de luminosidad. En este sentido, una
óptica de focal fija (prime) siempre será preferible a otra de focal variable (zoom).
La luminosidad viene determinada por la apertura del diafragma, cuya me­
dición se ha estandarizado con los "pasos f" o "f. ratio” (de focal ratio): f1,4,
f2,8, f5,6, etc. Como se sabe, cada paso de diafragma supone un incrementar o
disminuir por dos la cantidad de luz entrante.

"Focal ratio" indica con ese número que debemos dividir la focal (distancia de la lente
al objetivo, por ejemplo 50 mm) por él (por ejemplo, 2.8) para obtener el diámetro del
diafragma (en el ejemplo, 50 mm/f 2,8 = 17,86 mm, que será el diámetro de ese diafragma
en esa lente). La abertura (apertura en inglés) es pues un concepto ligeramente diferente
a la focal ratio, e influye en cuestiones tales como la profundidad de campo.
Los pasos f (f stops) tienen esta terminología un tanto complicada debido a que
el diafragma es un mecanismo casi circular. El área de un círculo es PI por el radio
al cuadrado. Si queremos aumentar el área de un círculo al doble, no tenemos que
multiplicar por 2, sino por raíz cuadrada de 2. Por ejemplo: f11 x 1,4142... = fl6
F11 tiene el doble de área que f16, y deja pasar el doble de luz.

» 153
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

La apertura de diafragma también influye en el concepto anterior, el de la


nitidez. Por lo general, la mayor nitidez, medida en líneas por milímetro, de
una lente se obtiene dos pasos por encima de la apertura máxima. Esto se
debe fundamentalmente a la refracción de la luz que incide sobre las palas del
diafragma.
En fotografía fija se habla de lentes "rápidas" fast). Este concepto de velo­
cidad se relaciona con que, a una mayor apertura de diafragma, se puede usar
una velocidad de obturación menor (más rápida). En la imagen en movimiento,
la velocidad de obturación tiene el límite de la cadencia y suele ser constante
(1/48, 1/50, 1/60...), por lo que, en lugar del término "rápida", se prefiere utilizar
el término "luminosa".
Una óptica luminosa permite rodar con menor cantidad de luz (útil en entor­
nos poco iluminados) y, en el caso del digital, evita el uso de amplificaciones
de señal (ISO, decibelios y/o forzados en postproducción), que provocan el inde-
seado grano o ruido electrónico.
También es importante señalar que la apertura del diafragma influye en una
característica estética importante: la profundidad de foco, de la que hablaremos
más adelante.

» Variedad focal
Con variedad focal nos referimos a las distintas aberturas del ángulo de visión
(en inglés se suelen usar las siglas FOV de Field of Vision). Se mide en milímetros,
siendo la distancia entre el elemento captador (sea fotoquímico o electrónico) y
la lente. Valores más altos reducen el ángulo de visión (teleobjetivos) y valores
más bajos lo amplían (angulares).
Hay juegos de lentes intercambiables de focal fija (un único FOV) y lentes de
focal variable conocidas también como “zooms" (con varios FOV).

» Relación entre sensor y focal


Es importante destacar que el ángulo de visión de un objetivo está en función
no sólo de su distancia focal real, en milímetros, entre la lente y el captador, sino
también del tamaño real de este sensor.
Es común asociar un objetivo de 50 mm con una distancia focal media. Pero
este objetivo lo es si usamos soporte de 35 mm, pues las distancias focales se
notan generalmente pensando en ese soporte.
Si el sensor es más reducido (2/3 de pulgada, por ejemplo, típicos de las
cámaras HDTV), la distancia focal se multiplica, convirtiendo un angular medio
en uno largo. Es lo que se conoce como "factor de multiplicación”.

» 154
PARTE II: CAPTACIÓN

Es algo similar a lo que sucede con las ópticas de 35 y 16 mm de cine. Si


colocamos una óptica de 50 mm en una cámara de 16 mm, no corresponderá a la
misma apertura que en 35 mm. Hay tablas de equivalencias que los operadores
manejan con regularidad.
En algunas cámaras de ámbito doméstico o incluso prosumer, la distancia
focal se expresa con precisión (los milímetros exactos entre el sensor y la lente),
añadiendo lo que sería el equivalente en 35 mm para que el operador pueda
imaginarse más rápidamente el encuadre.

» Lentes fijas o intercambiables


Una cámara profesional siempre ofrecerá la posibilidad de cambiar de lente. Es
decir, la lente será independiente del cuerpo de cámara. Esto permitirá elegir
entre la amplia gama de ópticas que ofrece el mercado, en función del tipo de
rodaje y de las preferencias del director de fotografía.
En el ámbito prosumer (o low end), lo habitual es que la cámara tenga óptica
fija de focal variable (zoom), sin posibilidad de cambio de objetivo. En este caso,
el operador ha de ajustarse a las posibilidades definidas por el fabricante.

La palabra “fija” se usa indistintamente para señalar una óptica con focal fija (por ejem­
plo, 50 mm; prime, en inglés) como una lente unida indisolublemente a la cámara, no
intercambiable (fxed).

» Lentes no intercambiables
Incorporar una lente fija supone, principalmente, un gran ahorro de coste en el
equipamiento.
El gran problema de estas lentes, aparte de su inferior calidad y la pérdida
de luminosidad asociada a un zoom, es su limitada variedad focal. Siempre
estaremos limitados en el uso tanto en teleobjetivos como en angulares abiertos.
El caso de los teleobjetivos puede ser crítico, por ejemplo, si deseamos realizar
documentales de naturaleza o eventos en directo, donde por lo general la cámara
se sitúa a gran distancia del objeto a fotografiar.
También se limita mucho la distancia angular en espacios pequeños. Hay
que señalar que estas cámaras, además del uso de ópticas fijas, suelen contar
con sensores de pequeño tamaño (1/2, 1/3 de pulgada). Esto reduce aún más la
distancia focal mínima con la que podemos trabajar, lo que dificulta el trabajo
en interiores con espacios reducidos.
Como dijimos, gran parte del mercado prosumer ofrece ópticas fijas, pero tam­
bién se pueden encontrar cada vez más soluciones de esta gama que permiten
el uso de ópticas intercambiables.

» 155
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

>> Soluciones intermedias


Algunos fabricantes ofrecen opciones para el uso de objetivos intercambiables
dentro de cámaras con ópticas fijas.
Son adaptadores que se colocan por delante del objetivo fijo, por lo que per­
miten el uso de otras ópticas. Se utilizan para intentar conseguir mejor calidad,
pero también una profundidad de campo más cercana a la que ofrecen los
equipos de alta gama de cine digital.
Es una opción que puede ser interesante en ciertos momentos, pero hay
que contar con dos efectos indeseables: la multiplicación de la focal (pues la
distancia entre la lente y el sensor se dobla o triplica) y la pérdida en luminosidad.

» Ópticas intercambiables
En la gama profesional (broadcast) y alta (high end) del equipamiento, las ópticas
son siempre intercambiables. El fabricante suele vender el equipamiento con
una solución práctica como es un zoom estándar que cubra las distancias focales
más usuales.
Por lo general, este objetivo variable bastará para la mayor parte de la pro­
ducción televisiva, donde los operadores están acostumbrados al trabajo con
zoom, incluso para la operación de enfoque.
Si deseamos usar la cámara para un trabajo más exigente o específico, po­
demos recurrir a un juego de ópticas fijas intercambiables o incluso un zoom de
mayor calidad (mejor definición y luminosidad). Debido a que han de ser muy
luminosos y mantener el diafragma a lo largo de todas las distancias focales,
estos zooms suelen ser muy caros, pesados y voluminosos. Tanto éste como los
juegos de ópticas fijas, debido a su alto coste, se suelen encontrar en alquiler en
las casas de servicio.
Al igual que hay juegos de óptica para 35 y 16 mm, también encontraremos
ópticas para SD y HD. Son distintas no sólo por la mayor definición del HD,
sino también por el cambio de relación de aspecto (de 4/3 a 16/9) y tamaño de
sensor. En ningún caso es aconsejable trabajar con ópticas SD en cámaras HD.
Lo contrario sí es posible, siempre y cuando tengamos en cuenta el factor de
multiplicación (que limitará sobre todo en los angulares).

» Compatibilidades
Por tradición, las ópticas cinematográficas son siempre las de mayor calidad vi­
sual. Además, los directores de fotografía están acostumbrados a ellas y conocen
las diferencias entre los distintos fabricantes.

» 156
PARTE II: CAPTACIÓN

También hay diferentes monturas. La clásica en cine es conocida como PL,


por ejemplo. En algunas cámaras (sobre todo de gama prosumer) sólo es posible
utilizar ópticas de la misma marca que la cámara, pues se ha creado una montura
ad hoc para ello, evitando así la competencia.
Por esa razón, muchas cámaras HD y DC tienden cada vez más a ofrecer la
opción de trabajar con monturas compatibles o sus correspondientes adaptado­
res.

» La profundidad de campo
Uno de los temas que más salen a la palestra cuando se trata de la cinemato­
grafía digital es la diferencia que muestra en cuanto a la profundidad de campo
(Depth of Phocus, DOP) con respecto al cine tradicional.
La profundidad de campo es un concepto puramente óptico y se define como
aquellas partes del ángulo de visión que se encuentran a foco en un determi­
nado encuadre. En realidad, técnicamente, sólo un punto determinado a una
distancia exacta está "a foco”. Pero se entiende que en las distancias próxi­
mas a ese objeto tienen una pérdida mínima de nitidez y visualmente parecen
igualmente enfocadas. Llamamos campo focal o profundidad de campo a ese
espacio alrededor del foco objetivo que todavía percibimos como “enfocado”, y
"círculo de confusión" al límite existente entre lo enfocado y lo desenfocado en
los límites exteriores del campo focal.
La profundidad de campo será mayor "por detrás" del foco (aproximadamente
2/3) que por delante (1/3).

La mayor o menor profundidad del campo focal tiene que ver con tres elementos
ópticos:

» 157
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

• La distancia focal del objetivo a mayor distancia focal (teleobjetivos), la pro­


fundidad de campo se reduce. Los angulares tienen por esa razón una
profundidad de campo mayor.
• La abertura del diafragma. Si reducimos la cantidad de luz que entra
en el sensor, aumentamos también el campo focal. Es bastante habitual
que cuando el foco es crítico en un plano, el operador pida más potencia
lumínica para cerrar el diafragma y ampliar así el campo focal.
• La distancia del objeto enfocado. A mayor distancia desde el objetivo,
la profundidad de campo se reduce. Los teleobjetivos “aplanan" más la
imagen, consiguiendo también mayores desenfoques.

» ¿Influye el tamaño del sensor en la PDC?


La respuesta es no.
Muchos profesionales observan que si se usan sensores y formatos más
grandes (HD en vez de SD, o S35 mm en vez de 2/3), el foco se hace más crítico
y la profundidad de campo se reduce. Esto puede llevar a pensar que el tamaño
del sensor influye en la PDC, pero no es así. Como hemos dicho, la PDC depende

» 158
PARTE II: CAPTACIÓN

del cuerpo óptico y es indiferente que el sensor sea pequeño o del tamaño de
una cartulina.

» ¿Hay que tener en cuenta el sensor a la hora de valorar la PDC?


Definitivamente, sí.
¿Es una contradicción? Puede parecerlo, pero no es así.
Hemos dicho que la PDC depende de tres factores. Pensemos ahora que
queremos hacer un encuadre de un objeto que está situado a 3 metros con un
objetivo de 50 mm en un cámara con un sensor Súper 35 mm, el usado en el cine
tradicional fotoquímico (sobre el tamaño de los sensores hablaremos luego).
Si colocamos el mismo objetivo en un cámara con un sensor menor, pongamos
un 2/3 de pulgada, a la misma distancia, ya no tendremos el mismo encuadre (el
mismo ángulo de visión), sino el que correspondería a una focal superior (debido
al factor de multiplicación). Para obtener el mismo encuadre tendríamos que
acercar la cámara o bien acercar el sujeto, y es entonces cuando, al disminuir
la distancia entre el objeto y la lente, la PDC se amplía.
Sin mover la cámara, para mantener el mismo encuadre, tendríamos que
usar un ángulo de visión más amplio, es decir, una focal más corta. Una vez
más, ampliaríamos así la PDC, pues las focales más cortas tienen mayor PDC
que las largas.
El último punto a tener en cuenta es el diafragma. Pero no hay que confundir
apertura con pasos de diafragma. Lo que influye en la PDC es la abertura, esto
es, el diámetro del círculo que abre el diafragma a cada paso. A mayor diámetro,
menor PDC.
En el caso inverso a nuestro ejemplo, si colocáramos el objetivo de 50 mm
en la cámara de 2/3, podríamos poner la cámara S35 a la misma distancia con
un objetivo de mayor focal (pongamos 80 mm con un factor de multiplicación
1,6) para mantener el mismo encuadre. Si obviamos el tema de la mayor focal
del segundo (ergo, menor PDC), y abrimos los dos objetivos a F4, reciben los dos
la misma cantidad de luz, pero con dos aberturas diferentes. El diafragma del
primero tendría un diámetro de 50/4 = 12,5 mm, y el segundo lo tendría de 80/4
= 20 mm. El diámetro del segundo sería mayor, y por tanto su PDC sería más
reducida.

» Distancias focales “equivalentes”


Los operadores están acostumbrados a trabajar con unas distancias focales
dadas, donde asocian al rango 35-50 como focales medias, similares al ojo
humano, las menores como angulares y grandes angulares y las mayores como

» 159
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

teleobjetivos. Estas distancias están pensadas para el negativo y tamaño de


sensor del 35 tradicional.
En muchas cámaras de pequeño formato con ópticas no intercambiables se
colocan objetivos con distancias focales obviamente más cortas, pero se indica
su “equivalente" en la medida tradicional. Se dice así que se tiene una lente de
15-115 mm equivalente (por ejemplo) a un 24-185 mm tradicional.
Hay que recordar que se trata tan sólo de una equivalencia.

» Formato de proyección y PDC


Los razonamientos anteriores explican que hay que tener en cuenta el tamaño
del sensor para el trabajo diario, donde los operadores tienen en la cabeza los
estándares focales del cine.
Pero también influye, no en la PDC en sí, pero sí en su percepción, el formato
de reproducción. No es lo mismo observar una imagen en un televisor de 14
pulgadas en nuestra casa, que en una pantalla de once metros de base en un
sala de cine.
En el segundo caso, en el cine, se verá mejor la diferencia entre los objetos
enfocados, los que consideramos nítidos dentro de la PDC dada, y los desenfo­
cados. También serán mucho más visibles las zonas conocidas como “círculo de
confusión”, aquellas zonas limítrofes entre lo nítido y lo desenfocado.
Esto es lo que hace que un foco "rozado”, imperfecto, pueda pasar por enfo­
cado en un monitor pequeño y claramente desenfocado en una pantalla de cine.

>> El tamaño de visionado


Por la misma razón, a la hora de rodar es muy importante no fiarse de los
pequeños visores y LCD de muchas cámaras en cuestión de foco. El foco es algo
crítico, que no tiene arreglo en postproducción, por lo que hay que asegurarse
de que se han medido bien todas las distancias.
Es muy habitual encontrar en planos “rozados" o incluso claramente "des­
enfocados” en los montajes finales de muchas obras. Esto se debe a que en la
sala de edición, si se usan monitores de baja resolución o formatos "offline” de
baja calidad, el montador no aprecia el desenfoque y da por buenas tomas que
debería rechazar.

» El “look” cinematográfico
Se asocia una corta profundidad de campo al "look” cinematográfico, y una
mayor profundidad a un “look” televisivo.

» 160
PARTE II: CAPTACIÓN

Esto es cierto debido a lo que hemos hecho notar: los sensores con tamaño
más pequeño obligan a usar focales más abiertas y, por tanto, mayor PDC.
Pero las últimas cámaras digitales de HR empiezan a ofrecer una respuesta
muy similar debido al gran tamaño de sus sensores, equivalentes al tamaño del
fotoquímico. De ahí que la respuesta del foco se aproxime.

puristas que afirman que, incluso a igual tamaño del sensor, el fotoquímico
tendrá una PDC menor, pues los elementos fotosensibles se distribuyen en capas (una
para cada color), y este grosor, siquiera mínimo, también influye en la PDC. Teóricamente
se podría dar por cierto, pero no sabría decir hasta qué punto es apreciable esa mínima
diferencia.

Lo que no se puede afirmar es que un "look” tenga mayor calidad que otro. Ni
técnica, ni subjetiva o estéticamente.
Ciertamente, el creador cinematográfico con talento usa la profundidad de
campo de manera artística. En sistemas HD con sensores pequeños, el creador
se siente limitado, pues no puede "desenfocar" los elementos que a su entender
carecen de interés en el encuadre, para fijar la atención del espectador en los
enfocados. También es cierto que los desenfoques ópticos crean una textura
muy peculiar, que también puede ser usada creativamente.
Existen soluciones sencillas como retirar la cámara para usar focales más
largas, o trabajar con menos luz para abrir el diafragma. Pero no siempre son
posibles. A veces se recurre a un trabajo en postproducción, con un sabio uso
multicapa o con nuevos y sorprendentes plugins que simulan el desenfoque
óptico cada vez con mayor verosimilitud. Pero es laborioso y ralentiza el proceso
de postproducción.
Por otra parte, los defensores a ultranza del "look" cinematográfico olvidan
con frecuencia los problemas de foco que presentan los campos focales estre­
chos. No es inusual que en primeros planos se vea a foco los ojos, pero no
la nariz o las orejas del protagonista: ¿es ése un efecto creativo deseado? No
siempre, desde luego. En ocasiones lo que desea el creador cinematográfico es,
precisamente, lo contrario: una mayor profundidad de campo.
En cuanto al componente "subjetivo” de asociar PDC en una dialéctica cine
versus televisión, tenemos el ejemplo clásico del estilo de Orson Wells, que
deseaba trabajar con amplios campos focales, obligando incluso, en su tiempo,
al rediseño de algunas ópticas. O encontramos uno más reciente en la obra de
George Lucas, en los últimos episodios de la saga Star Wars, donde el uso con
profusión de CGI (imágenes generadas por ordenador) y VFX (efectos digitales)
en muchos de los fondos y decorados dejaría de tener sentido sí se ofrecieran

» 161
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

desenfocados. Visualmente, perderían mucho, y técnicamente se complicaría


su integración.
La conclusión sólo puede ser una: no existe un “look” superior a otro, sino
diferentes estéticas.
Dicho esto, también debe quedar claro que si podemos elegir el tipo de lente para
nuestra cámara (sistemas de óptica intercambiable) y, por ende, jugar más con la
PDC, esta decisión estética será siempre más amplia que si nuestra óptica es fija
o nos vemos limitados por las distancias focales y un pequeño tamaño de sensor.

» La labor del foquista


Una cosa realmente sorprendente es que, a pesar de contar con un campo
focal generalmente más extenso, muchas producciones realizadas en digital
para televisión tienen problemas de foco. Esto se debe no a la máquina, sino al
operador, pero es necesario explicarlo un poco.
En trabajos cinematográficos, uno de los profesionales más solicitados y
requeridos es el foquista. Es decir, la persona del equipo de cámara que se
ocupa, exclusivamente, de medir cuidadosamente la distancia entre la cámara
y los actores o los objetos, y de ajustar adecuadamente el anillo focal de la lente.
Es un trabajo fino que requiere experiencia, precisión y método.
Es también muy crítico, pues a pesar de todos los avances en postproducción,
hay sólo tres cosas que no se pueden solucionar: el encuadre, la dirección de la
luz y el foco. Y sobre todo estas dos últimas cosas. Si un plano se rueda sin foco,
queda prácticamente inútil para el montaje.
En televisión, la dinámica de trabajo no suele incluir a un foquista, por varias
razones que tienen que ver más con la “tradición" que con la lógica.

• Primero, por lo que ya hemos dicho del campo focal más amplio: no es tan
crítico, pues aunque la figura se mueva un poco de su marca inicial, puede
seguir a foco dentro de la profundidad de campo.
« Segundo, porque se suele trabajar con mucha luz, sobre todo en los platos
de televisión. Con diafragmas más cerrados, se obtiene mayor profundidad
de campo y menos problemas de enfoque.
• Tercero, porque es habitual, tanto en plato como en exteriores, trabajar
con un zoom y no con lentes fijas. Con un zoom, la manera normal de
enfocar es que el operador ponga al máximo el teleobjetivo, tome foco y
luego abra para componer el plano. Con ópticas fijas, propias del rodaje
cinematográfico, eso no es posible: es necesario medir para enfocar. Es
imprescindible la figura del foquista.

» 162
PARTE II: CAPTACIÓN

« Cuarto, porque en un sistema multicámara en raras ocasiones habrá que


cambiar el foco durante una toma ni será preciso tomar nuevas medidas. Si
es necesario reenfocar, el realizador puede optar por pinchar otra cámara
mientras el operador realiza el enfoque con el zoom.
« Por último (y lamentablemente, pues es una mala excusa), porque, como
apuntamos antes, el resultado final se verá en una pequeña pantalla en
nuestro hogar. Un pequeño "roce" con el foco no es tan evidente en un
monitor de 14 pulgadas como en la sala de un cine donde podemos tener
una pantalla de doscientos metros cuadrados.

Lo que en una pantalla de televisión no se aprecia, en un sala de exhibición


resulta desagradable en extremo. Pues, además, el foco es de esas pocas cosas
técnicas que hasta el espectador menos avezado aprecia al instante.
Hay que tener en cuenta que el cine, desde mi punto de vista, no es un
formato de grabación, sino una exigente mecánica de trabajo profesional. Y que
este todo debidamente enfocado es lo mínimo que se puede exigir.

» Mala visualización
Otro de los “vicios" del operador de cámaras de televisión es fiarse de su pequeño
visor para el foco, acostumbrado como está al uso del zoom. Pero ni estos visores,
ni las pequeñas pantallas de LCD que algunas cámaras incorporan, son fiables
para tan crítica labor. Esto es sobre todo importante en las cámaras prosumer,
pues suelen incorporar pequeños LCD que ni siquiera tienen la resolución nativa.
Fiarse de esas pequeñas pantallas para enfocar es más que arriesgado.
Tanto es así, que la mayor parte de los nuevos equipamientos incorporan
ayudas de enfoque en el propio LCD para facilitar la tarea del operador.
La mejor solución es contar con un buen foquista con experiencia. Y llevarse
también un monitor externo suficientemente grande, que nunca viene mal,
pues en ocasiones el director o el asistente de vídeo o de edición en rodaje
pueden apreciarlo al instante y advertir al operador (en caso de un problema de
backfocus, por ejemplo, donde el foquista está "ciego”).
La ventaja del digital con respecto al cine es que una correcta monitorización
no sólo es imprescindible, sino que resulta cien por cien fiable en el caso de
cámaras digitales, pues lo que se ve en la pantalla es exactamente lo mismo
que se graba. En cine, no se sabe nada hasta que se revela y positiva la toma. El
visor de la cámara (la lupa) no permite al operador saberlo siempre con precisión,
y se ha tenido que desechar más de un plano por problemas de foco, incluso un
día o dos de trabajo completo por un problema con el backfocus.

» 163
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Backfocus
El backfocus, dicho mal y pronto, es un reajuste focal entre la lente y la cá­
mara que se realiza en la montura. En ocasiones, una montura defectuosa o una
dilatación en la misma (por efecto de la variación de la temperatura) altera la
distancia focal y, por tanto, también el plano focal de la lente.
Sucede entonces que medimos el objeto, ajustamos el anillo del foco a esa
distancia, pero el resultado sale desenfocado. En el caso del uso de zoom en te­
levisión, podemos cerrar para enfocar pero al abrir perdemos el foco. El resultado
son imágenes borrosas, a pesar de que se ha tomado una medición “correcta".
Algunas cámaras digitales, sobre todo las que usan el bloque dicroico para
la separación del color (véase el siguiente apartado), tienden a calentarse mu­
cho. Este calentamiento puede provocar desajustes en el backfocus (el término
técnico es “descolimación”). Si el desajuste es leve, es más que probable que el
operador no lo aprecie en su pequeño visor. De ahí, una vez más, la necesidad
de un monitoreado de la señal en una pantalla grande.
La única manera de evitar esto es, una vez más, un poco de exigencia y
profesionalidad. Comprobar a cada cambio de lente, y también, si es posible,
entre plano y plano, que el objetivo esté bien colimado.

Recapitulación

• Las lentes son el primer obstáculo con el que se encuentra la luz, y por eso
ha de intentarse conseguir la mayor calidad en las mismas, algo que tiene
un coste a considerar.
• En general, las ópticas más luminosas y con focales fijas dan mayor calidad
y nitidez que las menos luminosas y/o focal variable (zooms).
• La distancia focal y el diafragma influyen de manera decisiva en la “pro­
fundidad de campo” de una imagen.
• Las cámaras de gama baja suelen contar con el inconveniente de no poder
intercambiar lentes, con lo que limita creativamente el tipo de planos que
pueden usar.

» 164
PARTE II: CAPTACIÓN

La s e p a r a c i ó n t r i c o l o r

» Sensores: analógicos y monocromos


Los sensores son una tecnología analógica, no digital, y son sensibles a las dife­
rencias lumínicas de intensidad, no a sus diferencias cromáticas. Son, de alguna
manera, "monocromos”. Simplemente convierten una diferencia de intensidad
lumínica (fotones) en una diferencia de corriente eléctrica (electrones).
Como vimos en la primera parte, para la reproducción del color recurrimos al
sistema de colores primarios RGB. Pero para ello es necesario saber qué cantidad
de rojo, de verde y de azul tiene el objeto que queremos fotografiar. Es necesario,
pues, dividir la luz que entra por la lente, "pancromática” por naturaleza, en sus
tres componentes primarios.
Actualmente, hay dos sistemas que se usan en cine y televisión: el prisma
dicroico y la máscara Bayer. El primero ha sido durante años el más común, pero
el segundo está imponiéndose cada vez más, sobre todo en las soluciones de
gama alta del cine digital. Ambos se consideran de igual calidad pero hay que
analizarlos para ver sus diferencias.
Comentaremos también un prometedor tercer sistema, conocido como Foveon.

» Prisma dicroico
El “bloque dicroico” es un conjunto de filtros y espejos que se sitúa justo después
de la lente y antes de los tres sensores captadores.

» 165
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Los filtros dicroicos tienen la particularidad de filtrar las ondas de luz por su
longitud (ergo, colores) dejando pasar determinadas longitudes y reflejando
otras; los espejos redireccionan los haces hacia los otros sensores.
La característica principal de este sistema es que exige un sensor diferente
por cada color, pero por esa misma razón precisa sensores de menor tamaño
individual que un sistema con un único sensor con máscara Bayer.
El diseño de este prisma debe ser muy preciso, pues los tres sensores deben
tener el mismo plano de enfoque con respecto a la lente.
Y recordemos una vez más que lo que se obtiene de cada sensor es una señal
eléctrica, que carece de "colorimetría". Tendremos, pues, tres señales eléctricas.

» Máscara Bayer
El nombre se toma de su inventor, el ingeniero de Kodak Bryce E. Bayer, que
inventó esta solución para poder trabajar con un único sensor. En este caso, la
división cromática no se realiza por prisma, sino que se utiliza un único sensor
de gran tamaño donde se ha incrustado un máscara compuesta por sucesivos
“microfiltros” de los colores primarios. Esto hace que a cada píxel del sensor sólo
llegue un componente primario de la luz (véase página 395, arriba).

» GRGB, RGBW, stripped...


La base de este sistema son bloques de 2 x 2 píxeles. Dos de ellos serán verdes
(recordemos: el color con mayor presencia en la luminancia) y los otros dos rojo
y azul. Por eso a veces a este sistema se le denomina sistema “GRGB".
En cualquier caso, no siempre tiene esta disposición. Cada fabricante puede
utilizar el mosaico de la máscara como quiera. Kodak, por ejemplo, tiene una
opción con un sistema RGBW, donde la W significa un filtro transparente (de
white) que recibe la luz blanca. O también usar un sistema CYMW, con la
luz blanca más los complementarios: cian, amarillo y magenta (cyan, yellow,
magenta).
Más recientemente, algunos fabricantes del mundo digital, como Sony o
Panavision, han apostado por una disposición distinta de la máscara, en filas
continuas y con la misma cantidad de muestras de los tres colores. Es decir,
sería un máscara puramente RGB y no GRBG, que se conoce como stripped
por la posición en barras o columnas (stríps) de los tres colores primarios (véase
página 395, arriba).
Hay, pues, varias opciones, y en algunos casos, es parte de su secreto indus­
trial. Pero es necesario tenerlo en cuenta para poder determinar temas como su
resolución nativa, su revelado digital y los flujos de trabajo en postproducción.

» 166
PARTE II: CAPTACIÓN

» RAW, demosaico e interpolación

La señal que sale de este sensor es la conocida como “datos en bruto" o, más
comúnmente, RAW.
Esta interpretación es el proceso conocido como demosaico (demosaicing).
En función de cómo se realice, tendremos una imagen de mayor resolución que
otra, dependiendo de si aplicamos interpolación (submuestreo) o no. Posterior­
mente, podremos optar por formatear la imagen en un fichero estándar.
Volveremos a tratar este tema en el siguiente apartado, dedicado a los sensores.

» Ventajas y desventajas
Ambos sistemas, Bayer o prisma, son válidos para una correcta fotografía digital.
Cada fabricante opta por uno o por otro por motivos técnicos o comerciales.
Hay que señalar, eso sí, que un sistema con un solo sensor siempre será más
barato que uno con tres, consumirá menos energía y ocupará menos espacio,
permitiendo cámaras más pequeñas.
Tradicionalmente, en televisión siempre se han usado cámaras con tres sen­
sores. La tecnología en este sentido está muy consolidada. Uno de los problemas
asociados es el calentamiento de la cámara, que puede ser una fuente de ruido
indeseado en la imagen. El prisma dicroico es también una importante fuente
de calor. Y al subir la resolución de SD a HD se precisan sensores mayores, lo
cual explica los problemas de calentamiento de muchas cámaras HD. El calor
del "bloque dicroico” puede tener un efecto colateral importante, que es la des­
colimación o desajuste en el backfocus, debido al calentamiento de las partes
metálicas de la montura.
Principalmente por esta razón, el exceso de calor, la opción de un solo sensor
con máscara Bayer se está extendiendo mucho, sobre todo en las cámaras
HR. Los sensores también se calientan, y lo hacen de manera proporcional a
su tamaño. Pero el bloque dicroico siempre se calienta mientras el diafragma
esté abierto y le llegue luz. Un sensor único se calentará más por ser más grande,
pero lo hará fundamentalmente en el momento de activarse.
Una tecnología con un solo sensor también ofrece la “ventaja relativa” de
que su tamaño se aproxima, o incluso supera, el tamaño del fotograma en
35 mm. Y, como ya hemos explicado, esto permite que reproduzca la respuesta
de profundidad de campo del fotoquímico. La industria no ofrece en la actualidad
un sistema de tres sensores con un tamaño S35 mm o superior, estando el límite
en los 2/3 de pulgada. Y es poco probable que el futuro traiga un desarrollo de
este tipo, pues el calor producido derivaría en una herramienta impracticable.
Un argumento más a favor de un futuro sin bloque dicroico.

» 167
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Foveon
Un último avance sobre la división tricromática son los sensores Foveon. Se
trata de una tecnología de la que se viene hablando hace tiempo, pero que en la
actualidad no está operativa en ninguna cámara de HD o cine digital, pero sí en
cámaras de fotografía digital. Dado que muchas de estas cámaras empiezan a
ofrecer opción de grabación HD, seguramente pronto veamos soluciones Foveon
para cine y televisión (véase página 395, abajo).
En este caso, la separación cromática se realiza "en vertical". No existe
ningún tipo de máscara Bayer ni microfiltro de color. En el chip Foveon, las
capas superiores de cada diodo son sensibles al azul, las intermedias al rojo
y las profundas al verde. Esto permite fotodiodos de mayor tamaño y que los
defensores de esta tecnología hablen de resoluciones verdaderamente nativas:
un Foveon de 12 millones de fotodiodos permite una resolución nativa,1x1,
de 12 megapíxeles RGB (3 canales con 12 millones de muestras en cada uno de
ellos).
Los detractores, no obstante, hablan de una menor sensibilidad de este tipo
de sensor con respecto al CMOS o al CCD.
No es descartable ésta u otras tecnologías para cámaras del futuro.

Recapitulación

• Los sensores convierten los fotones presentes en la luz en un flujo de elec­


trones, una corriente eléctrica de bajo voltaje. Son por definición analógicos
y monocromos.
• Para lograr una, representación de la realidad, es preciso contar con al
menos tres sensores que muestren cada uno de los colores primarios,
RGB (prismadicroico), o un único sensor que permita la discriminación
cromática en cada píxel (máscara Bayer).
• Los dos sistemas descritos conviven en la actualidad, si bien la tendencia
es clara hacia la máscara Bayer por su menor consumo de energía y menor
disipación de calor.

» 168
PARTE II: CAPTACIÓN

Los sensores

Una vez atravesada la lente y el dispositivo de separación tricromática, la luz


llega por fin al sensor.
Como se explicó en la primera parte del libro, cada sensor dispone de equis
elementos fotosensibles que llamamos fotodiodos, que son los que nos propor­
cionan cada una de las muestras de la realidad que pretendemos representar,
lo que conocemos como píxeles.
El número de estos elementos es el que determinará su “resolución nativa”,
pues se convertirán en las muestras o píxeles de nuestra imagen digital.

» CMOS y CCD
En su origen, las cámaras de televisión trabajaban con tubos de imagen, una
tecnología actualmente en desuso. Después se desarrollaron los primeros senso­
res planos, con tecnología CCD (dispositivo de doble carga, en inglés). Permitían
un uso más robusto de las cámaras, más eficiente que los tubos. Posteriormente,
los CMOS (semiconductor complementario de metal-óxido) aparecieron en otros
ámbitos de la industria, y, en los últimos años, se aplican también con éxito a
soluciones profesionales de televisión y cine. En este capítulo no hablaremos de
la tecnología Foveon, pues, a día de hoy, no hay aplicaciones en el terreno de
imagen en movimiento.
Tanto el CCD como el CMOS han evolucionado en el tiempo y ofrecen pe­
queñas variantes. Si bien tradicionalmente se consideró el CCD de mejor calidad,
hoy en día los CMOS se han puesto muy a la par y ofrecen ventajas adicionales.
Una de ellas, el menor coste de fabricación. No obstante, en un mercado en
continua evolución, ambas tecnologías son plenamente válidas y compiten sin
obstáculos.

» Capturar fotones
Todos los sensores se basan en la misma idea: aprovechar las particularidades de
algunos elementos semiconductores (aleación de silicio) que pueden convertir
la energía presente en la luz (fotones) en corriente eléctrica (electrones). Esto
es aplicable a cualquier CMOS o CCD (o Foveon) en cualquier dispositivo de
captación electrónica. Hablamos del cine, de la televisión, pero también de la
fotografía o de aplicaciones industriales y científicas (visión artificial).

» 169
1. ELEMENTOS COMUNES A TOGAS LAS CÁMARAS

Un sensor (imager) está compuesto por equis celdillas en forma de rejilla que
se denominan fotodiodos. El material del que están hechos permite capturar la
energía presente en la luz (fotones) y convertirlos en un flujo de electrones.

Aunque parezca extraño, la tecnología empleada en los sensores captadores es básica­


mente la misma existente en las placas fotovoltaicas generadoras de corriente eléctrica
basadas en energía solar: convierten fotones en electrones.

Una gran intensidad de la luz implica un mayor número de fotones y, por ende,
una mayor corriente eléctrica en forma de electrones. Situaciones con baja
luminosidad emiten pocos fotones y por tanto contaremos pocos electrones a la
salida.
Generalmente, y dado que casi todos los sensores usan el mismo material
base (silicio), lo que tenemos que entender es que un fotodiodo podrá captar
más fotones en función de su área o tamaño.

No es el propósito de este libro profundizar en las diversas soluciones y tecnologías


aplicadas en los fotodiodos. Basta con entender los conceptos básicos para poder hablar
de diferentes calidades y sensibilidades.

» Resolución y sensibilidad
Una vez que se conoce este funcionamiento, lo primero que tenemos que pensar
es que un sensor determinará los dos parámetros más importantes de una
imagen digital: su resolución o número total de píxeles, y su sensibilidad o

» 170
PARTE II: CAPTACIÓN

rango dinámico (Dynamic Rangé), que dependerá fundamentalmente del área


total del fotodiodo.
Esto implica una regla sencilla, aplicable a todas las tecnologías actuales: A
igual tamaño de sensor, resolución y sensibilidad son inversamente proporcio­
nales.
Esto quiere decir sencillamente que, si contamos con un sensor de un área
dada (2/3 de pulgada, por poner un ejemplo muy común en HD), sólo podremos
aumentar la resolución (tener más o menos megapíxeles) sacrificando la calidad
de cada uno de ellos (pues resultarán fotodiodos con menor área sensible).
Esta regla, como veremos, no es la única que determina la calidad de una
cámara, pero sí resulta importante tenerla siempre presente.

» Tamaño del sensor


Siempre hay un límite para el número de píxeles por milímetro cuadrado de un
sensor (“densidad de integración”). Por esa razón, el propio tamaño del sensor
nos puede dar una idea de su resolución.
En televisión, tradicionalmente se usan tres tamaños, que se denominan (un
tanto arbitrariamente) como de 1/3 de pulgada, 1/2 pulgada y 2/3 de pulgada,
siendo este último el estándar profesional tanto en SD como en HD. Los otros
se usan, por lo general, en el ámbito doméstico y el semi-pro o prosumer.

Decimos que es arbitrario porque aquí la medida inglesa de “pulgada” (inch,


generalmente abreviada con dos apóstrofres: ") no corresponde al tamaño del
sensor, ni siquiera a su diagonal. El origen está en los tubos de captación
analógicos de los años cincuenta (más concretamente, su diámetro).

» 171
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

El sensor de 2/3" tiene un tamaño


aproximado (con posibles pequeñas va­
riaciones) de 9,6 mm x 6 mm, con una
diagonal de un poco más de 11 mm.
Es parecido al tamaño del negativo
de 16 mm, por lo que algunas de es­
tas ópticas funcionan bien en cámaras
con este tamaño de sensor.

& Muchas de las medidas que se usan en la tecnología de los sensores no utilizan el
sistema métrico decimal, sino que tienen origen en el sistema "imperial" anglosajón.
Una pulgada son 25,4 mm (el tamaño de un pulgar medio, al parecer). Curiosamente,
16 mm equivalen casi precisamente a 2/3", si bien tiene un origen distinto.

» Sensores Super 35 (Full Aperture, FA)

En la actualidad, 2/3" es el límite su­


perior para trabajar con prisma dicroi-
co. Sería posible trabajar con sensores
de mayor tamaño, pero el calor gene­
rado sería poco controlable, y ningún
fabricante ha optado por esa opción.
Sin prisma dicroico podemos en­
contrarnos sensores igualmente de 2/3
de pulgada o de mayor tamaño. En
este sentido, la idea es poder aseme­
jarlos al área sensible del negativo de
35 mm, pues así podríamos compa-
tibilizarlos con sus ópticas y comple­
mentos auxiliares, pero también con
la profundidad de cine tan distintiva
del "look” cinematográfico.

ílsr Recordemos que el Súper 35 mm es la película negativa de 35 mm donde también


se aprovecha la parte reservada al sonido en el positivo. De manera similar existe el
"formato” S16 mm.

» 172
PARTE II: CAPTACIÓN

El Súper 35 (S35) también se conoce como formato de ventanilla abierta (Full


Aperture, FA) o de 4 perforaciones. Su tamaño digital en milímetros es de
(aproximadamente) 24 x 18.

» Sensores de fotografía (Full Frame, FF)

Hasta ahora, los sensores de 2/3 de


pulgada y los Súper 35 digitales eran
la máxima calidad ofrecida por la in­
dustria. Pero desde hace muy poco
tiempo, la irrupción de las cámaras de
fotografía digital con opción de graba­
ción en HD, nos obliga a hablar tam­
bién de los tamaños de este tipo de
dispositivos. No son, en este momen­
to, una opción 100 % broadcast, pero
todo apunta a que pueden llegar a ser­
lo a medio o incluso corto plazo.
En fotografía tradicional se usa el
mismo ancho de negativo que en cine,
35 mm. Sin embargo, la película corre
de manera longitudinal, y no perpen­
dicular. Por eso el área sensible es el
doble que en cine, con un área total
en milímetros de 36 X 24.
Es lo que se conoce como Full Frame (fotograma completo), FE En fotografía
digital está presente en las cámaras de muy alta gama, de tipo profesional o
amateur avanzado. Tradicionalmente, las cámaras de foto digital reflex se ceñían
al tamaño (o más bien tamaños) APS (Advanced Photographic System). Dentro
del APS, y dependiendo del fabricante, nos podemos encontrar con pequeñas
variaciones: APS-C, APS-H, APS-N..., pero suelen estar en torno al tamaño de
lo que en cine conocemos como Súper 35 mm.
Dentro de la fotografía fija digital encontramos también una gran variedad
de tamaños, desde los minúsculos que se incorporan a los teléfonos móviles (y
que también en ocasiones cuentan con opción de grabación en vídeo), hasta
el formato “intermedio" desarrollado por Olympus y Panasonic conocido como
cuatro tercios (mayor que los 2/3, menor que el S35).
Por encima del 35 mm también nos encontramos con los estándares de medio
y largo formato. En digital, sólo el medio formato cuenta con soluciones comer-

» 173
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

cíales estándares. Su gran tamaño proporciona una resolución y sensibilidad


impresionantes, pero el alto flujo de datos que maneja no resulta práctico para
la imagen en movimiento, por lo que no es probable que se pueda ver una solu­
ción similar a las DSRL con modo vídeo en este formato en los próximos años.

» Opción Full Frame/S perforaciones


En realidad, el Full Frame no es nuevo en el mundo audiovisual. En cine se
usó en su tiempo algo similar, el formato conocido como Vistavisión o de 8
perforaciones, hoy en desuso. Las ventajas en cuanto a calidad del FF frente
al FA son evidentes y simples: el doble de tamaño. Por eso algunas de las
novedades que se anuncian en la industria del cine digital ya hablan de este
tamaño de sensor, y sin duda será la opción futura por excelencia.
En este caso, habrá que recordar que los sensores FF no se manejan bien con
las ópticas FA ni de 2/3. Por lo que la deriva del cine digital hacia el FF implica

» 174
PARTE II: CAPTACIÓN

también un nuevo diseño de lentes (o el aprovechamiento de las tradicionales


de fotografía fija).

» Tamaño del fotodiodo y rango dinámico


Se habla mucho del tamaño del sensor, pero no tanto del tamaño de cada uno
de los fotodiodos que lo componen. Y ambas cosas son igual de importantes a
la hora de valorar la calidad de una cámara.
El tamaño del fotodiodo tiene que ver con dos especificaciones claves en la
calidad: la sensibilidad o rango dinámico, y el ruido.
El rango dinámico (latitud, sensibilidad, en ocasiones contraste o contraste
máximo) es el valor entre el mínimo y el máximo nivel; entre el valor de negro puro
y el valor de blanco puro. En cine, el RD se suele medir en pasos de diafragma
(stops, f stops) o latitud. Un valor tradicional del fotoquímico de 35 mm son los 11
stops que permite. Si hablamos de sensores, y dado que como hemos indicado
es una tecnología analógica, este valor se mide en decibelios. Un ejemplo son
los 56 dB que se exige a las cámaras de televisión profesional.
Convertido a digital, es el concepto de profundidad de bits, donde una señal
de 8 bits tendrá siempre menor RD que una de 12. Sin ser exacto, se calcula un
valor aproximado de 6dB = lbit.
La relación entre el tamaño del fotodiodo y el RD es sencilla: cuanto mayor
sea el área expuesta a la luz, más fotones captará y, por ende, más electrones
tendrá a la salida. Explicado de una manera sencilla esto quiere decir que si mi
valor mínimo es un electrón (e~), y el máximo es de 100 e~, mí RD o contraste
máximo será 100:1. Pero si mi valor máximo es de 10.000 electrones, el contraste
será de 10.000:1.
Por esa sencilla regla física es el tamaño del fotodiodo y no el del sensor en
general el que nos delimitará el RD de una imagen.
El tamaño del sensor se expresa en micrones o millonésimas de metro, notado
con la letra griega μ Se puede expresar en longitud (4 μm) o en área (16 μm2).

>> Ruido
En la imagen electrónica el ruido es aquella parte de la información que no se co­
rresponde con la realidad que se quiere mostrar, originada por imperfecciones de
los procesos de captación. En fotoquímico, el ruido toma el nombre de "grano",
y se origina por una deficiente exposición de los elementos fotosensibles o un
excesivo forzado en el relevado.
El origen del ruido en sistemas electrónicos tiene dos fuentes, y según cuál sea se
habla de patrón fijo de ruido (fixed pattern noise) o ruido aleatorio (random noise).

» 175
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

El ruido aleatorio es el que tiene un origen, como su nombre indica, no


controlable, azaroso. Tiene que ver con imperfecciones en la construcción del
sensor (entre millones de fotodiodos diminutos, siempre habrá algunos deficien­
tes), pero también con las condiciones de trabajo. Las altas temperaturas, los
cambios bruscos o incluso la humedad pueden ser fuentes de ruido aleatorio.
El patrón fijo es el propio de cada sensor, de cada tecnología. En este caso,
la mayor fuente de ruido se debe a una particularidad física de los fotodiodos:
su vaciado o reseteo.
Una vez que el fotodiodo se ha " llenado" de fotones, de luz, debe descargarse
en forma de electrones para su cuantificación. Sucede sin embargo que esta
descarga no siempre es completa; siempre queda algo de carga remanente
en el fotodiodo. Y, lo que complica aún más el asunto, este remanente puede
variar de un fotodiodo a otro. De esta manera, al tomar una nueva muestra (otro
fotograma), el valor resultante no será el exacto que nos mostraría la realidad,
lo que originará el ruido.
Este hecho es el que explica que el ruido en las bajas luces (negros, sombras,
shadows) sea más evidente en las herramientas electrónicas y cámaras digitales.
En una señal de baja intensidad lumínica (pocos fotones/electrones) el ruido fijo
será porcentualmente más elevado que en las zonas de alta intensidad lumínica
(muchos fotones/electrones).

» SNRyRD
Sin embargo, con las tecnologías actuales es precisamente este patrón fijo el
más sencillo de eliminar. El reseteo no es exacto ni igual en todas las celdillas,
pero sí toma valores estables, es decir, se comporta siempre igual. Básicamente,
se trata de “filtrar" este ruido fijo, eliminándolo. Con ello, sin embargo, perdemos
parte del rango dinámico verdaderamente eficiente, por lo que el valor técnico
que debería aparecer en un equipamiento profesional no es el RD, sino la relación
señal ruido (SNR en sus siglas en inglés).
Por lo general, con el filtrado (dither) del pattern noise, se pierde 1 stop
(6 dB, 1 bit) en el rango dinámico. Mejores o peores filtros (realizado por micro­
procesadores y el firmware de cada cámara) pueden mejorar o empeorar esta
cifra.
Hay que tener en cuenta también la cuantificación digital (etapa A/D). Esta
se realiza de forma similar a los pasos de diafragma, en valores dobles o mitades.
Si, por ejemplo, contamos con 100.000 electrones, el primer bit se reser­
vará para cuantificar 50.000 electrones, el segundo 25.000, el tercero 12.500 y
así sucesivamente. Teóricamente, podríamos aplicar una etapa A/D de gran ca-

» 176
PARTE II: CAPTACIÓN

lidad, por ejemplo 12 bits. Pero es fácil calcular que el valor del último de esos 12
bits correspondería a tan solo 51 electrones. No sólo son pocos para tenerlos en
cuenta, sino que también sería un valor muy contaminado por el ruido fijo. Por es­
ta razón, lo más sensato es desechar los dos últimos valores de la conversión. De
ahí que generalmente la etapa A/D procese con mayor profundidad (14 bits, por
ejemplo) que el formato final de salida (un RAW de 12 bits, por ejemplo). Y de ahí
que el valor del rango dinámico, RD, y la relación señal / ruido (SNR) difieran.
Los fabricantes varían el tipo de información que ofrecen en sus especifica­
ciones, incluso en cámaras del mismo fabricante. Unos hablan de HRD, otros de
SNR, otros de latitud en stops, otros de lux a determinados diafragmas, otros
de bits, otros de micrones (tamaño de los fotodiodos) y otros incluso de electro­
nes a plena carga. Hay que ponderar todas esas cifras para poder hacerse una
idea de la sensibilidad real del sensor.

El ruido aleatorio no se contempla en la medida SNR por no ser cuantificable ya que


depende de las circunstancias. Simplemente cabe señalar que los sistemas con prisma
dicroico generan más calor que los de máscara Bayer, por lo que se consideran más
propensos al ruido aleatorio. Y también que, por su arquitectura, el CMOS suele generar
más ruido aleatorio que el CCD (lo explicaremos más adelante).

» Fill Factor
Un último dato a tener en cuenta si hablamos del tamaño del fotodiodo es el Fill
Factor, o factor de llenado. Por delante del fotodiodo siempre hay una microlente
(microlens, microlenticular array) que intenta que la celdilla capte todos los rayos
de luz, con independencia de su ángulo de origen. Esto optimiza también el
uso de toda la variedad de distancias focales de los objetivos (véase página 396,
arriba).
Éste puede ser un elemento del Fill Factor. El otro, más importante aún, es
que no toda el área del fotodiodo es verdaderamente sensible a la luz, pues una
parte de él está dedicado a otros usos electrónicos. Para entenderlo es preciso
hablar de las dos tecnologías que actualmente se utilizan: el CCD y el CMOS.

El Fill Factor también puede influir en temas como el aliasing (véase más adelante). Y, por
lo general, es un dato que los fabricantes suelen ocultar, pues es parte de sus secretos
industriales.

» Tecnología: CCD y CMOS


Básicamente, la tecnología empleada en los sensores es de dos tipos: CCD y
CMOS. Tradicionalmente, el CCD (dispositivo de doble carga, en sus siglas en

» 177
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

inglés), es el propio de las cámaras de televisión desde hace décadas, pues sus­
tituyó a los tradicionales tubos. El CMOS (Complementary Metal-Oxide Semi­
conductor) es una tecnología que se ha aplicado más recientemente al mundo
audiovisual.
Tanto si se trata de CCD como de CMOS pueden optar por máscara Bayer o
por prisma dicroico para la separación de colores.
Siempre ha habido, y habrá, defensores de una y otra tecnología. Pero en
mi opinión, y en la de muchos, actualmente ambas se encuentran a la par en
cuanto a prestaciones se refiere.
Es necesario conocer, eso sí, su arquitectura, pues las dos tecnologías tienen
sus ventajas y desventajas.

» Arquitectura de cada tecnología


La diferencia entre los CMOS y el CCD no son sus materiales (ambos usan el
silicio como base), sino la arquitectura. En el CCD, como su nombre indica (doble
carga), la celdilla o fotodiodo se usa tanto para capturar los fotones como para
transferir la carga de electrones generada. Una vez expuesto a la luz, un fotodiodo
descarga su carga de electrones al inmediatamente inferior. Es decir, hay una
descarga por columnas. El primer fotodiodo descarga en un bus intermedio, y,
al producirse un vacío, la carga de electrones superior lo llena, produciéndose
un "efecto cascada" (en lo que se conoce como "intervalo vertical”).
Esta carga se convierte entonces en corriente eléctrica y se transfiere a los
siguientes procesadores de la señal.

» 178
PARTE II: CAPTACIÓN

/ Arquitectura CMOS /

1. El fotodiodo convierte
sus propios electrones
en carga eléctrica

2. que los transporta


directamente

3. hasta una columna


de amplificación.

En un CMOS, por el contrario, cada fotodiodo tiene su propia salida, inde­


pendiente del resto de la columna. En cada una de las celdillas no hay un solo
transistor (la célula propiamente fotovoltaica), sino otros dos: uno que proporcio­
na la salida a la carga y otro que resetea el fotodiodo. Es la tecnología conocida
como CMOS 3T (3 transistores) o simplemente CMOS.

» Ventajas y desventajas
Esta diferencia de diseño nos puede ir señalando algunas ventajas y desventajas
entre ambas tecnologías (señalando, una vez más, las diferencias mínimas entre
ellos).

• Fill Factor. Dado que el CMOS precisa espacio para otros transistores, a
igual tamaño de fotodiodo, el CCD tendrá un Fill Factor mayor que el CMOS.
Esto significa mayor rango dinámico y menor ruido inherente.
« Consumo y tamaño. Los CCD precisan de otros procesadores unidos al sen­
sor, mientras que los CMOS no. Esto implica un menor tamaño en los se­
gundos, menor consumo y menor calentamiento. En este aspecto, los CCD
pueden resultar más sensibles al ruido aleatorio, producto de ese calor
(random noise).
• Producción. Los CCD son menos tolerantes con los errores de fabricación.
Un único fotodiodo puede estropear el rendimiento de toda una columna.
Por el contrario, los CMOS pueden ser operativos con más de un elemento
defectuoso. Esto facilita su diseño y fabricación, abaratando el coste.
• Por la razón expuesta, el patrón fijo de ruido de un CMOS puede hacerlo
más ruidoso que en un CCD. Exige un mejor filtrado, pero al mismo tiempo,

» 179
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

dado que se cuenta la información píxel a píxel, y no por columnas, el patrón


fijo es más fácilmente eliminable.
o ROI. El diseño de los CMOS permite el uso de regiones de interés (ROI,
windowed; véase más adelante), cosa que sólo es posible en los CCD de
manera menos eficiente.
o Logarítmico. Dado que la salida de voltaje del CMOS es unitaria, no por
columna, se considera que su respuesta dinámica es ligeramente más
logarítmica que la del CCD, más lineal y uniforme. Esto podría suponer
una mejor respuesta en las altas luces (pero no todos los expertos están de
acuerdo en este punto).
o Shutter. La arquitectura del CMOS 3T es generalmente de rolling shut-
ter, mientras el CCD permite sin problemas el global shutter (véase más
adelante).

>> Shutter y artifacts


En cine tradicional el shutter u obturador es una pieza mecánica que impi­
de/permite el paso de la luz sobre el negativo. Generalmente, se coloca en una
abertura de 180°, correspondiente a 1/48 de segundo. Esta abertura se puede
ampliar o reducir para afinar esta exposición.
En la imagen electrónica también es posible este mecanismo físico, pero es
más común el uso de la obturación electrónica. Con esto nos referimos a que,
una vez tomada una muestra, el fotodiodo se vacía electrónicamente para poder
tomar la siguiente muestra, quedando de nuevo los valores a cero.
El problema surge en la descarga de la información. En la mayoría de los
CMOS que se usan en la industria no es posible realizar toda la descarga de
información de todos los fotodiodos del sensor al mismo tiempo. Su arquitectura
obliga a realizarlo secuencialmente, por líneas, como si bajáramos una persia­
na (de ahí el nombre de rolling). En caso contrario, se colapsarían los buses
intermedios de almacenamiento de datos.

La "captura de fotones + salida de electrones + reseteo” es lo que se conoce como


“tiempo de integración”, común en todos los sensores.

Esto supone que, si hablamos de imagen en movimiento, la captura de un


CMOS nunca será perfectamente e indiscutiblemente "progresiva". Hay dife­
rencias de microsegundos entre las líneas, ocasionando los desajustes (artifacts)
conocidos como “distorsión horizontal" (skew), "efecto gelatina" (jelly effect) o
“burbujeo" (bubble), según hablemos, respectivamente, de lo que afecta a una

» 180
PARTE II: CAPTACIÓN

imagen, al conjunto de ellas en movimiento horizontal o con una combinación


de movimiento vertical y horizontal.
Sucede cuando se mueven los objetos o la cámara.

/ Distorsión horizontal debido al rolling shutter /

» Contaminación (smear)
Los CCD son inmunes a esta distorsión, pues permiten un global shutter per­
fectamente progresivo. Sin embargo están afectados por lo que se conoce como
"contaminación lumínica” (smear). Esto sucede cuando un foco de luz muy in­
tensa se dirige directamente al sensor. La o las celdillas se cargan de electrones,
desbordándose incluso, y afectando al resto de las celdillas de su columna. Apa­
rece entonces en la imagen una línea horizontal sobre toda la columna. Este
artifacts no aparecerá nunca en un sensor CMOS.

/ Contaminación smear / 2. inunda de electrones los fotodiodos


1. Un foco de luz del sensor que se desbordan
muy intenso... y afectan toda la columna vertical.

» 181
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

» Desarrollos posteriores: IT, FIT, 4T...


Tanto la contaminación como la distorsión son defectos conocidos de estas
tecnologías, por lo que se ha trabajado desde hace tiempo en su corrección.
En el caso de los CCD, se desarrollaron dos tecnologías, conocidas como IT
(Interline Transfer) y FIT (Frame Interline Transfer). En la primera de ellas, junto
a cada columna de fotodiodos se habilita otra a la que se transfiere la carga.
Esto limita (pero no evita totalmente) la contaminación. En la arquitectura FIT,
además de añadir la columna intermedia de descarga, se habilita otra zona de
descarga equivalente a todo el tamaño del sensor. Con eso se consigue evitar
totalmente el smear.
Como es lógico, la inclusión de una columna de almacenamiento intermedio
va en detrimento del Fill Factor del CCD (y por ende, reduce su rango dinámico).
En el caso de los CMOS, para evitar la distorsión se intenta la técnica cono­
cida como global exposure / rolling shutter, donde, como su nombre indica, a

/ Corrigiendo el smear /

IT (Interline Transfer)

1. El fotodiodo transfiere
sus electrones a la
columna vertical
de registro...

2. las cuales a su vez se


descargan sobre la
columna horizontal
de registro.

IT (File Interline Transfer)

1. El fotodiodo transfiere
la carga a un segundo
sensor habilitado como
zona de descarga...

2. que también descarga


sobre una columna vertical
de registro...

3. que finalmente descarga


sobre una columna horizontal.

» 182
PARTE II: CAPTACIÓN

pesar de que la salida sigue siendo secuenciada, línea a línea, la exposición se


realiza al mismo tiempo en cada celdilla.
Esto se puede obtener bien con un obturador mecánico (muy poco común),
con un diseño más eficiente de los buses de salida que evite los cuellos de
botella, o bien añadiéndole un nuevo transistor a cada celdilla (CMOS 4T). Este
nuevo transistor serviría como almacenamiento temporal de la carga, mientras
se realiza la descarga, evitando saturar los buses del transistor.
Hay nuevas tecnologías en la arquitectura CMOS que incrementan y per­
feccionan su rendimiento (con 5 y hasta 6 transistores). Pero, como en el caso
del CCD, siempre tendremos el inconveniente de disminuir el Fill Factor y, en
consecuencia, de perder sensibilidad.

Es raro encontrar una herramienta, siquiera fotográfica, con un CCD simple; normal­
mente son siempre ya, como mínimo, IT.

» Tecnologías equivalentes
Como hemos visto, tanto el CCD como el CMOS presentan ventajas e incon­
venientes. Y los defectos asociados a su arquitectura se han ido solucionando
a lo largo de los años. Por esa razón, actualmente, se consideran tecnologías
plenamente operativas con el mismo nivel de calidad. Y se espera que mejoren
con el paso de los años (Live MOS, back-light CMOS, etc.).

» Nativo, interpolación y rasterizado


Diremos que un sensor es ‘‘nativo" cuando el número de píxeles que contiene
equivale (o supera) al del número de píxeles que requiere el formato.
Por ejemplo, sabemos que una señal 1.080 precisa de 1.920x1.080 píxeles por
canal. Luego un chip ‘‘nativo 1.080” deberá tener al menos 2.073.600 píxeles
(por canal). En este ejemplo, nos encontramos que sólo los sensores de de­
terminado tamaño tienen esta cantidad de píxeles (generalmente de 2/3" en
adelante).
En caso contrario, si el sensor no es nativo, no tiene esos dos millones de
fotodiodos por canal, pero nos ofrece una resolución de 1.080, la conclusión es
que la cámara está rasterizando y/o interpolando la resolución.
Interpolar quiere decir que, mediante procesos electrónicos internos, la cáma­
ra “se inventa” un número de líneas que no son las que realmente le proporciona
el sensor.
Este proceso es muy común, sobre todo en cámaras domésticas y prosumer,
pues abarata el coste. Pero en ocasiones se utiliza incluso en equipos superiores.

» 183
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Por lo general, los fabricantes son reacios a hablar de la resolución "real" de sus
sensores. Y hay que fiarse de la resolución “aparente", la que proporciona la
salida.
La interpolación es algo negativo, si bien los resultados pueden ser funciona­
les. Los mayores inconvenientes suelen venir por un aumento del ruido (sobre
todo con malas condiciones lumínicas) y una falta de definición en planos con
objetos que presenten líneas verticales u horizontales muy definidas (aliasing
y/o moaré), y en general cualquier objeto que precise nitidez y detalle, como en
planos generales de espacios abiertos.
La interpolación es una solución de alguna manera similar pero diferente del
rasterizado. El rasterizado es un submuestreo que utiliza el “truco" de considerar
una relación de aspecto del píxel diferente a la cuadrada 1:1, “ensanchando" la
imagen; mientras la interpolación se inventa nuevas "muestras”. Existen cáma­
ras en las que a una resolución rasterizada se le añade, además, interpolación.

>> Píxeles activos

Los sensores pueden llegar incluso a ofrecer una resolución superior a la nativa
del formato que ofrecen. Esto se debe, fundamentalmente, a que estos sen­
sores se fabrican de manera industrial con medidas estándares, también para
las cámaras de fotografía fija, visión artificial y otros usos. Los fabricantes de
cámaras digitales de cinematografía aprovechan estas soluciones y las imple-
mentan en sus dispositivos. Si "sobran" algunos píxeles, lo que hacen es hablar
de "píxeles activos" dentro del propio sensor.
Este aspecto es muy común en los CMOS, pero no en los CCD (una vez más,
por sus diferentes diseños).

» Windowed o región de interés (ROI)


Algunas cámaras que ofrecen diferentes resoluciones de formato (2K, 720, 576),
pueden optar por dos opciones:

• La primera, captar toda la información proveniente del sensor (por ejemplo,


2K) y posteriormente realizar una downconversion interna, electrónica, al
formato de salida (en este ejemplo 720 o 576).
• La otra opción es utilizar en la captación sólo la parte del sensor corres­
pondiente a esta otra resolución. En este caso, se habla de un proceso
de windowed, donde se desprecian los píxeles que superan la resolución
determinada. Sería como “recortar” el sensor para hacerlo más pequeño.

» 184
PARTE II: CAPTACIÓN

Dado que al reducir el número de píxeles activos en nuestra región de interés,


reducimos también el flujo de datos, podemos en este caso aumentar la cadencia
sin producir cuellos de botella en los buses. Por eso el windowed (o Región of
Interest) se usa mucho para este fin: aumentar o reducir la cadencia con objeto
de realizar efectos de cámara rápida / lenta (over/ undercranking).

que tener en cuenta que si se usa un windowed, esto puede influir en la distan­
cia focal del objetivo que se utilice. Al reducir el tamaño del sensor, hay un factor de
multiplicación de la focal.

» Sobremuestreo
En oposición al submuestreo, existe la técnica conocida como sobremuestreo
(super-sampling, bining). Consiste básicamente en que un píxel en la imagen
toma la información no de una única celdilla o fotodiodo, sino de dos o más.
Esta técnica, todavía no existente a día de hoy en el mundo profesional del
cine o la televisión, ya se implementa en sensores industriales y científicos y
en algunas cámaras fotográficas (Súper CCD o CCD-S/R de Fuji). El objetivo es
reducir el aliasing y, mucho más interesante, obtener imágenes de mayor rango
dinámico (Higher Dinamic Range images).
El sobremuestreo es una de las técnicas de mayor futuro y recorrido en
los próximos años, pues promete superar los famosos 11 stops de latitud del
fotoquímico, permitiendo HDRi de 12, 14 o incluso 16 pasos de diafragma.

>> Demosaico y resolución


A la hora de entender un sensor como nativo, es decir, con el mismo número
de fotodiodos que píxeles resultantes en la imagen, surge el problema de cómo
considerar los procesos de demosaico.
Tradicionalmente, en el mundo de la televisión se trabaja con tres sensores
diferenciados, uno por cada canal de color RGB. Un píxel se entiende tricolor,
y toma sus tres valores de tres fotodiodos claramente diferenciados. Por eso
tres sensores de 2/3 con resolución nativa 1.920 x 1.080 (2 mpx, si se quiere)
proporcionan un fichero RGB de 6 MB.
Sin embargo, cuando se usan máscaras Bayer tradicionales (GRGB), los foto-
diodos para el canal verde son el doble en número que los del rojo y el verde. Para
reinterpretar la imagen se recurre al demosaico (demosaicing) de los datos en
bruto (raw). La forma más simple de demosaico (conocida como nearest neigh-
bour, o también líneal) es tomar el valor de un píxel RGB en función del valor
real de un fotodiodo en concreto y un promedio de los ocho adyacentes (véase
página 396, abajo).

» 185
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

En el ejemplo de la figura, el valor del píxel correspondiente al fotodiodo A,


en formato de 8 bits (de 0 a 255) sería:

Rojo: 188
Verde: (35 + 57 + 63 + 88)/4 = 177
Azul: (115 + 56 + 87 + 121)/4 = 95

De esta manera, se consigue una triple muestra de color por cada píxel. Y por
ello, de sensores con máscara Bayer de 12 mpx (4.096 px(h) x 3.100 px(v)), se
pueden conseguir ficheros 4K con un peso de 36 MB (y superiores, dependiendo
de su profundidad de color).
¿Se podría considerar un fichero nativo con este tipo de demosaico? Perso­
nalmente, pienso que no, pues sería confundir a los técnicos: para mí siempre
será un submuestreo o interpolación. Sin embargo, lo que importa al final es
el resultado, y si mediante éste u otros procesos de demosaico se consiguen
resultados visuales óptimos, habrá que considerarlo una herramienta de trabajo
estándar. En este caso, la profundidad de color / sensibilidad que nos pueda pro­
porcionar el sensor es clave, pues si el sensor tiene una gran respuesta (digamos
12 bits), se puede obtener una resolución superior a 8 bits con muy buena calidad.
Este, y no otro, es el modelo que propone RED, fabricante de las cámaras Red
One, Epic, Scarlet y otras, a las que atribuye altas resoluciones (4K, 5K, 6K) que
no son realmente nativas. Pero otros fabricantes están siguiendo esta línea.

» Otras máscaras y demosaicos


El demosaico sencillo no es el único posible. A partir de los datos en bruto del
sensor (raw) se pueden usar otros sistemas de demosaico que no sean el nearest,
que suele producir problemas de aliasing muy evidentes. Algunos de estos demo­
saicos son estándares (bicubic, bicubic cuadratic, lanczos, micthell, etc.), mien­
tras otros corresponden a desarrollos propios de empresas y fabricantes. En vez
de tomar información de únicamente los píxeles adyacentes, toma en conside­
ración también los adyacentes a éstos, aplicando luego logaritmos propietarios.
Para complicar aún más la materia, el sistema Bayer GRGB no es el único
posible. Precisamente para evitar este "sobremuestreo" del canal verde, se han
propuesto soluciones distintas. Una de ellas es dejar uno de cada cuatro foto-
diodos sin filtro (en blanco, white), teniendo así un sistema RGBW, usando este
último dato para mejorar la información de los otros tres. Hay incluso sistemas
que recomiendan algo parecido, pero en vez de blanco lo muestran amarillo
(yellow, GRBY). Algunos proyectores digitales lo implementan, pues así, asegu­

» 186
PARTE II: CAPTACIÓN

ran, corrigen ciertas aberraciones cromáticas. Otros incluso hablan de doblar


el número de muestras azules, BRBG, pues en los sensores actuales son menos
sensibles al color azul (a su longitud de onda) que a los otros dos.

» Máscara stripped
Esas máscaras citadas (RGBW, BRBG, CMYW) son propuestas, todavía no insta­
ladas en ninguna herramienta de captación. Pero sí se ha implementado ya en
algunas cámaras de cine digital un tipo de máscara diferente a la tradicional,
con igual número de fotodiodos de los tres colores, en bandas (stripped) (véase
página 397, arriba).
En ocasiones, los píxeles se distribuyen diagonalmente sobre el sensor. Esta
tecnología (actualmente usada por Sony y Panavision, pero no descartable en
otros fabricantes) se puede considerar nativa si cada píxel toma el valor del
conjunto de los tres fotodiodos RGB o si, como sucede en algunos casos, se
realiza un sobremuestreo.
La disposición de las columnas puede ser también en diagonal.

» Aliasing
La traducción de este término al castellano es el de “solapamiento", pero
siempre se usa el término en inglés. Se produce un efecto de aliasing cuando la
información “baila" entre dos o más fotodiodos anexos. En televisión se conoce
como el "efecto moaré” y también como "ruido mosquito".

» 187
1. ELEMENTOS COMUNES A TODAS LAS CÁMARAS

Afecta fundamentalmente a líneas verticales u horizontales muy definidas y


contrastadas, cuya imagen pasa de un fotodiodo al anexo con facilidad.
También se considera aliasing el efecto de "diente de sierra" que se produce
en líneas oblicuas, y en general cualquier efecto cuyo origen sea el formato
cuadrado de los píxeles dispuestos en rejilla (común, pues, al CCD y al CMOS,
pero también en las imágenes generadas por ordenador).

» Filtro anti-aliasing (AA, OLBF)


En las cámaras, para evitar este defecto o artifact, se usan medios físicos, como
el filtro AA (anti-aliasing), también conocido como de paso bajo (Optical Low
Band Filtei OLBF) o por software, como los filtros de demosaico ya mencionados.
El filtro AA suele consistir en una fina capa de un material determinado que
recubre el sensor. El material en concreto varía y suele ser parte del secreto
industrial del fabricante. Lo que hace es discriminar las “altas frecuencias de
contraste", líneas finas muy definidas; de ahí el nombre de paso bajo. La intro­
ducción de un OLBF significa, inevitablemente, una pérdida siquiera mínima
en la “nitidez" (entendida como líneas por milímetro).

En ocasiones, y cuando no queda más remedio, se usan soluciones más burdas: una sería
desenfocar ligeramente la imagen, o colocar un filtro de suavizado (soít) en la lente; y si
se hace en postproducción, se aplica un efecto de suavizado (blur) a la zona afectada.
Ambos sistemas, obviamente, no son muy recomendables en cuanto a calidad.

Recapitulación

• Hay dos grandes arquitecturas de sensores, CCD y CMOS.


• Son equivalentes en calidad y prestaciones, si bien hay pequeñas diferen­
cias entre ellos.
• Un sensor tiene dos variables importantes: el número de fotodiodos, que de­
termina su resolución máxima, y el tamaño de cada uno de ellos, que
determinará su rango dinámico.
• Resolución y rango dinámico son inversamente proporcionales a un mismo
tamaño de sensor.
• La industria ofrece una amplia variedad de tamaños, desde los más grandes
(Full Frame) a los más pequeños (1/3 de pulgada).
• Hay otros factores importantes en la calidad, como el Fill Factor, el filtro
anti-aliasing y el método de demosaico en las máscaras Bayer.
2. Elementos diferencíadores de
cada cámara

Toda cámara tiene un objetivo, un sistema de separación cromática y un sensor.


Una vez obtenida la información del sensor, ésta se puede procesar de muy
diversas maneras, dependiendo de cada fabricante.

La conversión analógica/digital (A/D)

Lo que hace el chip captador es transformar la luz (fotones) en electrones, que


se convierten en señal eléctrica; por definición, una señal analógica. Esta señal
se ha de digitalizar para su conversión en unos y ceros, propia del lenguaje
binario.
Esta etapa es igualmente importante, pues ha de hacerse en tiempo real y con
la mayor fiabilidad posible. El cálculo debe efectuarse con una cantidad de bits
superior a la finalmente obtenida en grabación. Hay dos razones fundamentales:
primero, la precisión de la codificación de color. Y segundo, la discriminación
del ruido inherente a toda señal.
Por ejemplo, si queremos obtener una señal de 8 bits por canal, es necesario
contar con una etapa de 10 bits, y será excelente si la etapa es de 12 bits o
superior.
Actualmente, el límite tecnológico está en los 14. Esto nos puede proporcionar
una señal de hasta 12 bits de profundidad de color, pero para algunos técnicos es
una señal un tanto “sucia”, con exceso de ruido. Se espera que con el desarrollo
completo de etapas de 16 bits o superiores y el aumento de sensibilidad de los
sensores, estos problemas desaparezcan.
Una vez digitalizada la señal, lo que tenemos es un valor en bits de cada uno
de los fotodiodos, y es lo que se conoce como fichero RAW (del inglés raw, crudo
o en bruto).

» 189
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

» ISO y ganancia
Tanto en la tecnología CMOS como CCD, la etapa A/D es independiente del
sensor. Recordemos: del sensor sólo sale una corriente eléctrica. Pero esa señal,
muy débil, se amplifica para su lectura.
Una característica propia del mundo de la fotografía digital son los valores
ISO, que no se usan en el mundo audiovisual, donde sí es común el valor de
"ganancia”. Los ISO recogen la tradición de los carretes de negativo fotoquímico
(valores ASA o ISO, que se expresan en múltiplos de 100,200,400, etc.), mientras
que la ganancia lo hace en decibelios (-3 dB, 0 dB, 3 dB, 6 dB, etc.).

Cada valor de ISO correspondería a un stop o paso de diafragma. En el caso de las


ganancias, menos estandarizadas, no siempre se correspondería el valor ya citado de
6 dB = 1 stops.

El ISO (y la ganancia) depende de esta amplificación. Una amplificación “están­


dar" sería un valor 100 de ISO. Doblando la señal, se dobla el valor de ISO a 200,
y así sucesivamente. Sucede sin embargo que al amplificar la señal también
amplificamos el ruido inherente y, asimismo, estrechamos el rango dinámico
(pues los valores altos no se pueden amplificar indefinidamente).

También hay que señalar la diferencia entre la amplificación “nativa" (ISO o


ganancia nativa) y “no nativa”. Nativa sería en el caso de que hablemos de la
amplificación de la señal analógica previa a la etapa A/D. Y “no nativa" cuando
esta amplificación se realiza después de cuantificada digitalmente (o, en el caso
del vídeo, después de masterizada). Es importante subrayar esto porque por

» 190
PARTE II: CAPTACIÓN

lo general la amplificación “nativa" es de mejor calidad que la amplificación


realizada sobre el fichero ya cuantificado.
Lamentablemente, la mayor parte del equipamiento no aclara en sus especi­
ficaciones si sus valores ISO/ganancias son nativos o no. En ocasiones, incluso,
algunos de ellos (100, 400, 800, por ejemplo) lo son, pero otros intermedios (200,
600, 1.600... ) no lo son. Sólo un correcto análisis de las imágenes puede ayudar
a conocer la idoneidad de estos valores.
Señalar también que un ISO o ganancia no nativa equivaldría a una co­
rrección de niveles en postproducción. Pero si lo hacemos en cámara, queda
irreversiblemente grabado en el fichero, cosa que no sucede cuando trabajamos
en postproducción no lineal, donde cualquier proceso siempre es reversible.

» Límites
Los valores ISO que ofrecen algunas cámaras son “aproximaciones” no estanda­
rizadas a los valores ISO tradicionales (sí estandarizados) que nos puede ofrecer
un fotómetro profesional, por ejemplo. La terminología es sólo una ayuda, y es
conveniente examinar los equipos previamente para ver la correlación real.
En fotografía digital, actualmente se pueden alcanzar valores ISO relativa­
mente altos sin que se llegue a "apreciar" el aumento de ruido generado. A
eso ayudan los procesadores A/D diseñados para ello, que funcionan también
como discriminadores y eliminadores del ruido. Sin embargo, por la propia ca­
racterística aleatoria de distribución del ruido, éste siempre será más visible y
apreciable en las imágenes en movimiento, pues "baila" de manera más evi­
dente. Y tampoco los filtrados pueden ser tan efectivos como en la fotografía
fija, pues se maneja un número de bits por segundo enormemente más elevado.
Por las razones expuestas (aumento de ruido y estrechamiento del RD), el
uso de ISO o ganancias no es muy recomendable. No obstante, con sensores
y fotodiodos más grandes, la ganancia ISO puede ser más efectiva que en
fotodiodos más pequeños, pues el nivel de ruido inherente es también menor.

» Matrización
Tras la etapa A/D ya tenemos “digitalizada la realidad", es decir, convertida en
una sucesión de unos y ceros que corresponde a un determinado número de
píxeles o muestras con su característico detalle y precisión. Este proceso debe
repetirse tantas veces por segundo como determine la cadencia que hayamos
elegido (24, 25, 30...) para tener una imagen en movimiento en nuestro cerebro.

» 191
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

A partir de este momento, podemos tomar dos opciones:

• Trabajar con los datos en bruto (raw)


• Matrizar la señal

"Matrizar” la señal es básicamente convertir la sucesión de unos y ceros en


algo entendible por nuestro monitor y el resto de herramientas de la cadena de
producción. Esto es lo que convierte verdaderamente los unos y los ceros en
una señal HDTY asignando a cada valor obtenido en el sensor un punto exacto
en la imagen. Es decir: que tal valor obtenido por el sensor en un determina­
do momento corresponderá a la información del píxel situado en la fila X y la
columna Y del fotograma o campo Z de nuestra imagen y tendrá unos valores
correspondientes de color dentro de su gama. Todo correctamente sincroniza­
do y armonizado y entendible por todas las herramientas estándares (véase
página 397, abajo).
El otro proceso importante de la matrización es determinar el espacio de
color. También es en esta etapa donde optamos por trabajar en RGB o en YUV
Como se observa en la figura, de todo el espectro de colores visibles por el ojo
humano, la tecnología digital selecciona un rango determinado, pues seleccio­
narlos todos sería casi imposible. Esta parametrización debe ser estandarizada
(RGB, por ejemplo) para que el resto de equipamiento lo interprete igual. Es
decir, el valor que corresponde al rojo absoluto, al blanco o al negro debe ser
igual en todas las herramientas.
Este espacio debe ser compartido por nuestra cámara, por el fichero grabado
y por el monitor, para que la información (unos y ceros, recordemos) sea no sólo
reconocible sino inalterada: que el rojo que hemos visto en cámara sea el mismo
rojo que nos muestra el monitor.

Evidentemente, el ideal de representación fidedigna no siempre es posible, pues tanto los


monitores como las cámaras alterarán la representación: no son herramientas perfectas,
y presentan diferencias, siquiera mínimas, incluso entre dos dispositivos de la misma
marca y modelo. Para ello, es necesario calibrarlos. Una cámara o un monitor descalibrado
es una fuente segura de errores.

» Correcciones de gama
Una de las características de las cámaras digitales modernas es que, si bien
la matrización es un proceso estándar y, generalmente, automático, hoy en día
podemos "tocar” algunos de sus parámetros para obtener algunos efectos de
fotografía. Es lo que se conoce como “corrección de gama” o “curvas de gama".

» 192
PARTE II: CAPTACIÓN

No todas las cámaras tienen estas opciones, pero suelen incluirse por defecto
en las cámaras high end o de alta gama. Algunas de estas correcciones vienen
por defecto (del tipo "cinelook I, cinelook II..." que se encuentran en algunos
aparatos), y son seleccionables sin más a través de los menús internos de las
cámaras. Pero el operador experimentado también puede adentrarse más en
esos menús y producir sus propias "curvas” personalizadas.
No se debe confundir este proceso con el trabajo logarítmico (véase el anexo).
Una corrección de gama nunca saldrá de los estándares internacionales esta­
blecidos, sino que variará las relaciones de colores y contrastes siempre dentro
de estos límites.

» Utilidad del manejo de gamas


/ Riqueza en tonos medios /
Las curvas de gama son útiles para
"estirar" algo las posibilidades de tra­
bajo de los equipos digitales. Se suelen
utilizar con tres motivos:

• Generalmente, intentar ganar con­


traste y riqueza de detalles en las
partes “clave” de la imagen (sean
altas, medias o bajas, según in­
terese).
• Compensar unas condiciones de
rodaje especialmente exigentes.
• Variar la temperatura de color o
las dominantes cromáticas de una
escena.

» Riqueza en tonos medios


Un uso muy común en las correccio­
nes de gama es el de reforzar los “tonos
medios” de la imagen.
Los tonos medios corresponden ge­
neralmente a la abertura del diafrag­
ma según la lectura del fotómetro, y es
donde se suele situar la información
“relevante” de la imagen. Por ejemplo,
el rostro del protagonista.

» 193
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

Una vez más, hay que contar con la particularidad de que el ojo humano es
más sensible al contraste en las zonas medias que en las altas o bajas. Esto
quiere decir sencillamente que podemos apreciar las diferentes tonalidades de
una piel (si es morena o clara, si se ha ruborizado, si ha tomado el sol) mejor
que las diferencias entre gamas de blancos de una nube o, mejor aún, que las
sutilezas de una zona sombreada o en oscuridad.
“Tocando" la curva de respuesta de la matriz podemos aumentar los niveles
de detalle y contraste en estas zonas medias, pero con la condición de perderlos,
comprimiéndolos, en las otras zonas.
Más detenidamente, se puede diseñar una curva que pueda subir los medios,
comprimir los bajos pero mantener los altos. Las posibilidades son infinitas.
La terminología puede variar en cada cámara. Generalmente, las correccio­
nes en los medios se llaman midtones, grey o simplemente gamma’, los bajos
aparecen como master, lift o pedestal: los altos como whites, gain, white knee
o simplemente knee. En equipos de postproducción también se usan diferentes
terminologías, dependiendo del fabricante. Pero siempre nos referiremos a las
zonas bajas, medias o altas.

» Situaciones extremas de rodaje


Hay ocasiones en que se dan unas condiciones de rodaje extremas: un desierto a
las doce del mediodía, un exterior de noche iluminado con farolas o un día solea­
do en el polo norte..., o cualquier otra situación donde las diferencias de contraste
sean muy grandes o muy críticas. En ese caso nos puede interesar corregir la cur­
va de respuesta en la matriz para intentar suavizar y armonizar nuestra imagen.
El caso más común es del “apretar los blancos" con la llamada “corrección
de knee", que suele incluso tener su propio “preset” en el menú. Con esto
conseguimos evitar los "cielos blancos." o quemados tan típicos del vídeo por su
falta de latitud, consiguiendo mantener cierta riqueza cromática en las zonas
altas que luego podemos trabajar en postproducción.

» Trabajo con el color


El tercer caso más común es variar la colorimetría. En los ajustes de la matriz
podemos trabajar individualmente cada canal, por lo que podemos, por ejemplo,
intensificar un poco el canal rojo para dar una apariencia más "cálida” a nuestra
imagen. También para evitar la dominancia de un determinado color que puede
tener una fuente no controlable. Un caso típico es el toldo verde de la terraza
de un bar en un día soleado: bajando un poco la matriz verde, evitamos que los
rostros de las personas adquieran esa tonalidad.

» 194
PARTE II: CAPTACIÓN

Realmente con eso lo que hacemos es variar la "temperatura de color" de la


cámara sin recurrir al balance de blancos.

» Detail Pedestal, lift, skin, knee, cinelike...


Las cámaras actuales, sobre todo las de gama alta, ofrecen una amplia gama
de posibilidades de corrección interna. No sólo las que ya hemos explicado de
"curvas de gama”, sino de otros parámetros como el "detalle", muy típico de las
cámaras de vídeo.
No es éste un libro para operadores experimentados, sino sólo una guía de
iniciación, por lo que no me detendré en ellos. Sólo es necesario saber que
estas correcciones internas, accesibles a través de los menús de las cámaras,
se suelen hacer casi siempre en esta etapa de matrización de la señal.
Como ya hemos visto, los nombres de los ajustes pueden incluso variar de
un modelo a otro. Es necesario leer detenidamente las especificaciones de cada
herramienta para conocer su utilidad.
Sucede también que los ajustes prefijados por el fabricante (presets) usan
nombres comerciales que varían con cada marca e incluso modelo, por lo que
una vez más es necesario recabar información en los manuales o realizar pruebas
para comprender su valor.

» Irreversibilidad
Hay que tener en cuenta una cosa: cualquier cambio o corrección que aplique­
mos en esta etapa es irreversible. Si variamos la dominante roja de una toma,
por ejemplo, esta variación quedará unida a la señal y será la base de todo el
trabajo posterior.
Por esta razón, muchos operadores prefieren trabajar poco con los menús
internos y dejar el resto de correcciones para el trabajo posterior en postpro­
ducción. Pero otros, sin embargo, quizá por su experiencia profesional, prefieren
llegar a la posproducción con la imagen lo más semejante posible a lo que será el
resultado final.
Ambas opciones, por descontado, son válidas, siempre y cuando todos los
implicados sean conscientes de que las correcciones en la matriz, las ganancias
y otros circuitos internos alteran irreversiblemente la señal obtenida.

>> Grabación de datos RAW


La otra opción de trabajo es guardar sin más o con alguna compresión los unos
y ceros obtenidos desde el sensor tras su etapa A/D.

» 195
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

Esta técnica es idéntica a la fotografía fija, donde el trabajo en RAW lleva


muchos años de adelanto. Este sistema se empieza a aplicar ya en cámaras de
alta gama, sobre todo en aquellas que pueden trabajar sin cinta, es decir, que
graban directamente en algún tipo de soporte informático (disco duro, tarjetas,
memorias sólidas, conexiones informáticas en un ordenador, etc.).
El trabajo en RAW no implica obviar la matrización, sino que este proceso
lo realizaremos a posteriori, en la postproducción. Ya hemos visto que la matri-
zacíón es necesaria para la estandarización de la señal. En RAW simplemente
optamos por hacer este trabajo delante del ordenador en vez de dentro de la
cámara. Y nos puede ofrecer la posibilidad de trabajar con otros espacios de
color diferentes a los de la HDTV como el XYZ propio del entorno DCI (Digital
Cinema Initiatives).
Al igual que lo que apuntamos antes, ambas opciones son siempre válidas,
siempre que se sea consciente de lo que se está haciendo.

» Ventajas RAW
Para los defensores del RAW, su principal ventaja es que este tipo de decisiones
clave se pueden tomar en una sala de montaje, en un ambiente relajado y
tranquilo lejos del estrés de un rodaje. Los ajustes, además, podrán ser más
finos y calibrados. Y, sobre todo, trabajamos con todas las posibilidades que nos
ofrece el sensor, sin el recorte inevitable que supone la etapa de matriz, o el paso
a un formato de 8 bits.
También se señala que la compresión del RAW (en códecs como Redcode,
CineForm y otros) es más “limpia", genera menos ruido, que la compresión de
una señal matrizada.

Lo ideal en este caso sería trabajar; como en fotografía digital, con ficheros RAW sin
comprimir. Pero dado el enorme flujo de datos que se genera, resulta poco más o menos
que impracticable en situaciones de rodaje real. No obstante, es posible y así sucede
en algunos equipamientos de visión artificial, y si la miniaturización de las tecnologías
sigue avanzando, su implementación en cine y televisión podría no estar lejos.

» Desventajas RAW
Sin embargo, hay también algunas desventajas. La principal es que la señal
RAW no se puede monitorizar. Al no estar matrizada, no se puede conectar a un
monitor para visualizarla. Es necesario, como hemos visto, pasar los datos RAW
por una matriz, siquiera temporal, para poder visionarios. Estas salidas sí están
matrizadas, e incluso tienen ya el ajuste de temperatura de color u otros que

» 196
PARTE II: CAPTACIÓN

hayamos seleccionado, cosa que los datos RAW no tienen. No es, pues, fiable
al 100%, ni para temas de color ni de contraste. Sí lo es, por contra, para el
encuadre y para el foco.

» Reversibilidad
Los ajustes de monitorización no alteran el RAW original. Se incorporan al
fichero como metadatos, que pueden ser interpretados automáticamente por los
softwares licenciados y ser mostrados en la pantalla. Pero incluso así, podemos
volver a retocar todo lo que deseemos en el fichero original para resetear los
ajustes propios del '‘matrizado” (nitidez, contraste, saturación, temperatura de
color...). Lo que no podríamos recuperar es un ISO o ganancia nativa, pues ya
vimos que era una etapa previa a la digitalización. Si el ISO o ganancia no es
nativa, sí se puede recuperar, pues como hemos visto es posterior a la etapa A/D
y, por tanto, posterior al flujo RAW.
También la cámara puede originar al mismo tiempo que el fichero RAW otros
matrizados, referenciados o de menor resolución (proxies, espejos), que permitan
una rápida visualización o un premontaje en un ordenador de rodaje, sin que
sea necesario procesar el RAW original.

» Tiempo real
Al formato RAW se le ha llamado "negativo digital” precisamente por esta
característica. Igual que el fotoquímico, es necesario "revelarlo y positivarlo”,
procesarlo en definitiva, para poder trabajar con él.
Por lo general, los operadores provenientes del campo de la cinematografía
se sienten a gusto con el workflow o flujo de trabajo RAW. Se asocia el disco
duro o la tarjeta de memoria donde se almacenan los datos al “chasis” de 35 mm
donde va el negativo. Cuando la memoria se llena, se cambia el “chasis”.
Por el contrario, los operadores provenientes de la televisión encuentran este
flujo de trabajo un tanto engorroso, acostumbrados como están a poder mo-
nitorizar la señal original, con la certeza de que lo que ven en el monitor es
exactamente lo que se almacena en el archivo.
Por descontado, el trabajo RAW es específico del mundo cinematográfico.
No existe por ahora una cámara con grabación en RAW que pueda, al mismo
tiempo, incluirse en una cadena de producción televisiva estándar (no se puede
conectar a una mesa de edición RAW o una unidad móvil RAW como otra
puramente HDTV).

» 197
2. ELEMENTOS DIFERENCIADORES EN CADA CAMARA

Almacenamiento y salidas

>> Camascopios

Aunque se asocia regularmente el concepto de “cámara" a la captación y al­


macenamiento, no todas las cámaras incorporan necesariamente un sistema de
grabación. La unión de una cámara y un magnetoscopio se conoce como "ca-
mascopio” (camcorder en inglés; en los equipos de televisión también se habla
de ENG, siglas de Electronic News Gathering, o recolección electrónica de noti­
cias). Hoy en día muchas cámaras no contemplan el magnetoscopio (con cinta),
sino soportes de grabación rígidos (discos duros o tarjetas). Serían “camascopios
no lineales", pero el término “camascopio” sigue usándose indistintamente.
Tanto las cámaras simples como la mayoría de los camascopios incorporan a
su vez salidas que permiten usar almacenamiento externo. Estas salidas sirven
también para la monitorización. En algunos dispositivos, estas interfaces son de
entrada y salida (I/O), es decir, que admitirían la grabación de señales externas
al camascopio. Por descontado, estas salidas están estandarizadas dentro de la
normativa HDTV para asegurar la compatibilidad entre todas las herramientas.

» Compresión interna en el camascopio


Casi sin excepciones, un camascopio grabará la señal de manera comprimida.
Los sistemas portátiles actuales de almacenamiento, sean con cinta o no linea­
les, no permiten la grabación sin compresión. Pero no se descarta para un futuro
próximo en entornos IT.

» 198
PARTE II: CAPTACIÓN

Se habla de “entorno IT” cuando todo el proceso se hace en digital y sin cinta (no lineal).

El HDCAM SR es una solución portátil de Sony que permite la grabación 1.080p


4:4:4 con una compresión mínima 2:1, que se considera de similar calidad a la
falta de compresión. Éste se puede considerar el magnetoscopio de más alta
calidad de grabación.
Panasonic cuenta con un magnetoscopio no portátil, el D5, que ofrece tam­
bién la grabación sin compresión en determinadas cadencias y formatos. Pero
no está incorporado a ningún equipo de camascopio.
Las cámaras de la casa Red son capaces de grabar la señal RAW, pero tras
una compresión previa, pues el flujo de datos es todavía demasiado alto para
los sistemas de almacenamiento rígidos (Compact Flash, en su caso). Otros
fabricantes proponen soluciones para grabar RAW sin comprimir.

» Tipos de compresión
Como ya hemos explicado, las compresiones no son estándares. Cada fabricante
presenta sus propias soluciones, y es libre de ofrecer o no los códigos al resto de
la industria.
Con la introducción de la grabación no lineal, este problema de patentes
planteaba muchos problemas, por lo que se ha intentado establecer un criterio
común, que llamamos MXE Media eXchange File no es un códec sino un “pro­
tocolo de empaquetamiento’’ informático que permite que diferentes equipos
(cámaras, equipos de grabación IT, editores no lineales, postproducción y distri­
bución) entiendan la información contenida en el fichero y, si disponen de las
licencias pertinentes, trabajen con los códecs nativamente. Incluso, la extensión
del MXF ha abierto además estos códecs, y la mayoría de los fabricantes optan
por una política de códecs abiertos, no propietarios, empaquetados con formato
MXE
No obstante, algunos códecs siguen siendo propios de determinados equipos,
plataformas (MAC, Windows) o fabricantes. Será tema para el siguiente capítulo.

>> Grabación externa sin compresión


La otra opción, que se usa con cierta frecuencia en producciones de alta calidad,
es usar las salidas de las cámaras para almacenar la señal sin compresión en
algún sistema externo (generalmente, ordenadores con potentes discos duros).
Se gana en calidad, pero se pierde en operatividad, puesto que conlleva el uso
de cableado y un espacio propio para los sistemas de almacenamiento.
Es una solución muy usada en rodajes digitales en plato.

» 199
7
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

» Cadena HDTV / DC
La etapa de matriz es básica en la cadena de producción de televisión debido
a que las emisiones en directo lo requieren. Por esta razón, lo más usual es que
todas las cámaras digitales ofrezcan señales estándares HDTV de 1.080 o 720.
Esto descarta las resoluciones superiores (2K, 4K), que, al no provenir del ámbito
televisivo, no tienen salidas estandarizadas.
Esto no quiere decir que el 2K o el 4K siempre trabajen en RAW. La información
se puede matrizar y guardar, por ejemplo, como secuencias de ficheros dpx o tiff,
con un espacio de color diferente al televisivo (SuperRGB, Adobe, Apple o, más
corrientemente, XYZ, que es el específico del DCI). Pero también una señal 2K/4K
se puede grabar como un formato de vídeo (quick time, windows media...). Pero
en este caso, ambas soluciones SIEMPRE se grabarán en formato no lineal, sin
cinta. La razón es que todos los magnetoscopios que se fabrican en la actualidad
están estandarizados a una señal HDTV y no existen magnetos ni 2K ni 4K.

» Tipos de salidas

Una cámara tendrá, por lo general, todas o algunas de estas salidas (interfaces
I/O):

• Analógicas, para la compatibilidad de equipamiento de este tipo, princi­


palmente monitores.
• Digitales para monitorización y captura en equipamientos digitales.
• Informáticas para el traspase puro de datos y/o la captura de las imágenes.

Para cualquiera de las dos primeras es necesario que la cámara pase por la etapa
matriz. Para la segunda, puede hacerlo o no.
El tema de las salidas, su cableado e identificación merece un anexo aparte
(véase el anexo correspondiente), pues es muy común usar el nombre de la
salida como identificación del formato. Por ejemplo, si decimos que la cámara
proporciona una salida HD-SDi, deducimos que se trata de una señal 1.080 o
720, interlazada, YUV y con una cadencia estandarizada; si se ofrece salida Dual
Link, entendemos que es una señal RGB.

>> Downconversion SDi


Internamente, muchas cámaras pueden convertir la señal HDTV en una SDTV
que se suele sacar por la misma conexión y el mismo cable (pues la interface es
la misma). Esto permite visualizar la señal en un monitor SD (por ahora, mucho
más baratos que los HD) o realizar una captura offline (a baja resolución). Esta

» 200
PARTE II: CAPTACIÓN

opción suele ser accesible por los me-


nús internos de las cámaras, que en
general dan también las tres opciones
de salida de 16/9 a 4/3: recorte (crop),
viñeteado con bandas (letterbox) o re-
escalado anamórfico (resize).
Volveremos sobre este tema en la
parte de postproducción.

» 800 mbs, 3 gbs


800 mbs es el flujo estándar del HDTY
el que porta la señal sin comprimir
HDTV 8 bits 4:2:2.
3 gbs es el bitrate que se empieza a
señalar como el futuro estándar de co­
nexiones para la HDTV Este flujo per­
mitiría trabajar siempre con señales
sin comprimir de 2K y 1.080 4:4:4 y
hasta 60p (cuadros progresivos), con
sonido de alta calidad.
La coincidencia aquí con el mundo
de la informática es total, pues esta cifra también empieza a extenderse como
el mínimo exigible a las conexiones internas (discos, procesador, periféricos,
tarjeta de vídeo, etc.), que actualmente es de 1,5 gbs.
Es un dato informático puro, pero es necesario tenerlo en cuenta en todo
momento para nuestro posterior trabajo no lineal.

» Uso de conexiones informáticas


Además de las salidas estandarizadas, muchas cámaras ofrecen salidas de tipo
informático (firewire, usb...). Esta clase de salidas no ofrecen un estándar, sino
que sirven como simples "tubos’’ de transmisión entre los datos digitales de la
cámara (en cinta o no) y el disco duro donde realizaremos el montaje.
Esto significa que si nuestra cámara graba, por ejemplo, con el formato
HDV usando una salida tradicional HD.SDi obtendremos, previa descompresión
interna de la cámara y upconversion, 1.080 4:2:2 8 bits a 800 mbs; pero si usamos
la conexión IEEE1394 (también conocida como firewire) lo que obtendremos son
los datos puros de HDV a 25 mbs (que se pueden almacenar tal cual en ficheros
con extensión ,m2t).

» 201
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

/ Salidas HDV /

Lógicamente, la opción propuesta de salida HD.SDi no mejora la calidad ya almacenada


y previamente comprimida existente en la cinta HDV Por eso, ambas opciones son
equiparables. El caso sería distinto si usáramos esa salida en el momento de la captación,
sin el paso por la compresión de la cinta o el disco. En ese caso, la salida HD.SDi nos
ofrecería una calidad superior.

>> Captura, importación, log & transfer, FAM...


La salida IEEE 1394, en concreto, puede ser reconocida por la mayoría de los
editores no lineales (ENL o NLE, en inglés) como una entrada de datos de vídeo
para realizar una captura, como si se tratara de otra conexión digital "estándar".
Reconoce generalmente los ficheros DV HDV, DVPRO HD y algún otro. En este
caso, la posible upconversion la realiza el ENL, no la cámara.
Una conexión informática también se puede usar para el traspase de datos.
En ese caso, el ordenador reconoce la cámara (o el soporte donde se grabaron los
datos) como un disco externo más, pudiéndose acceder a los clips por la usual
estructura de archivos y carpetas. La transferencia se realiza entonces dentro del
sistema operativo con las herramientas de copiar y pegar (el popular copypaste).
En este caso, en vez de una captura, estaríamos ante una "importación” de datos
en el ENL.
En algunas cámaras, se usa una salida (firewire, generalmente) para la opción
de captura y otra (usb) para el tranfer de datos, previa selección en el menú de
la opción File Acces Mode, FAM, o una terminología similar (depende, una vez
más, de las marcas y modelos).
Un último desarrollo, muy interesante, es la función log & transfer (el nombre
puede variar en las diferentes marcas de ENL). Traducido, sería algo así como
“identificación y transferencia", y es común en todos aquellos ficheros MXE Esta
función permite previsualizar los clips de audio y vídeo, cambiarles los nombres
u otros metadatos e incluso seleccionar, con puntos de entrada y salida, las
partes del clip que importaremos a nuestro ENL.

» 202
PARTE II: CAPTACIÓN

Finalmente, hay una última opción, que es que nuestro ENL reconozca per­
fectamente el fichero almacenado y podamos pasarlo directamente a la línea de
tiempo sin necesidad de importación o log & transfer. Sería una solución Direct
to Edit, directa a la edición.
Trataremos más ampliamente estas opciones en la parte dedicada a la post­
producción.

» Salida HDMI
High Deffition Multimedia Interface es un desarrollo de la industria pensado
principalmente en el consumidor final. Permite la interconexión en alta defi­
nición entre todas las herramientas domésticas de alta definición: televisores,
handycam, reproductores BlueRay, consolas de videojuegos, receptores de TDT, etc.
La conexión en sí es excelente, con un alto flujo de datos sin comprimir,
incluso con resoluciones de 2K 3D estereoscópicas y superiores. Los inconve­
nientes son el precio del cable, su mala interface de conexión (con conectores
muy frágiles y sin ligazón de seguridad para evitar su desconexión fortuita y/o su
desgaste) y lo limitado de su máxima longitud sin pérdida (actualmente, sobre
los cinco metros).
No obstante, se ve de manera habitual en muchas cámaras domésticas y
de la gama prosumer. Incluso, los fabricantes de tarjetas capturadoras ya han
implementado soluciones de captura.
Las conexiones HDMI pueden incluir, o no, una protección anticopia conocida
como HDCE En ese caso, se permite el visionado pero no la copia.

» Conexiones Ethernet
Las conexiones firewire y usb, muy comunes, están limitadas por su escaso
ancho de banda, 400 mbs. En algunas cámaras HR y otras de visión artificial se
implementan salidas aún más rápidas, de tipo Ethernet o Giganet. Esto permite
la transmisión de muy altos flujos de datos, incluso de señales HD o 2K sin
comprimir.

» Memorias búfer
En ocasiones, sobre todo en cámaras de alta resolución o equipos especiales
de elevada cadencia, el flujo de datos resultante puede superar la capacidad de
transmisión de las salidas .
Suele pasar en sistemas 4K sin comprimir (8 gbs o superior) o en cámaras de
alta velocidad (500, 1.000 o más imágenes por segundo).

» 203
2. ELEMENTOS DIFERENCIADORES EN CADA CÁMARA

En estos casos y en general en todos aquellos limitados por el flujo máximo de


la salida, se recurre al uso de memorias internas de almacenamiento temporal,
conocidas también por el anglicismo “búfer" (buffer).
La información procedente del sensor se almacena en estas memorias de
alta velocidad en el momento de la grabación para posteriormente descargarse,
ya no en tiempo real, a otro dispositivo de almacenamiento.
La mayor limitación de estas memorias es su capacidad, que suele estar
entre los 4 y los 32 GB. Mayores capacidades implican cámaras más grandes
y complejas, pues estas memorias son del tipo RAM, de muy rápido acceso,
pero más voluminosas que las tarjetas SD u otro tipo de memoria flash. A
medio plazo, novedades informáticas esperadas en el mundo de las memorias
de rápido acceso pueden llegar a implementarse en equipamientos de captación
como solución de grabación no temporal sino permanente.
Dependiendo del flujo de datos, permiten grabar desde unos pocos segundos
de imágenes de alta cadencia hasta dos o tres minutos de señales 2K RGB
12 bits a 24 fps.
Son soluciones claramente pensadas para el cine digital, pues no permiten
un trabajo en tiempo real. En el mundo de la televisión se aplican a cámaras de
alta velocidad, muy comunes en eventos deportivos y que nunca se “pinchan"
en directo, sino que se utilizan en las repeticiones de las jugadas (una vez que
se haya descargado la información a un magnetoscopio).

» Grabación no lineal: soluciones de estado rígido


Cuando no grabamos en cinta, estamos en un entorno IT con grabación en for­
matos rígidos. Éstos suelen ser soluciones estándares de la industria informática,
como discos duros externos, adaptados al rodaje con batería, o memorias de tipo
flash (SD, Compact Flash, Xpress Card).
Panasonic es el único fabricante que optó por una solución propietaria, las
pioneras tarjetas P2, del que es el único fabricante. Éstas pueden ser reconocidas
por las bahías de tipo PCMCIA, pero este estándar se ha abandonado por otros
de menor tamaño, lo que ha dejado esta compatibilidad fuera de juego. Así pues,
actualmente, la solución P2 suele requerir un modo FAM o un dispositivo lector
(deck) compatible.

En realidad, técnicamente, las tarjetas P2 tienen dentro de su carcasa varias tarjetas SD


estándar dispuestas en modo RAID.

» 204
PARTE II: CAPTACIÓN

Otra solución propietaria fueron los Digital Disc de los equipos XDCAM de Sony.
Se trataba en realidad de un DVD-RAM para almacenamiento de datos, con
una capacidad cuatro veces superior a los normales, pues eran de doble capa y
doble cara. Pero se precisaban igualmente lectores fabricados o licenciados de
Sony para su lectura y acceso.
Huelga decir que la razón de estas soluciones propietarias es puramente
comercial, no tecnológica.
Por el contrario, la adopción de tarjetas estándares de la industria IT, cada vez
más extendida, permite extraer estas memorias de la cámara e introducirlas en
la bahía correspondiente de la mayoría de los ordenadores, que las reconocerán
como una tarjeta de almacenamiento más. Podemos proceder entonces como
deseemos: bien traspasar los datos a otro disco duro, realizar un log & transfer
o bien una edición Direct to Edit, tal como ya hemos comentado.
Esta tendencia también se puede ver en los fabricantes señalados: Panasonic
ya tiene en el mercado cámaras prosumer con grabación en tarjetas SD, no P2; y
Sony también ofrece cámaras con formato XDCAM y grabación en tarjetas tipo
XpressCard (el nombre comercial de estas cámaras es XDCAM-EX).
Por compatibilidad y economía, estos sistemas abiertos parecen ser los que
más se desarrollarán en el futuro próximo, pues estas tarjetas aumentan su ca­
pacidad y velocidad de transferencia cada pocos meses, disminuyendo a su vez
el precio, como ocurre en general en toda la industria informática.

» ¿Qué cámara comprar?


A modo de resumen de esta parte dedicada a la captación, he querido incluir
un anexo para responder a esta pregunta tan común (véase el anexo 16).

» 205
» 206
PARTE III:
MONTAJE
Y POSTPRODUCCIÓN
» 208
» Premisa fundamental
Una vez elegida la cámara para nuestra producción, tendremos que pensar una
vez más en el flujo de trabajo que vamos a usar en el resto de la cadena de
producción.
La premisa ineludible en este trabajo, y que debe guiar todos nuestros pasos,
es única:

• Mantener la calidad nativa del trabajo.

Por "calidad nativa” entendemos la calidad obtenida en la cámara.


(En el caso de producciones por ordenador, sería la calidad de los CGI.)
Los procesos de montaje y postproducción a los que someteremos los datos
obtenidos en la cámara pueden mermar, en muchos momentos, esta calidad.
Para evitarlo, hay que planificar de antemano los pasos que vamos a realizar y
seguir un protocolo de trabajo que impida esta merma.

» Conversiones
A la hora de cualquier intermediación se realizan numerosos transfer y/o conver­
siones de formatos. También, exportaciones y renderizados de material. Todas
estas transformaciones se pueden calificar como:

• Upconversion, cuando pasamos de un formato menor a otro de más calidad.


• Crossconversion, cuando no afecta a la calidad.
• Downconveision, cuando se pierde calidad.

La calidad se altera en función de los cinco parámetros básicos: si se cambia


la resolución, el muestreo, la profundidad de color, la cadencia o la compresión.
También afecta a la calidad la "profundidad de cálculo" de nuestro programa
de postproducción (véase más adelante).
En postproducción sólo están permitidas las dos primeras conversiones. La
última sólo se aplica a la hora de crear formatos de distribución.

» 209
PARTE III: MONTAJE Y POSTPRODUCCIÓN

>> Upconversion
Esta palabra puede llevar a engaño. Realizar una upconversion no significa
aumentar la calidad de la imagen: sólo se trata de aumentar la calidad del
formato de trabajo.
Un ejemplo puede ser pasar de una señal grabada en cámara de 1.080/4:2:2/8
bits, a una de 1.080/4:4:4/12 bits. La calidad de la imagen no aumenta, pues es
la cámara la que marca la calidad nativa. No la hemos convertido en algo de
igual calidad a lo grabado por una cámara 1.080/4:4:4/12 bits.
Lo que hacemos con esta upconversion es seleccionar un formato de trabajo
más robusto y flexible para nuestra postproducción.

>> Crossconversion
Este proceso ocurre cuando la conversión no altera la calidad.
Un ejemplo sería un cambio de cadencia de 24 a 25 fps sin pérdida de
fotogramas.
También sucede cuando capturamos en el ordenador con la misma calidad
con que se grabó en digital. Sería el caso de un fichero grabado en cinta por
una cámara HDV (mpeg2, 4:2:0, 8 bits a 25 mbs), el cual pasamos al ordenador
a través del cable firewire convirtiéndolo en un fichero con extensión ,m2t, que
es exactamente mpeg2, 4:2:0 8 bits a 25 mbs.
Se considera también una crossconversion pasar de un fichero sin compresión
(1:1) a otro igualmente sin compresión. Por ejemplo, una secuencia de TIFFs a
una secuencia de TGAs.

» Downconversion
Aquí siempre se produce una pérdida de calidad.
Hay una downconversion cuando, por ejemplo, pasamos de un formato sin
comprimir a uno comprimido. Aun cuando la compresión se anuncie "sin pérdida
aparente”.
Hay downconversion pasando de HD a SD, de RGB a YUV de 30 fps a 15 fps,
de 12 a 8 bits, etc.
En el trabajo profesional sólo se debería realizar un proceso de downconver-
sion a la hora de distribuir la señal.

» Etapas de la cadena
Una vez grabado el material, la mayor parte de las producciones siguen un
proceso similar: montaje, postproducción y masterizado para distribución.

» 210
PARTE III: MONTAJE Y POSTPRODUCCIÓN

Es evidente que el mundo audio­


/ Cadena de la producción audiovisual /
visual es muy amplio, y dependiendo
del trabajo que tengamos entre manos
las etapas variarán. También será dife­
rente según el género. No es lo mismo
una producción documental que una
de ficción o una película generada por
ordenador.

» Terminología
Por montaje o edición entendemos que
se trata del proceso de ordenar o em­
palmar sucesivamente todos los pla­
nos que tendrá la obra.
Montaje es un término más "cine­
matográfico" que "edición”, más tele­
visivo (al menos en España). Pero el
trabajo es el mismo y el operador siem­
pre se llamará “montador”. En inglés
se usan más los términos de editing y
editor, pero en televisión el "editor” es
el responsable de contenidos de un programa informativo. Si el montaje se hace
en directo para televisión, al operador se le denomina también “mezclador".

La postproducción se entiende por lo general como el resto de procesos


que sufre la producción tras el montaje. En cine, sobre todo si se ha rodado
previamente con fotoquímico, se usa a menudo el término de intermediación
digital (Digital Intermediate, DI), cuando la postproducción se realiza con medios
digitales. La intermediación digital no es pues un proceso o etapa concreta,
sino todo el conjunto de postproducción digital realizado en una producción
cinematográfica.

Los medios fotoquímicos para la postproducción son muy escasos. Se limitan por lo
general al conformado (corte de negativos y transiciones); a la creación de los cartones
de crédito; a algún que otro trabajo sencillo de composición, y al etalonaje de luces (o
colormaster, por la herramienta que se usa habitualmente).

Dado que hoy en día es casi irrelevante el soporte original de grabación (fo-
toquímico o digital), se tiende a considerar como intermediación digital (DI)

» 211
PARTE III: MONTAJE Y POSTPRODUCCIÓN

todos los procesos entre la captación y la distribución, englobando el montaje,


la postproducción y la masterización. Otros dejan fuera de la DI el montaje,
refiriéndose sólo a la postproducción más los procesos últimos de acabado y
conformado (conform & finishing).
Salvando la terminología que nunca es estándar, ni siquiera dentro de un
país, nos queda siempre el sentido común para saber de qué estamos hablando.
A mí me gusta hablar de montaje por un lado y por otro, postproducción o DI,
que incluye el conformado final.
1. Montaje

Generalidades

Hoy en día, prácticamente toda la producción cinematográfica se monta o edi­


ta en un ordenador, mediante aplicaciones informáticas llamadas editores no
lineales (ENL o NLE, en sus siglas inglesas Non Linear Editing).

» Mesa de montaje de cine


Anteriormente, el proceso cinematográfico se realizaba de una manera física y
laboriosa en las mesas de montaje cinematográficas que, en España, se conocen
como “moviolas” (en realidad, es una marca comercial, pero su nombre se usa
como genérico). Se utilizaban para ello los llamados copiones (dailies), que
eran los positivados diarios que se hacían del negativo rodado el día anterior
(generalmente sólo de las tomas dadas por buenas).
Los copiones se empalmaban físicamente con disolvente o celo y se colo­
caban en los rodillos para el visionado. Todos los empalmes eran por corte.
Se simulaban los encadenados añadiendo barras con un lápiz graso. No había
posibilidad de ningún otro tipo de efecto. Posteriormente, en laboratorio se rea­
lizaban estos encadenados y algún que otro efecto más, en el proceso conocido
como "truca”. Para agilizar el trabajo era recomendable el apoyo de uno o más
ayudantes.
Hoy en día, casi nadie usa ya este sistema, aunque siempre hay puristas
que afirman que se conseguían resultados “más auténticos". Mi experiencia
personal es todo lo contrario, y en realidad, no conozco a ningún montador
profesional ni director de cine que pueda decir que el montaje en moviola es
superior al realizado en una estación ENL. Todo lo que se puede hacer en
moviola, se puede hacer exactamente igual en una ENL, con mayor comodidad,
flexibilidad, rapidez y economía. Con el añadido de que una ENL puede ofrecer
herramientas que la tosca moviola no podría ni imaginar.

» 213
1. MONTAJE

» A-B Roll
En televisión las mesas de montaje con sistemas con cinta eran conocidas como
AB Roll. Constaban de uno o dos magnetoscopios reproductores (players) y un
grabador (recorder), además de una mesa de edición que los controlaba. Los dos
players eran necesarios para, por ejemplo, encadenar dos planos.
Las mesas de edición se fueron sofisticando, permitiendo algunos efectos
digitales y el trabajo con EDL sencillas (Editing Decissions List o lista de cortes),
pero sin llegar a las posibilidades de una auténtica edición por ordenador.
En los equipos económicos ni siquiera era posible elegir el cuadro exacto del
empalme, contando con una desviación de más menos equis frames.

» Variedad de ENL
Avid fue la primera marca que sacó una edición ENL aceptable para el mercado.
Fue su famoso Film Composser, pionero de sistemas ENL, y que le valió un Oscar
de la Academia de Hollywood.
Actualmente hay múltiples soluciones, pero en general todas han adaptado
la interface propuesta por Avid: dos monitores (player y recorder, heredando la

» 214
PARTE III: MONTAJE V POSTPRODUCCIÓN

terminología del AB Roll) y una línea de tiempo (timeline) donde gráficamente


podemos ver la edición. La línea de tiempo incluye un número más o menos
grande de capas o pistas tanto de audio como de sonido. Los ficheros de audio
y vídeo se organizan en sistemas de carpetas (bin) con el nombre genérico de
clips.
¿Hay algún sistema ENL mejor que otro? En general, si hablamos de progra­
mas profesionales, todos son perfectamente válidos. Si alguno de ellos imple-
menta una solución o herramienta novedosa y atractiva, la competencia tarda
apenas unos meses en sacar una actualización para su propia solución.

» Sistemas abiertos o cerrados


En los editores no lineales debemos tener en cuenta si estamos ante sistemas
"abiertos” o “cerrados". Esto no influye en la calidad, pero sí en el coste y/o en
la comunicación con el resto de programas y máquinas.
Decimos que una solución es abierta si permite trabajar con códecs, software
y hardware de otros fabricantes. En caso contrario, se trata de un sistema cerrado
o propietario.
La tendencia del mercado, no obstante, es ir hacia sistemas abiertos, lo
que sin duda favorece la comodidad de los operadores y también la economía.
Esto último se puede notar en la bajada de precios que han experimentado las
soluciones ENL en los últimos años. Bajada de precios que en ningún momento
ha supuesto una pérdida de calidad, sino todo lo contrario.

» Diferencia de sistemas y versiones


¿Qué es lo que actualmente diferencia unos ENL de otros, incluso en versiones
del mismo software?
En general, será la posibilidad de trabajar con más o menos resolución. Hasta
hace poco, había editores que permitían el trabajo con resoluciones SD, pero
no HD. Hoy en día, son todos polivalentes, si bien algunos implementan o no
soluciones específicas de cine digital: 2K, 4K.
Es importante señalar que el incremento de resolución implica una mejora
en la máquina: hay que tener un procesador más rápido, un tarjeta de vídeo
más potente y más memoria RAM para todos los procesos. Por esa razón, no
es habitual encontrar soluciones de bajo coste que permitan trabajar en 4K
reales (pero será cuestión de tiempo, dada la velocidad de desarrollo de la infor­
mática).

» 215
1. MONTAJE

» La duda del montador


La parte negativa de la variedad de programas de edición que actualmente
existe en el mercado es que el operador se ve obligado a conocer múltiples
sistemas. Antiguamente, un montador aprendía a trabajar con una mesa de
montaje, o con un sistema AB Roll, y podía hacerlo a partir de ahí con cualquier
otro sistema de montaje o edición en cualquier parte del mundo, pues todos
compartían la misma mecánica de trabajo. Hoy en día resulta fastidioso para
un profesional freelancer el tener que trabajar ora con Avid, ora con Final Cut,
ora con Edius, Premiére, Vegas o cualquier otro sistema de edición no lineal.
El trabajo de "montaje" no deja de ser el mismo, pero a veces sucede que se
tiene que rechazar un trabajo específico por desconocer determinado programa
y no disponer de tiempo para adaptarse.
Ciertamente, un montador profesional apenas necesitará unas horas para
hacerse con las herramientas básicas de cualquier programa. Pero en el montaje,
como en el resto de la profesión, sigue vigente la norma de as good as fast, esto es,
"bueno pero también rápido". El tiempo es dinero. Y aunque podamos dominar
tres o cuatro programas, siempre seremos más rápidos con unos que con otros,
por aquello de las horas de experiencia (los programas son siempre tontos y
lentos; son los operadores los que pueden ser rápidos e inteligentes).
Por desgracia, no se prevé a medio plazo (ni posiblemente a largo plazo) una
única solución de edición universal, una mesa de montaje digital que complazca
a todos los agentes implicados.
La solución que algunos prevén, dada la bajada de precios de las soluciones
y el incremento de potencia de los ordenadores portátiles, es que el montador
acabe llevando con él su propia solución portátil al lugar de trabajo.

» Cualquier programa es bueno


Dicho todo esto, insistiremos una vez más: cualquier programa ENL en el mer­
cado es perfectamente válido para un trabajo profesional.

Excluiremos de esta afirmación, claro está, los programas pensados para el usuario final
o doméstico, que tiene muy limitadas sus capacidades de montaje.

>> Cualquier máquina no es suficiente


También tenemos que advertir que tan importante como el programa es la
máquina o estación de trabajo sobre la que trabajemos.
Unas nociones básicas de informática son imprescindibles para la edición y
postproducción digital.

» 216
PARTE III: MONTAJE Y POSTPRODUCCIÓN

» Streams
Es común en los programas ENL y de postproducción hablar de streams (flujos)
como sinónimo de calidad o potencia de cálculo.
Un stream se refiere a la posibilidad de visionar una pista de vídeo a máxima
resolución, sin compresión, en nuestro ordenador. Lo mínimo que le podemos
exigir a una solución ENL es que nos muestre dos streams en HD para un
montaje cómodo. Aunque no siempre es posible.
El cálculo es sencillo: una señal HD 1.080 4:2:2 25p corre a unos 800 mbs;
si se trata de RGB 4:4:4 (que es como internamente trabajan los ordenadores)
hablamos de 1,2 gbs. Con cadencias superiores, como 29,94p, nos acercamos a
los 1,5 gbs. Luego si queremos asegurar dos flujos o streams HD, necesitaríamos
una herramienta capaz de gestionar cerca de 3 gbs por segundo como mínimo.

» Códecs de edición
Todavía hoy resulta difícil para un ordenador manejar dos streams de HD 1.080
RGB sin comprimir. Por ello los fabricantes de soluciones más representativos
ofrecen códecs específicos para la edición.
Como norma, abierta a excepciones, diremos que estos códecs son muy útiles
en la edición, y que en ocasiones sirven para todo un flujo de trabajo televisi­
vo, incluso en HD. Pero si pretendemos la máxima calidad para proyectar en
pantallas de cine, donde cualquier defecto se amplifica, siempre se recomienda
trabajar sin compresión.
Una vez más, aquí podemos encontrarnos con soluciones de códecs abiertas
o cerradas.

» Procesos destructivos y no destructivos


Hay una cuestión básica a entender en la ENL digital. A diferencia de los
sistemas analógicos de tipo AB Roll o las moviolas fotoquímicas, la edición
digital no es un sistema destructivo.
Decimos que una moviola es destructiva porque el copión se corta físicamente
(aunque, obviamente, el negativo original queda a salvo); también es destructivo
un sistema analógico por la pérdida de calidad de cada generación.
Sin embargo, los sistemas digitales siempre mantienen la calidad original.
En este caso, la calidad original sería la que hemos elegido para la ingesta de
material.
Hay que tener claro este concepto: una vez que se introduce la información
digital de audio o vídeo, cualquier transformación a la que le sometamos siempre
será “virtual” o paralela: el archivo original permanece inalterable. A diferencia

» 217
1. MONTAJE

de la energía, los ficheros originales no se pueden transformar: sólo se pueden


crear y destruir (borrar).
Esto nos permite siempre y en todo lugar volver a iniciar un trabajo desde
cero, y por eso consideramos la ENL como no destructiva.

» Renderizados, realtime effects, on the fly


Si los archivos originales permanecen inalterados, ¿por qué podemos ver un
encadenado o un efecto?
Hay dos maneras para que eso suceda: una, que la combinación progra­
ma/máquina (soft & hardware) nos permita un visualizado “virtual”, calculando
en “tiempo real” (realtime) las imágenes.
La otra opción es que se genere un nuevo archivo con el encadenado o efecto.
Este archivo es un render o renderizado. Render es un vocablo inglés de difícil
traducción en español, por lo que comúnmente se usa este término castellani­
zado: renderizar.
Esta renderización la podemos solicitar manualmente al programa, o bien
la puede realizar él automáticamente, cuando vea que es necesario para una
correcta visualización del efecto. Una modalidad es el render on the fly, que se
refiere a que el programa está continuamente generando renderizados, aunque
no se haya solicitado su visualización, para agilizar el trabajo.
Evidentemente, es preferible trabajar con efectos realtime que renderizados,
pues es más rápido y ocupa menos espacio en el disco duro. En resoluciones
bajas o efectos sencillos, es lo más común. Pero con resoluciones HD, 2K y
superiores, ya depende tanto del programa como de la potencia de la má­
quina.

» ¿Dónde se guardan los renderizados?


Generalmente, el programa de edición puede generar un render pero no lo
muestra como clip independiente en la línea de tiempo. Es un fichero “oculto”,
que maneja internamente la ENL.
Cada programa los crea automáticamente en un determinado directorio, o da
la opción de elegir una carpeta donde guardar estos ficheros. Algunos programas
permiten importarlos, una vez creados, si se desea, a la línea de tiempo. Otros no
lo permiten para no crear conflictos en su base de datos de clip (media manager).
Una vez terminado el trabajo, es conveniente eliminar todos estos renders,
pues sólo ocupan espacio sin tener mayor utilidad.

» 218
PARTE III: MONTAJE Y POSTPRODUCCIÓN

» Exportación
Cuando hemos terminado una fase de un trabajo y deseamos pasar a la siguiente,
es posible hacerlo mediante la exportación de toda o parte de la línea de tiempo.
Esta exportación también es generada por la ENL y se considera asimismo
un renderizado.

» Renderizados y código de tiempo


Otra cosa muy importante de los renderizados es que ya no mantienen referen­
cia de código de tiempo con los ficheros nativos de cámara. Al generarse, el
programa le aplica una identificación y un nuevo código de tiempo interno. A
todos los efectos, es un clip independiente que ya no guarda relación con las
imágenes que sirvieron de fuente para su creación.
Esto es importante tenerlo en cuenta, pues en muchos procesos del trabajo
es altamente desaconsejable. Un caso corriente es aplicar un efecto complejo
a un conjunto de clips. Por comodidad, en ocasiones se renderiza el efecto y se
importa como nuevo clip, sustituyéndolo en la línea de tiempo. Pero al hacerlo,
hemos perdido cualquier referencia de código de tiempo con el clip original, lo
que nos impedirá un recaptura a mayor calidad.
Por esa razón, entendemos también que son más cómodos y prácticos aque­
llos programas que puedan realizar la mayor parte de los efectos en tiempo
real.

» Media y proyecto
En una labor de montaje, tendremos dos datos bien diferenciados. Por un lado,
los clips de audio y vídeo que trabajamos. Es lo que se conoce como ficheros o
archivos de media (media o essence, en algunos textos en inglés).
Por otro lado, tendremos la información propia del montaje, que se guarda
con la extensión propia de cada programa ENL, en forma de proyecto.
El proyecto en sí suele ocupar muy poco espacio, apenas unos KiloBytes. Lo
que realmente ocupa espacio son los media. Pero la ventaja de la ENL es que
podemos borrar tranquilamente los media del disco duro con la seguridad de
que, si conservamos el proyecto y las cintas o discos originales con los brutos
de cámara, siempre podremos recuperar todo el trabajo.

» Online, online
Se dice que un montaje es online cuando la calidad de los media con los que
trabaja es la del máster final, preparada para emitir o proyectar. Si el montaje

» 219
1. MONTAJE

está realizado sobre clips capturados a una resolución menor que la calidad
que tendrá al final, se entiende que es un montaje Offline, que será necesario
recapturar o reimportar para los siguientes procesos.

No se suele traducir estas dos palabras, Online y Offline. Tampoco hay que confundirlas
con premontaje o diferentes versiones de montajes, antes del montaje definitivo o final.
Pueden existir premontajes online, y también montajes definitivos en calidad Offline.

El montaje OFFLINE se suele hacer cuando el peso y tamaño de los ficheros online
(sin comprimir, o con códecs de producción) ocuparían mucho espacio en el
disco duro, y agotarían los recursos de la máquina (RAM, procesador, tarjeta de
vídeo).

» Conformado
Se entiende como conformado (conform) el convertir un proyecto Offline en otro
online.
Esto se realiza generalmente mediante la recaptura (batch capture) o reim­
portación (batch import) de los clips originales, eligiendo esta vez como opción
de ingesta un códec de producción o sin compresión.
Una vez más recordar la importancia de que los ficheros offline hayan man­
tenido el código de tiempo original, que es el que los referencia con los nativos
de cámara (de ahí el cuidado al trabajar con renderizados, que pierden esta
referencia). También el sentido común nos indica que el conformado ha de ser
anterior a cualquier tipo de efecto o trabajo de postproducción. No tiene sentido
corregir el color o ajustar máscaras sobre una calidad offline.

» Proxies o ficheros de baja resolución


Se entiende por proxy un clip o fichero o espejo que está en lugar de otro ori­
ginal. Son ficheros de menor resolución o calidad que los originales y que per­
miten trabajar más cómodamente en los procesos Offline. Los ficheros proxies
comparten con sus nativos originales toda la metadata, incluyendo el código de
tiempo, pero con una calidad de imagen y de sonido inferior.
Los ficheros proxies se pueden generar en la ingesta por los ENL, pero tam­
bién ya existen cámaras, por lo general sin cinta, que generan directamente
un proxy de menor calidad en paralelo al nativo original. Esto permite una
visualización y edición rápida, incluso en el mismo lugar de rodaje.
Si se trabaja con tecnología IT, sin cinta, la sustitución de los proxies por los
originales es inmediata. Si el original está en cinta, es necesario una recaptura.

» 220
PARTE III: MONTAJE Y POSTPRODUCCIÓN

En ocasiones, algunos programas de edición y postproducción también ge­


neran sus propios proxies, principalmente para optimizar los recursos de la
maquinaria durante el visionado y manejo de la línea de tiempo. Es impor­
tante saber si nuestro programa trabaja o no con proxies, pues es posible que
posteriormente encontremos errores inesperados en los renderizados finales.
Es común en algunos programas de edición trabajar con proxies, para agilizar
los procesos. Pero es poco recomendable que un programa de postproducción
trabaje con proxies.

La ingesta de material

» Ingesta
Llamamos ingesta (ingest) al proceso de introducir la imagen y sonido grabadas
en el ordenador donde realizaremos el montaje y la postproducción.
Es un proceso clave en un correcto flujo de trabajo, pues será entonces cuando
determinemos cuál será nuestro formato de trabajo final para todo el proceso de
postproducción.

La palabra “ingesta" esté sustituyendo a “captura" (capture) debido a la aparición de


modelos de grabación sin cinta. Así, la ingesta incluye la captura, la importación y/o el
transfer de archivos hasta la línea de tiempo de la ENL.

» La importancia de la ingesta online


Como ya hemos comentado, en esta etapa hay que introducir los datos de
cámara en el ordenador, y para ello podemos optar por dos vías: un montaje
offline, con ficheros de baja resolución, o uno online.
Si elegimos la segunda opción, debemos ser conscientes de que la calidad de
este online es el que determinará la calidad final de la producción, pues como
norma entenderemos que NUNCA se puede mejorar un fichero ya capturado
dentro de un ordenador.
¿Qué elección tomar? Cuando hablemos de postproducción veremos que la
primera opción, la que proporciona la máxima calidad, es trabajar sin compresión
(uncompressed), en cualquier formato de este tipo que se nos ofrezca, y con la
máxima resolución y profundidad de color. Será siempre nuestra primera opción
online.

» 221
1. MONTAJE

Pero trabajar con estos ficheros significa un gran consumo de recursos, tanto
en disco duro como en proceso de cálculo. Podríamos plantearnos un online
sin compresión en una producción pequeña, como un spot publicitario de 30
segundos, donde el material grabado puede llegar a ser de 20 minutos, no más.
Pero a partir de cierta cantidad de metraje, el montaje online sin comprimir se
convierte en una odisea.
De esta manera, hay producciones que permiten un online comprimido (es
decir, sin la máxima calidad) y se pueden considerar perfectamente profesiona­
les. Es el caso de la mayoría de las producciones de televisión. En el proceso
de distribución de estas producciones (analógico, TDT, cable, satélite, etc.) la
señal perderá ya de por sí mucha de su calidad, por lo que la diferencia de ca­
lidad entre un formato sin compresión o un buen códec profesional de edición,
posiblemente no será apreciada por el espectador.

>> Percepción y calidad


Al decir que el formato televisivo soporta mejor la compresión, no se trata de
menospreciar la calidad televisiva frente a la cinematográfica. La clave en este
caso es la percepción por parte del espectador.
Una pantalla de cine puede medir fácilmente varias decenas de metros cua­
drados. Un televisor raramente supera las 42 pulgadas de diagonal. Por esa
razón, cualquier defecto o minorización de la calidad (resolución, compresión,
color, e incluso el foco y la nitidez) será más visible en la pantalla de cine que
en la televisión.
Todos los tests de calidad subjetivos, y lo que entendemos por MTF (función
de transferencia de la modulación, que determina la resolución o nitidez efec­
tivas), deben incluir inevitablemente la percepción del espectador como una
variable más.

» Códecs de edición y postproducción online


Llegado este momento, tendremos que decidir qué códec online será el que se
use.
Afortunadamente, el mercado ya ofrece diferentes códecs de alta calidad
para este trabajo online tanto de montaje como de postproducción televisiva.
Los más conocidos son, actualmente, el Apple ProRes HQ y la familia de
códecs de Avid DnxHD (Digital Non-linear for High Defiition, véase el anexo),
pero también hay otros igualmente válidos de otras casas y fabricantes.
Estos códecs de edición están desarrollados pensando en un robusto trabajo
de edición. Equilibran la calidad con el peso y el flujo de datos, permitiendo

» 222
PARTE III: MONTAJE Y POSTPRODUCCIÓN

ahorrar espacio en el disco duro pero también un montaje ágil, con efectos en
tiempo real o renderizados cortos en duración. Son códecs que crean ficheros
"seguros”, robustos y fiables en las posibles transformaciones, minimizando el
añadido de ruido y artefactos a los renderizados, y evitando el riesgo de ficheros
corruptos.
Cualquiera de las soluciones profesionales del mercado es buena. Lo único
que debemos tener en cuenta es su compatibilidad con el resto de programas
del flujo de trabajo. No todos estos códecs son abiertos, sino que están limitados
por sus desarrolladores. Esto implica que podemos optar en la ingesta por un
determinado códec, realizar el montaje y luego descubrir que nuestro programa
auxiliar de corrección de color no reconoce ese códec. O (más habitual), que este
programa está licenciado por el desarrollador del códec para su lectura, pero no
para su exportación o render.
Una vez más, tendremos que estar atentos a las especificaciones de cada pro­
grama, y acumular experiencia para evitar tediosos (y en ocasiones destructivos)
procesos de transferencia y cambio de códec.

» Códecs nativos de cámara para la edición


El códec de Sony HDCAM, por ejemplo, no tiene un paralelo en edición, y
necesitaremos seleccionar en la ingesta un códec adecuado para el trabajo a
realizar.
Pero hay otras cámaras cuyo códec de compresión tiene una equivalencia
como códec de edición en el ordenador. Es el caso del códec de Panasonic
DVCPro HD, del formato HDV o de los más recientes XDCAM HD o AVC-HD.
Podemos grabar en HDV en cámara, y trabajar con ficheros HDV clónicos en la
edición (se crean con la extensión .m2t, mpeg2 transportstream).
En este caso tenemos que plantearnos si estos códecs se pueden considerar
códecs de edición online, como los mencionados en el apartado anterior.
En realidad, tenemos dos cuestiones. Una a favor: que se facilita la ingesta
y no se pierde nada de calidad con respecto a la grabada en cámara. Otra en
contra: que estos códecs están pensados para almacenar datos en cámara, y
quizá no tanto para una edición o postproducción exigente.
Como el mundo profesional no es una ciencia exacta, una vez más insistire­
mos en que sólo el sentido común y, sobre todo, la experiencia o el método de
ensayo y error, nos puede indicar si un determinado códec nativo de cámara es
adecuado o no para un determinado flujo de producción.
Mi opinión particular es que si el trabajo de edición y postproducción no es
muy exigente, la mayoría de estos códecs nativos de cámara se pueden utilizar

» 223
1. MONTAJE

en la edición sin problemas. En caso contrario, habría que valorar el códec en


sí: no es lo mismo un HDV que AVC-HD 10 bits, 4:2:2 lOOmbs, o el RAW del
Redcode.

» Modos de ingesta
Básicamente, la ingesta se puede hacer de cuatro maneras, dependiendo del
formato de grabación:

a) Captura
b) Importación
c) Directo to Edit
d) Log & tranfers

• Captura y volcado
El término "captura" (capture) va asociado en los ENL a la inclusión de los datos
desde el magnetoscopio al ordenador. Se realiza a través de las llamadas tarjetas
capturadoras con entradas y salidas estandarizadas HD- Sdi, Dual Link y otras.
Hace tiempo, muchos programas ENL sólo reconocían determinadas tarjetas
capturadoras, e imposibilitaban la captura con otras marcas. Una vez más, una
opción cerrada o propietaria. Pero en la actualidad se tiende cada vez más
a la plena compatibilidad entre todos los fabricantes, principalmente por la
paulatina desaparición de las cintas y las capturadoras.
También se habla de captura cuando se usa el popular cableado de tipo
ñrewire, común en muchos equipamientos prosumer. En este caso, se puede
optar por hacer una simple transferencia de datos o importación, convirtiendo
la señal del camascopio es un fichero clónico (por ejemplo, de HDV a .m2t),
o bien cambiar el formato de edición (por ejemplo, de HDV a ProRes). Para
este volcado no necesitaremos una tarjeta capturadora, sino simplemente una
conexión estándar ñrewire reconocible por la ENL.
El proceso inverso, del ordenador a la cinta, se llama "volcado" (edit to tape,
print to tape).

• Importación y exportación
Cuando usamos cámaras con grabación sin cinta, procederemos a importar
(import) los ficheros a nuestra ENL. Esto implica una recodificación de todos los
datos del clip original hasta el clip que manejará el ENL.
Podemos realizar una importación offline y, posteriormente, realizar un con­
formado a online con la herramienta batch import.

» 224
PARTE III: MONTAJE Y POSTPRODUCCIÓN

El proceso inverso, es decir, pasar del ordenador a un formato susceptible de


ser distribuido o traspasado a otros sistemas es conocido como "exportación”
(export).

• Direct to Edit
Recientemente, la implementación de los protocolos MXF ha permitido mejorar
el trabajo con ficheros no lineales, evitando la importación pura de datos y su
transcodificación.
Si los ficheros grabados por la cámara son compatibles con nuestro ENL bajo
el mismo protocolo MXE podemos incorporarlos directamente a nuestra línea de
tiempo y empezar a editarlos. Generalmente, esta posibilidad se conoce como
Direct to Edit.

Muchos ENL trabajan ya así: permiten incluir en su línea de tiempo cualquier tipo de
fichero no propietario o para el que tenga su licencia. No obstante, otros programas
como Avid requieren, para determinados ficheros, una importación que conlleva una
transcodificación a sus propios códecs de trabajo.

• Log & transfer (selección y transferencia)


Una mejora con respecto al Direct to Edit la podemos encontrar en aquellos
formatos de grabación compatibles igualmente con nuestro ENL. Es lo que se
conoce como ‘‘identificación y transferencia” o herramienta log & transfer (si
bien este término puede variar en los diferentes ENL).
Esto permite trabajar no con todo el clip, sino con una parte de él, la que nos
resulte de interés, permitiendo ahorrar espacio en el disco duro. Generalmente,
una herramienta auxiliar (plugin, tool) nos permite visionar el clip original,
marcar los puntos de entrada y salida e incluso añadir metadata.
Una vez elegidos los puntos de edición y modificados, en su caso, los datos
auxiliares, se procede a trabajar en la ENL sólo la parte seleccionada.
Tendremos dos opciones: una, trabajar en modo Direct to Edit, pero donde el
clip aparecerá en la ENL con los puntos de entrada y salida ya seleccionados,
así como los metadatos o el nombre que hayamos querido escoger. La otra
opción es proceder a la importación y transcodificación sólo de esa parte del
clip al códec que hayamos escogido para el trabajo.

• Ventajas y desventajas
Es evidente que la captura o importación de ficheros supone una pérdida de
tiempo considerable con respecto a las soluciones Direct to Edit.

» 225
1. MONTAJE

Sin embargo, si trabajamos directamente con los ficheros originales, perde­


mos la posibilidad de una recuperación de datos en el caso de que se destruya
por error o accidente.
La solución es hacer siempre una copia de los ficheros que usamos para un
trabajo Direct to Edit. Pero esta copia requiere tiempo y supone doblar el espacio
en el disco duro.
La solución “selección y transferencia” con transcodificación se sitúa en
medio: por una parte, es necesaria una importación, aunque más rápida pues
no lo es de todo el material, sino de aquella parte del clip que nos interese. Pero,
por otra, conservamos, aparte, el fichero original.

Como siempre, optar por una solución u otra dependerá del tipo de trabajo y de nuestras
posibilidades en cuestión de tiempo y recursos.

• La importancia del backup


En este mismo sentido es conveniente recalcar la importancia de tener un
backup, copia de seguridad o respaldo de nuestro material nativo.
Tradicionalmente, el trabajo con cinta nos daba ya por supuesto este respaldo
en la edición digital ENL. Pero actualmente se trabaja más y más sobre grabación
IT no lineal, sin cinta. Si usamos estos mismos ficheros para la edición, corremos
el riesgo, siempre presente, de que se corrompan, se borren accidentalmente, o
se pierdan definitivamente por un fallo en el disco duro.
Es conveniente, pues, hacer siempre una copia de seguridad de estos ficheros
de cámara.

>> La ingesta en fotoquímico


• Escaneado y telecine
Si el formato original es fotoquímico, necesitamos maquinaria específicamente
diseñada para convertir los fotogramas del negativo en imágenes digitales.
Básicamente, hay dos procesos considerados profesionales: el escaneado y
el telecinado.

• Telecine y kinescopiado
El telecine es la herramienta tradicional de conversión de cine a televisión. En
principio es más barato y económico, y permite la conversión en tiempo real. Su
límite suele estar en los 8 bits de profundidad de color y resolución HD.

» 226
PARTE III: MONTAJE Y POSTPRODUCCIÓN

Los telecines de última generación permiten además su uso como herramien­


tas de corrección de color y etalonaje, así como una mejora en la profundidad
de color.
Generalmente, el formato de salida de un telecine será una cinta estándar,
sea SD o HD. Pero los nuevos modelos también permiten formatos IT.
El telecinado puede incorporar como metadato o como información en pan­
talla el pietaje del material negativo. Esta información es imprescindible para
el montaje en ordenador de películas cinematográficas, debido a la diferencia
de cadencia y a la necesidad de cortar posteriormente el negativo original,
El proceso inverso, de cinta a fotoquímico realizado con una máquina similar,
se conoce como kinescopiado.

• Cinevator
Una variante reciente del kinescopiado, basado en tecnología LED, es la cono­
cida con la marca comercial de Cinevator.
La ventaja competitiva con que apareció en el mercado es que realizaba la
transferencia digital/fotoquímico en tiempo real, tanto de audio como de sonido.
Y también que lo podía hacer directamente en copias positivadas, sin necesidad
de interpositivo o internegativo.
Esto supuso una revolución en muchas producciones independientes, así co­
mo documentales y cortometrajes, pues ahorraban costes.

• Escaneado y filmado
El escaneado láser es un desarrollo posterior, de mayor calidad (desde 8 a 12 bits,
y con resoluciones de 2K, 4K e incluso 6K y superiores) pero más lento y costoso.
Se escanea cada fotograma individualmente y es transferido a un fichero indi­
vidualizado, generando una secuencia de imágenes numerada. Generalmente,
estos ficheros son de tipo dpx (digital picture exchange, heredero del Cineon de
Kodak), pero también hay opciones como tiff o tga (véase el anexo).

Algunos escáneres modernos ofrecen la posibilidad de escaneos de 6K, 8K o superiores.


Sin embargo, como vimos, la resolución nativa del 35 mm es de 4K, por lo que un escáner
a 6K no tiene mucho sentido, pues se trataría de una upconversion sin aumento de la
calidad nativa.

Además del coste superior, la desventaja estriba en que no es un proceso en


tiempo real (1:1, un minuto de rodaje, un minuto de escaneado). Hay que plani­
ficarlo, pues, con tiempo.

» 227
1. MONTAJE

El proceso inverso con tecnología láser similar se conoce como filmado.


Tampoco es en tiempo real.

Debido a la diferencia de precio y operatividad, los offlines cinematográficos se hacen


siempre con telecine. No tendría sentido perder tiempo y dinero en capturar todo el
material filmado en escáner láser. En muchas ocasiones, el telecinado del negativo ha
sustituido a los daylies o copiones.

• Otros transfers
Nada nos impide colocar una cámara digital delante de una pantalla donde se
proyecta una película para hacer un "transfer" digital (este sistema es el usado
habitualmente para piratear películas). También podríamos colocar una cámara
de 35 mm delante de un monitor de televisión para lograr un “kinescopiado".
Sin embargo, estos procesos no son los habituales en la industria, pues no
obtienen la misma calidad de imagen que el escaneado/filmado o el telecina-
do/kinoscopiado. No obstante, estos remedios "caseros" se utilizan en ocasiones
para lograr texturas subjetivamente muy interesantes, o para abaratar costes en
producciones de baja calidad.

• Calidad y textura
Las transferencias fotoquímico digital pueden tomar también un valor artístico,
no sólo técnico. No me refiero sólo al uso de herramientas de corrección de color
o de viñeteo y máscaras, sino a la propia textura de cada soporte.
Se puede grabar unas imágenes en calidad DV para luego transferirlas por
kinescopiado casero a Súper 8 mm, posteriormente tratarlas en digital para
terminar en una copia en 35 mm y en una cinta HD. El objeto sería lograr
un textura especial, que va tomando "grano” y artefactos de cada uno de los
procesos.
Igualmente, algunos especialistas prefieren el telecinado o el Cinevator para
formatos frágiles como el HDV antes que un filmado láser. Éste tendría más
calidad, pero por esa misma razón se verían más sus defectos. Un telecinado los
suaviza y logra un textura muy interesante.
Y, no hay que olvidarlo, la experiencia, el buen gusto y el conocimiento técnico
del operador encargado del transfer es un punto siempre a tener en cuenta.

» CGI en efectos y animación


CGI son las siglas de Computer Graphic Images, o imágenes generadas por
ordenador.

» 228
PARTE III: MONTAJE Y POSTPRODUCCIÓN

En este orden incluimos una gran variedad de ellas, siendo las más determi­
nantes las dedicadas a los efectos digitales y la animación.

» Efectos
Gran parte del desarrollo cinematográfico de los últimos años se debe a los
efectos digitales. Lejos quedan los efectos de Superman, MaryPoppins o Chitty
Chitty Bang Bang, que eran poco más o menos lo que se podía hacer con la
truca convencional.
Hoy en día se puede hacer volar un vaca con facilidad, hacer estallar un
edificio de cincuenta plantas o recrear el impacto de un meteorito en la Tierra con
grandes dosis de credibilidad (al menos visualmente, no sé si argumentalmente).
Estos efectos se generan en ordenador y posteriormente se integran sobre
las imágenes reales. Para preservar su calidad, se renderizan en formatos de
gráficos sin comprimir RGB como son los tiff, tga, bmp, png y otros, prefiriendo
aquellos que tienen un canal alfa o de transferencia (en ese caso, en ocasiones
se dice que son formatos 4:4:4:4).

Es útil tener una idea siquiera general de estos ficheros gráficos, por lo que se incluye
un anexo.

« Animación
Dos de las técnicas tradicionales de animación son el dibujo animado, cartoon,
y la animación paso a paso stop motion. Hoy en día, todas estas producciones se
realizan por medios digitales, salvo algún estudio que continúa con las técnicas
tradicionales de lápiz y papel.

e Cartoon
Se puede distinguir en la animación 2D tradicional (diríamos tipo Disney) o la 3D
más actual (tipo Pixar). Ambas se generan por ordenador, si bien con programas
y tecnologías distintas. Pero el resultado final es en los dos casos secuencias de
ficheros gráficos (generalmente tiffs de 16 bits con canal alfa).
Estas secuencias de ficheros (el término coloquial es “chorizo”, aludiendo al
embutido típico del país), una vez generadas, pasan por los procesos tradicio­
nales de montaje, postproducción y masterización.
En ocasiones, algunos programas pueden generar también clips de vídeos.
Es otra opción que agiliza el proceso con pérdida de calidad (mucha o poca
dependiendo del códec).

» 229
1. MONTAJE

• Stop Motion
Esta técnica se realizaba tradicionalmente con cámaras de cine que permitían
imprimir fotograma a fotograma. Pero actualmente éstas se han sustituido de
manera masiva por cámaras fotográficas reflex.
— Es un sistema mucho más flexible
/ Proceso largometraje 35 mm /
y económico. Las fotografías se toman
en RAW de 12 bits o en Tif de 16
bits para continuar con todo el proceso
normal de montaje y postproducción.
En este caso, las fotografías no gene­
ran canal alfa, pero se puede añadir
posteriormente.
Si optamos por la opción RAW de­
bemos asegurarnos de que nuestro
equipamiento lea el RAW de la foto­
grafía, pues suelen ser propietarios, y
los sistemas de postproducción tradi­
cional no están preparados para se­
cuencias de ficheros RAW, pero sí para
Tifs o Dpx.

• Timelapse y otras animaciones


Una variante muy popular en internet
del stop motion es el timelapse, don­
de se toman diferentes fotografías de
un mismo decorado o paisaje, en inter­
valos de segundos o incluso minutos,
durante largos periodos de tiempo. Al
unirlos en la línea de tiempo, se crean
efectos de "cámara rápida" muy inge­
niosos.
En general, internet es un medio
excelente para conocer sistemas de
animación con cámaras fotográficas,
de las que hay ejemplos excelentes
realizados por artistas y creadores lle­
nos de talento y escasos de dinero.
En este caso, él soporte (cámaras
de fotografía, still camera) no es un in-

» 230
PARTE III: MONTAJE Y POSTPRODUCCIÓN

conveniente para la creación audiovi­


sual, sino una gran ventaja, pues el
uso del equivalente fotoquímico sería
una barrera económica infranqueable.

Proceso de montaje

» Montaje tradicional
En la actualidad, la mayoría de los
programas de edición no lineal inclu­
yen muchas herramientas que supe­
ran las propias de un montaje conven­
cional (corte y transiciones simples,
como encadenados y cortinillas). Pue­
den considerarse como completas he­
rramientas de composición 2D, 3D e
incluso de colorimetría (colorgrading)
y masterización (finishing).
Los equipos específicos de postpro­
ducción están mejor preparados para
estas tareas, por lo que hay que valorar
el tipo de trabajo que se va a realizar (y,
diremos una vez más, las condiciones
ideales de trabajo no se dan nunca).
En este apartado hablaremos sólo
de un montaje simple, sin postproduc­
ción.

» Montaje sencillo de imagen


Generalmente, el montaje se define
como la colocación de manera secuen-
cial de los diferentes planos rodados,
con el sentido narrativo y emocional
que le queramos dar. La unión entre
los planos (clips en la ENL) puede ser
por corte o con transiciones.

» 231
1. MONTAJE

» Sincronización con el sonido: la


/ El sonido en el mundo audiovisual /
claqueta
Si grabamos con cámaras digitales,
generalmente se tomará al mismo tiem­
po y en el mismo clip, audio y vídeo,
sea en cinta o en soporte rígido.
En fotoquímico, por el contrario, el
sonido siempre se graba en un apara­
to distinto a la cámara. Por costumbre,
si se trata de un rodaje cinematográfi­
co, el jefe de sonido también tenderá a
grabar el audio aparte, con mayor cali­
dad (24 bits, 96 kHz...), a pesar de que
también tirará una línea a la cámara
digital (16 bits, 48 kHz) o se usará el
micro de cámara como referencia.
En estos casos, será necesario sin­
cronizar los clips de audio y de vídeo
antes de iniciar la edición. La herra­
mienta más útil y sencilla sigue sien­
do la claqueta, cuyo correcto manejo
facilita mucho el trabajo de montaje.

» Mezclas de sonido
Tradicionalmente, el sonido siempre
se ha postproducido o mezclado apar-
te, con otras herramientas y otros pro­
fesionales. En cine es casi obligatorio. En televisión también, pero es cierto que
para noticias, pequeños reportajes y algún que otro tipo de programa, actual­
mente el montador de imagen también hace la mezcla de sonido.
Por esta razón, los programas ENL actuales incluyen varias pistas de sonido,
plugins, herramientas y efectos varios para una “correcta" postproducción de
audio. Señalar, eso sí, que no son las herramientas apropiadas y que montar
imagen y montar sonido son dos oficios diferentes que requieren de preparación
y experiencia distintas.

» 232
PARTE III: MONTAJE Y POSTPROOUCCIÓN

» Edición por corte


Hacemos un corte en la edición cuando al último cuadro o fotograma de un clip
le situamos el primero del siguiente clip en la línea de montaje sin solución de
continuidad.
La pista de sonido correspondiente a los clips también se puede hacer por cor­
te, pero por las características físicas del sonido se suele incluir unos pequeños
encadenados de muy corta duración.
También es posible que la pista de sonido de un clip que se corta por imagen
continúe (el típico caso en una escena con plano contraplano). En ese caso se
dice que la pista de sonido se “encabalga" (el término puede variar según el
país, e incluso la ciudad o la empresa).

» Negros, silencios y wildtrack o pista libre


Como hemos comentado, los cortes de audio pueden ser bruscos. Además de
añadir pequeñas transiciones, otra técnica de montaje es el uso de una pista
libre o wildtrack, donde se incluye un ruido “de fondo” o de ambiente propio de
la escena, que ayuda a amortiguar los cambios bruscos de sonido entre clips.
Asimismo, la wildtrack trata de evitar el “silencio absoluto". Un “silencio
absoluto" puede ser interpretado por el espectador como un error o un defecto,
pues el silencio absoluto no se da en la naturaleza en condiciones normales. El
“silencio cinematográfico" no se entiende como una ausencia de sonido, sino
como un sonido propio en sí, con una carga emocional y de información propia
por lo que la “sensación de silencio” debe crearse sutilmente en la mesa de
mezclas.
Sucede lo mismo con la imagen: una pantalla en negro no significa “vacío",
sino oscuridad, o ausencia de información. Si no tiene un sentido narrativo
específico, el espectador lo interpretará como un error.
Hay que señalar que la mayoría de los programas ENL y de postproducción
interpretan un vacío en la línea de tiempo como un negro, a no ser que se indique
lo contrario.

» Transiciones y colas
Las transiciones suceden cuanto el clip entrante y el saliente comparten algunos
fotogramas en un efecto determinado. Los efectos más comunes, heredados del
lenguaje cinematográfico, son los encadenados, los fundidos y las cortinillas.
La principal característica de las transiciones es que precisan de colas (hand-
les). La cola es la parte de los fotogramas del clip que se necesita para el efecto
de la transición.

» 233
1. MONTAJE

Por ejemplo, si una transición dura 24 fotogramas, necesitaremos 12 cuadros


del clip saliente como "cola final” y otros 12 del clip entrante como "cola inicial".
Manejar clips con “colas” es siempre importante en este sentido. Por esa
razón, los buenos operadores de cámara también graban los planos con colas de
sobra para facilitar el trabajo del montador. Y por la misma razón en los rodajes
de cine se dice “cinco y acción”, y no directamente “acción”.
Todas las transiciones tienen asimismo un “punto de edición”, que se puede
variar. Lo normal es que se sitúe al 50 % en el medio de la transición, pero
también puede ser al inicio, al final o en otro punto intermedio. Esto puede
conllevar que las colas de los clips entrantes y salientes no sean iguales.

» Encadenados y fundidos
Los encadenados se basan en reducir progresivamente la luminosidad del plano
saliente de 100 a 0 %, y subir la del entrante de 0 a 100 %.
Si el encadenado se hace sin clip saliente, sobre un negro, se llama “enca­
denado a negro” o “fundido”, indistintamente. Si es de salida, "sale de negro” o
“abre a".
También es posible fundir o abrir desde otros colores que no sean el negro,
siendo el blanco el más común.
Académicamente, la diferencia entre corte y transición implicaba una dife­
rencia de tiempo entre un plano y el siguiente: por corte se montaban los planos
en una misma secuencia, y por transición entre diferentes secuencias. Era una
diferencia narrativa y artística. Sin embargo, hoy el lenguaje audiovisual admite
muchas más interpretaciones, y lo que antes podía considerarse un error de
gramática cinematográfica hoy sólo se considera una opción artística.
Como éste es un libro técnico, no entraremos en subjetividades. Sin embargo,
es necesario señalar que en digital las transiciones no tienen un coste económi­
co, pero sí lo tienen en truca de laboratorio, y en ocasiones puede ser muy
elevado. Esto también explica que antes el uso de transiciones y encadenados
no fuera tan común como ahora.

» Encadenados fotoquímicos
Los encadenados se pueden realizar sin mucho problema en la truca de labo­
ratorio. Sin embargo, dada la respuesta no lineal del fotoquímico, la gradación
de la luminosidad no es tampoco lineal: empieza suavemente y termina más
rápidamente (o viceversa).
Algunos programas ENL incluyen la opción de este tipo de encadenado
no lineal, denominándolo de diversas formas. Ayuda al montador de cine a

» 234
PARTE III: MONTAJE V POSTPRODUCCIÓN

hacerse una idea de cómo será en pantalla grande. También algunos lo pueden
preferir para las producciones pensadas para proyectar digitalmente, sin pasar
por laboratorio, por simple estética.

>> Dip to color


Es el nombre de un tipo particular de encadenado, que en realidad son dos
fundidos a color seguidos: el clip saliente funde a un determinado color (blanco
o negro, por lo general) y el saliente abre de ese mismo color.
Es muy común en ediciones de "totales”, que son las declaraciones a cámara
de un entrevistado. En muchas ocasiones, se cortan las declaraciones en función
del audio y se introduce un Dip to color entre dos planos prácticamente idénticos
para que el empalme no resulte tan brusco.

» Cortinillas
La otra transición más común son las cortinillas. Los dos clips no se encadenan
o pierden luminosidad, sino que se superponen el uno al otro.
Puede ser una superposición simple, donde el clip entrante va apareciendo
gradualmente desde un extremo al otro, hasta tapar el clip saliente. Pero también
puede "empujar” (push) al clip saliente haciendo que desaparezca de un extremo
al otro.
El filo entre las imágenes de los dos clips (edge) se puede parametrizar. Puede
ser simple, sin anchura, pero también se puede elegir una determinada anchura,
angulación, color, forma y punto de entrada y salida, degradación del filo, etc.

» Cortinillas 2D y 3D
Además de las señaladas, hay una amplia variedad de cortinillas que ofrecen
diferentes resultados, parametrizando fundamentalmente la forma, la anchura,
el color y el degradado del filo, así como la forma de entrar o salir: desde un
borde lateral, desde uno horizontal, desde una esquina, desde el centro, desde
un determinado punto, con forma de estrella, de rombo, de óvalo, etc.
Si además se modifica la perspectiva de alguno de los clips, sugiriendo un
canal de profundidad (canal Z) o deformándolo para adaptar formas esféricas o
de otro tipo de volumen, se dice que es un cortinilla 3D (pero no deja de ser una
simulación, no es realmente un objeto 3D).

» 235
1. MONTAJE

>> Uso y abuso de las transiciones


La variedad de transiciones y cortinillas puede ser infinita, depende del gusto
de cada cual, si bien la práctica aconseja no abusar de ellas ni en cantidad ni
en variedad.
Las modernas ENL incluyen las transiciones básicas por defecto y en ocasio­
nes otras muchas, propias de cada casa. Además, existen plugins con paquetes
enteros de otras muchas cortinillas de todo tipo.
Por lo general, todos los efectos de transición son igualmente parametri-
zables, por lo que podemos ir creando cortinillas y efectos de transición ad
_______________________________ hoc casi para cada trabajo.
/ Flujo de un reportaje de televisión /
» Montaje terminado
Con el montaje de los planos en la
línea de tiempo, y el añadido de tran­
siciones simples (encadenados, fundi­
dos y alguna cortinilla sencilla), po­
dríamos dar por terminado el trabajo
de montaje o edición, para dar paso a
los procesos paralelos de postproduc­
ción de imagen (intermediación digi­
tal en cine) y de sonido (comúnmente
llamado “mezclas", sound mixing).

» Montaje televisivo
En muchos casos, con este trabajo de
edición ya se puede dar también por
terminada la postproducción. Un típi­
co ejemplo es un reportaje televisivo.
En este tipo de trabajos la postpro­
ducción se limita fundamentalmente
al añadido de cabeceras y créditos (ge­
neralmente prediseñados), algún gráfi­
co más o menos elaborado y textos
con identificaciones de los personajes
o entrevistados. Se aplica también un
ligero etalonaje, y en ocasiones se llega
a corregir algún plano mal balancea­
do o fuera de la obturación correcta.

» 236
PARTE III: MONTAJE Y POSTPRODUCCIÓN

Cabría valorar si para este tipo de


postproducción sencilla es necesa­ / Flujo de un documental independiente /
Con transfer a 35 mm
rio abandonar la ENL y pasar a una
herramienta más potente. Idealmen­
te, la respuesta es sí, pues el aca­
bado y la calidad final del trabajo
lo agradecerán. Pero, una vez más,
nunca nos encontraremos con las si­
tuaciones ideales de trabajo.
Por lo general, si es un trabajo
televisivo, sea SD o HD, profesional­
mente estas etapas se terminan en
las ENL. Como veremos, las ENL tie­
nen menos capacidad de cálculo, y
menos posibilidad de un ajuste fino,
que un software de postproducción.
Pero dado que el formato final que
verá el espectador es relativamen­
te pequeño (el televisor del hogar),
quizá las diferencias de calidad no
sean perceptibles.

» La percepción del espectador


Una vez más, hay que tener en cuen­
ta la percepción del espectador. Al­
gunos documentales grabados tele­
visivamente acaban siendo proyec­
tados en pantallas de cine. Ahí, cual­
quier pequeño defecto o artefacto se
verá agrandado y molestará. En ese
caso, es necesario acudir a un equi­
pamiento mejor que los ENL para la
terminación de la obra.
Ocurre lo mismo con la populari­
zación de televisores HD de gran ta­
maño (42 pulgadas y superiores). Lo
que en un televisor SD de 23 pulga­
das no era apreciable como defecto,
se magnifica mucho en estos tele­
visores, lo que obliga a una mayor
exigencia en todo el trabajo.
» 237
1. MONTAJE

Conformado

>> Offline a online


Si partimos de un montaje offline el primer paso sería conseguir el montaje online
con una nueva ingesta de los brutos de cámara.
Aquí volvemos a señalar lo ya apuntado anteriormente: este proceso es clave
para asegurar la máxima calidad de nuestro trabajo. Por eso hay que ser cuida­
dosos con la elección del códec con el que vamos a trabajar a partir de ahora.
Como siempre, la primera opción será una sin comprimir, y luego algún códec
específico y fiable para una postproducción exigente.
Podemos recapturar todos los clips, pero lo más práctico es recapturar sólo
aquella parte del clip (subclip) que realmente se ha usado en la línea de tiempo
o montaje. Los ENL tienen herramientas que realizan automáticamente esta
función, incluyendo las colas necesarias para las transiciones.
De ahí la necesidad de trabajar con criterio. Si en la línea de tiempo hemos
sustituido un clip original de cámara por un renderizado (porque hemos incluido
un crédito o algún efecto, por ejemplo), lógicamente nuestra ENL no recono­
cerá el código de tiempo de ese clip como referenciado con ningún clip de las
cámaras.
Hay que recapturar antes y renderizar después.
Además de las colas que ya se precisan para las transiciones en la línea
de tiempo, es conveniente hacer una captura de todos los sublicp con colas
(handles) de uno o dos segundos tanto de entrada como de salida. No es inusual
que un montaje dado por "definitivo" precise de algunos pequeños retoques
posteriores, por lo que estas colas serán importantes.

Estas colas pueden parecer pocos segundos, pero, en una producción de larga duración,
puede haber miles de cortes, miles de subclips. Si añadimos 2+2 segundos de cola por
clip, la cantidad total puede superar fácilmente la hora: es necesario tenerlo en cuenta
sobre todo pensando en el disco duro.

» Identificación de las cintas


Otro tema importante si se trabaja con cintas es la correcta identificación de las
mismas.
Todas las cintas comparten el mismo código de tiempo SMPTE, que va de
00:00:00:00 a 99 horas, 59 minutos, 59 segundos y 25 frames (30 para NTSC), y
que no permite distinguir una cinta de otra. Por lo que si nos equivocamos de

» 238
PARTE III: MONTAJE Y POSTPRODUCCIÓN

cinta en nuestro VTR, nuestro ENL puede capturar por error (nuestro error, no el
suyo) un clip equivocado.
La identificación debe figurar claramente en la etiqueta de la cinta y también
en las preferencias de captura. Es una dinámica de trabajo imprescindible, pues
muchos trabajos pueden contar con decenas de cintas y realizarse a lo largo de
muchas semanas.
Aprovechando que la mayoría de las cintas no superan la hora de grabación,
un buen protocolo de trabajo es que el operador de cámara identifique cada
cinta con los dos primeros dígitos, empezando la grabación no en 00, sino en
01, 02, 03 y así sucesivamente. Si las cintas son de más de una hora, se pueden
identificar igualmente como 10, 20, 30... Esto, claro está, es responsabilidad del
cámara y del productor, pero facilita mucho el trabajo de montaje.

» La grabación del código de tiempo


Las cámaras permiten por lo general dos maneras de grabar el código de tiempo
(time-code, TC):

• Rec Run, de manera continua desde 00:00:00:00 (o el que se elija como TC


inicial) hasta el final, independientemente de los planos que haya.
• Free Run: donde se coloca un TC inicial y éste no para, se grabe o no se
grabe, aunque se apague la cámara (es útil para estimar tiempos reales de
grabación).

Si queremos trabajar con offline de montaje, el Rec Run será nuestra opción.
El Rec Run produce un TC continuo, pero con una salvedad: si por alguna
razón se pierde el sincronismo (al sacar una cinta, o al visionar y rebobinar
hacia adelante en demasía), y la cámara encuentra una zona virgen en la cinta,
inmediatamente volverá a poner el contador a 00. Esto será interpretado por
nuestra ENL como dos cintas diferentes, lo que resulta cuando menos engorroso.
Para evitar este problema (además de ser rigurosos en el trabajo), está la
opción de empistar previamente la cinta de cámara, grabándola completamente
con el objetivo tapado. Así nos aseguraremos de que nunca se produzcan cortes
en el TC.
También es posible “linkar" dos o más cámaras para que tengan el mismo TC,
mediante la opción de genlock. Es muy útil en grabaciones multicámara de even­
tos en directo, pues una vez en nuestra ENL la sincronización será inmediata.
Y también es posible compartir de la misma manera el TC de una cámara
con el equipo de sonido autónomo. De nuevo, facilitará enormemente la sincro­
nización.

» 239
1. MONTAJE

» Código de tiempo en ficheros IT


Si grabamos en soporte rígido, también los clips se graban con su TC correspon­
diente, pero además del Rec Run y el Free Run, se puede indicar por menú que
cada clip (el espacio entre REC y STOP de cámara) se reinicie a cero.
Hay que señalar que en grabación IT no es tan crucial el TC como en cinta.
Además de por el TC, cada clip está igualmente identificado individualmente con
su nombre y el resto de metadata. El riesgo de equivocación de clips es muy bajo.

» Identificación de fichero IT
Al grabar en IT, la cámara genera un nombre, que puede ser aleatorio y conse­
cutivo, o se puede señalar por menú. Este será el nombre que veremos siempre.
Sin embargo, en ocasiones, además de este nombre (panorámica.uno.mov,
por ejemplo), internamente el sistema de archivos maneja otro nombre menos
usual (por lo general, una combinación de números y letras como MXF0002AZ
345HG.mov).
El primer nombre es el que mostrará nuestra ENL, y podremos modificarlo
sin problemas si nos apetece, pues la ENL no se equivocará en la identificación.
Pero también a través del sistema operativo de nuestro ordenador podremos
acceder al segundo, si bien es aconsejable no cambiarlo nunca.

Sucede de manera parecida en ciertos ENL a la hora de la ingesta: dentro del programa
se identifica el clip con un nombre, y fuera de él, en el sistema operativo, con una
combinación de letras invariable.

» Tipos de fichero IT
Cualquier grabación en soporte rígido de un clip de audio y vídeo es un fichero
IT. Actualmente, muchos dispositivos permiten capturar imágenes en movi­
miento: teléfonos móviles, cámaras de vigilancia, webcams, cámaras de fotos,
etc. Generalmente, este tipo de dispositivos grabarán los archivos con códecs y
extensiones universales (para Windows tipo .avi o .wmp, para Apple tipo .mov)
de una manera sencilla, sin prácticamente metadata asociada.
Los cámaras más profesionales utilizan los protocolos profesionales MXE y
por lo general suelen adoptar una estructura de subcarpetas.
En cada carpeta irá un tipo de fichero: en unas el audio, en otras el vídeo, en
otras unproxie (si la cámara lo genera), en otra un thumbnail o viñeta de identi­
ficación, en otra metadatos, en otra el canal de audio para comentarios del ope­
rador, etc. No hay una única estructura de subcarpetas para todos los archivos.

» 240
PARTE III: MONTAJE Y POSTPRDOUCCIÓN

Se supone que el MXF es un contenedor universal, pero sucede sin embargo


que al crearse el protocolo MXF en realidad se crearon dos: el Atom y el II-A. La
diferencia es mínima: el Atom separa audio y vídeo en dos ficheros separados, y
el II-A lo hace en un único fichero multiplexado. En principio, el Atom iba a ser el
protocolo de “producción" (captación, edición y postproducción) y el II-A el de
distribución de la señal. Pero algunos fabricantes implementaron en sus cámaras
el protocolo II-A que no era reconocido, en un primer momento, por algunos ENL
que esperaban sólo protocolos Atom, lo que originaba incompatibilidades.
Se trata, otra vez, de argucias empresariales por parte de alianzas de di­
ferentes broadcasters que, afortunadamente, se superaron, y hoy en día casi
todos los ENL pueden trabajar nativamente con cualquier fichero MXE Pero
advertiré que digo “casi'’, y que además la situación puede cambiar: siempre
habrá que leer especificaciones, actualizar las versiones del ENL y estar atentos
a los movimientos del mercado.

» De offline a online mediante EDL


En ocasiones, preferiremos recapturar todo el material no en nuestra ENL, sino
en el programa de postproducción con el que continuaremos el trabajo. Para ello
se usan las listas de decisiones de montaje (Edition Decission List, EDL).
Las EDL se usan también en algunas editoras AB Roll.
Una EDL es un pequeño archivo de texto que tiene muy poca información.
En la mayoría de las EDL (hay diversas variaciones comerciales, pero suelen ser
bastante compatibles entre sí), la información de metadata se limita al nombre
del clip, los puntos de entrada y salida de cada clip y su colocación la línea de
montaje (mediante el Timecode o código de tiempo de la línea de tiempo) y a
unas pocas transiciones: encadenados, cortinillas sencillas y poco más.
La gran limitación de las EDL más utilizadas es que sólo admiten una pista de
vídeo (y generalmente una o dos de audio). Esto nos obliga, si tenemos activas
más de una pista de vídeo, a exportar como EDL diferentes cada una de las
pistas de vídeo de nuestro timeline para poder reconstruir el montaje original.
Para superar las limitaciones de las EDL se han creado lenguajes de metadata
más avanzados.

» Lenguajes de metadata
En la actualidad los editores ENL pueden realizar un sinfín de operaciones con
los planos: pueden trastocar su cadencia (time relapsed o re-timing), pueden
aumentar o disminuir la pantalla (resize), mover el punto central (move anchor
point), voltearlos horizontal y/o verticalmente (ílip, flop), tocar parámetros de
color (color correction), generar cortinillas 3D, etc.

» 241
1. MONTAJE

Además de eso, a diferencia del montaje tradicional en moviola o AB-Roll,


se trabaja con sistemas multicapa, es decir, con varias pistas de vídeo al mismo
tiempo.
El montaje multicapa y los efectos complejos no tienen cabida, pues, en las
sencillas EDL. Para ello, se han creado unas listas de montaje mejoradas que
pueden incluirlas: los lenguajes de metadata compartida.

» Estándares comerciales
Como es habitual, una vez más por motivos comerciales, no hay un único
estándar. Avid creó en su momento el formato OMF (Open Media Framewoik, en
versión 1 y 2), que posteriormente amplió y mejoró en el actual AAF (Advanced
Authoring Foimat). Este archivo de metadata está abierto actualmente a otros
fabricantes, pero eso no quiere decir que sea adoptado por ellos.
En las plataformas Apple, la tecnología usual es la XML (basada en los
protocolos de internet, extended Markup Language). Muchos programas de
edición y postproducción también entienden este lenguaje.
En ocasiones, este código XML se puede manejar mediante scrípts (pequeños
"guiones" o instrucciones informáticas que pueden ser interpretadas por un
software en concreto).
De nuevo, antes de tomar una decisión sobre qué lenguaje de metadata utili­
zar, hay que leer las especificaciones de todas las herramientas que encontremos
en la línea de producción.

» Mejora en el flujo de trabajo


La utilización de estas “edl" mejoradas o “lenguajes de metadata” va más allá del
simple paso del off al online. Si dos programas comparten el mismo lenguaje de
metadatos, pueden manejar prácticamente la misma información.
La utilidad es grande, pues nos ahorramos los lentos y delicados procesos de
renderización y transfer.
OMF el primer lenguaje de Avid, hacía compatible el montaje de las pistas
de audio del Timeline entre su programa de edición de vídeo y uno de sonido
como Protools. Esto permitía que el mezclador de sonido dispusiera de la misma
información con sólo abrir el pequeño fichero OMF y se ahorrara el complicado
proceso de remontar todas las pistas de audio una a una. Pero aun así, era preciso
enviar un archivo de referencia con el vídeo para una correcta sincronización.
Generar este archivo retrasaba el trabajo y consumía recursos.
Con los formatos AAF el XML u otros, ya se podría incluir la pista de vídeo,
sin necesidad de renderizar: sólo es necesario que los diferentes programas re­

» 242
PARTE III: MONTAJE Y POSTPRODUCCIÓN

conozcan el mismo lenguaje. Si además disponemos de un acceso a los media


común, varias estaciones de trabajo pueden trabajar de manera paralela, com­
partiendo la lectura de los mismos ficheros originales y actualizando en tiempo
real las variaciones.

» Las suites de edición


Esta versatilidad ha animado a muchos fabricantes de soluciones informáticas
a ofrecer paquetes completos de programas de montaje y postproducción. Son
las llamadas suites, donde a un programa central de ENL se le añaden solucio­
nes para el trabajo 2D, 3D, audio, incrustación de textos, corrección de color,
etc. Compartiendo el mismo lenguaje, estos programas optimizan el tiempo de
trabajo.
El inconveniente, claro está, es tener que dejar de trabajar con otros progra­
mas que no leen su metadata (nuevamente, una cuestión comercial, no técnica).
No obstante, en este sentido la tendencia de ser compatibles unos con otros es
cada vez mayor entre todos los fabricantes.
También existe la posibilidad de recurrir a empresas independientes con
conocimientos informáticos que diseñen programas auxiliares y plugins para
este intercambio de metadata: convertir un fichero AAF a XML, por ejemplo.

» Cine: proceso tradicional


Si el material online es fotoquímico, y queremos realizar un trabajo de postpro­
ducción en laboratorio, lo usual es mandar una EDL específica al laboratorio
para que se proceda al corte de negativo.
Este proceso consiste en seleccionar las partes del negativo filmado y cortarlo
físicamente. Es un trabajo delicado, que debe realizarse en total asepsia para
evitar daños en el negativo. Para facilitar el trabajo de truca, se corta el negativo
en dos rollos, uno para los planos pares y otro los impares, colocando colas y
material neutro (cola blanca transparente) entre ambos.
Esta EDL específica para cine la generan ENL preparadas para calcular los
cambios de cadencia entre lo que vemos en la sala de edición (25 o 29,97 fps) y
el resultado final (24 fps). Hoy en día se cuenta con la ventaja de que es posible
disponer de material de vídeo a 24 fps. Las referencias se ajustan al pietaje del
negativo. El pietaje funciona de manera similar al código de tiempo del vídeo:
cada uno de los fotogramas se identifica mediante una combinación de números
y siglas particular.

» 243
1. MONTAJE

Es conveniente también enviar un DVD o cinta al laboratorio con el montaje y el pietaje


y el TC en pantalla para evitar errores.

» Cine: proceso con intermediación digital


Si queremos contar con material fotoquímico para seguir un proceso totalmente
digital, DI, también mandaremos una EDL para cortar el negativo, pero en ese
caso procederemos a su escaneo láser en 2K o 4K, generando secuencias de
ficheros dpx. Obviamente, no se realiza ninguna transición ni efecto previo,
pues se hará todo digitalmente.
Una vez que tenemos el disco duro con los dpx en la sala postproducción, ha­
remos el conformado de montaje con la misma EDL, o similar en la herramienta
de postproducción que vayamos a utilizar.

» Exportación vía referenciado


Otra opción similar a estos lenguajes es la "exportación referenciada", sin "me­
dia". Se crea un fichero de audio y vídeo desde el ENL (un quick time, por
ejemplo), pero que no contiene ni audio ni vídeo, sino que permite ir leyendo en
el disco duro toda la secuencia de montaje original.
Sirve para el mismo propósito de multitarea entre diferentes programas (edi­
ción, postproducción, sonido...), ahorrándonos tiempo y espacio en el disco duro.
Hay que tener en cuenta que estos ficheros precisan acceder a los discos
duros donde se encuentra la media. Si no, son inservibles. Si los llevamos a otro
ordenador sin acceso a los discos duros donde se halla la media, no veremos
nada.
La exportación referenciada sólo incluye una pista de vídeo (como las EDL
tradicionales). Precisa, además, una renderización previa de todos los efectos.

» Renderizado de efectos y transiciones


Lo mejor de cualquier flujo de trabajo es realizar el menor número posible de pro­
cesos de renderización. Pero en ocasiones es preciso renderizar algunas cosas,
como transiciones o efectos sencillos.
Hay que tener en cuenta una vez más con qué máquina estamos trabajando:
si una que procesa la información internamente con gran profundidad (10, 12,
16 bits, o hasta coma flotante) o con una ENL que trabaja a un máximo de 8 bits.
Incluso una simple transición, o una cortinilla con un filo degradado, puede
verse afectada en su calidad por un mal cálculo.
También hay que contemplar los posibles efectos posteriores. Si realizamos
una transición entre dos planos que no han sido todavía etalonados (corrección

» 244
PARTE III: MONTAJE Y POSTPROOUCCIÓN

de color), tendremos en realidad tres clips: el entrante, la transición y el saliente.


Podemos aplicar una corrección diferente al entrante que al saliente, luego,
¿qué corrección le aplicamos al render de la transición?
Por estas y otras razones, si es posible, es mejor renderizar incluso las transi­
ciones en la etapa final del trabajo.

» Consolidado
Una herramienta que se suele conocer como “consolidado” (consolídate), pero
que también puede tener otros nombres, dependiendo de la ENL, sirve para
seleccionar, de todo el material ingestado, sólo aquella parte usada en el montaje
(con colas o sin ellas).
Se utiliza para "limpiar” de ficheros el disco duro antes de empezar la post­
producción, para hacer copias de seguridad o para trasladar todo el material de
un equipo de trabajo a otro. Si se usan ficheros referenciados, también es útil
hacer un consolidado.

» Trabajo en red (SAN)


Las EDL, los lenguajes de metadata y los ficheros referenciados son muy útiles
para el trabajo multitarea. Pero con la condición sine qua non de que todos
los operadores tengan acceso a los mismos discos de almacenamiento (a la
información de media).
Storage Acces NetWork (SAN) es el nombre que se da a aquellas soluciones
que permiten el acceso a varios equipos a la vez (edición, grafismo, postpro­
ducción, audio, emisión...). Básicamente, es un gran disco compartido, pero
optimizado para un alto rendimiento y un rápido acceso desde cualquier puesto
de trabajo en una productora, televisión o empresa de servicios de postproduc­
ción. Y con actualización de todos los metadatas inherentes a cualquier cambio.
Trabajando con el software adecuado, cualquier cambio introducido por algu­
nos de los operadores (montador, mezclador, editor de postproducción, diseñador
gráfico, colorista, etc.) se puede reflejar en las timelines del resto sin necesidad
de renderizar el material.
Además de ahorrarnos mucho tiempo, evitaremos la duplicación de archivos
en varios discos duros, así como los siempre delicados procesos de renderizados,
exportaciones y transferencias.

» 245
» 246
2. Postproducción

El trabajo de postproducción empieza justo después del montaje definitivo y llega


hasta la creación del máster digital o DSM (del inglés Digital Source Mastei).
Dependiendo del tipo de producción, pero también del canal de distribución
elegido, tendremos diferentes diseños de postproducción.
No se puede generalizar por tanto un único flujo de trabajo, pero sí existe una
norma: no perder calidad en todo este proceso.
Esto quiere decir simplemente que nuestro máster digital ha de tener, como
mínimo, la misma calidad objetiva o técnica que nuestro formato original de
grabación (el que se captó en la cámara).

>> Formatos para DI


Una postproducción o una intermediación exigente precisa de un formato ro­
busto.

1. Nuestra primera opción será mantener la resolución nativa y trabajar sin


compresión, en cualquiera de las opciones uncompressed o 1:1 que nos
permita nuestro programa. Además, intentaremos siempre trabajar con la
mayor profundidad de color.
2. Si por cuestiones técnicas no fuera posible (falta de recursos o de tiempo),
la segunda opción sería elegir algún códec específicamente diseñado para
la postproducción, como los ya mencionados. En este caso intentaríamos
mantener el muestreo completo (no todos lo permiten) y la mayor pro­
fundidad de color (una vez más, la mayoría trabaja a 8 bits; si bien sería
preferible a 10 o 12 bits).
3. La tercera opción sería trabajar con el fichero nativo de cámara. Al menos,
ni ganamos ni perdemos calidad: sería una crossconversion.

Cualquier otra opción sería ya una downconversion y dañaría la calidad de


nuestro trabajo, por lo que son altamente desaconsejables.

» 247
2. POSTPRODUCCIÓN

>> ¿Excepciones?
En ocasiones, podemos realizar una downconversion antes de la postproduc­
ción. Un ejemplo puede ser la realización de programas para televisión estándar
SD con cámaras HD. Personalmente aconsejaría realizar siempre una postpro­
ducción HD para terminar igualmente en un masterizado HD. A partir de él,
realizaríamos una downconversion a SD en el formato que pida la cadena de
televisión.
Pero en ocasiones lo que se hace es una ingesta de material online en SD,
continuando el flujo de trabajo en SD, incluyendo el masterizado. Dado que ése
sería el formato final de emisión / exhibición, se podría considerar correcto. Es
una forma de trabajar que se ha venido realizando en estos años de transición
entre el SDTV y la HDTV, generalmente debido a que muchas empresas tenían
un equipamiento de montaje y postproducción SD por amortizar.

Aun así, sería aconsejable aprovechar el trabajo de edición a fin de realizar una recaptura
en HD para una masterización HD. La televisión estándar es una tecnología obsoleta que
desaparecerá en los próximos años, por lo que contar con un máster HD será interesante
de cara a futuras reemisiones.

» ¿Por qué sin comprimir?


Ya hemos comentado que el uso de compresión equivale de alguna manera a
la "pérdida por generación” en el analógico. Toda compresión comporta pérdida
de información y aumenta el ruido inherente a la señal de vídeo.

/ Compresión /
Pérdida de calidad producida
por la excesiva compresión de una imagen

» 248
PARTE III: MONTAJE Y POSTPROOUCCIÓN

Otro problema de los ficheros comprimidos es que al aplicar un efecto, nuestro


software los descomprimirá, calculará el efecto y volverá a comprimir la imagen
para guardar el formato. Eso equivale nuevamente a una pérdida. Si acumula­
mos muchos efectos, iremos acumulando pérdida tras pérdida y aumentando el
ruido.
Por último hay también un argumento que a veces es difícil de entender: si
trabajamos sin compresión (y sin submuestreo), nuestra máquina trabajará más
rápido. Nuestra tarjeta de vídeo espera ofrecernos en la pantalla datos puros sin
comprimir RGB 8 bits. Si tenemos un formato comprimido 4:2:2, el procesador
del ordenador y/o el de la tarjeta de vídeo (dependiendo de la configuración)
tendrán que utilizar sus recursos RAM para hacer el cálculo de descompresión
y el submuestreo.
Asimismo, a la hora de calcular efectos para renderizados y exportaciones,
el procesador trabajará más ligero y rápido.
Incluso el visionado puede ser defectuoso. Sucedió al inicio de presentarse el
formato HDV (mpeg2 fuertemente comprimido), y últimamente con códecs de
cámara de gran compresión (AVCHD, H-264 y otros mpeg4, fundamentalmente).
En señales HD y superiores, los cálculos que precisan los procesadores para
descomprimir la señal y mostrarla pueden impedir una correcta visualización a
la cadencia normal. Se ve entonces trabado, "a saltos". La solución suele estar
en aumentar la RAM de la CPU y la GPU o incluso actualizar completamente la
estación de trabajo.

» Ingesta online
Dicho esto, lo más común es que a la hora de hacer un ingesta online del material
nativo de cámara realicemos una upconversión. Esto se debe a que la mayoría
de los sistemas actuales de captación sufren una compresión, un submuestreo,
un máximo de 8 bits o las tres cosas juntas.

En la actualidad no existe ninguna cámara que grabe los datos sin comprimir, RGB y
hasta 12 bits de profundidad. Lo cual no quiere decir que no aparezca una en el futuro
próximo, pues como hemos visto en la parte dedicada a la cámara, el embudo actual no
nace en el sensor, sino en el manejo y almacenamiento de los datos.

La forma tradicional de realizar esta ingesta online es a través de una tarje­


ta capturadora mediante una conexión HDSDi. Esta conexión nos proporciona
invariablemente una señal 4:2:2 8 bits sin comprimir. Pero ¿qué sucede si el
formato de la cinta o el disco duro de la cámara ya está comprimido? Lógica­
mente, lo que hace la cámara internamente es descomprimir los datos antes

» 249
2. POSTPRODUCCIÓN

de ofrecerlos a través de la interface digital. Es decir, una upconversion que no


aumenta la calidad de la imagen, sino sólo la calidad de la señal o formato.
Otro caso sería si utilizamos esta conexión HDSDi en vivo, directamente
desde la cámara al mismo tiempo que se realiza la acción. Es posible hacerlo si
durante el rodaje se dispone de un ordenador y una capturadora. En este caso,
al evitar el paso previo de la compresión interna del camascopio, tendremos una
señal pura HDTV sin comprimir, de mejor calidad.

La ingesta online en vivo es complicada de hacer en muchas situaciones de grabación y


rodaje. Pero cada vez se ve más en estudios y sets de rodajes debidamente preparados y
cableados.

Una salida HD.SDI Dual Link nos proporcionaría la misma posibilidad, pero en
4:4:4.
Una última posibilidad, de aún mayor calidad, es la ingesta en vivo y en RAW
de los datos provenientes del sensor. Esto lo permiten algunas cámaras a tra­
vés de interfaces informáticos, como Giganet, Ethernet y otros. Sería el máximo
de calidad alcanzable, pero, por contra, necesitaríamos cantidades ingentes de
almacenamiento.

» Límites al trabajo sin compresión


Evidentemente, hay un límite para la compresión: el que nos proporcionan los
discos duros. A mayor calidad, mayor bitrate y mayor peso. Por lo que precisa­
remos discos duros más grandes, más rápidos y con conexiones ultrarrápidas a
la CPU.
Debemos tener siempre presente el dato más común: una señal HD 1.080
4:4:4 8 BITS 25 fps tiene un flujo de datos de 1,2 gbs (800 mbs si se tratara de
4:2:2).
Dado que los procesadores son cada vez más rápidos, es en el almacena­
miento donde se produce el actual “cuello de botella” de la postproducción.
Un cuello de botella se produce en la velocidad de lectura del propio disco
duro. Esta velocidad depende del tipo de disco y las revoluciones por minuto
que alcanzan sus cabezas lectoras (5.600, 7.200,10.000 rpm), así como las cone­
xiones de transferencia de datos (interfaces): SATA, SCSI, etc. Los discos duros
tradicionales están llegando a su límite "físico": no pueden almacenar más datos
ni leerlos o grabarlos a más revoluciones. Por eso están teniendo un gran auge
los soportes rígidos (en este caso se refieren a no tener partes móviles), como las
tarjetas SD, Compac Flash, Xpress Card y otras posibles innovaciones futuras.

» 250
PARTE III: MONTAJE Y POSTPRODUCCIÓN

» RAID
Una solución al "embudo" de los discos duros es disponerlos en modo RAID. Esta
palabra es el acrónimo en inglés de “conjunto redundante de discos baratos"
(redundant airay of inexpensive disks), y como su nombre indica no opta por
incrementar la capacidad de transferencia de un solo disco (mejor y por tanto
más caro), sino por distribuir el flujo de datos entre una serie de discos de menor
velocidad (y por tanto más baratos).
Antes de la conexión con los discos duros, hay una etapa en la que se
distribuyen los datos en los diferentes discos duros. Si, por ejemplo, tenemos
una RAID de dos discos, y nos llega un flujo de 1,2 gbs, podemos mandar sólo 0,6
gbs a cada disco, permitiendo una grabación y lectura muy ágil. Y si disponemos
de 4 discos, el flujo que llegaría a cada disco sería sólo de 0,3 gbs.

» Tipos de RAID
Lo anterior sería una RAID 0: se distribuye el flujo entre el número de discos que
disponemos.
Pero también podemos aprovechar esta estructura para grabar dos veces la
misma información, haciéndonos con un respaldo o copia de seguridad ins­
tantáneo. Sería lo que se conoce como RAID 1.
Mayores niveles de RAID (2, 3, 4...) nos permiten aumentar nuestro nivel de
seguridad, haciendo copias con mayor protección. Un nivel RAID 1 simplemente
hace una copia del material en otro disco duro; pero si éste falla, se puede perder
la información que guardaba. En niveles superiores de RAID, esta información
se distribuye en todos los discos duros, de manera que, aunque uno de ellos falle
físicamente, se pueda recuperar toda la información a partir del resto de discos.

» 251
2. POSTPRODUCCIÓN

» SAN
Los límites de la RAID son los flujos de datos entre el distribuidor y la interface o
conexión a la CPU. El mayor problema que nos encontramos a la hora de trabajar
en HD o 2K es que la arquitectura informática de usuario actual está diseñada
para flujos de hasta 1,5 gbs. Como vemos, muy cerca del límite de 1,2 gbs que
hemos señalado para la señal estándar HD1.080 o 2K 4:4:4. (No obstante, ya
se está hablando en la industria IT de un estándar de 3 gbs, que sería de gran
ayuda para toda la industria audiovisual.)
Soluciones más profesionales, no estándares, permiten arquitecturas y cone­
xiones extremadamente rápidas, incluyendo en ocasiones sistemas operativos
no usuales (UNIX y otros). Por eso muchas herramientas de postproducción
de alta gama se venden con estaciones de trabajo específicas, previamente
comprobadas por las casas.
La opción más común en muchas empresas de postproducción es el trabajo
con SAN ultrarrápidas. No sólo permiten, como hemos visto, el trabajo multitarea
en diversos equipos de trabajo, sino que aseguran unos altísimos flujos de datos,
permitiendo sin problemas incluso varios streams HD sin compresión.

» Capacidad de cálculo del software


La otra variable importante para un buen flujo de trabajo es la capacidad de
cálculo de nuestro equipo.

» 252
PARTE III: MONTAJE Y POSTPRODUCCIÓN

La capacidad de realizar un cálculo ajustado de los parámetros se mide


también en bits: 8, 12, 16 o en “coma flotante" (en función de lo que requiera la
imagen, hasta el límite de la combinación software+hardware).
Una señal de 8 bits de profundidad de color exige como mínimo 8 bits de
cálculo. Pero con 12 o 16 bits cualquier efecto siempre será más ajustado, más
fino. Lo mismo sucede con el tamaño de la imagen: cuanta más resolución
tengamos, más bits precisaremos para proporcionar una mejor definición del
efecto.
El ejemplo típico en estos casos es efectuar un degradado suave en una
imagen: con un cálculo a 8 bits, el degradado nos permitirá 256 niveles; pero
con 12 bits nos permitirá 2.048. Si estamos hablando de una imagen de HD,
que tiene hasta 1.920 píxeles en horizontal, es casi inevitable que encontremos
banding con sólo 8 bits / 256 niveles en un degradado.

En general, las programas puramente ENL trabajan a 8 bits de cálculo, mientras


los programas y las soluciones específicas de postproducción nos permiten usar
mayor profundidad. Por eso, una vez más, no es conveniente realizar trabajos de
postproducción con programas y máquinas pensadas sólo para el montaje.

» Etapas de la postproducción: renderizados


Como hemos dicho, cada producción tiene su propio flujo de trabajo, dependien­
do de qué es lo que se quiera conseguir.
Por postproducción podemos entender un etalonaje sencillo y los títulos de
crédito, o un proceso largo que exija incrustación de CGI tanto 2D como 3D,

» 253
2. POSTPRODUCCIÓN

utilización de imágenes superpuestas


(por llaves o keys de luminancia o co­
lor), composición simple, uso de corti­
nillas simples o parametrizadas, rotu­
lación especial, colorimetría, etc.
Es posible que en algún momento
precisemos de un renderizado previo
antes de pasar a una nueva etapa. Aun
contando con la mayor calidad de for­
mato y de programa de edición, siem­
pre se pueden generar ruidos y efectos
no deseados; sobre todo si se trata de
formatos de trabajo comprimidos. Por
eso debemos diseñar el flujo de traba­
jo (workflow) para evitar en la medida
de lo posible los renderizados, o reali­
zarlos de manera conjunta al final del
proceso.
Y evidentemente hacer todos los
procesos con la máxima exigencia. La
calidad final de nuestro trabajo estará
determinada no por el proceso de ma­
yor nivel, sino precisamente por el de
menor nivel.
Por poner un ejemplo, pensemos en
la inserción de grafismo (cartelas en el
mundo de la televisión, cartones en
• el cine) en un documental. Hemo
vado a cabo todo el proceso con la má­
xima exigencia, realizando una postpro­
ducción con las máquinas adecuadas
y formatos sin compresión a 12 bits. Pero, por una cuestión de tiempo o de
distancia, el grafista nos pasa las cartelas en jpeg, a través de internet. Un error:
para mantener la calidad tendría que proporcionarnos ficheros TIFF de 16 bits
(u otro de igual o similar calidad).
Siguiendo con el mismo ejemplo, supongamos que el documental incluye
algunos efectos 2D, imágenes CGI por incrustación y un cuidado proceso de co­
lorimetría, que obviamente es posterior a los anteriores. Idealmente, deberíamos
trabajar en una sola máquina, con simulaciones en tiempo real, todos estos pro­

» 254
PARTE III: MONTA]E Y POSTPRODUCCIÓN

cesos, y finalmente realizar un solo renderizado antes de la inserción de las


cartelas (que, obviamente, no pueden verse afectadas por el trabajo de colori-
metría). Eso nos dejaría únicamente dos renderizados, casi el mínimo posible
en este caso.
Pero es difícil que una sola máquina (y un solo operador) realice bien todos
estos procesos. Por lo general, se usan diferentes herramientas para diferentes
efectos. Habrá un programa y un operador especializado para generar e incrus­
tar efectos CGI 3D. Se le enviará el clip o corte que precise, y él lo devolverá ya
renderizado para pasar a colorimetría. Trabajando con la máxima calidad y exi­
gencia (siempre up/crossconversions), minimizaremos en lo posible las pérdidas
de calidad de estos renderizados intermedios.
Depende también del supervisor de postproducción que se minimicen en
la medida de lo posible estos pasos intermedios, que se mantenga el nivel de
calidad en todos ellos y que nunca se haga dos veces, innecesariamente, el
mismo proceso.

» Incrustación de imágenes generadas por ordenador (CGI)


Una cuestión a considerar son las imágenes o efectos generados por ordenador,
sean 2D o 3D. Dado que la informática siempre trabaja a muestreo completo,
RGB, estas imágenes serán igualmente 4:4:4. Por sus propias características,
además, se pueden generar con calidad de 10, 12 o más bits de color.
El problema surge cuando nuestro material nativo, sobre el que incrustare­
mos estas imágenes, es 4:2:2 8 bits, que es lo más común. Aunque hayamos
hecho una ingesta online a un formato superior (upconveision a 4:4:4 12 bits,
por ejemplo), ya hemos dicho que esto no supondría una mejora en la calidad, y
que la imagen adolecerá del submuestro y profundidad de color nativo.
En este caso, para que ambas "texturas” casen, quizá sea necesario, paradóji­
camente, rebajar un poco la calidad del original CGI, reduciendo el muestreo o
incluso añadiendo un poco de "ruido” artificial.

» Broadcast safe
Algo a tener en cuenta cuando se trabaja para televisión, es el pequeño "recorte”
de la señal que sufre la imagen tanto por arriba (blancos) como por abajo (negro).
Es lo que se conoce como broadcast safe, que se podría traducir como "margen
(de seguridad) profesional”.
Básicamente, lo que se hace es constreñir los valores de la señal de 8 bits no
entre 0 y 255, sino entre 16 y 235. Por debajo de 16, se considera todo negro, por
encima de 235, todo blanco.

» 255
2. POSTPRODUCCIÓN

Si está dentro de estos márgenes, se considera una "señal legal"; si los supera
(en brillo o en saturación) hablaríamos de una señal ilegal que no se visionaria
correctamente en los. televisores e incluso podría provocar trastornos visuales y
hasta jaquecas.

» Superwhite y pedestal
El broadcast safe es obligatorio tenerlo en cuenta, pues también lo tiene en
cuenta el emisor. Sin embargo, si queremos realizar un máster para otro tipo
de canal (por ejemplo, una proyección digital en salas, o incluso un transfer
a fotoquímico) podremos aprovechar todo el rango de la señal. De hecho, es
ampliamente recomendable hacerlo.
En ese caso hablamos de jugar con los niveles de superwhite (a partir de 235)
y de pedestal o tift (por debajo de 16).

» LUTs de visionado y exportación


Un problema a tener en cuenta a la hora de la postproducción, sobre todo en
los procesos clave de colorimetría y finalización (colorgrading & finishing), es la
diferencia entre lo que vemos en el ordenador y lo que realmente obtendremos.
En primer lugar, huelga decirlo, nuestros monitores han de estar correcta­
mente calibrados. Pero aun así, toda la tecnología informática trabaja sobre
patrones de monitorización de 8 bits. ¿Qué sucede si le pedimos a nuestro or­
denador que nos muestre en una pantalla de 8 bits una imagen de 10 o 12 bits?
Sencillamente, que no podrá hacerlo nativamente.
Es necesario trabajar con lo que se conoce como Look Up Tables, LUTs (no
se utiliza, por ahora, ninguna palabra en castellano). Lo que hace una LUTs
es interpretar los datos de ficheros de mayor profundidad para que podamos
verlos en nuestros monitores de 8 bits. ¿En referencia a qué? Lógicamente,
en referencia a lo que finalmente queramos obtener. Si estamos trabajando,
por ejemplo, con un fichero HD de 10 bits, para obtener una telemovie que se
emitirá finalmente en HD 8 bits, la LUTs simulará en la pantalla el resultado
final del máster, que será 8 bits.
Obviamente, y esto es importante, si aplicamos una LUT de visionado en
nuestro ordenador, también la tendremos que aplicar en la exportación o rende-
rizado final.
Así pues, para trabajar con LUTs en postproducción siempre debemos tener
en cuenta tres factores:

» 256
PARTE III: MONTAJE V POSTPRODUCCIÓN

® El espacio y la profundidad de color del fichero o formato original.


• El espacio y la profundidad de color de nuestras herramientas.
• El espacio y la profundidad de color del máster final.

Recientemente están apareciendo en el mercado monitores de hasta 10 bits y proyectores


de hasta 12 bits, para facilitar el trabajo en equipos de alta gama, reduciendo el uso de
LUTs de visionado.

» LUT 2D y 3D
El ejemplo que he puesto antes es claramente una LUT 2D, en dos dimensiones
o parámetros. Esto se debe a que siempre trabajamos con un mismo espacio de
color: RGB, el propio del mundo de la televisión y la informática.
La diferencia se puede dar en la profundidad de color: 8, 10, 12 bits... "Aco­
modar" una señal de 10 bits a un monitor de 8 bits es básicamente jugar con la
curva de niveles, dando más importancia a los valores bajos, medios o altos de
una señal (como se ha explicado en la primera parte).
Sin embargo, en el mundo del cine esto cambia.
Si hablamos de fotoquímico, ya sabemos que la respuesta del negativo no es
lineal, sino logarítmica. Las emulsiones tienen además diversas respuestas al
color. Eso significa que una corrección de niveles de intensidad podría, siquiera
levemente, trastocar también el tono del color.
Lo mismo pasa en el espacio de color propuesto para el DCI. Es un espacio
de color de mayor y de diferente respuesta que el RGB, y se conoce como XYZ
(véase página 398, arriba).
En la intermediación digital trabajamos siempre en espacio de color RGB,
pero sabemos que el máster final DCI (el conocido como DCM, Digital Cinema
Master) será en XYZ. Aquí, una ligera variación en la saturación o en la lumi­
nosidad de un color puede suponer un cambio en el tono, pudiendo originar
virados indeseados en el DCM que no hemos apreciado en nuestro monitor. Hay,
pues, que entender estos espacios en “tres dimensiones", y trabajar con LUTs
3D específicamente diseñadas para estos entornos.
Una correcta calibración de los monitores, y el uso de LUTs 3D estandarizadas
y comprobadas, permitirán que lo que el operador de postproducción ve en la
pantalla de su estación de trabajo sea también lo que observará el espectador
en la sala de cine.

Hablaremos más ampliamente del estándar DCI en la IV parte del libro, "Distribución”.

» 257
2. POSTPRODUCCIÓN

>> Procesos de intermediación en cine


La intermediación digital en cine resulta más complicada que en televisión
precisamente por el uso de LUTs.
Ya sea que vayamos a terminar con un transfer a 35 mm, o una masterización
para envío de copias virtuales (virtual prints o DCP Digital Cinema Package),
estamos ante espacios de color y respuestas diferentes a las que proporciona la
tecnología informática IT.
Por eso es importante un correcto calibrado de todas y cada una de las
herramientas y procesos.
El auge del cine digital y la paulatina desaparición de las copias tradicionales
positivadas, supondrá también casi con seguridad la desaparición de los labo­
ratorios tradicionales. En la actualidad, ellos mismos se están reconvirtiendo en
empresas de servicios. Cuentan con la ventaja de tener dentro del mismo edificio
todas las herramientas necesarias, que pueden calibrar y comprobar asiduamen­
te. No obstante, nada nos impide realizar la postproducción en otros lugares.
El trabajo con negativo siempre es delicado. No todas las emulsiones se
comportan igual. El tiempo y el estado de conservación las afecta. Una diferencia
de temperatura en alguno de los tanques de revelado puede hacer variar un tono.
Incluso la hora en que se revela, y el número de usos anteriores de un líquido,
también influye. Por eso debemos ser aún más estrictos con todos los procesos
y realizar todas las pruebas necesarias antes de pasar al caro proceso final de
filmado/kinescopiado y revelado del material.

» Masterizado final: el negativo digital o DSM


Terminados todos los procesos de intermediación, procederemos a realizar el
renderizado final. Por lo general, será una secuencia de ficheros del mismo
formato de la ingesta (dpx de 10 bits, tifs de 16 u otros). Para evitar confusiones,
estos ficheros se vuelven a renombrar correlativamente a partir del cero hasta
el fotograma X donde termine la obra.
Esta secuencia de ficheros es lo que se conocería como máster digital, y
personalmente lo considero como el verdadero negativo o resultado final de
nuestro trabajo.
Hasta ahora, el verdadero valor de una producción cinematográfica, después
de haberse gastado millones de euros en sueldos, alquileres, decorados que se
destruyen y otros gastos, eran los aproximadamente cinco rollos con el negativo
cortado. Todo el gasto se resumía en él, y por eso se cuidaba con mucho mimo
y, si entraba dentro del presupuesto, se realizaban copias en internegativo para
ponerlo a salvo de los destructivos procesos de tiraje de positivos.

» 258
PARTE III: MONTAJE Y POSTPRODUCCIÓN

A partir de este negativo se rea­


lizaba la comercialización de toda la
producción, bien tirando copias o te-
lecinando para su emisión en las tele­
visiones.
Sin embargo, ahora todo este pro­
ceso se realiza directamente a par­
tir del máster digital. No es necesa­
rio tirar un negativo para realizar una
copia de emisión para televisión, por
ejemplo. Igualmente, el Digital Cine­
ma Master (DCMD) que exigen las es­
pecificaciones DCI saldrá también de
este máster o negativo digital.
Más aún: el transfer a 35 mm siem­
pre supone una pérdida de calidad. No
necesariamente en el paso al negativo
(si se realiza correctamente), sino en
el resto de procesos: internegativos,
tiraje de copias, telecines...
Desde este punto de vista, el DSM
sería el objetivo final de cualquier pro­
ducción cinematográfica actual.

» Copias de seguridad
Dado su valor, tendremos que proteger
el DSM para ponerlo a salvo de una po­
sible pérdida. Los soportes informáti­
cos actuales son tan nuevos que des­
conocemos realmente su durabilidad
y fiabilidad. Un disco duro se puede
romper, desmagnetizar, corromper, su­
frir el ataque de virus informáticos o
estropear internamente e impedir el
acceso a los datos. Por contra, sus da­
tos se pueden clonar infinitamente sin
perder calidad. Por lo tanto, la prime­
ra medida sería realizar una copia de
seguridad.

» 259
2. POSTPRODUCCIÓN

Aún más: ¿podemos estar seguros de que dentro de veinticinco años, incluso
en condiciones ideales de conservación, los datos informáticos almacenados en
estos sistemas (discos duros, DVD) seguirán ahí? Rotundamente, no: no lo sa­
bemos. Incluso corremos el riesgo de la obsolescencia tecnológica: que desapa­
rezcan los sistemas de lectura apropiados. Quien todavía conserve un flopydisk
de cinco pulgadas, o incluso un disquete de tres y media, sabrá de lo que hablo:
hoy ya no se venden sus cabezas lectoras, ya no podemos acceder a esos datos.
Recientemente se han dejado de fabricar magnetos VHS, y no sabemos si dentro
de veinticinco años se venderán todavía lectores DVD.

Lo más probable es que dentro de veinticinco años toda una filmoteca quepa en un
aparato del tamaño de una uña, que se situará no en un lugar físico, sino virtual, en
alguna nube de la galaxia internet.

Esto ya ha sucedido. Todos tenemos en la memoria muchas imágenes de la


guerra de Vietnam, pero muy pocas de la invasión soviética de Afganistán.
No sólo se debe a posibles motivos políticos y/o de censura, sino que en esos
años el reporterismo de televisión pasó del engorroso pero fiable 16 mm como
soporte estándar, al vídeo broadcast analógico. Las cintas analógicas, se supo
más tarde, resisten muy mal el paso del tiempo, así que al cabo de cinco o diez
años, incluso sin haberse utilizado nunca, todos los archivos analógicos estaban
tan deteriorados que no servían como documento.

» Otras opciones para el backup


Aunque parezca paradójico, algunos de los sistemas de seguridad de datos
informáticos más avanzados se basan no en discos, sino en cintas. Son cintas
específicas, distintas a las usadas en audiovisual, pero que ofrecen una fiabilidad
y rapidez de acceso envidiables. Las empresas financieras, por ejemplo, usan
servidores centrales basados en sistemas de cintas por considerarlas más fiables
que los discos duros.
En el mundo audiovisual, con el tiempo irán apareciendo empresas que
ofrezcan este tipo de servicios: almacenamiento, cuidado y copias de seguridad
periódicas de nuestros DSM.
Pero aquí llegamos a otra paradoja: sí conocemos un sistema que ha demos­
trado su fiabilidad durante más de cien años: el negativo fotoquímico. Bien al­
macenado, puede conservarse durante decenas de años. Aunque sufra daños se
puede proceder a su restauración. Y, más importante aún, su mecanismo de lec­
tura es muy simple: pasarlo a través de una luz. No hay riesgo de obsolescencia.

» 260
PARTE III: MONTAJE Y POSTPRODUCCIÓN

Incluso, como hemos visto, el fotoquímico sirve para guardar los datos de manera digital.

Por eso muchas productoras optan por un escaneado a negativo del DCM aun
en el caso de que no se haya previsto una distribución en salas.

» 261
» 262
PARTE IV:
DISTRIBUCIÓN
» 264
» El nuevo mundo multicast
Una vez terminados los procesos de postproducción, incluidas las mezclas de
sonido, tenemos en nuestro poder un máster digital listo para la distribución.
Hasta no hace mucho, el número de "ventanas” de distribución era muy
limitado: pantalla grande y televisión, fundamentalmente. Sólo hacía falta tirar
copias positivadas y disponer de una cinta estándar (generalmente, Betacam
analógica) para poder distribuir nuestra obra. En ocasiones también se tiraban
algunas copias en 16 mm para circuitos de arte y ensayo, reposiciones y alquiler.
A estas ventanas tradicionales se sumó hace ya décadas el vídeo (Home
video), primero con las cintas analógicas tipo VHS o Betamax, y luego con el
DVD.
Hoy en día, a estas ventanas se suman otras nuevas, que implican además
nuevos formatos por la inclusión del HD y la estereoscopia 3D.
También la distribución en cine se está digitalizando, con su correspondiente
adaptación de estándares.
La normativa, tan estricta en el mundo de la televisión gracias al ITU y otros
organismos, no abarca el amplio mundo de internet, que además cambia cada
poco tiempo. En esta última parte intentaré dar una idea de lo que conocemos
como multicast o distribución múltiple, pero sin entrar en detalles técnicos de
ingeniería de telecomunicaciones que están más allá de los objetivos del libro.
Estudiaremos aquí las especificaciones y/o recomendaciones para las cuatro
vías de distribución que se ofrecen en la actualidad:

• Televisión convencional
• Vídeo doméstico (Home video)
® Televisión bajo protocolos de internet (IPTV)
• Distribución digital en salas de cine

» 265
» 266
1. Televisión convencional

Digital Video Broadcasting

Las siglas inglesas DVB encierran las normativas y especificaciones para la


televisión profesional o comercial en el mundo digital. Es una iniciativa pro­
movida internacionalmente y compuesta por varios centenares de miembros de
la industria. Su función es crear los nuevos estándares para la distribución
de la señal en televisión. Estos estándares se agrupan en función de su medio de
transmisión, que son fundamentalmente:

• DVB-T para las emisiones de ondas terrestres


• DVB-S para las emisiones por satélites
• DVB-C para las de cable
• DVB-H para las de dispositivos portátiles (handhelds) como móviles, PDA,
etc.

Estas especificaciones se actualizan constantemente, por lo que no es ra­


ro encontrarse con versiones y subnormas dentro de estos cuatro apartados
principales.

Generalidades técnicas

El estándar de compresión usado es el mpeg. Mpeg2 para el caso de resolución


estándar SD y mpeg4 para la alta definición. La excepción que se aplica a la hora
de la transmisión con respecto a la cadena de producción profesional es una
mayor compresión, para adecuarla a los diferentes canales, y un submuestreo
que pasa de 4:2:2 a 4:2:0. Actualmente sigue siendo mayoritario el barrido
entrelazado, pero el progresivo es perfectamente compatible y se espera que
cada vez tenga mayor presencia, o incluso que se convierta en el estándar, de
modo que el entrelazado quede como una solución obsoleta.

» 267
1. TELEVISIÓN CONVENCIONAL

La televisión “terrestre” o TDT

Tradicionalmente, antes de la llegada


de las emisiones por satélite o cable,
la televisión llegaba a los hogares por
ondas hertzianas debidamente modu­
ladas en una parte del espacio radio-
eléctrico.
Estas emisiones precisaban de una
red de repetidores a lo largo de todo un
territorio, que se adaptan a las carac­
terísticas orográficas del mismo. Cada
repetidor tenía una limitación en po­
tencia que abarcaba equis kilómetros
a la redonda. A través de un punto cen­
tral de emisión se iba repitiendo la señal por todo el país. Dado que los repetidores se
sitúan sobre el terreno, estas emisiones toman el nombre genérico de “terrestres".
Este sistema era el único posible en su momento. Es costoso de instalar
y mantener, pero tiene dos ventajas: una, la división de todo un territorio en
pequeñas zonas, permitiendo que sea utilizado por canales locales o regionales.
La otra ventaja es coyuntural: es una inversión bien amortizada y la manera por
la que la inmensa mayoría de la población accede a la televisión.

El apagón analógico

En el espacio radioeléctrico asignado a la señal de televisión caben tanto señales


analógicas como digitales (TDT), y es así en la actualidad, pues ambas señales
conviven. España, Europa y en general todo el mundo está actualmente en el
proceso conocido como “apagón analógico", es decir, aquel momento en que
dejen de emitirse señales analógicas.
Este es un proceso natural, pues hoy en día prácticamente toda la producción
se realiza por medios digitales. La emisión terrestre de la señal es la única parte
analógica que queda en el mundo de la televisión.
Las emisiones analógicas son siempre SD, no existen emisiones HD de este
tipo. El apagón analógico está también unido indefectiblemente a la HDTV si
bien es un proceso que sigue sus propios ritmos.

» 268
PARTE IV: DISTRIBUCIÓN

Cuando se produzca el apagón definitivo, los canales usados por estas señales
estarán libres para otra posible ocupación. Es lo que se conoce como "dividendo
digital". Siendo un recurso tan escaso, este dividendo es ahora mismo objeto
de disputa entre los operadores de televisión (para aumentar canales o cali­
dad, de SD a HD) y los de telefonía móvil.

Espacio radioeléctrico

La televisión que se emite por ondas en el espacio radioeléctrico sigue preci­


sando una fuerte regulación. Primero, por facilitar el intercambio de contenidos
internacionales. Pero también, y más importante, por el límite físico que implica
este espacio.
El espacio radioeléctrico se considera soberano de cada país, de forma seme­
jante al espacio marítimo próximo a la costa. Se divide en "canales” de emisión,
dentro de las frecuencias preasignadas.
En algunos países, como España, el espacio radioeléctrico se considera de
dominio o propiedad pública, y es por tanto el Estado el que tiene que conceder
licencias para su explotación, bien a empresas privadas o bien a organismos

» 269
1. TELEVISIÓN CONVENCIONAL

públicos (autonomías, ayuntamientos). En otros países el espacio radioeléctrico


no se considera público, sino un bien general; pero sí es la autoridad (federal o de
cada Estado) la que regula su uso en busca del mayor y mejor aprovechamiento.
De un país a otro puede haber (y de hecho hay) diferencias en la normativa y
en el uso de los canales, pero internacionalmente se establece qué frecuencias
diferentes se usan para señales diferentes.
La señal de televisión se emite en todos los países en la zona conocida como
de muy alta frecuencia (VHF Very High Frequency) y de ultra alta frecuencia
(UHF Ultra High Frequency), zona que a su vez es compartida por otras señales,
como las de los móviles, wifi o la radio digital.

Ventajas y diferencias de la emisión digital

Las ventajas de la emisión digital son similares a lo que ya conocemos: me­


jor calidad (al menos teóricamente); señal inalterable ante las influencias del
entorno; y menor ancho de banda, lo que permite más emisiones en el mismo
número de canales.

» 270
PARTE IV: DISTRIBUCIÓN

Si un canal tradicional de televisión SD ocupa 8 megahercios, en el mismo


ancho de banda se pueden transmitir 20 mbs codificados digitalmente, que
permiten entre 4 y 5 programas simultáneos.
La señal digital llega o no llega a las antenas, pero no se altera a causa
de posibles interferencias, como sucede en la analógica. Es una señal más
"robusta".

TDT = DUB-T

La televisión digital terrestre o TDT (siglas también en inglés para Terrestrian


Digital Televisión) son las emisiones que sustituirán a las tradicionales de te­
levisión cuando éstas desaparezcan (en el apagón analógico). Esto se realiza
a un ritmo distinto en cada país e incluso en cada zona. Los hogares deben
adaptar sus antenas e incorporar un descodificador digital que permita mostrar
las imágenes tanto en monitores analógicos (CRT) como digitales.
Durante un periodo de transición, convivirán las emisiones analógicas y
digitales para dar tiempo a esta necesaria adaptación de los hogares.
La TDT incluye la posibilidad de mejorar la calidad aumentando la resolución
(HD), el aspecto (de 4/3 a 16/9) y el sonido (de dos canales a multicanal 5.1).

TDT en España
..........................................................................................................................................................................................................................................

El despliegue de la TDT puede variar ligeramente de un país a otro. En España,


se ha optado por emitir en canales multiplexados. Esto quiere decir que cada
canal / ancho de banda puede emitir simultáneamente varias señales de televi­
sión. Es lo que se conoce como multiplex o MUX. Por lo general, las cadenas de
ámbito nacional privadas con más tradición han obtenido un MUX cada una,
lo que les permite cuatro programas simultáneos. Algunas cadenas nacionales
(las últimas en llegar) han de compartir MUX. Las cadenas públicas estatales
o autonómicas también tienen un MUX propio. El resto de canales se asigna a
operadores locales. De éstos, un canal (no un MUX) se reserva para los ayunta­
mientos (o conjunto de ellos afectados por un repetidor). Los otros pueden ser
licitados privadamente, siendo una competencia autonómica.

» 271
1. TELEVISIÓN CONVENCIONAL

Calidad teórica

En España se ha asignado a cada multiplex un bitrate de 20 mbs, con un máximo


de cuatro emisiones. La emisión se realiza con el códec mpeg2, propio de una
señal SD, en 4:2:0. Esto implica una media de 5 mbs por emisión (incluyendo el
sonido), lo que teóricamente proporciona una calidad similar al DVD (igualmente
mpeg2, con un flujo entre 6 y 9 mbs).
Sucede sin embargo que esta similitud teórica es sólo aparente. Realmente
no son 5 mbs por canal, pues el MUX tiene también una parte destinada a datos
(MHP véase más adelante). También hay que contar con que la codificación
para emisión de programas en vivo debe hacerse en tiempo real, sin posibilidad
de una doble pasada, como sucede en los DVD de calidad. Y se añade el he­
cho de que el mpeg2 trabaja mejor sobre progresivo que sobre interlazado, que
es la manera de emisión de casi toda la producción actual.
Todo esto hace que en muchos programas, sobre todo noticiarios, deportes o
reportajes de actualidad, la imagen deje mucho que desear.
Más de un especialista cree que un flujo de 5 mbs por emisión es escaso
para conseguir una buena calidad. Pero, una vez más, se han impuesto razones
comerciales (más canales) a las puramente técnicas (mejor calidad) en el mundo
audiovisual.

Ventaja del multiplex

Una de las ventajas del multiplex es que se puede variar el bitrate asignado a
cada una de las emisiones.Es una manera de emitir algunos programas con
mayor calidad / bitrate, restando calidad a las otras señales del multiplex.
Esto se realiza, por ejemplo, cuando en determinados momentos se quiere
ofrecer un producto premium, como un largometraje de estreno en televisión. Se
aumenta el bitrate hasta los 8 mbs, por ejemplo, restando del resto de emisio­
nes un megabit. Estas otras emisiones pueden ser programas de poca calidad
(teletienda, repeticiones, timoconcursos, anuncios pseudopornográficos, etc.) o
contenidos “amigables" para el mpeg2, como son los dibujos animados con
colores planos que se pueden comprimir con muy bajo bitrate.

» 272
PARTE IV: DISTRIBUCIÓN

Interactividad en la TDT

Además de imagen y sonido, una emisión en TDT puede incluir gran cantidad
de datos, que están estandarizados bajo la normativa MHP (Multimedia Home
Platform). Estos datos pueden ser genéricos, como la guía electrónica de pro­
gramación (EPG, que muestra la parrilla de todas las emisiones), o soluciones
específicas como teletienda, teleasistencia, comunicación municipal, uso de
DNI electrónico, señales encriptadas y otras.
La TDT se puede usar como una pequeña “internet” de primer nivel, donde no
llegan la red telefónica o para usuarios no expertos, implementándose interfaces
sencillos manejables desde el mando a distancia.
Para conseguir una completa interactividad es preciso contar con un canal de
retorno. Éste puede ser a través del cable telefónico, internet, móvil, vía wifi, etc.

Set Top Box

Para recibir la señal TDT se precisa un simple descodificador de la señal, que


se denomina "receptor pasivo". Si le añadimos interactividad, se habla de un
"receptor activo” o "inteligente", que en ocasiones se denomina también con el
anglicismo set top box (hace referencia al aspecto de caja que se coloca sobre
el mueble de la televisión).
Los dispositivos inteligentes suelen incluir además un disco duro grabador.
La utilidad de este dispositivo grabador es doble. Sustituye al tradicional sistema
de grabación casero con cinta VHS o DVD, añadiendo la ventaja de la EPG ya
citada, que simplifica el manejo a la hora de programar grabaciones caseras.
Pero también puede usarse para la recepción de contenidos de pago.

Discos duros grabadores y VOD

La inclusión de un disco duro grabador es ya de por sí una pequeña revolución.


Esto permite al usuario prediseñar su propia parrilla, convirtiendo la manera
“lineal" de emisión unívoca en una elección personal no lineal. Comercialmente
implica también que el sistema de anuncios en pausas publicitarias tiene un
nuevo enemigo: si el contenido está grabado, es fácil evitarlos.

» 273
1. TELEVISIÓN CONVENCIONAL

Pero además este disco duro puede servir para el almacenaje de imagen y da­
tos emitidos en el MUX simultáneamente a los canales de televisión. Esto es útil,
por ejemplo, para el sistema de vídeo bajo demanda (VOD, Video over Demand)
a través de la TDT. A diferencia de un VOD por internet, donde se puede acceder
casi inmediatamente al contenido seleccionado, en la TDT es necesario enviar el
contenido previamente al set top box y tenerlo allí almacenado a disposición del
usuario casero. El envío de los contenidos se realiza gracias a la flexibilidad del
MUX, aprovechando aquellos horarios (generalmente de madrugada) de poca
audiencia donde se emiten contenidos de baja calidad. Bajando el flujo de datos
de estas emisiones, se transmiten contenidos para el VOD que se guardan en
los discos duros del usuario. Este contenido está debidamente encriptado para
que sea necesario el uso de una llave o clave (key) para su visionado.
La calidad de estos contenidos premium puede ser incluso mejor que la de
las emisiones. Nada impide subir el flujo de datos o la resolución, ofreciendo
contenidos de alta definición cuando el resto de canales son SD.

TDT de pago

Otra ventaja interactiva es la TDT de pago. En este caso, la emisión se encripta


digitalmente, siendo sólo accesible a aquellos codificadores que estén abonados
(el resto de usuarios recibirán un mensaje en pantalla que les indica que ese
contenido no es accesible).
Tecnológicamente, para recibir un canal de pago el receptor debe ser activo,
incluyendo una ranura tipo PCMCIA para introducir una tarjeta con los datos
de acceso del usuario.
En España se ha generado una gran' polémica en torno a los canales de
pago en TDT. Algunos operadores de cable y satélite, fórmulas tradicionales
para la televisión de pago, se quejan de competencia desleal, pero lo cierto
es que este sistema permite abonarse individualmente a un solo contenido o
canal, sin necesidad de contratar toda una plataforma de ellos con una cuota
mensual. Dada la universalidad de las emisiones terrestres, cualquier hogar
podrá abonarse sin necesidad de disponer de una nueva antena o codificador,
lo que es bueno para fomentar la competencia.
El inconveniente de esto es que los canales de la TDT son limitados. Siempre
se han considerado las emisiones terrestres como abiertas a todo el mundo y gra­
tuitas, financiadas por la publicidad o por el Estado. Si los operadores ven más
rentabilidad en los canales de pago que en los abiertos, es probable que se reduz­

» 274
PARTE IV: DISTRIBUCIÓN

can las emisiones en abierto (y con ello la pluralidad informativa). Y también, no


se puede olvidar, la competencia, pues estos MUX y canales están previamente
asignados y no se puede ampliar indefinidamente el número de operadores.

En ocasiones, no son sólo condicionantes comerciales los que se imponen sobre los
puramente técnicos. También pueden existir cuestiones políticas que incidan sobre la
tecnología. La TDT española es un ejemplo de ello. Un mal ejemplo, diría yo.

TDT en alta definición

Hasta ahora, el despliegue de la televisión digital terrestre se realiza bajo los es­
tándares SD. Con todo, es perfectamente compatible con una señal HD, pues
sus especificaciones incluyen la relación de aspecto 16/9 y el sonido multicanal.
Sucede sin embargo que la codificación mpeg2 no resulta la más adecuada
para este tipo de señales. El perfil de un mpeg2 de HD 4:2:0 de distribución
estaría entre los 15 y los 25 mbs (como el HDV). Esto significaría que sólo habría
cabida para una emisión por MUX.
Para las señales HD se usa la codificación mpeg4, más eficiente que la
anterior. Un canal HD en mpeg4 4:2:0 puede precisar entre 8 y 12 mbs para que
se vea con la misma calidad que un mpeg2 (es más eficiente). Por lo general, la
versión o implementación del mpeg4 (recordemos que no es un códec, sino un
conjunto de normas) que se maneja es el H.264.
En la práctica, usando el mpeg4 a 8-10 mbs, podremos tener un canal HD
donde antes teníamos dos SD. Los canales HD de TDT se verán nativamente en
16/9 y con sonido multicanal 5.1.
Pero es preciso que el receptor acepte también este tipo de codificación, lo
que no siempre sucede. Gran parte de los codificadores pasivos que se han
instalado sólo descodifican señales mpeg2, por lo que no permiten la visión de
contenidos HD. Se necesita un codificador mixto (mpeg 2 y mpeg4) para ambas
señales a fin de poder acceder a todo tipo de contenidos.

La normativa en Europa tiende a que sean los televisores los que incluyan los codificado­
res, como sucede en los televisores analógicos, que incluyen el sintonizador. En algunos
países, como Francia, la inclusión de un codificador interactivo y mpeg4 es obligatoria
para que pueda venderse en su territorio. No es algo que incremente significativamente
su coste, por lo que los fabricantes van ajustándose a estas necesidades y hoy algunos
televisores incluyen descodificador mixto, interactividad, ranura para TDT de pago e
incluso disco duro.

» 275
1. TELEVISIÓN CONVENCIONAL

Cadencia y resolución en HDTV

Como hemos visto a lo largo de este libro, la tendencia actual en la producción


audiovisual HD se inclina claramente hacia el 1.080 progresivo.
Sin embargo, a la hora de emisión por TDT la opción del 720 no se ha
descartado. La UER todavía no se ha pronunciado sobre la HDTV común (en
caso de haberla), por lo que sus estados miembros pueden optar por cualquiera
de las señales estandarizadas de HD.
El 720 puede ser un buen formato de distribución por su menor ancho de
banda. Manteniendo la cadencia, se pueden emitir dos canales 720 donde cabe
uno de 1.080.
Pero hay otra opción hoy igualmente interesante que ya está en pruebas en
algunos países: se emite en 720, pero aumentado la cadencia; en vez de los
tradicionales 25p/50i, la opción es 50p.
Un aumento de la cadencia implica conjugar las ventajas del interlazado
(mejor resolución dinámica) con las del progresivo (mejor resolución horizontal).
Además, dado que el 720 ocupa la mitad de ancho de banda o bitrate que el 1.080,
podemos aumentar la cadencia al doble sin ocupar más espacio radioeléctrico.
Otra ventaja de este formato de emisión, según algunos, es que los monitores
de 720 son más baratos y también más pequeños que los de 1.080. Es impensa­
ble colocar un monitor 1.080 en una cocina urbana, por ejemplo. Las actuales
tecnologías permiten que un monitor 1.080 que reciba una señal 720 la reescale
muy eficientemente, por lo que en teoría nadie perdería.
La cadencia superior de 50p (60p en la zona NTSC) es muy interesante de
cara a contenidos tan televisivos como los deportes.
¿Y por qué no 1.080 50p? Quizá fuera lo ideal, pero en este caso sí dupli­
caríamos el ancho de banda irremediablemente.
Por esta razón, la HDTV del futuro parece ser que sólo tendrá estas opciones:
o bien 720 con una cadencia superior de 50p, o bien 1.080 sea interlazado (50i) o
progresivo (25p).

3DTV

Si la HDTV está empezando a arrancar en la mayoría de las emisiones comer­


ciales en Europa (en otros países esta cuestión está más avanzada), la nueva
frontera a la vista es la emisión de contenidos estereoscópicos por televisión,
3DTV

» 276
PARTE IV: DISTRIBUCIÓN

Sin embargo, en este campo, a día de hoy, todavía no hay un estándar


normalizado de emisión. Sólo existen soluciones comerciales que implican el uso
de tecnologías y descodificadores propietarios, incompatibles unos con otros.
Dada la importancia que está adquiriendo la estereoscopia en el mundo
audiovisual, se esperan avances normativos en este sentido. Probablemente
llegue antes al homevideo que al mundo broadcast.

DVB-C y DUB-S

Además de la emisión terrestre, la televisión tradicional tiene otros canales de


emisión, como son el cable y el satélite, generalmente asociados a la televisión
por pago (pero no necesariamente, claro).
Las emisiones a través de esos sistemas tienen también una base mpeg2
para SD y mpeg4 HD, con flujos de datos similares a los ya comentados.
También se está aplicando a estas vías todas las posibilidades comentadas:
set top box, discos duros grabadores y vídeo bajo demanda.
Estos canales van más rápido en la transición del SD al HD, dado su carácter
privado.

Además de la televisión de pago, la nueva IPTV empieza a competir con ellos. En España,
el canal promovido por Telefónica Imagenio se transmite vía ADSL, pero sus contenidos
no se diferencian mucho en el formato de los tradicionales canales de pago.

DVB-H

Una importante novedad y que todos los expertos auguran con gran futuro es
la emisión por televisión para teléfonos móviles y otros dispositivos portáti­
les (PDA, reproductores de vídeo portátil, consolas de videojuegos, etc.), que se
engloban en las normas DVB-H (de handheld, portátil).
Aquí la cuestión técnica diferenciadora es el tamaño de la pantalla, que no
puede ser muy grande ni de gran calidad en estos dispositivos. Las resoluciones
que se manejan son del orden de QVGA (320 x 240) y VGA (640 x 480) como
máximo. Los archivos suelen codificarse con extensión ,3g, en referencia a la
última tecnología de transmisión de datos para teléfonos portátiles. Sus flujos
de datos son por eso muy bajos (1,5 mbs como máximo).

» 277
1. TELEVISIÓN CONVENCIONAL

El reto es adaptarse a dispositivos cada vez más potentes y a usuarios que


quieren estar conectados en cualquier lugar.

SMPTE VC-1, l/C-3

Esta sociedad de normalización norteamericana propone muchos estándares


para la industria audiovisual. Si bien carece de la fuerza de organismos co­
mo la ITU -pues es una sociedad privada nacional y no internacional, sus
implementaciones son altamente seguidas por la industria.
En el caso de los códecs de amplia utilización, y pensando tanto en soluciones
profesionales como de distribución, se propone una serie de normalizaciones de
codificación de vídeo. En general, son las empresas desarrolladoras las que acu­
den al SMPTE para pedir una homologación. Esto no les priva de sus derechos,
y pueden seguir recibiendo royalties, pero facilita el uso como estándar a otros
fabricantes, que a su vez pueden proponer mejoras.
La primera de ellas es el VC-1, siendo Microsoft el impulsor de esta pro­
puesta. A partir de la versión 9 Windows Media Video se puede considerar
VC-1. Está muy pensado como códec de distribución (4:2:0 con posibilidad de
interlazado).
El VC-2 es una propuesta que por diversas razones todavía no se ha aprobado,
por lo que la siguiente propuesta es el VC-3, que siendo 4:2:2 y progresivo y hasta
10 bits, está más pensado para el campo profesional. Avid se encuentra entre
los que primeramente han normalizado sus códecs DnxHD a VC-3.
Estos códecs, además del ya mencionado H.264, están siendo ampliamente
usados en la industria, tanto en la distribución convencional como en internet.

» 278
2. Vídeo domés tico

DVD

El soporte digital de distribución de vídeo para los hogares (vídeo doméstico,


Home video) por excelencia ha sido el DVD. Este estándar internacional se apoya
en una resolución SD y una compresión mpeg2, 4:2:0, con un flujo de datos que
puede variar entre 6 y 9 mbs. Se puede optar igualmente por una codificación
a un flujo de datos constante (CVB, constant bitrate), o variable (VBR), que se
irá adaptando a las necesidades del contenido (con el mpeg, imágenes con
mayor movimiento y acción precisan mayores flujos que imágenes estáticas).
El “formato” DVD incluye asimismo una autoría para la creación de menús y
diferentes opciones de audio y subtitulado. También se crearon "territorios" para
su distribución, originados por la distribución de contenidos cinematográficos
clásica y que internet ha dejado fuera de juego.
Como otros muchos sistemas, se creó con un método de encriptación antipi­
ratería que apenas resistió unos meses.
La limitación del DVD es su flujo de datos ya comentado y su capacidad
de almacenamiento, aproximadamente 4 Gigas y medio. Esto corresponde a un
largometraje de mediana duración de 90 minutos (90' x 60" x 8mbs ~ 4,3 Gigas).
Se puede hacer un DVD de doble cara que aumenta esa capacidad por dos.

DVD de alta definición: Blu-Ray

Las limitaciones del DVD (capacidad, flujo de transferencia y mpeg2) no lo hacían


en principio viable para contenidos en alta definición, que precisan hasta 6 veces
más capacidad. Sin embargo, tampoco se quería aumentar el tamaño del disco
(12 cm) para no incrementar los costes de material o logística. La solución se
basó en cambiar la tecnología del láser que servía para la grabación y lectura del
material, reduciendo su longitud de onda y por tanto permitiendo grabar más

» 279
2. V Í D E O DOMÉSTICO

datos en el mismo espacio. Éste es el origen de la denominación, Blu(e)-Ray =


rayo azul, pues el rayo láser, al tener una longitud de onda menor, pasa del color
rojo al azul violáceo.
Blu-Ray, no obstánte, es una marca registrada de Sony. En un primer mo­
mento, hubo hasta tres tecnologías que se disputaban el mercado del vídeo de
alta definición doméstico. Toshiba proponía su HD-DVD, y el gobierno chino
impulsó su propia plataforma como un intento de esquivar el pago de royalties
a las compañías japonesas.
Al igual que pasó en su tiempo con la guerra comercial entre el VHS y el Beta-
max, se ha impuesto el que mejores contactos tenía con la industria de conteni­
dos (que es, en definitiva, lo que mueve al público a comprar uno u otro sistema).
Las majors o grandes estudios norteamericanos se aliaron con Sony (que es tam­
bién una major) y Toshiba abandonó la carrera. La solución china, por ahora, sólo
cuenta con contenidos y películas propias. Por todo ello, el Blu-Ray Disc se ha
quedado como la única opción del mercado, fuese o no la mejor solución técnica.
En el mismo tamaño físico de 12 cm se pueden grabar ahora 25 GB. Los
primeros Blu-Ray han salido al mercado con doble capa, esto es, una capacidad
de 50 GB. Pero la tecnología multicapa también ha mejorado, y se habla de añadir
en los años sucesivos 4, 8 e incluso 16 capas que podrían llevar la capacidad al
orden de los TeraBytes.
En cuanto a la codificación, el Blu-Ray admite dos codificaciones: mpeg2
y mpeg4 (bajo el estándar VC-1, que quizá se amplíe a otros). El mpeg2 es, a
todas luces, una solución insuficiente para señales de alta definición, pero los
primeros Blu-Ray han salido al mercado con este códec por su compatibilidad y
bajo nivel de exigencia al hardware. También por su compatibilidad con el DVD
tradicional, que cualquier reproductor Blu-Ray puede leer (y reescalar a HD en
algunos modelos). Su flujo de datos es de 36 mbs (90' x 60' x 36mbs ~ 20 GB).
Con el uso del mpeg4 se espera aumentar tanto la calidad como la cantidad
de minutos que puede almacenar, incluyendo contenidos estereoscópicos 3D.

¿Ha llegado tarde el Btu-Ray?

La guerra comercial entre Toshiba y Sony por la solución de vídeo casero en


alta definición retrasó varios años su implantación en el mercado. Y hasta el
momento no ha tenido la implantación popular del DVD de definición estándar.
Coincide además con lo que parece un cambio de tendencia en el mercado.
En cierto modo, la irrupción de internet ha dejado un poco fuera de juego a

» 280
PARTE IV: DISTRIBUCIÓN

los soportes físicos. Internet se ha convertido en una filmoteca aparentemente


infinita, situada en una "nube virtual” accesible desde prácticamente cualquier
parte del mundo. Muchos usuarios, aprovechando las tasas crecientes de los
ADSL, se descargan archivos incluso de alta definición que en códecs como el
H.264, el WMV DivX y otros ocupan mucho menos espacio que el que ofrece
el Blu-Ray con una calidad muy similar. Estos usuarios almacenan los conteni­
dos en sus ordenadores o en discos duros reproductores que pueden enchufar
directamente a sus televisores HD a través de conexiones de calidad como el
HDMI. En uno de estos discos duros de escaso tamaño pueden almacenarse
centenares de largometrajes y documentales, que llenarían estantes y estantes
en soportes sólidos.
Más allá, la tendencia para algunos es que en el futuro nadie almacene sus
contenidos en casa, sino que acceda a ellos por streaming en los miles de ser­
vidores de la red y a través no sólo de los ordenadores, sino del resto de dispo­
sitivos conectados a la red: móviles, PDA, iPods, iPads, reproductores portátiles
de vídeo, consolas de juegos, etc.

El futuro ya

Este futuro posible es ya actual. La tecnología existe y funciona. El único pro­


blema es la ausencia de contenidos legales. Muchos de los vídeos que circulan
son piratas, a través de redes IP y también de sitios de alojamiento masivo. Los
productores y distribuidores tradicionales son reacios a colgar sus contenidos le­
galmente en internet, precisamente por la facilidad de clonación. Pero también
por las complicaciones legales que supone, ya que internet es un único espacio
o ventana sin territorios, sistema en el que se basa la financiación tradicional.
No obstante, para algunos analistas, y a pesar de la lacra de la piratería, una
vez creado el hábito de consumo, sólo falta ofrecer acceso legal a las novedades
y a los largometrajes clásicos, buen servicio y facilidad y economía de pago de
cara al consumidor, para que la "nube” de internet sea el medio habitual y pre­
ponderante de acceso a contenidos audiovisuales del próximo futuro, relegando
todos los soportes físicos.
Es más que probable que el futuro Home video se distribuya directamente por
internet, y que el soporte físico desaparezca. Es algo parecido a cómo funciona
actualmente la industria del software, y hacia donde camina la del videojuego.

» 281
2. VÍDEO DOMÉSTICO

El Blu-Ray ROM como soporte da datos

Cualquier especulación sobre el futuro no deja de ser eso, una especulación. En


pocos años, toda una filmoteca cabrá en una llave USB del tamaño de una uña,
pero un soporte físico como el DVD o el Blu-Ray tiene el mismo fetiche que un
vinilo, un CD o un libro. Sirve para el coleccionismo y también conserva un valor
residual para la venta de segunda mano.
Lo que resulta interesante es valorar la alta capacidad de almacenamien­
to que pueden conseguir estos dispositivos, considerándolos como soporte de
almacenaje de datos (Blu-Ray ROM).

ROM es el acrónimo inglés para memoria de sólo lectura y se asocia a cualquier dis­
positivo donde se graben datos que no pueden ser variados a posteriori. No obstante,
también se prevén Blu-Ray regrabables, que no serian técnicamente “sólo" ROM, pero
que tienen la misma finalidad de almacenamiento de datos.

Aumentando las capas, y también las tasas de transferencia (x2 = 72 mbs,


x4, x8, etc.), este soporte puede ser muy útil para el almacenaje, archivo y
creación de copias de seguridad en un mundo audiovisual que camina hacia
la desaparición de las tradicionales cintas y magnetoscopios que han servido
durante décadas para esta labor.

» 282
3. IPTV: distribución por internet

Estándares

La emisión a través del espacio radioeléctrico tradicional precisa de una norma­


tiva y regulación muy exigente, con el objeto de compatibilizar toda la cadena
de producción y de emisión para llegar al usuario final, cuyo televisor también
ha de ser compatible.
Por el contrario, el novedoso sistema de distribución de contenidos por in­
ternet no precisa de una normativa tan estricta, debido a que son tecnologías
informáticas fácilmente actualizables. Aquí se puede aprovechar muchísimo la
flexibilidad del digital.
Esto tiene ventajas y desventajas. La principal desventaja puede ser la selva
de códecs y reproductores que nos podemos encontrar en internet. Cualquier
desarrollador y fabricante puede ofrecer nuevas implementaciones y soluciones,
libres o propietarias.
La propia mecánica del mercado va eliminando, periódicamente, la compe­
tencia más débil, concentrando las soluciones en los operadores y plataformas
más potentes. Pero al mismo tiempo, el gran dinamismo de internet puede hacer
surgir una nueva solución en cualquier momento. Dada la velocidad de trans­
misión "vírica" del medio, esta nueva solución puede convertirse en mayoritaria
en relativamente poco tiempo.
Lo mismo podríamos decir de los estándares tradicionales. 2K o 1.080HD son
formatos profesionales que no necesariamente han de usarse en la IPTV. Sin
duda sería lo más sencillo, pero la tecnología no impide producir contenidos con
otras resoluciones. íntimamente ligada a la industria informática, sí contaremos
con que utilice el espacio RGB de 8 bits de profundidad de color. En cuanto a la
cadencia, volvemos a la flexibilidad. Es común que, para bajar la tasa de flujo
de datos, algunos contenidos se queden con una cadencia de 12 o 15 fps. Pero si
la conexión lo permite, también se pueden distribuir contenidos con cadencias
muy superiores, del orden de 72 fps.

» 283
3. IPTV: DISTRIBUCIÓN POR INTERNET

Reproductores en internet

Al igual que sucede en el resto de la informática, dos grandes plataformas


o sistemas operativos dominan en el campo de los reproductores o players,
imprescindibles para visionar un contenido: Windows Media Player, mayoritario
como lo es Windows en los ordenadores; y Quick Time, el reproductor de Apple.
Hace años eran totalmente incompatibles: un fichero de QT (con extensión
,mov) no era reproducible por WMP (que creaba ficheros con extensión .avi, y
ahora también .wmv). En ocasiones no era el códec en sí, sino los metadatos
asociados, fundamentalmente lo que se conoce como "cabecera", que es la parte
del archivo que informa al reproductor de cómo se han almacenado los datos de
audio y vídeo.
En la actualidad ya existen versiones de Quick Time también para Windows,
y también de WMP para Apple.
Además de estos dos grandes de la informática, otro desarrollador como Ado­
be introdujo la reproducción de vídeo en su popular programa de aplicaciones
web Flash, usando su propio códec (extensión .flv), que resultó muy eficiente
para la reproducción inmediata del contenido debido a su poco peso y bitrate.
Es el códec mayoritariamente usado para YouTube, la web que revolucionó el
audiovisual en internet.
Todos estamos de acuerdo en que la calidad de los vídeos de YouTube no
es muy buena. Pero el reto que se planteaba en aquel tiempo no era tanto la
búsqueda de la excelencia, sino la accesibilidad. El usuario deseaba "pinchar y
ver”, incluso a costa de la calidad.
Además de estos tres reproductores (el de Flash se instala por defecto en
la mayoría de los navegadores), hay muchos más que luchan por hacerse un
hueco en el mercado, para lograr clientela cautiva o jugando con la baza de una
completa compatibilidad (como los populares VLC o el Mpegplayer).
Un ejemplo de la guerra comercial siempre latente es el anuncio por parte de
Apple de que su novedoso y prometedor dispositivo iPad no leerá archivos flash.
Este tipo de soluciones pueden aparecer y desaparecer del mercado sin
trastornarlo. Un reproductor es un programa muy simple que se puede descargar
en pocos minutos o segundos. Y sus librerías de códecs se pueden actuali­
zar en aún menos tiempo. Resulta muy difícil que si realmente queremos ver un
contenido, no lo consigamos.

» 284
PARTE IV: DISTRIBUCIÓN

Códecs y reproductor

Un reproductor es sólo el programa que nos permite visionar la imagen y el


sonido. Con este fin, debe tener instalado el códec apropiado para el contenido.
Esto causaba problemas años atrás, pero al igual que en el mundo profesional,
ya no existe una “guerra de códecs propietarios”. Tanto los códecs como los re­
productores están abiertos a todas las plataformas (al menos para su visionado),
y además son gratuitos o de muy bajo coste.
Al igual que en el mundo profesional, también el mpeg4 es el códec más
utilizado en internet, en sus diversas implementaciones: H.264, wmv, divX, etc.
Pero tiene otra ventaja: si la industria desarrollara un códec aún más eficiente,
todos los reproductores se podrían actualizar en cuestión de minutos gratuita­
mente. En cambio, si se quiere cambiar la codificación de la TDT, habría que
actualizar millones de codificadores físicos, con un gasto total considerable y
un largo proceso en el tiempo.

El ancho de banda

Además del tema de reproductores y códecs, el punto clave de una correcta


distribución en internet es el ancho de banda.
En este caso, por "ancho de banda" nos referimos al bitrate de descarga
máximo que puede tener el usuario doméstico en su casa. A mayor bitrate,
mejor calidad podrá recibir, y de manera más rápida.
Por lo general, las conexiones por cable telefónico y módem (hasta 56K)
resultan escasas para recibir todo tipo de contenidos audiovisuales, incluso de
resoluciones modestas. Se ha de recurrir a mayores velocidades de transmisión
como las proporcionadas por el ADSL.
El bitrate que se maneja para un contenido HD es el mismo que para la
distribución de HDTV Al igual que en el resto de formatos de distribución, se
submuestrea por lo general a 4:2:0 para reducir peso. Usando una codificación
mpeg4 en alguna de sus variantes, tendremos una calidad aceptable a partir
de 8 mbs para formato 720 y entre 12 y 15 mbs para 1.080. Pero en este caso,
y al contrario que en el mundo DVD, nada nos impide aumentar la calidad del
contenido con un simple incremento del bitrate. No hay espacio radioeléctrico
que nos constriña.

» 285
3. IPTV: DISTRIBUCIÓN POR INTERNET

La posibilidad de ir aumentado el bitrate y la calidad es una de las razones por


las que muchos expertos ven más futuro en la IPTV que en la propia televisión
tradicional por antena terrestre. El límite de calidad ya no estará restringido
por un espacio radioeléctrico limitado, sino por el aumento del flujo de datos
que llegue a los hogares. En algunos países es común encontrarse con flujos
sostenidos de hasta 100 mbs, más que suficientes para una excelente calidad
HD 1.080 60p, 2K, 4K, 3DTV e incluso UHD. Para estos expertos, la televisión de
la próxima generación con resolución de ultra alta definición ya sólo será posible
en internet.
En cualquier caso, la IPTV cambiará, o mejor dicho, está ya cambiando, todo
el modelo de negocio audiovisual.

Streaming y descarga (download)

Hay dos maneras básicas de distribuir contenidos audiovisuales en internet.


La primera es descargarnos todo el archivo en nuestro disco duro y proceder
posteriormente a su reproducción.
La segunda es realizar una descarga de datos no en el disco duro, sino en la
memoria RAM de nuestro ordenador. El contenido se descarga poco a poco en
esta memoria asociada a la CPU, donde se va borrando a medida que se visiona,
dejando espacio para nuevos datos.

Emisión en directo

Igualmente es posible emitir en directo contenidos en internet. Sólo hay que


colocar una etapa de codificación en nuestra cadena de producción que logre
un formato con un flujo y un tamaño adecuado para la red. Obviamente, estos
contenidos se ofrecen siempre en streaming, pues se generan al mismo tiempo
que se visionan (en la mayoría de los casos, lo hacen con un pequeño retardo).

» 286
PARTE IV/: DISTRIBUCIÓN

¿Qué formatos son los adecuados para


una distribución en internet?

Si queremos distribuir un contenido vía IP no existe un único formato. Como


hemos visto, hay que satisfacer a todos los posibles consumidores, y éstos cuen­
tan con diferentes reproductores, diferentes plataformas, diferentes conexiones
y anchos de banda y diferentes maneras de visionar los contenidos.
Por ello debemos ofrecer varias opciones, varios formatos.
En primer lugar, hay que elegir un códec lo más abierto y extendido posible.
Quizá el más extendido sea el flash, pero su calidad puede dejar insatisfechos
a muchos espectadores. Habrá que ofrecer entonces formatos de más calidad.
Si no queremos olvidarnos de los usuarios de Apple o de Linux, tendremos que
ofrecer alguna alternativa al más extendido, el WMP Opciones multiplataforma
como DivX o Matroska también pueden ser interesantes, pero muchos usuarios
no avanzados huyen de descargas y actualizaciones por miedo a los virus o por
simple desconocimiento.
Podemos entonces optar por distribuir sólo por streaming o también en des­
carga. La descarga implica riesgo de la piratería, pues los archivos pueden ser
más fácilmente clonados. Pero el streaming tampoco está a salvo de ello para
un usuario con conocimientos medios. Por otra parte, muchos contenidos no
quieren protegerse contra la clonación, sino todo lo contrario (spots publicita­
rios, vídeos promocionales, noticias, cortos y documentales alternativos o no
lucrativos, etc.).
Una vez elegido el formato, tenemos que dar la posibilidad al espectador de
elegir la calidad en función de su conexión. Por lo general, se cuelgan dos o tres
vídeos de diferentes calidades (alta, media, baja).

Servidores

Podemos "colgar” nuestros vídeos directamente contratando un servicio de alo­


jamiento (hosting). Si prevemos un volumen alto de reproducciones o descargas,
el alojamiento debe estar preparado para las altas tasas de datos generadas.
También podemos colgar el vídeo en páginas dedicadas especialmente a ello.
YouTube (TuTele, en argot) es el más conocido, y es (por ahora) gratuito tanto
para proveedores como para espectadores. YouTube trabaja principalmente en

» 287
3. IPTV/: DISTRIBUCIÓN POR INTERNET

streaming, si bien hay opción de descargarse los vídeos. Hay una gran cantidad
de alternativas a YouTube, que juegan con ofrecer una mayor calidad. En algunos
casos, cobran al proveedor de contenidos por sus servicios, mientras que otros
pagan un porcentaje de la publicidad que puede generar el contenido.
Otra forma de distribución de contenidos son las redes P2P (per to per, o per­
sona a persona, en contraposición a redes comerciales B2B business to busi-
ness, entre empresas). Estas redes, mediante el software correspondiente, per­
miten que los propios consumidores pongan a disposición sus ordenadores como
servidores. Cuando un usuario se descarga un contenido lo pone a su vez a
disposición del resto de usuarios. El programa se encarga de gestionar las des­
cargas de la manera más eficiente a partir de los ordenadores conectados en
ese momento.
Estas redes P2P fueron pioneras en el intercambio de archivos, y supusieron
también la aparición de la piratería. Napster fue el primer ejemplo, y la causa
primera de la práctica liquidación de las empresas discográficas (aquellas que
basaban su negocio en la venta de un soporte físico). Una red P2P no tiene que ser
necesariamente gratuita, y existen alternativas de pago o que se financian con
publicidad.
En los últimos tiempos, las redes P2P están siendo sustituidas en las prefe­
rencias de los usuarios por lugares de descargas masivas. Las redes P2P son
lentas, y en ocasiones los usuarios con el contenido apagan sus ordenadores o
se encuentran en usos horarios muy desacordes, por lo que la descarga se ra­
lentiza, y más en contenidos no muy extendidos. Los sitios webs de alojamiento
masivo permiten a cualquiera subir grandes ficheros, permitiendo una descarga
más rápida por parte del resto de usuarios, al alojarse el contenido en servidores
permanentemente encendidos y con mirrors automatizados.
Sucede que estas páginas web eluden igualmente el control de derechos del
contenido. No exigen al que sube el vídeo que demuestre ser el derechohabiente,
por lo que fomentan una vez más la piratería. En ocasiones, estas páginas web
y sus servidores están situadas en otros países, sin posibilidad de ejercer una
acción legal efectiva.
No obstante, este método de distribución es muy efectivo para todos aquellos
contenidos libres de derechos o que el productor desee poner a libre disposición
del público.

» 288
PARTE IV: DISTRIBUCIÓN

Metacapas

Para la inserción de publicidad, existen tecnologías que trabajan con el concepto


de capas de metadatos. Sobre el contenido audiovisual pueden insertar otras
imágenes, de manera similar a los subtítulos, pero con la particularidad de que
si se pincha en ese momento en el vídeo un hiperenlace nos llevaría a la página
del anunciante.
Las metacapas también se usan para enlaces de internet (hiperlinks), que
amplían la información sobre el contenido del vídeo.

Piratería y DRM

El riesgo de ser pirateado en internet es una realidad insoslayable. En un intento


de controlar este riesgo, la industria creó un sistema conocido como DRM (Digital
Right Managment, o gestión digital de derechos). El DRM es un pequeño archivo
que se introduce con el contenido y que permite o no el visionado en función de si
el usuario tiene derecho o no a su reproducción. El DRM permanece inalterado en
la clonación del contenido, por lo que una copia pirata también vetará el acceso
al usuario no identificado. En ocasiones (como en los sistemas iTunes /iPod), el
DRM se asocia no sólo al usuario, sino a determinado dispositivo reproductor. Sin
embargo, esta opción está bajo sospecha en cuanto a su legitimidad en muchos
países, pues si un usuario compra un contenido audiovisual se entiende que
compra el derecho a visionario sin limitación, no sólo en un dispositivo concreto.
El DRM estaba pensado fundamentalmente para proteger los contenidos
dispuestos a la venta o el alquiler en internet. Un DRM puede servir para
licenciar a un espectador indefinidamente (venta), o bien para un determinado
número de pases o durante un plazo de tiempo (alquiler).

Otras utilidades del DRM

A pesar de ser una tecnología en la que se han invertido cientos de millones,


existen varias maneras (algunas sofisticadas, otras sencillas) para hacer saltar la
protección DRM y desactivar sus funciones. Por eso muchos analistas ven en los
DRM, más que un sistema antipiratería infalible, un potencial complementario

» 289
3. IPTV: DISTRIBUCIÓN POR INTERNET

igualmente interesante como recolector de la información que puede proporcio­


nar sobre quienes visionan un contenido. Cada vez que el contenido se visiona,
el DRM puede enviar información sobre el espectador (si éste previamente se
ha identificado, evidentemente) y su perfil de consumidor, útil para cualquier
campaña publicitaria. Se puede acumular la información de diferentes DRM en
diferentes contenidos para obtener igualmente un perfil definido de ese espec­
tador. Esta información, no obstante, está también bajo sospecha debido a las
leyes de protección de datos. El espectador siempre ha de ser consciente de la
existencia de un DRM y del tipo de datos que proporciona.
Asimismo, los DRM son útiles para la medición exacta de la audiencia de un
contenido determinado, incluyendo su localización geográfica (a través de los
números IP).
Por último, también es útil para la gestión de los derechos de autor del con­
tenido: permite conocer el número de descargas y visionados en tiempo real.

Los modelos de negocio en internet

Es inevitable, al hablar de la distribución de contenidos ip plantearse cómo afec­


ta al modelo de negocio tradicional y qué nueva alternativa financiera propone.
El negocio tradicional de contenidos de cine y televisión se basa en un siste­
ma de ventanas y territorios. El productor cede sus derechos económicos para
determinadas ventanas (salas de cine, televisión de pago, televisión generalista,
DVD de alquiler y venta, etc.) en determinados países y/o regiones idiomáticas.
Con internet se abre una nueva ventana, pero se elimina cualquier distinción
territorial: ya sólo existe un único mercado global.
Este fenómeno se puede ver no sólo en los largometrajes cinematográficos,
sino en las series de televisión. Apenas unas horas después de su estreno en el
país de origen, están disponibles gratuitamente y, en ocasiones, conveniente­
mente subtituladas por sus seguidores en internet. En muchas ocasiones, y dado
que las series de televisión se ofrecen gratuitamente en las cadenas comercia­
les, muchos espectadores no son siquiera conscientes del perjuicio económico
que ocasionan al acceder a ellas igualmente gratis en internet.
Para contrarrestar esta tendencia, se opta cada vez más por el estreno si­
multáneo en todo el mundo de las series de mayor éxito, cosa que afecta al
sistema tradicional de financiación (se paga más por un contenido que ya se
sabe que ha triunfado fuera, que por uno que es una incógnita).

» 290
PARTE IV: DISTRIBUCIÓN

La otra pregunta que surge es cómo recuperar la inversión en el contenido en


un medio que es, casi por definición, de acceso gratuito (descontando el pago
por la conexión). No hay una respuesta clara, pues existen pocas excepciones
rentables. A pesar de sus millones de espectadores (y proveedores), YouTube no
tiene hoy en día un modelo de negocio claro.
Una de las pocas soluciones que parece funcionar es ilúnes, la platafor­
ma promovida por Apple. Nacida primeramente para surtir de música legal a
sus populares iPods, hoy también oferta contenidos audiovisuales a cualquier
usuario (aunque muchos contenidos, por las razones legales comentadas, sólo
en Estados Unidos). Basado en el micropago (de uno a tres dólares de media),
iTunes ha demostrado que no todo es piratería en la red, y que hay millones de
consumidores que están dispuestos a pagar un precio razonable por un servicio
eficaz y adecuado a sus necesidades.
Y del mismo modo que muchas vías tradicionales de ingresos se están re-
sintiendo (la venta de DVD, por ejemplo, ha caído en picado en los últimos
años), aparecen igualmente otras. Muchos artistas musicales jamás pensaron
que ganarían dinero con sus videoclips, un formato puramente promocional,
pero actualmente cientos de miles de sus seguidores están dispuestos a pagar
uno o dos dólares por tenerlos en su ordenador. Asimismo, la venta de estuches
de DVD con series de televisión de éxito, en gran auge, era impensable hace
apenas unos años cuando ningún productor se planteaba esa ventana.
También las televisiones están incrementando su audiencia a través de in­
ternet. Siendo la parrilla televisiva un concepto lineal, las webs asociadas a las
cadenas comerciales funcionan mucho más eficientemente de manera no lineal,
ofertando los contenidos premium no a determinadas horas en determinados
días, sino permanentemente disponibles para la audiencia.
En definitiva, vivimos en un mundo en constante cambio, donde internet
parece ser la nueva herramienta de comunicación global que no se puede
obviar.

» 291
» 292
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

Actualmente, las salas de exhibición de cine en todo el mundo (lo que aquí lla­
mamos metonímicamente "cines" y en Estados Unidos y otros países theaters)
están pasando por su propio “apagón analógico” y reconvirtiéndose más o menos
rápidamente a un sistema de distribución de copias y proyección exclusivamen­
te digital.
Los motivos son, una vez más, obvios: mayor calidad, mayor flexibilidad y
un importante ahorro en el tiraje y distribución de copias. Queda por ver si
también supone un ahorro para los exhibidores, pues el equipamiento requerido
es caro; pero dado su fácil manejo y las nuevas posibilidades de ingresos, todos
coinciden en que a medio o largo plazo también será una gran inversión.

» Características técnicas de una proyección digital


La ventaja y el problema de la proyección digital, a nivel técnico, es que a
diferencia del mundo televisivo, no es necesario un estándar único. Las salas de
cine son muy diversas, con tamaños de pantalla muy diferentes y distancias
de proyección muy variada, dos cosas que influyen en la calidad de proyección.
Las pantallas más grandes precisan de mayores resoluciones (mejor 4K que
2K), y si la cabina de proyección está muy alejada de la pantalla, el proyector
digital precisará más lúmenes (mejor 12.000 que 4.000). Pero por la misma
razón, tampoco tiene sentido colocar un proyector 4K de 12.000 lúmenes en una
pequeña sala de proyección de 150 butacas y 6 metros de base, pues quedaría
sobredimensionado.
En cuanto al formato, lo lógico es igualar o superar la calidad actual de pro­
yección, que, para ser sinceros, no es muy grande. Hemos visto a lo largo de este
libro que la calidad del negativo de 35 mm es muy alta: unas 150 líneas de resolu­
ción por milímetro, con una profundidad de color estimada en 13 bits. Sin embar­
go, los sucesivos procesos a los que se somete el original OCN hasta lograr una
copia de proyección conllevan a una pérdida de entre el 50 y el 70 % de calidad. A
la postre, lo que el espectador está viendo en la sala se sitúa entre 1,3 y 2K de re­
solución, con unos 8 bits de color. A esta pérdida habría que añadir el propio des­

» 293
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

gaste en proyección, que al ser un proceso físico de arrastre, produce deterioros


en la copia, con arañazos y rayas o la adhesión de polvo y “pelos” que dificultan
la visión. Un último detalle es que muchos proyectores producen una difracción
en los bordes de la ventanilla, ofreciendo un borde irregular y menos luminoso.
Sabiendo esto, cualquier sistema que supere estas limitaciones ya se podría
considerar profesional.
Pero el mundo cinematográfico se caracteriza también por intentar ofrecer
un plus de calidad con respecto al resto de la industria audiovisual. Su público,
al fin y al cabo, abandona la comodidad de su hogar y acude a una sala de cine.
Dado el desarrollo tecnológico de la televisión de alta definición, se espera que
el cine ofrezca algo más de calidad. De ahí la insistencia en una proyección
digital cinematográfica que supere los estándares HDTV

» La necesidad de un estándar
El mundo digital ofrece una gran flexibilidad, pudiendo adaptar los sistemas di­
gitales casi a las necesidades de cada sala. Pero, por el contrario, puede oca­
sionar problemas en la distribución de contenidos: si cada sala dispone de su
propio sistema de proyección, el distribuidor deberá hacer decenas o centena­
res de versiones digitales para un estreno, con lo que no aprovecha el ahorro
económico y de logística que supone la digitalización. Se corre además el peli­
gro de caer en un sistema plagado de licencias y royalties, como sucedió en la
década de 1980 con la incorporación del sonido digital (Dolby, DTS, etc.).
Ya hemos comentado que a diferencia de la televisión, el mundo del cine no
tiene organismos estatales o supraestatales que puedan coordinar o impulsar la
adopción de un estándar. Por esta razón, y al igual que sucedió con la adopción
del 35 mm como estándar internacional, serán los proveedores de contenidos
los que impulsen la adopción de un estándar. La producción y distribución de
contenidos cinematográficos, a nivel mundial, está dominada ampliamente por
un pequeño grupo de estudios norteamericanos radicados en Hollywood, las
denominadas majors.

Los estudios norteamericanos funcionan de tres maneras: son productores ellos mismos,
son financiadores de otras películas y también son distribuidores. En ocasiones, incluso,
también poseen cadenas de exhibición. Las leyes antitrust norteamericanas impiden el
exceso de concentración en la cadena (producción + distribución + exhibición), pero no
sucede así en otras partes del mundo. La excelente factura técnica de sus producciones,
sumado a su red de distribución y un conocimiento perfecto del mercadeo y la promoción,
hacen que el dominio de Hollywood pueda llegar a parecer incluso agobiante.
Las "siete hermanas del cine" o siete majors son: Disney, Fox, Paramount, Sony Pictures
Entertainment, Universal, Metro Goldwyn Mayer y Warner.

» 294
PARTE IV: DISTRIBUCIÓN

Su producción es relativamente pequeña (entre 200 y 500 películas al año,


sobre un total estimado de más de 10.000), pero su impacto en los ingresos
de taquilla (box office) es alrededor del 80%. Estados Unidos, además, es el
principal mercado de salas de mundo, con cerca de 30.000 pantallas y más de
7.000 millones de dólares de recaudación anual.

» Digital Cinema Initiatives


Seis de estas siete majors (todas excepto la MGM) impulsaron a comienzos
del siglo un estándar de digitalización conocido por sus siglas en inglés, DCI
(www. dcimovies. com).
Esta iniciativa pretendía ser el estándar de distribución de contenidos, re­
gularizando el uso de equipamiento de proyección y ofreciendo un protocolo de
seguridad contra la piratería.
Desde el primer momento, el DCI fue una propuesta polémica. Primero, por
provenir únicamente de una parte de la industria, además de una nación en
concreto. Hubo críticas también porque a nivel técnico podía ser mejorable. Y
por último, y más importante, se criticó porque se entreveía en su propuesta dos
cuestiones ocultas: el pago de licencias tecnológicas (en concreto la tecnología
de proyección DLP o microespejos de Texas Instruments, una empresa norte­
americana) y el posible control por parte de los distribuidores de los servidores
instalados en los cines, a través del CineLink y el uso de llaves encriptadas.
Ante estas dificultades, las majors abrieron la mano, fundamentalmente por
la oposición de la poderosa NATO (National Association of Theaters Owners, la
asociación estadounidense de exhibidores). Esta asociación protestaba también
porque no se había tenido en cuenta el problema desde el punto de vista de las
necesidades del exhibidor. No todos los exhibidores son del mismo tipo ni tienen
las mismas necesidades de manejo de datos.

Generalmente, el tipo de exhibidor se determina por el número de pantallas y de conte­


nidos. Por el número de pantallas se habla de pantallas únicas (uniplex), o varias. Dentro
de éstas se habla de cineplex o multicines / multisalas hasta 8 pantallas, de multiplexes
entre 8 y 20 pantallas y megaplexes para más de 20 pantallas.
Por el tipo de contenido se habla de cines comerciales (mainstream) o independientes
(arte y ensayo o arthouse\ también, en España, se conoce como cines VO., pues suelen
proyectar los contenidos en versión original subtitulada).

Se decidió entonces proponer las normas DCI a una estandarización por la


SMPTE y es a partir de entonces cuando se puede hablar de un estándar real.

» 295
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

Además de las características técnicas, la normativa DCI incluye protocolos


para la codificación, la compresión, el transporte de la señal, el manejo de datos
en los servidores y el tipo de proyectores y su calidad. Normaliza el tipo de audio,
el de imagen y el de metadatos (como subtítulos). Determina la calidad de la
imagen, tanto su resolución como cadencia, y profundidad de color (en cine,
el muestreo siempre es 4:4:4). También ha actualizado las primeras propuestas
para incluir la proyección estereoscópica 3D. Y pretende crear un protocolo de
trabajo y de transporte de la señal que impida el pirateo de los contenidos.
La SMPTE también asegura tecnologías "blancas", es decir, no sujetas al pa­
go de licencias o royalties. De esta manera, la tecnología DLP ya no será la única
posible, sino cualquiera actual o futura que asegure el exigente nivel de calidad
que se pide en la proyección en salas. Lo mismo ocurre con el resto de equi­
pamiento, tanto de hardware como de software, quedando abierto a todos los
fabricantes (al menos en teoría).
Desde este punto de vista, el DCI se puede empezar a considerar un estándar
internacional defendible, y por eso pasaré a detallarlo con un poco de precisión.
Pero más importante aún es que, a nivel de contenidos, las majors americanas
han pactado entre ellas que sólo distribuirán sus contenidos bajo la norma DCI.
Imposible ignorarla, pues probablemente sea el estándar universal del futuro.

El sistema DCI

Toda la información del DCI y el estándar SPMTE se puede obtener en sus


webs. El documento actualizado de la versión 1.2 ocupa más de 150 páginas
(.Digital Cinema System Speciñcation, versión 1.2, March 07 2008), por lo que
aquí sólo haré un resumen de su funcionamiento básico, a través de sus procesos
y palabras clave. También hay que considerar que esta normativa se sigue
actualizando continuamente, por lo que es posible que algunas cosas cambien
ligeramente en pocos meses, o bastante a lo largo de los próximos años (sobre
todo en la calidad final de la imagen).

» Terminología
Intentando armonizar todos los procesos de trabajo en la distribución, el DCI
distingue tres tipos de archivos:

» 296
PARTE IV: DISTRIBUCIÓN

a DSM (Digital Source Master) hace referencia a lo que conocemos como


máster digital, el resultado final de nuestro flujo de trabajo antes de la
compresión para la distribución.
© DCMD (Digital Cinema Master Digital) es el máster digital DSM convertido
ya a los estándares DCI, pero sin comprimir.
« DCP (Digital Cinema Package) es el archivo empaquetado y listo para
exhibir que finalmente se envía a cada sala,
a DCMD* (escrito así, con asterisco), que no es un archivo, sino lo que fi­
nalmente verá el espectador en la sala.

En esta jerarquía, se espera que el DSM tenga una calidad superior al DCMD,
y que la compresión asociada al DCP no suponga una pérdida visual aparente,
de tal manera que al descomprimirse en el servidor y ser enviado al proyector
tenga la misma calidad que el DCMD original. Esta descompresión es conocida
también como DCMD*.

» DSM
Como indicamos, es el máster digital que tenemos al término de nuestro flujo
de trabajo. El máster digital se usará para hacer las copias para las televisiones
comerciales, para los DVD caseros o para los archivos que distribuiremos en
internet. Y también para realizar el DCMD, que es lo que nos ocupa.
Conociendo las especificaciones del DCMD, que ahora veremos, una produc­
ción cinematográfica deberá intentar conseguir un DSM con igual o superior
calidad, pues en caso contrario estaríamos hablando de una upconveision DSM
a DCMD que no aportaría nada de calidad.

» DCMD
La versión 1.2 de las especificaciones usará secuencias de ficheros TIFF de 16
bits lineales (anteriormente, eran dpx de 10 bits logarítmicos, de calidad similar).
Hay que señalar varias cosas. En primer lugar, la profundidad de color real
es de 12 bits, no de 16. Pero sucede que los ficheros TIFF son de 8 o de 16
bits, no existiendo el específico de 12 bits. Se dice (página 29 del documento
referido) que esa información será colocada en los bits más signiñcativos (sic)
del formato, dejando los otros 4 bits en cero.
El espacio de color también difiere un poco. Siempre con muestreo completo,
la normativa DCI sigue la tradición del mundo cinematográfico de trabajar en
el espacio XYZ, ligeramente diferente al RGB.

» 297
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

No se admiten rasterizaciones ni relaciones de aspecto diferentes a 1:1, por


lo que el píxel siempre será cuadrado.
Por último, el fichero TIFF ya estará cacheado, es decir, tendrá la resolución
final de proyección, sin incluir ningún tipo de bandas negras.

>> Resolución y cadencia del DCMD


El DCI admite dos resoluciones: 4K y 2K. Cada una de ellas admite a su vez
dos relaciones de aspecto de pantalla: 2,39 y 1,85. En cuanto a la cadencia, se
mantiene la tradicional de los 24 fps, permitiendo que el 2K pueda correr a 48
fps si así lo desea el productor.

Nivel Ph Pv Relación de Relación de


aspecto de pantalla aspecto de píxel

1 4.096 1.716 239 1:1

1 3.996 2.160 1.85 1:1

2 2.048 858 2.39 1:1

2 1.998 1.080 1.85 1:1

» Cadencia 48 fps
No hay que confundir esta cadencia "doble" del formato 2K a 48 fps con la de la
estereoscopia, que es igualmente el doble al tratarse de dos flujos de imágenes,
pero que normalmente se nota como 24 (x 2) fps. Además, la frecuencia de re­
fresco o de proyección de la estetoscopia es triple, así que la cadencia de
proyección desde el servidor puede alcanzar los 144 fps (24 x 2 x 3).
El aumento de la cadencia, más incluso que la resolución, es quizá la parte
con más desarrollo del cine digital. La cadencia de 24 fps se estima pobre
para una correcta visualización, pero se normalizó en su tiempo buscando un
equilibrio entre calidad y coste del material fotoquímico. Con los modernos
sistemas digitales, el tema del coste no es importante, por lo que se espera que
en aquellas producciones que se rueden también en digital se vea cada vez más
los 48 fps como cadencia de rodaje. Y, quizás, en el futuro, se aumente a 72 fps
o superiores.

» 298
PARTE IV: DISTRIBUCIÓN

» Sonido DCI
En el caso del sonido, y para huir del lastre de licencias del sonido digital
tradicional, se ha optado por incluir un sonido siempre sin comprimir a lo largo
de toda la cadena (DCMD, DCP y DCMD*).
El formato sería el estándar profesional PCM Wave Coding (ITU 3285 versión 1),
con 24 bits de profundidad y un muestreo de 48.000 o 96.000 hercios.
Se incluyen hasta 16 pistas de sonido. Actualmente se tienen asignadas 6 u
8, tal como sucede en las bandas sonoras actuales, dejando sin asignar el res­
to de canales para futuras opciones (se habla de salas con altavoces en el techo
y debajo de las butacas, para aumentar la sensación inmersiva).

AES n° par/ Etiqueta/


N° de canal Descripción
n° canal nombre

1/1 1 L/izquierda Altavoz pantalla izquierdo

1/2 2 R/derecha Altavoz pantalla derecho

2/1 3 C/centro Altavoz centro pantalla

2/2 4 LFE/pantalla Altavoces LFE (graves) pantalla

3/1 5 Ls/ambiente izquierdo Altavoz lateral izquierdo

3/2 6 Rs/ambiente derecho Altavoz lateral derecho

4/1 7 Lc/centro izquierda Altavoz entre el lateral izquierdo y


la pantalla

4/2 8 Rc/centro derecha Altavoz entre el lateral derecho y la


pantalla

5/1 9 Sin definir

5/2 10 Sin definir/definido por el usuario

6/1 11 Sin definir/definido por el usuario

6/2 12 Sin definir/definido por el usuario

7/1 13 Sin definir/definido por el usuario

7/2 14 Sin definir/definido por el usuario

8/1 15 Sin definir/definido por el usuario

8/2 16 Sin definir/definido por el usuario

» 299
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

» DCP
El “empaquetado" de esta DCMD incluye tres aspectos: una inevitable compre­
sión, la unión del audio, el sonido y los metadatos y la encriptación e inclusión
de DRM para la seguridad.

» Compresión en DCP
Para facilitar archivos manejables, los varios TeraBytes que puede ocupar el
DCMD se han de comprimir para realizar el delivery digital a un bitrate mane­
jable.
La compresión se realizará siempre bajo el códec jpeg2000 (ISO/IEEC15444-1).
Éste es un códec de última generación, que usa algoritmos basados en ondículas
(wavelets) como muchos códecs mpeg4, pero que es por definición intraframe.
Ni el DCI ni el jpeg2000 admiten la codificación interframe.

En ocasiones, para distinguir la normativa DCI de otras opciones de proyección en salas,


se habla de “opción jpeg" o "jp2000" frente a opción "mpeg'', pensando en soluciones
mpeg2 o mpeg4.

La codificación por ondículas puede ser muy complicada, atendiendo a muchos


parámetros. La especificación DCI dedica su espacio a intentar constreñirla a
un mínimo de calidad, permitiendo un mayor o menor bitrate en función de la
duración del contenido, de su resolución y de su cadencia.

Ejemplo de capacidad de almacenamiento para una sesión de 3 horas


(12 bits @ 24 FPS)

Tasa 3 horas 3 horas 20 minutos Identificador 3 Total para


de datos de imagen de audio de preshow Subtítulos de tiempo 3 horas
(Mbits/sec) (GBytes) (GBytes) (GBytes) (GBytes) (GBytes) (GBytes)
250 337.500 2.074 37.500 0.300 0.001 377.374
200 270.000 2.074 30.000 0.300 0.001 302.374
125 168.750 2.074 18.750 0.400 0.001 189.974
100 135.000 2.074 15.000 0.600 0.001 152.674
80 108.000 2.074 12.000 0.800 0.001 122.874

» 300
PARTE IV: DISTRIBUCIÓN

Sí propone claramente el peso máximo por fotograma:

• A 2K/24 fps será de un máximo de 1.302.083 Bytes por fotograma.


• A 2K/48 fps será de 651.041 Bytes.
• A 4K/24 fps será también de 1.302.083 b/f.

Esto, incluyendo el sonido sin comprimir y el metadata, deberá dejar un


bitrate máximo de unos 250 mbs. Este dato es importante para los fabricantes
de servidores.

» Seguridad
La seguridad de los sistemas DCI despertó la desconfianza de muchos exhibido-
res. El archivo DCP debe ir encriptado y sólo se puede acceder a su reproducción
si el exhibidor recibe permiso del distribuidor a través de una clave de control
(KDM, Key Delivery Manager). Algunos exhibidores veían con recelo el hecho
de que eso suponía un control externo de sus cabinas de proyección, o un in­
tento de los distribuidores de tener datos en tiempo real de su negocio. Algunos
distribuidores, por su parte, no entendían tanta suspicacia... Está claro que el
negocio del cine, como todos los negocios, se basa en la confianza de los agentes
implicados.
Otra de las características iniciales de la recomendación DCI era la existencia
de un cableado especial entre el servidor y el proyector, para evitar fugas de
señal. Y la exigencia de que sólo se pudiera proyectar contenidos desde un
servidor en concreto. Muchos pensaban que este cable era otra forma de control,
pues sin KDM podría inutilizar toda una cabina, incluyendo el uso de otras
entradas para el proyector. Se perdía también la posibilidad de una gestión
más eficiente de las salas en complejos multiplex o megaplex, pues con copias
virtuales, no físicas, se puede cambiar de sala un contenido con sólo pulsar un
botón, optimizando los recursos del exhibidor: la más solicitada se exhibe en
la sala más grande, y los floppers (películas de gran presupuesto que fracasan)
pasan a la pequeña.
Actualmente se ha avanzado en este sistema y se permite una combinación
de proyector y servidor seguro sin necesidad de un cable, además de la nor­
malización de un sistema de gestión en función del tipo de cine, bien sea para
una sola sala (SMS, Screen Management System) o de varias (TMS, Theatei
Management System).
Además del KDM, las copias virtuales DCP pueden incluir marcas forenses,
tanto en el audio como en el vídeo, para identificación de la fuente de una
posible copia pirata.

» 301
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

>> Polémica sobre la seguridad y el pirateo


Todas estas medidas están bien para dificultar la clonación de los DCP que
son archivos de máxima calidad (la imposibilidad total de piratear un archivo
no existe). Lo que muchos exhibidores no acababan de ver claro es que este
sistema podría evitar una nueva fuente de fuga de contenidos ilegales, pero no
elimina en modo alguno las ya existentes.
En efecto, la fuente del pirateo actual son claramente dos: o bien previa a
la distribución en salas, a través de una fuga en la productora o distribuidora;
o bien mediante el rudimentario sistema de colocar una cámara delante de
la pantalla de un cine (pantallazo o screening). Ninguno de los protocolos del
DCI previene estas dos fuentes, por lo que la gente se pregunta qué aporta el
complejo y caro sistema de protección DCI.
Las marcas forenses, que ya existen en las copias positivadas, pueden ser
un sistema muy efectivo para prevenir estas dos fuentes, pero por ahora no han
dado muchos resultados.

Mi opinión particular es que resulta tecnológicamente imposible o económicamente


inviable prevenir el pirateo en un mundo digital. No es pues una cuestión técnica, sino
puramente legal y/o policial. Protocolos serios de trabajo, contratos de confidencialidad
y confianza y cooperación entre los diversos agentes también contribuyen a ello.

» 302
PARTE IV: DISTRIBUCIÓN

» Transmisión de datos
Los DCP se pueden transmitir al cine mediante cualquier sistema: bien en discos
duros, bien a través de internet o bien por satélite.
La transmisión por satélite da la posibilidad, hasta ahora lejana, de estrenos
mundiales el mismo día, desde un único centro emisor planetario. Con todo lo
que ello significa. Para algunos, la emisión vía satélite implica que las majors
"emitirán" unilateralmente sus contenidos de forma global desde una antena
situada en Hollywood, California. Antena de la que serán propietarios, claro.
¿Un cerrojo más a su ya mayoritario control de la distribución?

» La proyección
Además de la imagen y los 16 canales de sonido, se incluye información de
cabecera, un conteo de fotogramas, subtítulos, marcas forenses y poco más.

/ Flujo de trabajo del cine digital /

Masterización Transporte Almacenamiento Proyección

Desencríptar Reescalar

Reescalar

» 303
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

Los servidores deben ser seguros, robustos y con capacidad de almacenar


y distribuir el flujo de datos requerido. DCI distingue entre almacenamiento
(storage) y dispositivo de reproducción (Media Block), que pueden situarse en
un solo dispositivo o por separado.
Deja a los proyectores la capacidad de reescalar señales de 2K a 4K y vice­
versa. También en esta primera etapa admite, pero no recomienda, conexiones
de 10 bits de flujo entre el servidor y el proyector y no los 12 nativos.
El operador de cabina podrá organizar sus listas de reproducción (playlist)
cómodamente, incluyendo el contenido preshow (tráilers y publicidad). Podrá in­
cluso organizar toda la parrilla de programación con semanas de antelación, lo
que simplifica notablemente su trabajo. Incluso, los SMS y TMS pueden con­
trolar aspectos como el apagado y encendido de luces, la apertura del telón, la
calidad de la proyección en función del estado de la lámpara y la luz ambiente
y otra particularidades de una sala de cine.

>> Preshow y contenidos alternativos


Otra polémica inicial del DCI era si sólo iba a ser posible la proyección de
contenidos DCI, dado el complicado sistema de seguridad basado en entradas
y salidas encriptadas. Los primeros proyectores DCI no incluían de serie otro
tipo de entradas. Sin embargo, y ante las protestas de expertos y exhibidores, la
actual versión 1.2 indica (página 80 del documento citado) que los proyectores no
deben impedir la existencia de otras entradas para la proyección de contenidos
alternativos.
Como contenidos alternativos se entiende otro tipo de señales diferentes al
servidor DCI. Puede ser un ordenador con conexión DVI, un reproductor DVD-HD
con conexión HDMI o una entrada normalizada HD-SDI para un magnetoscopio
profesional.
El preshow (tráilers, publicidad, etc.) puede entonces introducirse en el servi­
dor DCI como un contenido DCP lo que permitiría una elaboración más cómoda
de las listas de reproducción. O, bien puede utilizarse otro dispositivo como los
citados para su proyección. Esta opción permitiría un intercambio de ficheros
más flexible, pues al ocupar menos espacio y tener un flujo de datos menor
(8, 12, 25 mbs), se podrían transmitir incluso vía FTP o ADSL casi en tiempo
real.
Este tipo de entradas permite usar las salas de cine, además, para eventos
alternativos, como conferencias, mítines, presentación de productos, eventos
de empresa y un largo etcétera.

» 304
PARTE IV: DISTRIBUCIÓN

Contenidos alternativos y E-Cinema

Hasta ahora, las salas de cine se han usado preponderantemente para la pro­
yección de largometrajes de ficción, y ocasionalmente para documentales, con
una duración media de 90 minutos.
Pero con la instalación de proyectores digitales en las salas de cine, se
cambia completamente el paradigma. Ahora una sala de cine puede acceder a
una oferta de contenidos mucho más amplia.

» Cine independiente
Hay que señalar, también, que las majors consideran "contenido alternativo"
cualquier largometraje que ellos no distribuyan. Pero es negar sentido comercial
a multitud de producciones de otros países. En ese sentido, no asociaría la
palabra "independiente” a cine pensado para públicos minoritarios, o cine no
mainstream, sino simplemente al cine no distribuido por las majors y que, por
tanto, es susceptible de utilizar otros estándares diferentes al DCI.
Una de las limitaciones de la distribución del cine tradicional es el alto coste
de producción y manejo de las copias positivadas. Un delivery digital posibilita
otro tipo de distribución, y otro tipo de relación con los distribuidores. Entre
otras cosas, se deja de pensar en "copias” y “semanas”, para pensar en “pases"
y “sesiones”, abriendo una nueva forma de optimizar las salas de exhibición
que, por lo general, y salvo contadas excepciones, se encuentran vacías la
mayor parte de su tiempo útil, pues la mayor parte de su taquilla se concentra
en días festivos y fines de semana y casi exclusivamente por las tardes.

No obstante, los que piensan que la distribución digital del contenido devolverá el
cine independiente a las salas, olvidan que es fundamental manejar la promoción y la
publicidad tanto o más que tradicionalmente. Y que además lucharán también contra el
resto de contenidos alternativos que se pueden ofrecer en salas.

» E-Cinema
Hasta hace poco existían dos corrientes en la proyección digital en cines. Por
un lado, la iniciativa DCI que se apropió indebidamente del nombre D-Cinema y
la asoció a sus especificaciones técnicas: 2K / 4K, 12 bits, compresión jpeg2000.
Por debajo de estas especificaciones, se definiría entonces el E-Cinema ("E”
de Electronic). Generalmente son proyectores con una resolución próxima al HD
Ready / SXGA / WXGA, y que en ocasiones se nombran como 1,3K, o 1,4K por
su resolución horizontal.

» 305
4. LA DISTRIBUCIÓN DIGITAL EN SALAS

Para muchos expertos, si el tamaño de la pantalla no es muy grande, y el pro­


yector tiene un contraste y una luminosidad correctas, la percepción visual pue­
de ser similar a la proyección tradicional (pues recordemos la enorme pérdida de
calidad que conlleva el proceso de laboratorio). Por esta razón, muchos defienden
el E-Cinema como una alternativa a los costosos sistemas de proyección pro­
puestos por la DCI. No sólo para el cine independiente, sino para soluciones de ví­
deos educativos, documentales, preshow, publicidad, eventos y un largo etcétera.
En este caso, para los contenidos se pueden usar estándares de compresión
ya conocidos, como el VC-1, el VC-3, el H.264 y otros similares. Usando la
compresión interframe, prohibida por el DCI, los ficheros resultan mucho más
pequeños y más manejables.
Si en vez de utilizar proyectores 1,3K aumentamos la resolución a los 1.080
(Full HD), la calidad de la proyección aumenta también considerablemente, sin
ser tan costoso como a 2K DCI.
En cualquier caso, es obvio que la calidad de la propuesta por el DCI es muy
superior a las iniciativas de E-Cinema. Es sólo la parte económica lo que se
pone en tela de juicio.

>> Emisión en directo


Un contenido que el DCI no contempla, naturalmente, es la emisión de eventos
en directo en las salas de cine.
Estas emisiones, por sus propias características, actualmente sólo se pueden
realizar por los canales tradicionales de distribución de televisión. Generalmen­
te, se trata de eventos deportivos o musicales que se retransmiten vía satélite a
las salas.
No supone una gran complicación técnica: basta una antena y un descodi-
ficador (generalmente encriptado) conectado al proyector. En caso de transmi­
siones de HDTY el códec más usado es el H.264.
Dado que la resolución máxima de la alta definición de televisión es 1.920
x 1.080, ésa será la resolución que se precise en el proyector. No hay por el
momento opción 2K DCI para los eventos en directo (live shows).

» Videojuegos
Otro de los contenidos propuestos para las salas de cine son los videojuegos,
que convierten las salas en lugares de competición en vivo.
Se espera un desarrollo muy amplio en este campo, pero está pendiente
de una apuesta de marketing que atraiga a los millones de aficionados a este
entretenimiento.

» 306
PARTE IV: DISTRIBUCIÓN

» Futuro próximo
Actualmente ya se están ensayando transmisiones estereoscópicas en directo.
Sucede sin embargo que ahora mismo no existe una estandarización para este
tipo de emisiones 3DTY por lo que productores y exhibidores se tienen que
poner de acuerdo para elegir algunas de las soluciones comerciales que ofrece
el mercado.
También se está ensayando la transmisión en directo a través de redes IR
Con redes de alta velocidad en este caso y por esta vía sí sería posible transmitir
contenidos con especificaciones DCI, como ya se ha demostrado.

Pero quizá lo más importante del E-Cinema y de la tecnología digital aplica­


da a la distribución es que cambiará sin duda la forma de entender el cine. Si
hasta ahora asociábamos esa palabra, "cine", a un determinado contenido (lar­
gometrajes de ficción, generalmente) y a un espacio (la sala de cine), ya estamos
viendo nuevos contenidos (deportes, series de televisión, videojuegos) que usan
el mismo local sin ser “cine”. Y paralelamente vemos cómo se consume más y
más “cine” fuera de su ámbito tradicional.
Éste es el cambio de paradigma, que afectará a toda la industria del audio­
visual, que habrá que observar y analizar en los próximos años.

» 307
» 308
ANEXOS
» 269
1. Resolución, definición,
percepción y MTF

En este libro se usa repetidamente la palabra "resolución”, que es intrínseca­


mente polisémica, en un único sentido: el número total de píxeles (o muestras)
de que se compone una imagen.
Comúnmente, sin embargo, la resolución de un sistema es un concepto que
se aplica a su ''definición”, o su "nitidez”, entendidas como reflejo de la realidad.
En muchos libros se habla de resolución en este sentido y se mide en el concepto
de "resolución óptica”, "líneas de resolución" (por milímetro) o "pares de líneas”
(line pairs). Esto se asocia comúnmente a las teorías de Nyquist y otros sobre
fiabilidad de un sistema, la Curva de Transferencia de Modulación (MTF del
inglés Modulation Transfer Function) e incluso la propia percepción humana.
¿Qué son estos conceptos? Intentaré resumirlos.

Resolución óptica en número de líneas

Este parámetro se ha usado tradicionalmente para medir la "resolución” o "niti­


dez” de una óptica en entornos fotoquímicos. No todas las ópticas son iguales.
Su propio diseño esférico incluso hace que esta "nitidez” varíe del centro de
la imagen a los extremos. Igualmente, la apertura del diafragma influye en la
nitidez: aperturas más abiertas son menos nítidas (softness) que las cerradas
(hardness), siempre con un límite. Usualmente, se entiende que la mayor nitidez
se hallará dos pasos de diafragma (stops) por encima de la apertura máxima del
objetivo (f 2.8, por ejemplo, si la apertura máxima es f 1.4).
Las pruebas ópticas se realizaban sobre estándares de emulsión, con una
determinada focal y diafragma, enfocando a “cartas de resolución" diseñadas
ex profeso. En esas cartas se imprimían líneas (blancas o negras) cada vez más
finas y con menor distancia entre ellas. Al revelar el negativo, se observaba
cuáles de estas líneas eran todavía distinguibles en el negativo, y cuáles se
entremezclaban fundiéndose en un color grisáceo. Este límite determinaba la
“resolución” de la óptica. Cuando se probaba con las mejores ópticas y en las

» 311
1. RESOLUCIÓN, DEFINICIÓN, PERCEPCIÓN Y MTF

mejores condiciones, y no se conseguía mejorar los resultados, se hablaba ya


de la "resolución" del negativo fotoquímico, que como hemos dicho, se estima
entre 150 y 180 líneas por milímetro, como máximo, en condiciones óptimas.

Pares de líneas

En muchos textos no se habla de líneas, sino de pares de líneas de resolución.


Esto puede parecer complicado, pero en realidad es puro sentido común.
Si quisiéramos dibujar 150 líneas negras de un milímetro de ancho sobre un
fondo blanco, no podríamos hacerlo justo una detrás de otra, pues no tendríamos
150 líneas, sino una única línea de 150 mm de ancho. Debemos dejar un espacio,
en blanco, para poder distinguirlas. Lo lógico sería que este espacio sea del
mismo grosor que la línea. De esta manera, obtendremos un cartón de 300mm
de ancho, con 150 líneas negras de un milímetro y 150 espacios (o líneas) en
blanco.
Un "par de líneas" sería entonces la unión entre la línea y el espacio que lo
separa de la siguiente.
El que sean en blanco y negro puros tampoco es casual, pues estos dos tonos
suponen la mayor diferencia de contraste posible.

El teorema de Nyquist

Este teorema siempre acaba apareciendo en algún momento y debe su nombre


al investigador que lo formuló, en los años treinta del pasado siglo, y que fue
demostrado con posterioridad por otros investigadores.
Básicamente, lo que viene a demostrar el teorema de muestreo de Nyquist
es que para que sea fidedigna una representación con respecto a la imagen
digital, se precisa, al menos, el doble número de muestras que las condiciones
originales.
Pensemos en esas 150 líneas negras sobre fondo blanco (300 líneas en total).
Si contamos con un sensor de 300 píxeles, en teoría podríamos tener una re­
presentación fidedigna de todas ellas. Pero sólo en teoría, pues para eso tendría
que coincidir cada línea blanca o negra con uno de los píxeles. Si hay una pe­
queña inclinación, o una micra del negro se representa en el píxel del blanco, la
representación no sería fidedigna 100 %.

» 312
ANEXOS

Es por eso que precisaremos, al menos, del doble de píxeles que de líneas para
una representación fiable. O dicho de otro modo, a partir de la mitad del número
de muestras (píxeles, en este caso) totales, la capacidad de representación
fidedigna cae en picado.
También se aplica en el mundo del sonido. El oído humano es capaz de distinguir
frecuencias sonoras entre 50 y 20.000 herzios, por lo que un sonido profesional siempre
tomará, como mínimo, el doble de muestras (44.100 en el caso de la música, y 48.000 en
el mundo de la televisión profesional).

Resolución fotoquímica y digital

Si hemos seguido el hilo del argumento, podremos deducir entonces que la


“resolución” de un fotograma fotoquímico de 35 mm (cerca de 4.000 líneas
horizontales) es muy superior a una cámara de Alta Definición tradicional (1.920
píxeles en horizontal), pues el teorema de Nyquist deja a la Alta Definición en
un resolución óptima máxima de 860 líneas.
Sin embargo, muchos profesionales han notado que la “nitidez” aparente de
las cámaras de HD es incluso superior a la del cine. Esto lo han comprobado sobre
todo los profesionales del maquillaje, que han de ser mucho más cuidadosos y
ligeros" si trabajan en digital que si lo hacen en fotoquímico, donde las capas
de maquillaje pueden ser más gruesas sin que se noten.
Hay varias razones para eso. Una de ellas es que el negativo de 35 mm
no divide la imagen en píxeles cuadrados en filas y columnas uniformes, sino
que las partículas fotosensibles se distribuyen aleatoriamente sobre el soporte.
Esto significa que el fotograma 1 y el fotograma 2 serán diferentes en su re­
presentación de la realidad (estamos pensando en términos de micrones; pero
sí, son diferentes). Otra razón sería que el negativo es un soporte físico que
corre mecánicamente dentro de la cámara. El propio movimiento y la mayor o
menor tensión lograda por sus mecanismos interiores, tanto en el rodaje como
en la proyección, hace que varíen ligeramente, una vez más, los fotogramas
consecutivos (lo que técnicamente se conoce como "trepidación").
Todo ello lleva a que, a la postre, nuestro ojo pueda llegar a ver más “nítido”
una imagen HD que una de 35 mm en movimiento, a pesar de contar con una
"resolución óptica" inferior.
Esta diferencia de tecnología también influye en temas como el ruido o el grano (más
"orgánico" en el fotoquímico, según algunos) o en la aparición del aliasing o moaré,
propio del mundo digital e inexistente en el fotoquímico. Y por esta misma razón son tan
interesantes los sensores con sobremuestreo.

» 313
1. RESOLUCIÓN, DEFINICIÓN, PERCEPCIÓN Y MTF

MTF
i
El epígrafe anterior es importante para entender que la “resolución óptica” o
"definición" o, si se quiere, la “definición" total de una imagen no viene deter­
minado únicamente por las especificaciones físicas de su soporte (el fotograma
fílmico o el sensor captador digital).
Este concepto es lo que se conoce como la Modulation Transfer Function o
MTE Bajo ese término se encierra algo muy simple: cualquier proceso intermedio
altera la calidad total de un sistema. Y lo hace de manera multiplicativa o expo­
nencial.
Pensemos en una cámara digital, por ejemplo. En este libro nos fijamos prin­
cipalmente en las características del sensor y del formato de grabación para
definirlo. Sin embargo, entre la imagen y el espectador se interponen muchas
etapas, entre ellas: las condiciones atmosféricas (niebla, contaminación, hume­
dad, calima...), los filtros, la lente, el filtro antialiasing, el filtro IR, el procesador
A/D, la calidad del compresor, la calidad de la interfaz de captura, la calidad
del software de edición y postproducción, la calidad del volcado o filmado, la
calidad de las copias, la calidad del sistema de proyección o de visionado...
Sucede que todos estos procesos son acumulativos. Si, por ejemplo, hemos
usado una lente defectuosa, toda la calidad se resentirá en un tanto por ciento.
Si luego realizamos una compresión defectuosa, que también hace perder otro
tanto por ciento, tendremos que multiplicar estas pérdidas.
Incluso en las mejores condiciones, es difícil obtener el 100 % de la calidad
teórica de un sistema. Para algunos, incluso un 90 % es mucho, y aceptan como
algo normal un 60 %. Pero si no somos cuidadosos en nuestro trabajo, en todos
y cada uno de los procesos, este mínimo se puede resentir aún más, con lo que
podremos quedarnos en un 20 o un 10 % de la calidad posible.

Pensemos que si hay cinco factores, cada uno con un MTF del 90 %, tendremos finalmente
un MTF global de 0.95, es decir, de menos de un 60 %. Pero si sólo un factor tiene un MTF
menor, pongamos un 60%, el resultado sería 0.94 x 0.6 = 0,39, menos de un 40%. De
ahí la importancia de cuidar todos y cada uno de los procesos en nuestro flujo de trabajo.

El caso del fotoquímico es igualmente conocido: entre el negativo original y


la copia que finalmente se proyecta en pantalla hay una serie de pasos que
suponen una pérdida de entre el 65 y el 75 % de la calidad original.
Ahí, evidentemente, es donde entra el factor más importante de los que
determinan la calidad de un trabajo: el factor humano, que entendemos como
“percepción".

» 314
«NEXOS

Percepción

A lo largo de todo el libro hablamos de "calidad técnica” u "objetiva”. Pero en


cualquier proceso nunca podremos olvidarnos de un aspecto aparentemente
personal, pero igualmente influyente y cuantiflcable, como es la percepción de
la imágenes por parte del espectador.
La percepción influye a la postre en cualquier resultado técnico. ¿De qué nos
sirve tener una gran definición en nuestra imagen, si luego lo vamos a ver en
la pantalla de nuestro móvil, cuya definición es peor que mediocre? El tamaño
de la pantalla de proyección también influye. Si emitimos una imagen SD en un
monitor SD, la veremos adecuadamente, nítida. Pero si la mostramos sin más
en un monitor HD, enseguida la notaremos como “falta de definición” o incluso
“desenfocada”. Y sin embargo en los dos casos tenemos la misma “resolución
objetiva”.
Pasa lo mismo con el cine: no es lo mismo proyectar una imagen en una
pequeña sala de cine con una pantalla de siete metros de base, o hacerlo en
una gran sala con más de veinte metros de largo.
Por esta razón, en cualquier trabajo profesional, lo primero que nos debemos
preguntar es cómo lo verá el público. Y a partir de ahí podremos diseñar un flujo
de trabajo adecuado.

» 315
» 316
2. Visualización de la señal

Uno de los problemas más comunes en el trabajo digital es la correcta moni-


torización de la imagen. Sólo los monitores perfectamente calibrados pueden
asegurarnos un flujo de trabajo correcto. Pero esta opción no siempre es posible,
sobre todo en rodaje. Por descontado, los visores propios de las cámaras, dado
su pequeño tamaño y construcción, sólo son fiables para el encuadre y no para
una dirección de fotografía de precisión.
Para un control más preciso de la señal digital se utilizan los visores (scopes)
de la información propiamente dicha. Hay cuatro formas comunes para ello:

• Forma de ondas
• El vectorscopio
• Color 3D
• Elhistograma

Los dos primeros son usuales en la televisión, tanto analógica como digital.
Si hablamos de herramientas físicas, existe el monitor de forma de ondas, que
aúna en un mismo aparato tanto la forma de ondas como el vectorscopio.
Los dos últimos son comunes en los equipos y el software de postproducción
avanzados.

Forma de ondas

La forma de ondas (waveform) nos da información, fundamentalmente, de la


intensidad de la señal. El eje horizontal corresponde a las líneas de resolución y
el vertical propiamente a la intensidad de cada línea. Si hablamos de una señal
de ocho bits, por ejemplo, la base correspondería a 0 y el punto máximo a 255.
El broadcast safe o señal televisiva estándar se sitúa entre 16 y 235.

» 317
2. VISUALIZACIÓN DE LA SEÑAL

Podemos seleccionar independien­


/ Forma de ondas /
temente la luminancia o la crominan-
cia (en el caso de señales YUV) o los
canales rojo, verde y azul (en el caso
de señales RGB); o varios de ellos a la
vez.
La forma de ondas que nos muestra
un monitor (MFO, WM) será una he­
rramienta muy fiable para evitar que
la señal “clipee”, es decir, que llegue
a su valor máximo de saturación. En
ese sentido es mucho más fiable que
el visor de una cámara, por lo que mu­
chos operadores trabajan siempre con
un MFO en rodaje. También es impor­
tante que los negros estén "en su sitio", es decir, pegados al valor 0 (16, en el
caso de la televisión), que conocemos como ‘'pedestal'’.
Una señal “correcta” en un MFO se verá con los negros situados en el pedes­
tal, sin separación; con unas zonas grises intermedias ricas en matices y con los
blancos en las partes altas, pero siempre sin llegar a tocar el máximo. Cuanto
mayor variedad de intensidades nos muestra, más “rica" será nuestra señal y
más oportunidades de trabajo en postproducción nos permitirá. Una señal "po­
bre" tendrá un rango limitado, sin aprovechar los límites. Por lo general (excepto
en casos concretos de imágenes que en realidad ya se muestran así), corres­
ponderá a un mal diafragmado en cámara, a una imagen apagada, sin brillo.

Vectorscopio

El vectorscopio (vector scope) nos dará información tanto del tono de color
dominante como de la saturación.
Se presenta como un círculo que corresponde a la representación del círculo
cromático que ya conocemos, con los colores primarios (rojo, verde y azul) y sus
complementarios (cian, magenta y amarillo) situados de manera opuesta.
El vectorscopio complementa la información del MFO dándonos información
sobre la dominante de color de la imagen (el arco de los 360° donde hay más
información), así como de la saturación de los mismos (menor en la parte central,
mayor en la exterior).

» 318
ANEXOS

Sirve también para controlar el ex­


/ Vectorscopio /
ceso de saturación de color. Si la señal
Rojo
sobrepasa el círculo exterior, estaría­
mos ante una señal “ilegal" que no se
visualizaría correctamente en un mo­
nitor.

Color 30

Las dos herramientas anteriores son


complementarias, han de usarse con­
juntamente y por eso el mismo apara­
to puede mostrarlas indistintamente
(véase gráfico página 398, abajo).
El software de postproducción ha
añadido una herramienta muy útil que
se conoce indistintamente como Color
3D, Color Scope 3D u otra manera similar (el nombre y el diseño varían en función
del fabricante).
Aúna la información de la forma de ondas (intensidad) y del vectorscopio
(tono y saturación) en forma de dos conos unidos por las bases a través de un
eje central. Nos permite así controlar los tres valores de un píxel: Tono (Hue),
Saturación (Saturation) y Luminosidad (Lightness), abreviadamente conocidos
como HSL.
Cada píxel de una imagen ocupará un lugar en el espacio tridimensional en
forma de doble cono. El tono determinará, como en el vectorscopio, su posición
alrededor del círculo del cono, alrededor del eje. Su saturación, la mayor o menor
distancia del eje central. Y la luminosidad señalará su posición con respecto a
la base del eje: cerca para valores bajos, lejos para valores altos.

Histograma

El histograma es tradicional en el mundo de la fotografía y nos da información


sobre la densidad de información en cada una de las intensidades. No es usual,
pero cada vez se ve más en muchas cámaras de vídeo y cine digital

» 319
2. VISUALIZACIÓN DE LA SEÑAL

En el eje horizontal tenemos los va­


/ Histograma /
lores de intensidad (de 0 a 255 en el
caso de una señal de 8 bits). Y las cur­
vas formadas por el eje horizontal nos
señalan la cantidad de píxeles que en­
contramos en ese valor en concreto.
De manera similar al MFO, una lí­
nea truncada en el valor superior in­
dicaría que la señal ha clipeado. Y la
falta de valores en la parte inferior nos
indica una señal sobrexpuesta, lavada
o con negros poco consistentes.
Una señal “rica" en el histograma
tendrá variedad en todos los valores,
pero principlamente en los medios. Ge­
neralmente (pero no siempre, pues todo depende de la imagen en concreto)
adopta forma de campana.
Al igual que en MFO, se pueden monitorizar independientemente los dife­
rentes canales.

» 320
3. La rasterizacicm

Una de las cosas que puede sorprender en las especificaciones de grabación de


algunas cámaras es una resolución de 1.440 x 1.080, o de 960 x 720. Sucede en
el popular formato HDV pero también en el HDCAM o en el DVCPRO. ¿Cómo es
posible esto, si hemos dicho que sólo existen dos formatos HD estándares, que
cuentan con 1.920 y 1.280 píxeles horizontales, respectivamente?
Estos formatos comerciales aplican el proceso conocido como "rasterización”,
que es también una forma de submuestreo (subsampling). El objeto, una vez
más, es reducir el número total de bits, de flujo de datos, que nos proporciona.
Raster es el vocablo inglés para "rejilla" o "malla”. Pero no se refiere aquí a
la malla total de píxeles, sino más bien a un “rastrillado" de esta imagen total.
Con el objetivo de reducir el flujo de datos de las señales de HD, estas cámaras
toman no 1.920 muestras, sino realmente sólo 1.440 (o 960 muestras en vez de
1.280, en el otro formato HD). Pero se considera que estas muestras abarcan
la totalidad de la imagen. La base técnica es considerar cada una de estas
muestras, cada uno de estos píxeles, como un formato “no cuadrado”, que se
explica en el anexo siguiente.
En cualquier caso, la rasterización es una solución comercial, no estándar,
que aparece en algunos formatos comerciales de manera interna. Para asegurar
su compatibilidad total con el resto de la cadena HDTV tanto el hardware como
el software deben reconocer este proceso de ráster y permitir su tratamiento
como una señal completa, no rasterizada.

Si una cámara con formato HDV 1.440, por ejemplo, ofrece una salida HD-SDi, inter­
namente "desrasteriza'' la información para ofrecer una señal completa HDTV 1.920 x
1.080.

Del mismo modo, la mayoría de los programas de edición y postproducción, al


reconocer un formato rasterizado, automáticamente lo muestran con su relación
de aspecto original.

» 321
3. LA RASTERIZACIÓN

En ocasiones, si el software no lo detecta automáticamente, siempre habrá una posibi­


lidad que permita un visionado correcto, como seleccionar el PAR 1,33 o la opción 16/9,
u otra.

Por descontado, una señal rasterizada se considera de peor calidad que una
señal completa (Full Ráster).

» 322
4. Relación de aspecto del píxel
( P í x e l A s p e c t R a t l o , PAR)

PAR y Ráster

La modificación de la relación del as­


/ Relación de aspecto del píxel (PAR) /
pecto del píxel está también asocia­
da al concepto de rasterización. Has­
ta ahora, hemos dado por supuesto
que el píxel tiene una forma cuadrada Píxel cuadrado
(square). Es decir, que su propia rela­ (square)
ción de aspecto es 1:1. Sin embargo, PAR 1:1

también podemos considerar el píxel


con una relación de aspecto diferente,
rectangular (non square). En ese caso, Píxel rectangular
la relación de aspecto sería, por ejem­ (non square)
PAR 1:1,33
plo, de 1:1,33.
Esta información sobre el píxel as­
pect ratio se almacena también como -------- ---------- —------- ----------------——------
metadata en el fichero, por lo que el reproductor entiende que ha de “estirar’’
la imagen para mostrar su verdadera proporción: si multiplicamos 1.440 x 1,33
obtenemos los esperados 1.920. (En el caso del otro formato, 960 x 4/3 también
equivale a 1.280.) En otras ocasiones, seremos nosotros quienes determinemos
en algún setting que el software interprete o no el píxel como cuadrado. En caso
contrario, hay que tener en cuenta que un formato rasterizado presentará abe­
rraciones ópticas.
Es, de alguna manera, el mismo proceso de la imagen anamórfica en cine.
En este caso, a la hora de rodar, se instala una óptica especial que "estrecha” la
imagen en el negativo y, posteriormente, a la hora de proyectarla en sala precisa
también de una lente inversa que “expande” la imagen para que todo tenga la
proporción correcta.
Pero este proceso no es óptico en nuestro caso, sino electrónico.

» 323
4. RELACIÓN DE ASPECTO DEL PÍXEL (PÍXEL ASPECT RATIO, PAR)

También es posible rodar con ópticas


anamórficas en HD, independientemen­
te de la presencia o no de rasterización.

Pérdida de calidad
v/s e c o n o m í a

Como ya hemos indicado, un PAR no


cuadrado supone una pérdida de cali­
dad, pues no obtenemos exactamen­
te 1.920 muestras, sino 1.440. Pero al
mismo tiempo se logra, una vez más,
reducir el alto flujo de datos de la señal
1.080 Concretamente, lo reducimos
un 33 %.
Además de ser útil para su almace­
namiento, también lo es para una dis­
tribución de la señal, pues aprovecha
mejor el ancho de banda disponible.

3:1:1

Se considera que una resolución rasterizada es una resolución HD “estándar",


añadiendo siempre que ha sufrido un proceso de rasterización o subsampling.
A veces se nota este proceso con las siglas 3:l:lo3:2:2o similares (dependiendo
también de si existe rasterización vertical o no). En este caso, el 3 significa que
no se toma el muestro completo de 1.920 píxeles (4), sino sólo tres cuartas partes,
1.440 (3).

Futuro Full Ráster

La rasterización no suele plantear problemas excepto, en ocasiones, en pro­


gramas de postproducción que pueden interpretar siempre por defecto el píxel

» 324
ANEXOS

como cuadrado. Hay que tenerlo en cuenta en procesos de render, exportaciones


e importaciones.
Afortunadamente, los nuevos equipamientos ya empiezan a obviar el tema
de la rasterización en HD, y muchas nuevas cámaras en el mercado ya ofrecen
los 1.920 píxeles nativos, sin submuestreo. Un ejemplo es el formato XDCAM-
EX, similar al HDV pero con la opción 1.920 completa y otra rasterizada 1.440.
La primera se identifica con la obviedad de Full Ráster. Obviedad porque, de no
especificarse lo contrario, todos los formatos son Full Ráster por definición.
El motivo, una vez más, es la mejora en los sistemas de almacenamiento
que permiten manejar un flujo de datos superior. El abandono de los sistemas
lineales con cinta, limitados físicamente en su flujo de datos, permite que la
rasterización empiece a ser una solución del pasado.

Otros non square PAR

Como hemos visto, la rasterización im­


/ PAR 1,07 (SD PAL) /
plica el uso de una relación de aspecto
en el píxel no cuadrada. Pero no es el
único caso. En SD PAL, la señal digi­
tal tiene una resolución de 720 x 576.
Si calculamos su relación de aspecto,
vemos que no es exactamente de 4/3, El estándar
sino 5/4. Realmente, la resolución co­ digital SD PAL
tiene un PAR
rrecta sería 768 x 576 (y algunos pro­ non square
gramas lo entienden siempre así), pero
por una serie de cuestiones técnicas, 768 x 576 —
en el salto del analógico al digital se Monitorado
en TV
estandarizó la primera. En ese caso, se
entiende que el píxel SD PAL tampo­
co es exactamente cuadrado, sino que
tiene un píxel aspect ratio de 1.07.
Esta diferencia es casi inapreciable ópticamente, pero puede producir pe­
queñas aberraciones si se trabaja en la misma línea de tiempo con ficheros
y archivos con PAR cuadrado, como fotografías. Hay que ser cuidadoso en su
importación.

» 325
4. RELACIÓN DE ASPECTO DEL PÍXEL (PÍXEL ASPECT RATIO, PAR)

Cine digital PAR 1:1

En el caso del cine digital, siempre se trabaja con píxel cuadrado 1:1. Tanto en
producción como en distribución, pues las recomendaciones DCI de distribu­
ción en salas entienden que los ficheros DCMP de distribución (copia digital
empaquetada, Digital Cinema Mastei Packing) siempre tendrán píxel cuadrado.
Técnicamente, y dado que el formato contenedor es siempre el mismo, im­
plica el uso de bandas horizontales y verticales, o bien un recorte; y por tanto
un desaprovechamiento tanto del formato como de la proyección. Pero en este
caso, lo que se quiere evitar es el uso de diferentes ópticas (anamórficas o no)
en los proyectores digitales, así como errores en la descodificación de los DCMP

» 326
5. Barridos PSF, PN y otros

Hemos visto que existen dos tipos de barrido o lecturas del cuadro (frame): in-
terlazada o progresiva, que identificamos con las iniciales i/p, respectivamente.
Sin embargo, en ocasiones, junto al número de la cadencia, no aparecen
estas dos letras, sino otras como PSF; PN o similares: 25 psf, 24 PN...
Generalmente, se trata de barridos progresivos guardados de manera in-
terlazada, y las diferentes siglas son marcas comerciales (registradas) de los
diferentes fabricantes. PSE por ejemplo, es una marca de Sony, y PN es de
Panasonic.
En cualquier caso, para estas u otras siglas que puedan aparecer en el futuro,
siempre es conveniente recurrir a las especificaciones y manuales de las casas
fabricantes.

PSF

PSF son las siglas de Progressive Segmented Frame (cuadro progresivo seg­
mentado). Es una solución que Sony ha introducido en el mercado con objeto
de armonizar mejor los sistemas interlazados (propios de la televisión) con los
progresivos, propios del cine. La grabación psf supone una captación progresiva
pero una grabación interlazada. Es decir: la imagen se divide en dos campos
como en el sistema interlazado, pero la captación de estos dos campos ha sido
realizada al mismo tiempo, de manera progresiva.
A todos los efectos, un fichero psf se considera progresivo.

» 327
5. BARRIDOS PSF, PN Y OTROS

PN

Siglas de Progressive Native, en este caso una innovación de Panasonic.


El origen reside en el códec conocido como DVCPro HD o DVCPro 100 (pues
corre a 100 mbs), la solución tradicional de Panasonic para el HD (si bien ac­
tualmente está migrando hacia el códec AVC-HD).
El DVCPro-HD tiene la particularidad de que, para intentar la mayor compati­
bilidad de cadencias posibles, siempre captura el máximo: actualmente, 60 ips.
Sin embargo, si en las opciones de la cámara hemos seleccionado una cadencia
de 50ips, el fichero sólo nos mostrará esos 50 campos, desechando el resto.
Tradicionalmente, Panasonic siempre apostó por el 720 progresivo como for­
mato de HD. Sin embargo, en los últimos años ha introducido ya la grabación
de 1.080 En este caso, intentar grabar 60 ips progresivos de 1.080 manteniendo
el mismo bitrate, 100 mbs, exigía un esfuerzo muy superior de compresión. Por
esa razón, desarrolló la opción PN para las cadencias de 24/25 ips. En este
caso, y dentro del mismo formato DVCPro 100, si activamos la opción 25 PN le
decimos que capture (y comprima) sólo 25 imágenes progresivas, y no 60, como
era lo habitual. Al tener que comprimir menos imágenes, obtenemos una mayor
calidad.

25P OVER 50T

En los últimos equipamientos también de Panasonic, esta opción equivale al


PSF de Sony: se capta en progresivo, pero se graba en interlazado, dividiendo el
fotograma en dos campos.

PA

Una vez más, en algunos equipamientos Panasonic y no de otras marcas, se


habia de un formato progresivo 24PA En este caso es puramente progresivo, sin
grabación interlazada, y se refiere a una diferencia con el 24P a secas a la hora
de realizar el proceso pull-down. La A añadida se refiere a Advanced Pulldown
(véase el anexo dedicado a este tema).

» 328
Al hablar de la cuantificación en bits, hemos visto que a cada aumento de luz
en el sensor se produce un aumento en el número asociado entre 0 y 255 (para 8
bits), y lo hace de manera proporcional o lineal: si tenemos un nivel bajo de luz
correspondiente a un valor X, al doblar la cantidad de luz tendremos un valor
2X.
Dicho de otro modo, si partimos del nivel 0 (sin luz) y aumentamos un 15 %
la intensidad de la luz, el número resultante en 8 bits sería 39 (aprox.). Si
aumentamos otro 15 %, tendríamos un valor de 77, y así sucesivamente.

Fotoquímico logarítmico

Sucede sin embargo que el negativo fotoquímico no se comporta así. En función


de la cantidad de luz entrante, tendrá más o menos sensibilidad. En el mismo
ejemplo, si estamos en el nivel 0 (diafragma cerrado) y dejamos entrar un 15 %
más de luz, señalará una cantidad, x. Pero si aumentamos el doble, al 30 %, no
será necesariamente 2x. Esto es lo que se conoce como "respuesta logarítmica".

» 329
6. CODIFICACIÓN LINEAL Y LOGARÍTMICA

Diferencias en la respuesta

Fotográficamente hablando, esta característica del fotoquímico es lo que nos


permite jugar con mayores valores (pasos de diafragma, stops) en las partes
altas de la imagen.
Por esa razón, es común que un operador, si trabaja con fotoquímico, marque
un diafragma para la exposición y sea consciente, además, de que siempre
podrá recuperar "forzando" en el laboratorio uno o dos stops en las partes altas.
Sin embargo, con cámaras digitales eso no es posible, pues llegado el valor
máximo (255), cualquier rango de luz superior también se "clipea” en ese nivel.
Luego, no será posible "bajarlo" en postproducción, pues, perdida la información
de color, sólo tendremos gamas de grises.

Captación logarítmica

Sucede sin embargo, que nuestro ojo es también logarítmico y tiene, como el
negativo, una mejor respuesta en “altas luces" que en bajas. A plena luz del
día, podemos distinguir gran cantidad de matices de blancos y azules en un
cielo con nubes. Pero cuando oscurece, como dice el dicho, “todos los gatos son
pardos”.
Para intentar simular esta naturalidad, y además contar con algunos stops
más, algunas cámaras digitales de alta gama pueden ofrecer captar igualmente
en logarítmico o una simulación logarítmica (cada solución es diferente).

Monitorado y LUTs

El primer problema que se ha de plantear es el de la monitorización. Desgra­


ciadamente, no existen monitores “logarítmicos", sino que todos ellos son de
respuesta lineal. Si mostramos un fichero logarítmico en un monitor, sin más,
veremos una imagen con un contraste muy diferente y con variaciones en la
gama cromática.
Para poder verlo correctamente, tendremos que usar una LUT (Look Up Table,
o tabla de conversión). Una LUT es un pequeño archivo de texto de generalmente
pocas líneas que le dice a nuestro ordenador (y éste al monitor) cómo interpretar

» 330
ANEXOS

el formato. Tiene que decirle, básicamente, qué nivel correspondería al negro


absoluto (0), al gris medio (178) y al blanco absoluto (255) en nuestro monitor de
8 bits. Y convertir los valores de una manera lineal para que el operador pueda
trabajar de manera directa e intuitiva.
Las LUTs son también imprescindibles para un correcto visionado de toda la
información que nos ofrece una señal de 10 o 12 bits en un monitor común de 8
bits.

Todos los monitores y proyectores digitales actuales trabajan a 8 bits, pues es el estándar
informático. Pero empiezan a aparecer monitores de 10 bits para trabajos de colori-
metría (colorgrading). Las especificaciones DCI de distribución también indican que los
proyectores deben ser de 12 bits.

Imagen logarítmica
Tal como se vería
en un monitor lineal

Digitallzación DPX

Ya hemos comentado que el escaneo del negativo se hace, generalmente, en


secuencias de ficheros dpx (digital picture eXchange). Estos ficheros son simi­
lares a cualquier otro formato gráfico (tif, tga, jpeg), pero con la característica
de que guardan la información logarítmicamente en 10 bits.
Lo que se pretende es reflejar en el fichero informático de 10 bits toda la
información que ofrece un negativo, que equivaldría a 12/13 bits lineales.
Los DPX precisan de LUTs para su visionado, pero tienen la ventaja de que su
uso está muy estandarizado tanto en el escaneado como en el filmado (transfer
desde/a 35 mm).

» 331
6. CODIFICACIÓN LINEAL Y LOGARÍTMICA

Los DPX tenían esa ventaja de cuantificación superior a 10 bits frente a los
formatos tradicionales de 8 bits. Actualmente, sin embargo, ya hay ficheros
informáticos que permiten mayor información, como los TIFFs de 16 bits. Por
esta razón, en ocasiones se puede optar por un escaneado lineal a 16 bits en
lugar de por uno logarítmico de 10 bits. Los dos son perfectamente válidos, sin
pérdida de información.

LUTs 3D

Una LUT siempre será necesaria para visionar un fichero de 10 bits RGB o
superior en un monitor de 8 bits RGB. Sirve una simple una corrección de gama
2D o en dos dimensiones o ejes de coordenadas.
Sin embargo, el espacio de color del cine no es exactamente RGB, sino
uno de un espectro algo superior (wide gamut) conocido como XYZ. Tiene una
colorimetría un poco más amplia y diferente que el estándar RGB. Para hacer
una perfecta correlación entre este espacio de color y el monitor RGB, hay que
trabajar teniendo en cuenta este espectro mayor en tres ejes (de ahí el 3D). Cada
color RGB está definido por unas coordenadas de tono, saturación y brillo (Hue,
Satuiation & Lightness, HSL) muy definidas, que difieren del HSL concreto del
espacio XYZ. De ahí que se hable de LUTs 3D cuando se intercambia información
entre espacios de color con diferente espectro (gamut).

Las diferencias entre el espacio RGB y XYZ no son muy grandes, y afectan principalmente
a determinados tonos y amplitudes más que en una colorimetría general diferente. Puede
producir un teñido magenta suave en las sombras, por ejemplo, antes que una variación
brusca en los tonos de piel.

Tres aspectos en las LUTs

Una LUT correcta tiene que tener en cuenta siempre tres aspectos:

® El fichero original.
* El monitor o proyector que se usa para el visionado.
® El fichero final.

» 332
ANEXOS

Esto significa que la LUT debe adaptar el fichero original (un TIF de 16 bits,
por ejemplo) al sistema que estemos usando para visionar y tratar la imagen (un
monitor de 8 bits u otro de 10 bits), y al mismo tiempo contar con el fichero final
de exportación (sea un DPX de 10 bits log, o una cinta de formato HDTV).

» 333
» 334
Damos por supuesto que los monito­
res informáticos y de televisión tienen
una gama absolutamente lineal (1),
cuando no es así. Su gama es “lige­
ramente” logarítmica, con una correc­
ción 2.2 (o su inversa, 1/2.2 = 0.45),
si bien se entiende tradicionalmente
que la gama 2.2 es lineal.
El origen de esta diferencia se de­
be, una vez más, a los monitores de
tubo de rayos catódicos (CRT), los ori­
ginales del mundo de la televisión pe­
ro también de la informática hasta la
aparición de los monitores digitales.
La tecnología CRT, analógica, no
permitía una respuesta totalmente li­
neal a los estímulos eléctricos. En con­
creto, se perdía cierta parte de la in­
formación en los medios que producía
una ligera curva cuantiñcada en una
respuesta logarítmica de 0.45.
Para compensar esta pérdida, las cámaras de televisión y las tarjetas gráfi­
cas trabajan con una gama ligeramente compensada en estas zonas, con una
respuesta de 2.2.
El resultado de todo ello es que si grabo una imagen con gama 2.2 y se visiona
en un monitor que pierde 0.45, visualizo efectivamente una imagen totalmente
lineal:

2.2 x 0.45 = 1

Por eso la gama 2.2 se considera a todos los efectos “lineal".

» 335
7. LA GAMA 2.2

Por cuestión de compatibilidad, los monitores digitales actuales sí que pue­


den ofrecer una respuesta totalmente lineal 1, pero están calibrados por defecto
para mostrar imágenes con la corrección de gama 2,2.
Se puede alterar este equilibrio mediante software, pero hay que hacerlo
pensando siempre en toda la cadena de trabajo, por lo que es poco recomendable.

En ocasiones, para referirse a una gama 2.2 de visualización se dice que tiene una res­
puesta REC 709 o REC 601, que como sabemos son las especificaciones internacionales
de televisión.

Gama en TU y en cine

Por defecto, también todos los equipamientos HDTV tienen una gama 2.2. En
cine digital, y en formatos propietarios no estandarizados, también se puede
trabajar con una gama pura 1. Técnicamente, el formato RAW no tiene correc­
ción de gama 2.2, e internamente es una gama puramente lineal, si bien los
softwares que permiten visionar esos ficheros RAW tienen por defecto un preset
de trabajo 2.2, pues es el que espera recibir el monitor estándar.

» 336
8. La corrección de gama

Correcciones de gama

La corrección de gama es un término que en ocasiones se asocia a “logarítmico”,


si bien no es tal.
"Lineal” es aquel sistema donde a un aumento n de la entrada (input) co­
rresponde un aumento proporcional nx de la salida (output). “Logarítmico" es
cualquier otro sistema, como la medida en decibelios del sonido o la respuesta
lumínica del fotoquímico, donde los incrementos no son lineales.
Cuando hablamos de “corrección de gama” (obviando la corrección por defec­
to 2.2 comentada antes) lo que hacemos es “simular” una respuesta logarítmica
pero en un sistema lineal. Bien pueden ser preset, preestablecidos por el fabri­
cante (como las curvas CineLike de Sony), o bien, en cámaras más complejas,
establecidas manualmente por el operador en función de sus necesidades.
Por lo general, el objetivo de estas correcciones de gama es proporcionar
más información en las zonas “importantes" de la imagen: generalmente los
grises medios, que es donde diafragma el operador y donde suele estar la parte
relevante de la imagen (rostro, objetos a destacar, etc.). Pero al hacerlo, sacrifi­
camos de algún modo las otras partes de la señal (altas y bajas luces), donde no
obtendremos tanto detalle o niveles.
Esta corrección en los medios tonos en ocasiones se conoce simplemente
como "corrección de gama", pues gama (gamma en inglés) a veces se usa como
sinónimo de tonos medios, y no de todos los tonos en general.

Gain, Gamma, Master son términos que algunos fabricantes (pero no todos) asocian a
"altas, medias y bajas” luces. Pero en otras ocasiones se refieren a los niveles en general.
Es imprescindible leer los manuales y especificaciones de cada herramienta.

» 337
8. LA CORRECCIÓN DE GAMA

Corrección en las altas (knee)

Dadas las particularidades de los sensores digitales, otra función importante de


estas correcciones de gama es conservar la información de las altas luces,
impidiendo que se saturen o se quemen (clipeen). Podremos así recuperar en
postproducción esta información que de otra manera, al clipear, se hubiera
perdido en blancos puros sin información de color.
Esta posibilidad está tan estandarizada, que la mayoría de las cámaras in­
corporan su propio circuito o preset para preservar las altas luces, conocido
generalmente en el mundo de la televisión como knee (si bien cada fabricante
puede denominarlo de manera distinta).

El término inglés knee significa "rodilla”, y se refiere a la curvatura de la respuesta en


esa zona, similar a la rótula humana.

Skin detail/correction

Skin es "piel" en inglés, y con esa palabra nos referimos a los tonos y niveles
que generalmente se asocian a la piel humana..., pero la piel humana caucási­
ca: tonos anaranjados en niveles medios. Es un parámetro sobre el que cada
fabricante puede aplicar pequeñas variaciones.
El preset skin permite discernir un poco mejor que la simple corrección de
medios. Se puede dar el caso, por ejemplo, de querer tocar los niveles asociados a
un rostro, pero no a la pared que vemos detrás. (Ésta es la razón, por otra parte,
para pedir a los decoradores profesionales que no elijan paredes con colores
parecidos a los tonos de piel.)
El skin detail, sin embargo, es algo diferente que no se puede confundir:
aplica en los mismos valores un “sobrecontraste” que acentúa electrónicamente
la nitidez de la imagen (en este caso, en los tonos de piel). El circuito de detalle
(detail) y de skin detail se usa con cierta frecuencia en los entornos SD, pero no
es nada aconsejable en HDTV y en absoluto en cine digital, pues su superior
resolución y contraste aseguran esta nitidez.

En fotografía digital, también existe el detail, generalmente calificado como "nitidez” o


"máscara de enfoque”.

» 338
9. Non Drop Frame / Drop Frame

En las cadencias propias de los sistemas NTSC se habla con familiaridad de 30 o


60 ips. Sin embargo, en realidad no es exactamente esta cadencia. La cadencia
real del NTSC en color es de 29,97 cuadros / 59,94 campos por segundo. Es una
particularidad derivada, una vez más, de la necesidad de compatibilizar siste­
mas anteriores (la manera en que la tecnología analógica NTSC sincronizaba
particularidades de su señal). Esta pequeña diferencia (0,05 %) es inapreciable
para el espectador, pero si pensamos en una hora se convierte en una desincor-
nización de 3,58 segundos, por lo que nunca hay que despreciarla.

El código de tiempo (Timecode, TC)

El código de tiempo estándar de la SMPTE es una creación posterior a la te­


levisión. Supone una grandísima ayuda para la edición y postproducción y se
expresa en 8 cifras separadas por dos puntos: hora, minutos, segundos y cua­
dros, que identifican de manera unívoca y diferenciada todos y cada uno de los
cuadros de una señal de vídeo profesional.

/ Código de tiempo estandarizado /


horas minutos segundos cuadros

» 339
9. NON DROP FRAME / DROP FRAME

Pero el TC estándar puede contar 30 o 29 cuadros, pero no 29,97. De ahí que


haya que recurrir al drop frame.
Usando el TC en los aparatos y formatos NTSC podemos elegir entre dos
opciones:

• Contar uno a uno todos los cuadros, con la particularidad de que cuando el
TC nos señale una hora, en realidad tendremos un poco más de 59 minutos
y 56 segundos reales de material. Esto es lo que se conoce como NON
DROP FRAME.
« Intentar armonizar los cuadros con la duración real. Esto se hace ignorando
(drop) un cuadro cada 1000. Es un código de tiempo DROP FRAME. De esta
manera, cuando nuestro TC nos señale 1 hora, tendremos exactamente una
hora de material.

Es importante señalar que un sistema DROP FRAME no añade ningún tipo


de cuadro o imagen. Es sólo un “recuento" del TC para que una hora de fichero
refleje exactamente una hora en el código de tiempo.
En los sistemas PAL no existe la opción drop frame, pues la cadencia es
exactamente 25/50, y no hay diferencia temporal alguna entre TC y material
total.

30 NOP, 30 DP

Como ya se ha señalado, los equipamientos no estandarizados de vídeo moder­


nos pueden grabar a 30 y 60 fps reales (no 29,97 ni 59,94). Para distinguir el
tradicional redondeo de una auténtica cadencia con treinta fotogramas comple­
tos, se habla modernamente de 30 DP = 29,97 ips con drop frame en el TC, y de
un 30 NDP = 30 ips reales.
10. Pull down

Transfer de progresivo a intertazado

Pull Down es el nombre con el que se conoce el proceso de pasar un película


cinematográfica de 24 ips a la cadencia estándar de los sistemas NTSC, 59,94 ips.
En los sistemas PAL, el paso de 25 fotogramas a 24 y viceversa se hace de
manera directa, respetando todos los fotogramas. Visualmente, apenas se nota
este 4 % más o menos de velocidad. Sin embargo, si variamos la velocidad del
audio sí cambia el tono (se hace más grave), por lo que están estandarizados des­
de hace mucho tiempo plugins y soluciones que corrigen el tono (generalmente
una octava) en el transfer 25/24 y viceversa.
Por el contrario, la diferencia entre los 24 fotogramas del cine y los 30 cuadros
(60 campos) del NTSC sí es notable. No es posible la solución aplicada al PAL.
Por eso se aplica la conversión conocida como pulldown, donde se divide la
cadencia progresiva en campos interlazados y se mezclan de manera que se
pueda obtener una cadencia superior sin que el ojo lo note.

» 341
10. PULL DOWN

Como se observa en el gráfico, tenemos que la señal AA BB CC DD se


convierte en AA BB BC CD DD, con el sistema de repetir dos campos de cada
ocho originales.
Además del “clásico" 2:3, algunos fabricantes de equipamientos han opti­
mizado estas soluciones con otros patrones de conversión {pulldown patterns).
Uno de ellos, por ejemplo, es el Advanced Pulldown de Panasonic (ya comentado
arriba), conocido como 2:3:3:2.

23,976p

Si nos fijamos bien, estamos hablando de pasar de una cadencia de 24 a una de


30 fps (60i), pero ya hemos dicho que la cadencia real del NTSC es 29,97 / 59,94,
con fracciones.
¿Cómo se resuelve esta diferencia? Simplemente, eliminando de la secuencia
original de 24 fps un fotograma de cada mil. Tendremos así una cadencia de
59,94 interlazada (59,94/60 = 0,999).
La operación inversa también se puede realizar: pasar de 59,94i a un sistema
progresivo de 24 fps. Pero si realmente no queremos repetir ninguno de los
fotogramas, el resultado sería 23,976 fps progresivos (una vez más, 23,976/24 =
0,999).
La realidad es que pasar de formatos interlazados a progresivos es totalmente
desaconsejable, pues produce aberraciones ópticas que ya hemos explicado
(véase el capítulo dedicado a la cadencia y el barrido).

29,97p: unusable

El pulldown es una manera muy estandarizada de pasar de sistemas progresivos


a interlazados en entornos NTSC. Sin embargo, no hay una manera eficaz de
transferencia entre sistemas progresivos.
En los entornos PAL, el progresivo natural es 25p / 50p, cuyo transfer a 24p
no es problemático.
Sin embargo, si usáramos en entornos NTSC el progresivo "natural”, el
29,97p, veríamos que su transfer a las otras cadencias (25, 24) es más que pro­
blemático. Sólo se podría hacer eliminando fotogramas, entre 4 y 5 por segundo,
lo que daría saltos en la continuidad.

» 342
ANEXOS

Hay otras opciones, con análisis vectoriales de la imagen, pero son muy laboriosas e
imperfectas.

Por eso estas cadencias (29,97p, 30p) se consideran poco recomendables (un-
usable) para un trabajo que aspire a una difusión internacional.

¿Una cadencia común?

Al trabajar con 23,976, el transfer pulldown a 59,94i es perfecto, sin necesidad


de añadir o eliminar fotogramas. Y lo mismo sucede con su transfer a 24p y 25p,
si queremos una distribución en cine y en países de la zona PAL.
Muchas producciones americanas y japonesas y de otros países de tradi­
ción NTSC trabajan a esté intervalo, 23,976, para asegurar una distribución
internacional. Para algunos, 23,976p (en ocasiones se abrevia como 23,98) es
la cadencia progresiva natural del NTSC, y nunca 29,97p. Más aún, algunos
expertos consideran que esta cadencia tan extraña sería la recomendable para
el hipotético fichero o formato de intercambio común (CIF), un fichero universal
para HD.
Pero, personalmente, me parece un sinsentido intentar arreglar un problema
particular originando uno nuevo universal, y más aún cuando la tendencia tanto
en televisión como en cine es doblar las cadencias tradicionales (pasar de 24p
o 25p a 48p y 50p, respectivamente). ¿Tendría sentido una cadencia de 47,952
fps? Quizás lo más lógico sería universalizar la cadencia PAL (25 ó 50 ips). Pero
comercialmente los grandes fabricantes provienen de la zona tradicional del
NTSC.

» 343
» 344
11. Captación RAW

La grabación RAW es algo muy usado desde hace tiempo en la fotografía fija y
se está implantando en el cine digital sobre todo en aquellos equipamientos HR
especializados en producciones cinematográficas (como la Red One / Redcode
o la Genesis de Thomson / Filmstieam, etc.).
RAW no es una sigla, sino una palabra inglesa que se puede traducir como
“en bruto” o "en crudo”, sin tratar. Se refiere a utilizar la información digital
proveniente del sensor sin ningún tipo de mediación.

Matrización de la señal

La mediación en este caso es el proceso que conocemos como matriz, que se


explica en la segunda parte, en el capítulo dedicado a las cámaras.
La matriz lo que hace es convertir todo el flujo binario procedente del sen­
sor en una señal estándar: sea de televisión (SDTY HDTV), sea de cine digital
(secuencia de ficheros dpx) u otro formato gráfico (tiffs, jpegs). Este “formateo"
permite que otro dispositivo (un magnetoscopio, un programa de ordenador)
entienda cómo se almacena la información. Es decir, qué "frase” binaria co­
rresponde a exactamente qué píxel de la imagen, y en qué fotograma de la
secuencia de imagen. También significa adecuarlo a un patrón (gamut) de co­
lores, un espacio de color, en suma, que nos indique qué entendemos por nivel
mínimo o máximo de una señal.

Menor pérdida RAW

La información RAW prescinde de este "formateo” y almacena toda la informa­


ción tal como llega digitalizada del sensor: es decir, una cadena de unos y ceros.

» 345
11. CAPTACIÓN RAW

La razón del uso de RAW es evitar pérdidas de calidad. Una de las pérdidas
puede ser motivada por el hecho de que la mayoría de los formatos de vídeo
estándar son de 8 bits. Si nuestro sensor nos proporciona 10 o 12 bits, estamos
despreciando información muy útil para la postproducción. También hay que
anotar que la compleja etapa de matriz puede generar un ruido suplementario.
En RAW evitamos este ruido. También el RAW permite trabajar con un espacio
de color generalmente más amplio que el RGB, el sRGB o el YUV propio de la
televisión.
En cuanto a la compresión, la señal RAW se puede comprimir más eficiente­
mente que una señal formateada, y puede hacerlo en ocasiones (siempre dentro
de unos límites) de una manera reversible, con recuperación completa de la
información original.

Trabajo en postproducción

Trabajar con un formato RAW no quiere decir que se prescinda del "formateo”.
Simplemente se deja esa etapa para la postproducción. Una vez tenemos la
información, la introducimos en nuestra estación de trabajo y la tratamos con
el software adecuado. Este software, generalmente de la misma casa que la
cámara, nos permite transformar el RAW en una imagen en movimiento. Es
ahí donde ajustamos niveles (brillo, contraste, saturación) y donde tenemos la
opción de pasarlo a un formato estándar.
Al no estar matrizada, datos como la temperatura de color, el espacio de color
o incluso el ISO (si no es nativo) son modificables a voluntad, pues se almacenan
puramente como metadatos.

Ficheros RAW

Desgraciadamente, no existe un RAW universal, si bien ya hay iniciativas como


openRAW que promueven un único formato RAW legible por todos los fabrican­
tes. No contar con un RAW universal (o al menos MXF) no es un sine qua non
técnico sino, una vez más, parte de la estrategia comercial de los fabricantes de
cámaras y soluciones. La forma de almacenar los datos, y no el tipo de formato,
es lo que impide que un programa reconozca un RAW y no otro. Este secreto
también se aplica al demosaico.

» 346
ANEXOS

Por esa razón, hay que contar de antemano con las herramientas de post­
producción adecuadas a la cámara con grabación RAW. En resumen, el RAW
presenta ventajas indudables a la hora de preservar la información del sensor,
pero por otra parte complica y ralentiza las tareas de postproducción. Se pre­
senta como una opción óptima para la cinematografía digital de calidad, pero
para la televisión es poco o totalmente (en el caso de directos) incompatible.

» 347
» 348
12» Entradas y salidas en una cámara

La importancia de las conexiones E/S (interfaces I/O)

Además de la calidad que debe suponerse a toda cámara, es importante para


una producción fluida que sus conexiones de entrada y salida y su cableado
también sean de calidad. Si se trata de conexiones estándares, entonces podre­
mos conectarlas sin ninguna duda al resto de equipamiento del flujo de trabajo:
monitores, mesas de mezcla, grabadores externos, tarjetas capturadoras, etc.
El cableado de una cámara también nos ayuda a definir la calidad de la
propia cámara, pues un determinado cable estándar contendrá un determinado
formato estándar. Es habitual, también, utilizar el nombre de la conexión como
sinónimo del formato. Por ejemplo, HD.SDi nos remitirá siempre a la normativa
ITU 701 para HDTV

Cableado e información

A una conexión, además, se suele asociar un tipo de cable. La citada conexión


HD.SDi suele ofrecerse con un cable del tipo BNC, y no con otro tipo RCA.
Sin embargo, esta relación no siempre es necesariamente así. Un cable,
después de todo, es sólo un medio de transporte, que puede usarse para muy
diferentes propósitos. Una señal HDTV puede transportarse igualmente por un
cable HDMI, por ejemplo, y a su vez un cable BNC puede transportar información
exclusiva de audio.

Macho/hembra

Las conexiones pueden ofrecer pequeñas variantes, y en pares machihembrados.

» 349
12. ENTRADAS Y SALIDAS EN UNA CÁMARA

El cabezal "macho" suele presentarse en los cables, y el cabezal "hembra”


en los aparatos a conectar, pues así se evita que sobresalgan elementos que
puedan romperse.

Calidad de información en una misma señal

Un mismo formato puede tener diferentes formas de presentarse, con diferentes


conexiones. Esto puede deberse a las diferentes transformaciones que sufre.
Una típica señal puede ofrecerse en las siguientes opciones:

• RAW
• RGB
• YUV digital (HDSDi), por componentes
• YUV analógica (Y Pb PR), por componentes
• Señal Compuesta Y/C
• Compresión digital propietaria
• Mpeg4 de emisión digital
• Mpeg2 digital
• Señal RF emisión analógica

Cada una de ellas precisará su conexión apropiada.

» a ) Conexiones de audio y vídeo

• al) HD.SDi
La conexión digital por excelencia es la SDI: Serial Digital Interface, o conexión
digital estandarizada. Es la que corresponde a la normativa ITU, sea en SD (609)
o HD (701). Siempre por componentes, es decir con sus tres señales (Y, U, V)
diferenciadas y sin compresión de ningún tipo, con una resolución máxima de
1.080.
Normalmente, si es una señal de alta definición se nota como HD.SDi.
El cable más común es del tipo BNC. Es un cable protegido con una malla
externa para evitar interferencias, y con un enganche en el cabezal que lo fija
al dispositivo, para evitar que un tirón accidental lo desconecte (en general, las
conexiones profesionales suelen llevar algún tipo de cierre de este tipo).
En algunas cámaras, para ahorrar espacio, se usa una conexión del tipo
miniBNC, con rosca de seguridad.

» 350
ANEXOS

Esta señal incluye el audio y también el código de tiempo estándar SMPTE.


Es el cable profesional por excelencia, y puede soportar grandes distancias
(hasta más de 100 metros) sin pérdidas.

• a2) Dual Link


Para transportar una señal 4:4:4 RGB, no podemos hacerlo en un cable HD.SDI,
ya que éste sólo está estandarizado para señales 4:2:2 YUV
Por este motivo se implemento la conexión HD.SDIJDual Link, o simplemente
Dual Link.
Son en realidad dos conexiones del mismo tipo que la HD.SDI, donde por
una se transporta la señal estándar HDTV 4:2:2, y por la otra, en paralelo, la
información restante (0,2,2) que completa el RGB.
Se sobreentiende que una de ellas siempre se puede utilizar como conexión
HD.SDi.
Es una entrada que aparece en magnetoscopios y cámaras con opción de
grabación 1.080 RGB.

• a3) Cine Link


Esta conexión es físicamente semejante a la Dual Link, pero es una estándar de
la DCI para el transporte de la señal entre el servidor y los proyectores en las
cabinas de los cines.
Tiene dos diferencias: una, que transporta una señal comprimida a 12 bits,
como corresponde al estándar DCI.
La otra es que está codificada para evitar el pirateo de las imágenes. Tanto
el servidor como el proyector deben estar homologados por la DCI (bajo la
normativa SMPTE) para poder mostrar las imágenes.
No incluye audio, que se transporta por otras salidas, pero sí metadata como
marcas de agua o subtítulos.

• a4) HDMI
High Digital Multimedia Interface es un estándar propuesto en principio para el
consumidor final, como medio de conexión de todos los aparatos HD que pueda
haber en el hogar: monitores de plasma, consolas de videojuego, reproductores
Blue Ray, etc.
Lo incorporan también muchos ordenadores, sobre todo portátiles, como un
medio de conexión entre el ordenador y las pantallas de televisión y los pro­
yectores.
Tiene también una versión miniHDMI, que es la que suelen presentar los
portátiles y las cámaras.

» 351
12. ENTRADAS Y SALIDAS EN UNA CAMARA

Se ha popularizado también en pequeñas cámaras y camascopios del tipo


handycam, y empieza a verse también en algunos equipamientos prosumer.
Paralelamente, algunas empresas fabricantes de tarjetas capturadoras la han
implementado, por lo que ya es una forma válida de captura de imágenes profe­
sionales en el ordenador.
Aparece como una variante de la conexión DVI de los ordenadores, a la que
se añade el transporte del sonido y metadata.
Es un cable multipín de muy alta calidad y ancho de banda, capaz de trans­
portar señales RGB de varios gigabits por segundo, a varias resoluciones, incluso
4K (en las versiones modernas).
Sin embargo, su cabezal no tiene cierre de seguridad. Otro problema es el
alto coste y la poca distancia a la que se puede enviar una señal sin pérdidas,
que actualmente está en unos 25 metros.
La pequeñez de sus pines, sobre todo en el formato mini, tampoco la presenta
como una conexión para enganchar y desenganchar con frecuencia, pues es
común que algún pin se doble o se rompa.

• a5) Y Pb Pr
Es la versión analógica de la señal HDTV transmitiendo la señal YUV
La conexión se suele ofrecer como un trío de cables con cabeza RCA y tres
colores diferenciados para evitar confusiones, que son el verde (Y), el azul (U) y
el rojo (V).
Físicamente, es igual al conocido cable A/V que tiene el color amarillo para la
señal compuesta de vídeo SD, el rojo para el canal izquierdo y el blanco para el
derecho.

Como hemos comentado, dado que físicamente es el mismo cable, no habría dificultad
para usar un cable A/V a fin de conectar terminales Y Pb Pr.

Sólo transporta vídeo, no audio ni metadata como código de tiempo. Está pre­
sente en algunas cámaras prosumer, pensadas originalmente para el visionado
de la señal en monitores analógicos. También se puede conectar a algunas tar­
jetas capturadoras. Ofrece una calidad estándar, pero al ser analógica y en un
cable no protegido contra interferencias, no se recomienda su uso profesional.
Sobre todo si el cable mide más de uno o dos metros. Tampoco el RCA es un
cabezal con cierre de seguridad.
En algunos camcordes de tipo handycam, para ahorrar aún mas espacio, el
cabezal que se conecta a la cámara puede ser diferente a los RCA, como un mini-
jack o una conexión multipin que suele ser una solución propietaria de la marca.

» 352
» 353
12. ENTRADAS Y SALIDAS EN UNA CÁMARA

Hay una gran variedad, con diferentes tipos de conexión (mono, estéreo,
balanceada...), tamaños y materiales.
En el mundo audiovisual se suele ver en conexiones de audio, existiendo
conversores a conexiones tipo XLR.

• a10) Multicore
Es un cable de gran grosor que se usa generalmente para cámaras de estudio o
para conectar camascopios a mesas de mezclas y unidades móviles.
Transmite la señal estándar ITU, sin compresión y por componentes, pero
incluye otros pines para el retorno de la señal, la comunicación entre la mesa y
el operador y el remoto desde la CCU (Unidad de Control de Cámara).
Su rango de transmisión en distancia es mayor que la mayoría de los cables,
por lo que es imprescindible en todos los directos televisivos.

>> b ) Conexiones informáticas


Además de las conexiones que transportan señales de audio y vídeo, digitales
o analógicas, muchas cámaras ofrecen también conexiones propias del mundo
informático (IT) para el transporte puro de datos.
Estos cables no transmiten "señal", sino datos informáticos, generalmente
correspondientes a un formato comprimido.
Por ejemplo, una cámara HDV puede transmitir la señal HDTV ITU 701 a
través de una salida HD.SDI (800 mbs), almacenarla internamente en una cinta
miniDV en formato HDV y transferirla por Firewire o USB (400 mbs) al ordenador.
Estas salidas son usuales en las cámaras de visión artificial y también en
algunas cámaras HR con alto flujo de datos.

• bl) Firewire / IEEE 394 / iLink


Firewire es uno de los cables más populares en el mundo audiovisual, pues su
desarrollo fue clave en los primeros años de la revolución digital, ya que permitía
la transmisión de datos entre las primeras cámaras DV y soluciones de edición no
lineal, sin necesidad de otro tipo de hardware (capturadoras), a un coste mínimo.
Permite un flujo de datos de hasta 400 mbs, que superaba ampliamente la
primera versión del USB 1.0.
Tiene también una opción de cabezal mini, usual en muchas cámaras y en
ordenadores.
Es muy popular en cámaras DV tanto que en ocasiones se conoce como
“cable DV". También se encuentra en la mayoría de las cámaras HDV pues el

» 354
ANEXOS

flujo de datos es el mismo (25 mbs). Además de la señal HDY se usa para algunos
modelos XDCAM y DVCPro-100. Panasonic tiene al menos un magnetoscopio
con este tipo de entrada para el formato referido.
“Firewire" o “firewire 400" es una marca registrada por Apple, por lo que esta
solución se conoce como IEEE 394 en entornos PC (refiriéndose al estándar 394
del Institute of Electrical and Electronics Engineers).
Sony denomina a esta conexión iLink, también una marca registrada, en la
mayoría de sus cámaras.

• b2) Firewire 800


Un desarrollo posterior es el Firewire 800, que alcanza el doble de velocidad que
el anterior.
En este caso, sólo se encuentra en ordenadores Apple, no en PC.
Es un cable muy similar, pero con una cabeza de aspecto diferente, que se
puede encontrar en algunas cámaras de visión artificial. Y sí es popular en discos
duros portátiles para edición HD.

• b3) USB 2.0


La segunda versión de USB (Universal Serial Bus) alcanza velocidades iguales al
Firewire 400, pero no llega a los del Firewire 800. Transmite datos de la misma
manera, pero dado su posterior desarrollo, no se implemento en las cámaras DV
ni en las capturadoras más usuales, por lo que se suele encontrar en algunas
cámaras más como conexión informática que como transporte de señal de vídeo
y audio.
Es usual en algunas cámaras con soporte rígido como medio de acceso FAM
(File Acces Mode), reconociendo la cámara como disco duro externo.
Algunas cámaras de pequeño tamaño del sector industrial, y algunas DSLR
con grabación de vídeo, o incluso handycam para el consumidor final, usan esta
conexión, bien como transporte de datos o para visionado en ordenadores.
Dado su limitado ancho de banda, 400 mbs, no permite el flujo de una señal
HD 1.080 estándar, por lo que se utiliza para señales comprimidas, SD, VGA o
inferiores.

• b4) Gigabit Ethernet


Es un cable usado para las redes informáticas, con un ancho de banda o bitrate
muy alto.

» 355
12. ENTRADAS Y SALIDAS EN UNA CÁMARA

Algunas cámaras de visión artificial lo usan para su conexión a ordenadores,


donde guardar la información recogida por el sensor.
Es común también en algunas cámaras de alta gama HR. Dado el alto flujo de
datos que es capaz de transferir, se usa para retransmitir los datos sin pérdida o
poca compresión, bien a ordenadores o a grabadores externos de soporte rígido.

» 356
13. Requerimientos del equipamiento
informático

El mundo de la informática se rige por una leyes diferentes, quizá, al resto de


los artículos de consumo: cada vez mejores, cada vez más baratos.

Software

Esto ocurre por lo general tanto en el mundo del software como del hardware,
lo que ha democratizado enormemente la creación audiovisual. Programas y
soluciones que sólo eran asequibles para grandes empresas hace apenas unos
años, hoy pueden ser adquiridas por cualquier estudiante de secundaria.
No obstante, siguen apareciendo en el mercado soluciones con un elevado
precio. En general, se trata de novedades que permiten trabajar con más reso­
lución, con más profundidad de cálculo, con más canales..., en definitiva, con
más información y en menos tiempo (incluso en tiempo real).
No son, por lo general, herramientas "mágicas" que permitan obtener resul­
tados que otras herramientas de menor coste no alcanzan. Lo que sucede es que
en esta industria el tiempo es dinero, sobre todo en determinados ámbitos como
la publicidad. Estas herramientas permiten trabajar muy bien y muy rápido,
logrando en una jornada lo que otros programas tardarían tres o cuatro en hacer.
De ahí que tengan un precio superior, pero éste igualmente amortizable.
En ocasiones, se presentan novedades que les sitúan un par de años, o
menos, por delante de la competencia: correctores de color, por ejemplo, todavía
no eficientes en las soluciones ENL más aceptadas; herramientas para un trabajo
2K o incluso 4K en tiempo real; o, ahora mismo, soluciones para flujo de trabajo
3D y su exigente bitrate.

» 357
13. REQUERIMIENTOS del equipamiento informático

Plataformas

Excepto en algunos casos específicos (por ejemplo, las soluciones Quantel), la


mayoría de los fabricantes ofrecen sus programas para plataformas PC (Win­
dows) o Apple (Mac). Es muy raro encontrar también soluciones para Linux, o
programas de código abierto, aunque también las hay.
En ocasiones, Apple y Windows llegan a acuerdos con los fabricantes para
ofrecer sus soluciones en una sola de las plataformas. En el entorno Apple, por
ser también fabricante de hardware, este caso es más frecuente. Final Cut, por
ejemplo, es un programa de edición que no tiene versión para Windows.
En ocasiones son las alianzas entre empresas las que hacen que aparezcan
o desaparezcan versiones del mercado. Pasó por ejemplo con Avid, que durante
un tiempo no ofreció versiones para Apple. Y suele suceder también con los
fabricantes de cámaras, que por alianzas ofrecen sus códecs propietarios bien
a unos u a otros antes que los demás (aunque finalmente todas las plataformas
y softwares acaban soportándolos).

Hardware

Tan importante como el software es la máquina donde va a correr. Afortunada­


mente, la informática ha evolucionado tanto que la mayoría del equipamiento,
incluso a nivel usuario, puede trabajar con un ENL avanzado.
Quizá la limitación esté más en la resolución a la que puede trabajar: en el
número y calidad de los stieams. La resolución estándar SD, dado su bajo flujo
de datos, no tiene problemas. Son las resoluciones HD, con sus exigentes 800
mbs, y las superiores de-2K y 4K (entre 2 y 8 gbs, respectivamente) las que ya
no están al alcance de todas las herramientas.

Versiones

El sistema operativo sirve como base para operar con los programas. Ahora
mismo hay versiones de sistemas operativos que trabajan a 32 y 64 bits. Pero para
que sean funcionales tienen que estar instalados en arquitecturas diseñadas
para 32 o 64 bits. De nada sirve un SO de 64 bits en una plataforma de 32.

» 358
ANEXOS

Las versiones del SO (Windows Vista, Windows NT, Windows 7; o Apple X


Leopard, o XI Snow Leopard) también influyen en la velocidad de manejo de
datos.
Obviamente, también las versiones actualizadas de los programas incremen­
tan su velocidad de cálculo.

Interfaz de usuario

Una vez instalado y abierto el programa ENL o de postproducción, éste hará un


registro interno de todos los clips y los mostrará en las carpetas y la línea de
tiempo con la información de metadata. Será la “interfaz" o pantalla de usuario.
Suelen ser simples para no ocupar mucha memoria RAM. La mayoría de los
programas permiten configurar la combinación de colores. Muchos operadores,
sobre todo de colorimetría, prefieren tener todo en tonos oscuros y fondos negros,
a fin de centrarse en las imágenes. Pero los montadores suelen preferir tonos
más claros para una mejor identificación de la línea de tiempo.
Estas opciones son también muy útiles para trabajar en estereoscopia. El
uso de gafas polarizadas o anaglifas puede impedir una correcta visión de la
interfaz.
Los thumbnail son las pequeñas figuras que identifican visualmente cada
clip o incluso cada fotograma. No ocupan mucho espacio en el disco duro, pero
si tenemos abiertos centenares de ellos, pueden saturar la memoria de la tarjeta
de vídeo.
Lo mismo sucede con la representación gráfica del sonido en forma de onda
(waveform). Puede ocupar muchos recursos tanto del programa como de la RAM
y la tarjeta de vídeo.

Por descontado, trabajar con varios programas abiertos ralentiza todos los procesos.

Cadena de proceso de datos

Si apretamos la tecla play (generalmente la barra espaciadora) para visionar


una línea de tiempo, el programa buscará el clip al que se refiere, en el punto de
entrada o de visionado que se precisa, y enviará los datos a la CPU y ésta a la

» 359
13. REQUERIMIENTOS DEL EQUIPAMIENTO INFORMÁTICO

tarjeta de vídeo para ser mostrada por el monitor. Al terminar ese clip, seguirá el
mismo proceso con el siguiente.
Si el clip tiene añadido un efecto en tiempo real, el programa usará la CPU
para calcularlo antes de mandar la información a la tarjeta de vídeo.

Como ya señalamos, muchos programas muestran estos efectos o incluso los clips con
una resolución no real, sino inferior, con objeto de agilizar los procesos. Hay que tenerlo
en cuenta siempre a la hora de trabajar.

Si el efecto es demasiado complejo para mostrarlo en tiempo real, se procederá a


un renderizado previo o in the fly. En el primer caso se ralentizará todo el trabajo.
En el segundo se optimizan mucho los recursos, pero en ocasiones también es
necesario esperar unos segundos para su visualización.
A mayor número de datos, mayor cálculo: por eso, las imágenes con mayor
resolución, mayor profundidad de color y mayor cadencia precisan más recursos
del ordenador.

Cuellos de botella

Sabido esto, vemos que se pueden producir “cuellos de botella” o embudos en


tres partes fundamentales:

• En el disco duro, sea por su velocidad de lectura o por su conexión.


• En la CPU, sea por falta de velocidad o de memoria RAM.
• En la tarjeta de vídeo, por falta de capacidad para mostrar en tiempo real
los datos que le proporciona la CPU.

Discos duros

Como ya hemos visto, es importante la velocidad de lectura, pero también de


conexión. Los discos duros internos se conectan directamente con la CPU por
medio de un bus de conexiones con diferentes slots.
La velocidad de lectura se puede mejorar con sistemas RAID, pero la conexión
sigue siendo un problema. Las conexiones internas tipo PCI como SATA II
alcanzan flujos de 3gbs. Se está implementando el SATA III para llegar a los 6gbs.

» 360
ANEXOS

Si usamos conexiones externas, con discos duros o SAN externas, también


debemos fijarnos en la velocidad de transferencia de cada uno de ellos: USB 2.
y firewire proporcionan velocidades de hasta 400 mbs; el FireWire II ofrece 800
mbs (pero sólo está disponible en Apple); las conexiones PCI externas también
alcanzan flujos de datos como los internos, pero no existen para portátiles. En
éstos, la conexión PCMCIA, que usan las tarjetas P2 de Panasonic, está desapa­
reciendo de los ordenadores, sustituida por la más rápida y pequeña PC Express
Card, que se conecta directamente al bus interno PCI y puede llegar a los 2,5 gbs.
Se pueden lograr conexiones aún más rápidas por Ethernet y fibra óptica, pero
siempre estaremos limitados por la velocidad máxima del bus del ordenador.
En definitiva, hay que saber qué tipo de discos duros y de conexiones ne­
cesitamos para nuestro trabajo, en función del flujo de datos y peso de cada
formato. Si el disco es inferior en prestaciones, veremos los vídeos "a saltos”,
con interrupciones.

CPU y RAM

La CPU gestiona y es gestionada por el sistema operativo y el programa. La


RAM se utiliza como almacenamiento temporal de datos.
La CPU apenas interviene en el monitorado, pero es clave en el procesado de
efectos en tiempo real, así como en los renderizados: a mayor velocidad y mayor
memoria RAM, más capacidad tendrá.

Tarjeta de vídeo GPU

Las tarjetas de vídeo de última generación cuentan también con su propio


microprocesador y memoria RAM, que libera a la CPU de bastante trabajo de
cálculo en las imágenes.
En ocasiones, estos procesadores son tan potentes (desarrollados sobre to­
do para el uso intensivo de videojuegos) que los programas se diseñan para
aprovechar sus posibilidades. Por esa razón, en las especificaciones de muchos
softwares se recomiendan unas tarjetas de vídeo por encima de otras, o al menos
se muestra una lista de tarjetas testadas y recomendadas.
Por ello actualmente algunos programas no muy caros pueden ofrecer efectos
en tiempo real con resoluciones HD o incluso 2K que hace pocos años eran
impensables.

» 361
13. REQUERIMIENTOS DEL EQUIPAMIENTO INFORMÁTICO

Monitorado

Ya hemos visto en la primera parte que las resoluciones informáticas (base


VGA) no corresponden con las usadas en televisión o cine. Hay que tener una
resolución ligeramente superior para poder ver los ficheros de forma nativa.
Existe igualmente la limitación de los 8 bits por canal. No obstante, empiezan
a existir monitores que alcanzan los 10 bits para uso profesional.
Tanto para trabajo de montaje como de postproducción, además de los mo­
nitores informáticos se aconseja tener un monitor puramente televisivo. En este
sentido, todavía existen en el mercado excelentes monitores de tubo (CRT),
preferidos por muchos operadores para la reproducción de las imágenes.
Para los trabajos cinematográficos, lo ideal es contar con unas condicio­
nes similares a una sala de cine, por lo que se suele contar con proyectores.
Si trabajamos dentro de los estándares DCI, con un proyector igualmente DCI
debidamente ajustado nos aseguraremos de que lo que vemos en la sala de mon­
taje o de postproducción es exactamente lo que verá el espectador en las salas.
Los monitores de televisión y proyectores se conectan a través de las tarjetas
capturadoras o mediante conversores DVI/HD-SDI o DVI/HDMI. Hay que evitar
las conexiones analógicas y/o que no sean por componentes.
Otro tema a tener en cuenta en la monitorización es el refresco de pantalla. Si
trabajamos con cadencias muy altas (60p = 60 hz) y nuestra tarjeta es limitada
en capacidad, tendremos problemas de visionado. En este sentido, si queremos
trabajar en estereoscopia precisaremos de tarjetas y monitores con un refresco
mínimo de 120 kz.

En informática no existe "cadencia" como tal. Un término similar es la frecuencia del


monitor, es decir, el número de veces por segundo que se actualiza la información (medida
igualmente en hercios o ciclos/veces por segundo).

Cómo afecta la compresión de los códecs

Una tarjeta de vídeo y un monitor informático esperan recibir datos puros, sin
comprimir, que mostrar en la pantalla, píxel por píxel. Si el archivo está compri­
mido, deberá ser la CPU la que previamente descomprima los datos.
Por esta razón, en compresiones muy exigentes podemos tener problemas de
visionado. Pasaba con altas calidades en ficheros de tipo interframe, como el

» 362
ANEXOS

mpeg2 y el mpeg4. La CPU debe almacenar y comparar todo un GOP para des­
codificar y mostrar un sólo fotograma. Esto explica que los formatos intraframes
"corran” mejor, a pesar de tener bitrates más altos.

RGB progresivo

Lo mismo podemos decir de dos características de la señal de vídeo: el muestro


parcial y el barrido interlazado. La informática trabaja siempre en RGB y progre­
sivo, que es una vez más la señal que espera recibir el monitor. Ha de ser una
vez más la CPU o la GPU la que realice internamente este cálculo de conversión
del 4:2:2 i al 4:4:4 p.

» 363
» 364
14. Tipos de ficheros de imagen digital

Dado que en algunos trabajos usamos ficheros de fotografía fija (stills), es nece­
sario explicar un poco las diferencias. Existe una gran variedad, pero hablaremos
aquí de los más usuales.

Ficheros comprimidos o no

Al igual que en vídeo, los ficheros de fotografía fija se pueden comprimir o no.
Obviamente, para un trabajo de calidad intentaremos trabajar con ficheros no
comprimidos, pues esta compresión es siempre destructiva.

Resolución y calidad

Dado que en fotografía no hay estándares, el tamaño puede ser el que elijamos,
entendiendo que debemos elegir uno adecuado a nuestros estándares (sea HD,
2K u otros).
La resolución de pantalla será de 72 pp (puntos por pulgada), que es la de
nuestros monitores y proyectores. Una calidad superior sólo es perceptible en
copias impresas.
Igualmente, hay ficheros que permiten trabajar sólo con 8 bits, y otros que lo
amplían a 16 o 32 bits.

Ficheros comprimidos

Los más populares (y de los que hay que huir) son los jpeg y los gifs. También
existe la compresión jpeg2000 (jpeg2K, jp2), que se usa en el estándar DCI de

» 365
14. TIPOS DE FICHEROS DE IMAGEN DIGITAL

distribución digital en salas. Los dos primeros sólo llegan a 8 bits, mientras el
jpeg2000 puede alcanzar los 12 bits.
El jpeg tiene una compresión basada en la DCT (derivada del discreto coseno),
que es la base de muchos códecs. Es escalable y obtiene una gran relación
calidad/peso, pero la presencia de artiíacts (bloques de píxeles, solarizaciones y
banding, por lo general) hace desaconsejable su uso.
El gifs tiene la particularidad de que no se trata propiamente de una compre­
sión, sino de una reducción del número de colores (color indexado), reduciendo
así el peso. Es muy útil con gráficos e imágenes de colores planos, pero inefi­
ciente si hay degradados y una gran variedad tonal (es decir, la mayor parte de
las imágenes de cine o fotografía). A diferencia del jpeg, permite la inclusión
de un canal alfa o transferencia. En ocasiones se usa para la inclusión de créditos
y subtítulos.

Ficheros no comprimidos

Ficheros sin comprimir son el tiff, el tga, el bmp, pict, png... (no incluiré la ex­
plicación de las siglas, pues no resultan de interés).
El más usado suele ser el TIFF (o TIF), pues además de la información de
imagen puede incluir transparencias (canal alfa) e incluso capas (reconocidas
por programas como Photoshop, After Effects y otros). BMP por ejemplo, es
una imagen sin comprimir pero sin canal alfa. El PICT es similar al BMP en
.plataformas Apple.
TGA fue un fichero propietario de la casa Targa, muy usado años atrás. La
calidad es igual al TIFF incluyendo el canal alfa, pero es mucho menos usual,
habiéndose sustituido por éste, pues el TGA exigía, en su inicio, el pago de ro-
yalties.
El TIFF puede llevar internamente una compresión, pero siempre será una
compresión reversible, no destructiva. Es útil, por ejemplo, si trabajamos con
gráficos o títulos de crédito: los fondos y colores planos se comprimirán sin
pérdida.
Otro fichero con el que se puede trabajar es el propio del popular programa
Adobe Photoshop, el PSD, y también con su variante de encapsulado postscript
(EPS), más compatible con otros programas. Obviamente, funciona perfecta­
mente con programas de la marca Adobe (After Effects, Premiére, etc.).

» 366
ANEXOS

DPX

El fichero más típico de imagen fija en cine es el conocido como dpx, con una
cuantificación logarítmica de 10 bits (equivalente a 12 bits lineales).
Este fichero fue de uso común durante mucho tiempo, pues era la única
manera de aprovechar todo el rango dinámico del fotoquímico. Pero reciente­
mente, el formato TIFF permite profundidades de colores de 16 bits (e incluso
superiores), que ya permiten teóricamente conservar todo el rango dinámico del
fotoquímico de 35 mm, y hacerlo de manera lineal, más cómoda para su trabajo.

RAU

Además de estos estándares abiertos, existen los ficheros RAW propios de la


fotografía digital. Son teóricamente los de mayor calidad, pero suelen ser pro­
pietarios.
Algunos de ellos, además, pueden incluir compresión (destructiva o no) de
datos.
Por lo general, suelen tener una profundidad de color de 12 bits. Si el sensor
permite mayores sensibilidades, el RAW también podría aumentar su número
de bits.

En la fotografía se intenta implementar un RAW de código abierto conocido como Open-


Raw. También existe la propuesta de Adobe conocida como DNG (Digital Negative). Pero
es un camino todavía por recorrer.

» 367
» 368
15. Los codeos Avid DnxHd

Para entender la compleja trama de


1.080Í/59.94 DNxHD 220 10-bit
los códecs usados en la producción y 1.080Í/59.94 DNxHD 220 8-bit
postproducción, me extenderé un po­ 1.080Í/59.94 DNxHD 145 8-bit
co sobre la conocida gama de códecs
de Avid específicos para la alta defi­ 1.080Í/50 DNxHD 185 10-bit
1.0801/50 DNxHD 185 8-bit
nición. Son los Digital Non Linear for
1.080Í/50 DNxHD 120 8-bit
High Definition, DnxHD.
Si abrimos las opciones de captura 1,080p/25 DNxHD 185 10-bit
o exportación de un programa (o in­ 1.080p/25 DNxHD 185 8-bit
1.080p/25 DNxHD 120 8-bit
cluso de alguna que otra cámara), nos
1.080p/25 DNxHD 36 8-bit
encontraremos esta larga lista.
Como vemos, es suficiente para vol­ 1.080p/23.976 DNxHD 175 10-bit
ver loco al más pintado. ¿Por qué tan­ 1.080p/23.976 DNxHD 175 8-bit
tas posibilidades?, ¿qué significan to­ 1.080p/23.976 DNxHD 115 8-bit
1.080p/23.976 DNxHD 36 8-bit
dos esos números?
La respuesta es sencilla y aclarato­ 1.080p/24 DNxHD 175 10-bit
ria y nos dejará pocas opciones. 1.080p/24 DNxHD 175 8-bit
La primera cifra se refiere eviden­ 1.080p/24 DNxHD 115 8-bit
temente a la resolución del formato: 1.080p/24 DNxHD 36 8-bit
1.080 o 720. En el caso del 1.080, se
720p/59.94 DNxHD 220 10-bit
añade una sigla para indicar si es in- 720p/59.94 DNxHD 220 8-bit
terlazado (i) o progresivo (p). Tras la 720p/59.94 DNxHD 145 8-bit
barra se indica la cadencia, y tras las
720p/23.976 DNxHD 90 10-bit
siglas de DnxHD, el flujo de datos al
720p/23.976 DNxHD 90 8-bit
que queremos trabajar en megabits. 720p/23.976 DNxHD 60 8-bit
Por último se indica la profundidad de
color, que puede ser de 8 o 10 bits. 720p/29.97 DNxHD 110 10-bit
720p/29.97 DNxHD 110 8-bit
720p/29.97 DNxHD 75 8-bit

720p/25 DNxHD 60 8-bit

» 369
15. LOS CÓDECS AVID ONXHD

Seleccionando la resolución, el barrido y el interlazado, ya hemos desechado


casi todas las opciones. Menos complicación. Si la postproducción es exigente,
está la opción de 10 bits. Si no, nos bastaría la de 8 bits.
En cuanto al flujo de datos, Avid ofrece dos calidades distintas. Una de
alta calidad (1.080p 25 DNxHD 185 10-bit) para una postproducción exigente, y
otra más “ligera” para producciones de menor exigencia (1.080p/25 DNxHD 120
8-bit). Los DnxhD tienen un bitrate constante por fotograma. Por eso la máxima
calidad del códec 1.080 es de 220 mbs para una cadencia de 59,94i / 29,97p, y
de sólo 185 mbs para 50i/25p. Pero en ambos casos la calidad es la misma.
Lo mismo sucede con las opciones 720. Al tener menos resolución, baja el
bitrate manteniendo la misma calidad y peso por fotograma.
Pensemos entonces en un trabajo online HD1.080 en la zona PAL. ¿Qué códec
elegir? Sólo tenemos una opción: el de 185 mbs, sea interlazado o progresivo,
y preferiblemente a 10 bits. Si es un oíüine o un trabajo donde el espacio en el
disco duro está limitado, podríamos optar por 120 mbs.
Aparte de estas opciones lógicas y sencillas, Avid ha ido incorporando
(y lo hará sin duda en el futuro) otras opciones. Existe una opción a 100 mbs
que es idéntica al códec de Panasonic DVC.HD Pro, que también corre a esa
velocidad. Como opción oíüine de este formato estaría el de 60 mbs. También
se creó una opción llamada 120 TR (Thin Ráster) ex profeso para el códec HDV
Estas opciones aparecen y desaparecen o se formulan de distinta manera de­
pendiendo de la versión que se maneja.

DnxHD 36 mbs

Todos estos códecs se consideran como una de producción profesional, excepto


uno de ellos: el DnxHD 36 mbs. Este es un códec que se creó para atender
una demanda profesional, que era poder realizar los oíüine de montaje en HD
16/9. En muchas ocasiones, el montaje oíüine se realizaba en resolución SD y
formato DV Dado que son de aspecto 4/3, se solían incluir bandas laterales que
empequeñecían aún más la imagen. El problema de montar con una resolución
tan pequeña es que no se aprecian los detalles. Un caso típico es el foco: un
plano “rozado” de foco que no se aprecia en SD sí se hace visible en HD. Se daba
por buenos planos en el montaje oíüine que luego, en el conformado online,
había que desechar.
El códec 36 mbs, al ser 16/9 permite realizar un offline de HD sin esos riesgos.
Pero su flujo es insuficiente para considerarlo online.

» 370
ANEXOS

Otros códecs

Avid también tiene sus opciones sin comprimir, 1:1. Otros fabricantes tienen
sus propias formas de identificar las calidades. Es común el uso de las siglas
LQ, MQ, HQ (baja, media y alta calidad, en inglés) u otro tipo de identificación.
Otros incluso han incorporado opciones 4:4:4.
¿Qué codec es el mejor?, ¿cuál elegir? No queda más remedio que estar per­
manentemente actualizado.

» 371
» 372
16. ¿Qué cámara comprar?

Como asesor y consultor de cine digital y alta definición me han hecho esta
pregunta multitud de ocasiones. Y siempre contesto de la misma manera: no
hay una cámara perfecta, depende del trabajo a realizar y del presupuesto del
que se disponga.
Actualmente, hay pocas cámaras en el mercado profesional y prosumer que
no cumplan las expectativas. Pero al mismo tiempo, las diferencias de carac­
terísticas y precios sí son más que notables. Resulta complicado acertar en todos
los casos.
Por eso, creo que la elección de una cámara, sea para alquiler o compra,
debe ajustarse a una serie de preguntas y respuestas que todos debemos ha­
cernos con las características técnicas delante. Responder estas preguntas nos
dará información sobre su calidad técnica y sobre su adecuación al trabajo que
pensamos realizar.
Considero interesante incluir estas preguntas a modo de resumen de esta
parte del libro dedicada a la captación.

La línea de la luz

Objetivos:

» ¿Qué objetivo usa?


¿Es fijo o intercambiable? Contar con ópticas intercambiables será siempre
mejor opción.
Si es fijo, común en la gama prosumer, suele ser un zoom, por lo que debe­
remos fijarnos en su angular y tele máximo, que limitarán nuestro campo de
visión. Dependiendo del tipo trabajo puede ser una limitación muy grave. La
única ventaja clara del zoom es que permite enfocar con más comodidad que
los fijos.

» 373
16. ¿QUÉ CÁMARA COMPRAR?

Nunca se debe olvidar que un buen objetivo es, quizás, el factor más impor­
tante de la calidad de imagen, pues es el primer obstáculo que ha de atravesar
la luz. De nada vale contar con un supersensor o una gran calidad de ficheros,
si nuestra lente es deficiente.

Esta es una de las principales desventajas de los equipamientos prosumer: que carecen
de lentes intercambiables (con excepciones). También hay que señalar que fabricar una
buena lente es caro, más incluso que el resto de los componentes de una cámara, por
lo que si se quiere ajustar el precio generalmente se hará en este aspecto. Una lente
deficiente tendrá problemas de aberraciones, de flare, de nitidez, etc.

» ¿Qué apertura máxima?


Objetivos luminosos permitirán rodar en peores condiciones lumínicas y evitar
el uso de ganancias o ISOs altos. La desventaja, claro, es el precio, que aumenta
exponencialmente a medida que aumenta linealmente la apertura máxima del
diafragma.
Si usamos juegos de lentes fijas, es conveniente que todas tengan la misma
apertura máxima.

Los zooms fijos de las prosumer y la mayoría de los zooms que vienen con el kit estándar
de la cámara son poco luminosos. Y, en general, los zooms suelen ser de peor calidad
óptica que los fijos.
En cámaras profesionales, se puede optar por comprar el cuerpo y elegir un zoom de
mayor calidad. Pero el precio de éste puede doblar el coste sin problemas. Por lo general,
se monta el objetivo del kit y, para rodajes de calidad y presupuesto, se alquilan objetivos
distintos.

» ¿Qué montura?
Si es intercambiable, nos fijaremos en si tiene una montura estándar o exclusiva
de esa marca (o incluso de ese modelo en concreto). Una montura estándar
permite el uso de una gran variedad de lentes y marcas. Las propietarias suelen
limitar este rango. Es posible también que haya adaptadores que amplíen esta
opción.

Las monturas no estándar están en las cámaras prosumer. Se quiso dar la posibilidad de
lentes intercambiables a algunos modelos, pero al usar un tipo diferente de montura se
obliga a comprar sólo la lente del fabricante. Hay que evaluar su relación calidad/precio
en cada caso.

» 374
ANEXOS

» ¿Qué lentes puedo montar?


Dependiendo del tamaño del sensor, podremos usar o no determinados juegos
de lentes. Las lentes diseñadas para sensores pequeños (por ejemplo, 2/3") no
sirven para sensores de mayor tamaño (S35, en este caso). Lo contrario sí es
posible, pero hay que tener en cuenta el factor de multiplicación.
En el caso de las prosumer, hay adaptadores para permitir el uso de ópticas
de montura PL (cine fotoquímico) o incluso de fotografía. Pero sube considera­
blemente el precio, también.

El problema más destacado de los sensores de pequeño tamaño (1/3", 1/2"), es su


dificultad para trabajar con grandes angulares. El factor de multiplicación es tan alto
que convierte los angulares comunes en medios, y los medios en teleobjetivos. Pero, por
el contrario, esta particularidad facilita el uso de teleobjetivos, que en sensores de gran
tamaño (S35, FF) precisa de lentes muy voluminosas y de gran peso.
Hay que considerar también que los juegos de lentes de calidad son caros, por lo que
se suele recurrir al alquiler.

» ¿Qué accesorios permiten?


Las ópticas diseñadas para cinematografía permiten el uso cómodo de una
serie de accesorios profesionales: follow focus, portafiltros, matte box, etc. Estos
accesorios no siempre son adaptables a otras lentes.
No suelen usarse en rodajes ENG o televisivos, pero facilitan mucho el trabajo
en los rodajes cinematográficos.

Los accesorios profesionales pueden parecer superfluos a algunos productores, pues


suponen un sobrecoste considerable. Pero ahorran mucho tiempo en los rodajes y evitan
errores, lo que a la postre los convierte en una inversión rentable.

Separación tricromática

» ¿Bayer, dicroico, Foveon?


El uso de uno u otro sistema determinará su calidad. Casi por norma, es preferible
trabajar con 3 chips captadores, que nos aseguran una resolución nativa sin
interpolación: tres fotodiodos, un píxel.
Como hemos visto, a partir de determinado tamaño puede ser una fuente de
calor prejudicial, por lo que no es habitual encontrar tres sensores de más de
2/3". También las hace más compactas, lo que es muy útil para determinados
trabajos, incluida la estereoscopia.

» 375
16. ¿QUÉ CÁMARA COMPRAR?

He aquí uno de los desafíos actuales de las cámaras de alta gama: lograr con un solo
sensor la calidad que se ofrece con los tradicionales tres. Pero la situación actual es
confusa. Muchos fabricantes hablan de “megapíxeles" en sus nuevos sensores, y no
de "fotodiodos",
"fotodiodos",y yusan
usan
técnicas
técnicas
de demosaico
de demosaico
para ofrecer
para ofrecer
formatos
formatos
no nativos
no con
nativos con
relación a su sensor. Se habla de 2K o de 4K con demasiada facilidad, a mi entender...
Estas técnicas, si bien llevan tiempo implementadas en el mundo de la fotografía digital,
y seguramente sean la tendencia futura, aumentan el ruido y los problemas de aliasing.
Así pues, hay que ser muy cautos a la hora de leer todas las especificaciones.

>> ¿Qué máscara Bayer usa?


En el caso de uso de máscara bayer, es conveniente saber el tipo, para determinar
sus características y su verdadera resolución: GRGB, WRGB, stripped...
También es importante saberlo para sacar más partido al demosaico posterior.

Este es un dato que no todos los fabricantes revelan, pues lo consideran parte de su
secreto industrial. Averiguarlo no es demasiado problemático. El problema estriba en
que los ficheros RAW obtenidos suelen obligar al uso de su propio software para su
demosaico. Nuevamente, debemos fijarnos en el mundo de la fotografía profesional (de
donde procede el trabajo en RAW), donde se atisba una tendencia cada vez más clara
a poder usar diferentes programas para el demosaíco, no sólo la opción propietaria. Se
intenta también imponer el uso de un fichero “openRaw", un código abierto para todas las
cámaras. Adobe propone su propio formato DNG como opción abierta (con una variante
para cinematografía digital). Yo optaría, en la medida de lo posible, por estas soluciones
abiertas, para no condicionar el flujo posterior del trabajo (workflow, pipeline).

Sensor

>> ¿Qué tipo de sensor usa?


Sea CCD o CMOS, ambos son válidos, pero hay que tener presentes sus posibles
defectos: smear y jelly effect, respectivamente. Obviamente, los fabricantes
ignoran estos defectos en su ficha técnica, así que será necesario hacer pruebas
personalmente.
También es interesante profundizar en la arquitectura del sensor: sobre todo
si es capaz de realizar operaciones de sobremuestreo para mejorar, por ejemplo,
la sensibilidad o la respuesta a las altas luces.

» 376
ANEXOS

En el fondo, sólo hay un puñado de fabricantes de sensores a nivel mundial, y muchas


cámaras de diferentes marcas comparten el sensor. Las cámaras prosumer suelen optar
por CMOS por su menor precio, pero depende del fabricante. En estas cámaras, los
defectos propios del CCD y del CMOS suelen ser más evidentes que en las de alta gama,
donde son muy poco evidentes. La cuestión radica en determinar lo que sucede en las
cámaras de nivel medio, que a veces mezclan un sensor prosumer con un acabado más
profesional.

» ¿Tiene opción ROI?


Los sensores CMOS suelen permitir el uso de ROI, disminuyendo el número
de píxeles activos y aumentando la cadencia. En los CCD es posible, pero el
volumen de datos no decrece significativamente, por lo que el aumento de
cadencia no es proporcional.
Si buscamos cámaras versátiles que además nos proporcionen altas caden­
cias, por lo general serán de arquitectura CMOS.

No es una característica demasiado importante, pero sí hay que tenerlo en cuenta para
determinadas producciones. El uso de ROI implica también reducir el tamaño del sensor,
lo que implica que se incrementa el factor de multiplicación.

» ¿Qué tamaño?
El tamaño total del sensor determinará qué ópticas son compatibles e influirá en
la profundidad de campo de los encuadres.
Lógicamente, sensores más grandes darán (en principio, véase más adelan­
te) mejor calidad que los pequeños. Serán adecuados también para el uso de
angulares, pero, por contra, los sensores más pequeños aprovecharán mejor el
uso de teleobjetivos.

Las cámaras prosumer se diferencian precisamente por esta característica. Sus sensores
rara vez superan la 1/2", y las más económicas suelen ser de 1/3" o inferior. Las cámaras
de alta gama tienen, como mínimo, sensores de 2/3" o similar. Es un inconveniente tanto
para el uso de angulares, como comenté antes, como para la sensiblidad, como veremos
ahora.

» ¿Cuántos fotodiodos tiene?


El número de fotodiodos presentes nos dirá si estamos ante un sensor “nativo”
(con la misma resolución que el fichero que obtenemos) o ante un sistema que
interpola o rasteriza. En la medida de nuestras posibilidades, debemos optar por
sensores nativos sin ningún tipo de duda.

» 377
16. ¿QUÉ CÁMARA COMPRAR?

Recordar que se precisan al menos tres fotodiodos para obtener un píxel


tricolor. En el caso de prisma dicroico, este dato es claro. En el caso de uso de
máscara Bayer ha de valorarse en la práctica.
Más fotodiodos nos proporcionan mayor resolución, pero también más datos.
Un exceso de datos puede ser un inconveniente para el proceso y almacena­
miento de la señal.
Algunos fabricantes hablan incorrectamente de píxeles (megapíxeles) en sus
especificaciones sobre el sensor: hay que entender que son fotodiodos.

En las cámaras prosumer, con sensores de hasta 1/3", el problema es evidente: si se


quiere dotar de una resolución nativa, hay que reducir mucho el tamaño del fotodiodo,
que afecta a su sensibilidad. Y si se quiere salvaguardar un tanto ésta, se opta por una
resolución no nativa con procesos de submuestreo, que aumenta el ruido y el aliasing.
En cámaras de alta gama, para mí es inadmisible esta segunda opción, y siempre
tendrán que ofrecernos una resolución nativa.

» ¿Qué tamaño tiene cada fotodiodo?


Este dato es quizás el más importante para conocer la sensibilidad del sensor:
mayor área de captación implica mayor rango dinámico, sea CMOS o CCD.
Si el fabricante no proporciona el dato, es fácil obtenerlo: dividir el área del
sensor entre el número de fotodiodos (totales, no sólo activos).
El dato en área (micrones al cuadrado) es más significativo que el lineal. Hay
que tener en cuenta que un fotodiodo de 6 micrones parece un poco mayor que
uno de 4,5 micrones, pero su área captadora es de 36 μ2 frente a solo 20.25 μ2

Sólo hay que tener cuidado en un tema: fotodiodos excesivamente grandes


pueden producir problemas de aliasing, pues su resolución óptica (líneas por
milímetro) disminuye. Resoluciones ópticas por debajo de 150 líneas por milíme­
tro no son convenientes, pues las buenas lentes son capaces de proporcionarnos
o superar esa calidad.
Mi opción es clara: cuanto mayor sea el tamaño del fotodiodo, mejor calidad,

sin duda.
>> ¿Cuál es su Fill Factor?
Además del tamaño, en el fotodiodo debemos valorar su Fill Factor. Es un dato
que no suele suministrarse, pero podemos deducirlo de la arquitectura del sensor.
Por lo general, un CCD tendrá un Fill Factor superior a un CMOS.
También anotar que, dentro del CCD, una arquitectura IT o Fill reduce el Fill
Factor de un CCD.

» 378
ANEXOS

Por último, es interesante estar al tanto de las novedades, sobre todo en el


desarrollo de los CMOS. Tecnologías tipo back light mejoran el fill factor de los
CMOS tradicionales. Este y otros adelantos pueden tener nombres comerciales
dependiendo de cada casa.

Creo que en este campo se está evolucionando mucho, por lo que los nuevos modelos
siempre serán un poco mejor que los anteriores. En el mundo profesional actual, dos años
parece casi una eternidad.

» ¿Cuál es su rango dinámico?


El rango dinámico sí suele estar presente en las especificaciones técnicas, pero
no siempre es claro. Hay también que distinguir entre rango dinámico puro y
relación señal ruido (SNR), que sería el rango dinámico útil. Si el fabricante sólo
pone este dato como “DR”, tiendo a pensar que no es el original SNR, sino la
relación efectiva de contraste, incluyendo el ruido.
Personalmente, creo que un gran rango dinámico es más importante para
la calidad de la imagen que la resolución. Los movimientos de la industria,
después de la "inflación de megapíxeles" vivida en los últimos años, también
parecen ir por este camino. El objetivo es alcanzar, y posteriormente superar, el
gran rango dinámico del negativo fotoquímico, estimado en 11 f stops o pasos
de diafragma.
Lo más usual es encontrarnos el dato en decibelios. En algunas cámaras,
sobre todo las pensadas para la cinematografía digital, se habla de pasos de
diafragma; otras dan el dato en capacitación (número máximo de electrones de
carga por fotodiodo); y otras con una combinación de luminosidad mínima y
contraste.
Se suele equiparar 1 paso de diafragma con 1 bit de información, y éste con un
poco más de 6db. Pero en la práctica esto no suele ser así, pues depende, mucho,
del ruido inherente al sistema, de la etapa A/D y del tamaño del fotodiodo.
En fotodiodos de tamaño pequeño, los últimos bits de la cuantificación son
inutilizables, pues corresponden a cargas eléctricas marginales y con mucho
ruido fijo.
Comparándolo con el negativo, para lograr 11 stops precisaríamos en torno
a 70 db de SNR (sobre los 80 db, o más de RD en el sensor). 11 stops también se
estima que equivalen a 13 bits lineales.
Siendo un dato puramente técnico, la SNR expresada por los fabricantes no
siempre es fiable. Consultar revistas especializadas o informes de especialistas
independientes suele ser de gran ayuda.

» 379
16. ¿QUÉ CAMARA COMPRAR?

Vuelvo a decir que en mi opinión el rango dinámico es uno de los factores más importan­
tes, si no el que más, de un sensor y, por ende, de una cámara. Ya considero salvado el
escollo de la resolución y de su almacenamiento, pues la mayoría de las cámaras cuentan
con sensores nativos de 1.080 que pueden trabajar en full ráster, sin interpolación. Por lo
que la mejora del RD es el campo que más veremos evolucionar en los próximos años.

La línea de datos

Etapa A/D y matrizado

» ¿Qué profundidad de cálculo tiene?


Una mayor capacidad (medida en bits: 10, 12, 14...) permite una mejor cuantifi-
cación de la carga del fotodiodo, con mayor precisión y menos ruido.
Como ya indiqué, conseguir un formato de 12 bits con una etapa de solo
12 btis de cálculo implica una señal defectuosa y con mucho ruido. Serán
necesarios 14, o mejor 16 bits, para una cuantiñcación eficiente.
En esta etapa también se suele eliminar el patrón de ruido fijo, pero depende
de la cámara y el fabricante.

Hasta ahora el tope se situaba en 14 bits, pero ya se ven cámaras de mucha mayor
calidad, incluso entre las prosumer. Esta evolución se debe, evidentemente, a la propia
del mundo de la informática: chips cada vez más rápidos y baratos. Por esa razón, no
suele haber diferencias apreciables entre modelos.

» ¿Permite el uso de curvas de gama?


Las cámaras profesionales permiten manejar datos de la matriz para una mejor
fotografía. Las cámaras de gama baja no lo permiten y los tienen limitados a
una serie de presets.

Ésta es una cualidad de la que un buen director de fotografía sabrá sacar rentabilidad.
Hasta ahora está siendo auxiliado por la figura del Técnico de Alta Definición o del DIT
(especialista en intermediación digital). O por el supervisor de postproducción, etapa
muy ligada al uso de estas curvas. Pero en el futuro tengo claro que cualquier operador
que se precie tendrá que saber manejarlas por sí mismo, pues formarán parte de su estilo
como creador.
Ciertamente, complican la operativa y ralentizan el trabajo, por lo que no siempre es
posible su uso. Si no se saben usar, es mejor no tocarlas o recurrir a los presets, pues,
como comenté antes, alteran el formato de grabación original de manera irreversible.

» 380
ANEXOS

» ¿Qué formatos o resoluciones ofrece?


Puede ser 1.080 o 720. O, en el caso de cámaras HR, puede llegar a 2K y 4K.
Por lo general, las cámaras HDTV también permiten la grabación en resolu­
ciones SD mediante menús internos.
Al igual que otros elementos, aumentar un poco la resolución suele significar
aumentar bastante el coste de la cámara. Las cámaras específicas para cine
digital, al tener un mercado menor, también suelen ser bastante más caras.

Ya he comentado que actualmente la resolución ha dejado de ser un problema grande.


Incluso en el ámbito prosumer, un 1.080 nativo es posible encontrarlo.
En cinematografía digital se tiende a mayores números, pero también comenté que el
uso de un único sensor complica su verdadera cuantificación. Una vez más, es necesario
leer con detenimiento todas las especificaciones.

» ¿Qué tipo de barrido?


Se distingue entre cámaras interlazadas (exclusivas para el mundo televisivo)
o progresivas (pensadas también para el cine digital). La tendencia es trabajar
sobre todo con progresivo, por su mejor compatibilidad. A día de hoy, la mayoría
de las cámaras ofrecen como opción en menú los dos barridos.

No obstante, todavía hay cámaras que sólo permiten trabajar en interlazado; personal­
mente, las considero obsoletas.

» ¿Qué cadencias permite?


La mayoría de las cámaras permiten un amplio uso de las diferentes cadencias
estándares. Pero cadencias como 23,976p o 24p pueden ser más exclusivas. Es
una cuestión comercial, más que técnica, que diferencia dos modelos de una
misma marca por lo demás totalmente semejantes.
Si nuestra producción tiene un ámbito territorial no muy amplio, podemos
sacrificar este aspecto. Una grabación 25p/50i será más que suficiente para
España y el resto de Europa. Pero si el contenido aspira a una distribución en
salas, o en televisiones de zona NTSC (Japón, EEUU...), la opción 24p o 23,976p
es muy aconsejable.
Hay que valorar también el uso de altas cadencias (50p, 100p, 200p...) para
efectos de cámara lenta.

» 381
16. ¿QUÉ CÁMARA COMPRAR?

Una política muy común en los broadcaster es discriminar sus modelos en función de
la cadencia. En las prosumer suelen venir con opciones determinadas en función de su
zona de venta, sean NTSC como PAL. Por eso, hay que tener cuidado si se compra o
se alquila una cámara en el extranjero. En realidad, es un capado por software, pues el
hardware es siempre el mismo en todos los casos. No lo hacen “para fastidiar”, como
alguna gente cree, sino para gestionar mejor su política de precios.
En las de gama alta de HDTV también se da esta diferencia, por el mismo motivo. Se
pueden encontrar hasta cuatro versiones de la misma cámara que sólo se diferencian
por este aspecto.
En las específicas de cinematografía digital HR, es un problema que raramente se ve,
pues ímplementar cadencias diferentes no es un gran inconveniente técnico.

» ¿Qué espacio de color?


Hay que valorar si permite un trabajo 4:4:4 (RGB) o 4:2:2 (YUV).
El primero es aconsejable para todos los trabajos cinematográficos, y el se­
gundo es válido para la televisión broadcast.
La pérdida de información en color YUV no es apreciada por el espectador
medio, pero complica los procesos de postproducción.
Submuestreos inferiores (4:2:0, 4:1:1) están pensados para el mundo indus­
trial, educativo, y para los reportajes sociales. Su falta de información de color
no permite una postproducción correcta, más allá del montaje. Obviamente,
dada su relación calidad/precio, suele ser una de las primera opciones para
una producción de bajo presupuesto o independiente, donde el contenido prima
sobre el continente.

Junto a las lentes y el pequeño tamaño del sensor, ésta es una de las características de
la gama prosumer, que, con pocas excepciones, suele ofrecer submuestreos del orden de
4:2:0 o inferiores.
Esto tenía cierto sentido hace unos años: al manejar menor información, se podía
almacenar en cintas más pequeñas y facilitaba su edición y postproducción en ordena­
dores caseros. Sin embargo, hoy en día, con la grabación en soporte rígido y las mejoras
en la informática, carece de sentido y sólo se entiende por cuestiones comerciales. Hay
que tener en cuenta que todos los sensores ofrecen una salida original 4:4:4. Que ofrez­
ca una opción 4:2:2 es casi obligatorio para su correcto monitorizado y armonización
con los flujos de trabajo televisivo, pero, en mi opinión, su conversión a 4:2:0 carece
actualmente de sentido (excepto en el mundo de la distribución, que es para lo que se
pensó originalmente).

>> ¿Qué profundidad de color?


El estándar es de 8 bits. Aumentando este parámetro a 10 o 12 bits aumentamos
muy notablemente la calidad.

» 382
ANEXOS

También en este sentido veremos evolucionar la industria, pues como ya comenté, el


aumento de bits influye en el rango dinámico. De todas maneras, una señal de 8 bits es
plenamente profesional; no es cuestión ahora de convertir en malo lo que es bueno sólo
porque aparezcan novedades en el mercado.

» ¿Qué bitrate ofrece el archivo?


Es un dato también a tener en cuenta para calcular el almacenamiento. Al­
gunas cámaras ofrecen diferentes opciones (lOOmbs, 50mbs, 25 mbs...), pero
sacrificando parámetros de calidad (pasar de 10 a 8 bits, o de 4:2:2 a 4:2:0).
La opción primera será elegir el formato de mayor calidad (mayor bitrate), pero
se pueden dar situaciones especiales que nos obliguen a sacrificar la calidad
para tener más espacio de almacenamiento (más tiempo de rodaje).
Flujos de datos muy altos suponen una mayor calidad, pero también compli­
can toda la logística.

El bitrate es un indicativo claro de la calidad de grabación. Pero no podemos olvidarnos


de qué tipo de códec usa. Un códec intraframe siempre precisará más bitrate que uno
interframe. O hay que saber que la familia mpeg4 ofrece la misma calidad que los mpeg2
con un bitrate muy inferior.

Salidas y almacenamiento

» ¿De qué salidas dispone?


Las salidas profesionales HD-DSi permiten una compatibilidad con monitores y
equipos de grabación externos, que pueden permitir asimismo la grabación sin
compresión en tiempo real o su captura posterior en edición.
Las salidas HDMI también permiten una salida sin compresión, pero depende
de si poseen HDCP para su posible grabación externa.
Las salidas informáticas (firewire, usb) suelen transportar la señal previa­
mente comprimida.

» 383
16. ¿QUÉ CÁMARA COMPRAR?

Una salida HD.SDi sin comprimir es obligatoria en los equipos de media y alta gama.
En el segmento prosumer se está implementado desde hace tiempo con regularidad, o
en su defecto se dispone de HDMI. Técnicamente, es mejor contar con un HD-SDi, pues
se adapta mejor a otros equipamientos profesionales. Pero también hay conversores
HDMI/HD.SDI.que pueden suplir este inconveniente.
Pero hay dos errores comunes en este segmento prosumer: que cuente con una salida
HD.SDI no obvia ni el pequeño tamaño del sensor ni la calidad de sus lentes y el resto de
los componentes; o, en el peor de los casos, que ni siquiera ofrezca una resolución nativa.
Por eso, no hay que considerar nunca que nos darán una calidad 100 % profesional. El
otro error es pensar que será práctico grabar esta señal en un ordenador u otro dispositivo
portátil para evitar el exceso de compresión o de submuestreo que ofrece este segmento.
Si se suma el precio de este equipamiento a lo engorroso que resulta en el rodaje, quizás
sea mejor optar por una cámara de alta gama, que a fin de cuentas saldrá más rentable.
El segmento prosumer es lo que es, está claro.

>> ¿Dónde almacena la información?


Dos opciones: lineal (cinta) o no lineal (soporte rígido IT).
Las cintas pueden ser de distintos formatos: 1/2", 1/4"..., con diferentes calida­
des, precios y fabricantes. Algunos fabricantes pueden recomendar el uso de sus
propias cintas, pero por lo general son sistemas compatibles con otras marcas.
En el caso de soportes no lineales, pueden ser propietarios (P2, DV Disc),
lo que obliga a comprar reproductores de la misma marca. Es algo a tener en
cuenta a la hora de presupuestar. O pueden ser estándares (tarjetas tipo SD,
Compact Flash y otras), que son legibles por cualquier ordenador (y además
suelen ser más baratas).

Afortunadamente, se tiende al uso de tarjetas estándares en la grabación IT. Pero el


problema más grave que puede suponer la desaparición de la cinta es el almacenamiento
de los brutos de cámara, tanto en el propio rodaje como para su posterior archivo. Serán
necesarios no sólo una gran cantidad de disco, sino también un protocolo claro y conciso
para su indexación.

>> ¿Cómo almacena la información?


Cada fabricante es libre de usar el códec que considere más apropiado. Tenemos
que tener en cuenta su calidad (familia de códecs y ratio de compresión) pero
también su compatibilidad o no con los equipos de edición y postproducción
que manejemos.
Si el fichero es MXF no tendremos problemas de compatibilidad.
El almacenamiento con poca o ninguna compresión será siempre la mejor
opción. Pero dado la cantidad de datos generados, se dan pocas situaciones
ideales que lo permiten.

» 384
ANEXOS

El códec a usar es también muy importante, y otra vez nos sirve para diferenciar los
segmentos profesionales. En el prosumer, lo usual es trabajar con códecs interframe,
bien mpeg2 o mpeg4, cuantificados a 8 bits 4:2:0 y con bitrates entre 25 y 50 mbs.
Un poco más arriba, en la gama media, nos podemos encontrar los mismo códecs, pero
con mayor bitrate (ergo, menor compresión) y, quizás, 4:2:2.
En la gama alta el códec siempre será intraframe 4:2:2, lo que implica un bitrate más
alto. Tradicionalmente, Sony ofrecía su códec HDCAM a 144mbs y Panasonic el DVC Pro
HD a 100 mbs. Estos bitrates eran los soportados por las cintas tradicionales.
Con la aparición de los soportes rígidos, se podrá almacenar cada vez más con mayor
bitrate y menor compresión. Sony y Panasonic optaron por la alianza estratégica del
AVC-HD (mpeg4, pero I-frame), que cada casa personaliza en cada caso. También están
apostando claramente por los 10 bits en sus equipos de mayor calidad.
Los códecs de gama alta tienen la ventaja de poder trabajar, si se desea, Direct to
Edit. En los de prosumer, es conveniente una transcodifcación a códecs de edición más
robustos.
Otra opción interesante es precisamente implementar estos códecs de edición en
las cámaras, para evitarnos cualquier tipo de transcodificación. Es algo que sin duda
veremos cada vez más.

Sobre el contenido

» ¿Cuál es nuestro público?


Si el trabajo es para cine, siempre será recomendable trabajar con resoluciones
1.080 o superiores y espacios de color 4:4:4, preferentemente sin comprimir y
con 10 o 12 bits de profundidad de color.
Si es un trabajo para televisión, nos servirá tanto el 1.080 como el 720,
así como un muestreo 4:2:2 y a 8 bits. La compresión será preferiblemente
intraframe, con una ratio no excesiva.
Trabajos destinados a una distribución doméstica o alternativa (DVD, IPTV)
pueden posibilitar el uso de submuestreos (4:2:0) y códecs menos eficientes
(interframes, con altas ratios de compresión).

No vale la pena engañarse: dada la situación del sector, con presupuestos menguantes,
los productores optan cada vez más por trabajar con equipamientos baratos, sin importar
la calidad, incluso en entornos de televisión comercial o incluso de cine digital. Es labor
del profesional insistir en que se respeten los mínimos de calidad broadcast, siempre y
cuando no se ponga en riesgo la viabilidad financiera del proyecto (que no debería incluir
el "sobresueldo" de algunos responsables, añadiría). Y, por descontado, a partir de un
mínimo, no hay cámara mala, sino operador ineficiente.
Un viejo dicho del oficio nos dice que hay tres elementos en cualquier trabajo: tiempo,
dinero y calidad. Pero que sólo se puede sacrificar dos de ellos a la vez. No se puede
producir bien, barato y en poco tiempo.

» 385
16. ¿QUÉ CÁMARA COMPRAR?

>> ¿Qué condiciones de trabajo?


No es lo mismo trabajar un documental en la selva que hacer una entrevista en
un plato.
Las condiciones duras exigen equipamientos resistentes. O, en su defecto,
una o dos cámaras de reserva.
El uso de cintas, debido a las partes móviles que tienen los magnetoscopios,
puede desaconsejarse en determinados ambientes (arena, polvo, humedad...),
pero tampoco hay un acuerdo general sobre este punto.
El uso de soportes rígidos implica, por lo general, contar con sistemas de
almacenamiento para su descarga. Lo que también puede complicar la logística.
El consumo de energía de los equipos y la duración de las baterías también
puede ser un factor a tener en cuenta.
Otro tema importante es el tiempo: los equipos de gama baja (4:2:0, con
mucha compresión) exigen una labor de iluminación más cuidada que los de
mayores posibilidades, si se pretende conseguir una estética cuidada. Eso sig­
nifica más tiempo de preparación y más material de iluminación.

La compra de una cámara es siempre una cuestión delicada. Por lo general, siempre
es preferible el alquiler. Sucede sin embargo que los equipos prosumer (y algunos de
alta gama) han bajado tanto de precio que son fácilmente amortizables a poco que se
alargue un trabajo. Pero por contra, también se quedan rápidamente obsoletos. El alquiler
nos permite contar siempre con el último equipamiento, y poder elegir la herramienta
adecuada a cada una de nuestras producciones.

» ¿Qué tipo de producción?


En ocasiones, la elección de la cámara no es puramente técnica, sino artística.
Bien porque se busca una determinada estética, o bien porque se rueda en
condiciones donde el tamaño y la flexibilidad pueden primar sobre los aspectos
puramente técnicos.
Cámaras pequeñas y manejables permiten un uso casi "invisible" de las
mismas, aun asumiendo la pérdida de calidad que implica.
Las cámaras de gran calidad suelen exigir un equipo humano y material que
sepa sacarles partido, y requieren tiempo (¡y espacio!) adecuados para trabajar
con ellas.

» 386
ANEXOS

Realizadores de prestigio como Win Wenders, Spike Lee o Abbas Kiarostami han usado
cámaras DV prosumer para algunas de sus producciones y han elogiado su versatilidad
y cercanía. Otros, como Josep Morder, un clásico del cine independiente francés, se
han atrevido incluso a rodar un largometraje con la cámara de un teléfono móvil. El
propio Morder descubrió con sorpresa que el excesivo jelly effect del pequeño aparato
daba a algunos de sus planos un aspecto “acuático” que supo aprovechar narrativa y
emocionalmente.
Este puede ser un ejemplo de “defecto convertido en efecto". Pero de ahí a meter todo
en el mismo saco, y defender el estilo youtube como un nuevo paradigma, o decir que
“es lo que la gente quiere”, hay un trecho. Al final, las imágenes deben defenderse por
sí mismas. Si hay que explicarlas o excusar su baja calidad por razones que no aparecen
dentro de ellas, malo. Aunque, claro, ésta es sólo mi opinión personal...

» Y por último...
No podemos olvidarnos de la pregunta que sirve para contextualizar el resto:
¿con qué presupuesto contamos?

» 387
PARTE IV: DISTRIBUCIÓN

» Futuro próximo
Actualmente ya se están ensayando transmisiones estereoscópicas en directo.
Sucede sin embargo que ahora mismo no existe una estandarización para este
tipo de emisiones 3DTV, por lo que productores y exhibidores se tienen que
poner de acuerdo para elegir algunas de las soluciones comerciales que ofrece
el mercado.
También se está ensayando la transmisión en directo a través de redes IP
Con redes de alta velocidad en este caso y por esta vía sí sería posible transmitir
contenidos con especificaciones DCI, como ya se ha demostrado.

Pero quizá lo más importante del E-Cinema y de la tecnología digital aplica­


da a la distribución es que cambiará sin duda la forma de entender el cine. Si
hasta ahora asociábamos esa palabra, “cine”, a un determinado contenido (lar­
gometrajes de ficción, generalmente) y a un espacio (la sala de cine), ya estamos
viendo nuevos contenidos (deportes, series de televisión, videojuegos) que usan
el mismo local sin ser “cine”. Y paralelamente vemos cómo se consume más y
más “cine” fuera de su ámbito tradicional.
Éste es el cambio de paradigma, que afectará a toda la industria del audio­
visual, que habrá que observar y analizar en los próximos años.

» 307

También podría gustarte