Está en la página 1de 8

ÍNDICE

1. Introducción

• Digitalización de la señal de televisión

2. Inicios de la televisión digital

• Ventajas y aplicaciones de la televisión digital


• Opciones de digitalización estándar

3. Digitalización de la señal de vídeo según norma CCIR 601

• Filtrado antialiasing
• Muestreo
• Cuantificación
• Codificación
• Distribución de muestras por línea en la norma 4:2:2 y otras

4. Normas SMPTE para interfaces de señal de vídeo digital

• Interfaces digitales de conexionado entre equipos de vídeo


• Interfaz paralela SMPTE 125M
• Distribución de los bytes en una línea activa
Digitalizacion de la señal de televisión
Introducción
Este módulo explora las ventajas de la televisión digital sobre la analógica, detallando el
proceso de digitalización del vídeo para convertir formatos analógicos en uno universal y
digital. Se examina la interfaz de transporte de información digital de televisión por cable, así
como los formatos estándar y de alta definición adaptados a diferentes relaciones de aspecto.
La digitalización ofrece ventajas en procesamiento y servicios multimedia, con el formato D1
como base para estándares digitales por su compatibilidad y eficiencia. La interfaz SDI se
desarrolló para la transmisión de señales digitales.
1. Inicios de la televisión digital
La televisión digital ha evolucionado a partir de la señal analógica, permitiendo a los expertos
en video y estudios de televisión grabar, editar y compartir contenido de forma más eficiente.
Aunque inicialmente requería mucho ancho de banda, avances tecnológicos en compresión
de datos han mejorado su calidad, ofreciendo incluso ventajas sobre la televisión analógica.
1.1. Ventajas y aplicaciones de la televisión digital
Las ventajas de las señales digitales incluyen almacenamiento sin pérdida, resistencia al
ruido, procesamiento económico, separación de información, mayor resolución e
interactividad. La televisión digital ha impactado en campos como la producción,
transmisión y emisión de programas.
1.2. Opciones de digitalización estándar

En el cambio de la televisión analógica a la digital, se han evaluado dos opciones:


• Codificar la señal compuesta (formato digital D2).
• Codificar la señal en componentes (formato digital D1).
Se diferencian en:

Figura 1

El formato de vídeo compuesto D2 presentaba desventajas por la incompatibilidad entre


señales PAL, NTSC y SECAM. Aunque permitía operaciones de vídeo con NTSC y PAL, no
era viable con SECAM. Por ello, se optó por el formato D1 para garantizar compatibilidad
internacional y digitalización total en componentes, siguiendo normativas como CCIR 601 y
CCIR 656. Los estudios de televisión han evolucionado hacia la digitalización total,
combinando procesos digitales con analógicos en las primeras etapas.
Figura 2

2. Digitalización de la señal de vídeo según norma CCIR 601


La digitalización de cualquier señal analógica implica tres procesos esenciales: muestreo,
cuantificación y codificación. En el contexto de la televisión, que maneja tres señales,
también se requiere multiplexación temporal. Además, para completar el proceso, se
deben agregar al flujo de datos de vídeo obtenidos, las señales correspondientes a la
sincronización de línea y campo, el audio digital y otros datos auxiliares que permitan
operaciones adicionales sobre la señal, como teletexto, codificación para canales de pago
o interactividad con el usuario. Los sistemas electrónicos encargados de estas funciones
están integrados en todos los dispositivos de vídeo que dispongan de salida digital, como
cámaras de televisión, reproductores multimedia, receptores de televisión, computadoras,
etc. En cualquier caso, es importante tener conocimiento sobre los parámetros de diseño
de estos sistemas, los cuales se detallan a continuación.

2.1. Filtrado antialiasing


Antes de diseñar el filtro antialiasing, es necesario decidir qué tipo de señal en
componentes se va a digitalizar: si las señales RGB o las señales YUV. Este paso inicial
implica filtrar la señal analógica para prevenir el solapamiento (aliasing) durante el proceso
de muestreo posterior.
2.1.1. Elección de las señales a digitalizar
La elección entre digitalizar señales RGB o YUV depende de la resolución y el ancho de
banda requeridos. La digitalización en componentes evita interferencias entre luminancia
y crominancia, pero las señales RGB son más susceptibles a errores de transmisión que
las YUV. Las señales RGB necesitan más ancho de banda que las YUV, lo que influye en
la resolución final. Por tanto, se opta por digitalizar las señales YUV debido a su menor
susceptibilidad a errores.
2.1.2. Necesidad del filtro antialiasing
Se necesita un filtro antialiasing al muestrear componentes de vídeo para evitar la
distorsión del espectro de la señal. Al limitar el ancho de banda a muestrear al de la señal
de vídeo, se puede recuperar la señal original con un filtro paso-bajo en el convertidor D/A.
2.1.3. Diseño del filtro antialiasing
Según la UER (Unión Europea de Radiotelevisión) los filtros para la luminancia (Y) y para
la crominancia (U y V) se deberían ajustar a:
Figura 3

2.2. Muestreo
Las componentes que se digitalizan son las señales Y, CR y CB , donde:

KR y KB tienen valores diferentes a los de PAL, NTSC y SECAM. La norma


CCIR 601 establece que se deben tomar 720 muestras por línea y 576 líneas
por imagen en televisión digital, lo que da un total de 414,720 muestras por
imagen. Es crucial seleccionar correctamente la frecuencia de muestreo para
asegurar que el tiempo de muestreo de una línea sea menor que los tiempos
de línea analógicos existentes (PAL, NTSC y SECAM).
2.2.1. Elección de la frecuencia de muestreo
La frecuencia de muestreo debe cumplir tres condiciones importantes:

1. Criterio de Nyquist para evitar el aliasing: El criterio de Nyquist establece que la


frecuencia de muestreo debe ser al menos el doble del ancho de banda de la señal
para evitar el aliasing. El sistema SECAM necesita un ancho de banda de 6 MHz para
sus señales de vídeo debido a la modulación de frecuencia en la crominancia en lugar
de modulación de amplitud.
2. Muestreo ortogonal: El muestreo ortogonal es importante para evitar desplazamientos
en imágenes digitales. Debe cumplir con condiciones como consistencia en el número
de muestras por línea y ubicación constante de cada muestra en todas las líneas e
imágenes. La frecuencia de muestreo debe ser un múltiplo de la frecuencia de línea
para garantizar la ortogonalidad.
3. Carácter universal: Se busca un estándar universal para la compatibilidad entre
sistemas de televisión PAL, NTSC y SECAM, considerando las diferencias en
frecuencias de línea y muestras activas. La normativa propone 720 muestras por línea
activa y el uso de 576 líneas para garantizar la compatibilidad entre los sistemas.
2.3. Cuantificación
Una vez que la señal ha sido muestreada, es necesario llevar a cabo el proceso de
cuantificación. El proceso de cuantificación implica establecer un rango dinámico y
discretizar el valor de la muestra al valor más cercano dentro del conjunto de valores
posibles según el número de bits utilizado. También es necesario calcular los coeficientes
ponderadores de las señales de diferencia de color para cuantificar las muestras de señal.
2.3.1. Rango dinámico de las señales de crominancia
• El valor de Y está dentro del intervalo [0, 1].
• El valor de R-Y está dentro del intervalo [-0,701, 0,701].
• El valor de B-Y está dentro del intervalo [-0,886, 0,886].
Estos intervalos han sido calculados considerando el diagrama polar de colores:

Figura 4

2.3.2. Ajuste al rango dinámico de 1 V


La señal de luminancia Y se normaliza en un rango de 0V a 1V, mientras que las
señales de crominancia (R-Y y B-Y) son bipolares y se ajustan a un rango absoluto
de 1V con un rango dinámico de [-0.5V, +0.5V]. Se pueden deducir los coeficientes
ponderadores necesarios para lograr esta normalización conociendo los valores
máximos y mínimos de R-Y y B-Y.
Los coeficientes KR y KB:

Componentes de crominancia:
2.3.3. Número de bits por muestra
La calidad de imagen se ve afectada por la resolución de los píxeles, que
puede ser de 8 o 10 bits por muestra, lo que equivale a 256 o 1.024 niveles
de cuantificación disponibles.
2.4. Codificación
Después de la cuantificación, se lleva a cabo la codificación asignando
valores cuantificados a códigos binarios con la cantidad adecuada de bits. Se
reserva un 10% del rango dinámico para evitar valores excedentes debido al
ruido en la señal. En la codificación con 8 bits, se asignan 220 niveles a la
luminancia y 224 a cada señal de crominancia. En el caso de 10 bits, se
añaden 2 ceros para representar más valores.
2.5. Distribución de muestras por línea en la norma 4:2:2 y otras
La información de luminancia y crominancia se envía de forma multiplexada
para evitar altas velocidades binarias, eliminando el muestreo durante el
sincronismo horizontal.
Se elige un valor único de duración de la línea activa digital para lograr la
compatibilidad en la transmisión digital en los tres sistemas y asegurar el
envío del mismo número de muestras activas. Este tiempo es: Td = 53,33
μseg.
El tiempo entre muestras:

Número de muestras de vídeo activo por línea:

2.5.1. Multiplexado de datos


La velocidad binaria del flujo de vídeo se calcula multiplicando el número de
muestras por línea por el número de bits por muestra, lo que nos da el total de
bits en el intervalo de una línea activa. En este caso, con 720 muestras de
luminancia y 1.440 de crominancia, cada una de 8 bits, obtenemos 17.280 bits
en total.
2.5.2. Formatos SIF, CIF y QCIF
Se han creado varios formatos de imagen, como SIF, CIF y QCIF, que afectan
la frecuencia de muestreo y el número de imágenes transmitidas. SIF tiene baja
resolución y frecuencia de cuadro reducida, CIF es un estándar para
videoconferencias y QCIF se usa en videotelefonía con compresión H261. Estos
formatos están asociados con niveles de resolución en el estándar MPEG-2,
como QCIF para el nivel bajo y 4:2:0 para estándar digital.
3. Normas SMPTE para interfaces de señal de vídeo digital
El texto habla sobre la conexión de dispositivos digitales de vídeo a través de
cableado en paralelo o en serie, con formatos de bits estandarizados para la
compatibilidad de equipos y calidad de interfaces. Se mencionan los principales
formatos de interfaces digitales, centrándose en la interfaz paralela y la interfaz
en serie SDI utilizadas en estudios de televisión para la producción de
contenidos.
3.1. Interfaces digitales de conexionado entre equipos de vídeo
Los datos de vídeo combinados requieren bytes de inicio y fin de vídeo activo,
muestras de audio digital y otros datos auxiliares. Estos son estandarizados
por la SMPTE, que establece parámetros de digitalización y formatos de
vídeo sin comprimir y comprimido con la técnica MPEG.
3.2. Interfaz paralela SMPTE 125M
El estándar SMPTE 125M permite la conexión entre dos equipos a través de
un conector DB-25 con nueve pares de cables, con una longitud de cable de
100 a 150 metros. Sin embargo, la calidad de la señal se degrada más allá
de estas distancias, lo que no cumple con los estándares necesarios para la
reproducción en televisión. Un par balanceado transmite una señal de reloj
síncrono de 27 MHz para sincronizar los datos.
3.2.1. Distribución de los bytes en una línea activa
Si la señal es de 8 bits, cada muestra contiene 8 bits, es decir, un byte.
Siguiendo la norma 4:2:2, cada muestra incluye un byte de luminancia (Y),
mientras que cada dos muestras contienen una muestra de cada componente
de crominancia (CR y CB). Esto significa que hay el doble de bytes que de
muestras. Si la figura indica que hay 720 muestras de vídeo activo y 144
muestras auxiliares, entonces habrá 1.440 bytes en la zona de vídeo activo y
288 bytes de auxiliares en la zona de borrado de línea.
En el caso de que la señal sea de 10 bits (mayor precisión), en lugar de bytes
estaríamos hablando de palabras de 10 bits. Dado que generalmente nos
referimos a señales de 8 o 10 bits, en lugar de bytes, usaremos el término
palabras de 8 o 10 bits.
Dado que la frecuencia de muestreo es de 13,5 MHz y en cada período se
toman dos palabras (una de luminancia y media de cada crominancia), es
decir, en 2 períodos de muestreo se toman dos muestras de luminancia y una
de cada crominancia, la frecuencia de los bits será el doble, 27 MHz.
• CONCLUCIONES

Ventajas de la televisión digital sobre la analógica: La digitalización de la


señal de televisión ofrece numerosas ventajas, como almacenamiento sin
pérdida, resistencia al ruido, procesamiento económico, mayor resolución e
interactividad, lo que ha llevado a una evolución significativa en campos como
la producción, transmisión y emisión de programas.
Proceso de digitalización: La digitalización de la señal analógica implica
varios procesos esenciales, como muestreo, cuantificación y codificación.
Estos procesos se llevan a cabo para garantizar la calidad y la compatibilidad
de la señal digital resultante con los estándares internacionales.
Normativas y estándares: La digitalización de la señal de televisión sigue
normativas como CCIR 601 y CCIR 656 para garantizar la compatibilidad
internacional y la eficiencia en la digitalización total en componentes. Se ha
optado por formatos como D1 para garantizar esta compatibilidad y eficiencia.
Elección de parámetros y estándares: La elección de parámetros como la
frecuencia de muestreo y el número de bits por muestra se realiza
considerando criterios como el criterio de Nyquist para evitar el aliasing, el
muestreo ortogonal y la compatibilidad entre sistemas de televisión PAL,
NTSC y SECAM.
Interfaces digitales y normas SMPTE: Se utilizan interfaces digitales como la
interfaz paralela SMPTE 125M y la interfaz en serie SDI para la conexión de
dispositivos de vídeo, cumpliendo con estándares y parámetros establecidos
por la SMPTE para garantizar la calidad y la compatibilidad entre equipos.

• BIBLIOGRAFÍA

Gago Barrio, J. (Año). Digitalización de la señal de televisión. Universidad de


Cataluña.

También podría gustarte