Está en la página 1de 16

Introducción y formatos de video

Ir a la navegaciónIr a la búsqueda
Este recurso de aprendizaje es una actividad creada originalmente como caso
práctico del proyecto de aprendizaje Tecnologías multimedia e interacción.
Desde la primera película muda que ha destellado en la vida, las personas han
sido fascinadas por los “cuadros en movimiento”. En estos días, el video es el
elemento multimedia que puede arrancar suspiros a una multitud de una marca o
mantener firmemente el interés del estudiante en un proyecto de aprendizaje
basado en ordenador. El video digital es el más comprometido/utilizado de las
áreas multimedia, y es una herramienta para atraer a los usuarios de ordenadores
más cerca del mundo real. Pero tenga cuidado, si el video no es bien pensado o
bien producido puede degradar su presentación.

Sumario

 1Introducción.
o 1.1Cómo trabaja el vídeo y es mostrado.
o 1.2Video Analógico.
 1.2.1Alta Calidad:
 1.2.2Baja Calidad:
 1.2.3NTSC
 1.2.4PAL
 1.2.5SECAM
o 1.3Video Digital.
 1.3.1HDTV
 2Monitores/Pantallas (Screen)
o 2.1CRT (cathode Ray Tube - Tubo de Rayos Catódicos)
o 2.2FLAT (Pantalla Plana)
 3Reproducción en Pantalla
o 3.1Entrelazado (Interlaced)
o 3.2Escaneo progresivo (progressive scan)
o 3.3Overscan / Underscan /Safe Title Area
 3.3.1Overscan (sobreescaneo)
 3.3.2Underscan
 3.3.3Safe Title Area(Área de título seguro)
 4Formatos de Video
o 4.1Container(Contenedor)
 4.1.1OGG
 4.1.2Matroska
 4.1.3Flash Video
 4.1.4AVI
 4.1.5MP4
 5Códecs
o 5.1Principios de los códecs
o 5.2Relación entre códecs y formatos
o 5.3Ejemplos de códecs
 5.3.1MPEG
 5.3.2Windows Media Video
 6La Guerra de los Codecs
 7¿Qué es el video 3D?
 8Conclusiones
 9Referencias
 10Participantes activos

Introducción.[editar]
Definición de video?
- Un tipo de cinta magnética usada para grabar “cuadros en movimientos” y
sonido; una caja conteniendo esta cinta, también puede ser grabada por medio
digital.
- Una película corta o registro de un evento, grabado usando tecnología digital y
visualizada en el ordenador, especialmente sobre internet.
- Etimológicamente la palabra video proviene del verbo latino video, vides, videre,
que se traduce como el verbo ‘ver’. Se suele aplicar este término a la señal de
video y muchas veces se la denomina «el video» o «la video» a modo de
abreviatura del nombre completo de la misma.

Con elementos de video en un proyecto, usted puede presentar eficientemente su


mensaje y reforzar su historia, y los espectadores tenderán a retener más de lo
que ellos ven. Antes de decidir si añadir video a su proyecto, es esencial tener un
entendimiento de los medios, sus limitaciones y sus costos.
Esta lección wiki intenta ayudar a entender como el video funciona, los diferentes
formatos, estándares para grabar y mostrar un video, y la diferencia entre video en
ordenador y televisión. Los estándares y formatos de videos como el transporte,
almacenamiento, comprensión y tecnología de exhibir (display) siguen siendo
refinados cada día.
De todos los elementos multimedia, el video ocupa el de mayor demanda de
rendimiento de un ordenador y de dispositivos como memoria y almacenamiento.

Considere que la imagen fija de color de alta calidad en la pantalla de un


ordenador podría requerir aproximadamente un MB o más de almacenamiento en
memoria. Multiplique esto por 30 – el número de veces por segundo que un
cuadro es reemplazado para proveer la apariencia de movimiento – entonces se
necesitaría de al menos 30 MB de almacenamiento para rodar su video 1
segundo, más de 1.8 GB de almacenamiento para un minuto, y 108 GB o más
para 1 hora de video.

Mover todo este volumen de cuadros desde la memoria del ordenador hasta la
pantalla a la velocidad de 30 cuadros por segundo, retaría la capacidad de
procesamiento de un superordenador. Es por eso que la tecnología multimedia y
los esfuerzos de investigación han realizado la comprensión de los datos de
imágenes de video digital en flujos manejables de información. Comprensión y
descomprensión usan un software especial llamado CODEC, permite que una
cantidad masiva de imágenes sea “exprimida” dentro de un pequeño archivo de
datos similar, el cual todavía pueda ser distribuido con una buena experiencia de
visualización durante su proyección.
Cómo trabaja el vídeo y es mostrado.[editar]
Cuando la luz reflejada de un objeto pasa a través de la lente de una cámara de
video, esa luz es convertida en un señal electrónica por medio de un sensor
especial llamado charge-coupled device (CCD). Las cámaras de difusión de alta-
calidad y aún la cámaras de vídeo pueden tener como mucho tres CCD’s (uno por
cada color del rojo, verde y azul) para ampliar la resolución de la cámara y la
calidad de la imagen.
El vídeo analógico tiene una resolución medida en número de líneas horizontales
escaneadas (esto es debido a los tubos catódicos), pero cada una de aquellas
líneas representa medidas continuas del color y el brillo a lo largo del eje
horizontal. Es una señal lineal que es análoga a la señal de audio.
En vídeos digitales las señales consisten en un valor de color y brillantez (RGB)
discreto por cada píxel.
Más información en Captura de vídeo.
Video Analógico.[editar]
En un sistema analógico, la salida del CCD es procesado por la cámara dentro de
los tres canales de información de color (rojo, verde y azul) y pulsos de
sincronización (sync) y las señales son grabadas sobre la cinta magnética.
Alta Calidad:[editar]
Component-video: que consiste en que cada canal de información de color es
transmitida en una señal separada sobre su propio conductor (canales rojo, verde
y azul separados), los cables de component-video no lleva el audio, por lo cual se
tienen que emparejar con dichos cables, el equipamiento es más
caro. https://en.wikipedia.org/wiki/Component_video

Component-cables
Baja Calidad:[editar]
Separate-Video (S-Video): usa dos canales que lleva la información de luminancia
y crominancia, esta separación hace que el cable S-Video tenga más ancho de
banda para la luminancia y consiga más trabajo efectivo del decodificador de
crominancia. https://es.wikipedia.org/wiki/S-Video

S-Video Connector(jp)
Composite-Videos: en este tipo de cable las señales son mezcladas y llevados
sobre un solo cable como un compuesto de los canales, los tres colores y la señal
(sync). La señal composite produce señales de color menos-preciso con una
resolución de 480 x 576, los cuales no pueden ser manipulados o corregir el color
como en las señales S-Video o Component-
video. https://en.wikipedia.org/wiki/Composite_video

Composite-cables
Muchos consumidores de dispositivos como Video Cassette Recorders (VCR’s) y
receptores de satélites añaden las señales de video y sonido a un operador y ellos
lo modulan dentro de una frecuencia de radio (RF) en la banda de difusión FM.
Esta es la NTSC. PAL o SECAM señal disponible en el conector “Antenna Out” de
un VCR, usualmente la señal es modulada en el canal 3 o canal 4 y la señal
resultante es demodulada por el receptor de TV y mostrada en el canal
seleccionado.
Muchos monitores para computadores típicamente proveen entrada de
componente analógico (rojo, verde y azul) a través de un conector de 15 pines
VGA connector y también puramente digital “Digital Visual Interface” (DVI) y/o una
conección HDMI.
Los tres estándares de video de difusión analógica más comunes alrededor del
mundo son: NTSC, PAL y SECAM.
NTSC[editar]
Utilizado en los Estados Unidos, Canada, Mexico y Japón y muchos otros países
para difusión y reproducción de video que está basado sobre las especificaciones
establecidas a inicios de 1952 por el NTSC (National Television Standars
Committee).
Este estándar definió un método para codificar información dentro de una señal
eléctrica. Para el estándar NTSC, un único cuadro de video fue hecho de 525
líneas horizontales escaneables, dibujadas en la cara posterior del tubo de rayos
catódicos cubierto de fosforo cada 1/30 de segundo un movimiento rápido de una
partícula de electrón. El recorrido ocurre tan rápido que los ojos pueden percibirlo
como una imagen estable.
La partícula de electrón actualmente hace dos pasos, como si este dibujara un
simple cuadro de video – Primer paso, procesa la señal dejando caer de arriba
abajo todas las líneas impares, luego las líneas pares -; cada uno de estos pasos
(el cual sucede a una velocidad de 60 Hz) pinta un campo y los dos campos son
combinados crean un simple cuadro, a una velocidad de 30 cuadros por segundo
(fps), (técnicamente, la velocidad es actualmente de 29.97 Hz).
PAL[editar]
El sistema Phase Alternate Line (PAL) usado en el Reino Unido, en Europa Oeste,
Australia, South Africa, China y Sud-América. PAL incremento la resolución de la
pantalla a 625 líneas horizontales, pero relantizo la velocidad de escaneo a 25
cuadros por segundo, como con NTSC, las líneas impares y pares son
entrelazados, cada campo toma 1/50 de segundo para dibujar (50 Hz).

NTSC - PAL - SECAM


SECAM[editar]
El sistema Sequential Color and Memory (SECAM) – tomado del nombre francés
Systeme Electronic pour Cooleur Avec Memorie – usado en Francia, Europa Este,
la USSR y por otros pocos países. Aunque SECAM es un sistema de 625 líneas y
50 Hz, este difiere grandemente del sistema NTSC y PAL en su tecnología básica
y método de difusión.
A menudo, sin embargo, los televisores vendidos en Europa utilizan componentes
duales que se puedan utilizar en ambos sistemas PAL y SECAM.
video de "La gran diferencia entre NTSC y el PAL"
https://www.youtube.com/watch?v=qUTtPZLwRqU
Video Digital.[editar]
En el sistema digital, la salida del CCD (dispositivo de carga acoplada) es
digitalizada por la cámara dentro de una secuencia de cuadros únicos, y el audio y
video son comprimidos antes de ser escritos en una cinta o almacenados
digitalmente en el disco duro o memoria flash en alguno de los varios formatos
propietarios y competentes.
Los formatos de datos de video digital, especialmente el CODEC
(COmpressor/DECompressor) usado para comprensión y descomprensión de
datos de video (y audio).
HDTV[editar]
Que empezó como iniciativa de la High Definition TeleVision de la Federal
Communication Commission (FCC) en el año de 1980’s, cambio primero a la
Advanced Television (ATV) y termino como la Digital Television (DTV) a la vez que
la FCC anuncio el cambio en 1996.
HDTV provee una alta resolución en un aspecto de 16:9, este aspecto permite la
visualización de películas Cinemascope (2,66 y 2,39 veces más ancha que alta)
Panavisión, Hubo desacuerdo entre la industria de difusión e informática, de
acerca si utilizar una tecnología de entrelazado (interlacing) y scan progresivo
(progressive scan). La industria de difusión promulgo una ultra-alta-resolución,
1920 x 1080 formato entrelazado (1080i) para volverse la “piedra angular” (pilar)
de una nueva generación de centros de entretenimientos.
Los usuarios de ordenadores argumentaron que la calidad a 1280 X 720 es
superior y estable, así que ambos formatos han sido incluidos en el estándar
HDTV por el Advanced Television System Committee ( ATSC).

Monitores/Pantallas (Screen)[editar]
CRT (cathode Ray Tube - Tubo de Rayos Catódicos)[editar]
Un tubo vacío, coloreado de fosforo en la pantalla CRT, brilla rojo, verde o azul,
cuando ellos son energizados por una partícula de electrón. La intensidad de las
partículas de electrón puede variar conforme este se mueve cruzando la pantalla,
haciendo que algunos colores brillen más intensamente que otros. Imanes
finamente sintonizados alrededor del tubo logran la precisión de electrones sobre
la pantalla de fósforo, mientras la intensidad de la partícula es variada de acuerdo
a la señal de video. Es por eso que necesario mantener los parlantes lejos del
CRT.
TV-principio CRT monitor
FLAT (Pantalla Plana)[editar]
Los monitores de pantalla plana son todos digital, utilizando una tecnología de
Plasma o Cristal Líquido (LCD) y han sustituido a los CRT’s para uso de
ordenadores y Televisión.
La integración completa de video digital en cámaras y en ordenadores elimina la
forma de video de la televisión analógica, desde el punto de la plataforma de
distribución y producción multimedia.
Adicionalmente al panel de Plasma y LCD, los siguientes tipos también son
conocidos como pantalla plana:
- Paneles electroluminiscente.
- Diodo de emisión de luz orgánica.
- Monitor multifuncional (MFM)

Panel-Mount-LCD
... más en: https://es.wikipedia.org/wiki/Monitor_de_computadora

Reproducción en Pantalla[editar]
Entrelazado (Interlaced)[editar]
El proceso de construir un simple cuadro de dos campos es llamado “entrelazado
“, es la práctica de pasar un único cuadro de video como dos medios cuadros,
cada cuadro es dividido en líneas alternadas, de tal forma que primero se
muestran la líneas impares y luego las pares, una técnica que ayuda a prevenir los
destellos en un monitor CRT.
Escaneo progresivo (progressive scan)[editar]
Los monitores de los ordenadores usan una tecnología diferente llamada
“progressive scan” y dibuja las líneas de un cuadro entero secuencialmente línea a
línea y de arriba a abajo, sin entrelazado y sin destellos.
Overscan / Underscan /Safe Title Area[editar]
Overscan (sobreescaneo)[editar]
Es práctica común en la industria de la televisión de emitir una imagen más
grande/larga que no encaja en una pantalla de televisión estándar, tal que los
“bordes” de la imagen vista por el espectador esta siempre encerrada por el
cuadro físico de la televisión, como un bizel, o simplemente no aparecen, en
promedio se puede dar hasta un 15% de overscan.
Underscan[editar]
En contraste los monitores/pantallas de ordenadores muestran una imagen más
pequeña en el monitor, dejando un borde negro, como un bizel.
Safe Title Area(Área de título seguro)[editar]
Es el área segura donde todos los títulos se muestran en la pantalla, sin
considerar el modelo o tipo de pantalla/monitor o televisión. El área segura
corresponde a un 80% de la imagen aproximadamente, medido desde el exterior
hacia el centro.

Formatos de Video[editar]
La arquitectura de videos digitales está compuesta por:
- Un algoritmo de comprensión y codificación de video y audio (códec).
- Un contenedor, en el cual están todos los datos comprimidos.
- Un programa o herramienta que pueda reconocer y reproducir los datos
comprimidos.

A esta arquitectura se le pueden añadir dos nuevas componentes:


- Una infraestructura que aloje el contenedor.
- Una infraestructura que instancie el reproductor.
Container(Contenedor)[editar]
Un contenedor de video es un formato de archivo de almacenamiento de vídeo.
Debe describir cómo se guardan los datos de vídeo tras pasar por un codec, y no
contienen información de codificación o decodificación. En teoría, deben poder
contener cualquier tipo de datos de vídeo, independientemente del codec.
Los contenedores de video contienen a los datos comprimidos por un códec
estandarizado elegido,y deben reconocer más de un formato de contenedor de
archivos de video. Asimismo, empaqueta, transporta y presenta los datos
contenidos.
Los contenedores comunes son :

 Ogg (.ogg Theora para video y Vorbis para audio)


 Flash video (.flv)
 MPEG (.mp4)
 QuickTime (.mov)
 Windows Media Format (.wmv)
 Webm (.webm)

logo Webm

 Realmedio (.rm)
 Matroska (.mkv)
 AVI (.avi)
Formatos de contenedor puede también incluir metadatos – información
importante de como el video, audio y otros datos están almacenados en ella – y
otros medios adicionales, además del audio y video.

 RFC 5334: Ogg Media Types


 RFC 4337: MPEG-4 MIME Types
OGG[editar]
Ogg es un formato de contenedor de vídeo, de estándar y código abierto. Ogg
comprende los principales complementos necesarios de vídeo, como el audio y los
subtítulos. Admite una gran variedad de códecs, aunque lo usual es usar
compresión Verbis en audio y Theora en vídeo.
Las extensiones de archivo más destacables son las siguientes:

1. Audio Ogg Vorbis: .ogg .


2. Audio genérico: .oga .
3. Vídeo: .ogv .
4. Multiplexado Ogg: .ogx .
Los códecs utilizados por Ogg se han actualizado en los últimos años, ofreciendo
ventajas técnicas respecto a otros códecs admitidos por otros contenedores. Por
ejemplo, para conseguir una compresión óptima en audio, se eliminan los sonidos
no audibles para el oído humano y se eliminan los ruidos del entorno.
Debido sobre todo a que Ogg es libre, cuenta con un mercado cada vez más
grande. Se ha incorporado el uso de códecs Ogg a dispositivos portátiles y GPSs.
Asimismo, gran cantidad de reproductores multimedia permiten la reproducción de
códecs Ogg, como VLC y mplayer.
Matroska[editar]
Al igual que Ogg, Matroska es un formato contenedor de vídeo de estándar libre y
código abierto. El formato Matroska (llamado así por seguir el mismo concepto que
las tradicionales muñecas rusas, ya que puede contener una cantidad ilimitada de
vídeo, audio, imagen o pistas de subtítulos dentro de un solo archivo) cuenta con
características similares a otros contenedores. Cuenta con extensiones para
vídeo, audio y subtítulos, entre otros.
Las principales extensiones son:

1. Audio: .MKA .
2. Vídeo (admite audio y subtítulos): .MKV .
3. Subtítulos: .MKS .
4. Vídeo 3D estereoscópico: .MK3D .
El contenedor es muy flexible y admite diversos algoritmos y tecnologías de
compresión de vídeo y audio. Al igual que ocurre con el formato Ogg, uno de los
puntos fuertes de Matroska es que sea un formato libre, lo que permite ahorrar
costes, y sobre todo, permite a los usuarios del contenedor un libre control de
éste, lo que lo convierte en uno de los formatos idóneos para el uso de multimedia
interactivo.
Flash Video[editar]
Flash Video es un formato de contenedor de vídeo propietario. Los contenedores
FLV inicialmente utilizaron un códec compresor variante del estándar H.263;
actualmente soportan On2 TrueMotion, que aporta mayor calidad pero es más
complejo y en sistemas antiguos puede dar problemas.
El modo de compresión del audio de los contenedores Flash Video es MP3.
Actualmente se han ido incorporando nuevos codecs para audio y video.
Flash Video es un formato 100% propietario; esto, junto con la decodificación por
hardware que requiere, ha hecho que su uso haya decaído en los últimos años;
sobre todo por el peso en el mercado que han alcanzado los smart-phones y lo
importante que es el ahorro de batería. Aun así, ha sido uno de los formatos de
vídeo más importantes en la historia de Internet, y sitios tan destacables como
Youtube o Yahoo! lo utilizaron para transmitir vídeo a través de la red.
AVI[editar]
AVI es un formato contenedor creado por Microsoft. Permite varios canales de
audio y se divide en fragmentos diferenciados denominados chunks, que
contienen los flujos entrelazados de audio y vídeo. Cada chunk mantiene una
etiqueta de cómo debe ser decodificado.
Actualmente tiene varias limitaciones:
-No admite codecs que traten de acceder a información de frames futuros.
-No admite algunos tipos de bitrate variable.
MP4[editar]
Se trata de una instancia del formato definido en MPEG-4 Parte 14. Añade
funcionalidad a la ya definida por el formato QuickTime y permite 48 canales de
audio. Se utiliza una pista separada de las demás que sirve como referencia a los
flujos, para facilitar el streaming del vídeo. Es un contenedor muy flexible (admite
contener solo texto, o solo audio) y puede incluir DRM.

Códecs[editar]
Para ilustrar la necesidad de los CODECS, pongamos un ejemplo.

 Un fotograma de calidad DVD PAL tiene 576x720 = 414.720 píxels

 Cada píxel, definido en RGB da un lugar de 1.244.160 bytes/fotograma

 A 25 fps un segundo de vídeo sin comprimir ocupa aproximadamente 29,66


MB.
Por este motivo principal surgieron los códecs, para reducir efectivamente el
tamaño del archivo de video y descomprimirlo cuando sea necesario.
Un CÓDEC es un algoritmo usado para comprimir un video, distribuirlo y luego
decodificarlos a tiempo real para ser reproducido. Diferentes CÓDECs son
optimizados para métodos de distribución (por ejemplo: desde un disco duro,
desde un DVD o desde la web).
Hay infinidad de códecs, variando considerablemente en el tiempo empleado en la
codificación y el tamaño resultante del archivo.
Podemos englobar los códecs en dos grandes grupos:

 Loseless - Reversible - Sin pérdidas: sin degradación ni pérdida de calidad,


prácticamente imposibles de conseguir.
 Lossy - Irreversible - Con pérdidas: presentan degradación o pérdida de
información, pero consiguen mayores factores de compresión.
La complejidad del algoritmo de compresión utilizado condiciona los factores
mencionados. Según el medio de distribución del video (DVD, CD, etc.) se utilizan
unos códecs u otros.
Principios de los códecs[editar]
Los códecs basan su funcionamiento en tres principios básicos:

1. El ojo humano no es igual de sensible a todas las frecuencias espaciales,


siendo menos sensible a lo que está alejado del punto céntrico de nuestra
visión.
2. En una imagen se suele presentar un mismo píxel repetido muchas veces.
3. Suele haber poca diferencia entre una imagen y la siguiente en un vídeo.
Estos principios dan lugar a dos tipos de compresiones:

 Compresión espacial o intraframe: conseguir reducir el tamaño de cada una


de las imágenes de un vídeo, aplicando técnicas comunes a la compresión de
imágenes.
 Compresión temporal o interframe: aprovechar la redundancia entre
imágenes sucesivas en un vídeo. En ella, se suele emplear el concepto GOP o
Group of Pictures, un conjunto de imágenes que se tratan de una manera
especial para comprimir un vídeo. Cada GOP se caracteriza por un valor N que
representa el número de imágenes que componen este grupo y un valor M
cada cuántas imágenes de este grupo se manda un P o I frame. Contamos por
tanto con tres tipos de imágenes: los I-frames o imágenes completas, los P-
frames en los que se envían los vectores de movimiento de macrobloques
(conjuntos de píxeles que se tratan juntos) respecto a los I-frames, y
finalmente los B-frames, que son frames que se generan por interpolación de
los dos anteriores.

GOP o
Group of Pictures
El proceso completo es es el siguiente:

1. Se envía una imagen completa, con toda la información (un I-frame).


2. En exactamente M imágenes se mandan las diferencias de macrobloques
(se mandan P-frames).
3. Entre estas dos imágenes se generan por interpolación los B-frames, de
manera que imágenes completas son únicamente los I-frames, las P
envían las diferencias y las B se generan por interpolación.
Relación entre códecs y formatos[editar]
Aunque son conceptos que siempre van de la mano, es importante destacar que
un códec (algoritmo de codificación y decodificación de un vídeo) no es lo mismo
que un formato, por lo que un mismo formato puede presentar diferentes códecs,
como ilustra la tabla siguiente.

Formato Códecs

MP4 MPEG-4, MPEG-2 y MPEG-1


MKV H.264

AVI DivX, Xvid o M-JPEG

MOV H.264

WMV MPEG-2 y MPEG-4

DVD-Vídeo MPEG-2

3GP MPEG-4 y H.263

WebM VP8

Ejemplos de códecs[editar]
CÓDECs tales como Theora y H.264 comprimen información de video digital a
ratios que van desde 50:1 a 200:1, algunos códecs almacenan solos los datos de
la imagen que cambia de un cuadro a otro, en lugar de los datos que hace uno de
los cuadros de manera individual. Otros códecs utilizan métodos de computo
intensivo para predecir que pixeles cambiaran de un cuadro a otro, y solo guarda
la predicción para ser desconstruido durante la reproducción del video. Estos son
códecs que sacrifican la calidad de la imagen para significativamente reducir el
tamaño.

X264
Los PCs y los dispositivos implementan una alta variedad de códecs.
Existen estándares públicos para la comprensión de vídeo, lo que permite que
distintos códecs puedan seguirlos y mantener así la compatibilidad.
Ejemplos de estándares y códecs que lo implementan:
- H.263: DivX Pro Codec.
- H.264: Quick Time, Nero Digital, x264.
- H.265: x265.
MPEG[editar]
Desarrollado por Moving Picture Experts Group (www.mpeg.org), un grupo de
trabajo que pretende establecer estándares para la transmisión de audio y video.
Inicialmente fue formado por ISO y la Comisión Electrónica Internacional (IEC), y
ahora acoge a más de 250 miembros de distintas organizaciones por reunión.
MPEG no estandariza la codificación, sino la forma en la que el decodificador
interpreta la cadena de bits que recibe. Utiliza una metodología de compresión
asimétrica, ya que el codificador (debe ser un algoritmo adaptativo y realiza
distintas acciones según la entrada) es más complejo que el decodificador
(algoritmo fijo que se limita a realizar las mismas acciones, independientemente de
la entrada) Esto puede ser una ventaja en aplicaciones en las que hay pocos
codificadores y muchos descodificadores.
Hay cuatro formatos de compresión principales normalizados por MPEG:

1. MPEG-1 (1992). Principalmente diseñado para permitir codificación de


video y sonido en discos compactos. Podía distribuir 1,2 Mbps de video y
250 kbps de audio estéreo de dos canales, utilizando tecnología CD-ROM.
2. MPEG-2 (1994). Completamente a diferente a MPEG-1 y diseñado para
permitir entrelazado y alta definición en la televisión digital terrestre.
Requiere velocidades de datos más altas (3 a 15 Mbps), pero también una
resolución de imagen más alta, calidad de imagen mejorada, formato de
video entrelazado, multireducción escalable y características de audio
multicanal. MPEG-2 se volvió el estándar de compresión de video para la
televisión (DTV) y para hacer DVD.
3. MPEG-3 (199?). Buscaba permitir compresión multi-resolución mediante un
estándar escalable. Acabó siendo muy parecido a MPEG-2 y simplemente
se actualizó este último.
4. MPEG-4 (1998 – 1999). Utiliza un algoritmo más complejo y eficiente que
MPEG-2 y usado en Blu-Ray como contenedor. Provee un método basado
en contenido para asimilar elementos multimedia. Ofrece indexación,
hiperenlace, consultas, exploración, carga, descarga y funciones de
borrado con mpeg-4.
El estándar MPEG-4 AVC (Advanced Video Coding, part 10) requiere el códec
H.264 para discos blu-ray, porque el software patentado por más de dos docenas
de compañías, desarrolladores quienes utilicen el editor de video y reproductor
que lee y escribe archivos MPEG-4 deben comprar licencias y pagar regalías.

Windows Media Video[editar]


Windows Media Video es el nombre que se da a los codec de compresión
desarrollados por Microsoft. Asimismo, también es el nombre de un formato de
contenedor. Generalmente, .wmv es el resultado de aplicar un codec de Microsoft,
guardarlo en un contenedor multimedia como AVI o ASF y añadirle una parte DRM
(gestión digital de derechos). El formato es propietario.

La Guerra de los Codecs[editar]


La alta tasa de requerimientos de videos y la relativamente baja demanda de CD-
ROM, y posteriormente la web, que ha liderado a lo largo de estos tiempos y
ocasionalmente causando progresiva confusión en el desarrollo de los CODEC’s.
Siendo el mayor dilema “la comprensión”, el mayor proceso – caballos de fuerza –
y el tiempo de espera que es necesario para comprimir y descomprimir el video.
Pero esto debería estar balanceado para asegurar que el video se reproducirá en
un amplio rango de ordenadores.
- Flash Video (.flv), el cual utiliza el viejo códec VP6 y el reciente códec H.263
utilizado por YouTube, pero en algunos browser requierse ser instalado su plug-in.
- MPEG (mp4), desarrolló el códec H.264 el cual lo ha patentado y es propietario.
Es requerido en discos Blu-Ray y utilizado en youtube, itunes y en algunos
servicios de difusión.
- Google, codec VP8 open-source, trabaja dentro del contenedor WebM y fue
lanzado como un esfuerzo para reemplazar a Flash Video en H.264 en la web.
Google esta re-decodificando todos los videos en Flash de YouTube para que
funcionen en WebM y VP8 y sigan utilizando el códec H.264.
Asimismo, hay mas de 250 formatos de archivo de contenedor (container) de
elementos de video y más de 25 CODEC’s de los cuales uno puede elegir.

¿Qué es el video 3D?[editar]


Con el propósito de enriquecer el mundo con "media" información visual, se ha
desarrollado Video 3D, como un nuevo medio de información visual y cultivar sus
utilidades cada día de nuestra vida. Aquí el video 3D es la imagen 3D completa
que registra eventos visuales dinámicos de el mundo real, esto es la variación de
tiempo de registro de una forma de objeto 3D con alta fidelidad de propiedades de
superficie (color y textura). Sus aplicaciones cubre amplia variedades de las
actividades humanas sociales y personales:
- Entretenimiento: (ej. Juegos y Televisión 3D)
- Educación (ej. libro de figuras de animales 3D)
- Deportes (ej. análisis del rendimiento del deporte)
- Medicina (ej. monitorización 3D de cirugias)
- Cultura (ej. archivo 3D de danzas tradicionales), y así sucesivamente.
Los pioneros en este aspecto han demostrado que las acciones humanas 3D
completas podrían ser generadas por multiples-vista de datos de video y haber
sido seguida por muchos investigadores de visión por computadora para explorar
las aplicaciones y tecnologías de producción de video 3D. Muchas compañias
comercian el soporte de sistema de captura de video 3D y generación de
contenido de video 3D.
Un video 3D puede ser mejor caracterizado por su 3D-dad completa; la forma 3D
completa y el movimiento de un objeto del mundo real incluye como su parte
trasera es capturada de inmediato.

Conclusiones[editar]
El video, es un medio multimedia muy utilizado en diferentes sectores:
- Comunicación (televisión, cine, etc).
- Industria.
- Medicina (ecógrafos, exploración interna, etc)
- Educación (videoconferencias, teleformación, etc)
- Militar (simulación, vigilancia, etc).
- Videojuegos.
- Etc.

Es el medio masivo más consumido por las personas hoy en día, con la tendencia
de conseguir una mejor definición de color y cuadro.
Asimismo es un suceso de repercusión mundial, en el cual las personas de hoy en
día realizan millones de videos que forman parte de su vida, o que lo utilizan como
material informativo.

También podría gustarte