República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Universitaria
Universidad Nacional Experimental “Rómulo Gallegos”
Área de Ciencias Económicas y Sociales
Programa de Comunicación Social
Unidad Curricular: Montaje Audiovisual
San Juan de los Morros
Estado Guárico
VÍDEO DIGITAL Y LOS FORMATOS DE ARCHIVO MÁS COMUNES
Profesor: Participantes: CI.V
Lic. Michel Adrian Amarillys Gerder 15.710.757
VII Semestre Noemí Ramirez V-29899572
Sección 1 César García V-30594544
Abril 2024
1. Dimensiones del Vídeo:
La anchura y la altura de los vídeos se mide en píxeles es a esto que se lo que se le llama
“dimensiones” del vídeo.
Los códecs de video funcionan mejor cuando los píxeles de ancho y alto son múltiplos de 16. Si
bien puede usar cualquier ancho o alto en su configuración de codificación, dimensiones
inadecuadas pueden causar una baja calidad de imagen y una menor velocidad de fotogramas.
Para obtener la mejor calidad de imagen y reproducción, debe usar dimensiones de ancho y alto
que sean múltiplos de 16; le siguen como una segunda y buena opción las dimensiones múltiplos
de 8 y 4.
Las dimensiones de codificación nativa y reproducción deben disminuir de manera uniforme por
el mismo número, idealmente 16. Por ejemplo, si codifica su archivo nativo para usar una
dimensión de marco de 640 × 480, reduce la escala a un tamaño como 320 × 240. Otro ejemplo
notable se puede observar en la red social Instagram fomenta los vídeos que se muestran a
pantalla completa, así que opta por un vídeo con un tamaño de 1080 px por 1920 px para una
relación de aspecto de 9:16.
En resumen, las dimensiones hacen referencia al tamaño de la imagen en píxeles. Por ejemplo,
1920x1080 es una resolución para videos en alta definición (Full HD), y hay otras resoluciones
incluyen 1280x720 (HD) y 3840x2160 (Ultra HD o 4K)
.
2. Códec y Tipos:
Un Codec es una pieza de software capaz de convertir una señal analógica a una digital para
transmitirla sobre una red de datos. En otras palabras es un algoritmo que comprime y
descomprime datos de vídeo. Algunos ejemplos son Divx, Xvid, Cinepak, Dv, Intel, H.264,
HEVC (H.265), VP9 entre otros.
Existen códecs de video y audio. La única diferencia entre estos dos es el algoritmo diseñado
para comprimir y descomprimir los archivos de audio y la otra es para archivos de video. Cada
códec tiene diferentes características y tasas de compresión.
Códec sin pérdidas son los que retienen toda la información contenida en la transmisión origibal
preservando la actividad de la señal audio video.
Códec con pérdida reducen la calidad para lograr compresión y reducir el consumo del ancho de
banda.
Tipos de Codec
Los códecs de vídeo más populares actualmente son
• Theora: es un proyecto de código libre que ofrece un códec de vídeo de muy bajo consumo de
CPU y recursos.
•VP8: es una especificación para codificar y decodificar video de alta definición tanto como un
archivo como un flujo de bits para visualizar. VP8 está contenido en el proyecto de plataforma
abierta WebM patrocinado por Google, junto con VP9.
• MPEG-2: significa Moving Picture Experts Group, es el nombre de una familia de estándares
usados para codificar información audiovisual. Puede leer 2 tipos de archivos de audio MPEG:
MPEG Layer 2 (*.mp2) y MPEG Layer 3 (*.mp3).
• h.264: es un estándar de compresión con pérdida, lo que significa que se elimina del vídeo la
información innecesaria. Sin embargo, esto no debería afectar a la calidad del vídeo, ya que se
mantiene la información importante para su visualización.
• Xvid y Divx: son códecs de video que te ayudan a almacenar archivos de video sin procesar
que puedes transmitir por la red. Hacen que, los archivos de video sean más pequeños al
comprimir los datos y codificarlos, y luego, descodificarlos cuando es necesario para su
reproducción.
Códecs de audio:
•AAC: es la abreviación para Advanced Audio Coding. AAC se utiliza principalmente en
productos Apple, como en los iPhone, y proporciona una calidad de sonido superior a la de SBC.
Esta es una tecnología de codificación de audio desarrollada por CSR plc.
•FLAC: es un formato de audio de código abierto que comprime el archivo de audio a un tamaño
significativamente menor, pero la calidad del sonido no se ve comprometida. Cualquier archivo
que tenga la extensión FLAC es un archivo de códec de audio gratuito y sin pérdidas.
•MP3: Es una sigla que deriva de MPEG Audio Layer III. Se apela a un algoritmo que permite
reducir el tamaño o peso del archivo que almacena el sonido, aunque con una cierta pérdida de
calidad
•Vorbis (ogg):son los que utilizan el formato de audio comprimido Ogg Vorbis, un contenedor
libre y abierto que es desarrollado y mantenido por la Fundación Xiph.Org.
•WMA: es un formato de tecnología de comprensión de sonido. Los archivos en formato WMA
pueden comprimirse aún más que los en formato MP3.
Los contenedores más utilizados son AVI, Divx, Matroska, Flash video, MP4, MPEG, Ogg,
Quicktime, MXF y WebM.
De imagen:
Tenemos tres códecs o formatos mayoritarios:
JPEG: es un tipo de archivo que fue desarrollado por el Joint Photographic Experts Group
(JPEG) para que fuese el estándar para las imágenes hechas por fotógrafos. Para que el JPG
tenga un tamaño reducido, el archivo comprime los datos de la imagen en bloques de píxeles,
también conocidos como “mosaico”.
PNG: significa Portable Network Graphics, aunque algunos también le llaman PNG-not_GIF.
Este segundo nombre indica que fue desarrollado como una alternativa al GIF. Este también
soporta transparencias a diferencia del GIF, maneja las transparencias sin perder color porque
soporta colores de 8-bits, y también de 24-bits, como JPG.
GIF: Sus siglas significan Graphics Interchange Format. Soporta paletas de 256 colores, y
además de que soporta animaciones y transparencias.
Que datan del 1991, 1996 y 1987 respectivamente. Han cambiado muchas cosas desde entonces,
pero aun así estos códecs siguen sirviendo... más o menos.
JPEG es el más usado no sólo en Internet sino también fuera de él.
3. Velocidad de Transmisión (Bitrate):
El bitrate se refiere a la cantidad de datos transmitidos por segundo. Un mayor bitrate significa
mejor calidad de vídeo, pero también archivos más grandes el mismo, se mide en bits por
segundo (bps), kilobits por segundo (kbps), megabits por segundo (Mbps) o gigabits por segundo
(Gbps), dependiendo de la cantidad de datos que se estén transmitiendo.
4. Fotogramas por Segundo (FPS):
Los FPS indican cuántos fotogramas se muestran por segundo. 30 FPS es común para vídeos,
pero 60 FPS ofrece una experiencia más fluida. La Velocidad de fotogramas por Segundo (FPS)
es la “frecuencia” o “cadencia” de fotogramas por segundo. Se expresa en frames por segundo o
FPS. Con ello determinaremos la fluidez con la que se percibe un movimiento en un vídeo.
son el número de imágenes sucesivas que se muestran en la pantalla en un segundo. Lo que
vemos al ver cualquier tipo de proyecto audiovisual es exactamente eso. una secuencia de
imágenes que se mueven a gran velocidad. En la mayoría de los casos, nuestro cerebro puede
procesar de forma individual entre diez y doce imágenes por segundo. El cerebro interpreta 12
imágenes, o 12 FPS, como movimiento.
Durante los primeros momentos de la historia del cine, las cámaras se movieron rápidamente
para capturar imágenes en el rodaje de una película. Se realizaban entre 16 y 24 fotogramas por
segundo. La proyección de la película se llevaba a una mayor velocidad que la utilizada para la
filmación.
En la actualidad, se utiliza una velocidad de 30 FPS para el rodaje digital. La película "El hobbit:
Un viaje inesperado" (2012) del director Peter Jackson fue rodada a 48 FPS, lo que resultó en
imágenes en movimiento mucho más fluidas. A pesar de esto, algunos espectadores sintieron una
sensación extraña al ver este tipo de imágenes.
Por lo general, la velocidad de fotogramas base para cualquier proyecto es de 24 fotogramas por
segundo. Luego se modifica la velocidad de los fotogramas de captura para alterar la forma en
que percibimos el movimiento. Esto crea una cámara lenta o rápida.
Cámara lenta: Si se filma a 48 FPS y se reproduce a 24 FPS, el movimiento parecerá el doble de
lento.
Cámara rápida: tomamos fotografías a 12 FPS. mientras se mantiene una velocidad de
fotogramas de reproducción de 24 FPS. Esta vez el movimiento se acelerará el doble de lo
normal.
5. Sistemas de Televisión (NTSC / PAL):
NTSC y PAL son estándares de televisión. NTSC se utiliza principalmente en América del
Norte, mientras que PAL se usa en Europa y otras regiones.
El "Comité de Estándares Nacionales de Televisión" o "NTSC" es un sistema de codificación de
color analógico utilizado en reproductores de DVD y, hasta hace poco, en la transmisión de
televisión en América del Norte. La televisión en blanco y negro comenzó a ceder terreno al
color en la década de 1950, y el estándar técnico anterior quedó obsoleto. En aquel entonces, las
empresas de radiodifusión estadounidenses empleaban una variedad de técnicas para codificar el
color, cada una de las cuales era incompatible con la otra. No fue hasta 1953 que el Comité del
Sistema Nacional de Televisión lanzó un nuevo estándar de televisión llamado "NTSC". Este
formato fue creado para ser compatible con la mayoría de televisores del país, ya sea en color o
en blanco y negro. Aunque las emisoras de televisión modernas cambiaron a digital, la cantidad
de líneas de resolución y la velocidad de fotogramas que utilizan son las mismas que las
establecidas por el formato NTSC.
PAL (siglas de “Phase Alternating Line”, que significa, Línea de fase alterna) es otro sistema
para televisión en color analógica, que también se utiliza en reproductores de DVD y Blu-Ray.
Diseñado a finales de la década de 1950 en Alemania, se suponía que el formato PAL debía
hacer frente a ciertas debilidades de NTSC, incluida la inestabilidad de la señal en condiciones
climáticas adversas, que era especialmente relevante en las emisoras europeas. El nuevo estándar
consistía en resolver el problema invirtiendo cada dos líneas en una señal de TV y eliminando así
los errores. PAL también proporcionó la frecuencia de imagen requerida localmente: 50 Hz. Este
formato, a diferencia del NTSC, todavía se utiliza para la radiodifusión en los países donde se
adoptó.
6. Relación de Aspecto Tipos, diferencias, usos)
La relación de aspecto es la proporción entre el ancho y la altura de la imagen. Ejemplos
comunes son 16:9 (panorámico) y 4:3 (pantalla completa). Se calcula dividiendo el largo entre la
altura de la imagen que se aprecia en la pantalla, y se representa normalmente con la expresión
“X:Y”.
Los smartphones para el consumo de las redes sociales, estas se han adaptado a las pantallas de
los móviles permitiendo casi cualquier relación, por un lado Youtube se adapta a cualquier
relación de aspecto pero Instagram usa relaciones 1:1 o 4:5 que son, en un caso, totalmente
cuadrada y en el otro, la altura supera al anchura.
7. Resolución de Vídeo (Tipos, diferencias, usos)
La resolución de vídeo depende de varios factores, como la configuración del codificador y las
capacidades de la cámara con la que grabas. En la mayoría de los casos si la cámara es de alta
resolución deberán realizarse ajustes para averiguar cuáles producirán los mejores resultados.
A veces, la resolución de vídeo se refiere sólo a la altura del vídeo. Por ejemplo, la resolución
1920 x 1080 puede acortarse a 1080i o 1080p. En estas abreviaturas, “i” significa “entrelazado”
y “p”, “progresivo”. Estos dos términos se refieren a cómo se muestran los píxeles en la pantalla.
Progresiva es una imagen más fluida, mientras que entrelazada es más “pixelada”.
El uso de la resolución para describir la anchura y la altura de un reproductor de vídeo se
denomina resolución espacial. La resolución espacial es el tipo de resolución más común en el
streaming de vídeo, pero también existe el concepto de “resolución temporal”.
La resolución temporal describe la frecuencia de imagen o el número de imágenes mostradas por
segundo.Diferentes resoluciones incluyen SD (Standard Definition), HD, Full HD, 4K y 8K.
Cada una tiene su uso específico.
Tipos
720p o alta definición: HD significa Alta Definición y es solo un nombre para la calidad de
imagen que se obtiene con esta resolución. Esta resolución es de 1280 x 720 píxeles (1280 en
horizontal y 720 en vertical). La relación de aspecto para 720p suele ser 16:9, lo que significa
que es más ancho que alto, esta resolución es utilizada por televisores de alta definición y
plataformas de streaming como YouTube y Netflix. Aunque no es la resolución más alta
disponible, proporciona suficiente claridad y detalle para la mayoría de las aplicaciones de vídeo.
1080p o Full HD: FHD significa Alta Definición Completa y es el nombre que se le da a la
calidad de vídeo que se consigue con esta resolución. El número de píxeles es 1920 x 1080, 1920
en horizontal y 1080 en vertical. La relación de aspecto de una imagen de 1080p también es
16:9, al igual que una resolución de 720p.
La resolución de 1080p se utiliza habitualmente en televisores de alta definición y plataformas
de streaming como YouTube y Netflix. Proporciona una calidad de imagen nítida y detallada con
colores brillantes y alto contraste. Además, como tiene muchos años de existencia, es muy
compatible con cualquier dispositivo. Resolución 2K o QHD
QHD significa Quad High Definición y es el nombre que se le da a la calidad de vídeo que se
consigue con esta resolución. Tiene 2560 píxeles en horizontal y 1440 píxeles en vertical (2560 x
1440 píxeles). La relación de aspecto de 2K suele ser 16:9, lo que significa que es más ancho
que alto.
Proporciona más claridad y detalle que la resolución de 1080p, lo que la hace ideal para
aplicaciones que requieren una calidad de imagen superior, como la edición de vídeo.
Resolución 4K o UHD
UHD significa Ultra Alta Definición y se refiere a la calidad de imagen lograda con esta
resolución. Al medir 3840 píxeles horizontalmente y 2160 píxeles verticalmente, las imágenes
4K suelen tener una relación de aspecto de 16:9, lo que significa que son más anchas que altas.
La resolución 4K proporciona detalles y claridad increíbles, lo que la hace ideal para
aplicaciones que requieren una calidad de imagen superior, como: B. Producción de películas,
programas de televisión y publicidad.
El alto número de píxeles le permite hacer zoom sin perder calidad de imagen. Así que no te
preocupes si quieres hacer zoom en un punto específico mientras editas un vídeo.
8. Streaming:
El streaming es enviar y recibir datos en un flujo continuo a través de una red informática, desde
un servidor remoto hasta un dispositivo. El streaming en línea permite que se inicie la
reproducción de contenido mientras el resto de los datos todavía se está enviando al dispositivo.
El streaming funciona descomponiendo el contenido (por ejemplo, una película) en pequeños
fragmentos o paquetes de datos. Estos paquetes de datos se envían al navegador, donde el
reproductor de vídeo interpreta los datos como una película. Cuando el navegador tiene
suficientes paquetes de datos para comenzar, la película empieza a reproducirse.
Resumiendo, el streaming permite ver vídeos en tiempo real a través de Internet sin necesidad de
descargarlos previamente.
9. Conexión con el Servidor:
La velocidad de tu conexión afecta la calidad del streaming. Una conexión más rápida permite
una mejor experiencia.
10. Buffer:
El buffer almacena temporalmente datos antes de reproducirlos. Un buffer grande ayuda a evitar
interrupciones en la reproducción. En otras palabras, se puede decir que es la memoria RAM de
la cámara que almacena las fotos digitales antes de que se graben en la tarjeta de memoria.
11. Producción Digital:
La producción digital implica la creación y edición de vídeos utilizando software y hardware
especializado es decir, es el serial de procesos necesarios para obtener un video de cualquier tipo,
desde los videos publicados en las redes sociales o portales como YouTube hasta videos
musicales, anuncios, cortos e incluso películas y seriales.
12. Caídas de la Velocidad de Conexión:
La velocidad de conexión es el promedio de información que se transmite entre dos dispositivos
por unidad de tiempo, en un sistema de transmisión. Normalmente las unidades en las que se
mide la velocidad de conexión dependen del campo en el que se esté estudiando. Pueden causar
problemas de buffering y calidad de vídeo reducida.
13. Descarga Progresiva:
La descarga progresiva es una técnica que permite ver contenidos de vídeo o audio mientras se
descargan en un ordenador o dispositivo. Este proceso difiere del streaming en que el archivo se
guarda en el ordenador durante el proceso, aunque a veces sin que el usuario lo sepa y otras sólo
temporalmente.
Audio / Vídeo comprimido que se baja y reproduce a la vez. El usuario no tiene que esperar a
que el archivo se descargue por completo para poder reproducirlo.
14. Transmisión por Secuencias:
Los vídeos se envían en pequeños fragmentos para una reproducción continua. Transmisión por
secuencias en directo es una función que permite transmitir vídeo en tiempo real a sitios de uso
compartido de vídeos como, por ejemplo, Ustream (actualmente IBM Cloud Video). Para usar
esta función, basta con utilizar este producto con un router Wi-Fi o con un smartphone que
admita el tethering.
15. Podcast:
Aunque no es un formato de vídeo, los podcasts son archivos de audio o vídeo que se distribuyen
en línea.
Los podcasts son una serie de contenidos grabados en audio y transmitidos en línea. Estos
pueden ser grabados en diferentes formatos, como por ejemplo entrevistas o conversatorios sobre
un tema específico.
La creación del podcast se remonta a 2004; por entonces era simplemente una innovación
tecnológica que facilitaba a las emisoras de radio la difusión de sus programas en diferido. Las
estaciones podían publicar los podcasts en Internet y los oyentes podían descargarlos a su
conveniencia.
Son importantes porque han democratizado la producción de contenidos de audio, además de que
se han expandido y desarrollado nuevos formatos. Cualquier persona con un dispositivo digital,
una grabadora, o casi con lo que tenga a la mano puede producirlos, claro con algo de
conocimiento técnico pero nada tan especializado.
16. Formatos de Archivo de Vídeo:
AVI: (siglas en inglés de Audio Video Interleave) es un formato contenedor de audio y video lanzado
por Microsoft en 1992.Formato contenedor que puede contener varios códecs.
MPEG: significa Moving Picture Experts Group, es el nombre de una familia de estándares usados para
codificar información audiovisual ejemplo en películas, video, música en un formato digital
comprimido.
Utilizado para compresión de vídeo y audio.
MOV: es otro tipo de archivo contenedor digital para vídeos y otro contenido multimedia. Apple
desarrolló MOV para su uso con Apple QuickTime Player, común para vídeos en Mac.
WMV: Formato de Windows Media Video. Los archivos Windows Media Video (WMV) son uno de
los tipos de vídeo más comunes que se encuentran sobre todo en los ordenadores Windows de
Microsoft. El formato WMV se remonta a su primera iteración en 1999, y desde entonces se ha hecho
más conocido como tipo de archivo popular. Debido a su popularidad y abundancia, los tipos de archivo
WMV son sencillos de almacenar y abrir tanto si utilizas un PC con Windows como un Mac.
Estos archivos WMV suelen contener contenido de vídeo, incluidas animaciones cortas y secuencias de
la vida real.
RM: RealMedia, utilizado por RealPlayer. RealMedia es un formato de contenedor multimedia
propietario desarrollado por RealNetworks que utiliza la extensión .rm. Se utiliza con la combinación de
RealAudio (RA) y RealVideo(RV) para la transmisión por Internet. Estos flujos tienen una tasa de bits
constante.
FLV: Flash Video, común en la web. Flash Video es un formato contenedor propietario que fue
ampliamente utilizado para transmitir vídeo por Internet sobre el complemento Adobe Flash. Los
contenidos FLV pueden ser incrustados dentro de archivos SWF. Entre los sitios más notables que
utilizaban el formato FLV se encuentran Reuters.com, Vevo, Yahoo! Video, Google Vídeo o YouTube.
MP4: es un formato de almacenamiento de archivos multimedia ampliamente utilizado para almacenar
vídeo y para transmisiones. Es un estándar internacional que funciona con una amplia gama de
dispositivos. Ampliamente compatible y utilizado.
MP3 y WMA: es un formato de audio, basado en la tecnología MPEG (Moving Picture Expert Group).
Este sistema de compresión crea pequeños archivos apropiados para escuchar o descargar a través de
Internet. Más: Los reproductores de MP3 son dispositivos que reproducen archivos MP3. Formatos de
audio, no de vídeo.
BIBLIOGRAFIA
https://recoverit.wondershare.es/audio-recovery/what-is-wma-file.html)
https://www.computerworld.es/economia-digital/el-formato-mp3#:~:text=MP3%20es
%20la%20versi%C3%B3n%203,apenas%20perceptibles%20en%20la%20reproducci
%C3%B3n.
(https://www.adobe.com/la/creativecloud/video/discover/best-video-format.html#:~:text=El
%20formato%20MP4%20(MPEG%2D4,mayor%C3%ADa%20de%20los%20dem
%C3%A1s%20dispositivos).
(https://www.online-convert.com/es/formato-de-archivo/flv)
(https://convertir-pdf.com/dateiformat/rm/)
(https://www.movavi.com/es/learning-portal/what-is-a-wmv-file.html © Movavi.com)