Está en la página 1de 14

I.

INTRODUCCIÓN
“Streaming”
hace referencia a la
técnica asociada a la reproducción de información audiovisual
en tiempo real.
Se utiliza para minimizar el tiempo de espera en la
transferencia de un archivo multimedia desde internet. Permite ver y
escuchar los archivos mientras se hace la transferencia sin que sea
necesaria la descarga completa del archivo.

La producción audiovisual es el arte de crear un producto para medios de


comunicación audiovisuales, como el cine o la televisión. Abarca desde
aspectos financieros (el capital), recursos técnicos y logísticos (los medios)
hasta qué tareas se hacen cada día (el trabajo)

II. RECORRIDO HISTÓRICO


En la década de los '90 al avance imparable de la potencia
de cálculo, tal y como predijera en 1965 Gordon E. Moore en
su famosa ley [1], se le unió la enorme expansión que
experimentó internet en aquella época. En estos años se
empezó a barajar la posibilidad de compartir contenidos
multimedia en tiempo real a través de la red de redes. El
problema era que la información era demasiado pesada y las
conexiones de la época demasiado lentas para este tipo de
aplicación.
En 1992 el Motion Pictures Experts Group (MPEG)
aprueba un algoritmo de compresión de audio llamado a
transformar el modelo de distribución musical para siempre.
Se trataba del estándar MPEG1 Audio Layer 3, conocido
popularmente como MP3 [2], que permitía unas tasas de
compresión de, aproximadamente 1:10 en relación al audio
digital PCM sin procesar, manteniendo una calidad de sonido
suficientemente fidedigna al original.
Esta sensible disminución de la cantidad de información a
transmitir y el progresivo aumento en el ancho de banda de las
conexiones a internet dio lugar a la aparición de las primeras
redes de intercambio de ficheros multimedia mediante
protocolos “Peer To Peer” o P2P, entre las que podemos
destacar por su popularidad, la red Napster. Cuestiones éticas
a parte, la popularización masiva del intercambio de
contenidos multimedia a través de la red hizo que mucha
gente se diera cuenta del potencial de las nuevas
telecomunicaciones en combinación con estos nuevos y
potentes algoritmos de compresión. La posibilidad de ofrecer
video y audio en tiempo real a cualquier punto del planeta a
través de internet ya no parecía imposible y gigantes
multinacionales como Microsoft, Real o Apple empiezan a
desarrollar sus primeros protocolos de streaming.
RTP (Real-Time Transport Protocol)
Protocolo de transporte en tiempo real que conduce la
entrega de paquetes coordinada por RTSP y RTCP. Se basa en
el envío 'poco fiable', es decir de mejor esfuerzo, en tiempo
real de datos sobre UDP. Este protocolo se suele usar
conjuntamente con RTSP para las tareas de control del flujo
de datos mediante sesiones.
En contra de lo que su nombre pueda sugerir, la utilización
del protocolo RTP no asegura que la transmisión sea en
tiempo real, pero sí que aumenta la sincronización y el control
sobre los contenidos en tiempo real (audio y/o video). Es decir,
se puede enviar el audio y el video por “flujos” separados y
mediante este protocolo, sincronizarlos posteriormente en el
destino.
B. RTCP (Real-Time Transport Control Protocol)
Protocolo de control de transporte en tiempo real que se
encarga de tareas de comunicación e información para el
correcto control del flujo de datos de RTP.
Los paquetes de este protocolo no transportan datos
multimedia, sino que trabaja con RTP en el transporte y
empaquetado de los datos. Se usa para transmitir los
parámetros de una sesión multimedia, y su función principal
es informar a cerca de la calidad del servicio (QoS). Durante
una sesión, RTCP transmite periódicamente paquetes de
control a todos los participantes de la misma para controlar el
estado de la conexión en todo momento.
C. RTSP (Real Time Streaming Protocol)[3]
Protocolo de flujo de datos en tiempo real no orientado a
conexión que se utiliza para definir cómo se hará el envío de
información entre el cliente y el servidor.
Este protocolo trabaja a nivel de aplicación y controla que
la entrega de datos se realice correctamente, pues el tipo de
contenido con el que se trabaja normalmente al hacer
streaming es muy sensible a la sincronía temporal (o a la falta
de ella). Así pues se podría considerar que el RTSP actúa
como si de una especie de mando a distancia de red para
servidores multimedia se tratase.
RTSP define diferentes tipos de conexión y diferentes
conjuntos de requisitos, para intentar conseguir siempre un
envío de flujo de datos a través de redes IP lo más eficiente
posible. Además establece y controla uno o más flujos
sincronizados de datos como audio y video. A tal fin se
definió el uso de sesiones, mediante identificador único, en
este protocolo.
Es independiente del protocolo de transporte y puede
funcionar tanto sobre UDP, RDP o TCP. Durante una sesión,
un cliente puede abrir y cerrar conexiones fiables de
transporte con el servidor mediante peticiones RTSP.
Los flujos controlados por RTSP pueden usar RTP como
hemos visto, pero el modo de operación de RTSP es
independiente del mecanismo de transporte usado para transmitir el
continuo flujo de datos. Sin embargo, en la
mayoría de casos se utiliza TCP para el control del
reproductor y UDP para la transmisión de datos con RTP.

Propiedades del protocolo


• Extensible: nuevos métodos y parámetros pueden ser
añadidos a RTSP fácilmente.
• Seguro: RTSP usa los mecanismos de seguridad de la
web, cualquiera a nivel de transporte. Se pueden
aplicar directamente los mecanismos de
autentificación de http.
• Capacidad multi-servidor: Cada flujo de contenido
perteneciente a una misma presentación puede residir
en diferentes servidores.
• Separación del control del stream y la iniciación de la
conferencia: El control de stream no tiene nada que
ver con las invitaciones de conferencia a un servidor.
En particular para estos casos se suele usar SIP.
• Neutral respecto de la descripción de las
presentaciones: no impone ninguna descripción
particular o formato concreto de metafile.
• Muy similar a http: cuando es posible RTSP reutiliza
los conceptos de http, por lo cual puede usar la
infraestructura ya establecida.
• Capacidad de negociación: si las características
básicas están desactivadas, hay un mecanismo para
que el cliente pueda determinar qué métodos van a
ser implementados. Esto permite a los clientes usar la
interfaz más apropiada.

Preproducción.
La preproducción es una etapa imprescindible en una producción audiovisual, porque 
definimos que es lo que queremos hacer y qué es lo que necesitamos para poder
realizarlo.

Es la fase más importante del proceso de producción, aunque es un proceso


totalmente independiente del siguiente, que es la producción como tal. Comprende
desde el momento en el que nace la idea hasta que empieza la grabación. El mayor
esfuerzo productivo se realiza en esta fase. El equipo de producción atenderá a la
resolución de los problemas que planteen las personas y los medios precisos para
la realización del programa. En primer lugar, se encargarán de la supervisión y
corrección del guion técnico, del que se distribuirán copias a los miembros del
equipo técnico y artístico, así como al resto de personas que precisen de
información sobre el mismo. Según las indicaciones del guion, el equipo de
producción seleccionará los lugares donde se llevará a cabo la grabación e iniciará
los trámites necesarios para evitar posibles problemas durante el rodaje en los
escenarios y localizaciones. Del mismo modo, debe conseguir los permisos
pertinentes para poder hacer uso de determinadas piezas musicales que poseen
copyright). En esta fase de «preproducción» se contratan ya los equipos técnicos,
artísticos, de edición, de vestuario, de maquillaje, etc. con los que se contará
durante la realización del programa. Por otra parte, los equipos de producción y
realización deberán elaborar una serie de listas en las que se detalle con la mayor
exactitud posible las necesidades de atrezo y mobiliario. En definitiva, en esas
listas se precisará qué personas, materiales y medios serán necesarios en cada
momento de la grabación. Todo el material previamente citado, será de vital ayuda
para que el equipo de producción pueda visualizar el volumen de trabajo a
desarrollar. El final de la fase de preproducción se resume en la confección de
un plan de trabajo en el que quedará programado las actividades que día a día se
deberán efectuar para ajustarse a las previsiones del equipo de producción.
Normalmente, el plan de trabajo incluye una serie de formularios que recogen
toda la estructura administrativa del producto audiovisual.

Producción y rodaje
Es la puesta en práctica de todas las ideas pensadas en la fase de preproducción.
Una mala planificación supondría un gasto importante de tiempo y capital. En esta
etapa de la producción se incorporan el equipo de cámaras, los técnicos de sonido,
el equipo de dirección artística y decoración, los iluminadores, etc. El trabajo que
se efectúa en esta fase queda recogido en la orden de trabajo diaria, que se
materializa en datos reales en el parte de producción. La jornada de trabajo
finaliza con el visionado del material grabado y la preparación del día siguiente.

POST PRODUCCION

La función de la postproducció n (o "sweetening") es organizar


espacio-temporalmente y dar forma definitiva a los
diversos materiales sonoros que se utilizan en una producció n
audiovisual. En la postproducció n se combinan
elementos musicales extraí dos de colecciones especializadas,
efectos de sonido grabados en sala, generados
electró nicamente o extraí dos de colecciones, locuciones y mú sicas
grabadas expresamente -en estudio o "on
location"-, etc. El objetivo de esa combinació n depende del tipo de
producció n audiovisual, de su soporte, de su
gé nero, del criterio esté tico del realizador, etc. En algunos casos la
banda sonora será un complemento a la
banda visual, en otros será la guí a de los elementos visuales, en
otros servirá de refuerzo de la banda visual, en
otros duplicará la informació n que llega a travé s de la vista, etc.
La postproducció n es el ú ltimo proceso en la creació n de una
banda sonora pero no por ello hay que dejar todas
las decisiones para ese momento. La frase "...eso lo arreglará n en la
postproducció n" es tó pica, tí pica, y
desgraciadamente má s habitual de lo que nos gustaría. Con una
mejor pre-producció n o con sesiones de
grabación bien planificadas podrí an evitarse muchos de los defectos
que hay que subsanar en post-producción.

Edición de audio y vídeo digital


Después de las etapas de preproducción (guión y preparativos) y de
producción (grabación), entramos que la última y definitiva fase, en la etapa de
postproducción o edición. Ahora es el momento de seleccionar todo el
material que hemos grabado y darle forma a través del montaje o edición . El
montaje consiste en ordenar nuestros planos con el objetivo de narrar con
un buen ritmo la idea que habíamos desarrollado en nuestro guión.

En la actualidad y gracias a la tecnología del vídeo digital, la edición la


podemos realizar en un ordenador en nuestra casa. Lo primero que
deberemos hacer es hacer un buen visionado de todo lo grabado,
descartando las tomas malas o innecesarias. Y una vez seleccionado el
material válido, debemos pasarlo al ordenador, y ya podemos comenzar
nuestro montaje.

Masterizacion:
La masterización es el último paso de la postproducción de audio.El propósito de la
masterización es equilibrar los
elementos sonoros de una mezcla estéreo y optimizar la reproducción de todos los
sistemas y formatos.
optimizan la calidad de la reproducción en cualquier dispositivo; desde pequeños
altavoces de iPhone a
potentes sistemas de sonido para discotecas. La masterización es el puente entre el
artista y el consumidor. 
 Estas copias pueden ser distribuidas en múltiples formatos, como discos de vinilo, CD o
casete, o servicios de
streaming como Spotify, iTunes y SoundCloud. 
Además, la masterización permite la restauración de silbidos, chasquidos o pequeños
errores olivdados en la
mezcla final. La masterización también asegura la uniformidad y la consistencia del sonido
entre varias pistas en
un álbum. Básicamente, lo que hace la masterización es crear la sensación de claridad y
cohesión en todo tu audio.

EQUIPAMIENTO EN SALAS DE POSTPRODUCCIÓN DE AUDIO

La dimensión y la complejidad del equipo de los estudios de sonido varía con su finalidad,
pero existe un equipo básico en la mayoría de ellos que estudiaremos en profundidad a los
largo del curso. En una primera aproximación realizaremos una clasificación del equipo de
sonido utilizado durante las etapas de producción, dejando para más adelante el
equipamiento específico de postproducción.
3.3.1. MICROFONÍA.
Aunque no entraremos en un estudio pormenorizado de la construcción, tipos y
características de los micrófonos, si analizaremos los aspectos más importantes de los
mismos para poder trabajar con ellos a lo largo del curso. Al escoger un micrófono, hay que
tener en cuenta las siguientes consideraciones:
 Tipo de micrófono según su construcción.
 Características direccionales.
 Respuesta en frecuencia.
 Aspecto visual

En una sala de postproducción de audio, necesitamos que el sistema de escucha sea lo más
nítido y fiel al sonido original que podamos. En sonido profesional, llamamos “monitor” a
un sistema de escucha basado en altavoces que normalmente deben estar alimentados por
un amplificador, aunque hoy en día proliferan los sistemas de monitores amplificados que
no requieren de una unidad externa de amplificación.
Dos altavoces nunca tendrán el mismo sonido. Por ello, todos los altavoces que se usan
para fines profesionales en postproducción de sonido deben tener o cumplir ciertas
condiciones.
 La respuesta de frecuencia de un altavoz debe ser lo más plana o lineal posible, sin que
realce o atenúe ningún tipo de frecuencias.
 El emplazamiento del monitor también afecta a la calidad del sonido, su dispersión y su
tiempo de llegada. En el entorno profesional se ubican los altavoces en una pared. Lo más
importante en el emplazamiento de un monitor es evitar cualquier espacio apreciable entre
el altavoz y la pared. De otro modo, la pared reflejará las bajas frecuencias no deseadas,
afectando al nivel, a la respuesta de frecuencia.

Debemos tener en cuenta que una mezcla reproducida en monitores de alta gama puede
sonar impresionante, pero la misma mezcla reproducida en pequeños altavoces puede sonar
completamente distinta. Por eso, para la escucha de material sonoro en postproducción de
sonido se usan dos tipos de monitores. Por un lado, los altavoces de gran potencia o de
monitores de campo lejano y que como su nombre indica se sitúan incrustados en la pared
lejos del operador. Se usan como una referencia del sonido durante la grabación y
especialmente en las mezclas. Por otro lado, tenemos los monitores de campo próximo que
se usan para escuchar el material sonoro como si sonara en pequeños equipos
estereofónicos o en equipos de radio. Estos altavoces se colocan junto al mezclador a unos
dos metros del operador de sonido. La monitorización de campo cercano permite al
operador de sonido localizar la fuente de sonido.
MESA DE MEZCLAS.
Es el componente encargado de introducir en el grabador de la sala de postproducción
señales de audio externas. Por ejemplo, si se pretende grabar en el ordenador una voz de un
locutor y la música en vivo procedente de una batería y una guitarra se necesitarán varios
micrófonos o entradas de línea.
Una mesa de mezclas es un sistema capaz de proporcionar, a partir de varias señales de
entrada, una o más señales de salida que son mezclas de las de entrada. Cada señal de salida
será una suma, en diferentes proporciones, de las señales de entrada.

TARJETAS DE SONIDO
Es un periférico de entrada y salida de sonido (I/O) que funciona como interfaz hardware
encargado de realizar el proceso de conversión de señal de audio analógica a digital A/D y
poder así procesar digitalmente el audio en el PC. Por tanto, como mínimo una tarjeta de
sonido debe llevar un conversor A/D. El conversor puede ir integrado en la propia tarjeta de
audio, o bien puede ser adquirido por separado si buscamos ya calidad más profesional.
El resto de elementos de la tarjeta dependerán de la tarea a la que vayamos a destinar el
equipo. Para grabar un micrófono o instrumento no sirve con disponer de entradas en una
tarjeta. Es necesario conocer algunos términos que influyen en la calidad del trabajo.
Latencia
Es el retraso producido desde que la señal entra en nuestra máquina y se procesa (en la
etapa de grabación), o al contrario, el lapso de tiempo necesario para que la señal
reproducida desde el ordenador, llegue a la salida analógica de nuestra tarjeta.
La explicación del fenómeno de la latencia se basa en el hecho de que, en los ordenadores,
el audio ha de ser almacenado previamente en “memorias intermedias (buffers)” o lo que
podríamos llamar pequeños trozos durante los diferentes pasos del proceso de grabación y
reproducción. Cuantos más trozos tengamos y más tamaño con mayor cantidad de datos,
mayor será la latencia.
La latencia depende de dos factores; potencia de la cpu, y optimización del driver de audio
de la tarjeta. La latencia se hace palpable cuando por ejemplo disparamos una nota desde un
teclado, y notamos que el sonido no se reproduce al instante, sino que hay cierto retardo
que dependerá de los dos factores mencionados. A medida que aumentemos la carga de un
proyecto de postproducción, se debe bajar la latencia.
En la reproducción no es necesario usar latencias tan agresivas (bajas) como las que
usaremos a la hora de grabar. Está claro que no es lo mismo darle al "play" de un
secuenciador y que la reproducción se demore 10/20 milisegundos, que intentar grabar una
batería escuchando lo que se está tocando con 10/20 ms de retraso respecto al golpe
original.
Afortunadamente existe la monitorización directa en muchas de las tarjetas de audio
actuales. En este caso, la señal monitorizada no es procesada por el programa grabador que
estemos usando, evitando así el retardo que este proceso nos causaría. En el caso de la
tarjeta EDIROL, existe la opción DIRECT MONIT. Por lo tanto, hay que tener en cuenta la
posibilidad de contar con una tarjeta con monitorización directa si pretendemos acumular
pistas y poder seguir grabando con latencias bajas hasta la última etapa de nuestro proyecto.
El "procesador digital de señal" (Digital Signal Processor), es un procesador dedicado
exclusivamente para procesos de audio independiente del procesador de la CPU. A estos
procesadores DSP se les pueden encomendar tareas específicas para aliviar el procesador
del ordenador. Estos procesadores DSP se usan para efectos y instrumentos virtuales. Los
DSP se integran en la placa base del ordenador en las ranuras PCMI. Un sistema
profesional suele llevar más de un procesador DSP. Para más información de los DSP es
interesante visitar la página de la marca Universal Audio (www.uadio.com).

EL SOFTWARE
En audio profesional tenemos que diferenciar en primer lugar entre drivers y programas de
sonido específicos.

Los objetivos de la grabación que más debemos cuidar son:


1. Obtener una calidad tonal lo más parecida al original.
2. Grabar al menos un par de tomas para poder elegir la mejor.
3. Especialmente en el de locuciones, obtener tomas con el máximo grado de
inteligibilidad posible. Podemos mejorar la inteligibilidad amplificando un poco la
banda en torno a los 2 KHz (o en general amplificando 3 o 4 dB por encima de esa
frecuencia)
4. Para paliar la sibilancia pueden utilizarse de-essers, una especie de compresores
especializados que se encargan de recortar la banda en torno a 7 u 8 KHz.
5. El problema de ruidos provocados por las explosivas “eses”, y las “p” `se denomina
“popeo” y puede paliarse con ayuda de un filtro anti-pop o en su defecto con una pantalla
elaborada con ayuda de alambre y una media o panty, que se colocan justo ante el micro,
entre él y el locutor. También puede ser útil en este caso descentrar ligeramente el micro, de
forma que en lugar de apuntar al centro de la boca apunte a la mejilla o a la barbilla.
6. Las respiraciones exageradas habrá que eliminarlas "a mano" o con ayuda de una puerta
de ruido a posteriori (si hemos hecho la grabación sin utilizarla).
7. Respecto al procesado de efectos, es preferible aplicarlo "a posteriori" pues al aplicarlo
en grabación resultará imposible o muy difícil restaurar el original no procesado si ello es
necesario. En todo caso, el procesado que se aplica normalmente es una puerta de ruido y
una ligera compresión.

Técnicas usadas.
Para desarrollar la parte individual de trabajo, se ha seguido los
siguientes pasos:
- Edición de audio por partes.
- Selección de piezas musicales y efectos de sonido.
- Mezcla y especialización del audio editado.
- Estudio y desarrollo del diseño de sonido.

- Master final del audio.

3.2.1.- Edición de audio por partes.


En este punto se concentran las siguientes tareas técnicas:
- Importación del audio en bruto original.
- Adecuación de los ajustes iniciales del software y de seguridad:
duplicar la pista original, seccionar razonadamente la pista duplicada
en pasajes, distribuir organizadamente los pasajes en pistas.
Igualación de niveles, esto es, volúmenes en decibelios,
que es la unidad logarítmica y relativa empleada en acústica y
telecomunicaciones para expresar la relación entre dos
magnitudes, acústicas o eléctricas.
􀀁 Resolución de defectos de grabación, como la creación de
falsos estéreos, la corrección de errores, ruidos y conexiones.
􀀁 Adaptación de transiciones mediante automatizaciones de
volumen.
􀀁 Ecualización individual según los planos de grabación.
3.2.3.- Mezcla y espacialización del sonido.
Una vez tenemos todas las pistas preparadas, pasamos a realizar
la mezcla de todas ellas:
- Se repasan todos los niveles de las pistas así como las
transiciones entre ellas.
- Tratamiento el panorama de éstas para espacializarla de forma
correcta y, que posteriormente a la hora de su reproducción, se
escuche lo mejor posible.
- Ecualización de todo el audio, pero ahora de forma global;
también se comprime y se deja todo preparado para la masterización,
el último paso dentro de todo el trabajo que comprende toda la
postproducción de audio de este documental.
3.2.4.- Mezcla y espacialización del sonido.
En este último punto se va a preparar todo el audio para su
exportación y posterior importación al montaje de vídeo final.
Para ello, se prepara la exportación mediante la adecuación de
sus parámetros:
- Normalización a -3 dB.
- Frecuencia de muestreo a 48.000 Hz (Herzio, unidad que mide
la magnitud frecuencia).
- Profundidad de 16 bits.
Todos estos parámetros de audio son los correctos para crear
un DVD.

Redundancia
La Redundancia es la clave para asegurarnos una transmisión
sin sobresaltos
Y si el presupuesto lo permite, tener siempre redundancia.
.Que. es redundancia? Tener doble conexión a Internet (o
triple). Si una se nos cae, por lo menos tenemos la otra, si un
codificador se nos cae, tenemos el otro. También tener un respaldo
de corriente AC. Si estamos utilizando por ejemplo un
PC de escritorio, una mesa de video, iluminación, un equipo
TriCaster o cosas asi, tener algún equipo generador o UPS /
SAI tipo no-break para que, si se nos cae la corriente eléctrica,
podamos seguir transmitiendo.

El montaje. Algunos criterios básicos

Temario
1. La postproducción de sonido.
· Funciones.
· Procesos: Grabació n, Edició n, Procesado, Mezclas y Masterizació n.
· Personal té cnico y de producció n.
· El estudio de postproducció n: digital vs. analó gico, video vs. multimedia.
2. Soportes y formatos del material sonoro.
· Audio de CDs.
· Audio de DATs. Otros soportes de audio en cinta.
· Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducció n de bits.
3. Edición de sonido.
· Visualitació n del sonido. El dominio temporal i el dominio espectral.
· Claves visuales que nos ayudan a interpretar el sonido.
· Edició n destructiva y edició n no destructiva.
· Cortes y encadenamientos.
· Fundidos de entrada y de saltida. Fundidos cruzados.
· Eliminació n de ruidos indeseables.
4. Transformación y procesamiento del sonido.
· Reverberació n y procesado espacial.
· Procesado de diná mica: Normalizació n, modificació n de la amplitud, compresió n, limitació n,
expansió n.
· Transformaciones tí mbricas basadas en retardos: delay, flanger, chorus...
· Transformaciones tí mbricas basadas en la estructura de los sonidos. Filtrado.
5. Montaje y Mezcla.
· El entorno acú stico que requiere una mezcla.
· Mezcladores virtuales.
· Procesado habitual en una mezcla.

· Automatización.
6. Sincronización audio-video. Formatos definitivos.
· SMPTE.
· Postproducció n informatizada.
· El sonido y los formatos audiovisuales má s habituales: AVI, Quicktime, Betacam...
7. Fuentes sonoras a incorporar en una producción audio-visual (I): voces.
· Caracterí sticas sonoras de las voces.
· Rudimentos de microfoní a para voces.
8. Fuentes sonoras a incorporar en una producción audio-visual (II): efectos.
· Tipologias de efectos.
· Estrategias de creació n de efectos.
· Colecciones de efectos. Recursos disponibles en Internet.
9. Fuentes sonoras a incorporar en una producción audio-visual (III): músicas.

· Funciones de la musica en una producció n audiovisual

Audio

 Cuando se edita una secuencia de sonidos, es importante regular


su volumen para controlar cómo se funden entre sí: cuando se pasa de
un sonido a a un sonido B, se suele bajar el volumen del sonido a
mientras se sube el volumen del sonido B.
 En la edición de sonido también existen los planos sonoros cuando se
mezclan varias pistas de audios y se quiere que unos sobresalgan sobre
otros. P. ej. pensemos en un reportaje de radio: mientras escuchamos
una conversación entre dos personas (sonido en Primer Plano)
podemos apreciar el sonido de una estación de tren de fondo (sonido
en segundo Plano). Para lograr ese efecto, el volumen de la
conversación estará más alto que el volumen de la estación.

CONCLUSIONES Y RECOMENDACIONES

Redundancia
La Redundancia es la clave para asegurarnos una transmisión
sin sobresaltos
Y si el presupuesto lo permite, tener siempre redundancia.
.Que. es redundancia? Tener doble conexión a Internet (o
triple). Si una se nos cae, por lo menos tenemos la otra, si un
codificador se nos cae, tenemos el otro. También tener un respaldo
de corriente AC. Si estamos utilizando por ejemplo un
PC de escritorio, una mesa de video, iluminación, un equipo
TriCaster o cosas asi, tener algún equipo generador o UPS /
SAI tipo no-break para que, si se nos cae la corriente eléctrica,
podamos seguir transmitiendo.

El sonido es un imprescindible en nuestras vidas. Gracias al sonido nos comunicamos, sentimos,


reaccionamos, incluso nos sentimos más seguros. Por supuesto, en nuestro gremio la cosa es igual, la
importancia del sonido en la producción audiovisual es tal que le prestamos la misma atención, o más
que a la imagen.

¿Qué consigue el sonido en la producción


audiovisual?
El sonido en los audiovisuales es imprescindible. Es cierto que hemos visto películas mudas estupendas.
Sin embargo, es realmente difícil sumergirse en un producto de vídeo sin audio, de ahí la importancia
del sonido en la producción audiovisual.

Crear un ambiente
Es indispensable enmarcar las imágenes dentro de un ambiente adecuado en el que encajen y que, por
supuesto, incite a continuar disfrutando del producto creado. Esta tarea no es nada fácil, por ello te
recomendamos que la realicen profesionales del sector audiovisual.
El medio incita a la interacción y es importante que este sea perfecto, que se encuentre equilibrado en
todos sus elementos, incluido el sonido.
Captar la atención
Existirán ciertos puntos en tu audiovisual que requieren de una atención especial. Pueden ser aquellos en
los que se da el mensaje principal, el comienzo o el final de la producción o simplemente cualquier
punto a destacar.
La diferencia de volumen, la integración de melodías diferentes e incluso el cambio de tono de la escena
servirán para captar la atención del espectador.

Crear sensaciones
Por supuesto, es indispensable que, para ser recordados, creemos diferentes sensaciones. Pero no
pueden ser sensaciones aleatorias. Es necesario estudiar al público y definir unos objetivos claros y,
partiendo de eso, crear melodías e incluir sonidos para hacer que aflore la sensación buscada.

Integrar diferencias
Los diferentes planos, mensajes, sensaciones, actuaciones… Cualquier elemento diferente se integra con
otro con ayuda del sonido adecuado. De esta manera, comprendemos el audiovisual como un todo y no
como diferentes partes.
A veces, aunque siempre se busca una homogeneidad, se intenta dar una primera impresión en la que se
remarquen las diferencias. Igualmente válidos será el sonido, la ambientación musical y la propia voz
para conseguirlo.

Completa los mensajes


A veces una palabra es suficiente para hacer que un mensaje visual quede perfectamente claro. Así, el
sonido ayuda a decir lo que de otras maneras no lo podemos.
No cabe decir que el silencio forma parte de un sonido fundamental en la industria del cine.

El material de audio en las producciones


audiovisuales
El material principal para grabar audio de calidad siempre ha sido el micrófono. En función de sus
características, obviamente, los resultados obtenidos serán mejores o peores.
Los micros no los llevan los propios actores sino que son los operadores de audio quienes cargan con el
material, perfectamente protegido, de manera que este no aparezca en escena.

Sin embargo, dependiendo del producto audiovisual a conseguir, los micros quedan relegados pues, en la
actualidad, todas las cámaras de vídeo cuentan con una tecnología de audio perfecta. Así, para
producciones menores, las cámaras suelen ser suficiente.
A mayor calidad de audio, menos necesidad de edición y postproducción y más contenido en perfectas
condiciones con el que trabajar.

Como ves, la importancia del sonido en la producción audiovisual es tal que sin él muchas de las
estrategias audiovisuales no tendrían éxito.

También podría gustarte