Está en la página 1de 214

MÓDULO DEL CURSO ACADÉMICO

MULTIMEDIA

Adriana Rocío Lizcano Dallos

UNIVERSIDAD NACIONAL ABIERTA


Y A DISTANCIA - UNAD
Bogotá, 2005
COMITÉ DIRECTIVO

Jaime Alberto Leal Afanador


Rector

Roberto Salazar Ramos


Vicerrector Académico

Sejhifar Ballesteros Moreno


Vicerrector Administrativo y Financiero

Maribel Córdoba Guerrero


Secretario General

Edgar Guillermo Rodríguez


Director de Planeación

GUÍA DIDÁCTICA
CURSO MULTIMEDIA
PRIMERA EDICIÓN

@ Copy Rigth
Universidad Nacional Abierta y a Distancia

ISBN

2005
Centro Nacional de Medios para el Aprendizaje
Pág

1) El concepto de multimedia 13
1.1 Antecedentes y desarrollo. 13
1.2 Discusión en torno al término. 17
1.3 Características de la comunicación multimedia. 19
1.4 Aspectos tecnológicos de la multimedia. 22

2) Conceptos relacionados 30
2.1 Hipertexto 30
2.2 Hipermedia 38
2.3 Interactividad 38

3) Elementos de un proyecto multimedia 42


3.1 El texto 43
3.2 Los Gráficos 46
3.3 El sonido 51
3.4 La Animación 54
3.5 El vídeo 56

4) Usos actuales de la multimedia 58


4.1 Multimedia en los negocios 59
4.2 Multimedia en las escuelas 59
4.3 Multimedia en el hogar 60
4.4 Multimedia en lugares públicos 60
4.5 Realidad virtual 61
! " # $

1) Etapas básicas 68
1.1 Definición del proyecto 69
1.2 Diseño y planeación 74
1.3 Producción 86
1.4 Pruebas 87
1.5 Uso 88
1.6 Evaluación 89

2) El equipo de trabajo 89
2.1 Roles 90
2.2 Dinámica de trabajo 91

3) El Guión 99
3.1 ¿Cómo contar historias: estructura y desarrollo del relato 100
3.2 Principios básicos de un guión 105
3.3 Estructura del guión multimedia 108

% " #
$ !
1) Teoría del color 114
1.1 Descripción formal del color como fenómeno físico 116
1.2 Modelos de color 118
1.3 El círculo cromático 123
1.4 Interacciones del color – armonía y contraste 127
1.5 Características sicológicas del color 135

2)El texto 145


2.1 Conceptos básicos 147
2.2 Elegir el tipo de letra 150
2.3 Composición de textos 157

3) Gráficos 160
3.1 Obtención de las imágenes 161
3.2 Mapas de bits 162
3.3 Gráficos vectoriales 176
3.4 Meta-archivos 180
3.5 Mapas de píxeles frente a gráficos vectoriales. 181
3.6 Gráficos 3D 182

4) Animación 182
4.1 Gráficos 3D 183
4.2 Definición de la animación y primeros hitos en la historia de la animación
183
4.3 Principios básicos de la animación 184
4.4 Técnicas de animación 2D 185
4.5 Técnicas de animación digital 3D 188

5) Sonido 190
5.1 El sonido en los Multimedia 191
5.2 Naturaleza y características del sonido 194
5.3 Formatos de archivos 201
5.4 El proceso de producción del audio 204

6) Vídeo 206
6.1 Surgimiento del video 206
6.2 El video como medio de comunicación con lenguaje propio 207
6.3 Fundamentos técnicos del video 209
& '
¿Qué es la multimedia? ¿Cómo se le caracteriza? ¿Qué utilidad social, qué usos y
aplicaciones tiene? ¿Qué parámetros se deben considerar para construir
aplicaciones multimedia? Son algunos de los interrogantes a partir de los cuales
se plantea el presente curso.

El curso de Multimedia ofrecido por la Facultad de Ciencias Básicas e Ingenierías


de la UNAD, tiene asignados 3 créditos académicos y corresponde al campo de
formación Electivo del Programa de Ingeniería de sistemas. Tiene un carácter
metodológico pues se espera que usted asimile los elementos conceptuales y los
aplique en la formulación de su proyecto multimedia utilizando tecnología
computacional.

A través del desarrollo de las diferentes unidades temáticas usted conocerá los
fundamentos conceptuales de las aplicaciones multimedia, su uso y los
requerimientos para su desarrollo. También adquirirá las destrezas necesarias
para formular, planear y ejecutar proyectos multimedia, que cumplan con unas
características básicas en el uso de los diferentes medios: textuales, sonoros y
visuales.

Para lograrlo se ha estructurado el curso en tres unidades didácticas: Conceptos


Fundamentales, Desarrollo de proyectos multimedia y Componentes de un
proyecto multimedia.

En la unidad de Conceptos Fundamentales se estudiará el concepto de


Multimedia considerando desde el ámbito tecnológico hasta el comunicativo, los
elementos que la identifican, su utilidad, y otros conceptos que comúnmente se
encuentran relacionados como el hipertexto y la hipermedia.

En el Desarrollo de proyectos multimedia se presentan los fundamentos


metodológicos para formular proyectos multimedia, además de proporcionar
orientaciones para que usted estructure una idea de proyecto multimedia. Se
revisan algunos aspectos fundamentales como el grupo de trabajo, el costo, y se
dan los lineamientos para la construcción de un elemento fundamental: El Guión.

Finalmente, en la unidad correspondiente a los Componentes de un proyecto


multimedia se asumen con un mayor nivel de especificidad las características
deseables para los elementos de texto, gráficos, video y sonido que harán parte
de un proyecto multimedia, además de realizar ejercicios prácticos para capturar,
editar e integrar estos elementos en la construcción de su proyecto multimedia.
Para el desarrollo de las diferentes unidades del Módulo del curso Multimedia se
ha intentado recopilar la información más relevante y actualizada, organizándola
de forma coherente y didáctica,... por lo menos es la esperanza de la autora que el
lector encuentre en esta recopilación un material agradable, legible y actual. Se ha
puesto especial interés en asegurar fuentes de calidad, pues aunque la principal
fuente de consulta es internet, se han seleccionado los materiales de fuentes
reconocidas que se podrán identificar y consultar en la sección final de cada
Unidad didáctica.

Cada unidad didáctica está estructurada en tres componentes básicos, la


presentación de la Unidad, el desarrollo temático y las fuentes relacionadas. La
presentación de la Unidad incluye la introducción, intencionalidades formativas,
mapa conceptual y productos de aprendizaje, con el fin de recordar y orientar el
estudio de la misma. Estos componentes también los podrá encontrar en la Guía
didáctica del curso. Posteriormente se encuentra el desarrollo de los diferentes
temas, en algunos casos se proporcionan recomendaciones para la ampliación del
tema mediante consultas en Internet y se suministran las direcciones
recomendadas de búsqueda y lectura. Se espera que el estudiante asuma el
estudio independiente de los diferentes temas, mediante lectura autorregulada y
construyendo mapas conceptuales, fichas de lectura y de conceptos, las cuales
deberá archivar en el portafolio personal. Finalmente, las fuentes relacionadas
reconoce todas las fuentes utilizadas para la recopilación y redacción del
contenido temático.

Además, como material de consulta adicional se recomienda que usted acceda a


otros recursos documentales como la biblioteca de la Universidad
(www.unad.edu.co), enlaces internet (que se proporcionan en cada capítulo del
módulo), bases de datos como ProQuest a los que se tiene acceso gratuito desde
las salas de informática de la UNAD.

Este módulo no aborda la parte práctica, ni el uso de herramientas software para


la producción de multimedia. El aprendizaje de estos componentes se realizará en
las tutorías de gran grupo y según las necesidades que surjan, a partir de la
formulación de las diferentes ideas de proyecto multimedia planteadas por los
estudiantes como parte de su trabajo colaborativo en pequeño grupo.

Como es de esperarse, este módulo es una primera aproximación que se espera


enriquecer con los aportes de los tutores y estudiantes que a nivel nacional
desarrollen el curso, es por tanto no solo fuente de consulta, sino también material
de discusión para el mejoramiento de los procesos de aprendizaje de la
Universidad Nacional Abierta y a Distancia.

Un cordial saludo y bienvenido al curso de Multimedia apreciado lector. La autora


queda a la espera de sus aportes.
( " ) $ )

La revolución de las Nuevas Tecnologías de la Comunicación y la Información


(NTC/NTI), con la incorporación de las computadora a los medios electrónicos, los
sistemas de comunicación por satélite, el teléfono, el fax y el celular, no acaban de
asombrarnos. Antes de que termine el siglo otras novedades de comunicación e
información se desarrollan y tienen aplicación social. Se anuncian ya las redes de
telecomunicación multimedia, que darán lugar al cambio más grande de todos los
tiempos.

Los reportajes y las noticias de periódicos, radio y televisión son más expeditas,
en vivo y en directo, gracias a estas tecnologías. La educación, la instrucción, la
capacitación y el aprendizaje comienzan a impactarse con el uso de las mismas y
a desarrollar alternativas, con aplicaciones de éstas, para tales procesos.

Las teleconferencias vía satélite, que aumentan posibilidades de cultura,


educación, capacitación, información e instrucción, de modo interactivo;
comienzan a ser más comunes y, con la infraestructura requerida, más al alcance
de instituciones sociales.

Los usos sociales de la información se modifican, aunque se conservan las


mismas funciones: ahora, a la información se la puede considerar como una
mercancia a la que se puede calcular un precio, almacenar, transportar, distruibuir,
procesar, transformar y elaborar productos con ella. Con la computadora, con las
redes de telecomunicación a las que, ésta, da lugar, se da un sistema a través del
cual se hace circular, indistintamente, la información pública o la privada; el mismo
sistema se emplea ahora para cuestiones de diversión y entretenimiento, de
trabajo, de educación o de información, cuestiones que antes requerían sistemas
diferentes para realizarse (Martín Serrano, 1992).

La principal característica de las NTC/NTI, con la introducción de la computadora


en ellas, es el cambio que introducen en la producción de la información y la
comunicación, al dar lugar a una modificación de la edición de diferentes
materiales y contenidos y al ampliar las posibilidades que las formas tradicionales
de edición no tienen. Se acelera el proceso (que no se altera en sus formas
sustanciales) y propicia ahorro en recursos de tiempo, técnicos, humanos y
económicos.
Para evaluar los cambios a que da lugar la tecnología digital de la computación en
la comunicación e información se requiere reconocer lo esencial de estos campos:

La comunicación consiste en el envío de mensajes con el propósito de afectar a


otros mediante el recursos a la información. Tiene como esencia ser un proceso
social que suscita, desarrolla o modifica significados y representaciones, para
generar un sentido a través de los mensajes que se envían y se reciben; para ello,
son indispensables dos tipos de sistemas, unos de significación (códigos) y otros
de transmisión (canales), compartidos dentro del proceso. El primer sistema
requiere del uso de signos y símbolos de comunicación capaces de evocar
realidades, convocar a la formación de una comunidad de significados y provocar
a la confirmación, desarrollo o transformación de las condiciones de existencia, en
quienes los perciben. El segundo sistema requiere compartir mecanismos y
soportes físicos que hagan posible la transmisión/recepción de señales físicas
significantes, según el código compartido.

La información se constituye esencialmente por los datos externos de la realidad,


que se interiorizan, por los datos de realidades, reales e irreales, que se reciben a
través de las señales físicas transmitidas por un mensaje y que son interpretados
y organizados, por el individuo, para constituirlos como guías de acción,
intervención, participación o transformación. La información es una parte de la
comunicación, son los elementos con que estructuramos un mensaje; aunque no,
necesariamente, toda información involucra una comunicación.

Dentro de este proceso de transmisión de datos estructurados de acuerdo con


cierto código, la computadora tiene un tiempo de ser usada socialmente para algo
más que procesar datos o información. Se la utiliza como instrumento para
producir información y comunicación, como banco para almacenar la información
en grandes volúmenes, como canal para intercambiar o extraer información a
grandes distancias, como medio de comunicación interpersonal o mediada; tal
como se hace con el teléfono o con el periódico, el cine y la televisión (Corrales,
1993).

Pero aún dentro de este último uso, como medio de comunición e información, la
computadora presenta novedades. Una de esas novedades es la teleconferencia a
través de redes de conectadas de terminal a terminal con software con
aplicaciones de escritorio. Otra novedad se presentó en la VII FIL de la
Universidad de Guadalajara, en 1993: los paquetes o programas de computación
interactiva. Llamaron poderosamente la atención de chicos, medianos y grandes,
porque permiten al usuario intervenir para elegir la forma en que el programa se
ha de recorrer o de desarrollar. En estos paquetes se pueden decidir alternativas
para el desarrollo del mismo.

Con anterioridad a la VII Feria Internacional del Libro, Block Buster, empresa que
ofrece el servicio de videos, había introducido el video interactivo con varios títulos
dedicados a la diversión y entretenimiento y algunos a la difusión, la información y
la instrucción.

Las características generales de estas novedades son:


1. la integración de texto escrito, gráficas, imagen (fija o en movimiento) y
sonido,
2. la digitalización y
3. la interactividad.

La integración hace concurrir a diversas tecnologías: de expresión, comunicación,


información, sistematización y documentación, para dar lugar a aplicaciones en la
educación, la diversión y el entretenimiento, la información, la comunicación, la
capacitación y la instrucción. Esta integración está dando lugar a una nueva
tecnología, de tipo digital, que emplea la computadora, sus sistemas y periféricos,
conocida generalmente como multimedia. La tecnología multimedia tiene diversas
manifestaciones y posibilidades tecnológicas.

La digitalización convierte a los datos que se integran en impulsos electrónicos,


con un código simple de impulso/no-impulso, que corresponden al empleo de un
código de dos números digitales: 0 y 1. De allí viene digitalizar y digitalización.

La interactividad hace que los programas (video o video juego) no se desarrollen


de manera lineal, en una sola dirección, con una sola historia o trama, como
estamos acostumbrados a verlos y manejarlos. La computadora y las
programaciones permiten a los usuarios que recorran las aplicaciones como
deseen, las repitan cuantas veces sea necesario, hagan comentarios, den
respuestas, formulen preguntas y que la realimentación se almacene en una base
de datos.

Lo que ha impulsado el surgimiento y desarrollo de la tecnología multimedia es la


capacidad de procesar datos disponibles en el escritorio a través de las PC,
gracias a procesadores superescalares que permiten velocidades del orden de
cientos de gigahertz (GHz) y a la disponibilidad de hardware cada vez más potente
y barato (PC WORLD No. 122, 35)

Pero, ¿qué es exactamente multimedia? ¿Cómo se le caracteriza? ¿Qué utilidad


social, qué usos y aplicaciones tiene? Esta primera unidad didáctica del curso de
Multimedia presenta los conceptos fundamentales que le permitirán relacionarse
con la multitud de elementos que actualmente conforma la multimedia,
visualizando posibilidades de su utilización y proyecciones para su desempeño
como profesional.
*

"
• Aportar a la fundamentación teórica del estudiante, como
base para la construcción de un discurso coherente y
sustentado, a través de la profundización en los conceptos
comunicativos, metodológicos y tecnológicos de la
multimedia.

+, *
• Que el estudiante describa los componentes fundamentales
de un proyecto multimedia, su relación y su finalidad,
partiendo de la visualización de proyectos multimedia con
diferentes orientaciones y su comparación con los
fundamentos teóricos estudiados.

• Que el estudiante enumere los diferentes usos actuales de


la tecnología multimedia y proyecte su uso futuro en la
sociedad, a partir un ejercicio de consultas actualizadas en
internet y sus conocimientos tecnológicos.

• El estudiante describe y caracteriza de manera adecuada


los conceptos, elementos, tecnologías y procedimientos,
relacionados con el desarrollo de proyectos multimedia con
fines educativos o de promoción publicitaria.

• El estudiante describe los usos actuales y proyecta los usos


futuros de la multimedia en diferentes ámbitos sociales,
educativos y culturales.
$
Una vez terminada esta unidad didáctica el estudiante estará
en capacidad de:
• Enumerar los diferentes elementos que hacen parte de un
proyecto multimedia.
• Describir los usos actuales de las aplicaciones multimedia y
sus características particulares.
• Definir y comparar términos relacionados comúnmente con
la multimedia.
$

" -,

Individual

Lectura autorregulada de la Unidad Didáctica realizando Fichas textuales, Fichas


de Concepto, y Mapas Conceptuales para archivar en el portafolio.

Construir un listado de términos desconocidos con su correspondiente significado.

Pequeño Grupo Colaborativo

Síntesis de los resultados de la búsqueda de aplicaciones ejemplos de


aplicaciones multimedia (por lo menos 2 por cada tipo de uso) y definirá las
razones para su clasificación. Esta síntesis se deberá organizar mediante
diapositivas.

Ensayo escrito en procesador de textos (5-7páginas en letra Arial de 12, espacio


interlineado 1.5 y márgenes de 3 cm a cada lado, página tamaño carta) donde de
muestren las proyecciones futuras del uso de las aplicaciones multimedia. El
ensayo deberá ser enviado vía correo electrónico.

Grupo de Curso

Socialización de los productos individuales y en Pequeño grupo colaborativo.

. $

En este capítulo se realiza una inspección histórica de los principales


antecedentes y la evaluación del concepto, se presenta una discusión acerca de la
aplicación del concepto, se revisan discusiones de expertos con respecto a las
implicaciones y usos de los diferentes términos que comúnmente se relacionan
con la Multimedia, como hipermedia, hipertexto, interactividad y otros más. Lo
anterior para contextualizar el fundamento teórico que hace parte de lo meramente
tecnológico e instrumental que hace parte del concepto popular de multimedia.
Para hacerlo se utiliza un artículo internet escrito por Carlos Corrales Díaz.

)/ ) &&

La tecnología multimedia tienen su antecedente más remoto en dos vertientes: a)


el invento del transistor con los desarrollos electrónicos que propició y b) los
ejercicios eficientes de la comunicación, que buscaba eliminar el ruido, asegurar la
recepción del mensaje y su correcta percepción mediante la redundancia.

a) El invento del transistor, a partir de los años 50, posibilitó la revolución de la


computadora, con la fabricación del chip, los circuitos eléctricos y las tarjetas
electrónicas, los cuales propician unidades compactas de procesamiento y la
integración del video. Todo esto, junto con los desarrollos de discos duros,
flexibles y, de los discos ópticos, se ha concretado en la tecnología de las PCs.
Posteriormente, una serie de accesorios y periféricos han sido desarrollados para
que la computadora pueda manejar imagen, sonido, gráficas y videos, además del
texto. Las primeras PC de fines de los 70, "tenían algunas capacidades de audio,
bocinas pequeñas que producían un rango muy limitado de chillidos, beeps y
zumbidos, que se podían añadir a algún arreglo musical" (PC WORLD, No. 119,
1993, 23)

b) Por otro lado, la comunicación desarrolla, a partir de los 70s, en la educación, la


instrucción, la capacitación y la publicidad, el concepto operativo de multimedia.
Por tal concepto se entiende la integración de diversos medios (visuales y
auditivos) para la elaboración y envío de mensajes por diversos canales,
potencializando la efectividad de la comunicación, a través de la redundancia;
pues, así, la comunicación resulta más atractiva, afecta e impacta a más
capacidades de recepción de la persona y aumenta la posibilidad de eliminar el
ruido que puede impedir la recepción del mensaje.

En el ámbito de la computación el término multimedia es más nuevo y designa el


uso de varios recursos o medios, como audio, video, animaciones, texto y gráficas
en una computadora. Sin quedarse, sólo, en un collage de medios, al integrar los
datos que puede manejar la computadora, la multimedia ofrece posibilidades de
creatividad mediante los sistemas de computación (PC WORLD, No. 121, 1993,
26).

La Multimedia se inicia en 1984. En ese año, Apple Computer lanzó la Macintosh,


la primera computadora con amplias capacidades de reproducción de sonidos
equivalentes a los de un buen radio AM. Esta característica, unida a que: su
sistema operativo y programas se desarrollaron, en la forma que ahora se
conocen como ambiente windows, propicios para el diseño gráfico y la edición,
hicieron de la Macintosh la primera posibilidad de lo que se conoce como
Multimedia (PC WORLD, No.119, 1993, 23).

El ambiente interactivo inició su desarrollo con las nuevas tecnologías de la


comunicación y la información, muy concretamente, en el ámbito de los juegos de
video. A partir de 1987 se comenzó con juegos de video operados por monedas y
software de computadoras de entretenimiento (PC WORLD No. 115, p.40).

Por su parte la Philips, al mismo tiempo que desarrolla la tecnología del disco
compacto (leído ópticamente: a través de haces de luz de rayos láser) incursiona
en la tecnología de un disco compacto interactivo (CD-I): Según Gaston A.J.
Bastiaens, director de la Philips Interactive Media Systems, desde noviembre de
1988 la Philips hace una propuesta, a través del CD-I Green Book, para
desarrollar una serie de publicaciones sobre productos y diseños interactivos en
torno al CD-I con aplicaciones en museos, la industria química y farmacéutica, la
universidad o la ilustre calle; la propuesta dió lugar a varios proyectos
profesionales surgidos en Estados Unidos, Japón y Europa (Philips IMS, 1992,
Introducing CD-I, Foreword).

La tecnología de multimedia toma auge en los video-juegos, a partir de 1992,


cuando se integran: audio (música, sonido estereo y voz), video, gráficas,
animación y texto al mismo tiempo. La principal idea multimedia desarrollada en
los video juegos es: que se pueda navegar y buscar la información que se desea
sobre un tema, sin tener que recorrer todo el programa, que se pueda interactuar
con la computadora y que la información no sea lineal sino asociativa (PC
WORLD, 119, 1993,25).

En enero de 1992, durante la feria CES (Consumer Electronics Show) de Las


Vegas, se anunció el CD multiusos. Un multiplayer interactivo capaz de reproducir
sonido, animación, fotografía y video, por medio de la computadora o por vía
óptica, en la pantalla de televisión. La multimedia que está a punto de
desarrollarse busca la televisión mutimedia, a partir del empleo de una CPU
multimedia. Con esta tecnología se desarrollará la televisión interactiva, que
aplicará el principio de aprender haciendo y tendrá capacidad para crear el
sentimiento de comunidad, a partir de la interactividad. Mediante la interacción con
la máquina, la multimedia tendrá una función semejante a la de los libros en el
aprendizaje e información, tendrá su base en las imágenes interactivas y en la
premisa de que "la gente adquiere sus conocimientos de manera más efectiva
manejando la información de manera interactiva" (PC WORLD No. 115, 39:40; PC
WORLD, 119, 25).

Hoy en día los sistemas de autor (authoring systems) y el software de autor


(authoring software), permiten desarrollar líneas de multimedia integrando 3 o más
de los datos que son posibles de procesar actualmente por computadora: texto y
números, gráficas, imágenes fijas, imágenes en movimiento y sonido y por el alto
nivel de interactividad, y la multitud de formas de navegación. Los Authoring
Software permiten al "desarrollador de multimedia" generar los prototipos bajo la
técnica llamada "fast prototype" (el método más eficiente de generar aplicaciones).
Se reconoce que los "authoring software" eficientizan el proceso de producción de
multimedia en la etapa de diseño, la segunda de las cuatro etapas básicas que se
reconocen para el desarrollo de la misma (Ver Cuadro No.1.1), porque allí es
donde se digitaliza e integra la información (Authoring software, PC World 119, 23)

Cuadro No. 1: Etapas de desarrollo de la multimedia.


0 1. Trabajo del autor con quien requiere la aplicación para definirla.
2. Diseño de la palicación.
* Digitalizar la información.
* Integrar la información digitalizada.
3. Difusión de la aplicación.
4. Soporte técnico a los usuarios.
Adaptado de PC World No. 119 de agosto de 1993, p.23.

Aunque hay avances, los desarrollos de multimedia enfrentan obstáculos de


normatividad tecnológica en torno a la compatibilidad y transferencia. Se afirma
que la multimedia cuenta actualmente con 30 arquitecturas diferentes e
incompatibles entre sí, a las que se incluyen el CD-Rom, el CDTV y el CD-I. En el
artículo: Multimedia, estado del arte, PC WORLD destaca que hay diferencias
entre multimedia aplicada a un fin y multimedia aplicada a un ambiente de trabajo.
Señala que en todo caso se requiere de un software específico, pero pueden
incorporarse aplicaciones existentes de multimedia a través de ambientes de
trabajo como Windows, donde es posible anexar sonido al documento de un
procesador de texto o de una hoja de cálculo (PC World, No. 121, p.36).
Para 1993 el concepto multimedia obliga a sopesar y revisar tanto los sistemas y
plataformas de cómputo, como los ambientes de trabajo, en relación al software
de multimedia y a sus aplicaciones. No sólo se busca hacer compatibles las
tecnologías, también se busca desarrollar estándares o normas que haga posible
que los programas desarrollados puedan ser usados en diferentes tecnologías con
una plataforma que tiende a ser uniforme.

Los esfuerzos por una estandarización definieron un conjunto mínimo de


estándares para conformar equipos multimedia (MPC). Estos estándares tiene que
ver con la capacidad y velocidad de procesamiento, con la capacidad de
almacenamiento masivo de información, con la posibilidad de almacenar y
reproducir información diferenciada y de diferente naturaleza y con el ambiente en
que se trabaja la información.

El desarrollo de Multimedia se auxilia con la tecnología hipermedia la cual permite


generar áreas, dentro de una pantalla, sensibles al ratón, al toque o a una tecla. El
sistema permite asociar y explorar cualquier tipo de imagen digitalizada dentro de
un programa de cómputo, de modo que el usuario navegue o recorra el programa
conforme a sus intereses, regrese a la parte original o se adentre en la exploración
de otra parte del programa, sin necesidad de recorrerlo todo. Este sistema de
recorrido o de navegación permite al usuario interactuar con los archivos o partes
del programa de acuerdo a sus intereses personales. Con esto, la tecnología
multimedia busca formar parte de la computación común de todos los días, sin ser
una disciplina practicada sólo por algunos (PC WORLD No. 120, 36).

Actualmente, el desarrollo de la multimedia se ve integrada a las


telecomunicaciones con las opciones de video (VOD) y audio por demanda (AOD)
y por supuesto, internet. El vídeo y la música por demanda permiten el acceso a
bancos de vídeo y audio a través de redes, aunque no ha tenido el éxito
económico esperado, en parte debido a las restricciones en la velocidad de
transmisión y el costo de la infraestructura requerida, también por el auge de la
piratería de estos medios gracias a internet.

Internet y en especial su servicio de www (world wide web) conforma un hito en


cuanto a tecnologías multimedia, al hacer posible la integración de video, sonido,
imagen, texto y animación, en una página web, con un alto grado de interactividad
gracias al hipertexto y a la multitud de lenguajes que permiten la dinamicidad en el
contenido. Todo lo anterior, es posible de realizar mediante un lenguaje estándar
sencillo y con requerimientos bajos en cuanto a tecnología.

El recurso inicialmente se orientó a la transferencia de archivos, pero con la


aparición de HTML, el lenguaje de las páginas web, se hizo posible la publicación
de texto relacionado mediante enlaces. Posteriormente, debido a su auge se
fueron incluyendo cada vez mayores posibilidades de presentación, se crearon
nuevos y mejores formatos para la digitalización de imágenes (jpeg, gif, tiff, png),
video y audio (AVI, DivX, DVD, mpeg, Quicktime).

De igual forma el www se conformó en una amplia vitrina mediante la cual las
empresas lograban un enlace directo con su cliente, promocionando su catálogo
de productos y servicios, además de su uso en términos educativos para la
diseminación de información y el entretenimiento.

En la actualidad, los paquetes de desarrollo de páginas web proporcionan amplias


posibilidades y facilidad de uso, lo que ha hecho que se convierta esta actividad
en un amplio nicho de mercado y una fuente de trabajo.

Pero con las posibilidades también aparecen las dificultades, el crecimiento de la


red y la cantidad de información que se encuentra disponible definen una gran
competencia en dos aspectos: la facilidad de navegación y el tiempo de respuesta.
El reto de los creadores de multimedia para la red es proporcionar al usuario la
mayor facilidad para encontrar lo que desea, en el menor tiempo posible, de eso
depende el éxito de un material multimedia en internet.

Una síntesis interesante que le recomiendo revisar para complementar la


visión histórica mostrada en esta sección, la podrá encontrar en la dirección
web
http://www4.uji.es/~belfern/IX34/Documentos/Teoria/QueEsMultimedia.pdf

! ) )' & 0&$

Este apartado hace énfasis en el plano comunicativo de la multimedia, a partir de


un artículo publicado en internet por el Dr. Ramón Salaverría.

Pocas palabras han tenido sin duda tanto éxito en los últimos años como el
término multimedia. No obstante, pocas palabras como ésta siguen teniendo quizá
un significado más confuso para quienes la emplean. No es de extrañar esta
confusión pues, incluso entre quienes se han dedicado a desentrañar su
significado profundo apenas existe acuerdo (Jankowski y Hansen, 1996: 2-4;
Feldman, 1994: 1-4)

A pesar de su confuso significado -o, quién sabe, tal vez entre otras razones, por
eso-, este neologismo que la Real Academia Española ha ubicado como adjetivo,
ha hecho fortuna y se aplica profusamente a propósito de un sinfín de realidades
relacionadas con el mundo de la comunicación, la tecnología y, en particular, con
internet. Su empleo en expresiones ya tan comunes como "empresa multimedia",
"ordenador multimedia" o "comunicación multimedia"; aunque también aparece
eventualmente como sustantivo, aunque con género y número cambiantes,
cuando se habla, siempre con grandes dudas, sobre el, la, lo o los multimedia.

El origen etimológico latino del término ("multi" -’numeroso’ y "media" plural de


medium: ‘medios’, ‘intermediarios’) da claras pistas de su significado esencial:
multimedia es aquello que se expresa, transmite o percibe a través de varios
medios.

A pesar de la raíz latina de sus componentes, el término multimedia ha sido, sin


embargo, una más de las muchas importaciones lingüísticas recientes del inglés al
español. De hecho, algunas obras lexicográficas anglosajonas recogen esta
palabra y, por ejemplo el Cambridge International Dictionary la define como el uso
de una combinación de imágenes estáticas y móviles, sonido, música y palabras,
especialmente en ordenadores o entretenimiento (Cambridge, 2000). Ésta parece
ser, en efecto, la definición más ampliamente aceptada. Así, ya en 1994, en el
libro titulado precisamente Multimedia, Tony Feldman describía el concepto
nuclear de su obra como una integración sin fisuras de datos, texto, imágenes de
todo tipo y sonido en un único entorno digital de información (Feldman, 1994: 4).
La Real Academia Española lo define como un adjetivo que permite calificar aquel
objeto “Que utiliza conjunta y simultáneamente diversos medios, como imágenes,
sonidos y texto, en la transmisión de una información”.

Pero, como decimos, frente a esta aparente univocidad, el término multimedia


esconde una peligrosa polisemia, fuente de no pocos equívocos entre quienes lo
utilizamos. Sobre todo cuando se emplea como adjetivo, esta palabra alude a
realidades bien distintas que conviene distinguir. Así, no es lo mismo hablar por
ejemplo de "comunicación multimedia" que referirse a "empresas multimedia". En
el primer caso, el adjetivo multimedia se ajusta a la definición expuesta más arriba;
es decir, alude a aquellos mensajes expresados simultáneamente por varios
medios; dentro de esta acepción cabría incluir otras expresiones cada vez más
frecuentes como "noticia multimedia" o "narrativa multimedia". En cambio, en la
expresión "empresa multimedia" el significado es bien distinto. En este último
caso, el concepto de multimedia no alude a un producto unitario que integra
elementos escritos y audiovisuales, sino más bien a una simple yuxtaposición de
medios de comunicación -o sea, de empresas- cuyos respectivos productos
informativos no tienen por qué estar relacionados entre sí. En la línea de esta
segunda acepción se encontrarían expresiones como "plataforma multimedia" u
"ordenador multimedia", en las que se alude a la capacidad instrumental de
procesar y reproducir contenidos en soportes textuales y audiovisuales.

Así pues, cuando se habla de multimedia en el ámbito de la comunicación se


alude a dos realidades: por un lado, a los lenguajes, y por otro, a los medios. En el
plano de los lenguajes o plano comunicativo, el adjetivo multimedia identifica a
aquellos mensajes informativos transmitidos, presentados o percibidos
unitariamente a través de múltiples medios. En el plano de los medios, que por
concretar, denominaremos plano instrumental, multimedia equivale a los "múltiples
intermediarios" que pueden participar en la transmisión de un producto informativo
(Xie, 2001), tanto si éste producto es multimedia en el sentido comunicativo como
si no lo es.

Esta discriminación terminológica y conceptual, lejos de su aparente irrelevancia,


importa mucho. Y es que cuando pasamos a hablar de "integración multimedia",
expresión también cada vez más en boga entre los investigadores y usuarios del
mundo digital, media un abismo conceptual entre interpretar esa expresión como
una integración de carácter comunicativo o interpretarla como una integración de
tipo meramente instrumental. En el primer caso, serían objeto de estudio las
peculiaridades comunicativas de los contenidos informativos producidos mediante
la integración de elementos textuales y audiovisuales. En el segundo caso, se
deberían analizar aquellas mejoras instrumentales que acompañan a una gestión
integrada de diversos medios por parte de las empresas de comunicación. El
análisis de la integración multimedia en la comunicación permite, como se ve,
perspectivas muy variadas.

En este punto del desarrollo es necesario hacer dos precisiones fundamentales:


la primera consiste en que el interés fundamental del curso es la integración
comunicativa, es decir, lograr la coherencia en el uso de los diferentes medios
para conformar un producto que presente adecuadamente el mensaje. La
segunda precisión consiste en que durante el desarrollo del presente módulo se
intentará usar el término multimedia como adjetivo, acogiéndo la interpretación de
la Real Academia de la Lengua Española, sin embargo, será ineludible caer en el
uso de la multimedia, como sustantivo, para hacer referencia al producto con las
características ya estudiadas. Espero que el lector perdone dicha imprecisión
lingüística.

% & &1) ) $ ' $ $

Cuando se refieren a mensajes informativos, la mayoría de las definiciones


coinciden en señalar como rasgo esencial de la comunicación multimedia el hecho
de integrar contenidos textuales y audiovisuales en un mensaje único.

Existen, no obstante, definiciones como la del Diccionario de términos informáticos


e Internet que prescinden del texto como uno de los elementos constitutivos de los
mensajes multimedia, quizá por considerar a la palabra escrita uno más de los
contenidos "visuales". Este diccionario define multimedia como una combinación
del sonido con la información visual que se presenta o bien para informar o bien
para entretener (Downing et al. , 1997: 239). Con todo, lo más común es que se
describa a los mensajes multimedia como aquellos que reúnen en un soporte
único texto, sonido e imagen estática y móvil.
De entrada, esta definición básica se podría ampliar un poco más añadiendo que,
al menos en teoría, el mensaje multimedia no tendría por qué limitarse sólo a esos
tres códigos principales. No en vano, avances tecnológicos recientes han
mostrado que ya es posible transmitir a través de las redes digitales estímulos que
afectan a otros sentidos corporales como el tacto o el olfato. Así, por lo que al
tacto se refiere, son ya bastante comunes los aparatos de realidad virtual que
reproducen sensaciones espaciales tridimensionales generadas de forma
electrónica y, en cuanto al olfato, en la primavera de 2000 se difundió la noticia de
un nuevo aparato que permitía reproducir aromas de forma remota a través de
mensajes enviados por correo electrónico (Noticias.com, 2000), y a finales de
2000 ya existía un sitio en Internet dedicado a comercializar ese tipo de
tecnología. A este paso, quién sabe si habrá de esperarse mucho hasta que
alguien termine de cerrar el círculo y consiga reproducir digitalmente apetitosas
sensaciones gustativas.

Parece, no obstante, que definir la comunicación multimedia como una simple


acumulación de estímulos visuales y auditivos -e incluso, como acabamos de
señalar, también potencialmente táctiles, olfativos y gustativos- no es suficiente.
Como ha señalado Wedemeyer (Sádaba Chalezquer, 1999: 69-70), el ser humano
combina desde hace siglos elementos textuales y audiovisuales para dar mayor
vigor y claridad a sus mensajes. Y ciertamente a nadie se le ha ocurrido decir
hasta ahora que los juglares del Medievo transmitieran mensajes multimedia por el
hecho de señalar viñetas alegóricas sobre un tablón mientras narraban una
historia en voz alta. Debe de haber algún rasgo definitorio más, por tanto.

En la búsqueda de ese rasgo, hay quien ha optado por mencionar algunas


características tecnológicas. Así, algunos autores como Bouwman, Aston o Klein
entre muchos otros (Jankowski y Hansen, 1996: 3) asocian al concepto nuclear de
multimedia ciertas peculiaridades referidas al soporte en el que se difunde la
información y al papel que desempeña el receptor del producto. En este sentido,
consideran elementos consustanciales a lo multimedia que la información se
transmita en formato digital y que resulte posible la interactividad por parte de los
usuarios. Según esas voces, los recientes avances de la tecnología digital y las
telecomunicaciones -que posibilitan una comunicación cada vez más ubicua,
interactiva y con mayor capacidad de transmisión de información- vendrían a
avalar esta concepción más "tecnológica" de lo multimedia. De hecho, algunos
autores como Laatchem et al. llegan a acuñar la expresión "multimedia interactiva"
para referirse a una modalidad con identidad propia, diferenciada de lo multimedia
sin más (Laatchem, Williamson y Henderson-Lancett, 1993)

Hay razones, sin embargo, que inducen a pensar que la presentación en formato
digital y la interactividad no son consustanciales al concepto comunicativo de
multimedia. Ciertamente, la tecnología digital es una condición instrumental
imprescindible hoy por hoy para elaborar y difundir contenidos multimedia, puesto
que sólo mediante la digitalización de la información es posible conjugar soportes
textuales y audiovisuales. Pero el hecho de que sea condición no implica que
forme parte de su esencia: es como si se dijera que las cartas se caracterizan por
el papel y el sobre en el que se envían. El éxito del correo electrónico nos ha
demostrado que se pueden enviar cartas sin necesidad de papel ni sobre. De igual
manera, en la comunicación multimedia, como en las cartas, lo definitorio es el
contenido, no el soporte.

La interactividad como rasgo consustancial a lo multimedia también es


cuestionable (más adelante se discutirá también este término). Una persona
puede consumir un producto comunicativo multimedia como simple público pasivo.
Por ejemplo en los museos de ciencias, muchas de las supuestas obras
interactivas multimedia se limitan a ofrecer al usuario la posibilidad de activar o no
activar cierta pieza, pero no tanto a decidir los modos en los que en ella se
conjugarán los contenidos textuales y audiovisuales. Frente al pretendido dominio
del producto informativo por parte del usuario, es el autor quien en realidad
determina qué contenidos estarán presentes en el producto final y cómo se
presentarán. La única decisión interactiva que prácticamente le cabe al usuario en
esos casos es decidir si accede al contenido o no.

Así pues, por encima de estas añadiduras, se coincide con Wedemeyer en que lo
propio de lo multimedia es la integración sincrónica y unitaria de contenidos
expresados en diversos códigos, principalmente mediante textos, sonidos e
imágenes. Por resumir, las claves de lo multimedia se reducirían básicamente a
dos: información en multicódigo y unidad comunicativa.

El mensaje multimedia, ya lo hemos dicho, debe ser un producto polifónico en el


que se conjuguen contenidos expresados en diversos códigos. Pero, además,
debe ser unitario. El mensaje multimedia no se alcanza mediante la mera
yuxtaposición de códigos textuales y audiovisuales, sino a través de una
integración armónica de esos códigos en un mensaje unitario. Un producto
informativo que sólo permita acceder a un texto, a un vídeo y a una grabación de
sonido por separado no se puede considerar propiamente como un mensaje
multimedia; se trata simplemente de un conglomerado desintegrado de mensajes
informativos independientes. En suma, sería algo que, como apunta Pérez-Luque,
cabría designar más propiamente como many media (Pérez-Luque, 1997: 198).

Por unidad comunicativa entendemos aquí la cualidad de algunos productos


informativos de conformar un significado único mediante la armonización de
diversos elementos informativos comunicados a través de diferentes códigos. Para
alcanzar esa armonización es preciso observar, entre otras, ciertas cualidades
como la no-redundancia excesiva entre los mensajes expresados a través de cada
código, la complementariedad de esos mensajes hacia la consecución de un
objetivo informativo común o la cesión del protagonismo a aquel código que en
cada caso sea el más pertinente.
El ejemplo de los medios de comunicación clásicos nos sirve para ilustrar este
concepto de unidad comunicativa. Los periódicos cuentan con una tradición de
casi dos siglos incluyendo en sus páginas textos e imágenes (ilustraciones y
fotografías) en busca de mensajes informativos que resulten unitarios para el
lector. El cine y la televisión, de modo similar, han estudiado durante años las
formas de obtener el mejor rendimiento comunicativo de la conjugación de imagen
y sonido. En el fondo, por tanto, lo que estos medios han venido haciendo durante
años no ha sido sino desarrollar productos comunicativos que tratan de obtener
mensajes significativos mediante la coordinación de informaciones por distintos
códigos. Durante su ya larga experiencia, esos medios han depurado pautas
profesionales para la integración de esos códigos; pensemos, por ejemplo, en las
reglas editoriales para coordinar fotografías y pies de foto con el fin de evitar
redundancias innecesarias o en las técnicas para acentuar la emoción producida
por una imagen mediante la inclusión de determinado tipo de música. Por decirlo
con pocas palabras, la prensa y la televisión llevan años experimentando ya con
formas básicas de comunicación multimedia.

La diferencia en la actualidad es que las pautas que se han de desarrollar con las
nuevas redes digitales ya no afectan sólo a dos códigos, como ocurría con el
binomio de "texto-imagen" en la prensa y con el de "imagen-sonido" en la
televisión. La tecnología digital ha puesto sobre la mesa el reto de desarrollar
nuevos lenguajes informativos que permitan integrar adecuadamente tres códigos
texto, imagen y sonido (y quizá más en el futuro, como ya se ha dicho) , que hasta
ahora, por limitaciones tecnológicas, no había sido posible coordinar
adecuadamente en un producto informativo único. En este sentido, se coincide
con Xosé López cuando señala que en la actualidad uno de los principales
desafíos consiste en fomentar la innovación con los lenguajes y los productos para
descubrir nuevas formas de contar historias, permitir la interactividad con calidad
mediante nuevas herramientas y en nuevos soportes. La fusión técnica está en
camino, por lo que el reto es aprovechar el ordenador como un medio de
representación, una forma de modelar el mundo que añade sus propias y
poderosas propiedades a los medios tradicionales que tan rápidamente ha
asimilado (López, 2000).

2 )" ) '3 ) $ $

Como se ha podido observar hasta el momento la aparición del computador y las


posibilidades que otorga la digitalización de los diferentes formas de presentación
de información son hechos que han marcado la evolución de los productos
multimedia. En esta sección se realizará un breve presentación de los
fundamentos técnicos y tecnológicos necesarios para asumir el desarrollo de
productos multimedia.

2 & 4 5
La popularidad actual de la representación digital se debe, en gran medida, al
extendido uso de las computadoras. La información en una computadora se
manipula, almacena y transmite en formato digital, más concretamente en un
formato digital binario o simplemente formato binario.

En el formato binario solo hay dos valores posibles, valor alto y bajo, valor
verdadero y falso etc. La convención más extendida es utilizar un 1 para un valor
alto o verdadero y un valor 0 para un valor bajo o falso.

Al igual que con la representación decimal arábiga, cada dígito posee un valor
según su posición dentro del número que forma (415 = 4*100 + 1* 10 + 5), un
número en representación binaria también posee un valor diferente según la
posición que ocupa.

De este modo el número 110 es 1*22 + 1*21 + 0*20= 6 en decimal.

Las operaciones aritméticas sobre números binarios están definidas del mismo
modo que sobre los decimales, incluida la operación de acarreo.

4 5 4

Como primer punto es necesario clarificar a que se refiere la representación


analógica, las señales analógicas son señales que se pueden representar por una
curva continua, es decir, la información se representa mediante señales continuas.

A primera vista puede parecer una desventaja utilizar una representación digital
frente a una representación analógica ya que la representación analógica permite
una representación continua de la información y con la representación digital
únicamente son posibles algunos valores discretos. Al contrario, la información
digital posee algunas características que la hacen especialmente interesante
frente a la analógica. Por ejemplo, es fácil detectar errores en la transmisión de
información digital. Existen algunos procedimientos, uno de los más sencillos es el
check-sum, que garantizan la transmisión de los datos digitales sin errores. Por el
contrario, los datos analógicos se degradan fácilmente. Los datos analógicos son
altamente susceptibles a la corrupción por ruido. Por ejemplo en una transmisión
de radio, la señal que llega al reproductor está plagada de ruido de alta frecuencia
captado por los cables de alimentación, etcétera.

Una consecuencia derivada del hecho anterior es que los datos digitales no se
degradan. Es posible transmitirlos por una línea de comunicación de datos, hacer
copias en distintos soportes físicos y siempre es posible asegurar que los datos
replicados son exactamente igual que los originales.

Una ventaja fundamental del uso del formato binario digital para representar la
información que se utiliza en el desarrollo de proyectos multimedia es que,
cualquiera que sea el tipo de información que se maneje, imágenes, texto, sonido,
etc. esta se manipula, almacena y transmite del mismo modo.
Es la manera de interpretar la información digital lo que distingue una imagen de
un sonido, o un texto de una animación, incluso un número entero de un número
real.

* 6 47 4 # 4 7 6 4

Una fotografía, el sonido de un instrumento musical, un texto impreso, son algunos


ejemplos de representación de la información en el mundo real. Este tipo de
información es eminentemente analógica. Para que esta información pueda ser
manipulada por un ordenador hay que transformarla a un formato digital.

Al proceso de transformación de datos analógicos a formato digital se le llama


digitalización.

En la siguiente figura se muestra una representación gráfica de un sonido en


formato analógico y la digitalización de esta señal utilizando pocos niveles de
cuantización, su puede observar la aparición de dientes de sierra.

El ejemplo utiliza una señal sonora para mostrar el proceso de digitalización.

Los datos digitales son datos discretos, es decir, no pueden tomar cualquier valor,
sino sólo valores predefinidos. La forma de onda del sonido muestra los valores de
amplitud (presión de la onda sonora) para cada instante de tiempo. Ambas
valores, tiempo y sonido, han de digitalizarse. La idea del proceso es, tomar la
amplitud del sonido en instantes regulares de tiempo (muestreo) y restringir el
valor de esta amplitud a un valor discreto (cuantización).

La Digitalización consta, por lo tanto, de dos operaciones: Muestreo +


Cuantización.

DIGITALIZACIÓN = MUESTREO + CUANTIZACIÓN.


Cuando se reproduce sonido digital este llega hasta los oídos de nuevo en forma
analógica, no existen los altavoces digitales. El proceso por el que a partir de
datos digitales se obtienen datos analógicos se llama Reconstrucción.

En la siguiente figura se muestra un gráfico que representa las dos operaciones,


digitalización y reconstrucción.

Cuanto menor sea el intervalo de muestreo, es decir, cuantas más muestras se


tomen, o dicho de otro modo, cuanto más alta sea la frecuencia de muestreo más
fiel será la representación digital con respecto de la analógica. Y viceversa, cuanto
mayor sea el intervalo de muestreo, cuantas menos muestras se tomen, peor será
la calidad de los datos digitales frente a la versión analógica.

La pregunta que surge es, ¿Cual es la frecuencia de muestreo óptima para que no
se produzca pérdida de información al digitalizar una señal analógica?. La
respuesta es lo que se conoce como el Teorema fundamental del muestreo y que
aquí sólo enunciaremos:

"Para que una señal analógica se pueda reconstruir sin pérdida de información es
necesario que la frecuencia de muestreo sea mayor que dos veces la máxima
frecuencia presente en la señal analógica".

Por ejemplo, si se está digitalizando el sonido de un instrumento que posee


armónicos de hasta 20 kHz. la frecuencia de muestreo óptima es cualquiera por
encima de los 40 kHz.

Si no se utiliza la frecuencia adecuada, se pueden producir inconsistencias entre


la señal de origen y la señal digitalizada.

2!& 8 9 :

El lento despegue de la tecnología Multimedia se debe a que la gran cantidad de


información que maneja (imágenes, sonido, texto, animaciones, video) necesita de
equipos informáticos con una potencia de cálculo elevada.

En los equipos domésticos actuales ya está presente la potencia de cálculo


necesaria como para que la Multimedia sea un producto de consumo. En la
actualidad, el cuello de botella del desarrollo de la Multimedia se encuentra en la
lentitud de las líneas de comunicación de datos, en particular de Internet, que se
ha configurado, de hecho, como la principal vía de difusión de las producciones
multimedia.
Evidentemente, los requerimientos del equipo informático no son los mismos
desde el puntos de vista de la producción Multimedia que del consumo de
Multimedia. Los equipos de desarrollo necesitan, en general, de una mayor
potencia de cálculo.

El Multimedia PC Marketing Council , es el organismo internacional encargado de


establecer los estándares mínimos para los equipos informáticos sobre los que se
puede consumir la tecnología multimedia. Dichos equipos tienen cinco
componentes fundamentales: un PC, una unidad de CD-ROM, una tarjeta de
audio, Microsoft Windows 3.1 o Windows 3.0 con Multimedia Extension 1.0, un
sistema de altavoces o de auriculares para la salida audio.

La última versión de este estándar es la versión 3. En la siguiente tabla se


presentan los requerimientos mínimos establecidos por dicha entidad para la
conformación de un equipo con capacidades multimedia:

Procesador: Pentium de 75 Mhz o más Tarjeta de Audio: 8/16-bit DAC


con buses PCI. Sampleo lineal PCM*
Ancho de banda de 100 Mb/seg. 44.1, 22.05, 16.0, 11.025 y 8.0 kHz
Memoria caché de dos niveles de tasa de muestreo.
8 Mb de RAM como mínimo 16 bit ADC * con sampleo
540 MB de disco duro sin formatear, 500 lineal PCM*
Mb formateado ( como mínimo ). Canales estéreo.
Disquetera 3.5". Entrada de micrófono.
Sintetizador de música interno multi-
voz, 16 voces simultáneas melódicas
y 6 de percusión.
Tarjeta de video: PCI 2.0 que permita Capacidad de mixing de audio
la analógico de cuatro fuentes
reproducción de video en una resolución simultáneas (CD Red Book,
de 30 cuadros por segundo en un sintetizador, DAC (audio de onda) y
tamaño de 352x240 (o 352 x 288 en 25 una entrada auxiliar con salida
cps). True Color. estéreo).
Mouse de dos botones. Puerto de entrada MIDI.
Teclado de 101 botones. Puerto de Joystick.
Puerto serial y paralelo.
Puerto de entrada y salida MIDI.
Puerto de joystick.
Auriculares o parlantes conectados al
PC.
CD-ROM Cuádruple velocidad con
capacidad de lectura de Audio de
Compact Disks (Red Book), CD-DA,
CD-XA, Photo CD, CD' s Regrabables,
Video CD, CD de MúsicaReforzada (CD
Extra) y discos CD-I.
Potencia de 550 kB/seg de transferencia Comunicaciones: Si está integrada
de datos. a la computadora debe ser un
Consumo del 40% del ancho de banda fax/módem V.34 (28.8 Kbps).
de la CPU. Software: Windows 3.xy DOS 6.x
Búsqueda de datos: menos de 400
milisegundos.
Controlador MSCDEX 2.2 o el
equivalente.
Multisesión.

2%& 8 5:

El objetivo de todo software es coordinar los recursos hardware, a través de


peticiones al sistema operativo, con algún objetivo. En el caso de la Multimedia el
objetivo es utilizar los recursos de la máquina para poder mostrar producciones
Multimedia, es decir, integrar los distintos objetos Multimedia.

La clave de la integración lo constituye un marco de trabajo que pueda acomodar


la multiplicidad de medios presentes en la Multimedia, y que pueda presentarlos al
usuario. En la actualidad existen tres aproximaciones diferentes para conseguir
este objetivo:

1. Definir un formato que puede acomodar diferentes medios y mostrarlos a


través de un navegador. El ejemplo paradigmático es el World Wide Web.
Dentro una página HTML es posible incrustar texto, imágenes, animaciones, y
código de programación en algún lenguaje que facilite las interacciones .
2. Definir una arquitectura que pueda contener diferentes medios junto con unas
APIs que provean de un conjunto de funciones con las que manipular los
datos. El ejemplo es QuickTime. Es posible desarrollar todo un material
multimedia, que sólo requiera descargar de internet el QuickTime para lograr
ejecutarlo, o en otros casos el mismo material viene con el instalador adjunto.
3. Difundir las producciones Multimedia de un modo independiente de manera
que, sin necesidad de software adicional, su pueda consumir en un equipo
informático. En este caso se pueden mostrar como ejemplos las diferentes
enciclopedias multimedia, que proporcionan instaladores y facilitan su proceso
de ejecución en cualquier máquina.

En cualquiera de estas formas la tendencia es a minimizar los requerimientos de


software para el consumidor, ya que estos requerimientos se pueden constituir en
inconvenientes para la distribución del producto multimedia.

Por supuesto, otros son los requerimientos de software que tiene el productor de
aplicaciones multimedia, dentro de ellos se deben considerar:

Editores de imágenes como Photoshop, Corel, Freehand, Ilustrator, editores de


sonido como SoundForge, SoundMaker, SoundEdit, programas que permitan la
creación de animaciones como Flash, AfterEffects, LightWave y editores de video
como Premier, After Effects, Final Cuts, entre otros.

Además se deberá contemplar incluir dentro de las herramientas de desarrollo y


dependiendo de la selección realizada, paquetes de software que permitan la
creación de páginas web, estos pueden variar desde componentes complejos
como Macromedia Suite, FrontPage, hasta herramientas de libre distribución
como AceHtml, Web de OpenOffice, NVU y otros. Sin excluir lenguajes de autor
para la creación de multimedia o Quick Time como QuickTime Pro, Authorware,
Director, HyperCard, entre otros.

22&

Como ya se ha comentado actualmente el principal medio de difusión de


producciones Multimedia es Internet. El ancho de banda de las redes empieza a
ser suficiente como para hacer este canal de distribución factible.

En Internet, y con ellos en las producciones Multimedia difundidas a través de este


canal, se utiliza una estructura cliente/servidor. Un cliente hace peticiones, bajo un
protocolo de comunicaciones bien establecido, y el servidor le transfiere la
información solicitada.

En Internet el protocolo utilizado es el HTTP ( HyperText Transfer Protocol ) para


transmitir páginas HTML ( HyperText Markup Language).

Los navegadores pueden utilizar otros protocolos como por ejemplo el protocolo
FTP ( File Transfer Protocol ), o el protocolo para servir videos bajo demanda de la
UJI.
La consulta de un cliente pude derivar de la ejecución de programas en el servidor
y el resultado de la ejecución es la respuesta que se transfiere al cliente, como por
ejemplo el catálogo de productos de IBM, o la página de descarga de software
instalador para dispositivos Hewlett Packard. Estas páginas que se ejecutan el
servidor normalmente se encuentran escritas en lenguajes de scripts (php, asp,
javascript, entre otros)

Un caso particular de interés de protocolo son los tipos MIME ( Multipurpose


Internet Mail Extension) utilizados en las aplicaciones de correo electrónico a
través de Internet. El protocolo de correo electrónico de Internet únicamente
permite como tipo de datos los caracteres que conforman el texto del mensaje.
Con la extensión MIME es posible incluir otros tipos de datos en los mensajes de
correo electrónico, de forma que se incluye una línea de cabecera al mensaje
indicando el tipo de datos que contiene. Estas líneas de cabecera tienen el
siguiente formato:

Content -type type/subtype donde type es una descripción general del contenido y
subtype una descripción más precisa de este.

Los posibles valores de type son: text, image, video, VRML, model, application.

Por ejemplo la siguiente línea de cabecera:


Content -type text/plain indica que el contenido del mensaje está formado por texto
en código ASCII exclusivamente.

Y en este otro ejemplo: Content -type application/postscript indica que el contenido


es un fichero en formato postscript.

2; 6

Los estándares son documentos de acuerdo que contiene especificaciones


técnicas y otros criterios precisos para ser usados de un modo consistente, tales
como reglas, guiones o definiciones de características, de modo que se asegure
que las materias, los productos, procesos y servicios se ajusten a su propósito.

En el caso de Multimedia y en particular en Multimedia a través de Internet, la


estandarización es muy necesaria debido a la gran cantidad de empresas que
desarrollan Multimedia para Internet, donde, en muchas casos la Multimedia es
soportada por aplicaciones propietarias.

El organismo encargado de la estandarización en Internet es el World Wide Web


Consortium (W3C). El W3C se ha encargado de definir una serie de estándares
que facilitan la navegación en los documentos multimediales de la web, alrededor
de este tema se ha creado toda un área de investigación denominada Usabilidad.
! " )& )

Así como alrededor de la multimedia se ha entrelazado una serie de


imprecisiones con respecto al término, anexos a ella se encuentran una serie de
conceptos que son fundamentales para comprender las características y el
potencial que deben desarrollar los productos multimedia, en este capítulo se
presentan algunos, se deja al lector la posibilidad de ampliar el listado.

! <" & =

http://www.ldc.usb.ve/~abianc/hipertexto.html
Conceptos y definiciones de hipertexto
Por Adelaide Bianchini
Depto. de Computación y Tecnología de la Información Universidad Simón Bolívar
Caracas – Venezuela

Los sistemas hipertextuales están basados en un enfoque en el cual el usuario


tiene la posibilidad de crear, agregar, enlazar y compartir información de fuentes
diversas, proveyendo la posibilidad de acceder a documentos de manera no
secuencial a diferencia de sistemas de información más tradicionales en los cuales
el acceso es naturalmente secuencial1. Esta flexibilidad de acceso genera las
nociones de navegación, personalización de presentaciones y anotaciones. Esta
sección tiene como objetivo la introducción de los conceptos básicos relacionados
con hipertexto e hipermedia, una reseña histórica de la evolución de estos
conceptos y una discusión general acerca de los distintos modelos y formalismos
desarrollados para diseñar e implementar estos sistemas.

! 4 9

La idea original de hipertexto se debe a Vannevar Bush, cuando en 1945, en su


artículo "As we may think", describe el dispositivo MEMEX en el cual:

" un individuo almacena sus libros, anotaciones, registros y comunicaciones, y


esta colección de información es mecanizada de forma que puede ser consultada
con alta velocidad y mucha flexibilidad".

Según Bush2 la característica esencial de MEMEX es su habilidad de "atar" o

!" # $ !"%& ' ' && (


" &)
)$$$ * ! ( )+' (" ) ()"%& ,- # $) ' ,"
" . $ % " / 0" . (1 "%23 % 2 4 2& * 5
" &)
)$$$ " (( ) ')! " / )( & ) "!"
asociar dos items.

En 1965, Ted Nelson fue el primero en acuñar la palabra "hypertext" (texto no


lineal) y lo define como:

"un cuerpo de material escrito o pictórico interconectado en una forma compleja


que no puede ser representado en forma conveniente haciendo uso de papel" .

Este autor propone XANADU, como un sistema que incorpora el concepto de


“docuverso”, un repositorio universal de toda la información mundial y literaria
publicada. El sistema se basaba en el paradigma de transclusión (inclusión virtual)
como la estructura fundamental, permitiendo que los mismos documentos
aparecieran en múltiples contextos sin haber sido físicamente duplicados.

Posteriormente aparece el primer sistema hipertexto real fue el HES (Hypertext


Editing System) construído en Brown University, en 1967, por Andries van Dam3,
posteriormente se vincula la posibilidad de responder a los comandos del ratón (
Engelbart4 con el sistema oN Line System (NLS) y Augment.

Se inicial el trabajo con hipermedia al incorporar mapas a una representación de la


ciudad de Aspaen (Colorado) que permitía la navegación a partir del joystick
desarrollado en el MIT, por Andrew Lippman y sus colegas, en 19785.

Entre 1985 y 1990, se desarrolló Intermedia, en Brown University 6, en el cual se


introduce el concepto de anclas basado en la arquitectura cliente-servidor que
además proporcionaba opciones para la recuperación de información, pero solo
funcionaba sobre Apple y al no lograrse el desarrollo bajo otras plataformas dejó
de existir en 1990.

En 1986 está dispoble el primer sistema hipertexto disponible comercialmente


(Guide de OWL), desarrollado para Unix en la Universidad de Kent y luego llevado
a la plataforma Apple Macintosh, en 1986. En 1987 con la aparición del
HyperCard7, nuevamente de Apple llega un momento de popularidad del
hipertexto, fundamentado en un lenguaje orientado a objetos, el HyperTalk. Ese
mismo año, la ACM organiza la primera conferencia, en la Universidad de North
Carolina, dedicada exclusivamente al intercambio de investigaciones en tecnología

# 6 . 7%& , 8 % .'' 9 ( ! " .91 4: 3


&& 5
;* 6 4 * <!( % =
" &))$$$ " (& ) * &" ) * -' * "
> && . 1 # 51 & .&& ( ! " ?& ( ' ' ( 9 & @ &"(
9 & @ &"( 4: && 5
A / #(" 4 7 1 % $ B 4 6 (/ C ' 0" 9 ( & ' "
9 ( ! C! ;# C;;;9 & 4: && 5
@ ' 6 0" 9 & 7%& 9 '" ' / / 4A
hipertextual.

De allí en adelante muchos sistemas y productos se han desarrollado para la


autoría de hiperdocumentos en varias plataformas. Pero es en 1991, durante la
Conferencia de ACM Hypertext, cuando fue demostrado lo que sería el World
Wide Web8. Su avance se demuestra realmente hacia 1993, cuando el National
Center for Supercomputing Applications (NCSA) libera el producto Mosaic, un
navegador con interfaz gráfica y de manipulación directa9 .

En la siguiente tabla, se muestran los principales hitos en la historia y desarrollos


de hipertextos.

Año Sistema Autor Hito


Dispositivo basado en
1945 MEMEX Vannevar Bush
microfichas
Primero en acuñar el término
1965 XANADU Ted Nelson
"hypertext"
Hypertext Andy van Dam
Primer sistema hipertexto en
1967 Editing (Brown
funcionamiento
System University)
oN Line Doug Engelbart Sistema hipertexto con
1968 System (Stanford manipulación directa
NLS University) con utilización de ratón
Aspen Movie Andrew Lippman Pirmer sistema hipermedio
1978
Map (MIT) en funcionamiento
Yankelovich et
al Se utiliza el concepto de
1985 Intermedia
(Brown ancla y red
University)
Primer producto para autoría
1986 GUIDE OWL
de hiperdocumentos
Apple Computer, Producto entregado con
1987 HyperCard
Inc. cada Macintosh
Primera conferencia
University of auspiciada por la ACM para
1987 Hypertext '87
North Carolina el tratamiento de la
tecnología hipertexto
Proyecto para llevar la
World Wide Tim Berners-Lee,
1991 tecnología hipermedial en
Web CERN
Internet

5> 0 9 D > . 4 7 ( . 0" E 'E ' E


9 ( ! " .91 4: .* && 5
F. ' G. ' 1 49 . 1 (0 (" ( %
!&))!& ( ( ' )1 ()H & ) (& I
Navegador gráfico para el
1993 Mosaic NCSA
WWW
Fuente: Adelaide Bianchini en Conceptos y definiciones de hipertexto. [En línea]
http://www.ldc.usb.ve/~abianc/hipertexto.html

! ! 5

Alrededor del término se encuentran definiciones proporcionadas por técnicos,


pero también por escritores, en esta sección se presentan algunas de ellas. Se
sugiere al lector que intente construir su propia definición.

El hipertexto es una tecnología que organiza una base de información en bloques


distintos de contenidos, conectados a través de una serie de enlaces cuya
activación o selección provoca la recuperación de información10 .

El hipertexto ha sido definido como un enfoque para manejar y organizar


información, en el cual los datos se almacenan en una red de nodos conectados
por enlaces. Los nodos contienen textos y si contienen además gráficos,
imágenes, audio, animaciones y video, así como código ejecutable u otra forma de
datos se les da el nombre de hipermedia, es decir, una generalización de
hipertexto.

Considerando cómo se representa el conocimiento humano, el hombre opera por


asociación, saltando de un item al próximo, en forma casi instantánea. El
paradigma hipermedia intenta modelar este proceso con enlaces entre pedazos de
información contenidos en nodos. A diferencia de los libros impresos, en los
cuales la lectura se realiza en forma secuencial desde el principio hasta el final, en
un ambiente hipermedial la "lectura" puede realizarse en forma no lineal, y los
usuarios no están obligados a seguir una secuencia establecida, sino que pueden
moverse a través de la información y hojear intuitivamente los contenidos por
asociación, siguiendo sus intereses en búsqueda de un término o concepto. En la
figura a continuación, se representan diferentes estilos para organizar las
relaciones entre nodos y enlaces, entre ellos se encuentran el estilo secuencial, el
estilo jerárquico, el estilo reticulado y el hipermedio.

6JB H 9 BB 4 . ' C 6 1 ' 7& ' D.51 . ;' 1 ''


En términos más sencillos, pero también de forma más amplia se puede decir que
un hipermedio es un sistema de bases de datos que provee al usuario una forma
libre y única de acceder y explorar la información realizando saltos entre un
documento y otro.

En la literatura se utiliza, a veces, en forma indiscriminada los términos hipertexto,


sistemas hipertexto e hiperdocumento; sin embargo, es necesario aclarar que se
hace referencia a objetos distintos, y que en lo sucesivo se utilizará las siguientes
definiciones para evitar confusiones:

Hiperdocumento. Es el contenido de información, incluyendo los fragmentos de


información y las conexiones entre esos fragmentos, indiferente sea el sistema
utilizado para leer o escribir tal documento.

Sistema hipertexto. Es una herramienta de software que permite leer y escribir


hiperdocumentos. Este sistema no contiene un hiperdocumento.

Hipertexto. Es un sistema hipertexto que contiene hiperdocumentos.

Hiperespacio. Es el término que describe el número total de locaciones y todas


sus interconexiones en un ambiente hipermedial.

Algunos autores plantean el hipertexto como una forma diferente de escribir los
textos, como Landow et al11 y Bolter12, y aprecian el papel del autor al definir las
conexiones entre los diferentes componentes textuales.

En publicaciones como Byte13, se da la siguiente definición:


"hipertexto, en el nivel más básico, es un manejador de base de datos que permite
conectar pantallas de información usando enlaces asociativos. En un nivel mayor,
hipertexto es un ambiente de software para realizar trabajo colaborativo,
comunicación y adquisición de conocimiento. Los productos de este software
emulan la habilidad del cerebro para almacenar y recuperar información haciendo
uso de enlaces para un acceso rápido e intuitivo".

Para Balzer et al14 hipertexto es


"una base de datos que tiene referencias cruzadas y permite al usuario (lector)
saltar hacia otra parte de la base de datos, si éste lo desea".

Esta definición clarifica algunos puntos de interés sobre hipertexto:


Hipertexto es una base de datos. La información no consta de grupos de bytes,
sino que es estructurada y de tamaño considerable, características similares a
muchas bases de datos. A pesar de que la estructura de información tiene una
forma distinta a las estructuras de bases de datos tradicionales, muchos sistemas
de bases de datos son capaces de almacenar información utilizada en los
hipertextos. Además la acción típica permitida al usuario es la de saltar entre las
partes de la base de datos. Esto es diferente a la típica utilización de bases de
datos, en los cuales la obtención de información se realiza a través de consultas.

El origen del término se puede obtener de la definición proporcionada por Rada15:


"se relaciona con el término 'espacio hiperbólico', debido al matemático Klein, en el
siglo XIX. Klein utilizó el término hiperespacio para describir una geometría de
muchas dimensiones; por lo anterior, se puede deducir que hipertexto es texto
multidimensional, considerándose el texto como una estructura unidimensional".

! % . +6 9 >

Esta tecnología de información ha sido defendida y elogiada debido a las grandes


ventajas que proporciona; sin embargo no todos los hipertextos que se han

> '$ @ 6 %H 7%& ' '> % ' 9 '* 1 (" C


!0 (" *%H
3 E * & ( 0" 9 & 7%& , '" 7 % !E * >$ (
; . (
D # $ " &)) ( /)= ) ) )= )# "
K' 3 .@ ' 557%& , ( " L % (( ! M (/% '
# % % ! ( % 1 *B 4: ?( && 55
F B G B D * 1 @ * H ("$ B 1 " ' 7%& , '
!$ ; * * 7%& , && 5
D' D 7%& , ! , ,& , 1 (@ $57
implementado y están disponibles en distintas plataformas e instalaciones
cumplen cabalmente con todas las expectativas de los usuarios. Un sistema
hipertexto, en términos ideales, debe cumplir con las siguientes características:

• Esta tecnología debe proveer un medio adecuado para organizar y


presentar información poco o nada estructurada, no ajustada a esquemas
tradicionales y rígidos como es el caso de las bases de datos. Pueden
utilizarse esquemas jerárquicos para la utilización de sistemas de
documentación de texto tradicionales, muy organizados o simplemente
creando estructuras de redes con poco o ningún atributo de precedencia.
• Tener asociada una interfaz de usuario muy intuitiva, pues se pretende
imitar el funcionamiento de la mente humana, haciendo uso de modelos
cognitivos, por lo que el usuario no debería realizar grandes esfuerzos para
obtener la información requerida.
• La información se encuentra distribuída y puede ser accesada en forma
concurrente por varios usuarios, por lo tanto es un ambiente compartido.
• Es un ambiente colaborativo: un usuario puede crear nuevas referencias
entre dos documentos cualesquiera en forma inmediata e independiente de
los tipos de contenido, haciendo crecer su hiperdocumento, sin generar
cambios en el hiperdocumento referenciado. Estas referencias pueden
estar embebidas en el documento, de modo que aunque éste se cambiara
de instalación, el enlace seguiría proporcionando acceso a la información
referenciada.
• Tiene asociados varios mecanismos de recuperación y búsqueda de
información a través de las navegaciones, ya sean dirigidas o no dirigidas.

Estas características hacen de este paradigma que sea utilizado en una variedad
muy amplia de aplicaciones, en las cuales se tienen al menos los siguientes
requerimientos: gran cantidad de información organizada en distintos fragmentos y
contextos, los cuales pueden estar relacionados entre sí, que el usuario necesita
en forma discreta, y que pueda estar implantado en un ambiente electrónico o
computacional.

Dados estos requerimientos, el dominio de las aplicaciones hipermediales incluye:


ayudas y documentación, diccionarios y enciclopedias electrónicas, herramientas
CASE para desarrollo de software, organizadores de ideas, sistemas de
información turísticos y geográficos, venta electrónica, soporte para enseñanza y
aprendizaje, trabajo colaborativo y comunicaciones. Estas aplicaciones pueden ser
implementadas tanto en ambientes cerrados o en ambientes abiertos.

Un ambiente hipermedio cerrado es aquel donde todo el repositorio de información


se encuentra concentrado en una única unidad de almacenamiento o servidor, y
los enlaces entre hiperdocumentos sólo puede realizarse entre fragmentos de
información que residen en el mismo servidor. En cambio, cuando el ambiente es
abierto, los contenidos y fragmentos de información pueden encontrarse
distribuidos en diversos repositorios de almacenamiento o varios servidores, es
decir la información se encuentra físicamente distribuida en servidores distintos y
se permiten hacer referencias entre hiperdocumento que residen en servidores
distintos: este es el caso del World Wide Web. En este trabajo no se considerará
necesario distinguir entre aplicaciones cerradas y abiertas, a menos que sea
necesario.

! 2$ 9 >

Con miras a describir formalmente un modelo general para representar un


hipertexto, se tiene que en el nivel más elemental, todos los sistemas hipertexto
están basados en un modelo básico, el cual sigue siendo utilizado y asumido por
una variedad de investigadores. El modelo básico está dividido en: submodelo de
datos y submodelo de procesos.

En el submodelo de datos, los nodos se interrelacionan mediante enlaces


dirigidos, para formar la estructura de un digrafo16 . Todas las operaciones de
inserción, eliminación y actualización de nodos y enlaces están provistas de las
operaciones de grafos. Los nodos, son las unidades primitivas para organizar la
información en el espacio hipermedial: funcionan como colecciones de datos no
estructurados los cuales son agrupados de forma tal de crear una entidad lógica.
Esta entidad existe para proveer abstracciones coherentes de información dentro
del espacio de información representado en la estructura hipermedial. Los enlaces
son las otras unidades fundamentales del submodelo de datos: implementan la
dirección de las conexiones entre nodos, están asociados como anclas a un nodo
fuente y proveen al usuario la habilidad de activarlos para moverse hacia un nodo
destino. Algunos autores distinguen dos tipos de enlace, los referenciales que
funcionan como referencias cruzadas entre documentos, y los enlaces
organizacionales, que se utilizan para establecer estructuras explícitas por la
conexión de un nodo padre a sus nodos hijos, formando árboles u otro tipo de
jerarquías. Este submodelo de datos, basado en grafos, fue utilizado para definir
HAM -Hypertext Abstract Machine- Campbell et al17, en búsqueda de un
mecanismo para definir el diseño lógico de un hiperdocumento.

El submodelo de procesos se refiere, en el nivel básico, a los mecanismos de


acceso a la información representada en el hiperdocumento, se requiere de la
descripción de la dinámica, es decir las navegaciones que constituye el primer
medio que tiene el usuario para acceder a los contenidos y los demás procesos
que intervienen en la interacción con el usuario. Por lo tanto, el submodelo de

H /7 6 L / '"%& ' ! , ( * H ( ' * "


.91 9 ! ( 7%& , '7%& ' 5 7%& ,L .91 H 4 $ A / && 5
9 & @ ' 3 7.1 . * & & "%& , ( ("
9 ( ! " .91 4: 3 % && 5
procesos debe contener, además del proceso propio de exploración vía enlaces,
otros procesos que pueden influir sobre la forma en que los usuarios inspeccionan
la estructura de los hiperdocumentos y que permiten al usuario obtener
información de acuerdo a distintas necesidades estudiadas para caracterizar este
paradigma.

A partir de esta estructura básicas se han formulado una amplia gama de


descripciones de hipertextos, que utilizan modelos de datos con grafos,
expresados en lenguaje formal o basados en el paradigma orientado a objetos,
algunos de ellos son: el modelo de Tompa18, el de Delisle et al19, el de Stotts et
al20, el de Casanova et al21, el de Mattos et al22 y Lange23.

! ! < " &$

Como ya se asumió con cierto nivel de profundidad el significado e implicaciones


del término hipertexto, para describir la hipermedia simplemente se resaltará un
rasgo característico que ya se había mencionado, la posibilidad de que los nodos
del hipertexto ofrezcan información en diferentes representaciones como video,
sonido, imagen, etc, he allí el énfasis de la hipermedia. Todas las características
de flexibilidad y posibilidades de navegación por parte del usuario se mantienen
derivadas del hipertexto.

!% & ?

La interactividad, aunque palabra de uso común se ha visto abordada


especialmente desde el plano comunicativo, para definir la relación que se
establece entre los medios de comunicación y el usuario, y desde este mismo
sentido se asume su estudio en esta sección con el reto de construir una definición
de lo que es la interactividad que aporte al constructor de productos multimedia,
mostrándole las posibilidades y clasificaciones que se encuentran alrededor de
ella. Para ello se muestran algunos apartes de un artículo presentado por Alejadro

0
& K N. 6 1 ' ! K , 7%& , 6 % O .91 0?C 4:
3 % && 5
6 4 ("$ B 1 4;H0P4; "%& , % ! 9.6 .&& ( H ( ' *
.91 C@1 ?6 L 1 % && 5
6 K D NH 5 4 5 '7%& , 6 ( ( $ " $ *
( O .91 0?C 4: 3 % && 5
9 # 1 0 (" > > 1 3 D * 3 D ' * B4 > 0" '
( , ' ! "%& ' ( H ( ' * .91 9 ! ( 7%& , '7%& ' 5
7%& ,L .91 H 4 $ A / && 5
1 D 4( 1 7* ! ( 1 ' 9 ( ' .& ( # 7 & J'
H ( ' * QQ C9 ! ( > ( ' C ! < ( H. L ;( ' && 5
> * 6 .K .&& (" 7%& , *H 5H %& K & (!( 61
; & && 5
Rost24 que intenta dilucidar el término.

¿Cuándo y cómo surge el concepto de interactividad? Si bien el uso actual del


término abarca a una variedad de disciplinas, su origen está vinculado con la
creación de la informática y de la telemática. Desde este campo, la interactividad
es vista como la capacidad de las computadoras para responder a los
requerimientos de los usuarios, esta definición concuerda con lo planteado por la
Real Academia para el término “Interactivo”.

Pero el concepto ha sido abordado también desde otros puntos de vista que no
sólo aluden a esta relación individuo-computadora sino también al vínculo
mediado entre los individuos. Otros autores de hecho se orientan más al ámbito de
la comunicación que de la informática al hablar del origen del concepto, aunque
siempre relacionando ambas disciplinas, algunos plantean que “El estudio de la
interactividad es parte de la evolución en la ontología y epistemología de las
nuevas tecnologías de comunicación en general, y las computadoras como medio
en particular”, indica Sheizaf Rafaeli25, uno de los teóricos más influyentes de la
interactividad.

Si bien, como señala los medios tradicionales permiten cierto grado de


interactividad, son los nuevos medios de comunicación desde el teletexto y el
videotexto hasta Internet y la www los que han originado el uso del concepto
debido a las opciones selectivas y comunicativas que tienen. Particularmente, la
interactividad está asociada en primer lugar, a la convergencia de tres sectores:
telecomunicaciones, informática y medios de comunicación26.

En segundo lugar, está vinculada con la digitalización de los contenidos en los


nuevos medios, lo que abre las puertas a una manipulación de las distintas formas
de presentación de la información, sin restricciones físicas y casi a la velocidad del
pensamiento27.

En tercer lugar, la interactividad se relaciona con un flujo de los mensajes que se


diferencia del predominantemente unidireccional y monológico que plantean los
medios de comunicación tradicionales y secuenciales (radio, televisión, periódico,
libros). Como destacan muchos autores, los nuevos medios establecen un nuevo

D? 0 . = ' NH R' M S" ( ' " ' C ( #' 'TO F; J G


$$$ ( ' '' ! ( %( ( * ,)( * ). = ' U D U .* ' ( K ("
' ( '
D.K.;>C " B !%K % P6E ;;8 N4 $ / ' ( # %O 3 !9 & 1 ' '
9 ( 4: 3 9 ' # '
$$$ ( ( *)=( ()# ) )! "
V6. . 97.>;IWP;D 1 J D NC ( #' '%( '' #
' $ '$ ' $ O 9 ( (X % ( ' ' QCCC 4: && 5 H & P # ' ''
4#
9?6C4. > ; '* % $$$ 1 ' ' 0
modelo de comunicación. Si se piensa en la nueva interacción individuos-medio o
individuos-contenidos, el flujo es ahora bidireccional, en el sentido que los
individuos preguntan y el sistema les responde ofreciéndole al lector ciertas
posibilidades de actuación sobre el contenido, como parte de su nueva estructura
hipermedia conectada mediante enlaces.

En las ciencias de la comunicación, el término interactividad comenzó a utilizarse


en forma incipiente en los años ‘70, cuando surgieron los primeros medios de
información, entretenimiento y servicios que planteaban un cambio notable con
respecto a los tradicionales medios masivos. La creación a fines de los ‘70 de los
servicios de televisión interactiva, teletexto y, sobre todo, de videotexto fueron
construyendo el escenario para un nuevo modelo de comunicación que venía a
cuestionar el flujo predominantemente unidireccional que producían los medios
tradicionales.

Pero la interactividad fue relacionada con medios de comunicación pública y


personal, como los sistemas de audio y videoconferencia28. Dentro de los
llamados “nuevos medios” (the new media) que permitían la comunicación
interactiva, algunos autores incluyeron además a canales y soportes tecnológicos
como los satélites, los cables de fibra óptica y las entonces consideradas
“microcomputadoras”.

A partir de los años ‘90, el uso del término interactividad tomó un nuevo impulso
con el rápido crecimiento de los servicios que ofrece Internet y, particularmente,
con la creación de la world wide web. Se realizaron entonces investigaciones más
particularizadas sobre las distintas opciones interactivas que iban ofreciendo los
nuevos medios en Internet y se avanzó, aunque con distintas perspectivas, en la
definición del concepto de interactividad, generando más dudas que certezas.

La propuesta de definición de Rost es la siguiente:


“La interactividad es la capacidad gradual y variable que tiene un medio de
comunicación para darle a los usuarios/lectores un mayor poder tanto en la
selección de contenidos (interactividad selectiva) como en las posibilidades de
expresión y comunicación (interactividad comunicativa).”

Se habla de capacidad gradual y variable porque se conciben diferentes grados o


niveles de interactividad. Pero además que hay distintos grados de interactividad
selectiva como de interactividad comunicativa, y que ambos deben tomarse y
“medirse” en forma separada.

Las posibilidades de selección de contenidos se refiere a la capacidad del medio


para responder a los requerimientos del usuario y ofrecerle una serie de
contenidos para que el lector pueda elegir. O, para decirlo desde el lado del

D;0I D '% 1 ' ! (# ( ( > ' *


receptor, son las posibilidades de control que tiene el usuario sobre el proceso de
difusión de los contenidos: es decir, en qué medida, puede éste elegir el ritmo y la
secuencia de la comunicación. De esta forma, el lector construye su propio camino
de lectura, arma su propia linealidad en la exposición al medio. A este tipo de
interactividad con los contenidos, se le denomina Interactividad Selectiva.

Las posibilidades de comunicación y expresión aluden a los espacios que abre el


medio para que el lector pueda realizar intercambios dialógicos con otros
individuos. En este sentido, se hace énfasis en el aspecto comunicativo de los
medios en donde es posible que el usuario dialogue, discuta, confronte, apoye y,
de una y otra manera, establezca una relación con otros a través de los
contenidos del medio (comunicación). Algunas modalidades interactivas apuntan
entonces más que nada a la comunicación y otras se dirigen sólo a la expresión
individual. A este tipo de interactividad se le denomina Interactividad
Comunicativa.

En la interactividad selectiva hay un individuo que pregunta o elige una opción y el


sistema le responde automáticamente; en la interactividad comunicativa, hay un
individuo emisor y otro receptor con el cual pueden intercambiar roles.

En general, la idea de interactividad que más se expone en el desarrollo de


aplicaciones multimedia está relacionada con la interactividad selectiva. La
interactividad comunicativa se manifiesta especialmente en las posibilidades que
se ofrecen en los sitios web como foros de discusión, chat, correo electrónico, que
permiten la comunicación entre usuarios, o entre usuarios y publicadores de
contenidos, en este sentido este último tipo de interactividad es más del interés de
los comunicadores, por lo que a continuación se profundiza más la interactividad
selectiva.

2 * *

La interactividad selectiva se expresa básicamente a través de tres propiedades


cuyo uso se ha intensificado, pero que hacen parte de cualquier producto
multimedia: hipertextualidad, documentación y personalización.

El hipertexto es sin duda la principal herramienta que tienen los nuevos medios
para crear opciones interactivas de selección. A través de esta organización
multilineal del discurso en la que el lector va definiendo los caminos de su lectura
en diálogo con la máquina, además, la red ofrece enormes posibilidades de
acceso, gestión y distribución de la información. Las posibilidades interactivas de
selección en el medio dependerán en gran parte del tipo de estructura hipertextual
y del menú de enlaces que se le propongan al lector.

Muy asociado con el hipertexto, los distintos sistemas de búsqueda e indización


que presentan los medios digitales son también una forma novedosa de recuperar
información en bases de datos y de acceder incluso a capas más profundas en los
contenidos. Se convierten así en una nueva opción de interactividad selectiva.

La interactividad selectiva se expresa por último también en la posibilidad de


personalizar los contenidos, al poder el lector seleccionar el tipo de recurso para
presentar la información, o la presentación de la interfaz que le proporciona el
medio.

En todos estos casos –hipertextualidad, documentación y personalización- la


interacción consiste en que el individuo “pregunta” y el sistema informático le
responde automáticamente.

Se produce así una transferencia de poder desde el medio al lector, quien ahora
tiene más posibilidades de elegir a qué contenidos exponerse. Pero su decisión no
parte nunca de cero. No es que pueda decidir sin más los contenidos del medio.
La transferencia no es completa. Por el contrario, su capacidad de decisión
comienza siempre sobre un menú de contenidos ya (más o menos)
predeterminados por el autor del medio.

Hay dos factores que influyen en el grado de interactividad selectiva:


1. La extensión del menú de contenidos. Cuanto mayor sea la oferta de opciones,
mayor será el grado de interactividad que ofrecerá el medio.
2. La pertinencia de esas opciones. Cuanto más significativas sean cada una de
esas opciones, es decir cuanto más respondan a las necesidades del usuario,
mayor será también el grado de interactividad selectiva.

La interactividad selectiva mueve al usuario/lector a la acción, quien, moviendo su


ratón aquí y allá, navega por las páginas, provoca modificaciones en textos y
gráficos dinámicos, desplaza objetos, ejecuta audios o vídeos y ordena
operaciones de búsqueda. Esto hace que los medios deban pensar en qué cosas
pueden hacer sus usuarios y no sólo qué cosas pueden leer29.

% $ ) "& / $ $

El proyecto multimedia, según lo planteado en capítulos anteriores, implica la


utilización de diferentes medios (texto, gráficos, sonido, animaciones y vídeo)
para la conformación de una unidad comunicativa.

?P0C4@ # N4 $ & / !" & E ' Y (* B " & $ !


( # %O ;' ZH " ' 1 % 4P 1 ' C ( 9 ' '
$$$ ' '& " ( )' '& " )! -( ) ( -' & %=&T# -( -'[
Cada uno de estos medios posee sus propias características, son tratados de
modo distinto y almacenados también de distinto modo. Es necesario conocer las
características de cada uno de ellos, las transformaciones que les podemos
realizar y los formatos más utilizados para su almacenamiento.

En este capítulo se presentarán estos aspectos iniciales, con el fin de proporcionar


una panorama general de cada uno, un mayor grado de especificidad se aborda
en la Unidad Didáctica 3.

% =

El texto es un objeto multimedia que puede ser abordado desde una perspectiva
dual: como una representación del lenguaje hablado o como un objeto gráfico
sujeto al mismo tipo de manipulación que cualquier otro objeto gráfico.

La tipografía es la disciplina que permite reproducir un mensaje mediante la


palabra impresa. El elemento fundamental de la palabra impresa es el carácter. El
carácter es la marca que se imprime. El conjunto de caracteres que representan
las letras, número, signos de puntuación y otros forman cada una de las distintas
fuentes.

El diseño de fuentes existe desde la invención de la imprenta por Gutemberg y se


constituye en un arte en si mismo, pues define la personalidad de la palabra
escrita y tiene implicaciones estéticas y sicológicas

Un buen diseño de fuente no es sólo un diseño agradable si no además una


marca que diferencia la letra impresa de cualquier otra. Una fuente tiene, además,
variaciones de los caracteres para representar las negritas, cursivas, fina,
condensada, etcétera. Al conjunto de todas las variaciones de una determinada
fuente se le llama Familia.

Los caracteres se combinan para formar palabras y con estas frases. Las frases
se agrupan en párrafos que cubre la extensión de una página. A la extensión de la
página cubierta por caracteres se le llama mancha.

La composición trata la distribución de los caracteres para formar palabras y de


las frases para formar párrafos. Para ello se define el interletrado o espacio entre
dos caracteres de la misma palabra y el interlineado o espacio entre dos líneas
sucesivas en el mismo párrafo.

El modo en que los párrafos se ciñen a los márgenes de la página se llama


alineación. Entre otros estos pueden ser centrado, izquierda, derecha, justificado,
etcétera. Finalmente, el texto se distribuye dentro de la página, la distribución
puede ser en columnas o en bloque.
La aplicación de la informática a la impresión, al diseño gráfico y, porteriormente,
al diseño web, ha revolucionado el mundo de la tipografía. Por una parte, la
multitud de aplicaciones informáticas relacionadas con el diseño gráfico y editorial
han hecho posible la creación de nuevas fuentes de forma cómoda y fácil. Por
otra, ha sido necesario rediseñar muchas de las fuentes ya existentes para su
correcta visualización y lectura en pantalla, haciendo que se ajusten a la rejilla de
píxeles de la pantalla del monitor.

Figura 1 Tipo Digital


El tipo digital permite interletrar y diseñar caracteres mejor y con mayor fidelidad
que el tipo metálico, existiendo actualmente en el mercado la mayoría de las
familias tipográficas adaptadas al trabajo en ordenador, y las modernas
aplicaciones de autoedición y diseño permiten manejar fácilmente las diferentes
fuentes y sus posibles variantes en tamaño, grosor e inclinación.

Los sistemas operativos permiten manejar diferentes tipos de fuentes. Unas son
de resolución fija, entre ellas las fuentes de pantalla y las de impresora. Este tipo
de fuentes, en especial las primeras, normalmente no se utilizan en las
aplicaciones, son las que emplean los programas para sus propios menús y resto
de interfaz gráfica.

Los tipos de letra que se emplean en el desarrollo de aplicaciones, tanto en el


ordenador como para imprimir, son las fuentes escalables. Existen dos tipos
principales de fuentes escalables: fuentes True Type y fuentes Type 1 (también
llamadas PostScript Type 1). Ambos tipos de fuentes contienen la información
para los caracteres en forma de trazados vectoriales30: pueden generar un
carácter de cualquier tamaño sin pérdida de calidad en el contorno. Para utilizar
las fuentes TrueType no hace falta nada especial: el propio sistema operativo se
encarga de gestionarlas. En cambio, para manejar fuentes PostScript (el sistema
más profesional y utilizado en las artes gráficas) es preciso un programa especial
dedicado a su manejo, llamado Adobe Type Manager (ATM). La versión básica del

( ( < ((X ' <* B' # ( ! (


<( M ' ( (' ' B <( J ( # &
programa puede obtenerse gratis de la web de Adobe.

Figura 2 Tipo True Type

Por lo que respecta a las fuentes disponibles en un computador, los sistemas


operativos instalan por defecto un número variable de ellas. Posteriores
instalaciones de aplicaciones de ofimática, autoedición y diseño instalan otras
fuentes nuevas, de tal forma que resulta difícil saber en un momento dado qué
fuentes están disponibles en un cierto computador.

Las principales familias tipográficas incluidas en los sistemas operativos Windows


son Abadi MT Condensed Light, Arial, Arial Black, Book Antiqua, Calisto MT,
Century Gothic, Comic Sans MS, Copperplate Gothic Bold, Courier New, Impact,
Lucida Console, Lucida Handwriting Italic, Lucida Sans, Marlett, News Gothic MT.
OCR A Extended, Symbol, Tahoma, Times New Roman, Verdana, Webdings,
Westminster y Wingdings. A estas hay que añadir las instaladas por otras
apicaciones de Microsoft, como Andale Mono, Georgia y Trebuchet MS.

Por su parte, entre las tipografías incluidas en el sistema operativo MacOS se


encuentran Charcoal, Chicago, Courier, Geneva, Helvetica, Monaco, New York,
Palatino, Symbol y Times.

Además, existen infinidad de fuentes disponibles en todo tipo de soportes


(disquete, CD, DVD, páginas web, etc.), así como aquellas no estándares creadas
por autores puntuales, todas ellas fácilmente instalables en cualquier máquina.

El principal inconveniente de este desconocimiento es que no podemos saber a


ciencia cierta si las fuentes que estamos usando en pantalla van a estar luego
disponibles en la imprenta, en la impresora o en el ordenador del lector, por lo que
es conveniente usar fuentes estándar o comprobar la compatibilidad de las fuentes
usadas con los medios de impresión necesarios.

Una excepción a esta regla es el caso de que los textos sean guardados como
fichero gráfico (formatos TIFF, GIF, JPG, PNG, SVG, SWF, etc.), ya que en este
caso la impresora o monitor interpretarán el texto de forma adecuada, aunque
generalmente con peor calidad. Este es el proceso que realiza Adobe para
generar sus documentos en formato pdf, que presentan una mejor calidad.

%! ) 3&@ )

Las imágenes fueron los primeros elementos que se incorporaron al texto,


siguiendo una estética cercana al libro en cuanto suponían la ilustración de dichos
contenidos textuales. Su obtención es variada, por ejemplo de fuentes externas,
dibujo, escaneado, foto y vídeo digital, obtención dinámica a través de datos, etc.

Los procesos de manipulación de imágenes requieren asimismo de una tecnología


sofisticada en temas como intercambios de formatos, escalado, filtrado, manejo
del color mediante paletas, etc. Los formatos mas utilizados son BMP (Bitmap),
GIF (Graphic Interchange Format) y JPEG (Joint Picture Expert Group).

Cuanto mayor y más nítida sea una imagen y cuantos más colores tenga, más
difícil es de presentar y manipular en la pantalla de un computador. Las
fotografías, dibujos y otras imágenes estáticas deben pasarse a un formato que el
computador pueda manipular y presentar. Entre esos formatos están los gráficos
de mapas de bits ( o de píxeles) y los gráficos vectoriales.

%! $ +

Las imágenes de mapa de bits (bitmaps o imágenes raster) están formadas por
una rejilla de celdas, a cada una de las cuales, denominada píxel (Picture
Element, Elemento de Imagen), se le asigna un valor de color y luminancia
propios, de tal forma que su agrupación crea la ilusión de una imagen de tono
continuo.

Figura 3 Mapa de bits

Un píxel es pues una unidad de información, pero no una unidad de medida, ya


que no se corresponde con un tamaño concreto. Un píxel puede ser muy pequeño
(0.1 milímetros) o muy grande (1 metro).

Una imagen de mapa de bits se creada mediante una rejilla de píxeles única.
Cuando se modifica su tamaño, se modifican grupos de píxeles, no los objetos o
figuras que contiene, por lo que estos suelen deformarse o perder alguno de los
píxeles que los definen. Por lo tanto, una imagen de mapa de bits está diseñada
para un tamaño determinado, perdiendo calidad si se modifican sus dimensiones,
dependiendo esta pérdida de la resolución a la que se ha definido la imagen.

Los gráficos de mapa de bits se obtienen normalmente a partir de capturas de


originales en papel utilizando escáner, mediante cámaras digitales o directamente
en programas gráficos. También existen multitud de sitios en Internet que ofrecen
imágenes de este tipo de forma gratuita o por una cantidad variable de dinero.

Figura 4 Dos rejillas de 3*3 píxeles

Una imagen de mapa de bits es creada mediante una rejilla de píxeles única.
Cuando se modifica su tamaño, se modifican grupos de píxeles, no los objetos o
figuras que contiene, por lo que estos suelen deformarse o perder alguno de los
píxeles que los definen. Por lo tanto, una imagen de mapa de bits está diseñada
para un tamaño determinado, perdiendo calidad si se modifican sus dimensiones,
dependiendo esta pérdida de la resolución a la que se ha definido la imagen.

Los gráficos de mapa de bits se obtienen normalmente a partir de capturas de


originales en papel utilizando escáneres, mediante cámaras digitales o
directamente en programas gráficos. También existen multitud de sitios en Internet
que ofrecen imágenes de este tipo de forma gratuita o por una cantidad variable
de dinero.

La resolución de una imagen es un concepto que suele confundir bastante,


principalmente porque no es un concepto único, sino que depende del medio en el
que la imagen vaya a ser visualizada o tratada. Así, podemos hablar de resolución
de un archivo digital, resolución de impresión, resolución de semitono, resolución
de escaneado, etc. Se define como el número de píxeles distintos que tiene una
imagen por unidad de longitud, es decir, la densidad de éstos en la imagen. Sus
unidades de medida son los píxeles por pulgada (ppp o ppi, pixels per inch, en
inglés) o los píxeles por centímetro (más raramente). Cuanto mayor sea esta
resolución, más contenedores de información (píxeles) tiene el archivo digital, más
calidad tendrá la imagen y más peso en Kb tendrá el archivo.
Esta resolución está muy ligada al concepto de resolución de pantalla en un
monitor, referida al número de píxeles por pulgada existentes en la pantalla del
monitor en el que se visualiza la imagen. Una configuración del monitor en alta
resolución exhibirá más píxeles por pulgada, por lo que éstos serán más
pequeños, permitiendo una mejor visualización de la imagen en pantalla. En
ningún caso podremos visualizar una imagen a mayor resolución que la de
pantalla, que suele ser de 72 ppp en un sistema Mac y de 96 ppp en un PC.

Una vez definida la resolución de pantalla, el tamaño de los píxeles dependerá del
tamaño físico de la pantalla, medido en pulgadas. Las resoluciones de pantalla
más comunes en la actualidad son 800x600 y 1024x768 píxeles, oscilando los
tamaños de pantalla entre 15 y 21 pulgadas.

En el trabajo de digitalización de imágenes con escáner se maneja el concepto de


resolución de muestreo, que define el número de muestras que se toman por
pulgada. Su unidad de medida son las muestras por pulgada (spi, samples per
inch). Cuanto más muestras por pulgada tenga una imagen escaneada, más
cercana estará la imagen digital a la imagen original. Este forma de medir la
resolución se utiliza poco, habiéndose adoptado como medida de calidad de un
imagen escaneada los píxeles por pulgada que tiene la imagen digital resultante
del proceso.

Una forma común de clasificar las imágenes según su resolución es aquella que
las divide en imágenes de alta resolución (hi-res) e imágenes de baja resolución
(low-res). Una imagen de alta resolución está prevista para la impresión, teniendo
generalmente 300 ppp o más. Una imagen de baja resolución está prevista
solamente para su exhibición en pantalla, teniendo generalmente una resolución
de 100 ppp o menos.

Figura 5 Modificación en la resolución


A mayor resolución, más píxeles hay en una imagen, más grande es su mapa de
bits, mayor información contiene y mayor capacidad de distinguir los detalles
espaciales finos, por lo que tendrá más definición, permitiendo un mayor detalle,
unas transiciones de color más sutiles y una mayor calidad de reproducción.

Las imágenes de mapas de bits dependen de la resolución a la que han sido


creadas, por lo que al modificar su tamaño pierden calidad visual. Si se disminuye,
los trazos finos perderán definición, desapareciendo partes de los mismos,
mientras que si se aumenta, la imagen se pixelizará, al tener que cubrirse de
forma aproximada píxeles que inicialmente no existían, produciéndose el conocido
efecto de dientes de sierra.

Figura 6 Efecto de pixelado en mapas de bits

El principal inconveniente con los gráficos de mapas de píxeles durante el


almacenamiento a su transmisión a través de una línea de comunicación de datos,
es el elevado tamaño de los archivos que generan. Se hace por tanto necesaria la
compresión de estos archivos.
La compresión, tanto de archivos de imágenes como de cualquier otro tipo de
archivo informático, puede ser de dos tipos, compresión con pérdidas y
compresión sin pérdidas. En la compresión con pérdidas se elimina información de
la imagen que no es percibida por el ojo. Una vez se ha comprimido una imagen
no se puede volver a restaurar con la calidad de la original, la información
irrelevante es eliminada en el proceso de compresión.

Los formatos típicos de ficheros de mapa de píxeles sin comprimir son BMP y
TGA. Los formatos típicos de las ficheros de mapa de píxeles comprimidos sin
pérdidas son PCX, TGA comprimido o TIFF. El formato típico de las imágenes
comprimidas es el JPG.

Caso aparte son los gráficos 3D. Utilizar las tres dimensiones espaciales en los
gráficos complica tremendamente la generación de imágenes. No es únicamente
utilizar una tercera coordenada en la descripción de los objetos, existen, además
nuevos problemas a tener en cuenta como la iluminación, la ocultación de unos
objetos por otros, el uso de textura y un largo, además de tecnologías utilizadas
para dotar de realismo a las imágenes generadas por ordenador.

En síntesis, hay que trabajar siempre en unos niveles de resolución adecuados al


medio en el que se va a usar la imagen. Resoluciones mayores necesitarán unos
recursos excesivos que no son aprovechables y en el extremo contrario,
resoluciones menores que las del medio suelen producir una mala visualización o
impresión, presentando las imágenes el conocido efecto de pixelización o dientes
de sierra.

% ! ! 3 65 *

Un gráfico vectorial está definido por un conjunto de primitivas geométricas de tal


modo que, al dibujarlas, se compone la imagen final.

Por lo tanto, las imágenes en los gráficos vectoriales no se construyen píxel a


píxel, sino que se forman a partir de vectores, objetos formados por una serie de
puntos y líneas rectas o curvas definidas matemáticamente.

Por ejemplo, una línea se define en un gráfico de mapa de bits mediante las
propiedades de cada uno de los píxeles que la forman, mientras que en un gráfico
vectorial se hace por la posición de sus puntos inicial y final y por una función que
describe el camino entre ellos. Análogamente, un círculo se define vectorialmente
por la posición de su punto central (coordenadas x,y) y por su radio (r).

Cada vector en un gráfico vectorial tiene una línea de contorno, con un color y un
grosor determinados, y está relleno de un color a elegir. Las características de
contorno (o filete) y relleno se pueden cambiar en cualquier momento.

Las imágenes vectoriales se almacenan como una lista que describe cada uno de
sus vectores componentes, su posición y sus propiedades.

En cuanto a la resolución, los gráficos vectoriales son independientes de la


resolución, ya que no dependen de una retícula de píxeles dada. Por lo tanto,
tienen la máxima resolución que permite el formato en que se almacena, no se
presentan inconvenientes con el efecto de pixelado ya que la descripción
matemática de un objeto es independiente del tamaño al cual se esté dibujando el
objeto.

Las entidades geométricas que forman parte de un gráfico vectorial son: el


segmento de recta, las circunferencias, las elipses, y los arcos de circunferencia y
elipse.

Las trasformaciones típicas sobre las imágenes vectoriales son la traslación, la


rotación, el escalado y la cizalla. Estas transformaciones, puramente geométricas,
se muestran en la siguiente figura. Después de aplicarlas el objeto gráfico
conserva su precisión.

Figura 7 Transformaciones en gráficos vectoriales

El principal inconveniente de las imágenes vectoriales es que tiene un aspecto


más frío que los gráficos de mapa de bits, con su contorno demasiado perfecto,
que los hace a veces poco naturales, aunque siempre es posible crear
premeditadamente contornos un poco irregulares, para que se parezca algo más
al dibujo natural.

Otros inconvenientes de este tipo de gráficos son su falta de eficacia para


representar imágenes de tipo fotográfico, la dificultad que presenta para tratar
algunas efectos (sombras, luces, etc...) y que cuando son muy grandes o muy
complejas pueden volverse extremadamente difíciles de manejar por los
programas gráficos y por los medios de impresión.

%% )

El sonido se percibe por un órgano distinto al del resto de medios que se han
estudiado, el oído, y además en su percepción entran a jugar parte fenómenos no
sólo físicos y fisiológicos, sino también fenómenos psicológicos.

Por otro lado, el sonido no siempre está presente en las producciones Multimedia,
y de estar presente, siempre debe ser posible desactivarlo, de algún modo, por
parte del usuario. También hay que tener en cuenta que ciertos usuarios no
pueden escuchar el sonido porque, por ejemplo, sus equipos no cuenten con
altavoces.

El sonido es una onda formada por las compresiones y rarefacciones del medio en
el que se propaga. Este medio puede ser el aire, el agua, los metales, etcétera.
Por otra parte si consideramos el sonido, como las vibraciones que el oído
humano es capaz de percibir, estas vibraciones se limitan a frecuencias
comprendidas entre 20 y 20.000 Hz. Las tres características que permiten
distinguir entre si los sonidos son: intensidad, frecuencia y timbre.

La intensidad de un sonido se relaciona con la amplitud de onda de este y


representa la cantidad de energía que tiene una onda sonora. La unidad de
medida es el decibelio dB, que es una medida relativa. La medida de la amplitud,
tiene ciertos problemas debidos a que el oído no se comporta de una forma lineal,
sino que lo hace de forma logarítmica, es decir no interpreta las diferencias, sino la
relación, en esta escala logarítmica la definición del decibelio está dada por:

aref es el valor de amplitud de referencia con el que se compara el sonido que se


está midiendo. La intensidad con la que un sonido es percibido depende también
de la frecuencia de este. La intensidad mínima a la cual se percibe un sonido se
llama umbral de audición y se obtiene de modo experimental.

El oído humano es capaz de adaptarse y compensar las diferencias de nivel y


seguir apreciando la diferencia que existe entre diversos sonidos. Esta
característica del oído humano es difícil de trasladar a los equipos electrónicos.
Así, se tiene que al digitalizar una señal con una resolución de 8 bit esto indica
que el máximo numero de niveles que es posible discriminar es 256. Si se ajusta
la entrada del equipo a la intensidad de sonido de un concierto de rock, se
encuentra que cuando alguien hable con un nivel de conversación no se le
entenderá, en caso contrario si se ajusta a un bajo nivel se encuentra que una
gran cantidad de sonidos estarán saturados.

La frecuencia se mide en Hz, el ser humano generalmente tiene un rango de


audición que va de 20 Hz a 20khz.

La comprensión del habla humana de acuerdo con estudios realizados, se ve muy


poco afectada por las bajas frecuencias (inferior a 500 Hz ) o las frecuencias
superiores a 4000 Hz, por el contrario, las frecuencias más importantes para la
inteligibilidad están entre 500 y 3000Hz.

Aunque las frecuencias superiores a 4000Hz, no afectan a la inteligibilidad, si son


necesarias para la correcta reproducción del timbre, ya que el hombre llega a
emitir sonidos hasta los 8000Hz y la mujer hasta los 9000Hz.

El sonido en contadas ocasiones se presenta como una frecuencia pura, esto sólo
se da en generadores, lo normal es que estas frecuencia vayan acompañadas por
sus armónicos, estos armónicos son los que permiten identificar el timbre de una
sonido. Así, es posible diferenciar un instrumento de otro aún cuando la nota
básica sea la misma, etc.

Existe otra característica del sonido que es el estéreo, el ser humano escucha en
estéreo y esta es una característica muy importante a la hora de realizar la toma
del sonido, la edición y la reproducción, ya que afecta al volumen de la
información, esta es exactamente el doble que el de una señal monoaural.

La naturaleza del sonido es analógica, por lo tanto, para poder manipular,


almacenar y transmitir el sonido es necesario convertirlo a un formato digital. Es
necesario digitalizar el sonido.

El proceso de digitalización está constituido por dos fases, el muestreo y la


cuantización. En la fase de muestreo se toman muestras de la intensidad de la
onda a intervalos regulares de tiempo, es decir, a una cierta frecuencia que se
conoce como frecuencia de muestreo.

La calidad del sonido depende de la frecuencia a la que se muestree la señal.


Para que una señal se muestree sin pérdida de información es necesario que la
frecuencia de muestreo sea mayor al doble de la mayor frecuencia presente en la
señal. Esto es lo que se conoce como teorema fundamental del muestreo. La
contrapartida a la calidad es el tamaño del archivo de sonido generado, cuantas
más muestras se tomen mayor será el tamaño del archivo.

La segunda fase en el proceso de muestreo es la cuantización. Una variable digital


no puede tomar un valor cualquiera tal y como lo hace una variable analógica. Una
variable digital solo puede tomar valores discretos dentro de un rango de valores
posibles.

Figura 8 Una señal y su correspondiente cuantizada utilizando 5 niveles

El sonido digital deber ser convertido a analógico antes de poder ser escuchado. A
este proceso de conversión de una señal digital a su original analógico se le
conoce como reconstrucción. La reconstrucción sin pérdidas sólo será posible si
la frecuencia de muestreo cumplía con el teorema fundamental del muestreo.

Como se puede deducir digitalizar un sonido de calidad implica almacenar mucha


información y con ellos se crean archivos de sonido de elevado tamaño. De nuevo,
la reducción del tamaño de los archivos se hace a través de la compresión que
puede ser con o sin pérdidas.

La compresión con pérdidas se puede hacer utilizando una compresión


logarítmica en la que se utilizan más niveles de cuantización para frecuencias
bajas, donde el oído humano es más sensible, y menos niveles para valores
elevados de la frecuencia.

Pero, sin duda, la compresión con pérdidas basado en un modelo psicológico de


la audición es la que mejores tasas de compresión produce. En esta compresión
se utiliza el fenómeno psicológico del enmascaramiento de un sonido cuando su
frecuencia está cerca de otro sonido de alta intensidad. Esta es la compresión
utilizada en la capa de sonido de los ficheros MPEG. La tasa de compresión típica
sin pérdida de calidad es 10:1.

En cuanto al formato de ficheros, cada plataforma informática ha creado el suyo


propio. AIFF es el formato en MacOS, Wave en Windows y en Unix se encuentra
el AU.

%2 $ '

La sensación de imagen animada producida por la sucesión de imágenes en


movimiento descansa en el fenómeno fisiológico conocido como persistencia de la
visión. Una vez que la retina ha sido estimulada por una imagen, esta tiene una
latencia de entre 100 y 20 milisegundos. Al presentar imágenes estáticas la
latencia produce su encadenamiento. El cerebro, finalmente, percibe la secuencia
como un continuo.
La animación, en un sentido amplio, incluye todos los cambios, incluidos los de
posición, forma, color y otras características de los objetos. Lo que distingue la
imagen animada de la imagen capturada, por ejemplo mediante una video cámara,
es que las imágenes de una animación han sido generadas una a una. Existen
numerosas técnicas para la generación de las imágenes presentes en una
animación, desde la animación clásica de fotogramas dibujados típica de las
películas de dibujos animados (por ejemplo, Blancanieves), hasta las imágenes
generadas por ordenador (por ejemplo, Toy Story).

La animación tradicional utilizada en las producciones de dibujos animados son la


base para cualquier otro tipo de animación. Define algunos principios que son:
difuminado de movimiento, anticipación, estiramiento y compresión, solapamiento
y continuación de las acciones.
Figura 9 Animación tradicional

En cuanto a las técnicas utilizadas en animación 2D van desde la animación por


fotograma clave hasta los recortes pasando por la animación por sprites. La
tecnología digital facilita grandemente el proceso de animación de gráficos
vectoriales. Como ya se explicó los gráficos vectoriales se construyen a partir de
primitivas matemáticas geométricas, animarlos implica aplicarles ecuaciones de
movimiento fáciles de implementar en software. Otra técnica de animación digital
es la animación por trayectoria, definida una trayectoria sobre el espacio, los
objetos se mueves a lo largo de ella.

La animación 3D, como todos los gráficos 3D, es más complicada que la 2D. Una
de las técnicas empleadas es la rotoscopia o captura de movimiento. En esta
técnica, los movimientos son capturados, por ejemplo mediante una video cámara,
de un objeto real con puntos de referencia marcados sobre él. El modelo real es
simplificado para construir un modelo virtual, sobre el que se marcan puntos de
referencia que han de seguir la trayectoria de los puntos de referencia marcados
sobre el modelo real. Los personajes animados 3D están formados por una serie
de segmentos unidos entre si por articulaciones. Un modo de realizar un
movimiento sobre estos personajes animados es dar los ángulos de rotación de
cada articulación, con estos datos el modelo efectúa las rotaciones especificadas y
coloca los segmentos en una cierta posición, a esta técnica de animación se le
llama cinemática directa.

Figura 10 Captura de animación mediante rotoscopia

No obstante, resulta excesivamente complicado alcanzar una posición


determinada teniendo que especificar los ángulos de todas las articulaciones, es
más directo especificar la posición final del objeto y dejar que el sistema calcule
las rotaciones necesarias para alcanzar la posición, a esta técnica se le conoce
como cinemática inversa, a partir de la posición final se han de calcular los
ángulos de rotación de cada una de las articulaciones. El principal problema que
presenta la cinemática inversa es que, en general, para una posición final
determinada existe más de una posibilidad de rotación, de existir varias
posibilidades, se escoge aquella que implique una menor energía para su
realización. Esta técnica se emplea para mover figuras articuladas que contienen
elementos rígidos y articulaciones, también se usa para modelar robots y animales
vertebrados.

Figura 11 Cinemática inversa

En vez de especificar los movimientos, velocidades aplicadas a las articulaciones,


se puede especificar las fuerzas aplicadas a cada una de las articulaciones. En
este caso se habla de dinámica directa y dinámica inversa.

%; ?

Las imágenes generadas en vídeo se basan en el mismo fenómeno fisiológico de


latencia de las imágenes en la retina.

La principal fuente de video digital es el video analógico, debido a la gran cantidad


de material existente en este formato. El video analógico es la captura de la señal
de televisión en la banda magnética de la cinta de vídeo.

Las imágenes en una televisión se obtienen barriendo la pantalla


electroluminiscente con un haz de electrones, la intensidad del haz, en una misión
en blanco y negro, determina el nivel de luminosidad, el nivel de gris.

No existe un formato único de señal televisiva. En Europa se utiliza el estándar


PAL donde cada imagen está formada por 625 líneas de las cuales 576 contienen
información de la imagen y el resto son señales de control. En Estados Unidos,
Japón y Taiwan se utiliza el estandar NTSC de 525 líneas de las cuales 480 son
datos de la imagen y el resto señales de control. Finalmente en Francia se utiliza
el estándar SECAM con el mismo número de líneas que el estándar PAL.

Como se ha comentado, la principal fuente de vídeo digital es el vídeo analógico.


En el caso del vídeo digital si que existe un estándar de uso universal, la norma
Rec. ITU-R BT.601.

El principal problema con el vídeo digital es el gran tamaño de los archivos


generados tanto digitalizando la señal analógica como capturando directamente
vídeo a una señal digital. Se hace necesaria la compresión de los archivos para su
manipulación, almacenamiento y transmisión.

La fidelidad de una imagen de video se mide por los mismos parámetros de audio
e imagen que la componen, así como por una variable adicional que corresponde
al número de cuadros que se exponen por segundo.

Lo usual en una película de video estándar es 24 cuadros por segundo; este


número es muy variable en los formatos digitales. Algunos de los formatos más
comunes son:

AVI (y tienen una extensión .AVI). Este es el formato creado para películas de
Microsoft Video for Windows; usuarios de Windows 95 pueden ver estas películas
con Media Player que está incluido en sus sistemas. AVI no utiliza una sola línea
de tiempo común para rodar imágenes y sonidos, así que estas películas algunas
veces exhiben problemas de sincronización en audio y vídeo.

MPEG (Moving Pictures Expert Group). El formato MPEG es muy popular en PC


compatibles. Los miembros del grupo que produjo este estándar vienen de más de
70 compañías a lo ancho del mundo incluyendo a gigantes como Sony, Phillip,
Matsushita y Apple. Ellos se reunieron al amparo de la ISO (International Standard
Organization - organización de estándares internacionales) para generar un
estándard para discos compactos, televisión por cable, transmisión satelital directa
y televisión de alta definición.
Los archivos en formato MPEG tienen extensión .mpeg o .mpg.

QT (Quick Time). El formato QuickTime fue creado originalmente por Apple y


usado en los computadores Macintosh. Reune audio, animación, video y
capacidades interactivas. Este estándard lleva mucho más tiempo vigente que el
estándard MPEG.
Los archivos quicktime tienen extensión .qt y .mov y los programas para verlos
están disponibles en una amplia gama de plataformas.
2 ) ) ) $ $

En Canadá de hizo una investigación de los usos de la multimedia en algunas


empresas que son clientes fuertes y/o potenciales de empresas dirigidas a esta
área. 58.8% de las empresas dijeron que utilizan multimedia en tan siquiera
alguno de sus procesos, llámese entrenamientos, publicidad, ventas, compras,
comunicaciones internas, etc. Del porcentaje restante, más del 75% dijeron que
planeaban utilizar multimedia en sus procesos en un futuro.

De todas las compañías, el 82% dijo que planeaba utilizar en un futuro o continuar
el uso de multimedia y el resto dijo que no lo sabía. Sin embargo, ese resto no
negó el uso futuro de multimedia por la importancia que esta teniendo hoy en día.
Hay miles de usos para la multimedia en una empresa como comunicaciones
internas, sitios-web, comunicaciones externas, control de procesos, control de
calidad, etc.

La multimedia se utiliza en campos tan diversos que sería imposible mencionarlos


todos, por ello en este apartado sólo se citarán algunos de los usos mas comunes.

• En educación (CD interactivos, sitios WEB, cursos, tutoriales, simuladores,


visitas interactivas, prototipos, presentaciones, capacitación, enciclopedias, etc.).
• En diversión y entretenimiento (juegos, protectores de pantalla, simuladores,
prototipos, realidad virtual, etc.).
• En negocios (cursos de capacitación, lanzamiento de productos, quioscos de
información, herramientas de ventas, catálogos de productos y servicios,
materiales promocionales, presentaciones corporativas, evaluaciones a
empleados, bases de datos, etc.).
• En la salud (simulación, capacitación, sitios WEB, publicaciones digitales,
realidad virtual, etc.).
• En la milicia (capacitación interna, realidad virtual, simuladores, prototipos,
presentaciones, etc.).
• En construcción y diseño (simulación, planificación, catálogos de productos,
cursos de capacitación, presentaciones, etc.).”

El uso de multimedia varia dependiendo de la compañía y su enfoque del uso de


la tecnología. Por otra parte, es innegable el papel que ha venido jugando internet
en su masificación, ofreciendo un medio que cada vez tiene mayores usuarios,
puede mostrar el más amplio espectro de uso de la multimedia.

A continuación se presenta una clasificación de estos usos, acudiendo a un


artículo presentado por Virgilio Victoria31. Esta es solo una posibilidad de asociar

1 P>0C1 ;6C. A E ; C0; .H>C9.9C?4; D;.>; 6;1 P>0C1 ;6C. F; J G


la multitud de aplicaciones, queda al lector la ampliación de las mismas, a partir de
su indagación personal.

2 $ $ ) 3 )

Las aplicaciones de la multimedia en los negocios incluyen presentaciones,


capacitaciones, mercadotecnia, publicidad, demostración de productos, bases de
datos, catálogos y comunicaciones en red. El correo de voz y vídeo conferencia,
se proporcionan muy pronto en muchas redes de área local (LAN) o de área
amplia (WAN).

La mayoría de los programas de presentación permiten agregar clips de audio y


vídeo a las presentaciones de "diapositivas" pantalla por pantalla (slide shows) de
gráficas y textos.

La multimedia se ha vuelto muy popular en la capacitación. Los sobrecargos de


aviación aprenden a manejar situaciones de terrorismo internacional y seguridad a
través de la simulación. Los mecánicos aprenden a reparar motores, los
vendedores aprenden acerca de las líneas de productos y ofrecen a sus clientes
programas de capacitación. Los pilotos de combate practican ejercicios de asalto
antes de arriesgarse a una situación real.

La multimedia se ha vuelto muy común en la oficina. La Flex Cam de Video Labs,


un aditamento económico para agregar una cámara de video y un micrófono
estéreo. Este equipo de captura de imagen puede utilizarse para construir bases
de datos de identificación de empleados. A medida que las compañías se
actualizan en la tecnología multimedia, y el costo de instalación y el costo de
capacidad en el desarrollo multimedia disminuye, se desarrollan más aplicaciones
dentro de las mismas empresa y por terceros para hacer que los negocios se
administren más fácil y efectivamente.

2!$ $ ) ) )

Las escuelas son quizás los lugares donde más se necesita multimedia. La
multimedia causará cambios radicales en el proceso de enseñanza en las
próximas décadas, en particular cuando los estudiantes inteligentes descubran
que pueden ir más allá de los límites de los métodos de enseñanza tradicionales.
Proporciona a los médicos más de cien casos y da a los cardiólogos, radiólogos,
estudiantes de medicina y otras personas interesadas, la oportunidad de
profundizar en nuevas técnicas clínicas de imágenes de percusión cardiaca
nuclear.

" &))$$$ & (& ) (( ) &( ) ' )& ( ( - " * ( >( 0( *J %


. < ' ( & (
Los discos láser (CD) traen actualmente la mayoría de los trabajos de multimedia
al salón de clases, actualmente están disponibles una inmensa cantidad de títulos
educativos para diferentes grados escolares y para todas las áreas.

2%$ $ < 3 &

Finalmente, la mayoría de los proyectos de multimedia llegan a los hogares a


través de los televisores o monitores con facilidades interactivas, ya sea en
televisores a color tradicionales o en los nuevos televisores de alta definición, la
multimedia en estos televisores probablemente llegará sobre una base pago - por -
uso a través de la autopista de datos.

Actualmente, sin embargo, los consumidores caseros de multimedia poseen una


computadora con una unidad de CD-ROM, o un reproductor que se conecta a la
televisión, muchos hogares ya tienen aparatos de videojuego Nintendo, Sega o
Atari conectados a su televisor; los nuevos equipos de videojuegos incluyen
unidades de CD-ROM y proporcionan mayores capacidades de multimedia. La
convergencia entre la multimedia basada en computadoras y los medios de
diversión y juego descritos como "dispárenles", es cada vez mayor. Sólo Nintendo
ha vendido más de cien millones de aparatos de videojuegos en el mundo y más
de 750 millones de juegos.

La casa deL futuro será muy diferente cuando los costos de los aparatos y
televisores para multimedia se vuelvan accesible al mercado masivo, y la conexión
a la autopista de datos más accesible. Cuando el número de hogares multimedia
crezca de miles a millones, se requerirá de una vasta selección de títulos y
material para satisfacer a este mercado y, también, se ganarán enormes
cantidades de dinero produciendo y distribuyendo esos productos.

22$ $ 3 & )" )

En hoteles, estaciones de trenes, centros comerciales, museos y tiendas


multimedia estará disponible en terminales independientes o quioscos para
proporcionar información y ayuda. Estas instalaciones reducen la demanda
tradicional de personal y puestos de información, agregan valor y pueden trabajar
las 24 horas, aún a medianoche, cuando la ayuda humana está fuera de servicio.

Los quioscos de los hoteles muestran una lista de los restaurantes cercanos,
mapas de ciudad, programación de vuelos y proporcionan servicios al cliente,
como pedir la cuenta del hotel. A menudo se conectan impresoras para que los
usuarios puedan obtener una copia impresa de la información. Los quioscos de
museos se utilizan no sólo para brindar información a los visitantes sobre las
actuales exposiciones, sino también para dar más profundidad a cada exhibición,
permitiendo a los visitantes revisar información detallada específica de cada
vitrina.

El poder de multimedia en lugares públicos es parte de la experiencia de muchos


miles de años: los cantos místicos de los monjes, cantores y chamanes
acompañados por potentes estímulos visuales, iconos en relieve y persuasivos
textos han sido conocidos para producir respuestas efectivas.

2;& ?&

En la multimedia, cuando la tecnología y la invención creativa convergen, se


encuentra la realidad virtual, o VR (Virtual Realy). Los lentes cascos, guantes
especiales y extrañas interfaces humanas intentan colocarlo dentro de una
experiencia parecida a la vida misma.

La realidad virtual requiere de grandes recursos de computación para ser realista.


En ella, su ciberespacio está hecho de miles de objetos geométricos dibujados en
un espacio tridimensional: entre más objetos y más puntos describan los objetos,
mayor será la resolución y su visión será más realista. A medida que se mueve,
cada movimiento o acción requiere que la computadora recalcule su posición,
ángulo, tamaño y forma de todos los objetos que conforman su visión, y muchos
cientos de cálculos deben hacerse a una velocidad de 30 veces por segundo para
que parezca fluida.

La mayoría de los actuales programas de diseño asistidos por computadora (CAD)


ofrecen capacidades de tercera dimensión; muchos incluso proporcionan
facilidades para crear recorridos en formato de película digital.

Recientemente se han construido videojuegos públicos especializados para


ofrecer experiencias de vuelo y combate de realidad virtual por cierta tarifa. Del
Virtual World Entertainment en Walnut CreeK, California, y Chicago, Illinois, por
ejemplo, Battle Tech es un encuentro en video interactivo de diez minutos con
robots hostiles.

La realidad virtual es una extensión de la multimedia que utiliza los elementos


básicos de ésta década, como imágenes, sonido y animación. Puesto que requiere
de realimentación por medio de cables conectados a una persona, la realidad
virtual es tal vez multimedia interactiva en su máxima expresión.
Como se imaginará, la clasificación aquí presentada no es la única, se le
recomienda que consulte en su buscador favorito por las palabras clave
“aplicaciones de la multimedia” o “usos de la multimedia” y encuentre otras
formas de clasificación. Igualmente busque ejemplos que permitan ilustrar
los diferentes usos.

Algunas aplicaciones específicas que pueden tener un producto multimedia, donde


la frontera la define la propia imaginación:
• CD-ROM interactivo
• Presentación corporativa
• Material promocional
• Páginas de Internet
• Cursos de capacitación (C.B.T.- Computer Based Training)
• Presentación masiva
• Comunicación Interna y capacitación en Intranets
• Campañas de correo directo
• Catálogo de productos o servicios
• Lanzamiento de un nuevo producto
• Módulo de Información con pantalla sensible al tacto
• Herramienta de ventas
• Punto de venta electrónico
• Módulos de demostración de productos
• Memoria de un evento
• Protectores de pantalla (screen savers)
• Indice Interactivo para respaldo de información en CD
• Manuales de usuario, de servicio o de referencia TUTORIALES
• Paquetes de entrenamiento para el staff o franquicias
• Reportes anuales o presentaciones de resultados
• Publicaciones digitales
• Módulos en stands para ferias y exposiciones
• Simuladores
• Visitas a lugares virtuales o remotos (Presencia Virtual)
• Realidad Virtual
• Juegos y paquetes de entretenimiento
• Programas educativos y de enseñanza
• Prototipos interactivos
• Recopilación de vida y obra
• Demostradores electrónicos para agencias automotrices
• Árboles genealógicos interactivos con imágenes, sonido y video
• Archivo muerto de imágenes, sonidos, videos
• Y tantas otras como la imaginación lo permita.

&

ANDREESSEN, M. (1993): "NCSA Mosaic Technical Summary"


ftp://ftp.ncsa.uiuc.edu/Mosaic/Papers/mosaic.ps.Z

BALASUBRAMANIAN, V. (1995): "State of the art review of hypermedia: issues


and applications". http://www.isg.sfu.ca/~duchier/misc/hypertext_review/index.html

BERNERS-LEE, T., CAILLAIAU, R., LUOTONEN, A., Nielse, H., Secret, A. (1994):
"The World Wide Web". Communications of the ACM, Vol. 37, Nº 8. Agosto 1994.
pp 76-82

BEDOYA, Alejadro G.¿Qué es interactividad?. [En línea]


http://www.sinpapel.com/art0001.shtml Septiembre 1997. Usuario, Revista
Electrónica.

BUSH V. (1945) "As we may think". The Atlantic Monthly; July, 1945; Volume 176,
No. 1; pages 101-108.
http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm

CAMBRIDGE INTERNATIONAL DICTIONARY (Online) (2000): Cambridge:


Cambridge University Press. [En línea]
http://dictionary.cambridge.org//define.asp?key =multimedia*1%2B0. Fecha de
consulta: Enero de 2001.

CORRALES DIAZ, Carlos. La tecnología multimedia: Una nueva tecnología de


comunicación e información. Características, concepciones y aplicaciones. [En
línea] http://iteso.mx/~carlosc/pagina/documentos/multidef.htmI. ITESO,
Tlaquepaque, Jalisco, enero de 1994.

DIAZ, P., Catenazzi, N. , Aedo, I. (1996): "De la Multimedia a la Hipermedia". RA-


MA Editores, Madrid. 1996.

DICCIONARIO DE LA LENGUA ESPAÑOLA. Real Academia de la Lengua


Española. Vigésima segunda edición [En línea]: http://www.rae.es/. Fecha de
consulta: Abril de 2005.

ENGELBART, D. (1968) "Notas biográficas y trabajos resaltantes"


http://www.thocp.net/biographies/engelbart_douglas.html

FELDMAN, Tony (1994): Multimedia. Londres: Blueprint.

GOODMAN, D. (1987): "The Complete HyperCard handbook". Bantam Book. NY.


1987.

JANKOWSKI, Nicholas W. y Lucien Hanssen (eds.) (1996): The Contours of


Multimedia. Recent Technological, Theoretical and Empirical Developments.
Luton: Luton University Press.

LAATCHEM, C., WILLIAMSON, J. y HENDERSON-LANCETT, L. (eds.) (1993):


Interactive multimedia: practice and promise. Londres: Kogan Page.

LIPPMAN, A. (1980): "Movie-Maps: an Application of the Optical Videodisc to


Computer Graphics". Computer Graphics, Vol. 14, Nº 3, pp. 32-42.

LÓPEZ, Xosé (2000): "Nuevos soportes para un periodismo necesitado de


reflexión crítica", en Revista Latina de Comunicación Social, La Laguna (Tenerife),
núm. 31

PC-World Magazine. Nos. 115,119, 120 y 121.

PÉREZ-LUQUE, María José (1997): El periodismo y las nuevas tecnologías.


Pamplona: Newbook Ediciones.
ROSAS, Xanty. Diseño de Proyectos Multimedios. [En línea]
www.sin.itesm.mx/profesoresypersonal/dteda/documentos/CURSO%20TEDA%20
Dise%F1o%20Multimedios.doc. Fecha de consulta: Marzo 23 de 2005.

ROST, Alejandro. Pero, ¿de qué hablamos cuando hablamos de Interactividad?


[En línea]
www.sociedaddelainformacionycibercultura.org.mx/congreso/Alejandro%20Rost%
20Argentina.doc. Congresos ALAIC/IBERCOM 2004. La Plata, 12 al 15 de octubre
de 2004. Fecha de consulta: Marzo 19 de 2005.

SALAVERRÍA, Ramón. Aproximación al concepto de multimedia desde los planos


comunicativo e instrumental. Universidad de Navarra. [En línea]
http://www.ucm.es/info/perioI/Period_I/EMP/Numer_07/7-5-Inve/7-5-13.htm

UNIVERSITAT JAUME I. Capítulo 1: Introducción ¿Qué es Multimedia? y Capítulo


2. Tecnologías Base de la Multimedia. Material teórico de la asignatura
Multimedia. [En línea] http://www4.uji.es/~belfern/IX34/ Fecha de consulta:
Febrero de 2005

Van DAM, A. (1987): "Hypertext 87 Keynote Address". Comunications of the ACM,


Vol. 31, Nº 7, Julio 1987. pp 887-895.

VICTORIA, Virgilio . Multimedia y Website. Aplicaciones Reales de Multimedia .


[En línea] http://www.utp.ac.pa/seccion/topicos/multimedia/aplicacion_real.html
Panamá, Rep. de Panamá. Fecha de consulta: Mayo de 2005.

WORLD WIDE WEB CONSORTIUM. Oficina Española. Usabilidad en el www. [En


línea] http://www.w3c.es/. Fecha de consulta: Marzo de 2005

XIE, G. "Introduction to multimedia", [En línea]


http://www.cs.nps.navy.mil/people/faculty/xie%20/cs3202/notes_html/sld001.htm
Fecha de consulta: Enero de 2001.

YANKELOVICH, N., Hann, B., Meyrowitz, N., Drucker, S. (1988): "Intermedia: The
Concept and the Construction of a Seamless Information Environment". IEEE
Computer, Vol. 21, Nº 1. pp. 81-96
!( ) && "& / )
$ $

La generación de cualquier producto software de calidad involucra la ejecución de


distintas etapas o fases de producción. Al considerarse un producto multimedia
como algo concreto y tangible, su generación también debe atravesar por distintas
etapas. Es indispensable, además, organizar el trabajo, los subproductos
generados en cada etapa, y realizar un seguimiento lógico a las actividades,
logrando que la aplicación cumpla los objetivos que orientaron su creación y su
utilización sea exitosa.

En esta unidad didáctica se presenta un marco de trabajo para orientar la


formulación y desarrollo de proyectos multimedia, no se hacen distinciones a partir
del uso final de la aplicación, de la plataforma o medio de distribución, pues como
se notó al finalizar la Unidad 1, el ámbito y prospectiva de los productos
multimedia es tremendamente variada. Dentro de este marco de trabajo se
presentan las etapas básicas de un modelo de desarrollo que toma elementos de
diferentes fuentes (diseño web, diseño de software educativo, ingeniería de
software, etc) de manera que proporcione amplitud y flexibilidad suficiente para
asumir el trabajo de formular y desarrollar una aplicación multimedia.

Posteriormente se presentan algunas recomendaciones para conformar el equipo


de trabajo y generar las sinergias necesarias para lograr que el producto refleje los
mejores aportes de cada uno de los integrantes del equipo de trabajo y además
satisfaga a cabalidad las necesidades que le dieron origen. Finalmente, se hace
énfasis en algunos conceptos fundamentales a considerar en la construcción del
guión multimedia, pieza fundamental del diseño de aplicaciones multimedia.

Intencionalidades Formativas

Propósitos
Preparar al estudiante en las diferentes etapas y productos
que hacen parte de un proyecto multimedia, a través de la
participación en grupos de trabajo colaborativo formulando,
planeando y haciendo realidad su idea de proyecto
multimedia.
Objetivos
Que el estudiante exprese en forma verbal los requerimientos
para la conformación de grupos de trabajo, los roles, y las
diferentes etapas que se requieren para la producción de un
proyecto multimedia, teniendo en cuenta las información
consultada al respecto y su conocimiento de las metodologías
de desarrollo de software.

Que el estudiante aplique las diferentes etapas y lineamientos


de trabajo necesarios para el desarrollo de proyectos
multimedia, incentivando su creatividad y su capacidad de
trabajo en equipo.
Competencias
El estudiante aplica procedimientos sistemáticos para la
construcción de proyectos multimedia, ya sea con fines
educativos o de promoción publicitaria.
Metas
Una vez terminada esta unidad didáctica el estudiante estará
en capacidad de:
-Hacer parte de grupos de desarrollo de proyectos multimedia.
-Planear y ejecutar proyectos multimedia.

$
" -,

Individual

Lectura autorregulada de la Unidad Didáctica realizando Fichas textuales, Fichas


de Concepto, y Mapas Conceptuales para archivar en el portafolio.

Participación en el Foro de discusión a partir de las inquietudes personales


generadas en la consulta internet realizada sobre el tema y aportando a la
solución de las dudas de los compañeros de grupo de curso.

Pequeño Grupo Colaborativo

Formato de idea del proyecto multimedia diligenciado en procesador de texto.

Documento de plan de proyecto multimedia enviado al tutor vía correo electrónico.

Grupo de Curso

Socialización de los planes de proyecto mediante foro de discusión, se deberán


realizar aportes grupales a las ideas de los compañeros.

Socialización de comentarios en sala de charla (chat) en hora y fecha definida por


el tutor.

. +6

Se conoce que la construcción de un sistema de software implica la toma de


decisiones sobre la arquitectura del sistema (definir los componentes del sistema
de software y sus interacciones). Estas decisiones pueden ser cruciales para el
éxito o fracaso del sistema resultante, por lo que se requiere seleccionar un
proceso de desarrollo de software con el fin de obtener la calidad deseada y que
cumpla con los requerimientos establecidos. Existen metodologías vigentes de
ingeniería de software que atienden muy bien estos requerimientos y permiten al
equipo encargado de dicha labor asumir con propiedad su función.

Diversos autores han utilizado la ingeniería de software para la elaboración de


material multimedia interactivo, logrando de esta manera que el proceso de
desarrollo y mantenimiento del software sea una actividad que dependa de pautas
establecidas, con modelos conceptuales y herramientas de trabajo, y no del arte
de aquellos que tengan la experiencia exclusivamente.32

En esta unidad se presentan los pasos fundamentales de un proceso


metodológico que facilite el desarrollo de aplicaciones multimedia de calidad. No
se atiende particularidades de contenido, ni orientación práctica de la aplicación,
aunque se reconoce que para su elaboración se tomaron parámetros que en su
mayoría corresponden a las aplicaciones con interés educativo y los sitios web
informativos. En ese sentido se propone un marco de desarrollo común lo
suficientemente amplio, que permita asumir la tarea de construcción de
aplicaciones multimedia de forma organizada, planeada y coherente con los
requerimientos del cliente.

Este proceso metodológico implica la realización de 6 etapas: Definición del


proyecto, Diseño y Planeación, Producción, Pruebas, Uso y Evaluación.

Como es de suponerse, el trabajo implicado desde la definición hasta la


evaluación del proyecto será realizado por un equipo multidisciplinar que logra
construir un proceso interactivo con el cliente para refinar la idea, de manera que
el producto final se ajuste a las necesidades inicialmente planteadas. Una
profundización de la conformación e interacción del grupo de trabajo se presenta
en el Capítulo 2. Por ahora, se asume el proceso metodológico.

' "& /

Todo proyecto multimedia surge de una necesidad, viene a resolver algún


problema. Entonces, el primer paso consiste en definir, acotar esa necesidad. Lo
mejor es escribirlo. El ponerlo en el papel ayudará a pensar sobre el proyecto y
tomar decisiones. Normalmente, al intentar definir la necesidad por escrito surgen
dudas, debates (interpersonales o institucionales), que muestran que los objetivos
no estaban tan claros como parecían.

En esta primera fase se especifican los objetivos, se estudia el público a quien va


destinada la producción Multimedia, se estudian y comparan los trabajos similares
que ya existen en el mercado, se seleccionan los medios que se utilizarán, se
estudian los problemas legales derivados de la adquisición de los distintos medios
y finalmente se realiza un primera especificación del proyecto con la ayuda de un
Mapa de Navegación.

6 ' & * J' !$ '( # ' ( = ' @ #


7 B 7 &&% !( ' (X = 1X ( 2@X B @ #J %
1 \ 2?# %H ' % ' B (X ' ( & 6@ %D (" 2
D (" %8 & 4 %0" 2D (" 8 & %8 " 2@ (J @ B< B
1 ' ' HS B % 'S
+, *

Implica establecer una comunicación con el cliente que permita obtener una
descripción completa de lo que desea de la aplicación, la utilidad de la misma, la
necesidad que tiene el cliente. Esto implica responder las siguientes preguntas:

¿Cuál será la utilidad de la aplicación?


¿Qué contenidos deberá mostrar la aplicación?
¿Cuál es el problema o necesidad que da origen a la idea de desarrollar una
aplicación multimedia?
¿En qué ámbito se realizará su uso (académico, empresarial)?
¿Cuál será la forma de distribución de la aplicación: CD o internet?
¿Qué ventajas proporcionará la aplicación multimedia al contexto del negocio?
¿Cuáles de los objetivos son prioritarios y cuales se pueden lograr con un espacio
de tiempo mayor?
¿Es deseable la modificación o ampliación de los contenidos que se incluirán en el
producto multimedia?

! - "A+ B

Es necesario caracterizar el posible público que tendrá acceso a la aplicación


multimedia, muy probablemente implique la realización de una investigación
acerca de los gustos y tendencias de los potenciales usuarios. Para ello sería útil
contestar las siguientes preguntas:

¿Cuáles son los potenciales usuarios de la aplicación?


¿En qué rango de edad se encuentran?
¿Qué se espera que la aplicación les presente?
¿Qué posibilidades de interacción debería tener cada tipo de usuario?
¿Se requiere algún conocimiento preliminar del usuario para obtener el objetivo de
la aplicación?
¿Qué configuración media de computadores tendrán los usuarios?
¿En qué sitios podrá hacer uso del producto multimedia?
¿Cuáles son los gustos o preferencias de los usuarios o de cada tipo de usuario?
En este último punto valdría acudir a teorías sicológicas o estudios de mercado
que permitan caracterizarlos adecuadamente.

Los estudios de mercado que realizan múltiples compañías, proporcionan


información fundamental que permiten caracterizar al usuario, sus edades,
ocupaciones, gustos e incluso características económicas y sociales. Esta
caracterización permitirá proporcionar una primera valoración de las posibilidades
de aceptación del producto y por ende proyectar la comercialización e impacto de
mismo en el nicho de mercado, en caso de que la idea se plantee más que para
un cliente específico, como solución a un problema generalizado o como producto
de software comercial.

Es necesario hacer una búsqueda preliminar de aplicaciones que estén orientadas


hacia las mismas necesidades del cliente o que ofrezcan servicios similares a los
que desea el cliente, esto permitirá clarificar sus ideas, revisar los alcances y las
innovaciones que se plantean. Se deben buscar evaluaciones del producto, en
caso de que se dispongan de informes donde se analice el impacto o utilidad del
producto, esto permitirá encontrar inconvenientes, previos al desarrollo del
producto multimedia propio.

Diversos autores han definido formatos que permiten evaluar productos


multimedia como sitios web, software educativo o entornos virtuales de
aprendizaje, una recomendación es utilizar estas plantillas para organizar y
documentar esta revisión.

Entre las direcciones que podría consultar para revisar plantillas de evaluación de
software educativo puede visitar:
http://www.xtec.es/~pmarques/edusoft.htm
http://www.xtec.es/~pmarques/eva2.htm
http://www.ieev.uma.es/edutec97/edu97_c3/2-3-08.htm
http://discovery.chillan.plaza.cl/~uape/actividades/etapa2/software/doc/evalse.htm
http://entren.dgsca.unam.mx/excel/evalua1.html

Sobre evaluación de sitios web puede consultar:


http://www.webestilo.com/guia/articulo.phtml?art=43
http://www.nosolousabilidad.com/articulos/heuristica.htm

2)

En esta etapa se debe lograr un acuerdo acerca de los medios que estarán
presentes en el producto, como texto, gráfico, animaciones, sonido y video. Es
esencial estudiar la utilidad de cada uno en la unidad comunicativa del producto,
cada medio debe encontrar un espacio dentro de la coherencia del mensaje. Se
debe evitar usar medios simplemente por lograr “variedad” en el producto, cada
objeto visual o auditivo deberá tener una justificación para su presencia en el
producto, en términos de apoyar el mensaje que se desea comunicar.

Otro aspecto a analizar es la disponibilidad de dichos medios, su ubicación física


y el formato en el cual se encuentran (impreso, digital, fotografías), el responsable
de la unidad que lo debe suministrar, o definir el caso que se deban construir o
capturar por parte del equipo de desarrollo.

; 4

Es muy común encontrar productos que hacen uso de archivos de animaciones,


gráficos, imágenes, canciones y videos que fueron descargados de internet, si
bien algunos de los recursos que proporcionan internet son de libre uso, otros
están protegidos, por ello es necesario ser cuidadoso en el momento de definir las
fuentes de los medios. Aunque inicialmente puede ser más económico utilizar una
canción o video que circula por internet, a mediano o largo plazo puede acarrear
una demanda millonaria al cliente.

Es necesario reconocer los derechos de las diferentes fuentes de medios. En


caso de que todas ellas sean producidas o de propiedad de la empresa, esta
dificultad quedará salvada, pero se deberá hacer explícita la fuente dentro del
producto multimedia.

Acerca de implicaciones legales por el plagio de contenidos, imágenes y


dominios de internet le recomiendo visitar la página web
http://www.derecho.com/boletin/articulos/articulo0142.htm
Encontrará ejemplos interesantes de la aplicación de la ley de propiedad
intelectual en España.

*4

La construcción del mapa de navegación del producto implica hacer explícita en


un formato gráfico la secuencia de procesos que se realizará en el producto
multimedia. Este mapa se constituye en una herramienta supremamente útil para
socializar al cliente la propuesta, y posteriormente es el punto de partida
fundamental para la construcción del guión.

El mapa de navegación bosqueja las conexiones o vínculos de las diferentes


áreas de contenido y ayuda a organizar el contenido y los mensajes de la
aplicación. Además proporciona una tabla de contenido y una gráfica del flujo
lógico de la interfaz interactiva. Describe sus objetos multimedia y muestra qué
sucede cuando interactúa el usuario.

Para su representación se pueden utilizar variados modelos33 pero un manera


sencilla que puede cumplir con el objetivo inicial de socialización y formalización
se construye con un grafo donde cada nodo corresponde a una pantalla o
documento de interacción, de donde se desprenden aristas que permiten
representar las conexiones a los diferentes documentos o medios.

Con unas pocas estructuras básicas para los proyectos de multimedia se cubren la
mayoría de los casos que se presentan: lineales, jerárquicos, no lineales y
compuestos:

Lineal: El usuario navega secuencialmente, de un cuadro o fragmento de la


información a otro.

Jerárquica: El usuario navega a través de las ramas de la estructura de árbol que


se forma dada la lógica natural del contenido.

No lineal: El usuario navega libremente a través del contenido del proyecto, sin
limitarse a vías predeterminadas.

Compuesta: Los usuarios pueden navegar libremente (no linealmente) pero


también están limitados, en ocasiones por presentaciones lineales de películas o
de información crítica y de datos que se organizan con más lógica en una forma
jerárquica.

1 ' ' ' '( (X ' "& ' F; J G


" &))$$$ ( ) !) ' () ' () # )( ' 5 ) "
3 S1 1 .D0]4;I V497;I ((= ^ (( ( 3 SD X 7C>;D. @?4IV>;I
((="*^ (( (
Figura 12 Tipos de navegación

Muchos productos multimedia son esencialmente no lineales. En estos sistemas


de navegación los espectadores tienen la libertad de saltar a un índice, un
glosario, diferentes menús, el módulo de Ayuda o Acerca de, o incluso al mapa de
navegación. Con frecuencia es importante dar a los espectadores la noción de
que tienen la libertad de escoger. Esto les da poder dentro del contexto del tema
que se trata.

Es importante darle a los usuarios un sentido de libertad, pero demasiada puede


desconcertarlos e incluso se pueden perder. Por ello debe tratarse de mantener
los mensajes y contenido organizados a través de un flujo constante de los temas
principales, dejando que los usuarios hagan bifurcaciones para explorar más
detalles. El usuario debe tener siempre un punto seguro con botones que lo lleve a
lugares esperados y construya un escenario familiar para que puedan regresar ahí
en cualquier momento.

C ). ( 5 " #

Actividades: Definir objetivos


Caracterizar el público
Estudiar productos similares
Seleccionar los tipos de medios
Analizar las implicaciones legales del uso de los
medios
Construir el mapa de navegación

Productos de la etapa: Documento con las metas de la aplicación


(especificación de requerimientos)
Documento con la tabla de contenidos de la
información que se desea mostrar.
Documento con la descripción de los diferentes
tipos de usuarios y sus caracteristicas (usuario
arquetípico)
Mapa de navegación

! )D /" '
A partir del mapa de navegación y de la interacción continua con el cliente se ha
logrado una mayor claridad y una visión común de lo que se desea en el proyecto.
Es el momento de iniciar el diseño del mismo y de realizar la planeación necesaria
que organice el trabajo del equipo de desarrollo.
A partir del estudio del mapa de navegación y de los requerimientos expresados
en la etapa anterior se debe proceder a formalizar 4 aspectos fundamentales: el
diseño arquitectónico, el guión multimedia, el diseño de navegación y el diseño de
interfaz.

! E 8

Es necesario identificar los diferentes módulos o componentes que conformarán la


aplicación multimedia, así como las relaciones que se establecen entre sí para
lograr el objetivo inicialmente planteado para el producto. La especificación de
estos componentes y sus relaciones es lo que se denomina diseño
arquitectónico.

En otras palabras el diseño arquitectónico se asemeja al plano de una


construcción, donde se encuentran los diferentes elementos fundamentales y su
ubicación. Esta identificación de módulos se realiza tomando como base el mapa
de navegación y el listado de requerimientos obtenido en la definición e interviene
de forma significativa la experiencia del productor de materiales.

Los módulos o componentes son una unidad estructural que cumple con algunas
de las funcionalidades requeridas para el producto. Por ejemplo: En un producto
multimedia que requiere que sea posible la modificación y alimentación de las
preguntas, que se presentan en un proceso interactivo de evaluación de los
contenidos, se podría definir como un elemento estructural un módulo de
administración de la base de datos, una de cuyas funciones se corresponde con la
manipulación de las preguntas que conforman la parte evaluativa del producto.

En el diseño arquitectónico del producto es necesario lograr un equilibro entre lo


general y lo particular, de manera que la descripción sea lo suficientemente
funcional para los encargados de programar y producir el material, pero no tan
detallado que se convierta en una maraña de relaciones que no permite
comprender la estructura general.

Existen diferentes modelos de representación del diseño arquitectónico, que


proporcionan formas gráficas que pueden ayudar a formalizar este diseño, ente
ellos modelos estructurales, modelos de marco de trabajo, modelos dinámicos,
modelos de proceso y modelos funcionales34. Algunos diagramas que
tradicionalmente han sido utilizados y que son muy intuitivos para su realización
son los diagramas HIPO o diagramas de flujo de datos. Si se desea realizar un
diseño orientado a objetos o mediante la utilización de patrones de software, se
deben seleccionar modelos acordes con este tipo de arquitecturas.

HD; 1 .4 D * C* J' !$ P ! M & <( ( 1 (@ $ 7 _;'(X 9 &J


En la siguiente figura se presenta un ejemplo del diseño arquitectónico que
corresponde a un producto multimedia de aprendizaje, también conocido como
Material Educativo Computarizado (MEC).

Figura 13 Diseño arquitectónico de un MEC

Como se puede apreciar se presentan dos módulos principales denominados


Administración y Micromundo. La utilidad del módulo de Administración
corresponde a las facilidades de modificación y alimentación de los contenidos, las
preguntas y los usuarios del material. En cuanto al módulo de Micromundo, es el
encargado de proporcionar la interacción con el usuario para lograr el aprendizaje.
Para ello se compone de un Módulo de presentación de contenidos, de
evaluación y de juego interactivo. Este esquema de presentación es bastante
sencillo y da una idea general de los elementos que posteriormente serán
componentes de desarrollo del producto.

!! 4

A continuación se presentan algunos elementos claves para la construcción del


guión del producto multimedia, a partir de lo mostrado por Jesús Valverde
Berrocoso35 y Julio Miró Guillén36.

Todo proyecto de multimedia tiene contenido. Es aquello de lo que se hacen sus


mensajes. También es la información y el material que son la esencia, que definen
el tema del proyecto. En la práctica, el contenido puede ser cualquiera o todos los
elementos de multimedia (fotografías, vídeos, pistas de audio, etc). En la

.> ;D6; ;DD?9? ? 3 S 6 \ ' '( # '


=# ^ , F; J G" &)
)$$$ , )'' ( ( )0 ( * -;' ( # )* " K (" '
( . '
1 CD` @PC>>a4 3 H %( 7 & ' 1 ' H (' F; J G
" &) )$$$ / ( )= K (" ' ( 1 % '
construcción de materiales multimedia es recomendable convertir el contenido que
se desea comunicar en una historia, narración, suceso, etc., a través del cual se
pueda contar.

Los siguientes puntos que ya se han definido en la etapa anterior son esenciales
para delimitar los contenidos del proyecto:

La idea general (“Quiero que .... haga/diga/conozca)


La audiencia (no perder de vista quiénes son los usuarios) lluvia de ideas
(sobre cuál es la mejor manera de abordar el tema)
Metas y objetivos (el mensaje último del proyecto y los pasos específicos que
los usuarios deben tomar para alcanzar esas metas)
Tratamiento (formal, informal, cuál será la apariencia visual del proyecto, serio,
humorístico, en pasado, presente o futuro, etc.)
Uso de metáforas. Para un proyecto de multimedios interactivo, la metáfora o
metáforas usadas pueden proveer una fuerte base para un producto. Las
metáforas también pueden hacer la interacción más cómoda y relevante para
el usuario. Así, se pueden tratar temas como el tiempo como a figura de un río,
la vida con la figura de una carretera, la cultura mexicana moderna con la
figura del juego de fútbol.
Esquema de contenidos. El “índice” de lo que contendrá el proyecto –hasta
donde se desea llegar-

Esto se plasma en el argumento, un resumen de lo acontecido en la narración o


hecho inventado. Cuando después de ver una película se cuenta el contenido a un
amigo o amiga lo que se hace es describir el argumento de dicha película, es
decir, se realiza resumen en el que se presenta a los personajes y las acciones
más relevantes.

Tras definir este argumento se elabora el guión multimedia. Si bien, la utilización


de una historia y personajes como fundamento para la narración del contenido es
una tendencia generalizada en el desarrollo multimedia, en algunas aplicaciones
como sitios web multimedia no parecen tan factibles de realizar. Aún así el guión
se torna fundamental para contar la historia de la navegación en el sitio, y las
diferentes posibilidades de acceso a la información que el usuario final tendrá en
la aplicación.

Por tanto, la construcción de un guión es todo el proceso que conduce a una


descripción detallada de todas y cada una de las escenas del producto multimedia.
De modo sintético, un guión es una historia contada en imágenes e implica, por
tanto, la narración ordenada de la historia que se desarrollará en el producto. Se
plantea de forma escrita y contiene las imágenes en potencia y la expresión de la
totalidad de la idea, así como las situaciones pormenorizadas, los personajes y los
detalles ambientales. El lenguaje que se ha de emplear ha de ser visual y sonoro,
no literario. En este primer acercamiento al concepto de guión se mostrarán
algunos fundamentos, su desarrollo completo se asume en el capítulo 3.

Los guiones pueden ser originales o adaptados. El guión original se desarrolla


sobre una idea salida exclusivamente de la imaginación del autor y el adaptado se
construye a partir de una obra original, que se reproduce con total fidelidad.

Dentro de la categoría de adaptados existen guiones basados en una obra


literaria, que mantienen la historia pero reducen el número de situaciones y/o
personajes; guiones inspirados en una determinada obra, que toman como punto
de partida una situación o personaje y desarrollan una nueva estructura; y, por
último, adaptaciones libres que siguen el hilo de la historia, el tiempo, los
personajes y las situaciones creando una nueva estructura, enfatizando
determinado elemento dramático del original.

En un guión audiovisual tienen que estar presentes los siguientes elementos (Bou,
1997):

1. Discurso: la información a transmitir, algo que contar. El discurso incluye la


forma en que aparecen y se suceden todas las imágenes, textos, sonidos y demás
elementos en los que se apoya el mensaje. Si entendemos un multimedia como
una serie de estímulos dirigidos a una audiencia, la forma en que el guionista
organiza dichos estímulos es el discurso.

2. Dramatización: introducir conflictos y sentimientos. Sin dramatización se pierde


el interés en el espectador. El audiovisual puede tener buenas imágenes, un
sonido espectacular, estar bien estructurado, pero carecer de "gancho". Hay que
tocar las fibras sensibles del destinatario. No se trata, por tanto, simplemente de
transmitir información o mostrar imágenes, se debde construir una narración. Un
buen guionista debe ser un buen narrador. (Una novela es excelente no sólo
porque cuenta una historia interesante, sino porque se narra de forma que cautiva
al lector).

3. Coherencia argumental: se construye a partir de un esquema de sucesos


lógico, que detalla cómo se desarrolla la acción de cada personaje y sus
reacciones. En caso contrario, la narración resulta poco creíble o inverosímil y
provoca la hilaridad o la confusión en el receptor. La veracidad y la credibilidad no
deben confundirse con realismo. De lo que se trata es que el receptor acepte el
punto de partida, entrando, así, en el juego.

4. Mensaje: todo multimedia debe transmitir unos valores éticos o una


interpretación de la vida. Esto puede hacerse explícitamente (de modo muy
evidente con mensajes concluyentes claros), o de modo más sutil (provocando la
reflexión crítica del usuario).

Un guión multimedia requiere de una exhaustiva investigación sobre el material


que ha de utilizar. Es preciso documentarse racional, estética y científicamente
para seleccionar, posteriormente, lo esencial. Un riguroso método de trabajo hace
que el guionista no sea sólo un escritor sino un estudioso que descansa en el valor
científico de los datos reales.

El guionista debe ser un atento observador de la vida diaria. Normalmente, los


detalles más insignificantes pueden tener un inestimable valor. El guionista, de los
hechos cotidianos, tiene que saber extraer el hecho significativo, lo que es original.

!% E *4

El diseño de la navegación consiste en definir los elementos de interacción entre


el usuario y el sistema, enlaces y tipos de enlaces entre los nodos, agrupación de
los nodos por categorías o propiedades, y respuestas del sistema ante peticiones
del usuario.

Para diseñar la navegación se puede usar el vocabulario gráfico propuesto por


Jesse James Garrett para la descripción de la arquitectura de la información y el
diseño de la interacción37.

Se deben definir los elementos de interacción en la aplicación multimedia: enlaces,


opciones o menús de navegación, componentes de interacción (botones, cajas de
texto, ....), etc.

La interacción usuario-multimedia debe poder realizarse con la menor carga


cognitiva para el usuario, por lo que se recomienda:

Evitar la sobrecarga memorística: Los menús o barras de navegación deben


contener un máximo de 7 opciones diferentes.
El usuario debe poder predecir la respuesta del sistema ante su acción, para
ello el nombre de los enlaces y componentes de interacción debe ser
significativo y preciso. Los globos de texto (ToolTipText) pueden ser de mucha
utilidad en este sentido.
Se debe ofrecer asistencia al usuario en procesos de interacción complejos
(formularios, etc...).
Los mensajes de error deben ser explicados de forma clara y no alarmista,
indicando al usuario vías alternativas para resolver el problema.

!2 E 5-

Ya se tiene claridad en torno de la secuencia de lo que se mostrará en la

" &)
)$$$ ==* ) )# # ( )& ""
aplicación, el paso siguiente es definir el diseño de la interfaz. Para este proceso
de diseño se han seleccionado los elementos que proporciona Pere Marques38
para aplicaciones de software educativo, estos se han generalizado para hacerlas
aplicables a las diferentes utilidades de los productos multimedia.

Por medio del entorno de comunicación, se realizará el diálogo entre los usuarios
y el programa. Para su concreción se considerarán cuatro apartados:

1. Las metáforas que se utilizarán para caracterizar el entorno: metáfora libro,


metáfora ciudad...

2. Primer diseño de las pantallas. El primer diseño de las pantallas más


significativas del programa se acostumbra a hacer sobre papel o bien en
soporte magnético mediante un editor gráfico. Incluirá ejemplos de las
pantallas de los diferentes módulos del programa (presentación, gestión de
menús, ayuda...), pero sobretodo mostrará las que se refieren a las actividades
interactivas del programa.

En general, al diseñar las pantallas se determinarán zonas que realizarán


funciones específicas y que se repetirán (si es posible) en todas las pantallas del
programa. Por ejemplo:

• Zona de comentarios. Normalmente consiste en unas líneas o una ventana


donde el programa comenta las actuaciones de los usuarios. Muchas veces es
el mismo espacio donde aparecen los mensajes de ayuda.
• Zona de órdenes. En esta zona, que también vendrá definida por unas líneas
o por una ventana, el programa indica a los usuarios lo que pueden hacer, las
opciones a su alcance. Puede incluir líneas con las opciones disponibles
(menús) o un espacio donde pueden escribir libremente las órdenes y
respuestas.
• Caja de herramientas. Esta zona realiza una función complementaria de la
zona de ordenes. Se encuentra frecuentemente en programas que tienen
algoritmos del tipo entorno y facilitan herramientas a los usuarios para que
procesen con una cierta libertad la información que aparece.
• Zona de trabajo. Ocupa la mayor parte de la pantalla. Es la zona donde
aparece la información principal que proporciona el programa y donde se
desarrollan las actividades fundamentales. En estas actividades conviene que
las preguntas, los comentarios y la zona de respuesta estén en una misma
pantalla para facilitar la comprensión.
• Uso del teclado y del ratón. Interesa crear un entorno de comunicación con el
programa que resulte muy fácil de usar y agradable. Para conseguirlo se debe
establecer una sintaxis sencilla e intuitiva y prever un sistema de ayuda para el

1 .DWP; @ H P. 6C ;b? C4 0DP90C ? @ X ' ( # %6 \ ! ( F; J G


" &))' $ % )& M )'' "
manejo del programa, determinando las principales teclas que se utilizarán, las
funciones básicas de los botones del ratón y la forma de comunicación de las
acciones y respuestas por parte de los usuarios.
• Uso de Otros periféricos. Se describirá la función de los diferentes periféricos
complementarios que se utilicen:
- Impresora. Puede proporcionar fichas de trabajo, informes, gráficos...
-Teclado conceptual. Facilita la comunicación con el ordenador, especialmente
a los más pequeños y en algunos casos de discapacidad.
- Lector de tarjetas. Transforma las tarjetas que introducen los usuarios en las
ordenes o respuestas. Este sistema facilita, por ejemplo, que los párvulos que
aún no conocen las letras puedan comunicarse con el ordenador mediante
unas tarjetas que codifican su significado por medio de colores y dibujos.
- Micrófono, reconocedor de voz, vídeo, CD-ROM, lápiz óptico, pantalla táctil,
módem, convertidores analógico-digitales, etc.

Con la definición del entorno de comunicación que tendrá el programa que se


tiene que elaborar prácticamente acaba el proceso de creación que implica el
diseño funcional de un programa; ya se dispone de toda la información necesaria
para redactar y planificar el proyecto.

!;" #

Una vez finalizada la fase de diseño del proyecto se descompone en diferentes


tareas, estimando la duración y el coste de cada una de ellas y a partir de estos
datos se estima la duración y el coste del proyecto. Para el desarrollo de esta
sección se utilizan los elementos proporcionados por el profesor Oscar Belmonte
Aume I39
Fernández de la Universitat J'

El siguiente es un listado completo de las tareas en que puede ser descompuesto


todo proyecto Multimedia:

• Revisión inicial con el cliente.


• Modificación de la especificación.
• Diseño de la interfaz.
• Creación del guión.
• Revisión con el cliente.
• Construcción del prototipo.
• Prueba con el cliente.
• Revisión del diseño.
• Creación de la imagen gráfica.

P4C ;D C0.03c.P1 ;C 6 ( (X X(' * 1 ' ' *' & & !


?( K < ' BF; J G
" &))$$$ = )+ ! )CQ )6 ( )0 )
H !( ( H % ( &'!
• Creación de las animaciones.
• Toma de fotografías.
• Revelado.
• Digitalización y retoque.
• Producción de audio.
• Digitalización y edición de audio.
• Producción de video.
• Digitalización y edición de video.
• Definición del escenario VR.
• Toma de fotografías del escenario.
• Revelado.
• Digitalización del VR.
• Retoque de la imagen preliminar.
• Creación de los nodos.
• Integración del escenario.
• Diseño modular.
• Programación.
• Depuración de errores.
• Integración de los módulos.
• Pruebas de integración.
• Demo al cliente.
• Distribución.

A cada una de las tareas que constituyen el proyecto se le asignará un


identificador que generalmente es un número natural.

Figura 14 Definición de actividades


Determinación de hitos

A partir del listado de actividades, se definen los hitos del proyecto. Estos hitos
definen puntos especiales donde se deberá disponer de un prototipo del producto
que pueda servir para mostrar al cliente los avances del producto y discutir con él
las modificaciones que se planteen. Estos hitos permitirán que el cliente observe
la evolución de su producto y en caso que aparezca un requerimiento no
contemplado al inicio, el equipo de trabajo podrá determinar la forma de tratar esta
contingencia.

Prelaciones y Duración de las Actividades.


Establecer prelaciones entre las distintas tareas significa identificar para cada
tarea aquella o aquellas tareas que forzosamente deben realizarse con
anterioridad, es decir, secuenciar las tareas que han sido identificadas en la fase
anterior.

Las prelaciones entre actividades se especifican mediante una tabla en la que


para cada tarea, se listan las tareas que necesariamente deben estar concluidas
antes de su inicio. Un ejemplo de dicha tabla se muestra en la siguiente figura:

Figura 15 Definición de prelación de las actividades

Una vez establecidas la prelaciones se estima la duración de cada actividad. La


estimación se puede realizar utilizando el método PERT. Según este método, la
duración de una tarea se extrae a partir de tres estimaciones de tiempo, la
duración más optimista (a), la más pesimista (b) y la más probable (m). Finalmente
el tiempo PERT se calcula como:
+ +
=

Asignación de Recursos.

Existen dos tipos de recursos a tener en cuenta en el desarrollo de todo proyecto


Multimedia, equipo humano y el equipo informático tanto hardware como software.

El personal que constituye el equipo humano se puede dividir en categorías


atendiendo a las habilidades que desarrollarán durante la ejecución del proyecto:
diseñador multimedia, escritor, experto en audio, experto en vídeo, especialista en
escenarios virtuales, programador, fotógrafo, director de proyecto, etc.

Para cada actividad e hito del proyecto es necesario especificar el personal


requerido, así como el tiempo de dedicación necesario para cumplir a cabalidad
cada tarea.

En cuanto al recurso tecnológico es necesario especificar las características


mínimas de los equipos requeridos. Además de cuantificar la compra de las
licencias necesarias para el tratamiento de los diferentes tipos de medios que se
requieren en la aplicación.

Calendario de Ejecución.

Establecer el calendario de ejecución significa determinar la secuenciación de las


tareas y su duración. La elaboración del calendario es pieza clave de toda
propuesta ya que, durante el desarrollo del proyecto, la actividad se debe ajustar a
lo especificado en el calendario.

Para ello es fundamental definir claramente el tiempo de realización de cada tarea.


Un método ampliamente utilizado para estimación de tiempos es el grafo ROY.
Una vez estimados los tiempos de desarrollo de tareas, se realiza el diagrama de
GANTT.

En este diagrama de GANTT deberán figurar además de las actividades, los


entregables correspondientes a cada hito definido para el proyecto.
Proporcionando un tiempo prudencial para la presentación y discusión con el
cliente de cada uno de los hitos del proyecto.
Se puede consultar una explicación completa sobre el grafo ROY y el
método PERT de estimación de tiempos, en el ejemplo mostrado en
http://www4.uji.es/~belfern/IX34/Documentos/Teoria/PlanificacionProyect
os.pdf

Determinación del Presupuesto.

Para determinar el presupuesto del desarrollo del proyecto multimedia se toma el


tiempo estimado para cada una de las tareas y se multiplica por la tarifa ($/hora)
del personal necesario para desarrollarla.

Existen, además del coste derivado del salario del personal, otros costes tales
como los derivados de la adquisición de algún tipo de media, alquiler de máquinas,
desplazamientos, etc.

Estudio Financiero

Para hacer más riguroso el proceso de planeación es adecuado desarrollar un


estudio financiero que permita identificar claramente el margen de beneficios para
la compañía, definiendo indicadores que faciliten el proceso de costeo del
proyecto, la relación costo/beneficio, e incluso el retorno de la inversión.

El producto final de todo este proceso es un documento donde se encuentran


todas las características de diseño definidas, además del proceso de planificación,
este documento podría tener la siguiente estructura de contenidos:

• Presentación y portada. En ella se indica el título del proyecto, la fecha y el


nombre de la empresa.
• Índice. En el índice se enumeran las partes de que consta el proyecto para su
rápida localización dentro del documento.
• Síntesis. Un resumen donde se describe, de forma breve y concisa, el
proyecto, el calendario de ejecución y el presupuesto de realización.
• Objetivos. En esta sección se describe el problema al que se va a dar solución.
Especificación del proyecto. Se proponen una o varias soluciones y se toma la
que, de manera razonada, se considere más conveniente.
• Calendario de ejecución. Este puede ser la versión íntegra del calendario
elaborado o bien, cosa que siempre es más conveniente, una versión reducida
del calendario de ejecución del proyecto.
• Presupuesto. Detalle del presupuesto elaborado en la fase anterior.
• Estudio de viabilidad. Consiste en demostrar, o intentar demostrar, que el
modo de abordar el problema para obtener la solución deseada es posible.
• Contrato. Es conveniente que el contrato sea revisado siempre por un
abogado.

! ). !( E #"

Actividades: Realizar el diseño arquitectónico, de navegación


e interfaz de la aplicación multimedia
Construir el guión
Planear el proceso de desarrollo de la aplicación
multimedia. Esta actividad incluye un proceso
de definición de actividades, cuantificación en
términos de tiempo y dinero requeridos.

Productos de la etapa: Documento con el Plan del proyecto para


presentar al cliente
Documento interno de Estudio financiero

% "& '
Como es de suponerse en la etapa de producción se desarrolla cada tarea
planeada para crear el producto terminado. Se adquieren los diferentes medios,
se programan las interacciones y se ensambla el producto final. Durante el
proceso de producción es muy posible que el cliente proporcione nuevos
requerimientos o comentarios sobre lo ya precisado, es necesario considerar el
impacto de estos requerimientos, para no aplazar los tiempos de entrega
planeados.

% ). %("

Actividades: Adquisición de medios


Programación de las interacciones
Ensamble del producto.
Presentación de hitos y discusión con el cliente

Productos de la etapa: Hitos entregrables del proyecto


Producto ensamblado
2 "& )
Las pruebas del producto como en todo proceso de ingeniería de software
deberán ser rigurosas para evitar liberar un producto que presenta fallos en su
ejecución. Para ello es necesario diseñar una serie de casos de prueba que
contemplen los múltiples escenarios que pueden presentar en el uso del
producto40.

Algunas de las pruebas que se deben realizar se asimilan a las realizadas para
probar un sitio web41, los pasos principales serán:

Revisar los contenidos. Es necesario hacer una revisión exhaustiva para evitar
errores ortográficos, tipográficos, gramaticales e inconsistencias en el contenido
(figuras que no corresponden, referencias cruzadas, etc).

Revisar la navegación. Es necesario recorrer exhaustivamente cada camino


posible, para encontrar inconsistencias en la secuencia, ausencia de enlaces por
ejemplo al inicio, o al mapa de navegación, caminos sin salida para el usuario, etc.

Pruebas de cada módulo o componente. Se hace necesario verificar la


integridad del trabajo que realiza cada uno de los módulos, asegurando que su
funcionamiento independiente este acorde con las especificaciones iniciales y las
necesidades del cliente. Se deberán probar la integridad de la información
guardada en la base de datos, todas las posibles respuestas en los módulos
evaluativos, la coherencia de los puntajes, la actualización de los datos del
usuario, etc.

Pruebas de integración. Así como se prueba cada módulo individualmente, se


deben realizar pruebas una vez se van integrado los módulos, para verificar que la
transferencia de datos y la navegación entre los mismos se realiza
adecuadamente. Un elemento fundamental a considerar es la verificación de que
las modificaciones realizadas en la base de datos en el módulo de administración
se vean reflejadas en los otros módulos.

Prueba de funcionalidad global. Se verifica que las salidas generadas por el


productos sean las esperadas de acuerdo a los valores de entrada. Estas pruebas
se deben basar en casos prácticos. Estos casos prácticos proporcionan
escenarios con una alta probabilidad de descubrir errores en los requisitos de
interacción con el usuario.

Prueba de entornos y compatibilidad. En este caso el producto multimedia se

; & ( ' # ! ' ( (& H ' !$ ,& &


D* H C* J ' !$ P ! M & <( ( ( &J %
C ' (&
prueba en diferentes configuraciones de equipos, para ello se crea una matriz de
referencias cruzadas que define todos los sistemas operativos probables y
plataformas de hardware que podría tener el usuario. Entonces se llevan a cabo
las pruebas para descubrir los errores asociados con todas y cada una de las
configuraciones posibles. Son especialmente susceptibles las configuraciones del
monitor, las salidas de sonido, los plug-in que requieren algunas herramienta de
desarrollo como flash, java o quick time.

Pruebas con usuarios. En esta etapa se comprueba el producto con una


población de usuarios finales debidamente controlada y monitorizada, que
abarque todos los roles posibles de usuarios. El producto se pone en práctica con
estos usuarios y se evalúan los resultados de su interacción con el sistema para
ver los errores de contenido, de navegación, los intereses de usabilidad,
compatibilidad, fiabilidad y rendimiento.

2 ). 2(" +

Actividades: Definición de los casos de prueba


Conformación del equipo de pruebas
Definición de la plantilla de control y gestión de
errores.
Ejecución de las pruebas
Depuración de los errores

Productos de la etapa: Plan de pruebas


Plantilla para registro de errores encontrados en
las diferentes pruebas y con el seguimiento del
tratamiento realizado.
Aprobación de calidad por parte del equipo de
pruebas

; ) "&
En esta etapa se distribuye el producto y se monitorea su uso. Es necesario
establecer un canal continuo de comunicación que permita recibir continua
realimentación del uso del producto, con el fin de plantear nuevas versiones, o
tener en cuenta modificaciones necesarias a partir de cambios o configuraciones
no previstas en la definición inicial.

En este sentido es necesario valorar las opciones de ayuda que se implementaron


durante el software (¿son suficientes? ¿son adecuadas? ¿se comprenden?) para
definir nuevas alternativas que permitan facilitar el uso de la aplicación.
; ). ;(

Actividades: Distribución o entrega del producto al cliente


Establecimiento de políticas y procedimientos
para servicio al cliente
Definición de alternativas de soporte a usuarios
(vía telefónica, internet, etc)

Productos de la etapa: Documento con el procedimiento de servicio al


cliente
Plantilla para registro de solicitud de servicios y
sugerencias por parte del cliente

? ' =" &


Una vez finalizado el proyecto el equipo de trabajo deberá documentar la
experiencia, de manera que lo aprendido durante el desarrollo del producto le sirva
como experiencia para la toma de decisiones en futuros proyectos, o simplemente
como punto inicial para una discusión entre colegas. En todo caso, la idea de esta
etapa final es realizar un proceso de realimentación que sirva para tomar
correctivos en el diseño de los procedimientos internos de la organización.

). ( * >

Actividades: Recopilación documental


Reunión de puesta en común y realimentación
Cálculo de ingresos y comparación con el
estudio financiero planteado en la Etapa 2.

Productos de la etapa: Documento con el informe final de la experiencia


del proyecto.
Documento con las recomendaciones y cambios
sugeridos.
Documento con nuevos requerimientos del
producto o ideas de nuevos desarrollos.

. ! 8 +,

Como ya se habrá dicho en múltiples ocasiones o se puede derivar de lo mostrado


hasta el momento, la producción de materiales multimedia exige el trabajo de un
equipo multidisciplinario, capaz, consciente, cohesionado y motivado que permita
la aplicación exitosa de las etapas mostradas en el capítulo anterior.

Es indispensable lograr un trabajo coherente y coordinado entre todo el grupo, de


forma que se asegure el cumplimiento de los objetivos propuestos. Cada uno de
los roles previstos tendrá definidas unas tareas específicas, pero requiere la
comunicación y colaboración continua con los demás integrantes.

Se pueden encontrar múltiples conformaciones para este tipo de equipos de


trabajo, a continuación se presenta una de ellas, con la salvedad de que esta varía
en número de personas y roles dependiendo de la utilidad del producto multimedia
diseñado.

! & )
Se pueden distinguir los siguientes grupos de trabajo:

Gerente de proyecto: será el responsable del desarrollo del proyecto, así como
de los presupuestos, patrocinadores, horarios, programación de tareas, recursos,
facturación, etc.

Diseñador Multimedia: se encargará del contenido global del proyecto como


determinar los elementos que lo componen, decidir qué medios son apropiados
para presentar las pantallas, los botones de navegación, etc.

Diseñador de Interfaz: creará un dispositivo de software que organice el


contenido de la aplicación. Decidirá cual es el mejor camino para representar una
imagen, si se utilizarán menús jerárquicos, una pantalla tipo libro, etc.

Diseñadores gráficos: puede en un equipo haber uno o varios diseñadores para


el trabajo de retoque fotográfico, animación en 3D, ilustradores, fondos,
degradados, presentación general de una pantalla,etc.

Especialistas en audio y en video: Se encargan de las grabaciones,


optimizaciones, perfeccionamiento y puesta a punto de las imágenes de video y
sonidos. Utilizan equipos profesionales para captar imágenes o sonidos y luego
adaptarlos al medio (CD-ROM, por ejemplo).

Programador Multimedia: se encarga de ejecutar varias tareas, desde organizar


el código del programa hasta decidir los programas que se utilizarán para las
diferentes partes de la aplicación.
!! @$ & F
Para que el objetivo del producto multimedia se alcance es necesario lograr la
interacción de este grupo de personas, generando una visión común alrededor del
proyecto. De poco sirve que sólo el Gerente del proyecto tenga claro los objetivos
del mismo, es necesario que todos los roles que trabajarán en el proceso
conozcan, aporten y generen una dinámica de interacción y participación activa,
dado que, especialmente en este tipo de proyectos la creatividad es fundamental,
por lo tanto se debe favorecer ambientes propicios para despertarla.

En este mismo sentido Julio Miró Guillén42 proporciona una serie de lineamientos
interesantes alrededor de la dinámica de trabajo que se debe generar para lograr
un ambiente de trabajo productivo alrededor de proyectos hipermedia, que se
puede aplicar igualmente en proyectos multimedia. En esta sección se extraen
algunos apartes que se consideran fundamentales. El documento original de
Guillén trabaja alrededor de Chrodes, un hipotética compañía de producción de
hipermedios para la red, se han modificado las referencias a esta empresa para
facilitar la lectura. El documento completo se puede encontrar en internet en la
dirección mencionada en el pie de página.

!! #

La naturaleza de los proyectos multimedia exige un proceso de trabajo que ha de


suponer una suma de conocimientos que es mayor que la adición de los mismos,
es necesario que se produzca un reacción eficiente entre los diferentes elementos
del proyecto, a saber:
• El conocimiento que el cliente tiene de su negocio y de lo que quiere.
• El conocimiento que tiene el equipo de trabajo acerca de los medios, sus
recursos y posibilidades.

Cualquiera de estos dos factores de forma independiente no asegura las


condiciones para desarrollar exitosamente el producto. Es necesario que se de un
contexto para la integración de estos elementos a través de un proceso
interactivo. Esta interactividad se da, en el sentido de que se precisa un enfoque
y metodología que garanticen la densidad necesaria de intercambio entre el
equipo de trabajo y el cliente, intercambio de ideas, ilusiones, análisis,
información, etc como para darse la integración que se requiere.

Además, este proceso de interactividad se configura como un proceso iterativo,


pues es muy posible que no se disponga de antemano de todos los datos del
problema, en estos casos se comienza a elaborar definiciones parciales para
inducir ideas y reflexión e información, de manera que en el intercambio continuo

H %( 7 & ' 1 ' & (' 3 1 X@ S F; J G


" &))( ( B )(#)= "
de las mismas se vaya perfilando el proyecto, y así sucesivamente hasta que se
visualiza una alternativa óptima.

Este proceso iterativo se basa en la lógica de que:


1. El cliente realmente va entendiendo y sabiendo del todo, lo que necesita a
medida que el equipo de trabajo hace posible que se acerque cada vez más a
la naturaleza de lo que se está construyendo.
2. El equipo de trabajo no puede tener la seguridad de que las soluciones que
aporta responden a las necesidades reales del cliente, si no las va
contrastando con él, a medida que van tomando forma.

Este proceso interactivo e iterativo supone un proceso de trabajo en equipo que


permita tres elementos fundamentales:
• Gestionar bien las expectativas del cliente
• Tener una mentalidad profesional amplia
• Pensar y actuar como un equipo.

!!!3 + > *

El desarrollo exitoso de este tipo de proyectos lo constituye el hecho de adecuar


las expectativas que se le van generando al cliente en los sucesivos procesos de
desarrollo, con los resultados finales. En este sentido rige un principio de probada
eficacia a mediano y largo plazo, en la venta de servicios de valor añadido “tratar
de dar siempre más de lo que se promete”.

!!% 5

Es necesario construir un equipo de trabajo que lleve dentro de sí, una vivencia
profunda de lo que es y representa la tecnología y el lenguaje multimedia. Esto
sólo se obtiene a partir de la experiencia, a medida que se avanza, por tanto el
requisito del aprendizaje permanente es de importancia vital.

El desarrollo de proyectos multimedia implica algo más amplio que el mero hecho
de “hacer con el ordenador las mismas cosas que antes se hacían de otro modo”.
Para ello se requieren 3 elementos:

El conocimiento. La misión de las personas que integran el equipo de trabajo


incluye estar preparadas para procesar, sintetizar y aplicar una cantidad de
información virtualmente infinita, que comienza en el computador personal y se
extiende a la información que comparte cada uno de los roles de trabajo, la
información disponible en internet y la información que se comparte con el cliente.

La ausencia de hábitos mentales necesarios para sentirse permanentemente


actuando en este contexto, empequeñecería automáticamente los resultados que
se espera de cada persona y del equipo en conjunto, nadie da de lo que no tiene.

Las personas del equipo son interdependientes. Este entorno de trabajo


alrededor de conocimiento hace referencia no sólo a la información que puede
estar almacenada en las máquinas, esto implica desarrollar nuevas fórmulas de
comunicación, que suponen más densidad de contactos, hasta el límite de que la
producción llegue a ser el resultado de una permanente conversación creativa
entre los miembros del equipo, estén estos donde estén y basada en el
intercambio fluido de ideas plasmadas en textos, gráficos, secuencias, sonidos,
etc.

En este contexto, tiene poco sentido los afanes de protagonismo que se dan en
algunas personas antes de alcanzar su madurez profesional... de hecho, una de
las primeras lecciones que se deben aprender es la visión acentuada de
interdependencia entre los miembros del equipo de trabajo.

Hay que comunicar con transparencia, sin miedo, conscientes de que el éxito... o
será del equipo ... o no será.

Las personas del equipo estiman la Tecnología de la información. Tan solo


es posible construir un nuevo mundo interactivo virtual a quien entiende bien este
nuevo paradigma y domine los materiales que constituyen este nuevo mundo, es
decir, todos los recursos que implica el lenguaje de la multimedia.

Para que sean posibles el conocimiento y la interdependencia es preciso que


todas las personas del equipo de trabajo sean capaces de hablar un lenguaje
común, un fascinante lenguaje hecho de palabras y símbolos íntimamente unidos
a la acción, que se escribe antes en el pensamiento, que en cualquier otro soporte
y que por su riqueza, precisa de todos los medios técnicos disponibles en cada
momento para su transmisión.

Por tanto si se quiere construir con este lenguaje y comunicarse con él interna y
externamente, todos su integrantes, sin excepción, han de asumir su dimensión de
tecnólogos y no admitir, bajo ningún concepto la idea de que determinadas
herramienta de representación, diseñadas para el uso de millones de
profesionales de todo tipo, no están hechas para alguien del equipo, ya que esto
equivaldría casi a decir que un escritor considera que no es necesario saber
escribir para desempeñar su función.

Lo anterior es compatible con el hecho de que, lógicamente cada rol es más


especializado en determinadas aplicaciones. Lo importante es tener claro cual ha
de ser las mínimas habilidades que proporcionan el “cemento” tecnológico que le
da consistencia al equipo. El criterio para definirlo debería ser, la fluidez en la
transmisión de ideas que se precisa para sea eficiente.
Trabajando todos con esta mentalidad, además de optimizar la planificación de los
trabajos, al intensificar la densidad y frecuencia de la comunicación, el equipo, en
su conjunto, consigue un tiempo adicional que precisa para la reflexión y
creatividad.

!!2" # 8

Los conocimientos necesarios para desarrollar proyectos competitivos han de


residir en diversas personas, pero para que se produzca la integración real entre
ellas, estas personas han de saber actuar como una sola, hay tres ideas
importantes a considerar en este sentido: Apertura mental, trabajar todos con el
mismo centro y.

Apertura mental. Cada miembro del equipo ha de desarrollar los conocimientos


necesarios para entender la problemática que se presenta a los demás roles en el
desarrollo de su trabajo. De este modo estará en posición de demandar que se
haga los mismo con él, y se habrán puesto los fundamentos para iniciar el diálogo
creativo entre las distintas áreas de definición del proyecto.
Trabajar todos con el mismo centro. Es preciso evolucionar del esquema
secuencial, que ponía al cliente demasiado lejos de todos los integrantes del
equipo, hacia un esquema concéntrico en el que todos están con la vista puesta
en el cliente y sus necesidades reales, ciertamente comprometidos en aportarle un
valor agregado al producto.

Si bien, lógicamente por motivo de su función, habrá personas que tengan un


contacto más frecuente con el cliente que otras, esto no quiere decir que todo el
mundo en el equipo no deba tener una comprensión profunda de los porqué de
cada pormenor del proyecto y de su conexión con los fines del mismo.

Para lograr esto, es necesario que todos los miembros del equipo abandonen la
mentalidad de “la escasez” a favor de la mentalidad de “la abundancia”, que se
explican a continuación.

Mentalidad de la escasez sería por ejemplo hacer única y estrictamente lo que


corresponde a cada rol de trabajo, esto restringe la creatividad.

Mentalidad de la abundancia sería pensar que “somos un equipo, nadie me tiene


que decir cuando he de cubrir el área de un compañero porque se que los demás
harán los mismo cuando haga falta”.

Excederse compensa a todos. El excederse no hace alusión, necesariamente a


esfuerzos épicos, muchas veces consiste en cosas tan sencillas como tomarse el
trabajo de preguntar o indagar por la información que se debía aportar, sin
necesidad de pedirla, cuando se ve que esta información es necesaria para
realizar bien el trabajo o, por el contrario, en otras ocasiones consiste en
esforzarse por documentar abundantemente el trabajo propio, recalcando las
cuestiones importantes, aún cuando se supone que esta información ya debería
ser conocida por el destinatario.

En cualquier caso, una práctica que no falla para actuar en esta línea es lograr
que todos en el equipo adquieran el hábito de preguntarse, que pueden hacer
mejor ellos, antes que pensar en lo que pueden hacer mejor los demás.

!!;G - H *

El proceso que se debería desarrollar en el equipo de trabajo puede entenderse


como el hecho de identificar entre el conjunto de problemas/soluciones pensables,
aquel conjunto de problemas/soluciones que aportan el máximo valor a la
inversión del cliente.

Para lograr lo anterior, es fundamental realizar lo siguiente:


• Captar minuciosa y exhaustivamente la información, de todas la fuentes
posibles, en especial de las características y circunstancias del cliente y su
sector.
• Hacer que esta información evolucione de forma fluida por todos los actores
del proceso, estudiando con atención la información externa y las
elaboraciones de los diferentes integrantes, reflexionando sobre todo ello,
aportando creatividad, sintetizando, destacando los factores clave, evitando
ambigüedades en la redacción de textos, comunicando con rigor, claridad y
riqueza de medios (textos, gráficos, diagramas, enlaces, guiones, etc).. es
decir, pensando en las personas que han de trabajar con esta información.
• Lograr la mejor síntesis entre el conocimiento que el cliente tiene de su negocio
y el conocimiento que el equipo tiene de los medios, formando, preguntando,
haciendo pensar, e involucrando al máximo, a las personas claves de la
organización del cliente, atendiendo a la importancia que tiene su participación
en el proyecto.

Con estos elementos, unidos a la confrontación de los desarrollos intermedios con


el cliente y la correcta gestión del proyecto se van realizando las elecciones más
acertadas a medida que avanza el trabajo, alcanzándose la solución final óptima,
la cual se califica por el juicio de los usuarios.

Hay que destacar en este punto, el papel esencial que tiene la cantidad y calidad
de la comunicación que se produce a lo largo del proyecto, y recordar que para
que la comunicación funcione, no basta con un emisor que sepa explicar...también
es necesario un receptor que sepa atender y entender... Dado que, por motivos
de eficiencia gran parte de esta comunicación se realiza mediante multimedia,
gráficos, diagramas y escritos, esto último supone:
1. Que el que los elabora lo haga pensando en quienes han de utilizarlo
2. Que los que los reciben estudien atentamente este material antes de empezar
a desarrollar su trabajo. Y realicen todas las preguntas que consideren
necesarias para aclarar sus ideas.

De esto modo se evitarán errores del tipo de los que se comenten frecuentemente
con ideas brillantes e irrealizables tecnológicamente o con los recursos
disponibles. Todo el proceso de trabajo se mide por los resultados alcanzados, y
estos se miden en el grado de satisfacción del cliente.

!!

Las reuniones tienen una gran importancia en este tipo de proyectos, por ello se
ha de intentar realizarlas con el mayor profesionalismo para aprovechar al máximo
el tiempo que se les dedica. Se pueden distinguir dos tipos de reuniones, es
importante enfocar cada una de ellas según del tipo de que se trate.

Reuniones de creatividad, tipo lluvia de ideas.

Tienen por objeto sinergizar los enfoques de los distintos roles para dar con
abundantes ideas diferentes y mejores de las que puede tener cada uno de los
asistentes individualmente.

Está comúnmente aceptado que para que estas reuniones sean eficaces es
importante tener en cuenta tres reglas:
1. Hay una persona que las convoca y se cuida de que los asistentes hayan
asimilado la información necesaria sobre el tema como para pensar sobre
dicho tema con propiedad, para ello les aporta previamente un memorando con
los puntos clave, más la documentación complementaria que sea necesaria.
Además, se asegura de que tengan tiempo para estudiar todo lo entregado.
2. Durante el transcurso de la reunión nadie critica nada de lo que allí se propone,
para que de este modo no se interrumpa el flujo de ideas entre los asistentes y
la reunión resulte lo más estimulante posible
3. Todos los que asisten abordan la reunión sin afán de protagonismo y con
mentalidad abierta, es decir, orientados primordialmente a conseguir entre
todos ideas nuevas y mejores que las que lleva cada uno a la reunión, y
dispuestos a reconocer el valor de las aportaciones de los demás aunque éstas
no se les hayan ocurrido a ellos.

La persona que convoca y lidera estas reuniones se ocupa de aplicar y recordar


estas reglas de aprovechar al máximo todo lo que allí se produce, estimulando la
aportación del máximo de ideas, por disparatadas que puedan parecer en ese
momento.
Generalmente no se terminan estas reuniones con ideas perfiladas de lo que se va
a hacer, pero estimulan la creatividad de los responsables, ayudándoles a
concebir nuevamente ideas o reconducir otras, durante o después de la reunión.

Reuniones de estudio, consultivas, informativas, de coordinación, etc.

Es importante que quien las convoca y modera tenga presente de alguna manera
las siete fases que pueden distinguirse en una reunión, a partir de los tipos
mostrados (de estudio, consultivas, informativas, de coordinación, etc) y actúe
proactivamente para que en cada una de estas fases se realice lo previsto.

!!C

Es necesario partir de una propuesta inicial para convocar a la reunión, este plan
debería incluir como mínimo 4 aspectos:
• Quien convoca y coordina la reunión
• Asistentes
• Lugar y fecha
• Objetivos propuestos para la reunión

En la actualidad no le sobra tiempo a nadie, por tanto es importante que las horas
de reunión, especialmente las que se mantengan con el cliente sean lo más
productivas posible, para ello es bueno repasar y aplicar estos siete puntos
comúnmente aceptados como útiles para lograr que esto sea así:

1. Preguntar todo aquello que se considere importante sobre el proyecto, esto


implica llevar preparada la reunión de antemano.
2. Escuchar con los 5 sentidos, todo lo que dice el cliente, ya que hasta que no se
está totalmente familiarizado con el proyecto, no se dispone realmente de
criterio para discriminar “lo importante” de “lo accesorio”.
3. Entender bien, tanto lo que dice el cliente, como lo que quiere decir (no
siempre coincide) para ello no dudar en interrumpirle, cuando sea necesario,
con frases del tipo “veamos si he entendido bien lo que quiere decir...¿es
esto?”
4. Anotar con la mayor precisión todo lo importante de lo que se habla en estas
reuniones, para ello es bueno llevar preparada una gran cantidad de hojas en
blanco. No importa que parte de lo que se anote ya esté en la documentación
del cliente, pues se desean captar los matices que no suelen estar en los
materiales publicados. Tampoco importa pedir eventualmente unos instantes
para terminar de anotar una palabra o un dato, el cliente ha de entender que
ello forma parte del trabajo.
5. Repasar de inmediato todo lo escrito precisando el sentido de algunas frases,
completando otras con datos que aún se recuerdan, fijando ideas en el
momento en que se tienen frescas en la cabeza, etc. Realizar esta tarea unas
horas más tarde reduce exponencialmente su eficacia.
6. Comprobar con el cliente aquello que no haya podido queda claro tras de este
repaso, es cuestión de anotarlo como pregunta a realizar al cliente, y lo antes
posible contactarlo por el teléfono o por correo electrónico para pedirle estas
aclaraciones.
7. Pensar en todo lo hablado una vez se tengan todos los datos. Del mismo
modo que no es posible decir que se está familiarizado con un lugar, con el
mero hecho de haberle dado una hojeada al plano, sino hasta cuando lo
hemos recorrido en sus múltiples itinerarios. Tampoco se habrá entrado en el
negocio del cliente hasta que lo haya repasado repetidas veces mentalmente
desde sus distintos enfoques. Sin olvidar que en esta tarea el cliente lleva
mucha ventaja.

!! 5

Suponiendo que el responsable de la reunión, previamente a la misma, ha


aportado a los asistentes la documentación necesaria como para que asistan
preparados, gestiona su desarrollo teniendo en cuenta lo siguiente:

1 Presentar e introducir el Informa y sitúa al grupo de trabajo en el tema


tema que se va a analizar y sobre el que se piensa
tomar decisiones.

Explica algún documento elaborado


previamente y entregado con el orden del día
que sirva de base para la reflexión y discusión.
2 Proponer los objetivos Sugiere los objetivos que el grupo podría
de la reunión conseguir a lo largo de la reunión y fija una
duración prevista para la misma.

Plantea al grupo estos objetivos intentando


que los conozcan y se identifiquen con ellos.
3 Ofrecer
trabajo
un plan de Presenta al grupo una metodología activa y
que involucre a todos los asistentes, orientada
a facilitar el trabajo en equipo.

Sugiere una técnica de tratamiento de los


temas que facilite la resolución de los mismos
de una manera ágil y satisfactoria para todos.
4 Provocar
participación
la Controla la dinámica del grupo, vigilando a los
que intervienen demasiado e impiden que
otros participen.

Anima y suscita la intervención de los que


tienden a inhibirse.
5 Reconducir la discusión Respeta los ritmos del grupo y sus
y el debate intervenciones. Sólo interviene como
animador para hacer síntesis, recoger y
relanzar ideas y formular propuestas cuando el
grupo se inhibe, se cansa y se desvía de los
objetivos de la reunión.
6 Situar al grupo en las Presenta al grupo las diversas alternativas que
conclusiones han surgido a lo largo de la discusión.

Propone estrategias que conducen al


establecimiento de conclusiones.
7 Gestionar
decisiones
las Una vez tomadas las decisiones planifica con
el grupo su ejecución:
-Determinando tareas y actividades
-Estableciendo responsables y personas
implicadas
-Posibilitando recursos
-Fijando tiempos de realización.
-Proponiendo indicadores de eficacia.

. % 3

Y se han presentado exhaustivamente el proceso metodológico a seguir en el


desarrollo, y la dinámica de trabajo que se debe plantear para lograr un material
multimedia de calidad. Falta profundizar en otro aspecto es pieza fundamental en
el diseño: el guión. Si bien se hicieron algunos comentarios en el capítulo 1, en
esta sección se asume a profundidad los pormenores para la realización del guión
multimedia, a partir del desarrollo mostrado por Jesús Valerde Berrocoso43.

Como ya se había mencionado el guión multimedia corresponde a una descripción


detallada de todas y cada una de las escenas del amterial audiovisual. De modo
sintético, un guión es una historia contada en imágenes e implica, por tanto, la
narración ordenada de la historia que se desarrollará en el producto audiovisual.
Se plantea de forma escrita y contiene las imágenes en potencia y la expresión de
la totalidad de la idea, así como las situaciones pormenorizadas, los personajes y
los detalles ambientales. El lenguaje que se ha de emplear ha de ser visual y

6 \ ' '( # ' 3 # ' ( F; J G


" &)
)$$$ , )'' ( ( )
0( * -;' ( # )* "
sonoro, no literario.

% $ & <) & )( )& & /


) && &

La división clásica del relato en tres partes: planteamiento, nudo o desarrollo y


desenlace, está muy aceptada en la cultura occidental y es respetada de un modo
u otro por la inmensa mayoría de los relatos audiovisuales.

Aunque no siempre el orden de colocación de estas tres partes sea del todo lineal,
y pueda comenzarse por el final y reconstruir, después, la historia, lo más probable
es que al final del relato las tres partes puedan ser compuestas por el espectador
en su orden lógico, que ayudará a comprender la historia como una narración
lineal.

Planteamiento: Presenta al personaje o personajes principales en un contexto


mediante situaciones concretas. Estas situaciones (detonantes de la acción)
ponen en marcha el relato. Se trata de algo que afecta al personaje: tiene una
misión que cumplir, un problema, deseo o necesidad que le obliga a actuar.

Desarrollo o nudo: El suceso o circunstancia que ha servido de detonante nos


introduce en el segundo acto, en el que el personaje intenta conseguir su objetivo
o solucionar su problema por todos los medios, y se encuentra siempre envuelto
en un conflicto.

Desenlace: El clímax, o momento de máxima tensión, ha de llevar rápidamente a


la resolución de la historia en la que, de una u otra manera, concluye la trama.

% +

En el inicio de un audiovisual es necesaria la ambientación, es decir, una serie de


recursos que aumenten el interés, muestre de qué va la historia y se "enganche" al
receptor.

Todo audiovisual sin ambientación produce el mismo efecto que una película
empezada: ha perdido la oportunidad de ganarse al espectador.

En el guión se dispone de dos o tres minutos para dejar claro al espectador de qué
va nuestro audiovisual. Si el tiempo se agota, la audiencia perderá el interés y la
atención. Retener a una persona ante una pantalla es muy difícil y todo juega en
contra del guionista.

Existen diversos modos de abordar la ambientación:


Uso de personajes. Introducir un presentador o personaje protagonista de la
historia. Se puede establecer una situación "interna" (si el personaje vive en el
audiovisual) o "externa" (si el presentador se sitúa en una posición externa, como
un receptor más). En la ambientación se ha de mostrar claramente las cualidades
del personaje.
Acción iniciada. Se comienza asistiendo directamente a un punto del proceso de
los acontecimientos. En el cine, hay muchas películas que empiezan directamente
por un robo, una persecución o un hecho sorprendente.
Por paisaje. Iniciar un recorrido por los ambientes donde se desarrolla la acción.
Se busca transmitir una sensación acorde con lo que ocurrirá posteriormente.
Complicidad ideológica. Exponer un problema o una queja al principio del
audiovisual con la que el receptor estará de acuerdo o se sentirá muy identificado.
Es un recurso fácil y efectivo. Se trata de que el usuario sienta que el guionista
piensa como él: que enfocará el tema tal como él piensa que debe enfocarse.

% ! I , I I # 6 4

Tramas y subtramas

La forma narrativa de las producciones audiovisuales da lugar a una trama que se


puede denominar principal y que se ajusta a la estructura de planteamiento,
desarrollo y desenlace antes descrita. Pero en los guiones audiovisuales existen
otras tramas secundarias, o subtramas, que contribuyen a desarrollar la trama
principal, dando interés y emoción. Las subtramas carecen de sentido si su
desarrollo no influye, de manera determinante, en la evolución de la trama
principal.

Los personajes

Todos los relatos versan siempre sobre la historia de alguien o de algo. La


narración siempre tiene uno o varios protagonistas. En una historia de ficción
aparecen, generalmente, tres tipos de personajes:

• Protagonistas: sobre ellos recae la acción principal. Han de ser perfectamente


definidos.
• Principales: tienen un papel importante, pero no esencial para el desarrollo de
la historia.
• Secundarios: existen por necesidades del guión y sus papeles son
complementarios de los protagonistas y principales. Tienen valor como piezas
del argumento.

La situación
El personaje está situado en un escenario concreto, en un ambiente determinado y
con otros acompañantes. El decorado y el ambiente añaden información sobre el
personaje, así como sus posturas, actitudes y su disposición con relación a otros
personajes que le identifican.

La acción

La acción del personaje no sólo se expresa mediante la actuación física, sus


gestos y sus movimientos corporales. La acción puede ser:

• Interna: pensamientos y sentimientos de los personajes.


• Externa: actuación física del personaje (gestos y movimientos).
• Lateral: lo que sucede en el entorno donde se desarrolla la acción del
personaje.
• Latente: la acción se desarrolla en off, es decir, no se ve en pantalla, pero el
receptor es consciente de que se está desarrollando mientras ve otra escena
diferente.

Los diálogos

El diálogo audiovisual es diferente al que establecen las personas en la vida


cotidiana. El diálogo audiovisual va al grano, es directo y claro, expresando sólo lo
que interesa al desarrollo de la historia que se cuenta.

El mejor diálogo es aquel que contiene exclusivamente información que interesa a


los personajes y al espectador, considerando que es sólo una parte del mensaje,
ya que la imagen también aporta información y debe evitarse la redundancia.

% ! 9 ( #

La elipsis

Es un mecanismo narrativo que consiste en presentar únicamente los fragmentos


significativos de un relato. Consiste en la supresión de las piezas del relato que
pueden deducirse a partir de informaciones posteriores o anteriores (Bou, 1997).

Es muy importante para eliminar de las narraciones todas aquellas acciones


previsibles y cotidianas. Además, permite ahorrar infinidad de tiempo entre
distintas escenas y secuencias. Lo habitual, en un audiovisual de unos pocos
minutos, es contar una historia que puede haber transcurrido durante días,
semanas, meses, años e, incluso, siglos.

La elipsis es consustancial con la esencia del audiovisual, donde se puede


representar generalmente escenas sugerentes y no secuenciales, que alargarían
las secuencias narrativas tanto como la vida misma.

Sólo se deben plantear no recurrir a la elipsis cuando se tienen serias dudas sobre
si la continuidad del discurso va a verse afectada. Lo que el receptor puede
imaginar siempre será más realista para él que lo que explícitamente pueda ver en
la pantalla. (Compárense, por ejemplo, las elipsis del filme de Hitchcock "Psicosis"
con una película de terror como "Martes 13" o similar).

En la actualidad, los receptores son capaces de ubicarse en cada momento en la


nueva situación espacio-temporal, sin necesidad de recurrir a artificios y
convenciones. En los inicios del cine, por ejemplo, se recurría al rótulo separador
para orientar a los espectadores en los cambios temporales. Hoy en día, esto es
innecesario gracias a la familiaridad de los espectadores con el recurso narrativo
de la elipsis.

Existen dos tipos de elipsis (Bou, 1997):

• De estructura. En las que se omite una parte de la historia que se está


narrando.
• De contenido. Se omite alguna información que no se puede (o no se quiere)
hacer explícita.

Modos de transición

Para realizar en la práctica la elipsis entre distintas escenas, existen muchos


recursos que se caracterizan por aportar valores expresivos diversos y que se
repasaran a continuación.

Corte. Hace referencia al ensamblado de una imagen con otra por yuxtaposición
simple, es decir, que a una imagen nítida le sucede otra de las mismas
características. Es la transición más sencilla e imprime un carácter dinámico en la
asociación de dos situaciones. Su principal fuerza expresiva radica en la
instantaneidad.

El sistema ideal de paso de una escena a otra es aquel que pasa desapercibido
para el espectador ya que si los cortes son bruscos, puede distraerse la atención
del espectador rompiendo la ilusión de presenciar una acción continua e
ininterrumpida. Por corte se puede pasar de una vista a otra, de un escenario a
otro. La edición por corte conduce la acción suprimiendo lo que no es necesario
para el desarrollo dramático, debiendo hacer comprensible a los espectadores la
evolución espacio temporal del relato, sin ninguna indicación externa a la propia
información audiovisual.

Encadenado. La transición entre dos escenas es más suave. Consiste en ver


cómo una imagen se desvanece mientras una segunda imagen va apareciendo.
Se utiliza, entre otras posibilidades, para pasar de un personaje al mismo en otra
situación. Indica pasos de tiempo no muy largos. Existen algunos encadenados
tan rápidos que pasan totalmente desapercibidos para el espectador.

Especialmente la publicidad hace continuo uso de esta técnica como sustitutiva


del corte, ya que facilitan una visualización más suavizada de la gran acumulación
de planos en pocos segundos, propio de los spots publicitarios televisivos. El
empleo correcto del encadenado permite realizar secuencias de montaje que
resumen largos períodos de tiempo, hace posible realizar elipsis sobre las
acciones de un mismo personaje y, permite, entre otras cosas, pasar de una
situación a otra distanciada en el espacio o en el tiempo.

Fundido. Consiste en la gradual desaparición de una imagen hasta dejar el


cuadro en un color. En un principio los fundidos iban de la imagen al negro, pero
en la actualidad funden a cualquier color. El fundido surge de la necesidad de
separar temporalmente los episodios del relato. La imagen siguiente aparece a
partir del color en que fundió la anterior, es decir, que si una imagen funde a negro
la siguiente viene de negro y se aclara progresivamente hasta conseguir un nivel
de tonos correcto. El fundido da una sensación de salto temporal más acusada
que el encadenado.

Desenfoque. Desenfocar una imagen y pasar a la siguiente de desenfocado hasta


una visión enfocada, es un recurso que se ha aplicado para indicar pasos de
tiempo cortos o cambios de uno a otro espacio. El desenfoque en visión subjetiva
es un recurso expresivo que sirve para indicar el desvanecimiento o pérdida de la
consciencia de un personaje y, en visión objetiva, se ha empleado para iniciar un
flash-back o vuelta atrás en el tiempo para pasar a ver los recuerdos del
personaje. Existe un empleo retórico utilizado para variar la atención de un motivo
o personaje enfocado a otro motivo o personaje que estaba fuera de foco.

Barrido. Es un efecto que se produce en la fase de registro de la imagen y que


consiste en un giro rapidísimo de la cámara que produce un efecto visual
semejante la paso de un elemento que ocupa toda la pantalla, tan deprisa que no
da tiempo a ver de qué se trata. El barrido se utiliza para pasar de un espacio a
otro de forma instantánea.

Cortinillas. Consisten en la utilización de formas geométricas para dar paso a


nuevas imágenes. Pueden tener formas muy variadas: horizontal, vertical, de
estrella, de iris, etc. Se utilizan para facilitar los cambios de escenario y sus
desplazamientos. Es una técnica en la que la segunda imagen "invade" la primera
y ha tomado múltiples formas: de arriba abajo, de izquierda a derecha, pasos de
página , etcétera. En vídeo y televisión son muy utilizadas. La gama de este tipo
de transiciones se ha prolongado extraordinariamente con el registro en vídeo y
las posibilidades que aportan los sistemas analógicos y digitales de
postproducción: mosaicos, vueltas de página, espirales, etc. Todos son recursos
susceptibles de ser utilizados en la elipsis.

% ! "& " ) @) ) 3 '


Según Bou (1997), la falta más grave de un multimedia es el aburrimiento. Puede
ser técnicamente imperfecto, puede hacer daño a la vista o puede escandalizar,
pero nunca debe aburrir. La postura más recomendable para diseñar un
multimedia es pensar que lo que se cuenta en él no interesa en absoluto a las
personas a las que está destinado. De este modo el guionista no tiene más
remedio que esforzarse para impactar continuamente al auditorio.

Es muy importante enfocar cada escena (viñeta, diapositiva-audio, secuencia


videográfica, pantalla de ordenador) como un problema. Una de las sentencias
más importantes de los guionistas cinematográficos es la siguiente: "se recuerdan
escenas, no películas". Bou (1997) enuncia los siguientes principios básicos en la
elaboración del guión multimedia:

Principio de necesidad

La elaboración del multimedia debe resolver un problema cuya solución


percibimos inmediatamente que requiere de un diseño audiovisual. Es decir, el
producto debe servir para algo (se debe justificar la existencia del audiovisual) y
ser multimedia (se debe justificar que esta forma de comunicación es la más
adecuada). Todo material que no surja de estas dos condiciones es gratuita,
carece de significatividad, corre el riesgo de ser ignorada.

Principio de atención

El objetivo del producto es mantener la atención de modo sostenido, es decir,


conseguir que el usuario mantenga una actitud continua de expectación ante el
audiovisual.

La atención cognitiva se basa en el valor de la información suministrada. Para


conseguir la atención del espectador es necesario que:

• la información sea relevante


• la información esté bien organizada
La atención afectiva se fundamenta en el vínculo emocional que se establece
entre el usuario y el material audiovisual. Un recurso que contribuye
especialmente a mantener este tipo de atención es el argumento. Sembrar en el
usuario la inquietud por conocer el final. Enfocar el audiovisual como una
narración y hacer ver que lo que se cuenta es real, que puede afectar
directamente al usuario y que con el audiovisual va a encontrar formas de actuar o
de pensar en relación al tema.

Pero para mantener la atención también es muy importante el tratamiento del


ritmo. Si una información tiene un alto interés la narración de la misma podrá
realizarse a un ritmo más pausado. Es el caso de los documentales clásicos, que
son tremendamente descriptivos, y mantienen la atención en virtud del interés del
contenido que tratan. En el caso contrario están los dibujos animados que
transcurren a un ritmo trepidante. Estos últimos son un buen modelo para los
productos multimedia que se desarrollarán en el curso.

Principio de economía

El receptor del mensaje siempre es más inteligente y más rápido de lo que el


guionista supone. El principio de economía tiene cuatro vertientes:

a) Economía de tiempo. Evitar secuencias demasiado largas. En el lenguaje


audiovisual, unos pocos segundos son mucho tiempo. Este principio es muy difícil
puesto que obliga no sólo a narrar de forma breve y concisa lo que se quiere
expresar, sino también a decirlo en fragmentos brevísimos y densísimos. Por ello
hay que suprimir toda secuencia (viñeta, diapositiva, etc.) que:
• no diga nada absolutamente necesario;
• que se diga algo absolutamente necesario, pero no lo parezca;
• que reitere o alarge un mensaje que pueda expresarse más suscintamente.

b) Economía de espacio. El espacio donde se ubica la imagen debe ser


rentabilizado al máximo. Esto no se hace con la intención de ahorrar escenas, sino
debido a la necesidad de que los elementos tengan fuerza dramática. En la
imagen deben figurar únicamente aquellos elementos indispensables y con el
mayor tamaño posible.

Cuando en una escena se quiere abarcar demasiado (introducir demasiados


elementos en ella) se produce una percepción confusa del conjunto. Esto se debe
al mecanismo de la integración, es decir, a la capacidad para percibir mentalmente
la totalidad de un objeto cuando, de hecho, sólo hemos visto una parte de él.
Cuando se enseña sólo una parte del objeto, se logra una postura activa por parte
del individuo receptor. No puede evitar que su mente trabaje en la recomposición
del objeto y provoca que la imagen llame la atención. Si ofreciese todo el objeto a
la vista, el efecto es redundante: se ha suministrado al receptor información que él
podría deducir.

Por tanto, cada objeto que se incluye en escena sólo ha de ser visible en la
proporción suficiente para que sea identificable. Por otra parte, trataremos de
introducir un solo objeto (o muy pocos) en la imagen.
c) Economía conceptual. Los textos que acompañan a las imágenes no deben
sobreinformar al receptor. Hay que dejar que el destinatario del audiovisual piense.
La aplicación correcta de este principio consiste en transmitir cada uno de los
mensajes encontrando la manera más simple posible de hacerlo. Hay que
conseguir situarse en el lugar del usuario y adivinar qué cosas ya ha entendido sin
necesidad de que se las proporcione masticadas.

d) Economía de lenguaje. Se tiene la tendencia a ser demasiado exhaustivos y el


empeño en incluir en el guión hasta la última coma de la frase que se ha pensado.
El receptor es capaz de deducir el significado completo del discurso que
acompaña la imagen, y si no para eso se diseñan actividades educativas que
faciliten la asimilación de los mensajes.

e) Economía de espera. Respetar un ritmo rápido. Hay que evitar pausas,


interrupciones bruscas del ritmo de narración. Un ejemplo de aplicación de este
principio es cuando la imagen o el sonido van por delante el uno del otro. Es decir,
se ve algo de lo que todavía no se está hablando o se está hablando de algo que
todavía no se ve.

Principio de múltiple entrada (o multicanal)

El diseño de un producto multimedia no se limita a la simple transmisión de


información. Todo mensaje incluido en un audiovisual es asimilado por el usuario
en función de tres factores:

• Estructura de la información (complejidad adecuada a la capacidad del usuario)


• Impacto afectivo (los sentimientos con que el usuario recibe el mensaje)
• Experiencia previa (reacción ante información similar y cómo se integra
significativamente).

Por ello, se debe cuidar que el producto cree lazos afectivos con el usuario y que
su contenido esté en consonancia con lo que se supone que conoce el
destinatario final.

El principio multicanal establece que, para lograr una buena comunicación, hay
que utilizar todos los canales. En otras palabras, favorecer los diferentes estilos
perceptivos (hay quien prefiere como fuente de información las imágenes, otros el
sonido, etc.) Es esencial una integración de todos los elementos que componen un
multimedia. Por lo tanto, dos recomendaciones:

• Utilizar diferentes canales para transmitir el mensaje.


• Integración (o sincronización) de todos los canales para conseguir transmitir un
mensaje homogéneo.
%% )& & 3 ' $ $

La construcción de un guión es el proceso que conduce a una descripción


detallada de todas y cada una de las escenas del audiovisual. De modo sintético,
un guión es una historia contada en imágenes. El guión es previo a la realización
del audiovisual.

El siguiente es un ejemplo de la estructura del guión en el cómic:

Nº de viñeta Imagen Texto

En un parque público dos Cartucho: "Después de salir de


1 amigos están sentados en un clase Ernesto y Julián regresan a
banco y uno de ellos parece sus casas"
estar triste

Ernesto: "Y ahora, ¿cómo se lo


vas a decir a tus padres?
Julian se muestra
2 Julián: "Estoy hecho un lío. ¿Por
apesadumbrado y deprimido.
qué me tiene que pasar esto a
mí?"

... ... ...

Ahora un modelo de la estructura de un posible guión para un diaporama44:

Nº de Tiempo
Imagen Sonido Tiempo
diapositiva acumulado
En un parque
público dos amigos Voz en off: "Después
1 están sentados en de salir de clase 11" 11"
un banco y uno de Ernesto y Julián
ellos parece estar regresan a sus casas"

0S( ( ' # M ( & % ((X < ' ' & # # &


' & %( ( ' & B( ! '' % ( B (X ( '
triste Ruidos: pájaros y
Plano medio murmullo de gente
hablando
Música: "Sursum
corda" de F. Liszt.

Ernesto: "Y ahora,


¿cómo se lo vas a
Julian se muestra decir a tus padres?"
2 apesadumbrado Julián: "Estoy hecho 9" 20"
Primer plano un lío. ¿Por qué me
tiene que pasar esto a
mí?"
Música: íd.
... ... ... ... ...

Si lo que se desea es hacer es un vídeo el esquema del guión es el mismo, pero


en vez de ser la unidad la diapositiva es la secuencia.

Nº de
Imagen Sonido Tiempo
secuencia

Ruidos: pájaros y murmullo


Dos amigos salen de la de gente hablando; coches.
Facultad. Llegan a un Ernesto: "Y ahora, ¿cómo
1 parque y se sientan en un se lo vas a decir a tus 45"
banco. Julian se muestra padres?"
apesadumbrado Julián: "Estoy hecho un lío.
¿Por qué me tiene que
pasar esto a mí?"

Julián llega a su casa. Entra Música: Hora cero de


en la cocina y abre el Piazzolla
figrorífico. Su madre viene Madre de Julián
de la compra. Julián se va a (enfadada): "Hijo, podrías
2 50"
su cuarto sin decir ayudarme a colocar las
nada.Desde allí oye hablar a cosas que he comprado.
su madre. Se pone los ¡Cada día este chico está
cascos y sube el volumen de más raro! No hay quien le
su equipo HiFi entienda..."
... ... ... ...

El guión de un multimedia en soporte informático tiene una estructura diferente,


con columnas diferenciadas para imagen, sonido, texto y acciones (o
interacciones). En cada una de ellas hay que identificar el recurso digital (en forma
de archivo informático), así como los resultados de determinadas acciones sobre
zonas específicas de la pantalla. Obsérvese el siguiente modelo:

Pantalla nº 1
Nombre de los archivos de imagen, acompañado de una
breve descripción.
Por ejemplo:
Imagen
foto.jpg (imagen fija) - Niños jugando con una pelota.
video.avi (imagen en movimiento) - Personas en un parque
público.
Nombre de los archivos de sonido, acompañado de una
breve descripción.
Sonido
Por ejemplo:
aves.wav - ruido de pájaros en el bosque.
Nombre de los archivos de texto junto con la transcripción de
su contenido.
Texto Por ejemplo:
mirlo.txt - "Es el nombre común de una gran variedad de
aves que tienen casi todo su plumaje de color negro."
Indicar qué resultados realizan las zonas interactivas y a
partir de qué acción del usuario.
Por ejemplo:
Acción Botón01 - clic - ampliar foto.jpg
Botón02 - doble clic - avanza a la pantalla nº 2.
Botón03 - rol (el ratón pasa por encima sin pulsar clic) -
información ampliada sobre mirlo en texto.

&

BOU I BAUZA, Guillem. EL guión multimedia. Anaya Multimedia. Edición 1997.

MARTÍNEZ SÁNCHEZ, José Manuel e HILERA GONZÁLEZ, José Ramón


Modelado de documentación multimedia e hipermedia. (ccjrhg@cc.alcala.es y
ccjmms@cc.alcala.es) [En línea]
http://www.ucm.es/info/multidoc/multidoc/revista/cuad6-7/artmulti.htm. Fecha de
consulta: Marzo de 2005.

MIRÓ GUILLÉN, Julio. Proyectos Hipermedia. Manual de Procedimientos. [En


línea] http://www25.brinkster.com/jumiro Fecha de consulta: Mayo de 2005

ROSAS, Xanty. Diseño de Proyectos Multimedios. [En línea]


http://www.sin.itesm.mx/profesoresypersonal/dteda/documentos/CURSO%20TED
A%20Dise%f1o%20Multimedios.doc Fecha de consulta: Mayo de 2005.

UNIVERSITAT J’AUME I Documentación teórica de la asignatura Multimedia


dirigida por el profesor Oscar Belmonte Fernández [En línea]
http://www4.uji.es/~belfern/IX34/Documentos/Teoria/PlanificacionProyectos.pdf

VALVERDE BERROCOSO, José. Diseño de materiales educativos multimedia


jevabe@unex.es. [En línea]
http://www.unex.es/didactica/Tecnologia_Educativa/guion01.htm. Fecha de
consulta: Abril de 2005.
%( $" ) "& /
$ $

El éxito de una producción multimedia se obtiene a partir de la calidad de los


medios utilizados para comunicar efectivamente el mensaje. La creación de estos
medios exige una gran cantidad de conocimiento teóricos y técnicos,
especialmente en términos de formatos, compresión y estándares que permitan
generar medios adecuados a las necesidades y recursos tecnológicos disponibles.

En esta unidad se ha intentado reunir los principales aspectos teóricos y técnicos


de cada uno de estos medios, obtendidos a partir de diferentes fuentes expertas
en cada uno de los temas. Se espera que con este bagaje teórico y la práctica
realizada en los diferentes momentos de aprendizaje: individual, en pequeño
grupo y en gran grupo, se adquieran las habilidades necesarias para crear y
ensamablar los diferentes medios comunicativos, en una aplicación multimedia
que responde a la necesidad inicial, con un alto grado de calidad.

Propósitos
Proporcionar al estudiante los lineamientos tecnológicos y
comunicativos requeridos para la construcción de cada uno de
los elementos textuales, visuales y sonoros que hacen parte
de un proyecto multimedia, contribuyendo en el mejoramiento
integral de su producto multimedia final.
Objetivos
Que el estudiante construya textos, sonidos y videos
adecuados para la estructuración de su idea de proyecto
multimedia, de acuerdo con los parámetros recomendados
para su uso en proyectos multimedia y utilizando las
herramientas tecnológicas disponibles.
Competencias
El estudiante utiliza herramientas tecnológicas para la
producción de elementos textuales, visuales y sonoros de un
proyecto multimedia.
Metas
Una vez terminada esta unidad didáctica el estudiante estará
en capacidad de:
• Utilizar algunas herramientas tecnológicas para la edición
de texto, captura y edición de video y sonido, que harán
parte de proyectos multimedia.

" -,

Individual

Lectura autorregulada de la Unidad Didáctica realizando Fichas textuales, Fichas


de Concepto, y Mapas Conceptuales para archivar en el portafolio.
Participación en el Foro de discusión a partir de las inquietudes personales
generadas en la consulta internet realizada sobre el tema y aportando a la
solución de las dudas de los compañeros de grupo de curso.

Pequeño Grupo Colaborativo

Elementos multimedia para el proyecto multimedia del grupo, capturados


utilizando software de digitalización disponible en el CEAD.

Producto multimedia integrado en formato CD-ROM con su respectivo Manual de


usuario del producto multimedia.

Grupo de Curso

Evento de presentación de proyectos multimediales a la comunidad Unadista de


CEAD.

Aplicación de parámetros de coevaluación definidos en el grupo, a los proyectos


multimediales mostrados.

. .

Alrededor del color se han realizado numerosas investigaciones, y los expertos en


el tema son por supuesto los diseñadores gráficos, en esta sección se
proporcionan lo principios fundamentales de esta teoría en un lenguaje lo más
claro posible, utilizando para ello la conceptualización presentada por el Instituto
de Artes Visuales45, la Web del programador46 y Rafael Cebrián47.

Los colores forman parte de la vida misma, y el ser humano es uno de los seres
privilegiados de la Naturaleza por poder disfrutar de ellos. En cualquier momento
de la vida se están recibiendo constantemente impresiones de color, en la calle,
trabajando, navegando por internet, estas impresiones tiene la facultad de exaltar,
tranquilizar, de poner de buen humor o de inspirar pena. Es el mundo de color.

Newton (1642-1727) primero y Young (1773-1829) después establecieron un


principio que hoy nadie discute: la luz es color. Para llegar a este convencimiento,
Isaac Newton se encerró en una habitación a oscuras, dejando pasar un hilillo de
luz por la ventana y poniendo un cristal – un prisma de base triangular – frente a

" &)
)$$$ $ # ( )! ' )9?>?D 701
" &)
)$$$ ' $ ( ) ( ) &"&T [ . J( & (' & > ( 1
" &)
)$$$ & ' ( ) ( )( ) -( "
ese rayo de luz; el resultado fue que dicho cristal descompuso la luz exterior
blanca en los seis colores del espectro, los cuales se hicieron visibles al incidir
sobre una pared cercana.

Figura 16 Espectro con los 6 colores apreciados por Newton (violeta, azul, verde, amarillo,
naranja y rojo)

Unos años más tarde, el físico inglés Thomas Young realizó el experimento a la
inversa. En primer lugar determinó por investigación que los seis colores del
espectro pueden quedar reducidos a tres colores básicos: el verde, el rojo y el azul
intenso. Tomó entonces tres linternas y proyectó tres haces de luz a través de
filtros de los colores mencionados, haciéndolos coincidir en un mismo espacio; los
haces verde, rojo y azul se convirtieron en luz blanca. En otras palabras, Young
recompuso la luz.

Así, la luz blanca, esa luz que rodea al ser humano, está formada por luz de seis
colores; y cuando incide en algún cuerpo éste absorbe alguno de dichos colores y
refleja otros. Esto da lugar al siguiente principio: Todos los cuerpos opacos, al ser
iluminados, reflejan todos o parte de los componentes de la luz que reciben.

En la práctica, y para comprender mejor este fenómeno, se dirá que, por ejemplo,
un tomate rojo absorbe el verde y el azul y refleja el rojo; y un plátano amarillo
absorbe el color azul y refleja los colores rojo y verde, los cuales, sumados,
permiten ver el color amarillo.

El color es una sensación subjetiva y nadie puede asegurar a ciencia cierta que
percibe los colores igual que otro. De todas formas los hombres vemos más o
menos igual y partiendo de esta premisa se deberá estudiar la teoría del color.

Más allá de la mera identificación o asociación, el color también se puede emplear


para crear experiencias. El publicista representa el producto en su anuncio
mediante la forma, pero añade las cualidades del color. El color puede llegar a ser
la traducción visual de loss sentidos, o despertar éstos mediante la gama de
colores utilizados. Se podrá generar sensación de frío, de apetecible, de rugoso,
de limpio...

El color está presente en todos los aspectos de la identidad empresarial y de


marca. En la identidad, las empresas pueden hacer que el color sea el principal
elemento de su identidad utilizando un único color o una paleta de colores como
parte de su identidad visual. Si el color se emplea uniformemente en una serie de
elementos de la identidad, se termina convirtiendo en la rúbrica de la empresa.

Aprender a ver el color y obtener una interpretación de sus propiedades inherentes


ha de ser el punto de partida si se desea realizar un tratamiento eficaz de éste en
las distintas aplicaciones gráficas que se construyen.

) &" ' &$ & $


'$ 1)
Podemos ver las cosas que nos rodean porque La Tierra recibe la luz del Sol, esta
estrella inunda constantemente el planeta con su luz, y gracias a ella es también
posible la vida.

La luz del Sol está formada en realidad por un amplio espectro de radiaciones
electromagnéticas de diferentes longitudes de onda, formando un espectro
continuo de radiaciones, que comprende desde longitudes de onda muy
pequeñas, de menos de 1 picómetro (rayos cósmicos), hasta longitudes de onda
muy grandes, de más de 1 kilómetro.

El ser humano tan solo es capaz de visualizar un subconjunto de ellas, las que van
desde 380 (violeta) a 780 nanómetros (rojo), se apreció Newton en experimento.

Figura 17 Espectro de la luz solar

Cada longitud de onda define un color diferente (colores de emisión). La suma de


todos los colores (longitudes de onda) da como resultado la luz blanca, siendo el
color negro u oscuridad la ausencia de colores.

En el fondo del ojo existen millones de células especializadas en detectar las


longitudes de onda procedentes del entorno. Estas células, principalmente los
conos y los bastoncillos, recogen las diferentes partes del espectro de luz solar y
las transforman en impulsos eléctricos, que son enviados luego al cerebro a través
de los nervios ópticos, siendo éste el encargado de crear la sensación del color.

Los conos se concentran en una región cerca del centro de la retina llamada
fóvea. Su distribución sigue un ángulo de alrededor de 2° contados desde la fóvea.
La cantidad de conos es de 6 millones y algunos de ellos tienen una terminación
nerviosa que va al cerebro.

Los conos son los responsables de la visión del color y se cree que hay tres tipos
de conos, sensibles a los colores rojo, verde y azul, respectivamente. Dada su
forma de conexión a las terminaciones nerviosas que se dirigen al cerebro, son los
responsables de la definición espacial. También son poco sensibles a la intensidad
de la luz y proporcionan visión fotópica (visión a altos niveles).

Los bastones se concentran en zonas alejadas de la fóvea y son los responsables


de la visión escotópica (visión a bajos niveles). Los bastones comparten las
terminaciones nerviosas que se dirigen al cerebro, siendo por tanto su aportación
a la definición espacial poco importante. La cantidad de bastones se sitúa
alrededor de 100 millones y no son sensibles al color. Los bastones son mucho
más sensibles que los conos a la intensidad luminosa, por lo que aportan a la
visión del color aspectos como el brillo y el tono, y son los responsables de la
visión nocturna.

Existen grupos de conos especializados en detectar y procesar un color


determinado, siendo diferente el total de ellos dedicados a un color y a otro. Por
ejemplo, existen más células especializadas en trabajar con las longitudes de
onda correspondientes al rojo que a ningún otro color, por lo que cuando el
entorno en que nos encontramos nos envía demasiado rojo se produce una
saturación de información en el cerebro de este color, originando una sensación
de irritación en las personas.

Cuando el sistema de conos y bastoncillos de una persona no es el correcto se


pueden producir una serie de irregularidades en la apreciación del color, al igual
que cuando las partes del cerebro encargadas de procesar estos datos están
dañadas. Esta es la explicación de fenómenos como la Daltonismo. Una persona
daltónica no aprecia las gamas de colores en su justa medida, confundiendo los
rojos con los verdes.

Debido a que el proceso de identificación de colores depende del cerebro y del


sistema ocular de cada persona en concreto, es posible medir con toda exactitud
la longitud de onda de un color determinado, pero el concepto del color producido
por ella es totalmente subjetivo, dependiendo de la persona en sí. Dos personas
diferentes pueden interpretar un color dado de forma diferente, y puede haber
tantas interpretaciones de un color como personas hay.

En realidad el mecanismo de mezcla y producción de colores producido por la


reflexión de la luz sobre un cuerpo es diferente al de la obtención de colores por
mezcla directa de rayos de luz, como ocurre con el del monitor de un ordenador,
pero a grandes rasgos y a nivel práctico son suficientes los conceptos estudiados
hasta ahora.

!$ ) &
Los colores obtenidos directa y naturalmente por descomposición de la luz solar o
artificialmente mediante focos emisores de luz de una longitud de onda
determinada se denominan colores aditivos.

No es necesaria la unión de todas las longitudes del espectro visible para obtener
el blanco, ya que si se mezcla sólo rojo, verde y azul se obtiene el mismo
resultado. Es por esto por lo que estos colores son denominados colores
primarios, porque la suma de los tres produce el blanco. Además, todos los
colores del espectro pueden ser obtenidos a partir de ellos.
Figura 18 Colores primarios

Los colores aditivos son los usados en trabajo gráfico con monitores de ordenador,
ya que el monitor produce los puntos de luz partiendo de tres tubos de rayos
catódicos, uno rojo, otro verde y otro azul. Por este motivo, el modelo de definición
de colores usado en trabajos digitales es el modelo RGB (Red, Green, Blue).

Todos los colores que se visualizan en el monitor están en función de las


cantidades de rojo, verde y azul utilizadas. Por ello, para representar un color en el
sistema RGB se le asigna un valor entre 0 y 255 (notación decimal) o entre 00 y
FF (notación hexadecimal) para cada uno de los componentes rojo, verde y azul
que lo forman. Los valores más altos de RGB corresponden a una cantidad mayor
de luz blanca. Por consiguiente, cuanto más altos son los valores RGB, más
claros son los colores.

De esta forma, un color cualquiera vendrá representado en el sistema RGB


mediante la sintaxis decimal (R,G,B) o mediante la sintaxis hexadecimal
#RRGGBB. El color rojo puro, por ejemplo, se especificará como (255,0,0) en
notación RGB decimal y #FF0000 en notación RGB hexadecimal, mientras que el
color rosa claro dado en notación decimal por (252,165,253) se corresponde con
el color hexadecimal #FCA5FD.
Figura 19 Notación RGB de colores

Esta forma aditiva de percibir el color no es única. Cuando la luz solar choca
contra la superficie de un objeto, éste absorbe diferentes longitudes de onda de su
espectro total, mientras que refleja otras. Estas longitudes de onda reflejadas son
precisamente las causantes de los colores de los objetos, colores que por ser
producidos por filtrado de longitudes de onda se denominan colores sustractivos.

Este fenómeno es el que se produce en pintura, donde el color final de una zona
va a depender de las longitudes de onda de la luz incidente reflejadas por los
pigmentos de color de la misma.

Un coche es de color azul porque absorbe todas las longitudes de onda que
forman la luz solar, excepto la correspondiente al color azul, que refleja, mientras
que un objeto es blanco porque refleja todo el espectro de ondas que forman la
luz, es decir, refleja todos los colores, y el resultado de la mezcla de todos ellos da
como resultado el blanco. Por su parte, un objeto es negro porque absorbe todas
las longitudes de onda del espectro: el negro es la ausencia de luz y de color.

En esta concepción sustractiva, los colores primarios son otros, concretamente el


cian, el magenta y el amarillo. A partir de estos tres colores es posible obtener
casi todos los demás, excepto el blanco y el negro.

Efectivamente, la mezcla de pigmentos cian, magenta y amarillo no produce el


color blanco, sino un color gris sucio, neutro. En cuanto al negro, tampoco es
posible obtenerlo a partir de los primarios, siendo necesario incluirlo en el conjunto
de colores básicos sustractivos, obteniéndose el modelo CMYK (Cyan, Magenta,
Yellow, Black).

El sistema CMYK, define los colores de forma similar a como funciona una
impresora de inyección de tinta o una imprenta comercial de cuatricromía. El color
resulta de la superposición o de colocar juntas gotas de tinta semitransparente, de
los colores cian (un azul brillante), magenta (un color rosa intenso), amarillo y
negro, y su notación se corresponde con el valor en tanto por ciento de cada uno
de estos colores.

De esta forma, un color cualquiera vendrá expresado en el sistema CMYK


mediante la expresión (C,M,Y,K), en la que figuran los tantos por ciento que el
color posee de los componentes básicos del sistema. Por ejemplo, (0,0,0,0) es
blanco puro (el blanco del papel), mientras que (100,0,100,0) corresponde al color
verde.

Figura 20 Notación CMYK de un color

Los colores sustractivos son usados en pintura, imprenta y, en general, en todas


aquellas composiciones en las que los colores se obtienen mediante la reflexión
de la luz solar en mezclas de pigmentos (tintas, óleos, acuarelas, etc.). En estas
composiciones se obtiene el color blanco mediante el uso de pigmentos de ese
color (pintura) o usando un soporte de color blanco y dejando sin pintar las zonas
de la composición que deban ser blancas (imprenta).

Los sistemas RGB, CMYK se encuentran relacionados, ya que los colores


primarios de uno son los secundarios del otro (los colores secundarios son los
obtenidos por mezcla directa de los primarios).

Otro modelos de definición del color es el modelo HSV o HSB, que define los
colores en función de los valores de tres importantes atributos de estos, matiz
(Hue), saturación (Saturation) y brillo (Value).
Figura 21 Modelo de color HSV

El matiz del color (Hue), también conocido como tono es el color en sí mismo,
supone su cualidad cromática, es -simplemente- un sinónimo de color. Es la
cualidad que define la mezcla de un color con blanco y negro. Está relacionado
con la longitud de onda de su radiación. Según su tonalidad se puede decir que un
color es rojo, amarillo, verde.

La saturación está relacionada con la pureza cromática o falta de dilución con el


blanco. Constituye la pureza del color respecto al gris, y depende de la cantidad
de blanco presente. Cuanto más saturado está un color, más puro es y menos
mezcla de gris posee.

El brillo (Value) o brillantez tiene que ver con la intensidad o el nivel de energía. Es
la luminosidad de un color (la capacidad de reflejar el blanco. Alude a la claridad
u oscuridad de un tono. Es una condición variable, que puede alterar
fundamentalmente la apariencia de un color. La luminosidad puede variar
añadiendo negro o blanco a un tono.

En general, con los tonos puros que tienen un valor más luminoso (amarillo,
naranja, verde) se consiguen las mejores variantes claras, mientras que los tonos
puros que tienen normalmente un valor normalmente menos luminoso (rojo, azul,
violeta) ofrecen las mejores variantes oscuras.
Por último, existen diferentes sistemas comerciales de definición de colores,
siendo el más conocido de ellos el sistema Pantone.

Creado en 1963 y buscando un estándar para la comunicación y reproducción de


colores en las artes gráficas, su nombre completo es Pantone Matching System, y
se basa en la edición de una serie de catálogos sobre diversos sustratos
(superficies a imprimir), que suministran una codificación estandarizada mediante
un número de referencia y un color específico.

% 1& & $@
El sistema de definición de colores aditivos RGB, usado en diseño gráfico digital y
en diseño web, parte de tres colores primarios, rojo, verde y azul, a partir de los
cuales es posible obtener todos los demás de espectro.

Así, por mezcla directa de los colores primarios se obtienen los colores
secundarios, cian, magenta y amarillo, y por mezcla directa de estos los colores
terciarios.

Si se continúa mezclando colores vecinos se obtendrán nuevos colores,


consiguiendo una representación de éstos muy importante en diseño, denominada
círculo cromático, representativa de la descomposición en colores de la luz solar,
que ayuda a clasificar éstos y a obtener sus combinaciones idóneas.
Figura 22 Círculo cromático

Partiendo del círculo cromático se pueden hacer diferentes clasificaciones, entre


las que se destacan las que se mostrarán a continuación.

% 6 #5.

Los colores cálidos dan sensación de actividad, de alegría, de dinamismo, de


confianza y amistad. Estos colores son el amarillo, el rojo, el naranja y la púrpura
en menor medida.

Los colores fríos dan sensación de tranquilidad, de seriedad, de distanciamiento.


Colores de este tipo son el azul, el verde, el azul verdoso, el violeta, cian, aqua, y
a veces el celeste. Un color azul acuoso es perfecto para representar superficies
metálicas. Verdes oscuros saturados expresan profundidad.

%! #

Los colores claros inspiran limpieza, juventud, jovialidad, como ocurre con
amarillos, verdes y naranjas, mientras que los oscuros inspiran seriedad, madurez,
calma, como es el caso de los tonos rojos, azules y negros.

%% 4 #

Obtenidos cuando se aumenta o disminuye la luminosidad de todo el círculo


cromático. Los colores apagados expresan oscuridad, muerte, seriedad, mientras
que los pastel sugieren luz, frescura y naturalidad.

%23 4
Son colores neutros, formados por igual cantidad de rojo, verde y azul.

Los colores grises tienen todos una expresión RGB hexadecimal del tipo
#QQQQQQ, es decir, los seis caracteres iguales.

Los grises son colores idóneos para expresar seriedad, ambigüedad, elegancia,
aunque son por naturaleza colores algo tristes.

En general, las tonalidades de la parte alta del espectro (rojos, anaranjados,


amarillos) suelen ser percibidas como más enérgicas y extrovertidas, mientras que
las de las partes bajas (verdes, azules, púrpuras) suelen parecer más tranquilas e
introvertidas. Los verdes y los azules se perciben calmados, relajados y
tranquilizantes. A la vez, los rojos, naranjas, y amarillos son percibidos como
colores cálidos, mientras que los azules, verdes y violetas son considerados
colores fríos. Las diferentes tonalidades también producen diferentes impresiones
de distancia: un objeto azul o verde parece más lejano que un rojo, naranja o
marrón.

Hay que tener en cuenta siempre que la percepción de un color depende en gran
medida del área ocupada por el mismo, siendo muy difícil apreciar el efecto de un
color determinado si este se localiza en una zona pequeña, sobre todo si está
rodeado de otros colores.
2 & ) & J &$ 1 /
& )
Armonizar significa coordinar los diferentes valores que el color adquiere en una
composición, es decir, cuando en una composición todos los colores poseen una
parte común al resto de los colores componentes. Armónicas son las
combinaciones en las que se utilizan modulaciones de un mismo tono, o también
de diferentes tonos, pero que en su mezcla mantienen los unos parte de los
mismos pigmentos de los restantes.

Figura 23 Algunas combinaciones armónicas

En todas las armonías cromáticas, se pueden observar tres colores: uno


dominante, otro tónico y otro de mediación. El tono dominante, que es el más
neutro y de mayor extensión (su función es destacar los otros colores que
conforman la composición). El color tónico, normalmente en la gama del
complementario del dominante, es el más potente en color y valor, y el de
mediación, que su función es actuar como conciliador y modo de transición de los
anteriores y suele tener una situación en el círculo cromático próxima a la del color
tónico.

La armonía más sencilla es aquella en la que se conjugan tonos de la misma


gama o de una misma parte del círculo, aunque puede resultar un tanto carente de
vivacidad. Según diversas teorías la sensación de armonía o concordancia
suscitada por una composición gráfica tiene su origen exclusivamente en las
relaciones y en las proporciones de sus componentes cromáticos. Sería el
resultado de yuxtaponer colores equidistantes en el círculo cromático o colores
afines entre sí, o de tonos de la misma gama representados en gradaciones
constantes, o del fuerte contraste entre tonos complementarios, o de los
contrastes más suavizados entre un color saturado y otro no saturado y también
de las relaciones entre las superficies que se asignen a cada valor tonal de
nuestra composición.

A continuación se presentan algunas combinaciones armónicas que pueden ser


útiles en la producción de los materiales.

2 6

Como se dijo anteriormente, se considera que el blanco, el negro y el gris son


colores acromáticos, es decir, colores sin color. Pues bien, depende del punto de
vista: psicológico o físico. Ya que psicológicamente si son colores puesto que
originan en el observador determinadas sensaciones y reacciones. Sin embargo
desde el punto de vista físico, la luz blanca no es un color sino la suma de todos
los colores, en cuanto a pigmento el blanco sería considerado un color primario, ya
que no puede obtenerse a partir de ninguna mezcla.

Por otra parte el negro, por el contrario, es la ausencia absoluta de la luz. Y en


cuanto color sería considerado un secundario, ya que es posible obtenerlo a partir
de la mezcla de otros.

Una escala acromática será siempre una escala de grises, una modulación
continua del blanco al negro. La escala de grises se utiliza para establecer
comparativamente tanto el valor de la luminosidad de los colores puros como el
grado de claridad de las correspondientes gradaciones de este color puro. Por la
comparación con la escala de grises (escala test), se pone de relieve las
diferentes posiciones que alcanzan los diferentes colores puros en materia de
luminosidad.

2! 6

Los valores del tono se obtienen mezclando los colores puros con el blanco o el
negro, por lo que pueden perder fuerza cromática o luminosidad. Dentro de las
escalas cromáticas se pueden encontrar las monocromas y cromáticas.

Las escalas monocromas son aquellas en las que interviene un solo color, y se
forma con todas las variaciones de este color, bien añadiéndole blanco, negro o la
mezcla de los dos (gris). Se obtienen por el desplazamiento en el círculo dentro de
un mismo color. Se puede distinguir entre:
• Escala de saturación, cuando al blanco se le añade un cierto color hasta
conseguir una saturación determinada.
• Escala de luminosidad o del negro, cuando al color saturado se la añade sólo
negro.
• Escala de valor, cuando al tono saturado se le mezclan a la vez el blanco y el
negro, es decir , el gris.
Figura 24 Escalas monocromáticas

Las escalas cromáticas se pueden clasificar entre:


• Escalas altas, cuando se utilizan las modulaciones del valor y de saturación
que contienen mucho blanco.
• Escalas medias, cuando se utilizan modulaciones que no se alejan mucho del
tono puro saturado del color.
• Escalas bajas, cuando se usan las modulaciones de valor y luminosidad que
contienen mucho negro.
• Se denomina escalas polícromas, a aquellas gamas de variaciones de dos o
más colores, el mejor ejemplo de este tipo de escala sería el arco iris.

2%

Son colores que se encuentran simétricos respecto al centro de la rueda. El Matiz


varía en 180 º entre uno y otro.

Figura 25 Colores complementarios

22
Toman como base un color en la rueda y después otros dos que equidisten del
complementario del primero.

Figura 26 Colores complementarios cercanos

2; +

La conforman dos parejas de colores complementarios entre sí.

Figura 27 Dobles complementarios

2 .

Se toman tres colores equidistantes tanto del centro de la rueda, como entre sí, es
decir, formando 120º uno del otro.

Figura 28 Tríada complementaria

2 C3 A

Es una escala de colores entre dos de ellos, siguiendo una graduación uniforme.
Cuando los colores extremos están muy próximos en el círculo cromático, la gama
originada es conocida también con el nombre de colores análogos.

Figura 29 Gama de colores

2 $ - B+
Se elige un color brillante puro y una variación tenue de su complementario.

Figura 30 Mezcla tenue-brillante

2K

La propiedad más determinante del color tal vez sea su carácter relativo. Ningún
color puede ser evaluado al margen de su entorno. En el libro "Interacción del
color" Josef Albers afirma que "un mismo color permite innumerables lecturas". Un
mismo tono puede parecer diferente cuando se coloca sobre diferentes fondos, y
diferentes colores pueden parecer casi el mismo cuando se asocian a distintos
fondos.

Además de las diferencias de tono, los colores reciben influencias que se reflejan
en su luminosidad y oscuridad, calidez y frialdad, brillo y sombra y según los
colores que los rodeen. Según Albers, la única forma de ver un color es observarlo
en relación con su entorno. Y a pesar de que existe una cantidad inmensa de
colores, el vocabulario usual cuenta con no más de treinta nombres para
denominarlos.

Figura 31 Contraste de colores

Cuando dos colores diferentes entran en contraste directo, el contraste intensifica


las diferencias entre ambos. El contraste aumenta cuanto mayor sea el grado de
diferencia y mayor sea el grado de contacto, llegando a su máximo contraste
cuando un color está rodeado por otro.

El efecto de contraste es recíproco, ya que afecta a los dos colores que


intervienen. Todos los colores de una composición sufren la influencia de los
colores con los que entran en contacto.

Existen diferentes tipos de contrastes: Contraste de luminosidad, contraste de


valor, contraste de saturación, contraste de temperatura, contraste de
complementarios, contraste simultáneo y otros.

Contraste de luminosidad

También denominado contraste claro-oscuro, se produce al confrontar un color


claro o saturado con blanco y un color oscuro o saturado de negro. Es uno de los
más efectivos, siendo muy recomendable para contenidos textuales, que deben
destacar con claridad sobre el fondo.

Contraste de valor

Cuando se presentan dos valores diferentes en contraste simultáneo, el más claro


parecerá más alto y el más oscuro, mas bajo. Por ejemplo, al colocar dos
rectángulos granates, uno sobre fondo verdoso y el otro sobre fondo naranja, se
verá más claro el situado sobre fondo verdoso.
La yuxtaposición de colores primarios exalta el valor de cada uno.

Contraste de saturación

Se origina de la modulación de un tono puro, saturándolo con blanco, negro o gris.


El contraste puede darse entre colores puros o bien por la confrontación de éstos
con otros no puros.

Los colores puros pierden luminosidad cuando se les añade negro, y varían su
saturación mediante la adicción del blanco, modificando los atributos de calidez y
frialdad. El verde es el color que menos cambia mezclado tanto con blanco como
con negro.

Como ejemplo, al situar sobre un mismo fondo tres rectángulos con diferentes
saturaciones de amarillo, contrastará más el más puro.

Contraste de temperatura

Es el contraste producido al confrontar un color cálido con otro frío. La calidez o


frialdad de un color es relativa, ya que el color es modificado por los colores que lo
rodean. Así un amarillo puede ser cálido con respecto a un azul y frío con respecto
a un rojo. Y también un mismo amarillo puede ser más cálido si está rodeado de
colores fríos y menos cálido si lo rodean con rojo, naranja, etc.

Figura 32 Diferentes tipos de contraste

Contraste de complementarios

Dos colores complementarios son los que ofrecen juntos mejores posibilidades de
contraste, aunque resultan muy violentos visualmente combinar dos colores
complementarios intensos. Para lograr una armonía conviene que uno de ellos sea
u color puro, y el otro esté modulado con blanco o negro.

Contraste simultáneo

Es el fenómeno según el cual el ojo humano, para un color dado, exige


simultáneamente el color complementario, y si no le es dado lo produce él mismo.
El color complementario engendrado en el ojo del espectador es posible verlo,
pero no existe en la realidad. Es debido a un proceso fisiológico de corrección en
el órgano de la vista.
Figura 33 Más Contrastes

Otros contrastes

Un color puro y brillante aplicado en una gran extensión de la página suele resultar
irritante y cansino (especialmente, el amarillo), mientras que ese mismo color,
usado en pequeñas proporciones y sobre un fondo apagado puede crear
sensación de dinamismo.

Dos colores claros brillantes puestos uno al lado de otro impactan en la vista,
produciendo un efecto de rechazo, mientras que si esos dos mismos colores se
sitúan uno dentro del otro el efecto cambia por completo, resultando agradable.

Un mismo color puede cambiar mucho su aspecto visual dependiendo del color
que lo rodee. Este efecto del cambio de apariencia de un color dependiendo de la
luz incidente sobre él, del material de que esta formado o del diferente color que le
sirva de fondo recibe el nombre de Metamerismo.

En el ejemplo se ven dos cuadrados, uno de color de fondo azul, y otro negro,
ambos con un cuadrado amarillo dentro. Los dos cuadrados interiores son del
mismo amarillo, pero parecen diferentes: en fondo azul se enmascara la pureza
del amarillo, mientras que en fondo negro el amarillo muestra toda su pureza y
frescura.
Figura 34 Otros contrastes

; & &1) )) '3 ) &


Es bien sabido por los psicólogos la influencia emocional que desencadenan los
colores en el espíritu humano. Las respuestas emocionales varían enormemente
dependiendo del color y de la intensidad de éste, así como de las diferentes
combinaciones de colores que se pueden dar.

Normalmente cada color individual lleva asociado un conjunto de emociones y


asociaciones de ideas que le es propio. Hay que destacar que estas emociones
asociadas corresponden a la cultura occidental, ya que en otras culturas los
colores pueden expresar sentimientos totalmente opuestos a los arriba indicados
(por ejemplo, en Japón el color blanco simboliza la muerte).

Las sensaciones que producen los colores dependen de factores culturales y


ambientales, y muchas veces de los propios prejuicios del usuario. Además hay
que sumar a esto que no todas las personas ven los colores de la misma forma, ya
que hay personas que sólo pueden ver bien la gama azul / naranja, otras la roja /
verde y otras degeneran a la gama blanco / negro. Incluso se perciben los colores
de forma diferente con el ojo derecho que con el izquierdo.

En esta sección se mostrarán las propiedades psicológicas de los principales


colores y algunas combinaciones acertadas.

; ,

El rojo es el único color brillante de verdad y puro en su composición. es exultante


y agresivo. Es el símbolo de la pasión ardiente y desbordada, de la sexualidad y el
erotismo. Es un color cálido, asociado con el sol y el calor, de tal manera que es
posible sentirse más acalorado en un ambiente pintado de rojo, aunque
objetivamente la temperatura no haya variado. Su nombre procede del latín
"russus".

El rojo es el color de la sangre, de la pasión, de la fuerza bruta y del fuego. Se


utiliza en las fiestas del Espíritu Santo, iluminando la llama del amor divino, y en
las fiestas de los Mártires, en la Pasión, y el Pentecostés.

Color fundamental, ligado al principio de la vida, sugiere vitalidad, entusiasmo,


pasión, agitación, fuerza, sexo, calor, fuego, sangre, amor, audacia, valor, coraje,
cólera, crueldad, intensidad y virilidad, estando asociado con sentimientos
enérgicos, con la excitación apasionada o erótica. Es el color más sensual de todo
el círculo cromático.
También sugiere alarma, peligro, violencia, ira y enfado. Muchos animales y
plantas usan el rojo para indicar su peligrosidad, y el hombre lo utiliza en todo tipo
de indicaciones de prohibición y peligro.

El rojo es un color controvertido, pudiendo ser atractivo y seductor como unos


labios de mujer pintados o desencadenar asco o mareo, como cuando se
contempla un charco de sangre.
En una composición puede ser usado para llamar la atención, para incitar una
acción o para marcar los elementos más importantes de una composición, pero
cuando es usado en gran cantidad cansa la vista en exceso.

Un problema asociado al uso del color rojo es la mala gradación que ofrece, ya
que al modificar sus propiedades se obtienen obteniendo colores rosáceos, poco
aptos para su uso en la web.

Una posible solución a este problema es desplazarse en el círculo cromático hacia


los violetas o hacia los naranjas, es decir, usar el rojo como centro de la gama y
completar ésta con sus colores análogos.

Otra buena forma es combinar el rojo con grises y con los colores de su tríada. En
cuanto a su complementario, el verde, aunque contrasta muy bien con él, juntos
no crean un efecto visual adecuado.

;! *

El verde es el color más tranquilo y sedante de todos. Es el color de la calma


indiferente: no transmite alegría, tristeza o pasión. Su nombre deriva del latín
"viridis" (que tiene savia).

Está asociado a conceptos como Naturaleza, salud, dinero, frescura, crecimiento,


abundancia, fertilidad, plantas, bosques, vegetación, primavera, frescor,
esmeralda, honor, cortesía, civismo y vigor. El verde que tiende al amarillo cobra
fuerza activa y soleada; si en él predomina el azul resulta más sobrio y sofisticado.

Significa la esperanza, los bienes que han de venir, el deseo de vida eterna. Es el
color propio del año eclesiástico y de gran número de fiestas, así como de ciertos
domingos antes de Pentecostés.

Su paleta de variaciones es rica en colores aprovechables para el diseño gráfico y


la web.

Se dice que es el color mas descansado para el ojo humano y que tiene poder de
curación ( ¿será por eso que las batas de los cirujanos son verdes?).

Es un color contradictorio. A muchas personas les influye un carácter


desagradable, mientras que a otras les sugiere más pasión que el rojo.

En las composiciones gráficas y páginas web da buen juego. Sus degradados son
buenos y sus variaciones tonales también, formando gamas apropiadas para el
diseño.

Su complementario es el rojo y, aunque contrastan muy bien, no suelen hacer


buena combinación. Con sus análogos y su tríada es posible obtener paletas
aceptables para composiciones de páginas web.

;% -

El color azul es el símbolo de la profundidad. Inmaterial y frío, suscita una


predisposición favorable. La sensación de placidez que provoca el azul es distinta
de la calma o reposo terrestres, propios del verde.

Es un color reservado y entra dentro de los colores fríos. Expresa armonía,


amistad, fidelidad, serenidad, sosiego, verdad, dignidad, confianza, masculinidad,
sensualidad y comodidad. Su nombre es de origen incierto, pero parece que
procede del sánscrito "rajavarta" (rizo del rey).

Este color se asocia con el cielo, el mar y el aire. El azul claro puede sugerir
optimismo. Cuanto más se clarifica más pierde atracción y se vuelve indiferente y
vacío. Cuanto más se oscurece más atrae hacia el infinito. Posee también la virtud
de crear la ilusión óptica de retroceder.

Es el color del cielo sin nubes, sin amenazas, donde vuelan las aves con libertad,
del agua cristalina, fuente de vida para animales y plantas, de la Tierra, el bello
planeta azul.

Está asociado a conceptos como seriedad, compromiso, lealtad, justicia y


fidelidad, pero también puede expresar melancolía, tristeza, pasividad y depresión.

Si es muy pálido puede inspirar frescura e incluso frío. Si es intermedio, da


sensación de elegancia, de frescura. Si es oscuro da sensación de espiritualidad,
de seriedad, de responsabilidad.

El azul es un color que da mucho juego en las composiciones gráficas en general


y en las páginas web en concreto. Es utilizado ampliamente como color
corporativo, por la seriedad y confianza que inspira, y admite buenas gradaciones,
pudiendo ser el color dominante en una página.

Combina muy bien con su complementario, el naranja, y con las variaciones de


éste, siendo típicos los fondos azules con textos naranjas, sobre todo en dinteles
con logotipo.

También ofrece una buena gama de análogos y hace buenos juegos con los
colores de su tríada.
Es un color que influye sobre el apetito, disminuyendo éste, seguramente porque
no hay ningún alimento azul en la naturaleza, por lo que no es aconsejable su uso
para una material sobre recetas de cocina o productos alimenticios.

;2

El color amarillo es el símbolo de la deidad en muchas culturas, y es el color más


luminoso, más cálido, ardiente y expansivo.

Es un color optimista, moderno, y denota alegría, entusiasmo, pasión, fuerza,


sexo, calor, primavera, inocencia, infancia, juventud. También se usa para
expresar peligro y precaución. Su nombre procede del latín "amàrus" (amargo). Es
el color del sol, de la luz y del oro, y como tal es violento, intenso y agudo.

Si es muy brillante puede indicar peligro, y si es muy suave puede sugerir


delicadeza. Un entorno amarillo medio o pálido hace a la gente sentirse cómoda,
caliente.

Se ha asociado siempre el amarillo a la intelectualidad y al pensamiento claro y


hay psicólogos que dicen que este color ayuda a memorizar datos a las personas.

El amarillo llama mucho la atención en un entorno o composición, utilizándose a


menudo en elementos que conviene hacer visibles. Pero hay que tener en cuenta
que es el color que fatiga mas a la vista humana, pudiendo llegar a ser aplastante,
porque causa una estimulación visual excesiva, pudiendo originar sensación de
irritabilidad en las personas.

Con el amarillo se obtienen mejores degradados que con el rojo, pero conforme se
le va quitando saturación se va haciendo poco perceptible sobre fondos claros.

Sin embargo, es un color que combina bien con sus cercanos (verdes y
anaranjados), pudiendo obtenerse con ellos buenas paletas para una
composición.

Con sus análogos combina muy bien, así como con su complementario, el
morado, pero con los de su tríada crea a veces un efecto visual demasiado
pesado, debiendo estudiarse con cuidado su uso conjunto.

Como regla general, su uso especialmente en aplicaciones web debe quedar


limitado a elementos puntuales (formando parte de un logotipo o icono, en textos
cortos sobre fondo oscuro, etc), procurando siempre que ocupe una zona limitada.

;; ,

El color naranja tiene un carácter acogedor, cálido, estimulante y una cualidad


dinámica muy positiva y energética. Posee una fuerza activa, radiante y
expansiva. Su nombre deriva del árabe "narandj".

Representa la alegría, la juventud, el calor, el verano. Es el color de la carne y el


color amistoso del fuego del hogar. Es vibrante como la luz del sol, exótico como
las frutas tropicales, jugoso como la naranja, sugiere informalidad en el trato y
amistad. Pero también puede expresar inestabilidad, disimulo e hipocresía.
La paleta de variaciones del naranja es la misma que la del color marrón, ya que
ambos colores son de naturaleza similares.

Es un color que destaca mucho sobre el entorno que le rodea, por lo que se puede
usar para dar un mayor peso visual a ciertos elementos de una composición,
aunque hay que ser comedido en su uso, ya que si es brillante llena mucho la vista
del espectador.

Admite buenos degradados, y combina muy bien con su complementario, dando


buenos contrastes, sobre todo cuando uno es claro y el otro oscuro.
Por el contrario, con los colores de su tríada crea combinaciones que pueden
resultar demasiado coloridas, por lo que, de usarse, se deberán utilizar con sumo
cuidado, dejándolos para elementos de pequeñas dimensiones.

El color rosado, una especie de púrpura pálido, sugiere calma y tranquilidad.


Asociado al sexo femenino en nuestra cultura, puede llegar a interpretarse como
debilidad en ciertos entornos. Su nombre viene del latín "rosa", y su paleta de
variaciones es la misma que la del púrpura, al ser ambos colores similares en su
naturaleza.

Es un color de uso complicado. Tiene muy malos degradados y capta mucho la


atención del espectador, sobre todo si es brillante o muy saturado, por lo que
queda indicado en la web para zonas de pequeña superficie o elementos
puntuales. Si es apagado o poco saturado, puede usarse como fondo de página,
sobre todo en páginas destinadas a público femenino.

;C A

El púrpura se define como un rojo subido que tira a violeta. Es de naturaleza


similar al rosa, y ambos colores tienen asociada la misma paleta de variaciones.
Su nombre viene de un molusco marino que segrega una tinta que al contacto del
aire adquiere un color rojo más o menos oscuro, rojo violáceo o violado, con la que
se preparaba un tinte muy costoso, con el que se daba color a las vestiduras
propias de sumos sacerdotes, cónsules, reyes, emperadores, etc. Por este motivo,
en la antigüedad era considerado el más bello, el más estable y el más precioso
de los colores.

Es un color bastante contradictorio. Sugiere abundancia, sofisticación, inteligencia,


espiritualidad, religiosidad, dignidad, tranquilidad, misterio, aristocracia y pasión.
Pero también puede evocar frivolidad, artificialidad, luto, muerte, nausea, orgullo y
pomposidad.
Es un color que combina bien, permitiendo gamas variadas, y contrasta
fuertemente con su complementario, el amarillo.

;C *

El violeta es un color morado claro, parecido al de la flor del mismo nombre,


obtenido mezclando rojo y azul. Su nombre deriva del latín "viola".
Es el color de la templanza, de la lucidez y de la reflexión. Es místico, melancólico
y puede representar también la introversión. Es la enseña de la penitencia, y se
emplea por el Adviento, en Cuaresma, en las Vigilias y Cuatro Tiempos,
Septuagésima y Rogaciones.

Cuando el violeta deriva el lila o morado, se aplana y pierde su potencial de


concentración positiva. Cuando tiende al púrpura proyecta una sensación de
majestad.

Presenta una paleta de variaciones completa, pero no muy útil en diseño web,
sobre todo en caso de zonas de tamaño medio y grande, ya que es un color
extraño.

Representa la fantasía, el juego, la impulsividad y los estados de sueño, aunque


también puede sugerir pesadillas o locura.

El color marrón como tal es una mezcla en la que predominan el rojo y el verde,
pudiendo obtenerse por desaturación del naranja o por mezcla de este color con el
negro, por lo que en diferentes tratados sobre el color aparecen asociados ambos
colores, siendo su paleta de variaciones la misma.

Es un color masculino, severo, confortable, evocador del ambiente otoñal, y da la


impresión de gravedad y equilibrio. Es el color realista, tal vez porque es el color
de la tierra. Su nombre procede del francés "marrón" (castaña comestible de ese
color), y sugiere edad, cosas viejas, madera, ladrillo, piel, cuero, hogar.

En las diseños web da buenos resultados, ya que es un color suave, agradable a


la vista, cómodo, que genera una gama extensa de colores aprovechables.

;K 4 I4 #+

El color negro viene definido por la ausencia de luz y color, siendo su código
hexadecimal representativo #000000, aunque casi todos los colores al quitarles
brillo, tono o saturación van acercándose al negro. Las superficies de color negro
son aquellas que absorben todas las longitudes de onda de la luz solar, por lo que
no reflejan ninguna radiación visible. Su nombre procede del latín "níger".

El negro confiere nobleza y elegancia, sobre todo cuando es brillante, y es el color


de la elegancia, de la seducción, del misterio, del silencio, de la noche, del cuervo,
del mal, de lo clandestino o ilegal y, de la tristeza y la melancolía, de la infelicidad
y desventura, del enfado y la irritabilidad. En nuestra cultura es también el color de
la muerte y del luto, y se reserva para las misas de difuntos y el Viernes Santo.

Es un color casi imprescindible en toda composición, pudiendo usarse como color


del contorno de ciertos elemento, en elementos separadores de espacios o como
color de fondos, en cuyo caso en los contenidos de la página deberán predominar
los colores claros para que se puedan visualizar correctamente.

Es también el color más usado para los textos, debido al alto contraste que ofrece
sobre fondos blancos o claros.

El negro no posee degradados propios, al ser un color puro (o un no-color), y en


cuanto se modifica su saturación se obtiene grises, colores neutros, formado por
cantidades iguales de rojo, verde y azul. En pintura se obtiene normalmente
mezclando el blanco y el negro.

El gris es un color neutro y pasivo, que aporta poco a ninguna información visual.
Es el color del cielo cubierto, del hierro y del mercurio, y sugiere seriedad,
madurez, neutralidad, equilibrio, indecisión, ausencia de energía, duda y
melancolía, y se usa para expresar las cosas o personas carentes de atractivo o
singularidad. Su nombre parece derivar del provenzal "gris".

Es un color que puede resultar monótono si se usa en demasía en una


composición, y está muy asociado a las aplicaciones informáticas, tal vez porque
la mayoría de las interfaces gráficas son de color gris o lo contienen.
Los grises medio-claros (alrededor del #CCCCCC) tienen poca atracción visual,
siendo idóneos para fondos o elementos de relleno que no aporten información al
espectador.

Si se aumenta progresivamente la luminosidad del gris llega un momento en que


se obtiene el color blanco, de código #FFFFFF, la luz pura, la unión del 100% de
los tres colores primarios aditivos, rojo, verde y azul.

El blanco representa la pureza, la inocencia, la limpieza, la ligereza, la juventud, la


suavidad, la paz, la felicidad, la pureza, la inocencia, el triunfo, la gloria y la
inmortalidad. Es el color de la nieve, de las nubes limpias, de la leche fresca. Se
emplea en las fiestas del Señor, de la Virgen, de los santos y en las ceremonias
nupciales.

Es un color latente, capaz de potenciar los otros colores vecinos, creando una
impresión luminosa de vacío positivo y de infinito. El blanco es el fondo universal
de la comunicación gráfica.

En imprenta no se suele manejar color, sino que se aprovecha para representarlo


el color blanco del soporte sobre el que se imprime. En la web, el color blanco se
produce en el monitor enfocando en los puntos de pantalla los tres cañones de
color a la máxima intensidad.

Es un color fundamental en diseño, ya que, además de usarse como color para los
elementos gráficos y textuales, también define normalmente los espacios vacíos
de la composición.

Estos espacios en blanco son elementos de diseño tan importantes como los de
color, y se pueden observar con facilidad alejándose de la pantalla del ordenador y
entornando los ojos, con lo que distinguiremos mejor las diferentes zonas visuales
de la página.

No suele ser conveniente para los textos, salvo que estén situados sobre un fondo
muy oscuro sobre el que contrasten bien. No se debe olvidar que los contenidos
textuales deben aparecer siempre perfectamente legibles en una página.

; K?

Las acepciones del color mostradas con anterioridad, corresponden en grna


medida con la simbología de la iglesia católica occidenteal, pero al fijarse en la
iglesia anglicana, se encuentra que los mismos colores significan cosas diferentes
de las anteriores: Rojo, caridad, mártires de la fe. Verde: contemplación, bautismo.
Azul: esperanza, amor de las obras divinas, sinceridad, piedad, paz, conciencia,
prudencia cristiana, amor a lo bello. Amarillo: los confesores. Púrpura: dignidad de
la justicia. Oro: gloria, potencia. Gris: Tribulaciones.

Pero como ya habíamos planteado, el significado del color puede cambiar en los
diferentes países. En China el rojo se asocia con las bodas y representa buena
suerte y en la India este color está unido a la caballerosidad. Tradicionalmente se
relaciona con los celos, la envidia, la adolescencia, la risa y el placer, e incluso en
algunos casos se le denomina como el color de la mala suerte.

Por otro lado un color amarillo suave y cálido incita también a la concentración y el
dinamismo. En algunas religiones como en la china, el amarillo es un color
Sagrado, sin embargo en otras no significa nada trascendental.

El simbolismo de los colores es aplicado al ámbito comercial, publicidad o


comunicación de productos. El rojo coca cola se asocia a la euforia, la exaltación y
la vitalidad, el amarillo Kodak significa la luz, el azul de Ciba-Geiby evoca la calma
y la higiene o el naranja butano significa energía.

El color esquemático proviene de la heráldica, donde el color "distintivo" de los


escudos permitía identificar a los caballeros entre la multitud.
Estas simbologías son:

Azul: le lealtad, la justicia, la fidelidad. La buena reputación y la nobleza.


Rojo: significa el amor, audacia, valor, coraje, cólera, crueldad.
Verde: el honor, la cortesía, el civismo, la esperanza y el vigor.
Púrpura: representaba la fe, la devoción, la templanza y la castidad.
Negro: luto, la aflicción.
Dorado: la sabiduría, el amor, la fe, el amor, las virtudes cristianas y la constancia.
Plata o blanco: la prudencia, la inocencia, la verdad, la esperanza y la felicidad.
Naranja: inestabilidad, disimulo e hipocresía.
Marrón: penitencia, pena, la traición y la humildad.
Los colores de las naciones, escudos y banderas, tienen también orígenes
perdidos en el Tiempo, y siguen la misma lógica del color puro, plano y saturado.
Lo mismo ocurre con las señales de tráfico.

Todo lo que comentado hasta ahora de los colores ha sido teniéndolos en cuenta
individualmente, pero cuando se realiza -como es habitual- una utilización del color
combinando una gama, se encuentra con que las significaciones cambian,
eclipsando las asociaciones de los colores que lo componen. Es frecuente que
una combinación de colores evoque una imagen muy específica.

Las combinaciones de colores también pueden evocar determinados significados


por su asociación con las banderas nacionales. Así, en muchos productos se
utiliza una combinación de color que puede evocar la nacionalidad de ese
producto, haciendo más fácil su identificación y origen de producción.

El color emblemático: Un color que se ha erigido en emblema para su uso social.


Los colores de los cinco aros olímpicos son emblemáticos, la cruz roja, las
banderas nacionales y los colores institucionalizados de los uniformes. Se trata de
un simbolismo práctico, utilitario, creado bajo el espíritu corporativista, para ayudar
a identificar y memorizar, a través del emblema cromático, las organizaciones, los
servicios públicos y las instituciones del entorno social.

El color púrpura es un color mágico. Usado por los emperadores, era símbolo de
poder, evoca la gloria y majestad, dignidad y realeza. Asimismo emblemático para
todos los fumadores es el color verde que, asociado a cualquier marca o embalaje
de tabaco significa mentolado. O el caso de la "etiqueta negra" que designa una
cualidad especial en ciertos productos de consumo.

El color señalético: La variable señalética saca del color toda su potencia


esquemática, para convertirse en la base del repertorio sígnico de un código
fuertemente sensitivo: el código señalético.

Se aplica para señalizar, es decir, para incluir señales al mensaje gráfico para
centrar la atención en determinados puntos. Marca la presencia y el rol de ellos.
Estos colores siguen la señalización utilizada en la circulación rodada, en el código
aéreo y marítimo. Se tratan, por tanto, de colores de alta saturación y que son
empleados en su condición de "planos", en su grado de mayor esquematización y
visibilidad.

Los colores de base de seguridad codificados universalmente para la industria


son:
Amarillo: peligro.
Rojo: parada absoluta, material de incendio.
Verde: vía libre, puestos de socorro.
Blanco y negro: trazados de recorrido.
Azul: para atraer la atención.

. ! >

En la Unidad 1 se trataron algunos aspectos fundamentales del texto,


especialmente en términos de formatos informáticos, en este capítulo se
presentan los aspectos a considerar para la selección y distribución de textos en
un producto multimedia, la mayoría de los contenidos se obtuvieron de manuales
de tipografía para ambiente web, pero en general son aplicables a cualquier tipo
de producto que requiera elementos textuales. Los enlaces consultados y otros
recomendados se encuentran en la sección de Enlaces relacionados.

Aunque se repiten algunos conceptos fundamentales, esto se realiza con el fin de


refrescarlos, aunque se recomienda releer la sección correspondiente en la
Unidad 1.

! " ) @) )
4 5
.

Al igual que el resto de los elementos que se utilizan en la composición de un


diseño, el conocimiento de los tipos de letras y sus características es necesario
para una utilización correcta. Las técnicas destinadas al tratamiento tipográfico y a
medir los diferentes textos, es conocida como tipometría.

Los tipos constan de unas partes que se denominan como: brazos, piernas, ojos,
columnas, colas... Estas son las partes que se han utilizado de forma tradicional
para la construcción de las diferentes letras. La estructura de las letras permanece
constante sin tener en cuenta la tipografía, así una B mayúscula consta de un
brazo vertical y dos curvos.

Figura 35 Partes de un tipo

Altura de las mayúsculas: altura de las letras de caja alta de una fuente, tomada
desde la línea de base hasta la parte superior del carácter.
Altura de la x o altura X: altura de las letras de caja baja excluyendo los
ascendentes y los descendentes.
Anillo u hombro: asta curva cerrada que encierra el blanco interno en letras tales
como en la b, la p o la o.
Asta: rasgo principal de la letra que define su forma esencial. Sin ella, la letra no
existiría.
Asta ascendente: asta de la letra que sobresale por encima de la altura x, como
en la b, la d o la k.
Asta descendente: asta de la letra que queda por debajo de la línea de base,
como en la p o en la g.
Astas montantes: astas principales verticales u oblicuas de una letra, como la L,
B, V o A.
Asta ondulada o espina: rasgo principal de la S o de la s.
Asta transversal o barra: rasgo horizontal en letras como la A, la H, f o la t.
Basa: proyección que a veces se ve en la parte inferior de la b o en la G.
Blanco interno: espacio en blanco contenido dentro de un anillo u ojal.
Brazo: parte terminal que se proyecta horizontalmente o hacia arriba y que no
está incluida dentro del carácter, como ocurre en la E, la K, la T o la L.
Bucle u ojal: porción cerrada de la letra g que queda por debajo de la línea de
base. Si ese rasgo es abierto se llama simplemente cola.
Cartela: trazo curvo o poligonal de conjunción entre el asta y el remate.
Cola: asta oblicua colgante de algunas letras, como en la R o la K.
Cola curva: asta curva que se apoya sobre la línea de base en la R y la K, o
debajo de ella, en la Q. En la R y en la K se puede llamar sencillamente cola.
Cuerpo: altura de la letra, correspondiente en imprenta a la del paralelepípedo
metálico en que está montado el carácter.
Inclinación: ángulo del eje imaginario sugerido por la modulación de espesores
de los rasgos de una letra. El eje puede ser vertical o con diversos grados de
inclinación. Tiene una gran importancia en la determinación del estilo de los
caracteres.
Línea de base: línea sobre la que se apoya la altura de la x.
Oreja o Ióbulo: pequeño rasgo terminal que a veces se añade al anillo de algunas
letras, como la g o la o, o al asta de otras como la r.
Serif, remate o gracia: trazo terminal de un asta, brazo o cola. Es un resalte
ornamental que no es indispensable para la definición del carácter, habiendo
alfabetos que carecen de ellos (sans serif).
Vértice: punto exterior de encuentro entre dos trazos, como en la parte superior
de una A, o M o al pie de una M.

Evidentemente, dependiendo del tipo se encuentras aspectos muy diferentes de


las letras. Una familia tipográfica es un grupo de tipografías que tienen unas
características similares. Los miembros de una familia tienen algunos rasgos
similares y otros que les son propios.

Las tipografías de cada familia tienen distintos grosores y anchos. Algunas familias
están formadas por muchos miembros y otras no. Por ejemplo la "Stone" incluye
las dos variantes de con y sin serif. Dentro de una misma familia tipográfica hay
ciertos caracteres que la diferencian entre sí, como son:
1. Anchura del trazo: Según la anchura del trazo pueden clasificarse en extrafina,
fina redonda, negra o supernegra (de menor a mayor).

2. Proporción entre ejes vertical y horizontal: se clasifican en redonda (cuando


son iguales), estrecha (cuando el horizontal es menor que el vertical) y expandida
(cuando el horizontal es mayor).

3. Inclinación del eje vertical: son las llamadas itálicas o cursivas. Generalmente
esta inclinación es de 15 grados.

4. Cuerpo: Es el tamaño de la letra, se mide en puntos tipográficos.

! 5 5

Actualmente resulta muy complicado realizar una clasificación de tipos, ya que


existe una gran variedad y mezcla de estilos. Se puede hacer una clasificación
histórica de los mismos que podría ser: Gótico; Romano (tradicional, de transición,
moderno, del siglo XX); slab serif (o egipcio); sin serif o lineal y, por último de
trazo.

También se puede hacer una clasificación más genérica en cuanto a clasificar los
tipos de letras en dos grandes familias por medio de una característica de estas, la
"serifa", o remate que poseen algunas letras en sus terminaciones y que
tradicionalmente se le ha visto como cualidad facilitar la lectura o “sin serifa". Sin
embargo, posteriormente se ha comprobado en investigaciones en cuanto a
legibilidad, que existe poca diferencia entre ellas. El espaciado entre letras, tiene
mayor importancia en el aspecto de facilitar la lectura.

Una clasificación histórica puede ser:

Gótico: Fue el primer carácter de imprenta usado en Europa. Es un tipo de letra


que imita la escritura a mano que llevaban a cabo los monjes con un plumín
ancho. Varía desde la más antigua, de ojo pequeño, hasta las influenciadas por el
estilo renacentista, de ojo más ancho y más legible.

Romana (o con serif): Se distinguen cuatro tipos:


• A: Son los primeros tipos romanos basado en la columna de Trajano. El
palo de la letra está adornado con una base con serif que surge de las
letras talladas en piedra (Bembo, Platin).
• B. De transición: Se denominan así a los que se producen en el siglo XVIII.
Las mejores calidades del papel y de impresión posibilitan una variación en
su grosor y se hacen más finos (Garamond y Baskerville).
• C. Modernos: Se caracterizan por tener los serif horizontales y delgados
(Bodoni).
• D. Del siglo XX: Mejoran su legibilidad. Se diseñan tipos de letra derivados
del romano, con el ojo de mayor tamaño (Times New Roman). Por lo tanto,
algunas de estas letras de estilo romano son: TIMES, BODONI,
GARAMOND, BEMBO, BASKERVILLE, BODONI o CENTURY
EXPANDED. Además de que existan muchas otras, hay diferentes estilos
dentro de cada una, como por ejemplo, Garamond Italic, Garamond
Semibold...

Egipcio: Se deriva del romano. Tienen astas iguales y más anchas y el remate
rectangular (Rockwell, Clarendom).

Palo seco (o sin serif): Algunas de estas letras son: HELVETICA, GILL SANS,
FRANKLIN GOTHIC, FRUTIGER o FUTURA, UNIVERS. Al igual que el primer
grupo, existen muchas más y hay diferentes estilos dentro de cada una, como por
ejemplo, Gill Sans Bold, Gill Sans Bold Italic...

Otros: Algunos tipos más modernos y con amplias variaciones se escapan de la


clasificación anterior creando nuevas familias como, la "caligráfica" que imita la
escritura manual, la "mecano" letras densas y pesadas o la ornamental cargada de
trazos y adornos.

!! 3& " &


El primer objetivo que debe tener un diseñador a la hora de ponerse a trabajar con
texto es que éste sea legible, es decir que facilite la lectura al posible receptor de
ese trabajo. Cuando el diseñador domina las reglas que hacen que un texto sea
más o menos legible o cuando es más importante la expresividad que el contenido
textual, es cuando el diseñador podrá trabajar más libremente.

¿Cuáles son las reglas que se deben tener en cuenta para la legibilidad de los
textos? En primer lugar se deben escoger caracteres que sean abiertos y bien
proporcionados, con regularidad en los tipos y con remates clásicos. Los
caracteres que contienen afectaciones estilísticas o irregularidades son menos
legibles, por lo que son menos recomendables utilizarlos en bloques de textos y
más adecuados para textos cortos o titulares.

En general, si lo que se quiere es un texto fácilmente legible, se deben descartar


letras muy ornamentadas o decorativas. Éstas deben reservarse para usos
especiales (carteles, títulos, iniciales, logotipos...) El cuerpo del texto debe
componerse con letras discretas y fácilmente legibles (pero también refinadas y
agradables a la vista.)

Las letras que se suelen considerar idóneas para el cuerpo de texto son las serif y
las de palo seco -o simplemente sans- en sus diferentes variantes.

Esta es sin duda una parte crítica del proceso de diseño. Todo el aspecto y
significado aparente del trabajo, cambia con un tipo de letra u otro. Aunque no se
analice de forma consciente qué tipografía se ha utilizado, subconscientemente se
relaciona lo que vemos con experiencias anteriores. Y así, nada más mirar el
diseño, sólo el tipo de letra utilizado ya comunica una sensación fría o amistosa,
agradable o molesta, formal o informal.

Al primer vistazo, la tipografía y el color dicen más que el mismo texto...Junto con
el color, la tipografía puede alterar por completo el significado que se asocia a un
diseño. El texto puede decir una cosa; las letras, otra muy diferente. Si es preciso
elegir con cuidado, no se tendrá problemas con la inmensa oferta de tipografías
disponibles (literalmente, hay miles de fuentes digitales donde elegir.) Incluso el
usuario más casero tiene a su alcance centenares de fuentes, como las que
vienen de serie con muchos programas, tales como Office o CorelDraw.

Por otra parte, la tarea de seleccionar aquello más apropiado de entre un conjunto
tan extenso puede intimidar, o hacer pensar que se trata de una labor de expertos.
En realidad basta hacer caso del sentido común y leer algunas informaciones
básicas para poder ir sobre seguro.

Asociación de la tipografía al tiempo y al espacio.

La tipografía tiene un poder insospechado: condiciona en buena parte la manera


en que se percibe un mensaje. Tal como pasa con los estilos artísticos, musicales,
la moda... cada tipografía puede estar asociada inequívocamente a un lugar
determinado y a una época concreta. Esto hace que, normalmente, las tipografías
que tienen una asociación clara de este tipo sirven para usos muy determinados, y
que se empleen escasamente fuera de éstos, haciendo que incluso resulte extraño
verlos en un contexto diferente del esperado. Por ejemplo, ¿por qué muchas
cervezas se anuncian o tienen su logo con las típicas letras góticas fraktur?

Algunos estilos de fuentes se asocian a momentos en el tiempo o a lugares


geográficos: se trata de un buen recurso para el diseñador, para reforzar la
comunicación. Sólo con una elección adecuada de la tipografía ya puede
conseguir buena parte de los objetivos del proyecto.

La “paleta” de letras

Tal como se prepara una paleta de colores para usar en un diseño o pintura,
también se debe escoger un grupo de fuentes que vaya bien para un determinado
trabajo. Una paleta típica contiene:

1. Una fuente para el texto, acompañada de:


2. Una fuente para los títulos y subtítulos; su tamaño puede estar aumentado en
un 120 - 130% de la fuente del texto.
3. Una fuente para los pies de foto, resúmenes, citas y notas. En muchos caso,
puede ser la misma fuentes que para los subtítulos, a tamaño más pequeño,
por ejemplo a un 70 - 80% del tamaño del texto.

La fuente elegida para el texto puede incluir, naturalmente, la variante cursiva y en


negrilla. Ambas deben emplearse sólo para enfatizar partes del documento, no en
fragmentos extensos. La regla principal que aplican todos los profesionales es
elegir una fuente fácilmente legible, sea sans o serif, y acompañarla de otra que
sea al revés: por ejemplo, si hemos elegido Garamond o Caslon para el texto, la
acompañamos con Franklin Gothic o Univers para los pies de foto y subtítulos. Es
decir: una fuente serif, combinada con una sans-serif. La manera más armoniosa
es ésta: y admite una infinidad de variantes.

Mezclar dos fuentes sans o dos serif suele fracasar, aunque siempre puede
intentarse algún experimento. Elegir las parejas concretas de fuentes es una
cuestión muy personal y, en todo caso, depende del proyecto en que se trabaja.
Algunas fuentes funcionan muy bien juntas, otras no tanto. Algunas tipografías
tienen versión sans y versión serif y suelen formar una perfecta combinación: por
ejemplo, la forma Serif para el texto y la Sans para el resto.

En cada documento, al margen de la paleta básica, también puede recurrirse a


alguna fuente especial, con mayor impacto, para el título general, o para separar
grandes secciones. Esta fuente se puede elegir con mayor libertad, siempre
velando de que sea apropiada para los contenidos y la intención del trabajo.
!! E

El siguiente elemento fundamental para la selección de letras es el tamaño. El


más corriente para el texto normal está entre los 10 y 12 puntos48. Si se diseña
una composición con múltiples columnas estrechas, se puede reducir el tamaño a
8 ó 9 puntos.

Por lo que se refiere a los encabezados, títulos y subtítulos, no hay reglas fijas,
pero suelen aplicarse tamaños que sean del orden de un 20% superiores o
inferiores al del texto, y aplicar cambios de estilo donde convenga (negrita o
cursiva.) Esto significa que para un texto a 10 puntos, un subtítulo de tamaño
razonable podría tener unos 12 puntos. Si el texto es mayor, a 12 puntos, el
subtítulo debería aumentarse a 14-14,5 puntos.

!!!

El interlineado es otra importante característica del texto. Muchos programas


tienen la opción de "doble espacio" o "espacio y medio". Es mejor no utilizarlos.
Todos los programas de procesamiento de textos permiten establecer un valor
exacto para el interlineado (ver la tabla de valores recomendados); valores
demasiado pequeños o excesivamente grandes dificultan la lectura. La diferencia
entre un texto mal ajustado (doble espaciado) y un texto correctamente
interlineado es tan grande como entre la noche y el día.

Normalmente, un interlineado del 120% al 140% del tamaño del texto suele ir
perfectamente. Esto significa que para texto a 11 puntos el espacio entre líneas
base de dos líneas consecutivas debe estar entre 13 y 15 puntos,
aproximadamente.

El espaciado entre letras, palabras y líneas también afecta al tipo y al color. Las
palabras parecen de un tono más luminoso si las letras están más separadas. Del
mismo modo, si se incrementa el espaciado que hay entre palabras y líneas, el
tipo parece adquirir un valor más brillante.

P & M # ) ' & *'


Prestar atención a las necesidades de espaciado, puede favorecer la legibilidad
cuando el contraste de color es escaso o cuando debe imprimirse en color un gran
fragmento textual. Si el tipo se disminuye en tamaño, debe incrementarse la fuerza
de contraste de color. Por otra parte, los fondos estampados o con textura
perjudican la legibilidad.

Cuando el tipo se coloca en positivo o en negativo sobre un fondo texturizado, hay


que asegurarse de que esté muy contrastado. Cuando los tipos se combinan con
fotografías de fondo, debe buscarse un espacio liso dentro de la foto que no afecte
el tipo, buscar un gran contraste entre el color tipográfico y el fondo o insertarlo en
un fondo superpuesto.

Se debe tener cuidado si la letra es demasiado pequeña o demasiado fina, ya que


hay muchas posibilidades de que los puntos de la imagen invadan los tipos y
alteren su legibilidad. Si el contraste de colores no basta por sí solo para destacar
el tipo sobre el fondo, pueden añadirse perfiles y sombras. De todas formas no es
recomendable utilizar estos efectos en los bloques de texto, pues en terminos de
legibilidad sería más perjudicial que beneficioso. Los mejores resultados se
consiguen con tipos grandes o en titulares.

Cuando se tiene que buscar un color para asociar a un tipo, lo primero que se
debe examinar son los objetivos del trabajo que se va a realizar y el público al que
va dirigido. Para elegir las combinaciones de color más adecuadas para texto y
fondo se deben tener en cuenta una serie de reglas:

Fuertes contrastes de tono (cálidos y fríos).


Contrates de valor (luminosos y oscuros)
Contrastes de saturación (vivos y apagados).
Pero de entre todos los contrastes, el de valor es crucial, lo primero que se debe
pensar es en términos de claridad y oscuridad antes que en tonos. También debe
tener en cuenta que las letras oscuras sobre fondo claro es más efectivo que al
contrario.

!!%

El texto puede alinearse de cinco formas distintas: alineado a la izquierda,


alineado a la derecha, justificado, centrado o asimétrico.

El texto alineado a la izquierda es el más natural y recomendable para textos


largos. Crea una letra y un espacio entre palabras muy uniforme, y dado que las
líneas terminan en diferentes puntos, el lector es capaz de localizar fácilmente
cada nueva línea. Esta es posiblemente la forma de alineación de textos que
resulta más legible.

Sin embargo, la alineación a la derecha va en contra del lector porque es difícil


encontrar la nueva línea. Este método puede ser adecuado para un texto que no
sea muy extenso, pero no para grandes bloques.

El texto justificado (alineado a derecha e izquierda) puede ser muy legible si el


diseñador asegura que el espacio entre letras y palabras sea uniforme y los
molestos huecos llamados "ríos" no interrumpan el curso del texto. Normalmente
cualquier programa de autoedición facilita al diseñador afinar los espacios.
Algunos programas dan dos tipos de justificado, uno el normal y otro en el que se
justifica también la última línea.

Las alineaciones centradas dan al texto una apariencia muy formal y son
adecuadas cuando se usan mínimamente.

!!2

Diseñar con tipos y colores es un gran reto, ya que cuando los colores y los tipos
aúnan sus fuerzas, el riesgo de errar se acentúa; aunque también es cierto que la
combinación de tipos y color hace que se resalte los atributos visuales y
expresivos de la tipografía.

En la elección del color uno de los aspectos que no se debe olvidar es la


legibilidad tipográfica. Se está acostumbrado a ver tipos negros sobre papel
blanco, y tradicionalmente esta combinación es la más legible. Además muchos
tipos se han diseñado para ser leídos como letras negras sobre fondo blanco y
ofrecen una optima legibilidad impresos de este modo.

En el momento en que se añade color al tipo o al fondo, se altera la legibilidad del


texto. En consecuencia, la tarea del diseñador es combinar las propiedades del
tipo y el color para multiplicar su potencial comunicativo. Estos dos elementos
pueden dar vida a un texto que, de otro modo, fracasaría en su vertiente
comunicativa.

Para alcanzar la óptima legibilidad cuando se diseña con tipos y color se han de
sopesar cuidadosamente las tres propiedades del color (tono, valor e intensidad) y
determinar el contraste apropiado entre las letras y su fondo. Cuando se combinan
tipos y color, el equilibrio entre estas características es crucial.

Los colores azul y naranja, complementarios totalmente saturados, ofrecen un


contraste tonal pleno, pero cuando lo aplicamos a tipo y fondo los bordes de las
letras tienden a oscilar y complica la lectura del texto. Esto ocurre porque ambos
colores poseen un brillo que rivaliza entre sí y que reclaman atención propia. La
solución es suavizar o acentuar uno de los tonos haciendo que su valor pase a ser
claro u oscuro.

Por otra parte, si dos colores análogos están demasiado cerca en el círculo
cromático y no aportan suficiente contrate de tono o valor, deberían reajustarse
para agudizar dicho contraste. Un buen principio es coger colores que no estén
directamente enfrentados ni estén demasiado próximos en el círculo cromático.
Deben buscarse colores compatibles, pero también colores que difieran en valor e
intensidad.

También se deben tener en cuenta las cualidades y características de cada tipo,


ya que un tipo muy fino o estrecho, o una letra de trazo puede parecer muy débiles
o ilegibles si los tonos son muy similares o si los valores están demasiado
próximos. Por lo tanto, debe de existir el contraste suficiente para proteger la
fidelidad de las letras.

Otro concepto que se debe conocer es el llamado “color tipográfico”: una ilusión
óptica creada por las propias proporciones y las formas de los diseños tipográficos
que da la sensación de distinto color aunque esté impreso en el mismo color.
Aunque las palabras estén impresas en el mismo color, cada una de ellas puede
poseer un tono distinto debido a las características propias de sus diseños
tipográficos.

!!; *

• No deben mezclarse muchos tipos de letra distintos en cada página. El


aspecto será caótico -o parecerá un catálogo tipográfico. "Demasiados" en
este caso son un máximo de 4 tipos de letra diferentes, incluidas las
cursivas.

• Nunca se debe subrayar el texto. Otro error muy común. Para enfatizar una
parte del texto, se debe recurrir a la letra negrita o la cursiva. El texto
subrayado sólo es admisible cuando la letra simula una máquina de escribir
antigua.

• No debe componerse texto sólo en mayúsculas. Puede hacerse para


títulos, carteles... pero no es admisible para largos pasajes de texto. Es más
difícil de leer y parece que está GRITANDO. Si realmente quiere un pasaje
todo en mayúsculas, o debe escribir unas siglas, es mejor usar letras
versales o "small caps". Y, sobre todo, tenga presente que determinadas
letras nunca deben utilizarse en forma de todo mayúsculas;
particularmente, las letras caligráficas y las muy ornamentadas.

• Después de un punto, se debe marcar un espacio, no dos.

• En las listas con viñetas, en lugar de los muy vistos guiones, es mejor optar
por un punto o algún elemento gráfico: un pequeño cuadrado, un rombo, un
triángulo...

• No deben utilizarse las comillas del teclado (", '


). Las comillas tipográficas
correctas son de esta forma: Nestas comillas curvadasO o «estas comillas
francesas».

• Si el texto contiene una cierta cantidad de cifras, procure utilizar un tipo de


letra con cifras de caja baja (estilo antiguo), puesto que combinan mejor con
un texto normal, con mayúsculas y minúsculas. Las tipografías que
incorporan este tipo de cifras suelen llevar la terminación "osf" en su
nombre (de oldstyle figures.) Con texto todo en mayúsculas, por ejemplo,
en un cartel o portada, suele recomendarse utilizar cifras normales.

• Se debe asegurar que todo el texto se encuentra libre de errores


ortográficos, de digitación y de redacción.

!% $" ) ' = )
La composición del texto debe tener en cuenta criterios estéticos (visuales) y
funcionales. Desde este punto de vista, el texto debe ser lo más legible que se
pueda, para facilitar la comprensión.

Un texto bien estructurado y con tipografía correcta ayuda mucho a su


comprensión. Debemos separar claramente las secciones y subsecciones; añadir
elementos que orienten al lector; enfatizar donde convenga, utilizando cursivas o
negrita. Pueden incluirse resúmenes que destaquen las partes más significativas;
pies de foto o comentarios de las ilustraciones que aclaren o complementen su
significado.
Los estudios sobre legibilidad muestran que ésta depende de dos factores
principales: el tipo de letra y la composición del texto, esencialmente la longitud
de las líneas y su espaciado. Obviamente, conviene que tenga en cuenta estos
principios para facilitar al máximo la lectura de nuestros textos. Existen unos
valores óptimos para la longitud del texto: con independencia del tamaño de éste,
lo que facilita la lectura es poder leer tramos de las frases de golpe. Si las líneas
son demasiado cortas, la vista debe buscar continuamente el principio de la línea
siguiente y resulta cansado; pero si la línea es excesivamente larga, también
resulta fatigoso.

Figura 36 Diferentes alternativas para la distribución de las cajas de texto y gráficos en una
49
publicación típica.

La longitud óptima del texto está entre los 60-70 caracteres, unas 12 palabras de
este mismo párrafo.

Para mejorar la legibilidad del texto se puede hacer algo muy simple: ensanchar
los márgenes, de manera que la columna se contrae proporcionalmente, hasta
tener un ancho más confortable para su lectura. Además, se obtiene un aspecto
más limpio, más claro y, en cierta medida, más lujoso, con el abundante espacio
blanco que se consigue.

Como alternativa, se puede distribuir el texto en dos o más columnas simétricas,


como se muestra en la figura (para decidir el número de columnas, se puede
seguir el mismo criterio de tener un número de caracteres por línea adecuado.)
Debemos tener especial cuidado con el tamaño de los caracteres en la columna:
cuanto más estrechas sean estas, más pequeños deberán ser los tipos. Si se
tienen caracteres muy grandes en una columna muy estrecha, se repetirá el
problema de difícil legibilidad, esta vez por el motivo opuesto, y además el aspecto
será peor.

0%& &" ' * 1 ' ' \ '* F; J G


" &))& ( ( (' )+= ) )" ) % --' "
Diseñar con columnas asimétricas.
Este es un modelo de página que funciona. Y cuando una cosa funciona, suele
utilizarse por todas partes.

Figura 37 Ejemplo de distribución asimétrica de columnas en una página web

¿Por qué este modelo, que es tan simple, se ha impuesto tan claramente a otras
opciones? Los motivos son múltiples:

Esta forma de distribuir los componentes de la página resulta óptima respecto de


diferentes criterios:

Legibilidad. Tener la mayor parte del texto colocado dentro de un recuadro, con
un ancho de 10-12 palabras, es mucho más fácil de leer que una sola columna de
texto de lado a lado, o que múltiples columnas demasiado estrechas.

Claridad. Con este modelo, el visitante-lector identifica claramente dónde está y


cuáles son las secciones a las que puede acceder (con la cabecera o el gráfico de
la parte superior), dónde está el cuerpo del texto, donde se detalla la información
(el bloque de la derecha). La pequeña columna de la izquierda sirve, en función de
la web, para albergar diferentes informaciones: las secciones relacionadas,
novedades, resúmenes de partes del texto y las ilustraciones, etcétera.

Familiaridad. Al ser un modelo muy usado, los lectores saben instantáneamente


dónde buscar la información y pistas sobre los contenidos.

Simplicidad. Esta opción de diseño es fácil de preparar y crear una plantilla


basada en él para aplicarla donde convenga.

Aunque este modelo resulta ideal para las páginas que presentan información, con
un volumen de texto más o menos grande, existen otras alternativas que deben
considerarse al diseñar una web. De las opciones existentes, aquellas que se
pueden plasmar en papel, en nuestro cuaderno de bocetos, no todas podrán ser
trasladadas a la página web. Algunas ideas son idóneas para su impresión en
papel, otras funcionan mejor en forma de hipertexto. Por ejemplo, para una página
de índice puede ser más recomendable un enfoque más visual, basado en
pequeñas imágenes y cortos bloques de texto para ampliar la información.

Un excelente página para consultar todos los elementos a considerar en el


diseño de páginas web es el Manual of Style de Yale University, algunos de
los cuales ya se han tratado. La dirección URL es:
http://www.webstyleguide.com/index.html

. % 3 65

Los gráficos son el componente esencial de la Multimedia. Una aplicación


interactiva en la que no se encuentre texto, pero que disponga de imagen, sonido
y tal vez animaciones difícilmente se consideraría que no es una aplicación
Multimedia.

Pero, si una aplicación interactiva, aún disponiendo de texto y sonido no dispone


de elementos gráficos, no se podría calificar como aplicación Multimedia.

Sin quitar importancia al resto de elementos Multimedia, se puede considerar que


los gráficos, tanto estáticos como animados, son el elemento fundamental de la
Multimedia. Como ya se había planteado en la Unidad 1 existen dos tipos
fundamentales de gráficos en Multimedia, los mapas de píxeles ( o mapas de bits)
y los gráficos vectoriales.

En este capítulo se estudiarán los principales tratamientos para la digitalización de


imágenes, especialmente mapas de bits. Para ello se muestra la documentación
disponible en internet correspondiente al Tutorial de digitalización de imágenes de
la Biblioteca de la Universidad de Cornell50 (EEUU), un sitio sobre diseño web de
Luciano Moreno51 y el componente sobre gráficos de un curso de Proyectos
Multimedia de la Universitat J’aume I52, todos estos enlaces se encuentran en la
sección de Fuentes relacionadas.

" &)
)$$$ %( ')& # ) 5 & ") ) 5 "
" &)
)$$$ " $ )' )* !( -'* )* !( - "
" &)
)$$$ = )+ ! )CQ )6 ( )0 )@ !( &'!
% ' ) $@3 )
Una imagen bien seleccionada y situada correctamente en el documento centra la
atención del lector y añade significado al mismo. Las imágenes se presentan en
una gran variedad de formas: ilustraciones, fotografías, diagramas, iconos, etc,
cada una de ellas con su propia personalidad y funcionalidades, pero todas ellas
con un factor en común: su naturaleza digital.

Atrás quedaron los tiempos en que las composiciones gráficas eran un compendio
de elementos individuales separados, que el impresor tenía que montar con todo
su arte para crear una entidad única. Los modernos equipos informáticos y las
aplicaciones de autoedición, diseño gráfico, diseño industrial y diseño web han
hecho posible reducir todos los elementos participantes en una composición
cualquiera a sucesiones de dígitos binarios fácilmente encajables entre sí.

A la hora de trabajar con elementos gráficos, el primer paso consiste en recopilar


lo necesario para la composición, pudiendo usar diferentes fuentes y técnicas para
ello: escaneado de documentos, ilustraciones o fotografías en papel, creación
directa mediante programas de diseño gráfico, dibujo digital mediante tabletas
digitalizadoras, obtención de fotografías con cámaras digitales, utilización de
gráficos y fotografías ya existentes, gratuitas o no, etc.

Figura 38 Adquisición de imágenes


Normalmente, estas primeras versiones de los componentes gráficos no se
adaptan 100% a las necesidades, por lo que será preciso un posterior trabajo con
programas de retoque de imágenes para conseguir esas características finales
buscadas.

Conforme se vayan obteniendo las versiones finales de las imágenes se requiere


nombrarlas y almacenarlas mediante algún sistema que haga posible una gestión
efectiva de las mismas y de sus originales, de tal forma que se pueda localizarlas
y estén disponibles en cualquier momento.

Por último, es necesario realizar la composición de todos los elementos gráficos y


textuales, utilizando generalmente para ello algún programa de autoedición,
diseño gráfico o diseño web.

Para poder realizar todo este trabajo es preciso tener un conocimiento profundo de
la naturaleza de las imágenes digitales, de sus tipos y propiedades (mapas de bits
y gráficos vectoriales), de los diferentes formatos de almacenamiento y de las
herramientas físicas (hardware) y lógicas (software) necesarias para su obtención,
manipulación y composición, todos estos temas se verán a continuación.

%! $ " ) )
Las imágenes digitales son fotos electrónicas tomadas de una escena o
escaneadas de documentos -fotografías, manuscritos, textos impresos e
ilustraciones. Se realiza una muestra de la imagen digital y se confecciona un
mapa de ella en forma de cuadrícula de puntos o elementos de la figura (píxeles).
A cada píxel se le asigna un valor tonal (negro, blanco, matices de gris o color), el
cual está representado en un código binario (ceros y unos). Los dígitos binarios
("bits") para cada píxel son almacenados por una computadora en una secuencia,
y con frecuencia se los reduce a una representación matemática (comprimida).
Luego la computadora interpreta y lee los bits para producir una versión analógica
para su visualización o impresión.
Figura 39 Mapa de bits

Como se exhibe en la imagen bitonal, a cada píxel se le asigna un valor tonal, en


este ejemplo 0 para el negro y 1 para el blanco.

%! &

La resolución es la capacidad de distinguir los detalles espaciales finos. Por lo


general, la frecuencia espacial a la cual se realiza la muestra de una imagen digital
(la frecuencia de muestreo) es un buen indicador de la resolución. Este es el
motivo por el cual dots-per-inch (puntos por pulgada) (dpi) o pixels-per-inch
(píxeles por pulgada) (ppi) son términos comunes y sinónimos utilizados para
expresar la resolución de imágenes digitales. Generalmente, pero dentro de
ciertos límites, el aumento de la frecuencia de muestreo también ayuda a
aumentar la resolución

La resolución de una imagen no debe ser nunca mayor que la del medio en
el que se va a publicar, pues supondría un exceso de información que no va
a ser utilizada. Si se representa un gráfico la relación calidad imagen-
resolución para un medio de publicación determinado, llega un punto en que
por mucho que aumentemos la resolución, la calidad no aumentará, pero sí
el peso del archivo y los recursos necesarios para manipularla.
Figura 40 Relación entre resolución y calidad de la imagen

Las imágenes de alta resolución reproducen generalmente más detalle y


transiciones más sutiles del color que imágenes de baja resolución. Sin embargo,
el aumento de la resolución de una imagen baja resolución separa solamente la
información original en un mayor número de píxeles, pero raramente mejora la
calidad de la imagen.

Los diferentes medios utilizan diferentes resoluciones, siendo las más comunes
las siguientes:

Medio Resolución de trabajo


Pantalla de ordenador 72 ppp
Prensa (periodicos, revistas, Normalmente, 90 ppp, aunque puede subir a
etc.) 300 ppp en impresión offset
Impresora, Diferentes resoluciones generalmente entre
300 ppp y 600 ppp (impresoras laser)
Fotografía Suele emplear imágenes de 800-1500 dpp y
mayores
Imprenta Es necesario saber la lineatura de impresión,
pues la resolución de una imagen se
corresponde con la lineatura de impresión en
una escala de 2:1 (para imprimir a 150 lpp,
deberá trabajar las imágenes al doble, 300
ppp. En fotocomponedoras para impresión
se suele trabajar a 1200 ppp

Si se está realizando trabajando con imágenes destinadas a la impresión, los


archivos gráficos grandes, con mucha resolución y/o tamaño, tardan más en ser
procesados por el RIP (Raster Image Processor), el procesador de imágenes de
un aparato postscript. Cualquier ahorro sensato de tamaño es algo que redundará
en trabajos manejables y menos dados a causar problemas y retrasos.

Además, la resolución no es algo que se pueda elegir al azar. Aunque las cámaras
digitales o las filmadoras sean capaces de llegar a resoluciones muy altas, el limite
de trabajo lo va a marcar el medio en el que vaya a imprimir, el método que vaya a
usar para ello y el dinero disponible para pagar por ello.

Si la imagen está destinada a ser impresa en una impresora de inyección de tinta,


habrá que digitalizar la imagen a una resolución de 300 ppp para que la definición
final sea correcta, ya que ésta es la resolución máxima que suelen dar estos
dispositivos.

Si una imagen está destinada a ser visualizada en un monitor de computador, hay


que tener en cuenta que la resolución de estos periféricos es de 72 ppp en los
aparatos Macintosh y 96 píxeles por pulgada en los PCs con sistemas Windows,
por lo que habrá que digitalizarla a estas resoluciones. Si se proporciona mayor
resolución estará desperdiciando recursos, sobre todo si la imagen está destinada
a la web, ya que tardará mucho más en descargarse desde el servidor sin
conseguir ninguna ventaja visual con ello.

Es conveniente utilizar como unidades de medida de las dimensiones de una


imagen bien los píxeles de pantalla, si está destinada a mostrarse en un monitor,
bien los puntos de impresión, si está destinada a la imprenta o impresora.

El espacio relativo de pantalla ocupado por una imagen de dimensiones 150x100


píxeles será el mismo sea cual sea la resolución, con la única diferencia de que
cuanto menor sea ésta, más grande será su tamaño absoluto en pulgadas o
centímetros, al ser de mayor tamaño los píxeles.

No olvide que la resolución útil de una imagen nunca es mayor que la del medio
en el que se visualiza. Una imagen escaneada a 200 ppp se visualizará en un
monitor de PC con la configuración por defecto a 96 ppp, desperdiciándose el
resto de información sobre los valores de los píxeles de la imagen, mientras que
una imagen escaneada a 50 ppp se visualizará igualmente a 96 ppp en la pantalla
del monitor, aunque en este caso su calidad será escasa, al no contener los
píxeles suficiente información gráfica.

Tenga en cuenta que las dimensiones de una imagen en pantalla no suelen


coincidir con las dimensiones de la imagen impresa, ya que, mientras en la
resolución de pantalla permanece constante, la resolución propia de la imagen
varía al cambiar el tamaño de ésta, y viceversa, según las siguientes reglas:

Si se disminuye la resolución de la imagen, la anchura y la altura aumentarán.


Si se aumenta la resolución, la anchura y la altura disminuirán.
Si se aumenta la anchura o la altura, la resolución disminuirá.
Si se disminuye la anchura o la altura, la resolución aumentará.

Por ejemplo, una imagen de 1 x 1 pulgadas a una resolución de 144 ppp ocupará
en una pantalla de resolución 72 ppp un área de 2 x 2 pulgadas, ya que como el
monitor puede exhibir solamente 72 píxeles por pulgada, necesita 2 pulgadas para
mostrar los 144 píxeles de la imagen.

Por lo tanto, si se desea aumentar las dimensiones de una imagen sin perder
calidad, lo mejor es trabajar con la imagen en una alta resolución (sobre dos veces
la resolución final deseada). Entonces, se disminuye la resolución o se aumenta la
anchura y la altura (ambas acciones producirán resultados similares). Una vez que
las dimensiones de la imagen sean las correctas se podrá disminuir la resolución
al valor deseado.

%!!" 5 +

La profundidad de bits está determinada por la cantidad de bits utilizados para


definir cada píxel. Cuanto mayor sea la profundidad de bits, tanto mayor será la
cantidad de tonos (escala de grises o color) que puedan ser representados. Las
imágenes digitales se pueden producir en blanco y negro (en forma bitonal), a
escala de grises o a color.

Una imagen bitonal está representada por píxeles que constan de 1 bit cada uno,
que pueden representar dos tonos (típicamente negro y blanco), utilizando los
valores 0 para el negro y 1 para el blanco o viceversa.

Una imagen a escala de grises está compuesta por píxeles representados por
múltiples bits de información, que típicamente varían entre 2 a 8 bits o más.

Ejemplo: En una imagen de 2 bits, existen cuatro combinaciones posibles: 00, 01,
10 y 11. Si "00" representa el negro, y "11" representa el blanco, entonces "01" es
igual a gris oscuro y "10" es igual a gris claro. La profundidad de bits es dos, pero
la cantidad de tonos que pueden representarse es 22 ó 4. A 8 bits, pueden
asignarse 256 (28 ) tonos diferentes a cada píxel.

Una imagen a color está típicamente representada por una profundidad de bits
entre 8 y 24 o superior a ésta. En una imagen de 24 bits, los bits por lo general
están divididos en tres grupos: 8 para el rojo, 8 para el verde, y 8 para el azul.
Para representar otros colores se utilizan combinaciones de esos bits. Una imagen
de 24 bits ofrece 16,7 millones (2 24) de valores de color. Cada vez más, los
escáneres están capturando 10 bits o más por canal de color y por lo general
imprimen a 8 bits para compensar el "ruido" del escáner y para presentar una
imagen que se acerque en el mayor grado posible a la percepción humana.
Figura 41 Imagen bitonal (1 bit), Escala de grises (8 bits) y a Color (24 bits)

En los siguientes se muestra la cantidad de tonos representados por las


diferentes profundidades de bits más comunes:

1 bit (21) 2 tonos


2 bits (22) 4 tonos
3 bits (23) 8 tonos
4 bits (24) 16 tonos
8 bits (28) 256 tonos
16 bits (216) 65.536 tonos
24 bits (224) 16,7 millones de tonos

%!%& 4 6

Es el rango de diferencia tonal entre la parte más clara y la más oscura de una
imagen. Cuanto más alto sea el rango dinámico, se pueden potencialmente
representar más matices, a pesar de que el rango dinámico no se correlaciona en
forma automática con la cantidad de tonos reproducidos. Por ejemplo, el microfilm
de alto contraste exhibe un rango dinámico amplio, pero presenta pocos tonos. El
rango dinámico también describe la capacidad de un sistema digital de reproducir
información tonal. Esta capacidad es más importante en los documentos de tono
continuo que exhiben tonos que varían ligeramente, y en el caso de las fotografías
puede ser el aspecto más importante de la calidad de imagen.
Figura 42 Comparación de rango dinámico. La de la derecha permite representar mejor las
sombras y la luz.

%!2"

A la hora de trabajar con imágenes en formato digital se debe tener en cuenta la


configuración de los sistemas utilizados para visualizarlas, ya que esto
condicionará el proceso de edición de las mismas.

La mayoría de los ordenadores personales limitan el número de colores que se


pueden mostrar simultáneamente a 256. Los colores disponibles, en lugar de ser
un conjunto fijo, pueden ser seleccionados de una paleta de 16 millones de
colores (el modelo RGB). Es decir, la gama total de colores cubre todas esas
combinaciones, pero en cada momento sólo es posible mostrar 256 diferentes.

Para solucionar esta deficiencia, manteniendo un número máximo de 256 colores


(8 bits por canal), se introdujeron las paletas de color, en las que se utilizan los
colores que sean más apropiados para la imagen (desde 4 a 256). La paleta
puede ser exacta (escoge los mismos colores que aparecen en la imagen),
adaptable (escoge los colores que encuentra), web (escoge los colores más
próximos dentro de la paleta WebSafe), etc.
Figura 43 Paleta de colores (www.htmlweb.net/diseno/graficos_digitales/graficos_5.html)
Las imágenes que utilizan una paleta de colores propia requieren un espacio
adicional en el archivo para guardar esta información. La información de cada uno
de los colores utilizados en la paleta ocupará 24 bits (8 bits par cada color básico),
por lo que para almacenar una paleta de 256 colores se requerirán 6.144 bits (256
valores x 24 bits = 6.144 bits).

Una vez definida la paleta, la información relativa a cada uno de los puntos que
forman la imagen no contendrá el valor absoluto del color de ese punto, sino que
hará referencia a uno de los colores de la paleta. Será la tarjeta gráfica del
ordenador la que utilizará la información de la paleta de color para saber en qué
proporciones se debe mezclar los tres colores básicos que permiten cada uno de
los colores.

El resultado es una gama de colores casi real con un número de colores pequeño,
con lo que el archivo gráfico resultante ocupará menos espacio. Por este motivo, y
por la existencia de formatos gráficos que sólo permiten trabajar con 256 colores,
las paletas de color se mantienen vigentes, a pesar de la mejora de prestaciones
de las tarjetas de vídeo, capaces de trabajar en la actualidad con millones de
colores sin pérdida de rendimiento del sistema.

%!; E 9 * 4 65

Los mapas de bits pueden estar definidos en un número variable de colores.


Como regla general, cuantos más colores tenga la imagen, mayor calidad tendrá,
aunque esta regla depende mucho de la imagen en sí.

Si se trabaja con una profundidad de color de 8 bits se tendrán 256 colores


posibles para cada píxel (caso de iconos o ilustraciones en formato GIF, por
ejemplo) y si se aumenta la profundidad a 24 bits se tendrán millones de colores
para cada píxel de la imagen (caso de fotografías en formato JPG o PNG, por
ejemplo).

También es posible definir diferentes resoluciones para una imagen. Cuanto


mayor sea la resolución, más píxeles formarán la imagen, más datos de
información necesitará y, por lo tanto, mayor será el tamaño del archivo resultante.

Por lo tanto, cuantos más colores tenga una imagen y cuanto mayor sea su
resolución, mayor tamaño tendrá el archivo necesario para almacenarla.

Para calcular el tamaño del archivo se aplica la siguiente fórmula:


d d d
=

alto : es el alto de la imagen en pulgadas


ancho: es el ancho de la imagen en pulgadas
resolución: es cantidad de pixeles de la imagen por pulgada (píxel/pulgada)
profundidad: cantidad de bits utilizados para representar los diferentes tonos de
color.

Para una imagen de 3 x 2 pulgadas a una resolución de 72 ppp y con una


profundidad de color de 8 bits, por ejemplo, se tendrá un tamaño de archivo de

d d d
= = =
Si se trabaja directamente con dimensiones en pixeles (imágenes capturadas de
cámaras), el alto y el ancho vienen expresados directamente en pixeles, por tanto
la fórmula se modifica:
d d
=
donde alto y ancho viene en pixeles.

Por ejemplo para una imagen de 400 por 300 pixeles a todo color de 24 bits, el
tamaño del archivo quedaría:

d d
= = ≈
como se puede notar el tamaño del archivo a todo color crece rápidamente.

%! 9* 4 65

La compresión se utiliza para reducir el tamaño del archivo de imagen para su


almacenamiento, procesamiento y transmisión. El tamaño del archivo para las
imágenes digitales puede ser muy grande, complicando las capacidades
informáticas y de redes de muchos sistemas. Todas las técnicas de compresión
abrevian la cadena de código binario en una imagen sin comprimir, a una forma de
abreviatura matemática, basada en complejos algoritmos. Existen técnicas de
compresión estándar y otras patentadas. En general es mejor utilizar una técnica
de compresión estándar y ampliamente compatible, antes que una patentada, que
puede ofrecer compresión más eficiente y/o mejor calidad, pero que puede no
prestarse a un uso a largo plazo.

Los sistemas de compresión también pueden caracterizarse como sin pérdida o


con pérdida. Los sistemas sin pérdida, como ITU-T.6, abrevian el código binario
sin desechar información, por lo que, cuando se "descomprime" la imagen, ésta es
idéntica bit por bit al original.

Los sistemas con pérdida, como JPEG, utilizan una manera de compensar o
desechar la información menos importante, basada en un entendimiento de la
percepción visual. Sin embargo, puede ser extremadamente difícil detectar los
efectos de la compresión con pérdida, y la imagen puede considerarse "sin
pérdida visual". La compresión sin pérdida se utiliza con mayor frecuencia en el
escaneado bitonal de material de texto. La compresión con pérdida típicamente se
utiliza con imágenes tonales, y en particular imágenes de tono continuo en donde
la simple abreviatura de información no tendrá como resultado un ahorro de
archivo apreciable.

Figura 44 Compresión con pérdida (www.library.cornell.edu/preservation/tutorial-


spanish/intro/intro-07.html)

Compresión con pérdida: Observe los efectos de la compresión JPEG con


pérdida sobre la imagen ampliada por medio del acercamiento de la izquierda. En
la imagen inferior, se ven artefactos en forma de cuadrados de píxel de 8 x 8, y los
detalles finos, como por ejemplo las pestañas, han desaparecido.
Los sistemas de compresión emergentes ofrecen la capacidad de proporcionar
imágenes de resolución múltiple desde un solo archivo, proporcionando flexibilidad
en la entrega y la presentación de las imágenes a los usuarios finales.

Algunos de los algoritmos de compresión son:

RLE (Run Length Encoded). Es tal vez el esquema de compresión sin pérdidas
más sencillo, y también uno de los más ineficaces. Está basado en sustituir la
información gráfica de píxeles que se repiten por el valor del color de uno de ellos
y la posición de cada uno de los puntos que lo utilizan.

Este método permite obtener un alto nivel de compresión en imágenes que


contengan muchas áreas del mismo color, sin que se produzcan pérdidas de
calidad. El problema surge cuando los colores de la imagen son muy dispares,
caso en el que se pueden obtener archivos de mayor tamaño que los originales.

RLE es el algoritmo utilizado en los formato gráficos BMP y PCX, aunque cada
uno usa un método distinto de implementación.

LZW (Lempel-Ziv-Welch). Sistema de compresión sin pérdidas, actualmente


propiedad de la empresa Unisys, desarrollado por los matemáticos Abraham
Lempel y Jakob Ziv en los años 1977 y 1978, y refinado por Terry Welch en1984.

Este algoritmo surgió con objeto de que todas las personas de la empresa
Compuserve pudieran intercambiar de forma rápida imágenes en formato gráfico
GIF, independientemente de la plataforma usada.

LZW es un compresor tipo diccionario, que utiliza para la compresión una tabla de
cadenas, reemplazando las cadenas de caracteres iguales del archivo por códigos
numéricos únicos que las representan, con lo que es capaz de comprimirlas
aunque no se encuentre en sucesión. En el archivo comprimido no aparece
explícitamente la tabla de cadenas, sólo la tabla de caracteres individuales y el
conjunto de todos los códigos generados. De esta forma se consiguen niveles de
compresión máxima de 2:1

Este sistema es recomendable para comprimir archivos que contengan muchos


datos repetidos, como imágenes sencillas, monocromáticas o que contengan
áreas de color de gran tamaño, siendo utilizado en los formatos TIFF, GIF y JPG-
LS, así como en archivos de lenguaje PostScript.

JBIG (Joint Bi-level experts Image Group). Sistema de compresión sin pérdidas
muy robusto para imágenes bi-nivel (en blanco y negro), que opera tanto en modo
secuencial como en modo progresivo.

Cuando se decodifica una imagen codificada progresivamente, inicialmente se


dispone de una imagen de baja resolución con respecto a la original, imagen que
va aumentando su resolución conforme más datos son decodificados.

Este sistema es el usado en el formato gráfico TIFF, no siendo soportado por


ningún navegador web actual.

JPEG (Joint Photograph Expert Group). Sistema de compresión con pérdidas


muy perfeccionado, basado en estudios de la percepción visual humana, que
permite codificar imágenes en color (24 bits) y en escala de grises (8 bits)
mediante la eliminación de datos redundantes que no son importantes y el
suavizado de los bordes y áreas que tienen un color similar.

Con ello se producen pérdidas que degradan levemente la calidad de la imagen,


pero a cambio proporciona altos índices de compresión, ajustables a la calidad
final de la imagen que se desea codificar.

En realidad, JPEG, estándar internacional 10918, describe una familia de técnicas


de compresión basadas en complejas operaciones matemáticas, como conversión
del formato de color, transformación separada del coseno (DCT), cuantizaciones y
codificación entrópica, definiendo tres sistemas diferentes de codificación:

JPEG es un algoritmo de codificación simétrico (decodificar lleva tanto tiempo


como codificar), que ofrece niveles de compresión de 20:1 o mayores, permitiendo
realizar ciertas transformaciones geométricas (por ejemplo, rotación de imagen)
directamente en la matriz transformada, sin regenerar la imagen original.

Es el método de compresión más utilizado actualmente para la compresión de


imágenes con pérdida, siendo usado en los formatos gráfico JPG, TIFF, FlashPix,
en archivos PDF y en archivos de lenguaje PostScript. Además, es la base del
estándar multimedia para imágenes en movimiento, MPEG.

En cuanto a los navegadores web, es soportado desde Internet Explorer 2 y


Netscape Navigator 2.

%!C 9*

La siguiente tabla sintetiza los principales tipos de arribos gráficos


Tabla 1 Principales formatos de gráficos (www.library.cornell.edu/preservation/tutorial-
spanish/presentation/table7-1.html)
Nombre y TIFF 6.0 GIF 89a JPEG (Joint Flashpix 1.0.2 ImagePac, PNG 1.2 PDF 1.3
versión actual (Tagged Image (Graphics Photographic Photo CD (Portable (Portable
File Format) Interchange Expert Network Document
Format) Group)/JFIF Graphics) Format)
(JPEG File
Interchange
Format)

Extensión .tif, .tiff .gif .jpeg, jpg, .jif, .fpx .pcd .png .pdf
(Extensiones) .jfif
Profundidad Bitonal a 1 bit; Bitonal, escala Escala de Escala de Color a 24 bits 1-48 bits; color Escala de
(es) de bits escala de grises de grises o grises a 8 bits; grises a 8 bits; a 8 bits, escala grises a 4 bits;
o color de color entre 1 y 8 color a 24 bits color a 24 bits de grises a 16 color a 8 bits;
paleta de 4 u 8 bits bits, color a 48 soporta hasta
bits; hasta color bits 64 bits para
de 64 bits[1] color

Compresión Descomprimido Sin pérdida: Con pérdida: Descomprimido Con pérdida: Sin pérdida: Descomprimido
sin pérdida: LZW[2] JPEG Formato Deflate, Sin pérdida:
ITU-T.6, LZW, patentado derivado de ITU-T.6, LZW
etc. Kodak "sin LZ77
pérdida
visual"[4]
Con pérdida: Sin pérdida:[3] Con pérdida: Con pérdida:
JPEG JPEG JPEG
Estándar / Estándar de Estándar de JPEG: ISO Especificación Patentado ISO 15948 Estándar de
patentado facto facto 10918-1/2 disponible para (anticipado)[6] facto[7]
el público

JFIF: estándar
de facto[5]
Gestión de RGB, Paleta, Paleta YCbCr PhotoYCC y PhotoYCC Paleta, sRGB, RGB, YCbCr,
color YCbCr,[8] NIF RGB,[9] ICC CMYK
CMYK, CIE ICC (opcional)
L*a*b*

Soporte de Web Conexión o Originario Originario Conexión Aplicación Originario Conexión o


aplicación desde desde Java™ o desde aplicación
externa Microsoft® Microsoft® aplicación Microsoft® externa
Internet Internet externa [10] Internet
Explorer 3, Explorer 2, Explorer 4,
Netscape Netscape Netscape®
Navigator® 2 Navigator® 2 Navigator 4.04,
(pero aún
incompleto)

Soporte de Conjunto básico Campo de texto Campo de texto Gran conjunto A través de Conjunto básico Conjunto básico
metadatos de rótulos libre para libre para de rótulos bases de datos de rótulos de rótulos
etiquetados comentarios comentarios etiquetados externas; no etiquetados etiquetados
posee más rótulos
metadatos definidos por el
inherentes usuario.

Comentarios Acepta Se puede JPEG Proporciona Proporciona 5 ó Puede Preferido para


imágenes y reemplazar por progresivo múltiples 6 resoluciones reemplazar a imprimir y ver
archivos PNG; ampliamente resoluciones de diferentes de GIF documentos de
múltiples[11] soportado por cada imagen; cada imagen; páginas
Soporte de los amplio soporte futuro incierto múltiples; uso
entrelazado y navegadores de la industria, intensivo por
transparencia a Web[12] pero parte del
través de la aplicaciones gobierno
mayoría de los actuales
navegadores limitadas
Web

[1] A pesar de que la especificación TIFF 6.0 provee color de 64 bits, muchos
lectores TIFF soportan un máximo de color de 24 bits.

[2] LZW está patentado y su utilización en el desarrollo de software puede requerir


pagos en concepto de licencias y regalías: Unisys, “License Information on GIF
and Other LZW-based Technologies (Información sobre Licencias para GIF y otras
Tecnologías con base LZW)”, LZW Patent and Software Information (Información
sobre Patentes y Software de LZW).

[3] La especificación JPEG original incluía un modo sin pérdida, pero la mayoría
de las aplicaciones JPEG nunca lo soportaron. Algunos archivos a los que se
denomina JPEGs sin pérdida son, en realidad, archivos no JPEG comprimidos en
un envoltorio JFIF. Hay una nueva especificación para JPEG sin pérdida (JPEG-
LS), pero aún no ha sido terminada. ISO SC29/WG1, "JPEG - Information Links
(JPEG - Enlaces de Información)".

[4] El término Sin Pérdida Visual se refiere a las técnicas de compresión que
tienen pérdidas en sí mismas, pero que aprovechan características de la visión
humana para crear una imagen, que prácticamente no se diferencia de su forma
descomprimida.

[5] C-Cube Microsystems presentó JFIF al público. El formato de archivo "oficial"


para los archivos JPEG es SPIFF (Still Picture Interchange File Format - formato
de archivo de intercambio de dibujos fijos), pero para cuando se presentó, JFIF ya
había obtenido una amplia aceptación. SPIFF, que tiene la designación ISO
10918-3, ofrece compresión, gestión de color y capacidad de metadatos más
versátiles que JPEG/JFIF, pero tiene poco soporte. Puede ser sustituido por JPEG
2000/DIG 2000: ISO SC29/WG1, JPEG - Information Links (JPEG - Enlaces de
Información). Digital Imaging Group (Grupo de Digitalización de Imágenes), “JPEG
2000 and the DIG: The Picture of Compatibility (JPEG 2000 y el DIG: La Imagen
de la Compatibilidad).”

[6] Aprobado por W3C para reemplazar a GIF para usar en la Web.

[7] Adobe ha proporcionado suficiente información para permitir que los


encargados de desarrollar programas escriban aplicaciones que lean y modifiquen
archivos PDF. Sin embargo, los archivos pdf comúnmente se crean y se acceden
utilizando el software Acrobat propio de Adobe.

[8] Al igual que CIE Lab, YCbCr se compone de tres canales: uno para luminancia
(Y) y dos para crominancia (CC).

[9] Otros son soportados en las extensiones de formato de archivo definidas en


ISO/IEC 15444-2 (formato de archivo JPX)

[10] NIF RGB está definido en forma idéntica a sRGB en la especificación 1.0.2 de
Flashpix. La próxima revisión de la especificación de Flashpix puede cambiar a
sRGB.

[11] El formato de archivo JP2 también especifica una manera flexible de agregar
metadatos importantes, ya sea como datos binarios o en XML. Sin embargo, estos
datos se consideran opcionales y no se requiere que los lectores JP2 de base los
lean.

[12] Algunas versiones de Internet Explorer pueden no desplegar los archivos


JPEG progresivos de manera correcta.

% % 3& )? & )
Los gráficos vectoriales, también conocidos como gráficos orientados a objetos,
son el segundo gran grupo de imágenes digitales. Son más simples que los
gráficos de mapas de bits, ya que en ellos las imágenes se almacenan y
representan por medio de trazos geométricos controlados por cálculos y fórmulas
matemáticas, tomando algunos puntos de la imagen como referencia para
construir el resto.

Por lo tanto, las imágenes en los gráficos vectoriales no se construyen píxel a


píxel, sino que se forman a partir de vectores, objetos formados por una serie de
puntos y líneas rectas o curvas definidas matemáticamente.

Por ejemplo, una línea se define en un gráfico de mapa de bits mediante las
propiedades de cada uno de los píxeles que la forman, mientras que en un gráfico
vectorial se hace por la posición de sus puntos inicial y final y por una función que
describe el camino entre ellos. Análogamente, un círculo se define vectorialmente
por la posición de su punto central (coordenadas x,y) y por su radio (r).
Figura 45 Gráfico vectorial de un círculo y una línea

Cada vector en un gráfico vectorial tiene una línea de contorno, con un color y un
grosor determinados, y está relleno de un color a elegir. Las características de
contorno (o filete) y relleno se pueden cambiar en cualquier momento.

Las imágenes vectoriales se almacenan como una lista que describe cada uno de
sus vectores componentes, su posición y sus propiedades.

En cuanto a la resolución, los gráficos vectoriales son independientes de la


resolución, ya que no dependen de una retícula de píxeles dada. Por lo tanto,
tienen la máxima resolución que permite el formato en que se almacena.

%% * L-

Los principales elementos constituyentes de un vector son las denominadas


curvas de Bézier, desarrolladas por Pierre Bézier por encargo de la empresa
Renault, que buscaba una familia de curvas representables matemáticamente (son
curvas de tercer grado) que permitieran representar las curvaturas suaves que
deseaban dar a sus automóviles.

Una curva Bézier queda totalmente definida por cuatro puntos característicos, los
puntos inicial y final de la curva (nodos o puntos de anclaje) y dos puntos de
control (puntos de control, manejadores o manecillas), invisibles en el gráfico final,
que definen su forma. Para modificar su forma, basta cambiar de posición uno de
sus nodos o uno de sus puntos de control.

Son curvas de manejo poco complejo y muy elegantes, con un desarrollo muy
suave, capaces de adaptarse a casi cualquier forma imaginable, por lo que son
muy usadas para diseñar logotipos e iconos y para copiar cualquier figura.

También son enormemente versátiles, pudiendo adoptar desde curvaturas muy


suaves (casi líneas rectas) a curvaturas muy fuerte (curvas complejas), pasando
por todos los valores intermedios. Pueden, incluso, cambiar de cóncavas a
convexas alrededor de un punto.

Figura 46 Ejemplo de gráficos formados con curvas de Bezier

Ventajas y limitaciones de los gráficos vectoriales

Las principales ventajas que ofrecen los gráficos vectoriales, derivadas de su


naturaleza matemática, son:

• Almacenan las imágenes en archivos muy compactos, ya que sólo se requiere


la información (fórmulas matemáticas) necesaria para generar cada uno de los
vectores. dado que no se ha de almacenar información para definir cada punto
de la pantalla, sino una serie de fórmulas matemáticas.
• Permiten modificar el tamaño de las imágenes y de sus objetos componentes
sin que se produzca pérdida de información, pues se actualizan de forma
matemática todas las nuevas relaciones y posiciones de los elementos
geométricos que las componen. Con ello, los cambios de tamaño de las
imágenes vectoriales no afectan a la calidad de las mismas, apareciendo
siempre con la misma nitidez.
• Son muy útiles a la hora de imprimir imágenes, ya que no es necesario pasar a
la impresora la información de cada punto. Basta con ir pasándole la
información de los vectores que forman la imagen.
• Cada objeto viene definido por sus propias fórmulas matemáticas y se maneja
independientemente del resto, pudiendo escalarse, distorsionarse y cambiarse
de forma o de posición sin afectar para nada los otros elementos del dibujo.
• Es posible un control independiente del color, tanto del contorno como del
relleno, admitiendo la aplicación de texturas, degradados, transparencias, etc.
• Se puede controlar con gran precisión la forma, orientación y ordenación de los
elementos.
• Cualquier efecto que se aplique a los objetos puede rectificarse en cualquier
momento, ya que el dibujo es siempre editable. Esto no ocurre en las imágenes
de mapas de bits, en las que una vez pintado un elemento ya no es posible
modificarlo.
• Es fácil reutilizar un dibujo o una parte del mismo en otros proyectos. Basta
copiarlo y pegarlo en un nuevo archivo o en uno ya existente.
• Los objetos del gráfico pueden fusionarse fácilmente entre sí, creando una
serie de formas intermedias. Por ejemplo, se puede pasar de un cuadrado a un
triángulo en cinco formas interpoladas.
• Se puede relacionar de diferentes formas con el resto de objetos del gráfico
(agrupar, separar, recortar, intersectar, etc.).
• Se puede ordenar las formas de cualquier manera si está en superposición
unas con otras.
• Permiten un manejo de textos muy avanzado, ya que admiten fuentes
TrueType, que también son objetos vectoriales. Además, las letras se pueden
convertir en contornos editables, descomponiendo un texto en los objetos
vectoriales que lo constituyen. Una vez convertidas las letras en objetos, ya no
hará falta tener instalada la fuente para seguir editando los contornos, porque
ya no serán letras, sino objetos dentro del gráfico vectorial, pudiendo ser
modificadas como tales.
• Se pueden incluir bitmaps en un dibujo vectorial, bien para rellenos de formas,
bien como elementos separados. En el otro sentido, un vector puede
exportarse a un formato de mapa de bits estándar, como GIF o JPG.

Hasta la aparición de Macromedia Flash y los archivos SWF la inclusión directa de


gráficos vectoriales en la web no era posible. Su introducción en las páginas web
supuso un considerable avance, ya que permiten incluir gráficos de tamaño
modificable sin pérdida de calidad, muy útiles en logotipos, planos, diagramas, etc.

El principal inconveniente de las imágenes vectoriales es que tiene un aspecto


más frío que los gráficos de mapa de bits, con un contorno demasiado perfecto,
que los hace a veces poco naturales, aunque siempre es posible crear
premeditadamente contornos un poco irregulares, para que se parezca algo más
al dibujo natural.

Otros inconvenientes de este tipo de gráficos son su falta de eficacia para


representar imágenes de tipo fotográfico, la dificultad que presenta para tratar
algunas efectos (sombras, luces, etc...) y que cuando son muy grandes o muy
complejas pueden volverse extremadamente difíciles de manejar por los
programas gráficos y por los medios de impresión.

Entre los formatos más populares se encuentran los archivos Postscript de Adobe.
Los archivos de Macromedia Flash (.swf). Los archivos Scalable Vector Graphics
del World Wide Web Consortium (.svg). Y, los archivos de AutoCad (.dxf)

%2 $ B & <? )
Como se ha visto, los gráficos de mapas de bits y los gráficos vectoriales poseen
sus propias ventajas e inconvenientes. Por ejemplo, mientras los mapas de bits
son especialmente útiles para presentar imágenes de tonos continuos, como las
fotografías, los gráficos vectoriales son idóneos para realizar interacciones entre
sus objetos componentes.

Parece lógico pensar que un tipo de gráficos digitales que permitiera trabajar tanto
con mapas de bits como con vectores sería una buena solución para compaginar
lo mejor de ambos formatos. Este es el origen de los meta-archivos (metafiles),
sistemas de grabación de datos que pueden admitir contenidos de distintos tipos.

Un meta-archivo permite guardar contenidos de varios tipos en un mismo archivo,


como fotografías, textos, vectores, e incluso sonido y vídeo, aunque estos últimos
elementos caen fuera del propósito de este curso. Los formatos gráficos que
permiten trabajar con ellos se denominan metaformatos.

Para componer una imagen en un metaformato se utilizan elementos bitmaps para


representar los elementos fotográficos y las figuras irregulares y elementos
vectoriales para definir las líneas, los textos y los dibujos.

Son pues una categoría híbrida en las que se combinan las ventajas de los mapas
de bits y de los gráficos vectorial. Esto les permite almacenar imágenes muy
complejas y avanzadas en archivos de poco peso.

Un problema que puede surgir con los metaformatos es que pueden usar
elementos componentes gráficos (y de audio y vídeo) propietarios no estándares,
que precisen para su manejo aplicaciones o plugins particulares, con la pérdida de
compatibilidad que ello supone.

Los metaformatos gráficos más habituales son GEM (Ventura Publisher), WMF
(Windows Meta-File) y WPG (Word-Perfect Grafics Format).
%; $ " ) "1= ) & 3&@ )
? & )
La decisión de utilizar uno u otro tipo de gráficos en Multimedia debe estar basada
en el tipo específico de sistema multimedia que se va a construir. Las imágenes
utilizadas en una página Web no tienen las mismas características que la
imágenes utilizadas en un CD interactivo. La tasa de transferencia a través de
Internet es muy inferior a la tasa de transferencia de los dispositivos lectores de
CD o DVD actuales. El tamaño final de la imagen es el criterio fundamental
cuando se trabaja en Multimedia para Internet. Esta restricción no existe en el
caso del diseño de un CD o DVD interactivo.

En la siguiente tabla se sintetizan algunas de las diferencias entre los gráficos de


mapa de bits y los gráficos vectoriales.

MAPAS DE PÍXELES GRÁFICOS VECTORIALES


Almacenan la información de cada
Descripción matemática.
píxel
El tamaño del archivo es
El tamaño del archivo es función del
función del número de
tamaño de la imagen.
elementos en la imagen.
Se pueden obtener a partir de un
Interpretados.
original.
Manipulación de la imagen basada Transformaciones
en la manipulación de los píxeles. geométricas.
Pérdida de calidad frente a un Mantienen la calidad frente a
escalado. escalados.

Los programas de dibujado poseen cada vez más características propias de los
programas de pintado y viceversa. Es posible en herramientas de pintado, como
Photoshop, utilizar curvas paramétricas de Bézier. Y al contrario, es posible utilizar
mapas de píxeles en herramientas de dibujado, como Flash.

Por otro lado, es posible efectuar la conversión entre los dos tipos de gráficos.
Siempre es posible obtener una imagen de mapa de píxeles a partir de un gráfico
vectorial, para ello lo único que se debe hacer es fijar el tamaño del mapa de
píxeles final.

A este proceso se le llama rasterizing en inglés. La conversión de un mapa de


píxeles a un grafico vectorial no siempre da buenos resultados, y usualmente, el
número de primitivas que se obtienen tras la conversión es muy elevado.
% 3& )%
La complejidad en la creación y el tratamiento de los gráficos aumenta
radicalmente cuando se trata de gráficos en tres dimensiones. Añadir una tercera
dimensión a los gráficos nos es únicamente realizar cálculos con una coordenadas
más. Tener gráficos en tres dimensiones implica trabajar con objetos sólidos,
muchas veces limitados por superficies. Estos objetos se pueden ocultar unos a
otros, pueden existir iluminación en la escena con lo que necesariamente se ha de
hacer un cálculo de iluminación para determinar el color de los objetos. El uso de
la iluminación también conlleva el cálculo de sombras arrojadas. Y un sin fin de
detalles más que no están presentes en un mundo en dos dimensiones.

Modelado 3D. La construcción de los objetos que aparecen en una escena en tres
dimensiones es lo que se conoce como modelado. Entre las técnicas de modelado
3D destacan la Geometría Sólida Constructiva (Constructive Solid Modeling o
CSG), el Modelado Libre de Formas (Free Form Modeling) y el Modelado
Procedural (Procedural Modeling).

En la Geometría Sólida Constructiva se parte de unas primitivas básicas como son


el cubo, la esfera, el cilindro, etc. También se dispone de un conjunto de
operaciones booleanas básicas como son la unión, la intersección, la resta, etc.
Entre los objetos y las operaciones se pueden establecer una jerarquía.

La primitiva básica en el Modelado Libre de Formas es el parche. Un parche no es


más que un objeto de dos dimensiones en un espacio de tres dimensiones.
Usualmente los parches son superficies de Bézier. Las operaciones básicas de
que se dispone son la extrusión y el contorneado.

En el Modelado Procedural los objetos no se describen matemáticamente si no


indicando como se obtienen. Un ejemplo típico de Modelado Procedural son los
objetos fractales. Para construir un objeto fractal no se da su ecuación, si no el
procedimiento por el cual se obtienen.

Rendering. Se le denomina al proceso por el cual se obtiene una imagen a partir


de la descripción de una escena en tres dimensiones.

. 2

El efecto óptico de imágenes animadas se debe al fenómeno fisiológico de la


persistencia de la visión.
La animación tradicional y sus técnicas son el referente de la animación digital.
Así, se encuentra en la animación digital, la animación por interpolación de
fotogramas clave, técnica base de la animación tradicional.

El caso de la animación 3D es más complejo. Las técnicas de animación 3D van


desde la captura de movimiento hasta las técnicas utilizadas en robótica, tales
como la cinemática directa e inversa.

2 3& )%
El fenómeno fisiológico base de la animación es la persistencia de la visión. Los
estímulos de una imagen permanecen en la retina entre 100 y 20 milisegundos. Si
las imágenes que estimulan la retina son muy parecidas entre sí, se puede
aprovechar este fenómeno para generar la percepción de imágenes en
movimiento. La constatación de la persistencia de la visión data de 1824, año en el
cual Peter Roget presentó ante la British Royal Society su trabajo titulado "The
persistence of vision with regard to moving objects".

2! ' $ ' / "& $ & )


< ) <) & $ '
La animación no es únicamente sinónimo de movimiento en el espacio, en
realidad se trata de un concepto más amplio, ya que además, debe cubrir todos
los cambios que producen un efecto visual, incluyendo la situación en el tiempo, la
forma, el color, la transparencia, la estructura, la textura de un objeto, los cambios
de luz, la posición de la cámara, la orientación el enfoque, e incluso la técnica de
presentación.

Según esta definición las imágenes capturados por un vídeo también constituirían
una animación. Lo que distingue a la animación de las técnicas de adquisición de
imágenes en movimiento es que en la animación los fotogramas son generados
uno a uno, bien por métodos tradicionales de dibujado bien generando las
imágenes en un ordenador.
Existen numerosos métodos para generar la imágenes de una animación, algunos
ejemplos son:

• Películas de Walt Disney: Las imágenes son dibujadas. Blancanieves.


• Pixar: Generación de las imágenes por ordenador. Toy Story.
• Colección Aarmand: Las imágenes son obtenidas fotografiando modelos de
plastIlina. Wallance & Gromitt. Chicken Run.
• Pesadilla antes de Navidad de Tim Burton: Las imágenes son obtenidas
fotografiando personajes articulados.
• Mezcla de actores reales con personajes sintéticos: Las imágenes reales son
combinadas con imágenes generadas por ordenador. ¿Quién engañó a Roger
Rabitt?. Parque Jurásico.
La animación es una técnica de generación de imágenes en movimiento con una
larga historia. Estos son algunos de los hitos más importantes dentro de la historia
de la animación:

• 1824 Peter Roget presenta el trabajo "The persistence of vision with regard to
moving objects" en la British Royal Society.
• 1831 Los doctores Plateau y Ritter construyen el "fenaquistoscopio": ilusión de
movimiento mediante dos discos giratorios.
• 1872 Eadweard Muybridge comienza su recopilación fotográfica sobre
animales en movimiento.
• 1889 George Eastman comienza la fabricación de la película fotográfica.
• 1895 Los hermanos Louis y Auguste Lumière patentan un dispositivo llamado
cinematógrafo, capaz de proyectar imágenes en movimiento.
• 1906 J. Stuart Blackton realiza la primera película de animación titulada
"Humorous phases of funny faces".
• 1909 Winsor McCay realiza unos dibujos animados llamados "Gertie the
Trained Dinosaur" conteniendo unos 10000 dibujos.
• 1913 Pat Sullivan crea una serie de dibujos animados titulada "Félix el Gato".
• 1927 La Warner Brothers lanza "El cantante de Jazz", primera película sonora.
• 1928 Walt Disney crea los primeros dibujos animados con sonido sincronizado:
el ratón Mickey.
• 1964 Ken Knowlton de los laboratorios Bell, comienza a desarrollar técnicas
informáticas para generar animaciones.

2 % "& " ) @) ) $ '


La animación tradicional cuenta con muchos años de experiencia y durante estos
años, que también han sido de experimentación, se han hallado los siguientes
principios básicos:

2% 5 *

Si las imágenes no son refrescadas con la suficiente velocidad se produce lo que


se conoce como efecto estroboscópico, las imágenes parece que se suceden a
saltos. Para evitar este fenómeno cada fotograma es una interpolación de una
imagen y la siguiente.

2%!

Preparación de la siguiente acción (por ejemplo, antes de salir corriendo, forzar


una postura en el sentido contrario). La anticipación permite:
• Preparar los músculos para la acción.
• Preparar al espectador y captar la atención hacia la acción principal.
• Indicar la velocidad de la acción.
2%% #

Para conseguir movimientos fluidos y sensación de elasticidad se usan


deformaciones como el estiramiento y la compresión. Los objetos se deforman en
la dirección de desplazamiento para dar sensación de peso y gravedad.

La deformación es perpendicular a la trayectoria en los impactos. La regla básica


consiste en mantener el volumen de los objetos constante. Con estas
deformaciones se evita el efecto estroboscópico de forma semejante al difuminado
por movimiento.

2%2) #

El solapamiento consiste en comenzar la siguiente acción antes de terminar la


anterior (por ejemplo, para abrir una puerta, el personaje al acercarse va estirando
la mano antes de llegar). La continuación significa que los movimientos no se
detienen bruscamente, sino que continúan más allá de su posición final (por
ejemplo, al golpear un pelota con una raqueta esta continúa su movimiento por
inercia mucho después de haber golpeado a la pelota).

22 0 ) $ ' !

22 5 4 *

Esta es la técnica utilizada en los dibujos animados tradicionales. En esta técnica,


dibujantes expertos crean las imágenes clave de una animación tales como las de
inicio o in de un movimiento. A partir de estos fotogramas, el resto del equipo
dibuja la serie de fotogramas que los conectan.

Esta técnica se combina con el uso de acetatos. Los fotogramas no se dibujan


sobre papel, sino sobre películas transparentes de acetato de tal modo que al
superponer varias de ellas se puede ver una escena compuesta por varios
personajes animados de modo independiente.
22!

Un sprite es una instantánea de un actor en movimiento. La animación por sprites


consiste en mostrar, de modo sucesivo, todos los sprites, con ellos se consigue la
sensación de movimiento. Un sprite puede ubicarse un único sitio, como las
mascotas de ayuda de Windows o algunos gif animados, por ejemplo, o bien
desplazarse a medida que se mueve.

Un mismo sprite puede tener varios patrones de movimiento, por ejemplo un sprite
que represente un actor humano puede contener secuencias de movimiento para
desplazarse, saltar, agacharse, etcétera, cada una de las cuales se activa en el
momento adecuado. Esta técnica fue ampliamente utilizada en los primeros juegos
por ordenador.

22%

Otra técnica comúnmente utilizada en animación son los recortes. Esto significa
que cuando se mueve un personaje no se vuelve a dibujar por completo, sino
simplemente las partes móviles y luego se montan. De esta forma se estudia
previamente cada animación y se determinan qué partes no van a realizar
movimientos parciales, y se dibujan y se animan por separado. El problema de la
animación con recortes es el de las uniones entre piezas, que suelen tener que
trabajarse bastante para que no se note en demasía. Un ejemplo de animación de
este tipo son los populares The Simpsons.

222 4. 4

Las técnicas de animación tradicional por fotograma clave y por sprites tienen su
correspondiente en el mundo digital. Así por ejemplo, una vez que se generan los
fotogramas de una película se pueden montar utilizando QuickTime.

QuickTime también permite la animación de sprite pudiendo contener una


animación dos clases de sprites, los key frame sample que son los propios
sprites y los override sample que especifican cambios en las propiedades del
sprite.

Además de estas existen otras técnicas específicas al mundo digital 2D aquí se


exponen las más comunes.

Animación de gráficos vectoriales

Si en su lugar de utilizar gráficos de tipo mapa de bits, se utilizan gráficos


vectoriales, se está utilizando la animación por vectores.
Es menos realista que la animación por sprites y, si se quiere alcanzar el mismo
realismo es mucho más costosa de generar automáticamente. La ventaja es que
suele ocupar bastante menos espacio además de poderse escalar sin problemas.
Es por ello muy utilizada en Internet. Una de las herramienta más utilizadas para
este tipo de animación es Flash de Macromedia.

Animación por trayectoria

A la vez que cambia, o manteniéndose el mismo gráfico, el objeto puede


desplazarse por la pantalla. Es lo que se llama animación por trayectoria (path-
based animation).

El software actual permite a los animadores desplazar visualmente los objetos


por la pantalla, definiendo los puntos iniciales y finales del movimiento, marcando
con ello líneas rectas o curvas imaginarias que son las que determinan el camino
(path) por el que se desplazará el sprite.

También se suele hablar por esto de control de movimiento ( motion control ). En


los programas especializados se permite un control muy fino sobre aspectos del
camino, como aceleración o trayectorias complejas. En realidad toda animación
por trayectoria se resume en dos aspectos: el camino a seguir y el tiempo de
desplazamiento sobre ese camino.

Para identificar cómo se realiza esta animación en el tiempo, una aproximación


clásica en los programas de creación de animaciones es utilizar una línea de
tiempos (timeline) en la que se indican los distintos fotogramas que irán ocurriendo
al reproducirse. Para marcar los movimientos se determinan libremente
fotogramas clave ( keyframes), que son en los que se determinan las posiciones
clave de los sprites. Entre dos keyframes es el programa el que anima el objeto a
lo largo del camino marcado, creando los fotogramas intermedios (los in-between
frames). Los fotogramas clave establecen los puntos principales de la animación y
son siempre, al menos, el inicial y el final.
El proceso que permite hacer el software de generación de animaciones para
crear los cuadros intermedios entre dos puntos claves se denomina tweening
(intercalado).

El proceso de intercalado permite no sólo mover sobre la pantalla un sprite, sino


cambiar su posición de giro de acuerdo al movimiento, hacer un cambio progresivo
de color o de tamaño, etc. Para ello suele definirse en cada sprite su punto de
control o de registro, que es una especie de "centro de gravedad" sobre el que se
actúa cuando se marca la trayectoria.
2; 0 ) $ ' 3 %
La animación 3D, igual que el diseño de gráficos 3D, es mucho más compleja que
la bidimensional, y requiere por lo general una gran potencia de cálculo para ser
elaborada con calidad, y un elevado tiempo de diseño para producir efectos
realistas de movimiento, especialmente en lo que respecta a la animación de
personajes o a la generación de entornos renderizados.

La animación de personajes en 3D normalmente implica la definición de los


distintos segmentos tridimensionales y la unión entre ellos, definiendo puntos de
conexión y puntos de rotación que permitirán hacer la animación.

Posteriormente habrá que definir cuáles son los fotogramas clave que interesan y
convertir a mapas de bits (renderizar) por separado cada uno de ellos, formando
una secuencia de imágenes realistas que finalmente se unirán secuencialmente
en la composición.

La rotoscopia consiste en capturar un movimiento real, y utilizar esa información


para mover un diseño generado por ordenador. La captura de los datos del
movimiento real incluye:
• Simplificación del modelo: normalmente, los movimientos reales (por ejemplo,
el lanzamiento de un disco en atletismo) son demasiado complejos para
intentar capturarlos íntegramente. Hay que identificar las partes fundamentales
del movimiento.
• Identificación y marcado de los puntos de referencia. Normalmente son las
articulaciones, y se suelen marcar con círculos de tela de un color vivo, pelotas
de pingpong, etc.
• Realización de movimientos y recogida de datos (mediante múltiples cámaras
de vídeo, traje de datos...)

A continuación, y una vez digitalizada la información, se aplica ésta al modelo


generado por ordenador para controlar su movimiento. Mediante esta técnica se
consiguen movimientos de gran realismo, ya que al fin y al cabo se está copiando
el movimiento real.

La animación paso a paso consiste en definir manualmente cada uno de los


fotogramas. En algunos tipos de animación tradicional (animación de figuras de
plastilina), se usa esta técnica. Utilizando un ordenador, se puede definir
manualmente cada uno de los fotogramas de una animación, por ejemplo, dibujar
cada uno de los bitmaps de una pequeña animación cíclica. Esta técnica es muy
lenta, y solo se usa para pequeñas animaciones.

La animación por cotas consiste en basar el movimiento en unos fotogramas


fundamentales (keyframes) y luego dejar que el software genere automáticamente
los fotogramas intermedios mediante métodos de interpolación. Es importante que
las cotas sean representativas del movimiento para que la interpolación tenga
suficiente información. Esta técnica está basada en los métodos de trabajo de la
animación tradicional en la que los animadores más expertos dibujan los
momentos fundamentales del movimiento (cotas o keyframes) y los animadores
principiantes dibujan los fotogramas intermedios (inbetweens).

La animación procedural consiste en describir el movimiento de forma


algorítmica. Hay una serie de reglas que controlan como se van modificando los
distintos parámetros (como la posición o la forma) a lo largo del tiempo. Para
movimientos sencillos (un péndulo o una rueda que gira) es una buena solución,
pero para movimientos más complejos (una persona caminando, o una moneda
que cae al suelo), resulta difícil conseguir buenos resultados. Hay algunas
técnicas con resultados interesantes, como los sistemas de partículas o la
simulación de movimientos grupales.

La animación tradicional a menudo rompe las leyes de la Naturaleza, y suele


definir movimientos atractivos y con carácter, pero imposibles en la realidad. Para
realizar animaciones realistas, hay que tener en cuenta esas leyes de la
Naturaleza: la animación basada en leyes físicas, utiliza la cinemática y la
dinámica. Muchos movimientos cotidianos son muy difíciles de reproducir.La
cinemática estudia los movimientos con independencia de las fuerzas que los
producen, y se usa en animación en dos variantes:

• La cinemática directa (direct kinematics): es la posibilidad de mover algunas


de las "piezas" de un personaje o montaje 3D actuando sobre un punto y
produciendo un movimiento sobre su eje o centro de rotación (por ejemplo,
mover el brazo fijada la rotación sobre el hombro. El programa de animación
3D genera con fórmulas geométricas simples todos los movimientos
necesarios de las partes ligadas a su vez a ella. En este caso, en la jerarquía
de movimientos o giros definida, se parte de un eje más importante fijo (por
ejemplo, el hombro) para mover elementos más sencillos (por ejemplo, el
brazo).

• La cinemática inversa (inverse kinematics): es la posibilidad de que,


moviendo elementos más sencillos en la jerarquía, el programa interpole el
resto de articulaciones o puntos de giro, que pueden ser configurados por el
animador, para conseguir que se muevan acorde a eso. Este tipo de
movimiento es mucho más interesante pero a la vez más complejo, ya que en
general no hay un sólo modo de rotar los elementos entre sí para conseguir
seguir el movimiento final que pretende el usuario. Por ejemplo, un codo puede
girar en un sentido, pero no en otro. Por ello pueden configurarse márgenes de
rotación que indiquen al software qué límites tiene a la hora de elegir entre
unos movimientos u otros.
La dinámica estudia el movimiento teniendo en cuenta las fuerzas que lo
producen. Se puede obtener gran realismo, pero resulta difícil especificar la
animación. Hay que tomar en consideración masas, aceleraciones, grados de
libertad, restricciones al movimiento, movimientos prioritarios... La dinámica de los
cuerpos rígidos articulados es más sencilla que la de los cuerpos deformables. Se
distingue:
Dinámica directa: a partir de las masas y fuerzas aplicadas, se calculan las
aceleraciones.
Dinámica inversa: a partir de las masas y aceleraciones, se calculan las fuerzas
que hay que aplicar.

Otras técnicas utilizan curvas tridimensionales flexibles o algunas otras variantes


basadas en polígonos en lugar de esferas. Técnicas más avanzadas de animación
3D emplean otros enfoques radicalmente distintos, como deformaciones,
morphing, sistemas de partículas, basados en simulación de fenómenos naturales,
etcétera.

. ; )

Hasta la fecha la producción del audio nunca había tenido tanta importancia en los
diseños de productos y aplicaciones multimedia. Frente a los antiguos sistemas de
sonido de los computadores personales, ahora están los sistemas más
sofisticados, que cuentan con una infinidad de aparatos electrónicos y eléctricos,
como simples tarjetas hasta generadores y sintetizadores de sonido. Además de
eso, la industria informática para la creación y producción musical cada vez mas
dota sus programas de recursos interactivos y sencillos, culminando en mejor uso
y cualidad de sus aplicaciones. Otro hecho que obliga a estar atento para
producción del audio para los multimedia, es que cada vez más los computadores
traen desde la fábrica aparatos de sonido capaces de reproducir sonido con
cualidad digital.

En esta sección se reflexiona sobre la importancia del sonido en los multimedia de


carácter comercial o educativo, sobre la importancia del audio como elemento
motivador del aprendizaje. También se muestra la relación entre los elementos
que componen un producto de esta naturaleza, el proceso de producción del
audio, los programas más sencillos para la composición y la creación musical, así
como los de digitalización, edición y compresión del audio, producción de
narraciones y locuciones.

Todo lo anterior tomado de un artículo publicado por Jackson Colares de Silva de


la Universitat de Les Illes Balears53.

; ) )$ $
Con el desarrollo de los sistemas de sonido para ordenadores personales de
sobremesa y portátiles, que incorpora las tarjetas de sonido, los altavoces y los
periféricos internos y externos para el control de grabación y reproducción del
sonido, de los programas de composición, secuenciación y edición musical, y
también de compresión de audio y vídeo desarrollados para aproximar la Red a
los programas multimedia en soporte CD-ROM, el elemento donde se concentrará
las mayores expectativas en las aplicaciones multimedia, sea de cuño comercial o
educativo, será el audio, que podrá aparecer de las más variadas formas y con los
mas variados propósitos. Consecuentemente, el audio deja de ser un elemento
lejano a la producción y pasa tener la responsabilidad de romper la monotonía y
tornar el producto más atractivo e interactivo.

Indiscutiblemente en la sociedad actual, ahora denominada "sociedad multimedia


o de la información", ya no se pueden concebir productos multimedia que no
dispongan de una elaborada Interfaz de audio. Es decir, que no posea una buena
banda sonora, efectos sonoros para los eventos gráficos de imagen y texto, de
interactividad y comunicación a través de narración y locuciones, además, que si
no los tuviera, resultaría muy complicado explicar como considerar este producto
multimedia. Cada vez más la expectativa de la sociedad frente al desarrollo de la
tecnología es igualmente más exigente y critica, sin embargo, se espera que los
diseñadores exploren al máximo las posibilidades del medio, y de los soportes
disponibles y utilizados en la producción de estos productos. En palabras de
Aguadero:

"Hasta ahora toda nuestra relación directa con el ordenador, y viceversa, ha sido a
través del sentido del tacto, tocando las teclas o botones. Sin embargo, nuestra
relación como persona con el mundo que nos rodea sólo se canaliza a través del
tacto en 1,5%, mientras que lo hacemos en 83% por la vista y en un 11% por el
oído. Es obvio que en nuestra relación con los ordenadores ha de ser por medio
de los sentidos, como todo tipo de relación, y entre ellos está el tacto, pero se ha
elegido hasta ahora la vía mas estrecha y complicada para el entendimiento, al
usar únicamente el tacto (solo 1,5% del sensorial), y no se han tenido en cuenta
las posibilidades de relación y comunicaciones que ofrecen <<carreteras de
primera>> como el oído (el 11% del sensorial), o <<grandes autopistas>> para la
percepción como la vista (83%). Esto indica que en el futuro los progresos de
relación con el ordenador deberán tener más en cuenta estos dos aspectos

; ' ' & ( ' & ' ((X ' ' ' \ '
' & \ B F; J G
" &)
)$$$ ! ,)
H? @D.6?) )& *- &)& * ) ' "
sensoriales de la persona".

Indiscutiblemente, el sonido hace ver la imagen de modo diferente a lo que esa


imagen representaría sin su apoyo y la imagen hace oír el sonido de modo
diferente a como se escucharía sin referencias visuales.

Ante un sonido caben tres actitudes diferentes en el receptor:

La escucha causal: se trata de obtener información sobre el origen del sonido,


esté o no ante nuestros ojos.
La escucha semántica: el objetivo es decodificar un mensaje sonoro que utiliza
un código o lenguaje.
La escucha reducida: se atiende a las cualidades del sonido sin buscar causas o
significados.

; !$

La presencia del sonido en una pantalla visual de una aplicación multimedia puede
responder a tres modalidades:

Sonido in: la fuente sonora se hace visible en la imagen. Por ejemplo cuando se
presenta la imagen de un ave cantando y en el mismo momento se escucha su
canto.

Sonido off: la fuente sonora no se hace visible en la imagen, pero la lógica del
relato justifica su existencia. Por ejemplo cuando se presenta una animación de
finalización de un concierto y se escucha aplausos (sin que se muestre el público).

Sonido over: la fuente sonora no es visible ni responde a la lógica del relato. En


este caso la fuente y el origen del sonido se sitúan claramente fuera de la historia.
Por ejemplo: en el caso de las bandas sonoras con canciones, o la música
ambiental.

; %$ 5

El elemento sonoro se manifiesta en un producto multimedia a través de tres


manifestaciones básicas: la voz, la música y los ruidos.

La voz

Es el recurso sonoro más utilizado en las aplicaciones multimedia. Puede ser


utilizada de dos maneras: el monólogo y el diálogo.
Se pueden identificar varios tipos de monólogos:

El monólogo simple en el que habla un único personaje, refiriéndose a sí mismo


o expresando sus ideas, pensamientos, emociones o deseos sobre un
determinado asunto o acontecimiento.

El monólogo alternado en el que intervienen dos o más personajes que se


suceden sin llegar a dialogar entre sí.

El monólogo narrado en el que las palabras y los pensamientos de un personaje


son relatados, es decir, contados por un narrador en tiempo pasado y en tercera
persona.

El autodiálogo en el que un personaje dialoga consigo mismo, es decir, se da un


desdoblamiento o se crea un alter ego (otro yo) al que se interpela sobre
determinados asuntos.

Por otro lado los diálogos son un intercambio alternativo, directo, inmediato,
personal y dialéctico de ideas, opiniones o sentimientos entre dos o más
personajes por medio del lenguaje.

Su uso es apropiado por diversas razones entre las que se pueden señalar las
siguientes: atraen el interés; movilizan la imaginación; facilitan la concentración;
hacen más expresivo el lenguaje; establecen una comunicación personal y
emotiva; facilitan la empatía; problematizan los asuntos; activan la inteligencia y
son más eficaces porque transmiten el mensaje de modo implícito o indirecto.

Podemos identificar dos tipos de diálogos:

Diálogos de comportamiento o ambientales que se plasman en conversaciones


intrascendentes propias de la vida cotidiana (saludos, despedidas, presentaciones,
etc.)

Diálogos expresivos o dramáticos que informan de los pensamientos,


sentimientos e intenciones de los personajes. Tienen un claro origen teatral.
Los diálogos que se incluyen en un guión deben ser claros y creíbles de modo que
capten la atención del receptor. El diálogo debe sonar espontáneo y ser
pronunciado con sus discontinuidades y repeticiones propias del habla cotidiana.

La música

Se incorpora al audiovisual como un elemento más del mensaje audiovisual. Su


utilización debe estar justificada por alguna de las siguientes concepciones:
• Contextual: se utiliza la música como un elemento necesario para crear un
clima o una atmósfera el cual provoque un estado de ánimo o una sensibilidad
que predisponga a recibir el mensaje audiovisual con una determinada
disposición o actitud general.

• Dramática: la música influye sobre las emociones y sentimientos del


espectador y contribuye a la compresión de la narración audiovisual. En esta
concepción el recurso de la música tiene como objetivo ayudar a contar la
historia, ilustrar las ideas y no simplemente acompañar a las imágenes. La
música no tiene por qué limitarse a crear un clima emocional general, no tiene
por qué ser un adorno o un añadido a la imagen o la voz.

Los ruidos y silencios

La inclusión de ruidos en el multimedia tiene como finalidad esencial la creación


de un ambiente de realismo y, por consiguiente, de contextualización de los
escenarios en los que tiene lugar la narración audiovisual. Los ruidos pueden ser
naturales (la lluvia, el viento, el oleaje del mar, el cauce de un río, el murmullo de
un grupo de personas hablando, etc.), instrumentales (tambores, xilófono,
percusiones, etc.) o electrónicos (ondas, frecuencias, etc.).

En general, el uso de ruidos hacen más realista el relato audiovisual y contribuye a


hacer más creíble el mensaje, si se teniendo en cuenta la pérdida de nivel de
iconicidad que implica el uso de la imagen fija.

Es necesario destacar que parte del sonido lo constituyen también los silencios,
que adecuadamente utilizados son un elemento fundamental para la creación del
ritmo, la recuperación de la atención del receptor o para provocar la reflexión.

;! & M / & &1) ) )


El sonido es una vibración que se propaga a través del aire, gracias a que las
moléculas del aire transmiten la ibración hasta que llega al oído. Se aplican los
mismos principios que cuando se lanza una piedra a un estanque: la perturbación
de la piedra provoca que el agua se agite en todas las direcciones hasta que la
amplitud de las ondas es tan pequeña, que dejan de percibiese.
Figura 47 Sonido originado por un diapasón

El diapasón es un excelente ejemplo de fuente de sonido por dos razones: la


primera es que puede observarse el movimiento de vaivén de sus brazos mientras
se escuchan los resultados de esta vibración; la segunda es que el diapasón vibra
a una frecuencia (vibraciones por segundo) constante hasta que toda su energía
se ha disipado en forma de sonido. Una perturbación que viaja a través del aire se
denomina onda y la forma que adopta esta se conoce como forma de onda.

;! .

La forma de onda del diapasón es la más sencilla de las formas de onda,


denominada onda Sinusoidal. La frecuencia de sonido se mide en unas unidades
denominadas Hertzios (Hz). Un sonido que vibra una vez por segundo tiene una
frecuencia de 1 Hz. Las frecuencias se escriben normalmente en kilohertzios
(kHz), unidad que representa 1.000 Hz. Una persona joven con unos oídos
saludables puede oír sonidos que estén en el rango de los 20 Hz a los 20.000 Hz
(20 kHz).

La amplitud de la onda disminuye a medida que el sonido se aleja de su fuente,


extendiéndose en todas las direcciones. El oído y un micrófono incorporado en la
tarjeta de sonido se comportan de manera similar. Ambos transforman pequeñas
variaciones en la presión del aire en señal eléctrica que puede ser comprendida y
almacenada por sus respectivos "cerebros" (ya sea el humano o la CPU de la
computadora). Esta señal eléctrica puede ya ser guardada, manipulada o
reproducida mediante los medios electrónicos adecuados.
Amplitud

La medida de la amplitud de una onda es importante porque informa de la fuerza,


o cantidad de energía, de una onda, que se traduce en la intensidad de o que
oímos, su unidad de medida es el decibelio. Un decibelio, abreviado como dB, es
una unidad de medida de la fuerza de la señal y es útil en la comparación de la
intensidad de dos sonidos.

La sensibilidad del oído humano es extraordinaria, con un rango dinámico o


variación en intensidad muy amplio. La mayoría de los oídos humanos pueden
capturar el sonido del murmullo de una hoja y, después de haberse sometido a
ruidos explosivos como los de un avión, siguen funcionando. Lo que es
sorprendente es que la fuerza de la explosión en un avión es al menos 10 millones
de veces mayor que el murmullo que una hoja produce con el viento.

El oído necesita un porcentaje elevado de variaciones en la fuerza de un sonido


para detectar un cambio en la intensidad percibida, lo que significa que la
sensibilidad del oído a la fuerza del sonido es logarítmica, de manera que el
decibelio, unidad de medida logarítmica, es la elección más adecuada para medir
la fuerza del sonido. El aspecto práctico de la amplitud es que un incremento de
sólo 3 dB duplica la intensidad de un sonido. Por ejemplo, un sonido con 86 dB
tiene, el doble de fuerza que un sonido con 83 dB y cuatro veces más que un
sonido con 80 dB. Desde la perspectiva de la percepción de la intensidad, un
incremento de 3 dB, que da lugar a que se duplique la fuerza, provoca que el
sonido se perciba sólo ligeramente más alto. Es necesario un aumento en 10 dB
para que los oídos perciban un sonido con el doble de intensidad.

Rango dinámico

La calidad de los sonidos musicales grabados no es demasiado importante, ya


que nunca son comparables a los reales. La razón principal es que el equipo
estéreo no puede duplicar el rango dinámico completo de una orquesta o de un
concierto de rock. Una orquesta puede alcanzar los 110 dB en su clímax y en el
punto más suave bajar hasta los 30 dB, dando lugar a un rango dinámico de 80
dB. Este rango es superior al rango dinámico de un sistema estéreo típico y, de
hecho, superior a la capacidad de grabación de medios tales como un disco de
vinilo y una cinta de audio.

Ancho de banda

Se verán ahora aspectos prácticos, como el rango de frecuencia con el que es


capaz de trabajar un reproductor CD, nuestro oído o nuestra voz. El ancho de
banda es muy importante para disfrutar de la música (como manifiestan las quejas
de sonido "de lata" de una radio de bolsillo) y es un criterio básico a la hora de
seleccionar un equipo de audio para utilizar con la tarjeta de sonido. Por ejemplo,
el ancho de banda teórico de la radio FM es aproximadamente tres veces el ancho
de banda de la radio AM, por lo que la FM será capaz de reproducir frecuencias
que no entran dentro del campo de trabajo de la AM.

Ancho de banda del sistema

Es importante tener en cuenta que el ancho de banda de un equipo de sonido


depende del enlace más débil del canal, que normalmente no es la tarjeta de
sonido. La calidad del sonido producido por la computadora refleja el esfuerzo de
muchas componentes, y la salida no será mejor que la interpretación del miembro
menos capacitado de un grupo. En el caso del sistema de sonido de la
computadora, una señal debe pasar por muchas fases de transformación de audio
y por diferentes dispositivos.

Por ejemplo, considere el sonido grabado mediante un micrófono y que luego es


reproducido. La tarjeta de sonido transforma el sonido recogido del micrófono en
una señal eléctrica que, posteriormente, se transforma en audio digital y se
almacena en disco. El audio digital del disco es transformado de nuevo en una
señal eléctrica y reproducido a través de los cascos de los audífonos o de los
altavoces. El ancho de banda efectivo del sistema de sonido está limitado por el
dispositivo con el ancho de banda más estrecho de todos los dispositivos que
procesan el sonido.

El enlace más débil en grabación suele ser el micrófono, que tiene probablemente
un ancho de banda aproximadamente de 12 kHz.

Ruido

Del mismo modo que perturban los ruidos y ecos en una habitación, también
puede generarse ruido y distorsión en la tarjeta de sonido, en los altavoces y en el
micrófono. El ruido (sonidos aleatorios que transforman y enmascaran el sonido
deseado) se mide también en decibelios. Dado que es tan poco probable disponer
de un entorno de audio digital en perfecto silencio, lo que interesa realmente es
saber la cantidad de ruido en relación con la señal que se introduce en el equipo
de sonido, especialmente en la tarjeta de sonido. La fuerza de la música, del habla
o de cualquier otro sonido, comparada con la fuerza promedio del ruido, se conoce
como relación señal/ruido (s/n).

A medida que aumenta la relación s/n, es mejor el trabajo realizado en grabación.


La relación señal ruido de una tarjeta digital sencilla es del orden nada
despreciable de 85 dB. Esto significa que la fuerza de la señal es 85 dB mayor que
la fuerza del ruido. Una relación de 70 dB se considera válida para propósitos
musicales y una relación de 65 dB s/n está en el límite de aceptación.

Grabación y reproducción de audio: Bases del audio digital

Antes de que la computadora pueda grabar, manipular y reproducir sonido, debe


transformarse el sonido de una forma analógica audible a una forma digital
aceptable por la computadora, mediante un proceso denominado conversión
analógica - digital (ADC). Una vez que los datos de sonido se han almacenado
como bytes en la computadora, puede hacerse uso de la potencia de la CPU de la
computadora para transformar este sonido de miles de modos.

Con el software adecuado es posible, por ejemplo, añadir reverberación o eco a la


música o a la voz. Pueden eliminarse trozos de sonido grabado. Pueden
mezclarse archivos de sonido, ajustarse el tono de la voz de manera que no pueda
reconocerse y muchas cosas más. Finalmente, cuando se está dispuesto a
escuchar el resultado, el proceso de conversión digital-analógica (DAC) transforma
de nuevo los bytes de sonido a una señal eléctrica analógica que emiten los
altavoces.

Muestreo: Conversión analógica-digital y viceversa

Se comenzará con la captura del sonido haciendo uso del micrófono. Cuando las
ondas de sonido llegan al micrófono, el movimiento mecánico se traduce en una
señal eléctrica. Esta señal se denomina señal analógica porque es una señal
continua en el tiempo, análoga al sonido original.

Conversión analógica-digital (ADC): Dada una señal analógica, se van tomando


valores discretos de su amplitud a intervalos de tiempo pequeños, evidentemente
será más fiable la reproducción cuantas más muestras por segundo se tomen. A
estos valores obtenidos se les asigna un valor digital que el computadora puede
entender y procesar como se requiera.

A cada muestra obtenida se le asigna un equivalente binario ya que es en este


sistema en el que trabajan los computadoras, su unidad de información es el bit.
Es lógico pensar que será necesario ampliar esta unidad de información para así
poder asignar a cada valor de muestra tomada un equivalente binario. Por esta
razón y dependiendo de la fidelidad con que se quiera trabajar se pueden utilizar
palabras de 8 o 16 bits pudiendo obtener así 256 ó 65536 combinaciones distintas
y obtener mayor resolución.

Figura 48 Conversión Análogica-Digital

Conversión digital-analógica (DAC): El proceso inverso es mucho menos


complejo ya que solo se trata de ir poniendo los valores de las muestras en el
mismo orden que fueron tomados y unos filtros electrónicos se encargan de
convertir esa señal resultante de valores discretos en una señal analógica.

Velocidad y tamaño de muestra

La fidelidad terminología empleada por los entusiastas del audio para expresar la
exactitud en la réplica de la música original del sonido audio digital depende de la
selección de la correcta frecuencia de muestreo y del correcto tamaño de muestra,
siendo este último el número de bytes utilizados para almacenar cada muestra.

Frecuencia de muestra: La frecuencia de muestra (también denominada


frecuencia de muestreo) debe ser lo suficientemente alta para que los sonidos de
alta frecuencia, como el sonido del cristal de una copa de vino o el del arqueo de
un violín, puedan recogerse con precisión. Según el teorema de Nyquist, es
posible repetir con exactitud una forma de onda si la frecuencia de muestreo es
como mínimo el doble de la frecuencia de la componente de mayor frecuencia. La
frecuencia más alta que puede percibir el oído humano está cercana a los 20 kHz,
de modo que la frecuencia de muestreo de 44.1 kHz de las tarjetas de sonido es
más que suficiente. Este valor es el utilizado hoy en día por los reproductores de
audio CD.

Los archivos de audio digital pueden grabarse seleccionando la frecuencia de


muestreo. A medida que aumenta la frecuencia de muestreo, aumenta la calidad
del sonido. Por ejemplo, una velocidad de 6.000 Hz (6.000 muestras por segundo)
es buena para una voz masculina típica, pero no lo es para una voz femenina
típica, que tiene componentes con una frecuencia más alta. Una frecuencia de
muestreo de 8.000 Hz proporciona una grabación de la voz femenina de mayor
calidad. La siguiente tabla ofrece una lista de algunas tarjetas de sonido Sound
Blaster y de sus frecuencias de muestreo:

Tarjeta Grabación Reproducción


Sound Blaster 16 44.100 (mono o estéreo) 44.100(mono o estéreo)
Sound Blaster Pro 22.050(estéreo) o 44.100 22.050(estéreo) o 44.100
(mono) (mono)
Sound Blaster 2.0 15.000 (mono) 44.100(mono)
Sound Blaster 1.0,1.5 13.000 (mono) 23.000 (mono)

La Sound Blaster 16 puede grabar en estéreo, grabando hasta 44.100 muestras


por segundo, con un canal izquierdo y otro derecho que producen una frecuencia
de muestreo combinada de 88.200 muestras por segundo.

Las tarjetas Sound Blaster Pro y la Sound Blaster 16 son capaces también de
trabajar en estéreo con una velocidad máxima de reproducción de 22.050. Ambas
tarjetas, la Sound Blaster y la Sound Blaster Pro, toman muestras de sonido de 8
bits (1 byte); cada medida consume 1 byte de almacenamiento de la memoria de
la computadora o del disco. La Sound Blaster 16 maneja muestras de 16 bits (2
bytes), emitiendo voz y música con una fidelidad equivalente a los reproductores
CD actuales.

Existen varias razones para no utilizar las frecuencias de muestreo más altas.
Entre ellas, una muy importante es que las frecuencias de muestreo altas
necesitan gran capacidad de almacenamiento.

Tamaño de muestra: El tamaño de muestra es la otra componente de mayor


influencia en la fidelidad del audio digital. Las tarjetas de sonido de 16 bits ofrecen
la posibilidad de elegir entre un tamaño de muestra de audio digital de 8 bits (1
byte) o de 16 bits (2 bytes).

El tamaño de muestra controla el rango dinámico que puede grabarse. Por


ejemplo, las muestras de 8 bits limitan el rango dinámico a 256 pasos (rango de 50
dB). Por el contrario, una muestra de 16 bits tiene un rango dinámico de 65.536
pasos (rango de 90 dB) una mejora sustancial. El oído humano percibe todo un
mundo de diferencias entre estos dos tamaños de muestra. Los oídos son más
sensibles a la detección de diferencias en el tono que en la intensidad, pero son
aún más sensibles a la fuerza del sonido. Los oídos humanos, que están
acostumbrados a detectar sonidos con variaciones de varios órdenes de magnitud
en la fuerza, perciben el sonido de 8 bits en un tono apagado o desafinado si se
compara con el sonido de audio digital de 16 bits.
Compromisos en el muestreo: Se podría asumir que todo lo que hay que hacer
para obtener buen sonido es grabar a la velocidad límite de 44,1 kHz con
muestras de 16 bits (2 bytes). El único problema que aparece si se graba en
estéreo, tomando muestras simultáneamente en los canales izquierdo y derecho a
44,1 kHz, una muestra de sonido de un minuto necesita un espacio para
almacenarse de 10,58MB.

Lo aconsejable es usar la frecuencia de muestreo más baja posible. Por ejemplo,


supongamos que planeamos grabar una conversación telefónica. El ancho de
banda de un teléfono es de sólo 3 kHz. De acuerdo con el teorema de Nyquist, la
grabación será acertada si la frecuencia de muestreo es de 6 kHz o mayor.
Cuando se elige la frecuencia de muestreo, también hay que considerar el ancho
de banda de todo el sistema. Por ejemplo, no existe ningún problema en la
grabación de audio digital a 44,1 kHz si el micrófono utilizado funciona a 12 kHz y
la fuente de sonido es una voz masculina grave que no supera los 7 kHz.

Compresión de audio digital

Como se ha visto anteriormente, cada muestra tomada es almacenada en el


ordenador ocupando uno o dos bytes de memoria dependiendo de si se ha
tomado una resolución de 8 o 16 bits. Esto conlleva emplear grandes espacios de
disco para almacenar estos archivos de sonido.

Se han desarrollado muchos formatos de archivos comprimidos que permiten


realizar grabaciones de alta calidad sin necesidad de utilizar tanto espacio de
disco. Estas técnicas suelen incluir un método para codificar secuencias largas de
bytes repetidos. Evidentemente existe una contrapartida y es que una vez
comprimido el archivo de sonido, este no puede ser editado para su modificación.

;% &$ ) & <? )


A pesar de la importancia del audio (o tal vez gracias a esta) no existe un formato
universal que los usuarios y los desarrolladores de multimedia usen más; este
varia dependiendo de el usos que se le de a dicho formato. La mayor dificultad
que enfrentan es su tamaño, ya que la transferencia de audio es mucho más
tardada que la transferencia, por ejemplo, de todo el texto de una página web
promedio. Anteriormente, en el artículo "La Música Electrónica", hable de uno de
los formatos de audio más comúnmente usados (por su compacto tamaño) el
MIDI, sin embargo, la desventaja de este es la falta de calidad en su reproducción,
y que este no puede albergar mas que sonidos sintetizados, y no la versatilidad de
sonidos "reales", como la voz, que tiene la música. A continuación se presentan
formatos de audio que se pueden utilizar cuando no se posee un estudio
profesional de grabación.
;% $ 5 N * O: *P

Tal vez el más usado por los usuarios de Windows, este formato de Microsoft
WAV (Waveform Audio File) es un formato muy flexible que puede ser comprimido
y grabado en diferentes tamaños y rangos. Aunque los archivos WAV pueden
archivar excelente calidad de audio, comparable con la calidad de CD (44 kHz a
16 Bits en estéreo, aproximadamente ) el tamaño necesario para crear dicha
calidad es extremadamente grande e ineficiente (en especial para usarlo en
Internet) así que la opción opuesta que sería grabar a 4 Bits y kHz (los más bajo
que puede grabar este formato) produce una calidad bastante baja; el rango bajo
de kHz produce estática, ruido e incluso cortes en la reproducción del Formato.
Por esta razón dichos formatos solo se usan como muestras, y solo en casos muy
especiales existe alguna melodía completa grabada bajo este formato. Por otro
lado la flexibilidad y compatibilidad de los MS WAV permiten que se puedan
convertir a varios formatos por medio de editores o codificadores.

;%!$ 9O 5
5P

El AIFF (Audio Interchange File Format) es uno de los formatos de audio más
simples usados por las aplicaciones de Macintosh. Este tipo de archivos
desarrollados por Apple Computer para usar datos de audio es muy semejante al
WAV de Microsoft; el inconveniente es que los formatos AIFF sólo pueden ser
leídos por computadoras Macintosh, por lo que en ocasiones es recomendable ,
cuando se desarrolle algún sitio en Internet, usar ambos formatos, para que el
usuario pueda acceder, no importando la plataforma sobre la cual navegue. Los
Formatos AIFF también pueden grabarse en un rango amplio de kHz, pero tienen
el mismo problema de tamaño que los WAV.

;%%&

Este es el formato más usado en Internet por su capacidad de reproducir en


tiempo real (real time) lo que significa que mientras es descargado el archivo, este
es tocado, así que cuando termina de "bajar", ya fue completamente reproducido.
Aunque la calidad no es muy alta, el ahorro en tiempo lo convierte en uno de los
formatos favoritos para los creadores de páginas en la Web. Este formato fue
desarrollado por RealNetworks.

Con su locación en Seattle, está empresa a desarrollado e introducido al mercado


software y servicios que permitan al usuario ejecutar, recibir o enviar real time
media (tanto en video como en audio) Esta empresa está dentro de las 100
empresas más influyentes en el ámbito computacional; el crecimiento y desarrollo
a través del Internet, a puesto al RA (Real Audio) a la altura de formatos tan
usados como el WAV o incluso el MIDI.
La gran ventaja de este formato es también su lado flaco, ya que a pesar de que
normalmente funciona de manera óptima, la reproducción se ve "cortada" cuando
se encuentran interrupciones en la señal de datos; esto usualmente pasa cuando
el usuario está conectado a un modem lento o existe mucho tráfico en la red; el
resultado en una reproducción con pausas y poco satisfactoria. RealNetworks ha
desarrollado un nuevo sistema que pronto va a ganar un espacio en la
reproducción de audio; es el RealSystem G2, que incrementando al respuesta de
frecuencia de audio a un 80% aprox. En modems desde 28.8 Kbps logra una
calidad superior de audio.

Ahora, este formato a pesar de que puede reproducir en diferentes rangos,


dependiendo de la configuración del usuario, guarda sus archivos en tamaños
mucho más grandes que el RA tradicional, lo que puede causar problemas al bajar
el archivo, tal vez no tan grandes como los WAVs o AIFF, pero si considerables
para almacenamiento y sobre todo envío (por mail).

Este reproductor también puede tocar archivos WAV y los formatos antiguos de
RA. Y puede ser usado por usuarios de PC o MAC.

; % 2 $" 3 OQ $"%P

El formato de Audio desarrollado por MPEG (Moving Picture Experts Group)


trabajando bajo la dirección de International Standards Organization (ISO) y the
International Electro-Technical Commission (IEC) ha logrado archivos de sonido
comprimidos en radios de 12-14:1 con calidad de CD estéreo.

La historia del MP3 empieza en el Institut Integrierte Schaltungen (IIS) en


Alemania en 1987; el IIS comenzó a trabajar en la codificación de audio EUREKA,
proyecto para la transmisión Digital de Audio (Digital Audio Broadcasting o DAB)
En cooperación con la Universidad de Erlangen el ISS finalmente encontró un
algoritmo ahora llamado ISO-MPEG Audio Layer-3. Layer-3 es tan eficiente que
puede reducir los tamaños de los archivos dramáticamente a través de sus
algoritmos de reducción de datos.

Sin la reducción de datos, las señales típicas consisten en archivos de 16 Bits a un


rango de 44 kHz (lo usado por los CD) por lo que representar un solo segundo de
música en estéreo y con calidad de Compact Disc se tiene un archivo de 1.400
Kbit aproximadamente. Al usar el formato de codificación MPEG se puede reducir
la pista desde el CD a un factor de 12 a 1, pero lo más importante, sin perder
calidad de sonido. Factores de reducción de incluso 24 mantienen una calidad
bastante aceptable aún, ya que la codificación tiene, dentro de su algoritmo,
técnicas que están basadas en la percepción de ondas sonoras de oído humano.

Existen tres formatos de MPEG:


Factor de compresión de 4:1 del Layer 1 (correspondientes a 384 kbps de señal
estéreo).
Factor de compresión de 6-8:1 del Layer 2 (correspondientes a 256 kbps de señal
estéreo).
Factor de compresión de 10-14:1 del Layer 3 (correspondientes a 128 kbps de
señal estéreo).

El formato MP3, no solo conserva una excelente calidad, sino que amplia los
efectos estéreo, limitando un poco el ancho de banda. Para proporcionar una idea
del desempeño del MP3 se incluye la siguiente tabla:

Sonido Ancho de Modo kbps Radio de


banda reducción
Teléfono 2.5 khz mono 8 96-1
Señal de onda corta 4.5 kHz mono 16 48:1
Amplitud modulada 7.5 kHz mono 32 24:1

Frecuencia modulada 11 kHz estéreo 56..64 26..24:1


MP3 10..15 kHz estéreo 96..128 kbps 12..10:1
CD 15 kHz estéreo 112..128 kbps 14..12:1

;%;$

El Musical Instrument Digital Interface (MIDI) es el protocolo de comunicaciones


estándar utilizado para intercambiar datos entre sintetizadores, ordenadores,
software, procesadores de efectos y otros dispositivos MIDI. Los archivos MIDI
son significativamente diferentes de los archivos de audio digital como los VOC o
los WAV. Los archivos de audio digital contienen sonido real grabado de forma
digital a partir de la captura de miles de muestras por segundo. La música MIDI,
por otro lado, contiene solo instrucciones sobre la manera de tocar un instrumento.
Los archivos de audio digital pueden necesitar millones de bits para almacenar
unos minutos de música, mientras que los MIDI con unos pocos miles de bits
pueden reproducir música durante horas.

Un archivo MIDI es completamente editable, pudiéndose manipular el instrumento


que se toca, la duración de una nota, la intensidad del sonido, etc...

;2 "& ) "& '


La búsqueda de una identidad audiovisual, lleva a buscar una idea musical para el
producto, que puede ser lograda a través de una banda sonora original o a través
de una banda sonora compilada. Es decir, para que se produzca una buena base
sonora, el producto tendrá que considerar: ¿ que relación tiene las imágenes con
los sonidos? ¿Cómo puede el sonido reforzar los eventos gráficos? Generalmente
se puede relacionar las imágenes con los sonidos de tres formas: por contraste, o
sea, cuando los dos expresan cosas que se contraponen; por superposición o
suma, ciertamente, cuando los dos se apoyan el uno en el otro para decir lo
mismo; y de manera pasiva, cuando aparentemente el sonido es insignificante o
imperturbable ante la imagen.

Dos elementos más deben ser considerados cuando se hace referencia a la


necesidad del audio en los multimedia: el primero es el productor, que hoy, tiene
a su disposición, una infinidad de aparatos electrónicos y eléctricos. También la
variedad de software para la creación, producción y edición de eventos sonoros, o
sea, posee, las herramientas y las posibilidades técnicas y tecnológicas
necesarias para una buena producción de audio, principalmente por el desarrollo
de aparatos para trabajar interlineados con el ordenar, que torna la tarea más
sencilla y económica.

El segundo elemento son los usuarios, que cada vez mas, son más exigentes con
relación a los productos multimedia, compran aquellos que les proporciona mayor
sencillez de rutinas, los más instructivos e intuitivos, los que presenten la mejor
comunicación audiovisual; por ejemplo, los productos que presenta la opción de
narración del contenido, tendrá mayor aceptación en el mercado, ya que hay gente
que no puede o no le gusta leer, solo oír, también se deberá considerar que la
mayoría de los ordenadores ya disponen de aparatos de sonido, que pueden
reproducir con calidad los eventos sonoros de los multimedia.

Por lo tanto, cuando se tiene en cuenta los eventos sonoros en esta perspectiva,
desde del diseño hasta la producción y edición final del material,
independientemente de la finalidad, el producto tendrá mayor valoración y al
mismo tiempo, se tornará mas atractivo y motivador, lo que puede ser
determinante para el éxito del mismo, "un sonido bien escogido ayuda al retención
de datos y sirve de motivación al usuario.".

La producción del audio, lleva tres momentos distintos, el primero es la búsqueda


de una identidad sonora, como se mencionaba anteriormente cada producto
necesita de una idea musical, para que el mensaje gráfico sea aprendido y
potencializado, consecuentemente el compositor necesita conocer todo el diseño
del material.

En el segundo momento el compositor necesita conocer las posibilidades técnicas


del medio de producción que va a trabajar, tendrá que elegir la plataforma, los
aparatos y software para el mejor desarrollo de su trabajo entonces el creador
entra en un proceso de potencialización de la misma; cuestiona, discute, investiga,
colecciona, explora, pondera sus fuerzas y debilidades, determina las directrices
necesarias para la realización de su logro, rodeándose de los medios de
producción que usará para la producción y logro de la idea aprehendida y
potencializada. "La creación requiere una técnica que no puede ser bruta, sino
refinada de acuerdo a la naturaleza del medio ". Necesita tener conocimiento y a
disposición las mejores posibilidades de producir un determinado elemento,
gráfico o sonoro, será imprescindible para lograr el mejor resultado.

La tercera fase, es la realización efectiva de la producción de los eventos sonoros


que puede darse de dos formas: la primera a través de composiciones musicales
producidas por medios electrónicos, como teclados, sintetizadores y en el propio
computador, además de programas informáticos para creación y edición de
música y sonido; o a través de la digitalización de músicas comerciales grabados
en soportes como CDA, CDL, LP, cintas magnéticas y etc.

. ?.

El vídeo empieza a ser, cada día más, un importante componente en las


producciones multimedia. El método más idóneo para incluir vídeo en las
producciones multimedia es capturarlo utilizando una cámara digital, no obstante,
debido a la gran cantidad de información que existe en formato analógico se hace
necesaria la digitalización.

En cualquier caso el principal problema al utilizar vídeo en las producciones


multimedia es el gran tamaño de los archivos generados; esto los hace poco útiles
en multimedia a través de Internet. Es necesaria la compresión.

Afortunadamente existe un estándar para la compresión de video el MPEG.

En este capítulo se asume el estudio de las principales características técnicas del


video, reunidas a partir de los artículos publicados por la Universitat J’aume I y el
material teórico del curso Comunicación multimedial de la Universidad Nacional de
Santa Luis – Argentina, sus enlaces se encuentran en la sección de Fuentes
relacionadas.

) &3 $ ?
El nacimiento del vídeo se da gracias a la necesidad de las cadenas televisivas de
conservar las imágenes. Desde entonces el vídeo se ha asociado a la TV como
instrumento de grabación, almacenamiento o reproducción de las emisiones
realizadas por las diferentes cadenas. Sin embargo, el vídeo también ha permitido
la producción y emisión de imágenes y sonidos por personas ajenas a las
compañías de televisión.

Hemos de distinguir entre televisión y vídeo como medios de comunicación. El


vídeo es un medio de comunicación fundamentalmente individual y/o grupal, la
televisión es un medio de comunicación de masas. Mientras la televisión va
dirigida a grandes grupos y, por tanto, heterogéneos en intereses y afinidades, el
vídeo puede ir encaminado a grupos más reducidos y homogéneos.

La TV no permite la interactividad más allá de la mera elección entre una serie de


canales más o menos similares. El vídeo la interacción con el medio puede ser
continua: detener el programa, revisarlo, analizarlo, abreviarlo, introducir nuevos
mensajes, rectificar los recibidos, etc. En el vídeo los mensajes están bajo el
control del usuario y él puede decidir el lugar, el tiempo, la cantidad de información
a transmitir y la secuencia de los significados. Podría decirse que el medio está
supeditado al usuario, sobre todo cuando adquiere funciones de producción y
diseño.

El vídeo como medio de comunicación fue acogido en sus comienzos como la


televisión alternativa, la negación del centralismo, inmovilismo y el control
informativo.

En él se depositaron una serie de ilusiones por ciertos sectores sociales que lo


percibían como un medio que permitía, desde el punto de vista social, la
elaboración autónoma de mensajes, no supeditados a pautas culturales
establecidas por las cadenas y/o productoras de televisión.

! ? $ $ $ '
3 F "& "
Como medio de comunicación el video permite la creación de mensajes por el
usuario de forma que puede convertirse en emisor de mensajes intencionales,
abandonando el papel de mero receptor de los mismos. El vídeo como sistema de
comunicación audiovisual está integrado por una serie de subsistemas:

• Auditivos (palabra oral, música, ruidos y silencio)


• Visuales (grafismo, objetos-naturaleza, artes plásticas, luz, ...)
• Movimiento (duración -tiempo-; distancia -espacio- y ritmo)

El vídeo es un medio relativamente joven por lo que su lenguaje está en pleno


desarrollo. El vídeo como medio de expresión audiovisual participa e integra
algunos de los códigos de las artes visuales: pintura, fotografía, dibujos, viñetas,
etc.; de las artes sonoras: lenguaje oral humano, música, ruidos, silencio y sonidos
tecnificados y de las producciones audiovisuales: cine y televisión.

De los elementos expresivos tomados del lenguaje cinematográfico destacan los


que establecen las relaciones espacio-temporales de las acciones:
• Tipologías de planos (plano general, medio, primer plano, ...)
• Panorámicas: son movimientos de cámara sobre el propio eje. Pueden ser
horizontales o verticales y rápidas o lentas. Puede desempeñar una función
descriptiva de los diversos elementos.
• Travelling: movimientos de cámara a lo largo de un espacio.
• Zoom: movimiento óptico de avance y/o retroceso que cumple las funciones
de síntesis y análisis, aislamiento de los detalles, pero manteniendo su
contexto de ubicación.
• Fundido: efecto de transición entre imágenes que tiene tres modalidades:
abertura, cierre o encadenado. Sirven para denotar un cambio de escena,
un cambio de situación temporal, la indicación del pensamiento de un
personaje, la muestra de escenas simultáneas en el tiempo, pero no en el
espacio, etc.
• Ángulación (en picado, en contrapicado)
• Composición de la imagen: se refiere a la distribución de los diversos
personajes y objetos en el plano (predominancia vertical, horizontal,
diagonal, circular, ...)

En la expresión videográfica se utilizan estos elementos del lenguaje


cinematográfico, pero su condición de imagen electrónica, posibilitará la creación
de nuevos elementos expresivos, que serán precisamente los que lo diferencien.
Así, por ejemplo:

Sobreimpresión de gráficos y textos.

Wipe o limpieza de la pantalla: efecto óptico en el


cuadro de la imagen, por la cual una nueva escena
entra paulatinamente en la pantalla, desapareciendo
simultáneamente la precedente (comúnmente se les
denomina efecto cortinillas)

Mezcla de imágenes
El cromakey: es la inserción de una imagen sobre otras
en interacción (p.ej., el tiempo en la televisión).

División de la pantalla en subpantallas.

Multiplicación de imágenes en la pantalla.

% $ ) 0 ) ?
La información de video se conforma con en una serie de imágenes ó "cuadros" y
el efecto del movimiento es llevado a cabo a través de cambios pequeños y
continuos en los cuadros. Debido a que la velocidad de estas imágenes es de 30
cuadros por segundo, los cambios continuos entre cuadros darán la sensación al
ojo humano de movimiento natural.

Las imágenes de video están compuestas de información en el dominio del


espacio y el tiempo. La información en el dominio del espacio es provista en cada
cuadro, y la información en el dominio del tiempo es provista por imágenes que
cambian en el tiempo (por ejemplo, las diferencias entre cuadros). Puesto que los
cambios entre cuadros colindantes son diminutos, los objetos aparentan moverse
suavemente.

!! 4 - *

Existe un estándar para digitalización de video, la norma Rec. ITU-R BT.601 o


abreviadamente CCIR 601. Según este estándar, cada línea horizontal se
muestrea utilizando 720 muestras para la luminancia y 320 muestras para las
crominancias U y V.

El estándar de televisión y vídeo analógico PAL contiene 576 líneas con


información de la imagen y teniendo en cuenta la relación ancho : alto de 4 : 3, el
número de muestras en cada línea es 576*4/3 = 768. Este número de muestras
asume que un píxel tiene la misma longitud que altura. Pero, si se va a utilizar el
estándar CCIR 601, los píxeles son un poco mas anchos que altos.

En el caso del estándar NTSC los píxeles, al utilizar el estándar de digitalización


CCIR 601 son, al contrario que en PAL, un poco más altos que anchos. La forma
de muestrear la señal en el estándar CCIR 601 para la luminancia y las
crominancias se muestra en la siguiente figura.

En los sistemas de video digital, cada cuadro es muestreado en unidades de


pixeles ó elementos de imagen. El valor de luminancia de cada pixel es
cuantificado con ocho bits por pixel para el caso de imágenes blanco y negro. En
el caso de imágenes de color, cada pixel mantiene la información de color
asociada; por lo tanto, los tres elementos de la información de luminancia
designados como rojo, verde y azul, son cuantificados a ocho bits. La información
de video compuesta de esta manera posee una cantidad tremenda de información;
por lo que, para transmisión o almacenamiento, se requiere de la compresión (o
codificación) de la imagen.

Algunas ventajas del video digital sobre el analógico son:


Claridad de la señal: gracias a los algoritmos que permiten una eliminación del
ruido mucho mas efectiva que en el video analógico.
Fidelidad: Las sucesivas copias y ediciones no afectan la calidad del original,
como si sucede con el video analógico.
Facilidad de edición
Pero es necesario aceptar que la mayoría de información de video se encuentra
actualmente en formato analógico.
!% *

La técnica de compresión de video consiste de tres pasos fundamentalmente,


primero el preprocesamiento de las diferentes fuentes de video de entrada
(señales de TV, señales de televisión de alta definición HDTV, señales de
videograbadoras VHS, BETA, S-VHS, etc.), paso en el cual se realiza el filtrado de
las señal de entrada para remover componentes no útiles y el ruido que pudiera
haber en esta.

El segundo paso es la conversión de la señal a un formato intermedio común


(CIF), y por último el paso de la compresión. Las imágenes comprimidas son
transmitidas a través de la línea de transmisión digital y se hacen llegar al receptor
donde son reconvertidas a el formato común CIF y son desplegadas después de
haber pasado por la etapa de post- procesamiento. Mediante la compresión de la
imagen se elimina información redundante, principalmente la información
redundante en el dominio de espacio y del tiempo.

Existen dos técnicas en la compresión de vídeo, técnicas de compresión


espacial en la que cada fotograma se comprime de modo independiente, y
técnicas de compresión temporales, técnica en la que se toman de toda la
secuencia algunos fotogramas clave y el resto de fotogramas es almacenado
como diferencia con respecto del clave.

Además las técnicas de compresión temporal se pueden subdividir a su vez en


técnicas de compresión con pérdidas y sin pérdidas.

Algunos formatos de compresión son Motion JPEG, Digital Video, MPEG.

!2 6 $" 3 O3 > 64
* P

El estándar MPEG especifica la representación codificada de video para medios


de almacenamiento digital y especifica el proceso de decodificación. La
representación soporta la velocidad normal de reproducción así como también la
función especial de acceso aleatorio, reproducción rápida, reproducción hacia
atrás normal, procedimientos de pausa y congelamiento de imagen. Este estándar
internacional es compatible con los formatos de televisión de 525 y 625 líneas y
provee la facilidad de utilización con monitores de computadoras personales y
estaciones de trabajo. Este estándar internacional es aplicable primeramente a los
medios de almacenamiento digital que soporten una velocidad de transmisión de
más de 1.5 Mbps tales como el Compact Disc, cintas digitales de audio y discos
duros magnéticos. El almacenamiento digital puede ser conectado directamente al
decodificador o a través de vías de comunicación como lo son los bus, LANs o
enlaces de telecomunicaciones.
Este estándar internacional esta destinado a formatos de video no interlazado de
288 líneas de 352 pixeles aproximadamente y con velocidades de imagen de
alrededor de 24 a 30 Hz.

!; I?. #" . 4

Las animaciones y las películas de video digital son secuencias de escenas de


gráficos de mapas de bits (cuadros) reproducidas con gran rapidez. Pero las
animaciones pueden hacerse también con el sistema de desarrollo cambiado
rápidamente la localización de objetos o duendes para generar apariencia de
movimiento

! ?

Los formatos y sistemas para almacenar y reproducir video digitalizado desde y


hacia archivos que están disponibles con QuickTime y AVI. Ambos sistemas
dependen de algoritmos especiales que controlan la cantidad de información por
cuadro de video que se envía a la pantalla, así como la velocidad a la cual se
despliegan los nuevos cuadros.

Quick Time

QuickTime es la arquitectura basada en software de Apple para la integración


perfecta del sonido, animación y video . Permite crear, comprimir, ver, controlar y
editar archivos de películas QuickTime de una manera congruente a través de
todas las aplicaciones.

QuickTime incluye cuatro elementos, descritos en los siguientes párrafos, que


trabajan al unísono:
1. Una extensión del sistema de software.
2. Un conjunto de algoritmos de comprensión.
3. Un formato estándar de archivo de película.
4. Una interface con el usuario estándar para definir la captura dinámica de datos,
la comprensión y características de reproducción.

Microsoft Video para Windows.

Audio Video Interleaved (AVI) es un software desarrollado por Microsoft que


reproduce video interfoliado de movimiento a tiempo real y secuencias de audio en
Windows, sin equipo especializado , a cerca de 15 cuadros por segundo en una
pequeña ventana. Con el equipo de aceleración se pueden ejecutar secuencias de
video AVI a 30 cuadros por segundo.
Como QuickTime de Apple, AVI brinda las siguientes características:
1. Reproducción desde disco duro o CD-ROM.
2. Reproducción en computadoras con memoria limitada; los datos se envían
desde el disco duro o reproductor de CD-ROM sin utilizar grandes cantidades de
memoria.
3. Carga y reproducción rápidas, ya que solamente unos pocos cuadros de video y
una porción de audio son accesadas al mismo tiempo.
4. La comprensión de video mejora la calidad de sus secuencias de video y reduce
su tamaño.

! 5 * ) 4

El streaming se puede definir como difusión en tiempo real . En el caso del vídeo,
por ejemplo, si un cliente solicita la visualización de una determinada película, a
través de una línea de comunicación de datos, esta le es servida para ser
visualizada de modo inmediato, sin necesidad de ser almacenada.
Otro ejemplo de difusión de vídeo en tiempo real es la video conferencia donde las
imágenes mostradas no se almacenan.

Existen dos formatos para difusión de vídeo en tiempo real: QuickTime y Real
Networks'RealVideo.

&

BIBLIOTECA DE LA UNIVERSIDAD DE CORNELL. Departamento de


Investigación. Tutorial de Digitalización de imágenes. [En línea]
http://www.library.cornell.edu/preservation/tutorial-spanish/intro/intro-01.html.
Fecha de consulta: Mayo de 2005.

CEBRIÁN, Rafael. Teoría del color. [En línea]


http://www.lilliputmodel.com/articulos/cebrian/teoria_color1.htm. Fecha de
consulta: Mayo de 2005.

DESARROLLOWEB.COM. Curso práctico de diseño web. Informe de Luciano


Moreno [En línea] http://www.desarrolloweb.com/articulos/1483.php?manual=47.
Fecha de consulta: Mayo de 2005.

INSTITUTO ARTES VISUALES. Tipografía y Teoría del Color. [En línea]


http://www.newsartesvisuales.com/funda/color2.htm. Fecha de consulta: Mayo de
2005.

LYNCH AND HORTON. Web Style Guide. [En línea]


http://www.webstyleguide.com/type/index.html. Fecha de consulta: Mayo de 2005.
MORENO, Luciano. Gráficos digitales [En Línea]
http://www.htmlweb.net/diseno/graficos_digitales/graficos_3.html Fecha de
consulta: Mayo de 2005

TYPEPHASES DESIGN. Manual de diseño digital. [En línea]


http://platea.cnice.mecd.es/~jmas/manual/html/uso.html Fecha de consulta: Mayo
de 2005.

UNIVERSITAT J’AUME I. Material teórico para el curso Multimedia. [En línea]


http://www4.uji.es/~belfern/IX34/Documentos/Teoria/Animacion.pdf.
http://www4.uji.es/~belfern/IX34/Documentos/Teoria/Video.pdf,
http://www4.uji.es/~belfern/IX34/Documentos/Teoria/Graficos.pdf Fecha de
consulta: Mayo de 2005.

COLARES DE SILVA, Jackson. Universitat de Les Illes Balears – UIB. El sonido


en la multimedia: la importancia de la producción del audio en los diseños de
materiales multimedia para la enseñanza. [en línea]
http://www.filos.unam.mx/POSGRADO/seminarios/pag_robertp/paginas/sonido.ht
m. Fecha de consulta: Mayo de 2005

ANZULOVICH, Guillermo. Notas de clase de la asignatura Comunicación


multimedial. [En línea] http://tecno.unsl.edu.ar/multimedia/ Fecha de consulta:
Mayo de 2005.

También podría gustarte