Está en la página 1de 16

Consulte las discusiones, las estadísticas y los perfiles de los autores de esta publicación en: https://www.researchgate.

net/publication/231514051

Una taxonomía de exhibiciones visuales de realidad mixta

Artículo en Transacciones de IEICE sobre información y sistemas · Diciembre de 1994

CITACIONES LEE

3.435 45,839

2 autores:

Paul Milgram Fumio Kishino


Universidad de Toronto Universidad de Osaka

112 PUBLICACIONES 8.514 CITACIONES 288 PUBLICACIONES 7.865 CITACIONES

VER EL PERFIL VER EL PERFIL

Algunos de los autores de esta publicación también están trabajando en estos proyectos relacionados:

Computación inconsciente Ver Proyecto

ActiveCube Ver Proyecto

Todo el contenido que sigue a esta página fue subido por Paul Milgram el 15 de diciembre de 2013.

El usuario ha solicitado una mejora del archivo descargado.


Documento de IEICE sobre MR Página 1 de 15

IEICE Transactions on Information Systems, Vol E77-D, No 12 de diciembre de 1994.

UNA TAXONOMÍA DE PANTALLAS VISUALES


DE REALIDAD MIXTA
Paul Milgram º
Departamento de Ingeniería Industrial de la
Universidad de Toronto
Toronto, Ontario, Canadá M5S 1A4

Fumio Kishino ºº
Laboratorios de investigación de sistemas de comunicación
ATR 2-2 Hikaridai, Seika-cho, Soraku-gun
Kyoto 619-02, Japón

Manuscrito recibido el 8 de julio de 1994.


Manuscrito revisado el 25 de agosto de 1994.

º El autor pertenece al Departamento de Ingeniería Industrial de la Universidad de Toronto, Toronto,


Ontario, Canadá M5S 1A4.

Paul Milgram recibió el BASc. grado de la Universidad de Toronto en 1970, el


Licenciada en MSEE por el Technion (Israel) en 1973 y Ph.D. Licenciado en la Universidad de Toronto en
1980. De 1980 a 1982 fue Científico Visitante de la ZWO y Postdoctoral de la OTAN en los Países Bajos,
investigando el comportamiento de conducción de automóviles. De 1982 a 1984 fue Ingeniero de
Investigación Senior en Ingeniería Humana en el Laboratorio Aeroespacial Nacional (NLR) en Amsterdam,
donde su trabajo involucró el modelado de la actividad de la tripulación de vuelo de aeronaves, conceptos
de visualización avanzados y bucles de control con operadores humanos en la teleoperación espacial. Desde
1986 trabaja en el Departamento de Ingeniería Industrial de la Universidad de Toronto, donde actualmente
es Profesor Asociado y Coordinador del grupo de Ingeniería de Factores Humanos. También es nombrado
en el Departamento de Psicología. En 1993-94 fue investigador invitado en los Laboratorios de Investigación
de Sistemas de Comunicación ATR, en Kyoto, Japón. Sus intereses de investigación incluyen temas de
visualización y control en telerrobótica y entornos virtuales, video estereoscópico y gráficos por
computadora, ingeniería cognitiva y temas de factores humanos en medicina. También es presidente de
Translucent Technologies, una empresa que produce gafas de oclusión visual de cristal líquido "Platón" (de
la que es el inventor), para la investigación visual y psicomotora.

ºº El autor pertenece a ATR Communication Systems Research Laboratories, Kyoto-fu, 619-02 Japón.

Fumio Kishino es jefe del Departamento de Inteligencia Artificial de los Laboratorios de Investigación de
Sistemas de Comunicación de ATR. Recibió los títulos BE y ME del Instituto de Nagoya de

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 2 de 15

Technology, Nagoya, Japón, en 1969 y 1971, respectivamente. En 1971, se unió a los Laboratorios de
Comunicación Eléctrica, Nippon Telegraph and Telephone Corporation, donde estuvo involucrado en
trabajos de investigación y desarrollo de procesamiento de imágenes y sistemas de comunicación visual. A
mediados de 1989, se incorporó a ATR Communication Systems Research Laboratories. Sus intereses de
investigación incluyen la comunicación visual en 3D y el procesamiento de imágenes. Es miembro de IEEE e
ITEJ.

Resumen

Este documento se centra en las pantallas visuales de realidad mixta (MR), un subconjunto
particular de tecnologías relacionadas con la realidad virtual (VR) que implican la fusión de
mundos reales y virtuales en algún lugar del "continuo de virtualidad" que conecta entornos
completamente reales con entornos completamente virtuales. Probablemente el más conocido de
ellos es la Realidad Aumentada (AR), que se refiere a todos los casos en los que la visualización de
un entorno por lo demás real se aumenta mediante objetos virtuales (gráficos de computadora). El
caso inverso en el continuo de virtualidad es, por lo tanto, virtualidad aumentada (AV). Se
identifican seis clases de entornos de visualización de MR híbridos. Sin embargo, un intento de
distinguir estas clases sobre la base de si se basan principalmente en video o gráficos por
computadora, si el mundo real se ve directamente o a través de algún medio de visualización
electrónico, si el espectador tiene la intención de sentirse parte del mundo o desde afuera
mirando hacia adentro, y si la escala de la pantalla está destinada o no a mapear
ortoscópicamente en el mundo real conduce a agrupaciones bastante diferentes entre las seis
clases identificadas, lo que demuestra la necesidad de una taxonomía eficiente, o un marco de
clasificación, según el cual se puedan identificar las diferencias esenciales. Se muestra que la
distinción "obvia" entre los términos "real" y "virtual" tiene varios aspectos diferentes,
dependiendo de si se trata de objetos reales o virtuales, imágenes reales o virtuales, y
visualización directa o no directa de estas. Se propone una taxonomía (aproximadamente)
tridimensional, que comprende las siguientes dimensiones: Extensión del conocimiento mundial ("

palabras clave: realidad virtual (VR), realidad aumentada (AR), realidad mixta (MR)

1. Introducción - Realidad mixta

Se prevé que el entorno de telecomunicaciones de próxima generación proporcionará un "espacio virtual


ideal con [suficiente] realidad esencial para la comunicación" º. Nuestro objetivo en este artículo es
examinar este concepto, de tener tanto "espacio virtual" por un lado como "realidad" por otro disponible
dentro del mismo entorno de visualización visual.

La visión sostenida convencionalmente de un Realidad virtual ( El entorno VR) es aquel en el que el participante-observador
está totalmente inmerso y es capaz de interactuar con un mundo completamente sintético. Un mundo así puede imitar las
propiedades de algunos entornos del mundo real, ya sean existentes o ficticios; sin embargo, también puede exceder los
límites de la realidad física al crear un mundo en el que las leyes físicas que normalmente gobiernan el espacio, el tiempo,
la mecánica, las propiedades materiales, etc. ya no se cumplen. Lo que puede pasarse por alto en este punto de vista, sin
embargo, es que la etiqueta VR también se usa con frecuencia en asociación con una variedad de otros entornos, a los
que no pertenecen necesariamente la inmersión total y la síntesis completa, pero que caen en algún lugar a lo largo de un continuo
de virtualidad. En este artículo nos centramos en una subclase particular de tecnologías relacionadas con la realidad
virtual que implican la fusión de mundos reales y virtuales, a los que nos referimos genéricamente como Realidad mixta
(MR). Nuestro objetivo es formular una taxonomía de las diversas formas en que se pueden realizar los aspectos
"virtuales" y "reales" de los entornos de RM. La necesidad percibida de hacer esto surge de nuestras propias experiencias
con esta clase de entornos, con respecto a los cuales parecen existir problemas paralelos de terminologías inexactas y
límites conceptuales poco claros.

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 3 de 15

entre los investigadores en el campo.

El concepto de un "continuo de virtualidad" se relaciona con la mezcla de clases de objetos presentados en cualquier
situación de visualización en particular, como se ilustra en la Figura 1, donde entornos reales, se muestran en un extremo
del continuo, y entornos virtuales, en el extremo opuesto. El primer caso, a la izquierda, define entornos que consisten
únicamente en objetos reales (definidos a continuación) e incluye, por ejemplo, lo que se observa a través de una
pantalla de video convencional de una escena del mundo real. Un ejemplo adicional incluye la visualización directa de la
misma escena real, pero no a través de ningún sistema de visualización electrónico en particular. El último caso, a la
derecha, define entornos que consisten únicamente en objetos virtuales (definidos a continuación), un ejemplo de los
cuales sería una simulación gráfica por computadora convencional. Como se indica en la figura, la forma más sencilla de
ver un entorno de Realidad Mixta, por lo tanto, es aquella en la que los objetos del mundo real y del mundo virtual se
presentan juntos dentro de una sola pantalla, es decir, en cualquier lugar entre los extremos del continuo de virtualidad.

Figura 1: Representación simplificada de un "continuo de virtualidad".

Aunque el término "Realidad Mixta" no es (todavía) bien conocido, se pueden encontrar varias clases de entornos de
visualización híbridos existentes, que podrían considerarse razonablemente que constituyen interfaces MR de acuerdo
con nuestra definición:

1. Pantallas de video (no inmersivas) basadas en monitores, es decir, pantallas de "ventana al mundo"
(WoW), sobre las que se superponen electrónica o digitalmente imágenes generadas por computadora (p.
Ej., Metzger, 1993; Milgram et al, 1991; Rosenberg , 1993; Tani et al, 1992). Aunque la tecnología para lograr
tales combinaciones ha existido durante algún tiempo, sobre todo mediante la codificación cromática, las
consideraciones prácticas nos obligan a interesarnos particularmente en los sistemas en los que se hace
esto. estereoscópicamente por ejemplo, Drascic et al, 1993; Lion et al, 1993).

2. Pantallas de video como en la Clase 1, pero usando pantallas envolventes montadas en la cabeza (HMD), en lugar de
WoWmonitors.

3. Los HMD están equipados con una capacidad transparente, con la cual los gráficos generados por
computadora se pueden superponer ópticamente, utilizando espejos semiplatados, en escenas del mundo
real vistas directamente (por ejemplo, Bajura et al, 1992; Caudell & Mizell, 1992; Ellis & Bucher, 1992; Feiner et
al, 1993a, b; Janin et al, 1993).

4. Igual que 3, pero usando video, en lugar de óptica, visualización del mundo "exterior". La diferencia
entre las clases 2 y 4 es que con 4 el mundo mostrado debe corresponder ortoscópicamente con el
mundo real exterior inmediato, creando así un sistema de "video transparente" (por ejemplo,
Edwards et al, 1993; Fuchs et al, 1993), análogo con la óptica transparente de la opción 3.

5. Entornos de visualización completamente gráficos, ya sea completamente inmersivos, parcialmente inmersivos o de


otro tipo, a los que se añade la "realidad" del vídeo (p. Ej., Metzger, 1993).

6. Entornos completamente gráficos pero parcialmente inmersivos (por ejemplo, pantallas grandes) en
los que los objetos físicos reales en el entorno del usuario juegan un papel en (o interfieren) en la
escena generada por la computadora, como al alcanzar y "agarrar" algo con el propio. mano (por
ejemplo, Kaneko et al, 1993; Takemura & Kishino, 1992).

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 4 de 15

Además, se han desarrollado otros entornos aumentados por computadora más inclusivos en los que se detectan datos reales
y se utilizan para modificar las interacciones de los usuarios con mundos mediados por computadora más allá de las pantallas
visuales dedicadas convencionales (por ejemplo, Ishii et al, 1993; Krüger, 1993; Wellner, 1993; Mackay et al, 1993).

En lo que respecta a la terminología, aunque el término "Realidad Mixta" no es de uso común, el término relacionado
"Realidad Aumentada" (RA) de hecho ha comenzado a aparecer en la literatura con creciente regularidad. Como
definición operativa de Realidad Aumentada, tomamos el término para referirnos a cualquier caso en el que un entorno
por lo demás real se "aumenta" por medio de objetos virtuales (gráficos de computadora), como se ilustra en la Figura 1.
El uso más prominente del término Sin embargo, la AR en la literatura parece estar limitada a los tipos de pantallas de
Clase 3 descritos anteriormente (por ejemplo, Feiner et al, 1993a, b; Caudell & Mizell, 1992; Janin et al, 1993). En los
propios laboratorios de los autores, por otro lado, también hemos adoptado este mismo término en referencia a las
pantallas de Clase 1 (Drascic et al, 1993; Milgram et al, 1993), no por falta de un nombre mejor, sino simplemente por la
convicción de que el término Realidad Aumentada es bastante apropiado para describir la esencia de la mejora gráfica
por computadora de imágenes de video de escenas reales. Esta misma lógica se extiende también a las pantallas de
Clase 2 y 4, por supuesto.

Las pantallas de clase 5 plantean un pequeño problema de terminología, ya que lo que se aumenta no es una
representación directa de una escena real, sino más bien una virtual mundo, uno que se genera principalmente por
computadora. De acuerdo con la lógica utilizada anteriormente en apoyo del término Realidad aumentada, ofrecemos la
sugerencia sencilla de que tales pantallas se denominen " Virtualidad aumentada "( AV), como se muestra en la Figura 1ºº.
Por supuesto, a medida que avanza la tecnología, eventualmente puede volverse menos sencillo percibir si el mundo
primario que se experimenta es de hecho predominantemente "real" o predominantemente "virtual", lo que en última
instancia puede debilitar el caso para el uso de ambos. Arkansas y AV términos, pero no debe afectar la validez de los
términos más generales SRES término para cubrir el "área gris" en el centro del continuo de virtualidad.

Además, observamos que las pantallas de Clase 6 van más allá de las Clases 1, 2, 4 y 5, al incluir también objetos del
mundo real vistos directamente. Como se analiza a continuación, la experiencia de ver la propia verdadero mano
directamente frente a uno mismo, por ejemplo, es bastante diferente de ver una imagen de la misma mano real en un
monitor, y los problemas de percepción asociados (no discutidos en este artículo) también son bastante diferentes.
Finalmente, una interesante solución alternativa al problema de terminología que plantean las pantallas Clase 6, así
como las pantallas compuestas AR / AV de Clase 5, podría ser el término " Realidad híbrida "( HR) ººº, como una forma de
abarcar el concepto de mezclar muchos tipos de medios de visualización distintos.

º Citado de la Convocatoria de artículos para este número especial de Transacciones de sistemas de información de IEICE sobre
la realidad en red.
ººCohen (1993) ha considerado el mismo tema y ha propuesto el término "Realidad Virtual Aumentada". Sin
embargo, como un medio para mantener una distinción entre esta clase de pantallas y la realidad aumentada,
encontramos inadecuada la terminología de Cohen.
º º º Una posible pieza de jerga derivada que inmediatamente me viene a la mente como una extensión del término
propuesto "Realidad Híbrida" es la posibilidad de que (usando una dosis liberal de licencia poética) podamos referirnos a
tales exhibiciones como "¡Hiberespacio"!

2. La necesidad de una taxonomía

La discusión anterior tenía la intención de introducir el concepto de Realidad Mixta y algunas de sus diversas
manifestaciones. Todas las clases de pantallas enumeradas anteriormente comparten claramente la característica
común de yuxtaponer entidades "reales" junto con entidades "virtuales"; sin embargo, una revisión rápida de las clases
de muestra citadas anteriormente revela, entre otras cosas, las siguientes distinciones importantes:

Algunos sistemas {1, 2, 4} se basan principalmente en video y se mejoran con gráficos por computadora

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 5 de 15

otros {5,6} se basan principalmente en gráficos de computadora y se mejoran con video.

En algunos sistemas {3,6} el mundo real se ve directamente (a través del aire o vidrio), mientras que en otros
{1,2,4,5} los objetos del mundo real se escanean y luego se resintetizan en un dispositivo de visualización (por
ejemplo, analógico o video digital).

Desde el punto de vista del espectador en relación con el mundo que está viendo, algunas de las pantallas {1} son
exocéntricas (basadas en WoWmonitor), mientras que otras {2,3,4,6} son egocéntricas (inmersivas).

En algunos sistemas {3,4,6} es imperativo mantener un mapeo ortoscópico 1: 1 preciso entre el


tamaño y las proporciones de las imágenes mostradas y el entorno del mundo real circundante,
mientras que para otros {1,2} la escala es menos crítica , o nada importante.

Por lo tanto, nuestro punto es que, aunque las seis clases de pantallas de RM enumeradas parecen a primera vista estar
razonablemente delineadas entre sí, las distinciones se enturbian rápidamente cuando se consideran conceptos como
real, virtual, vista directa, egocéntrico, exocéntrico, ortoscópico, etc. , especialmente en relación con la implementación y
las cuestiones de percepción. El resultado es que las diferentes clases de pantallas se pueden agrupar de manera
diferente según el tema de interés particular. Nuestro propósito en este artículo es presentar una taxonomía de los
principales aspectos de las pantallas de RM que sustentan estas cuestiones prácticas.

El propósito de una taxonomía es presentar una clasificación ordenada, según la cual se puedan enfocar las
discusiones teóricas, evaluar los desarrollos, realizar la investigación y comparar los datos de manera
significativa. A continuación se resumen cuatro taxonomías notables en la literatura que son relevantes para
la presentada aquí.

Sheridan (1992) propuso una medida operativa de presencia para tareas realizadas a distancia, basadas en
tres determinantes: extensión de la información sensorial, control de la relación de los sensores con el
entorno y capacidad para modificar el entorno físico. Propuso además que esas tareas se evaluaran de
acuerdo con la dificultad de la tarea y el grado de automatización.

Zeltzer (1992) propuso una taxonomía tridimensional de sistemas de simulación gráfica, basado en los
componentes autonomía, interacción y presencia. Su "cubo AIP" se cita con frecuencia como marco
para categorizar entornos virtuales.

Naimark (1991a, b) propuso una taxonomía para categorizar diferentes enfoques para registrar y reproducir la
experiencia visual, lo que lleva a imágenes del espacio real. Estos incluyen: imágenes monoscópicas, imágenes
estereoscópicas, imágenes multiscópicas, panorámicas, viajes sustitutos e imágenes en tiempo real.

Robinett (1992) propuso una taxonomía extensa para clasificar diferentes tipos de interacciones mediadas
tecnológicamente, o experiencia sintética, asociado exclusivamente con sistemas basados en HMD. Su taxonomía es
esencialmente de nueve dimensiones, que abarca la causalidad, la fuente del modelo, el tiempo, el espacio, la
superposición, el tipo de visualización, el tipo de sensor, el tipo de medición de acción y el tipo de actuador. En su
artículo, una variedad de sistemas conocidos relacionados con la realidad virtual se clasifican en relación con la
taxonomía propuesta.

Aunque el presente artículo hace un uso extensivo de ideas de Naimark y los otros citados, es en muchos sentidos
una respuesta a la sugerencia de Robinett (Robinett, 1992, p. 230) de que su taxonomía sirve como "un punto de
partida para la discusión". Sin embargo, es importante señalar las diferencias. Si bien la experiencia mediada
tecnológicamente es de hecho un componente importante de nuestra taxonomía, no nos estamos enfocando en
la misma pregunta de cómo clasificar las diferentes variedades de tales interacciones, como lo hace el esquema
de clasificación de Robinett. En cambio, nuestra taxonomía está motivada, quizás de manera más estricta, por la
necesidad de distinguir entre los diversos requisitos tecnológicos necesarios para realizar e investigar pantallas
de realidad mixta, sin restricciones sobre si el entorno es supuestamente

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 6 de 15

inmersivo (basado en HMD) o no.

Es importante señalar que, aunque nos centramos en este trabajo exclusivamente en la realidad mixta visual
pantallas, muchos de los conceptos propuestos aquí también pertenecen a cuestiones análogas asociadas con otras
modalidades de visualización. Por ejemplo, para las pantallas auditivas, en lugar de aislar al participante de todos los
sonidos en el entorno inmediato, por medio de un casco y / o auriculares, las señales generadas por computadora se
pueden mezclar con sonidos naturales del entorno real inmediato. Sin embargo, para "calibrar" un realidad aumentada
auditiva mostrar con precisión, es necesario alinear cuidadosamente las señales auditivas binaurales con fuentes de
sonido espacializadas sintéticamente. Cohen y sus colegas están desarrollando esta capacidad, por ejemplo (Cohen et al,
1993), convolucionando señales monoaurales con pares de funciones de transferencia direccional izquierda / derecha.
Las exhibiciones hápticas (es decir, información relacionada con sensaciones como el tacto, la presión, etc.) se presentan
típicamente por medio de algún tipo de manipulador maestro de mano (por ejemplo, Brooks, et al, 1990) o dispositivos
de tipo guante más distribuidos (Shimoga, 1992). Dado que la información háptica producida sintéticamente debe, en
cualquier caso, superponerse necesariamente a cualquier sensación háptica existente producida de otro modo por un
manipulador físico o guante real, AR háptica Casi se puede considerar el modo natural de funcionamiento en este
sentido. AR vestibular De manera similar, se puede considerar un modo de operación natural, ya que cualquier intento
de sintetizar información sobre la aceleración del cuerpo del participante en un entorno virtual, como se realiza
comúnmente en simuladores de vuelo comerciales y militares, por ejemplo, debe necesariamente tener que lidiar con la
gravedad ambiental existente. efectivo.

3. Distinguir lo virtual de lo real: definiciones

Con base en los ejemplos citados anteriormente, es obvio que como primer paso en nuestra taxonomía es
necesario hacer una distinción útil entre el concepto de verdadero y el concepto de virtual. Nuestra necesidad de
tomar esto como punto de partida se deriva del simple hecho de que estos dos términos constituyen la base del
término ahora omnipresente "Realidad Virtual". De manera intuitiva, esto podría llevarnos simplemente a definir
los dos conceptos como ortogonales, ya que a primera vista, como lo implica la Figura 1, la pregunta de si un
objeto o una escena es real o virtual no parece difícil de responder. De hecho, de acuerdo con el sentido
convencional de la realidad virtual (es decir, para entornos inmersivos completamente virtuales), las diferencias
sutiles en la interpretación de los dos términos no son tan críticas, ya que la intención básica es que un mundo
"virtual" sea sintetizado, por computadora, para dar el participante la impresión de que ese mundo no es
realmente artificial sino "real", y que el participante es "realmente"

En muchos entornos de RM, por otro lado, estas simples aclaraciones no siempre son suficientes. Según nuestra
experiencia, las discusiones sobre Realidad Mixta entre investigadores que trabajan en diferentes clases de
problemas requieren con mucha frecuencia abordar cuestiones tales como si los objetos o escenas particulares
que se muestran son reales o virtuales, si las imágenes de datos escaneados deben considerarse reales o virtuales,
si un objeto real debe verse 'realista' mientras que uno virtual no es necesario, etc. Por ejemplo, con los sistemas
de AR de Clase 1 hay poca dificultad en etiquetar la escena de video vista remotamente como "real" y las imágenes
generadas por computadora como "virtuales" . Si comparamos este caso, además, con un sistema de RM de clase 6
en el que uno debe alcanzar una escena generada por computadora con su propia mano y "agarrar" un objeto,
tampoco hay duda, en este caso, de que el objeto que se está agarrando es "virtual" y la mano es "real". Sin
embargo, al comparar estos dos ejemplos, está claro que la realidad de la propia mano y la realidad de una imagen
de video son bastante diferentes, lo que sugiere que se debe tomar una decisión sobre si usar el término idéntico
"real" para ambos casos es realmente apropiado.

Nuestra distinción entre real y virtual se trata de hecho aquí de acuerdo con Tres diferentes aspectos, todos
ilustrados en la Figura 2. La primera distinción es entre objetos reales y objetos virtuales, ambos mostrados a la
izquierda de la figura. Las definiciones operativasº que adoptamos aquí son:

Los objetos reales son cualquier objeto que tenga una existencia objetiva real.

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 7 de 15

Los objetos virtuales son objetos que existen en esencia o efecto, pero no formal o realmente.

Para poder ver un objeto real, se puede observar directamente o se puede muestrear y luego resintetizar a
través de algún dispositivo de visualización. Para que se pueda ver un objeto virtual, debe estar
simulado, ya que en esencia no existe. Esto implica el uso de algún tipo de descripción, o
modelo ºº, del objeto, como se muestra en la Figura 2.

La segunda distinción se refiere a la cuestión de la calidad de imagen como un aspecto del reflejo de la realidad. Se
están invirtiendo grandes cantidades de dinero y esfuerzo en el desarrollo de tecnologías que permitan la producción
de imágenes que parecen "reales", donde el estándar de comparación para el realismo se toma como
visualización directa a través del aire o el vidrio) de un objeto real, o " realidad no mediada "( Naimark, 1991a). Visualización
no directa de un objeto real se basa en el uso de algún sistema de imágenes primero para muestrear datos sobre el
objeto, por ejemplo, usando una cámara de video, láser o escáner de ultrasonido, etc., y luego resintetizar o reconstruir
estos datos a través de algún medio de visualización, como un monitor de computadora de video (analógico) o (digital).
Los objetos virtuales, por otro lado, por definición no se pueden muestrear directamente y, por lo tanto, solo se pueden
sintetizar. La visualización no directa de objetos reales o virtuales se muestra en la Figura 2 como presentación a través de
una pantalla de síntesis. (Entre los ejemplos de pantallas no sintetizadas se incluyen binoculares, telescopios ópticos, etc.,
así como ventanas de vidrio ordinarias). Al distinguir aquí entre visualización directa y no directa, por lo tanto, no estamos
distinguiendo objetos reales de los virtuales. en absoluto, ya que incluso las imágenes sintetizadas de objetos virtuales (es
decir, no reales) formalmente inexistentes ahora pueden hacerse para que parezcan extremadamente realistas. Nuestro
punto es que el hecho de que una imagen "parezca real" no significa que el objeto que se está representando es real y,
por lo tanto, la terminología que empleamos debe poder reflejar cuidadosamente esta diferencia.

Finalmente, para aclarar aún más nuestros términos, la tercera distinción que hacemos es entre imágenes reales y
virtuales. Para ello pasamos al campo de la óptica, y definimos operativamente un imagen real como cualquier imagen
que tenga algo de luminosidad en el lugar en el que parece estar ubicada. Por tanto, esta definición incluye la
visualización directa de un objeto real, así como la imagen en la pantalla de visualización de un objeto no visualizado
directamente. A imagen virtual por lo tanto, puede definirse a la inversa como una imagen que no tiene luminosidad en el
lugar en el que aparece, e incluye ejemplos tales como hologramas e imágenes especulares. También incluye el
interesante caso de una pantalla estereoscópica, como se ilustra en la Figura
2, para la cual cada una de las imágenes del ojo izquierdo y derecho en la pantalla de visualización es una imagen real, pero
la consiguiente percepción fusionada en el espacio 3D es virtual. Con respecto a los entornos de RM, por lo tanto,
consideramos cualquier imagen virtual de un objeto como una que aparece transparente, es decir, que no ocluya otros
objetos ubicados detrás de él.

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 8 de 15

Figura 2: Diferentes aspectos de la distinción realidad desde virtualidad: i) Objeto Real vs Virtual; ii)
Visualización directa o no directa; iii) Imagen real vs virtual.

º Todas las definiciones son consistentes con el Oxford English Dictionary [30].
ººTenga en cuenta que los objetos virtuales se pueden diseñar alrededor de modelos de objetos no existentes o de
objetos reales existentes, como lo indica la flecha punteada al modelo en la figura 2. Un modelo de un objeto virtual
también puede ser un objeto real en sí mismo, por supuesto, que es el caso de esculturas, pinturas, maquetas, etc., sin
embargo, nos limitamos aquí a síntesis generadas por ordenador únicamente.

4. Una taxonomía para fusionar mundos reales y virtuales

En la sección 2 presentamos un conjunto de distinciones que eran evidentes a partir de las diferentes clases
de pantallas de RM enumeradas anteriormente. Las distinciones que se hicieron allí se basaron en si el
mundo primario comprende objetos reales o virtuales, si los objetos reales se ven directamente o no, si la
visualización es exocéntrica o egocéntrica y si existe o no un mapeo ortoscópico entre lo real y lo virtual.
mundos. En la presente sección ampliamos esas ideas transformándolas en una taxonomía más formalizada,
que intenta abordar las siguientes preguntas:

¿Cuánto sabemos sobre el mundo que se muestra? ¿Qué

tan realistas somos capaces de mostrarlo?

¿Cuál es el alcance de la ilusión de que el observador está presente dentro de ese mundo?

Como se discute a continuación, las dimensiones propuestas para abordar estas preguntas incluyen respectivamente Alcance
del conocimiento mundial, fidelidad en la reproducción, y Extensión de la metáfora de la presencia.

4.1 Alcance del conocimiento mundial

Para comprender la importancia de la dimensión Extensión del conocimiento mundial (EWK), contrastamos esto
con la discusión del Continuum de virtualidad presentado en la Sección 1, donde varios implementaciones
de Realidad Mixta, cada uno comprendiendo una proporción diferente de objetos reales y

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 9 de 15

objetos virtuales dentro de la imagen compuesta. El punto que deseamos hacer en la presente sección es que
simplemente contar el número relativo de objetos, o la proporción de píxeles en una imagen de visualización, no es un
medio suficientemente perspicaz para tomar decisiones de diseño sobre diferentes tecnologías de visualización de RM.
En otras palabras, es importante poder distinguir entre las opciones de diseño destacando las diferencias entre los
requisitos previos básicos subyacentes, uno de los cuales se relaciona con cuánto sabemos sobre el mundo que se
muestra.

Para ilustrar este punto, en un artículo de Milgram et al (1991) se describen una variedad de capacidades sobre el
sistema de visualización de los autores para superponer imágenes estereográficas generadas por computadora en
imágenes de video estereo (posteriormente apodado ARGOS ™, para Realidad Aumentada a través de Superposiciones
Gráficas en Video Estereo (Drascic et al, 1993; Milgram et al, 1993)). Dos de las capacidades descritas allí son:

un puntero estereográfico virtual, más una cinta métrica, para indicar interactivamente la ubicación de objetos
reales y realizar mediciones cuantitativas de distancias entre puntos dentro de una escena de video
estereoscópica vista remotamente;

un medio de superponer un contorno de estructura alámbrica sobre un objeto real visualizado de forma
remota, para mejorar los bordes de ese objeto, codificar la información de la tarea en el objeto, etc.

Superficialmente, en términos de clasificación simple a lo largo de un Continuum de Virtualidad, no hay diferencia


entre estos dos casos; ambos comprenden objetos gráficos virtuales superpuestos sobre un fondo que de otro
modo sería completamente video (real). Sin embargo, una reflexión más profunda revela una diferencia
fundamental importante. En esa implementación particular del puntero / cinta métrica virtual, el "bucle" lo cierra el
operador humano, cuyo trabajo es determinar dónde debe colocarse el objeto virtual (el puntero) en la imagen,
mientras que la computadora que dibuja el puntero tiene Sin conocimiento en absoluto sobre lo que se está
señalando. En el caso del contorno del objeto de estructura alámbrica, por otro lado, se pueden contemplar dos
enfoques posibles para lograrlo. Por un método, el operador manipularía interactivamente la estructura alámbrica
(con 6 grados de libertad) hasta que coincida con la ubicación y la actitud del objeto, tal como lo percibe, lo que
fundamentalmente no es diferente del ejemplo del puntero. Sin embargo, por el otro método, la computadora ya saber
la geometría, ubicación y actitud del objeto en relación con las cámaras remotas, y colocaría la estructura metálica
sobre el objeto.

La importante diferencia fundamental entre estos casos de muestra, por lo tanto, es la cantidad de conocimiento que
tiene la computadora de visualización sobre las formas y ubicaciones de los objetos dentro de los dos mundos globales
que se presentan. Es este factor, el alcance del conocimiento mundial (EWK), en lugar de simplemente la contabilidad de
las clases de objetos en la mezcla de RM, el que determina muchas de las capacidades operativas del sistema de
visualización. Esta dimensión se ilustra en la Figura 3, donde se ha dividido en tres divisiones principales.

Figura 3: Dimensión Extensión del conocimiento mundial (EWK)

En un extremo, a la izquierda, está el caso en el que no se sabe nada sobre el mundo (remoto) que se muestra.
Este final del continuo está reservado para imágenes de objetos que han sido escaneados y sintetizados 'a ciegas'
para visualización no directa, así como para objetos reales visualizados directamente. En el primer caso, aunque
tal imagen podría mostrarse por medio de una computadora, no hay información presente dentro de la base de
conocimiento sobre el contenido de esa imagen. El otro extremo de la dimensión EWK define las condiciones
necesarias para mostrar un mundo completamente virtual, en

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 10 de 15

el sentido 'convencional' de la realidad virtual, que se puede crear solo cuando la computadora tiene un conocimiento completo
sobre cada objeto en ese mundo, su ubicación dentro de ese mundo, la ubicación y el punto de vista del observador dentro de
ese mundo y, cuando sea relevante, los intentos del espectador para cambiar ese mundo manipulando objetos dentro de él.

La sección más interesante del continuo EWK, por supuesto, es la parte que cubre todos los casos entre los dos
extremos, y se mostrará que la medida en que los objetos reales y virtuales se pueden fusionar en la misma
pantalla depende en gran medida de la dimensión EWK. En la Figura 3, se muestran tres tipos de subcasas. La
primera, " Dónde", se refiere a casos en los que se dispone de algunos datos cuantitativos sobre ubicaciones en el
mundo remoto. Por ejemplo, supongamos que el operador de un telerobot ve un monitor de video de circuito
cerrado y mueve una cruz simple (una forma de realidad aumentada) a una ubicación particular en la pantalla. Esta
acción le comunica explícitamente a la computadora que hay 'algo de interés' en el punto {x, y} de esa imagen de
video (o en el punto {x, y, z} si el cursor se puede calibrar y manipular en tres dimensiones), pero no proporciona
ninguna iluminación en absoluto sobre qué está en ese lugar. Otra ilustración involucra el procesamiento de datos
escaneados sin procesar, obtenidos por medio de video, láser, sonar, escáneres de ultrasonido, etc., que por sí
mismos no agregan ninguna información sobre qué o dónde se encuentran los objetos en el mundo escaneado.
Sin embargo, si dichos datos se pasaran a través de algún tipo de filtros de detección de bordes digitales, por
ejemplo, ahora se podría considerar que el sistema ha recibido información cuantitativa de tipo "dónde", pero
nada que permita la identificación de qué objetos. pertenecen los distintos bordes.

El " Qué" La etiqueta en la Figura 3 se refiere a casos en los que el software de control tiene algún conocimiento sobre los
objetos en la imagen, pero no tiene idea de dónde están. Como reflejo de un caso común para muchos sistemas AR,
suponga, por ejemplo, que, como parte de un procedimiento de registro, se dispone de un modelo geométrico preciso
de un objeto de calibración. Una imagen de ese objeto puede luego dibujarse gráficamente y superponerse sobre una
imagen de video asociada; Sin embargo, a menos que la computadora sepa exactamente dónde está ubicado el objeto
real y cuál es su orientación, para determinar el factor de escala y el punto de vista correctos, los dos no coincidirán, y el
objeto gráfico parecerá simplemente estar flotando arbitrariamente dentro del resto. de la escena remota.

Las imágenes médicas son un ejemplo importante de un entorno en el que muchos de estos factores son relevantes.
Muchos sistemas de imágenes médicas son altamente especializados y tienen como objetivo la creación de un mundo
completamente modelado. Por ejemplo, un sistema desarrollado especialmente para imágenes cardíacas podría realizar
un ajuste basado en modelos de datos escaneados sin procesar, para generar una imagen a escala adecuada del sistema
cardíaco del paciente. Si los datos médicos escaneados y reconstruidos se superpusieran a una imagen (video) del
paciente de donde se tomaron los datos, como en Fuchs et al (1993), la computadora tendría que tener un modelo no
solo de cómo se reconstruyeron los datos muestreados se relacionan entre sí, pero también dónde se ubican los puntos
correspondientes con respecto al mundo real, si se quiere que sea posible una superposición precisa sin mediación.

4.2 Fidelidad de reproducción

Las dos dimensiones restantes intentan abordar la cuestión de la realismo en pantallas de RM, pero de diferentes
formas: en términos de la calidad de imagen y en términos de inmersión o presencia dentro de la pantalla. Es
interesante notar que este enfoque es algo diferente de los adoptados por otros. Tanto la taxonomía de Sheridan
(1992) como la de Robinett (1992), por ejemplo, se centran en el sentimiento de presencia como objetivo final. Esto
también es consistente con la progresión en la tecnología de "imágenes del espacio real" descrita en la taxonomía
de Naimark (1991a, b), hacia exhibiciones cada vez más realistas que eventualmente hacen que uno sienta que está
participando en una "realidad no mediada". En nuestra taxonomía separamos intencionalmente estas dos
dimensiones, sin embargo, en reconocimiento de la utilidad práctica de algunas pantallas visuales de alta calidad
que, sin embargo, no intentan hacer que uno se sienta dentro de el entorno remoto (por ejemplo, Clase 1), así
como algunas situaciones de visualización en las que el espectador ya está físicamente inmerso en el entorno
visualizado, pero puede contar con ayudas gráficas de calidad relativamente baja (por ejemplo, Clase 3 y 4).

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 11 de 15

Figura 4: Dimensión de fidelidad de reproducción (RF).

Los elementos de la dimensión Reproduction Fidelity (RF) se ilustran en la Figura 4, donde seguimos el enfoque
introducido en la Figura 2 para clasificar la visualización no directa, ya sea de objetos reales o virtuales. Por tanto,
el término "fidelidad de reproducción" se refiere a la calidad con la que la pantalla sintetizadora es capaz de
reproducir las imágenes reales o previstas de los objetos que se muestran. Es importante señalar que esta figura
es en realidad una simplificación burda de un tema complejo y, de hecho, agrupa varios factores diferentes,
como el hardware de visualización, el procesamiento de señales, las técnicas de representación gráfica, etc., cada
uno de los cuales podría ser a su vez desglosado en sus propios elementos taxonómicos.

En términos de nuestra discusión anterior, es importante darse cuenta de que esta


dimensión se refiere a la fidelidad de reproducción de ambas cosas objetos reales y
virtuales. La razón de esto no es solo porque muchos de los problemas de hardware
están relacionados. Aunque la visualización de estructura alámbrica más simple de un
objeto virtual y la imagen de video de menor calidad de un objeto real son bastante
distintas, lo contrario no es cierto para los extremos superiores. En la Figura 4, la
progresión sobre el eje pretende mostrar una progresión aproximada, principalmente en
hardware, de la tecnología de reproducción de video. Debajo del eje, la progresión es
hacia técnicas de modelado y renderizado de gráficos por computadora cada vez más
sofisticadas. En el lado derecho de la figura, la pantalla de video "definitiva", denotada
aquí como "3D HDTV" puede tener una calidad tan cercana al fotorrealismo, o incluso a la
visualización directa, como la representación gráfica "definitiva", denotada aquí como "
animación 3D de alta fidelidad en tiempo real ".

4.3 Extensión de la metáfora de la presencia

La tercera dimensión de nuestra taxonomía, descrita en la Figura 5, es el eje de la metáfora de la extensión de la


presencia (EPM), es decir, la medida en que el observador debe sentirse "presente" dentro de la escena mostrada. Al
incluir esta dimensión, reconocemos el hecho de que las pantallas de Realidad Mixta incluyen no solo entornos altamente
inmersivos, con una fuerte metáfora de presencia, como pantallas de Clase 2, 3, 4 y 6, sino también importantes pantallas
exocéntricas tipo AR de Clase 1.

Figura 5: Dimensión de la metáfora de extensión de la presencia (EPM)

Así como se demostró que las subdimensiones de RF para objetos virtuales y reales en la Sección 4.2 no eran del
todo ortogonales, el eje EPM tampoco lo es en cierto sentido del todo ortogonal al eje RF, ya que cada dimensión
tiende independientemente hacia un extremo que idealmente es indistinguible de

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 12 de 15

viendo la realidad directamente. En el caso de EPM, el eje abarca una gama de casos que se extienden desde la
metáfora mediante la cual el observador mira desde el exterior al mundo desde un único punto de vista monoscópico
fijo, hasta la metáfora de la "imagen en tiempo real", mediante la cual las sensaciones del observador no es diferente
de los de la realidad no mediada. (Gran parte de la terminología utilizada en esta sección coincide con la utilizada por
Naimark en su taxonomía propuesta de imágenes del espacio real (Naimark, 1991a, b)). A lo largo de la parte superior
del eje en la Figura 5 se muestra la progresión de los medios de visualización correspondientes a la Casos de EPM a
continuación.

Junto a la clase de pantallas WoW basadas en monitores, en el lado izquierdo del eje EPM, se encuentran las pantallas de "Imágenes multiscópicas".
Estos van más allá de la clase de pantallas estereoscópicas indicadas en el eje de RF de la Figura 4, para incluir pantallas que permiten múltiples
puntos de vista, es decir, movimientos laterales de la cabeza del observador mientras el cuerpo permanece más o menos quieto (Naimark, 1991a, b
). La sensación resultante de paralaje de movimiento local debería resultar en una metáfora de presencia mucho más convincente que una simple
exhibición estereoscópica estática. Para obtener imágenes dependientes del punto de vista multiscópico, normalmente se debe rastrear la posición
de la cabeza del observador. Para imágenes escaneadas simples (lado izquierdo del eje EWK en la Figura 3) es necesario tener un sistema de cámara
esclava de cabeza remota suficientemente rápido y preciso o poder acceder o interpolar imágenes dentro de un medio de almacenamiento de video
de acceso rápido ( por ejemplo, Hirose, 1994; Liu y Skerjanc, 1992). Dado que la visualización de imágenes del mundo virtual (lado derecho del eje
EWK en la Figura 3), por otro lado, depende menos de componentes de hardware críticos más allá del seguimiento de cabeza confiable, la
realización de imágenes multiscópicas es algo más sencilla. Ware et al (1993) se refieren a dicha capacidad de visualización como "realidad virtual de
pecera". Dado que la visualización de imágenes del mundo virtual (lado derecho del eje EWK en la Figura 3), por otro lado, depende menos de
componentes de hardware críticos más allá del seguimiento de cabeza confiable, la realización de imágenes multiscópicas es algo más sencilla.
Ware et al (1993) se refieren a dicha capacidad de visualización como "realidad virtual de pecera". Dado que la visualización de imágenes del mundo
virtual (lado derecho del eje EWK en la Figura 3), por otro lado, depende menos de componentes de hardware críticos más allá del seguimiento de cabeza confiable, l

La imagen panorámica es una extensión de la imagen multiscópica que permite al observador también mirar alrededor
de una escena, pero se basa en la metáfora progresivamente más inmersiva de estar en el interior, en lugar de mirar
desde el exterior hacia adentro (Naimark, 1991a, b). Las imágenes panorámicas se pueden realizar parcialmente
mediante pantallas grandes, pero la metáfora resultante es válida solo para la ejecución de tareas que están limitadas a
un volumen de trabajo adecuadamente restringido. Una instanciación más inclusiva de esta clase de pantallas se puede
realizar mediante pantallas montadas en la cabeza (HMD), que son inherentemente compatibles con la metáfora de
estar en el interior del mundo que se está viendo. Algunos de los problemas técnicos asociados con la realización de
tales pantallas son similares a los descritos anteriormente para la obtención de imágenes multiscópicas.

El viaje sustituto se refiere a la capacidad de moverse dentro del mundo que se está viendo, mientras que las imágenes en
tiempo real se refieren a la solución de problemas relacionados temporalmente, como tasas de actualización
suficientemente rápidas, simulación de dinámicas, etc. (Naimark, 1991a, b) El objetivo final de "realidad no mediada", que no
se muestra en la Figura 5, debería ser indistinguible de las condiciones de visualización directa en el sitio real, ya sea real o
virtual.

5. Conclusión

En este artículo hemos definido el término "Realidad Mixta", principalmente a través de ejemplos no
exhaustivos de sistemas de visualización existentes en los que los objetos reales y los objetos virtuales se
muestran juntos. En lugar de basarnos en distinciones obvias entre los términos "real" y "virtual", hemos
intentado profundizar y examinar algunos de los factores esenciales que distinguen entre sí los diferentes
sistemas de visualización de Realidad Mixta: Extensión del conocimiento mundial (EWK), Reproducción
Metáfora de Fidelidad (RF) y Extensión de Presencia (EPM). Uno de nuestros principales objetivos al presentar
nuestra taxonomía ha sido aclarar una serie de cuestiones terminológicas, con el fin de que los desarrollos
aparentemente no relacionados que están llevando a cabo, entre otros, desarrolladores de realidad virtual,
científicos informáticos e ingenieros de (tele) robótica ahora se puedan ubicar dentro de un marco único,

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 13 de 15

6. Agradecimientos

Los autores agradecen el generoso apoyo y las contribuciones del Dr. N. Terashima, presidente de
ATR Communication Systems Research Laboratories y del Dr. K. Habara, vicepresidente ejecutivo de
ATR International (presidente de la Junta de ATR Communication Systems Research Laboratories).
También agradecemos al Sr. Karan Singh por sus muchas sugerencias útiles.

7. Referencias

Bajura, M., Fuchs, H., Ohbuchi, R. (1992). Fusionar objetos virtuales con el mundo real: ver imágenes de
ultrasonido dentro del paciente. Gráficos por computadora, 26 (2).

Brooks, FP Jr., Ming, OY, Batter, JJ y Kilpatrick, PJ (1990). Proyecto GROPE - Pantallas hápticas para
visualización científica. Gráficos por computadora 24 (4), 177-185.

Caudell, TP y Mizell, DW (1992). Realidad aumentada: una aplicación de la tecnología de visualización frontal a
los procesos de fabricación manuales. Proc. Conferencia Internacional IEEE Hawaii sobre Ciencias de Sistemas.

Cohen, M. (1993). Además de la inmersión: puntos de vista y marcos de referencia superpuestos. En Taller
franco-japonés sobre mundos sintéticos. Aizu-Wakamatsu, Japón: Wiley & Sons.

Cohen, M, Aoki, S y Koizumi, N (1993). Realidad de audio aumentada: entornos acústicos híbridos de
telepresencia / realidad virtual. Proc. Taller internacional IEEE sobre comunicación humana y robótica
(RO-MAN'93), Tokio, 361-364.

Drascic D, Grodski J, Milgram P, Ruffo K, Wong P, Zhai S (1993). ARGOS: un sistema de visualización para
aumentar la realidad, ACM SIGGRAPH Tech Video Review, Vol 88: Conf InterCHI '93 sobre Factores Humanos
en Sistemas de Computación, ( Resumen en Actas de InterCHI'93, p 521), Amsterdam, abril
1993.

Edwards, EK, Rolland, JP y Keller, KP (1993). Diseño de video transparente para fusionar entornos reales
y virtuales. Proc. Simposio internacional de realidad virtual IEEE (VRAIS'93), Seattle, WA, 223-233.

Ellis, SR y Bucher, UJ (1992). Percepción de profundidad de objetos virtuales presentados estereoscópicamente


que interactúan con patrones de fondo reales. Conferencia de la Sociedad Psiconómica, San Luis, 1992.

Feiner, S, MacIntyre, B y Seligmann, D (1993). Realidad aumentada basada en el conocimiento.


Comunicaciones de la ACM, 36 (7), 52-62.

Feiner, S, MacIntyre, B, Haupt, M y Solomon, E (1993). Ventanas en el mundo: ventanas 2D para realidad
aumentada 3D. Proc. Simposio ACM sobre software y tecnología de interfaz de usuario (UIST'93), Atlanta,
Georgia.

Fuchs, H., Bajura, M., Ohbuchi, R. (1993). Fusionar objetos virtuales con el mundo real: ver imágenes de
ultrasonido dentro del paciente. Actas en video del Simposio Internacional de Realidad Virtual de IEEE
(VRAIS'93), Seattle, WA..

Hirose, M., Takahashi, K., Koshizuka, T., Watanabe, Y. (1994). Un estudio sobre tecnología de
edición de imágenes para sensación sintética. Actas de ICAT '94, Tokio.

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 14 de 15

Ishii, H., Kobayashi, M. y Grudin, J. (1993). Integración del espacio interpersonal y el espacio de trabajo compartido:
diseño y experimentos de tablero transparente. ACM Transactions on Information Systems (TOIS) (Número especial
sobre CSCW'92), 11 (4).

Janin, AL, Mizell, DW y Caudell, TP (1993). Calibración de pantallas montadas en la cabeza para la realidad
aumentada. Proc. Simposio internacional de realidad virtual IEEE (VRAIS'93), Seattle, WA, 246-255.

Kaneko, M., Kishino, F., Shimamura, K., Harashima, H. (1993). Hacia la nueva era de la comunicación
visual. Transacciones de IEICE sobre comunicaciones, Vol. E76-B (6), 577-591, junio de 1993.

Krüger, M (1993). Tecnología medioambiental: hacer virtual el mundo real. Comunicaciones de la ACM,
36 (7), 36-51.

Lion, D, Rosenberg, C y Barfield, W (1993). Superposición de gráficos de computadora tridimensionales con


video estereoscópico en vivo: aplicaciones para entornos virtuales. Actas de la conferencia SID,
1993.

Little, W, Fowler, HW & Coulson, J / con revisión de CT Onions (1988). Diccionario de inglés de
Oxford, tercera edición. Prensa de Clarendon: Oxford.

Liu, J. y Skerjanc, R. (1992). Construcción de imágenes intermedias para un sistema 3D multivista. SPIE Proc.
1669, Pantallas y aplicaciones estereoscópicas III.

Mackay, W, Velay, G, Carter, K, Ma, C y Pagani, D (1993). Aumento de la realidad: agregando


dimensiones computacionales al papel. Comunicaciones de la ACM, 36 (7), 96-97.

Metzger, PJ (1993). Añadiendo realidad a lo virtual. Proc. Simposio internacional de realidad


virtual IEEE (VRAIS'93), Seattle, WA, 7-13.

Milgram, P., Zhai, S., Drascic, D. y Grodski, JJ (1993). Aplicaciones de la realidad aumentada para la
comunicación humano-robot. En Actas de IROS'93: Conferencia Internacional sobre Robots y
Sistemas Inteligentes. Yokohama, Japón, 1467-1472.

Milgram, P, Drascic, D, Grodski, JJ (1991). Mejora de las visualizaciones de vídeo en 3-D mediante
estereografías superpuestas. Actas de la 35a reunión anual de la Sociedad de Factores Humanos, San
Francisco, 1457-1461, septiembre de 1991.

Naimark, M (1991a). Elementos de imágenes del espacio real. Informe técnico de Apple Multimedia Lab.

Naimark, M (1991b). Elementos de la imagen del espacio real: una taxonomía propuesta. Proc. SPIE Vol. 1457,
Pantallas y aplicaciones estereoscópicas II.

Robinett, W (1992). Experiencia sintética: una taxonomía propuesta. Presencia, 1 (2), 229-247.

Rosenberg, LB (1993). Luminarias virtuales: herramientas de percepción para la manipulación telerobótica. Proc.
Simposio internacional de realidad virtual IEEE (VRAIS'93), Seattle, WA, 76-82.

Sheridan, TB (1992). Reflexiones sobre telepresencia y realidad virtual. Presencia 1 (1), 120-126.

Takemura, H y Kishino, F (1992). Entorno de trabajo cooperativo utilizando espacio de trabajo virtual. Proc.
Trabajo cooperativo asistido por computadora (CSCW'92), 226-232.

Tani, M, Yamaashi, K, Tanikohsi, K, Futakawa, M, Tanifuji, S (1992). Video orientado a objetos:

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html 16-10-2003
Documento de IEICE sobre MR Página 15 de 15

Interacción con objetos del mundo real a través de video en vivo. Proc. Conf CHI '92 sobre factores humanos en
sistemas informáticos, 593-598.

Ware, C, Arthur, K y Booth, KS (1993). Realidad virtual de pecera. Conferencia InterCHI '93 sobre
factores humanos en sistemas informáticos, Amsterdam, 37-42.

Wellner, P (1993). Interactuar con papel en el escritorio digital. Comunicaciones de la ACM, 36 (7),
86-96.

Zeltzer, D (1992). Autonomía, interacción y presencia. Presencia 1 (1), 127-132.

http://vered.rose.utoronto.ca/people/paul_dir/IEICE94/ieice.html
Viie
ewwppu
ubblliiccaactitud
sobre
n sstta
attss
16-10-2003

También podría gustarte