Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Director:
JHON ANAYA
MSc. Ingeniería Electrónica
Director:
JHON ANAYA
MSc. Ingeniería Electrónica
RESUMEN.................................................................................................................9
ABSTRACT..............................................................................................................10
INTRODUCCIÓN.....................................................................................................11
OBJETIVOS.............................................................................................................13
OBJETIVO GENERAL..........................................................................................13
OBJETIVOS ESPECIFICOS................................................................................13
ESTADO DEL ARTE...............................................................................................14
MARCO TEÓRICO..................................................................................................18
MICROSOFT KINECT..........................................................................................18
ARQUITECTURA DEL KINECT.......................................................................19
CÁMARA RGB..................................................................................................21
CÁMARA DE PROFUNDIDAD.........................................................................21
RECONSTRUCCIÓN DE OBJETOS................................................................22
TRIANGULACIÓN.............................................................................................22
IMÁGENES DE PROFUNDIDAD......................................................................23
ESPECIFICACIONES DEL SENSOR KINECT................................................24
REALIDAD AUMENTADA....................................................................................25
MAPA TOPOGRÁFICO INTERACTIVO...........................................................26
CAJA DE ARENA DE REALIDAD AUMENTADA................................................27
METODOLOGIA DEL TRABAJO............................................................................30
ALCANCES Y LIMITACIONES................................................................................33
CRONOGRAMA DE ACTIVIDADES.......................................................................34
PRESUPUESTO DEL PROYECTO........................................................................35
DISEÑO...................................................................................................................37
RESULTADOS.........................................................................................................42
CONCLUSIONES....................................................................................................60
RECOMENDACIONES............................................................................................61
BIBLIOGRAFÍA........................................................................................................62
ANEXOS..................................................................................................................65
LISTA DE TABLAS
Pág.
Figura 1 – Kinect......................................................................................................18
Figura 2 – Partes del Kinect....................................................................................20
Figura 3 – Componentes del hardware de un Kinect..............................................20
Figura 4 – Caja de arena de realidad aumentada...................................................28
Figura 5 - Kinect Xbox 360......................................................................................37
Figura 6 - Adaptador de cable para Sensor Kinect Xbox 360 FAT.........................38
Figura 7 - Epson PowerLite x41+............................................................................39
Figura 8 – Diseño de la caja de arena.....................................................................40
Figura 9 - Determinación de alturas del Kinect y proyector....................................42
Figura 10 - Determinación de alturas del Kinect y proyector (2).............................43
Figura 11 - Determinación de alturas del Kinect y proyector (3).............................44
Figura 12 - Determinación de alturas del Kinect y proyector (4).............................44
Figura 13 - Determinación de alturas del Kinect y proyector (5).............................45
Figura 14 - Determinación de alturas del Kinect y proyector (6).............................45
Figura 15 – Ejecución del Software.........................................................................53
RESUMEN
Keywords:
INTRODUCCIÓN
12
dirigidos a creación de nuevos productos que sirvan como herramientas
pedagógicas en los distintos programas. Lo cual es un aporte novedoso al
programa de ingeniería electrónica.
13
OBJETIVOS
OBJETIVO GENERAL
OBJETIVOS ESPECIFICOS
14
ESTADO DEL ARTE
15
alternativa a las tradicionales ya que este tipo de herramientas no se han venido
utilizando en las instituciones educativas nacionales con anterioridad[ CITATION
Kre16 \l 9226 ].
16
Investigadores de la Universidad Icesi, desarrollaron una suite de aplicaciones
para enfermedades neurológicas como el Parkinson, y utilizaron el sensor Kinect
para el e-Motion, un prototipo de software de escritorio-web, diseñado para ser
utilizado por personal clínico especializado. Captura el movimiento del paciente, a
través de un Kinect para obtener la ubicación en 3D de las articulaciones de
interés para calcular las variables específicas[ CITATION JDA16 \l 9226 ].
Luisa Fernanda Cuta Hernández, José Joaquín Uribe Parra, Rudy Jimena
Montoya Galvis, Jessica Paola Morales Santos y Gian Carlos Niño Pérez de la
Fundación Universitaria de San Gil trabajaron en el diseño e implementación de un
módulo AR Sandbox como herramienta terapéutica para niños con síndrome de
Down, siendo comprobado una vez más como herramienta educativa, en los
distintos niveles de educación. Se encontró en la AR Sandbox una gran utilidad
para los niños con síndrome de Down. Su interés por la actividad a veces está
17
ausente o se sostiene por poco tiempo, por esto implementaron una manera más
didáctica para su enseñanza, ya que al no lograr captar la atención de ellos su
aprendizaje se realiza a ritmo lento, con este proyecto se busca de una manera
más creativa enseñarles la realidad [ CITATION Lui17 \l 9226 ].
18
características de los dispositivos. Lo cual nos servirá como material de apoyo
para la realización de este trabajo de grado[ CITATION OKr16 \l 9226 ].
19
MARCO TEÓRICO
MICROSOFT KINECT
Fue anunciado por primera vez en junio de 2009 como “Project Natal”. El 13 de
junio de 2010 se reveló su nombre que sería Kinect y el 4 de noviembre de 2010
salió a la venta en Estados Unidos y México. Como un presupuestó para la
promoción de 500 millones una suma mayor para la promoción del Xbox y sus
principales promociones serian la página YouTube, anuncios en Disney,
Nickelodeon y anuncios impresos se publicaron en la Revista People e InStyle,
mientras que marcas como Pepsi, Kellogg's y Burger King también llevarán
anuncios de Kinect. Un caso de publicidad de Kinect se organizó también en
Times Square, donde Kinect fue publicitado a través de muchos
carteles[ CITATION RBI14 \l 9226 ].
Figura 1 – Kinect.
20
Desde su introducción al mercado es evidente que no sólo ha estado
transformando la industria de los videos juegos, sino también muchas otras áreas
como robóticas y realidad virtual. En la figura 8 se muestran los componentes que
integran el dispositivo Kinect: una cámara RBG, un sensor de profundidad, un
proyector láser de luz infrarroja, múltiples micrófonos y un motor sobre la base que
permite modificar la inclinación del dispositivo[ CITATION OOs15 \l 9226 ].
Como se puede ver en la figura 2, son cuatro los elementos principales que
componen el dispositivo: una cámara RGB con resoluciones de 640x480 y
1280x1024 pixeles, un sensor de profundidad basado en una cámara IR y un
proyector IR con resoluciones de 640x480, 320x240 y 80x60 pixeles; un motor
para controlar la inclinación del dispositivo y por último un arreglo de 4 micrófonos
distribuidos a lo largo del sensor.
21
La arquitectura del Kinect es semejante a una cámara web. Posee en su interior
una cámara de profundidad, una cámara RGB y una matriz de 4 micrófonos, que
aíslan las voces del ruido ambiental permitiendo utilizar al Kinect como un
dispositivo para charlas y comandos de voz. Se encuentra sobre una base
motorizada, controlada por un acelerómetro de 3 ejes, que le permite rotar
horizontalmente para ajustar el campo de vista de las cámaras para ver el cuerpo
completo del usuario[ CITATION OOs15 \l 9226 ].
Fuente: support.xbox.com/es-PE/xbox-360/kinect/kinect-sensor-components
22
En la figura 3 muestra un diagrama de los componentes de hardware del
procesador de imagen de Kinect. Este es operado por el sistema en chip PS1080,
desarrollado por PrimeSense, que se encarga de la generación y sincronización
de las imágenes de profundidad e imágenes de color. El chip ejecuta todos los
algoritmos de adquisición de imágenes de profundidad de la escena a partir del
sistema de proyección de un patrón de puntos infrarrojos llamado LightCoding.
Fuente: www.compartolid.es/microsoft-kinect/
El sensor Kinect posee un rango limite recomendado de 1.2 a 3.5 metros utilizado
con el software del XBOX. Sin embargo, el sensor puede mantener seguimiento
en un rango de aproximadamente 0.7 a 6 metros. Posee un campo angular de
visión de 57º horizontalmente y 43º verticalmente, mientras que el motor puede
girar verticalmente 27º en ambas direcciones[ CITATION RBI14 \l 9226 ].
CÁMARA RGB
23
Dependiendo del SDK (software Development kit) utilizado, esta cámara es capaz
de operar con dos formatos de imagines: formato RGB y YUV. En formato RGB
hasta 30 fotogramas por segundo (30fps). En formato YUV solo está disponible en
resolución 640x480 pixeles a 15 fotogramas por segundo (15fps)[ CITATION
Jua141 \l 9226 ].
CÁMARA DE PROFUNDIDAD
24
RECONSTRUCCIÓN DE OBJETOS
TRIANGULACIÓN
25
proyección de esas dos líneas puede ser determinadas. Usando algebra lineal se
puede determinar la distancia de ese punto. Esta técnica es empleada por el
sensor Kinect para calcular la profundidad de los objetos y obtener una
reconstrucción 3D, la triangulación es realizada por cada punto entre la imagen
virtual y el patrón de observación[ CITATION OOs15 \l 9226 ].
IMÁGENES DE PROFUNDIDAD
26
identifican las partes del cuerpo y crea un esqueleto en movimiento. Kinect tienes
unas 200 posturas precargadas, de manera que se puedan llenar los espacios en
blanco en caso de que se realicen movimientos que obstruyan la visión de su
esqueleto. El principal inconveniente que podemos encontrar, es que los dedos no
se asignan de forma individual en el esqueleto, impidiendo con ello una serie de
movimientos[ CITATION Est121 \l 9226 ].
27
Fuente: Trabajo Fin de Grado
REALIDAD AUMENTADA
28
versatilidad y posibilidades que presenta esta nueva tecnología derivada de la
Realidad Virtual.
29
El AR Sandbox (o Mapa topográfico interactivo como a veces se le llama) es un
dispositivo que permite recrear un paisaje en tiempo real, moldeándolo con las
manos o una herramienta. Además de representar fácilmente cualquier accidente
geográfico con su escala de colores hipsométrica y sus líneas de nivel permite
crear lluvia de forma virtual que se desplaza en el mapa siguiendo las pendientes
y asentando en el punto más bajo del terreno.
30
UC Davis 'W.M. El Centro de Keck para la Visualización Activa en las Ciencias de
la Tierra (KeckCAVES), junto con el Centro de Investigación Ambiental UC Davis
Tahoe, el Lawrence Hall of Science y ECHO Lake Aquarium and Science Center,
participan en un proyecto financiado por la NSF sobre educación científica informal
para agua dulce lago y la ciencia de la cuenca. Como parte de este proyecto,
desarrollamos principalmente aplicaciones de visualización 3D para enseñar
conceptos de ciencias de la tierra, pero también construimos una exposición
práctica que combina una caja de arena real y una topografía virtual y agua creada
usando un bucle cerrado de una cámara 3D de Microsoft Kinect, potente software
de simulación y visualización, y un proyector de datos. La caja de arena de
realidad aumentada (RA) resultante permite a los usuarios crear modelos de
topografía formando arena real, que luego se aumenta en tiempo real mediante un
mapa de color de elevación, líneas de contorno topográfico y agua simulada. El
sistema enseña conceptos geográficos, geológicos e hidrológicos tales como
cómo leer un mapa topográfico, el significado de líneas de contorno, cuencas
hidrográficas, áreas de captación, diques, etc.
31
Figura 4 – Caja de arena de realidad aumentada
Fuente: www.compartolid.es/microsoft-kinect/
32
La superficie topográfica resultante se procesa desde el punto de vista del
proyector de datos suspendido por encima de la caja de arena, con el efecto de
que la topografía proyectada coincide exactamente con la topografía de arena
real. El software utiliza una combinación de varios shaders GLSL para colorear la
superficie por elevación usando mapas de color personalizables (el mapa de
colores por defecto utilizado en este momento fue proporcionado por M. Burak
Yikilmaz, post-doc. en el Departamento de Geología de la Universidad de
California en Davis) añadir líneas de contorno topográfico en tiempo real.
33
METODOLOGIA DEL TRABAJO
34
1. Cotización de los
elementos a nivel Adquisición de
III. Cotización y
local, nacional o elementos necesarios
compra de
internacional. para la elaboración del
elementos
2. Compra de los proyecto.
elementos.
1. Construcción del
prototipo y puesta
IV. Pruebas e Caja de arena de
en marcha.
implementación realidad aumentada.
2. Pruebas y
calibración inicial.
1. Elaboración de
instrucciones Documento con
V. Validación del
detalladas para el instrucciones de
prototipo
correcto manejo calibración y
(Experimentación)
del prototipo. funcionamiento.
1. Correcciones y
análisis de los
VI. Optimización e resultados
Informe final.
informe final obtenidos
2. Elaboración del
informe final.
Fuente: Autor
Actividades
1. Investigación y fundamentación teórica
Identificar y comprender los conceptos claves y fundamentales
necesarios para la realización y ejecución del proyecto de grado.
Actividades
1. Selección de elementos adecuados para la realización del
proyecto
35
Se diseñará un prototipo del proyecto con el fin de identificar qué
elementos son los adecuados teniendo en cuenta rendimiento, costo
y durabilidad para su posible implementación.
Actividades
1. Cotización de los elementos a nivel local, nacional o
internacional
De acuerdo al diseño del prototipo y para su posible implementación
es necesario adquirir los elementos que conforman el prototipo, es un
proceso de búsqueda y adquisición de dichos elementos.
Actividades
1. Construcción del prototipo y puesta en marcha
En esta fase se procede a implementar el prototipo del proyecto,
utilizando los elementos necesarios.
Actividades
36
1. Elaboración de instrucciones detalladas para el correcto manejo
del prototipo
Con el prototipo se realizará la prueba de funcionamiento del
sistema. Se desarrollará un informe que describa el procedimiento
detallado para el correcto manejo y funcionamiento del prototipo, así
como los diferentes resultados, inconvenientes, daños, que se
produzcan durante las pruebas.
Actividades
1. Correcciones y análisis de los resultados obtenidos
Se realizan posibles correcciones del prototipo con el fin de
garantizar un óptimo funcionamiento y cumplimiento de los objetivos
del mismo y se proceder a implementar el producto final.
37
ALCANCES Y LIMITACIONES
38
CRONOGRAMA DE ACTIVIDADES
39
PRESUPUESTO DEL PROYECTO
Valor Valor
Equipos y materiales Cantidad
Unitario Total
Internet 140 (horas) $ 1.000 $ 140.000
Fotocopias 200 $ 100 $ 20.000
Transportes $ 45.000 $ 45.000
$
Video beam 3500 lumens 1 $ 1.900.000
1.900.000
Microsoft Kinect 3D 1 $ 300.000 $ 300.000
$
PC con tarjeta 1 $ 2.000.000
2.000.000
Caja en madera con estructura para
1 $ 300.000 $ 300.000
montaje de Video Beam, Kinect y Pc
Otros 6 $100.000 $ 600.000
Fuente: Autor
40
Tabla 6 – Presupuesto total
Concepto Total
Recurso Humano $ 3.900.000
Subtotal $ 1.200.000
Imprevistos $ 500.000
Total $ 10.905.000
Fuente: Autor
41
DISEÑO
Fase II y III
Diseño del prototipo y compra de elementos para el desarrollo del prototipo
Hardware
Sensor Kinect
42
Figura 6 - Adaptador de cable para Sensor Kinect Xbox 360 FAT
Fuente: support.xbox.com/es-PE/xbox-360/kinect/kinect-sensor-components
PC
Cabe resaltar que se usó el sistema operativo Linux debido a que la plataforma de
trabajo de AR Sandbox funciona con sistema Linux y sistema Mac, pero por los
costos de fabricación del proyecto, fue más viable un sistema Linux
43
Proyector
Caja de arena
Fuente: www.epson.com/proyector-epson
44
Figura 8 – Diseño de la caja de arena
Fuente: https://arsandbox.ucdavis.edu/instructions/hardware-2/
Arena
La arena usada para moldear es arena convencional filtrada con una malla con
orificios de 3mm y se utilizó la cantidad suficiente para lograr una altura de 10 Cm
sobre la superficie basado en el diseño de UC Davis
Software
45
librerías en su última versión usados en la implementación del prototipo fueron los
siguientes:
46
RESULTADOS
Fase IV
Pruebas e Implementación
Fuente: Autores
Figura 10 - Determinación de alturas del Kinect y proyector (2)
47
Fuente: Autores
Fuente: Autores
48
Para determinar la altura del Kinect nos basamos en el diseño de UC Davis donde
este se encuentra a una distancia aproximada de 40” desde la parte superior de la
caja. El Kinect fue ubicado sobre una superficie apuntando al centro de la caja sin
causar interferencia en la línea de vista del proyector.
Fuente: Autores
Figura 13 - Determinación de alturas del Kinect y proyector (5)
49
Fuente: Autores
Para determinar el ancho del haz de luz del proyector, tomamos las medidas de
las cajas que usamos como soporte para el Kinect temporalmente. Se estableció
un ancho de 50cm.
Figura 14 - Determinación de alturas del Kinect y proyector (6)
Fuente: Autores
50
Fabricación estructura
Fuente: Autores
51
Figura 16 - Base del proyector
Fuente: Autores
Figura 17 - Estructura AR Sandbox
Fuente: Autores
52
El Kinect fue sujeto con una base removible, para facilitar el proceso de
calibración, a una distancia aproximada de 40” sobre la caja de arena, ubicando el
Kinect en el centro de la caja sin causar interferencia en la línea de vista del
proyector.
53
Instalación de paquetes y librerías en el ordenador
54
Al estar correctamente instalado, el terminal respondio:
cd ~
wget http://idav.ucdavis.edu/~okreylos/ResDev/Vrui/Build-Ubuntu.sh
bash Build-Ubuntu.sh
Al finalizar la instalación nos muestra una ventana con un globo giratorio que
podemos girar con el mouse pulsando clic, con esto verificamos que la instalación
fue exitosa
55
Ajustando tamaño de la pantalla
rm ~/Build-Ubuntu.sh
Un problema potencial es que el Vrui Toolkit intenta crear una pantalla calibrada,
lo que significa que, si una aplicación dibuja una línea de 5", esa línea debería
aparecer en la pantalla con una longitud de 5". Esta función se basa en una
pantalla conectada que informa su tamaño correcto al sistema operativo. Si bien
esto funciona para la mayoría de los monitores de computadora, no funciona para
los proyectores: un proyector no conoce el tamaño de su pantalla, ya que depende
de la distancia de alcance y del factor de zoom. Como resultado, los proyectores a
menudo informan tamaños de pantalla inexistentes o imprecisos, y Vrui los
confunde al tomarlos como valor nominal. En resumen, la función de tamaño de
56
pantalla automática de Vrui podría tener que estar deshabilitada para funcionar en
un contexto de AR Sandbox [8].
La mejor forma de desactivar esta opción para todas las funciones de Vrui es
editar el archivo de configuración central de Vrui con el siguiente comando:
57
Para la instalación del paquete usamos los comandos:
cd ~/src
wget http://idav.ucdavis.edu/~okreylos/ResDev/Kinect/Kinect-3.7.tar.gz
tar xfz Kinect-3.7.tar.gz
cd Kinect-3.7
make
sudo make install
sudo make installudevrules
ls /usr/local/bin
58
wget http://idav.ucdavis.edu/~okreylos/ResDev/SARndbox/SARndbox-
2.6.tar.gz
tar xfz SARndbox-2.6.tar.gz
cd SARndbox-2.6
make
ls ./bin
Con esto finalizamos la instalación de los paquetes para realizar las pruebas
iniciales de calibración.
Calibración inicial
En esta etapa ponemos a prueba el sistema sin estructura para establecer las
distancias aproximadas en la implementación.
59
Conectamos el Kinect al ordenador y con su fuente de poder y en el terminal
ejecutamos el siguiente comando para cargar los parámetros de calibración por
defecto del Kinect:
Las cámaras Kinect de primera generación (Kinect para Xbox-360) tienen una
cierta cantidad de distorsión de profundidad no lineal. Si apunta dicha cámara a
una superficie plana, la reconstrucción 3D no será plana, sino ligeramente en
forma de cuenco. Esta distorsión puede evitar una buena alineación entre la
superficie física de la arena y la proyección del mapa topográfico.
60
Es más fácil realizar este paso de calibración con la cámara Kinect fuera del
montaje AR Sandbox, por esta razón se realiza en esta etapa y no en el montaje
completo.
ahora movemos el Kinect hacia la superficie hasta que aparezcan unas manchas
negras en el lado izquierdo de la ventana de visualización y retrocedemos hasta
que solo haya pequeños puntos negros. Es mejor que la cámara esté de frente a
la superficie plana; giramos la cámara hacia la izquierda/derecha y hacia
arriba/abajo hasta que el color de profundidad mostrado sea uniforme entre los
bordes izquierdo, derecho, superior e inferior.
61
Capturamos un punto de calibración, manteniendo la cámara inmóvil y
presionamos la tecla "A" una vez. Aparece un mensaje "Capturing average depth
frame..." no se puede mover la cámara mientras aparece ese mensaje debido a
que está haciendo el proceso de captura. Cuando la imagen vuelve en movimiento
alejamos la cámara un poco de la superficie plana y presionamos nuevamente "A"
para capturar el siguiente punto.
Repetimos este proceso unas cuantas veces para recolectar entre cinco y diez
puntos de enlace, desde distancias entre aproximadamente 10 y 30cm. Una vez
hecho esto, presionamos la tecla "S". Esto calcula los factores de corrección de
profundidad por píxel y los escribe en un archivo de calibración en el directorio
/usr/local/etc/Vrui-4.6/Kinect-3.7. RawKinectViewer imprime "Writing depth
correction file /usr/local/etc/Vrui-4.6/Kinect-3.7/DepthCorrection-<camera serial
number>.dat" cuando finaliza donde <camera serial number> es el serial del
sensor kinect.
62
63
Ahora se ubica la cámara en el punto marcado inicialmente.
Alineación de cámara 3D
64
Alineamos la cámara para que el campo de visión cubra el interior de la caja de
arena. Utilizamos “RawKinectViewer” para guiarnos durante la alineación
utilizando el siguiente comando en la ventana de terminal:
cd ~/src/SARndbox-2.6
RawKinectViewer -compress 0
Se ubica el proyector de tal forma que la imagen cubra el cuadro interno de la caja
de arena, para esto usamos utilizamos la cuadricula de calibración generada por la
utilidad XBackground de Vrui como guía escribiendo en terminal:
65
XBackground
Luego que aparece la cuadricula, presionamos F11 para entrar en modo pantalla
completa y movemos el proyector hasta cubrir la parte interna de la caja. Este
paso es de vital importancia en la calibración. Luego presionamos ESC para salir.
cd ~/src/SARndbox-2.6
./bin/CalibrateProjector -s 1024 768
66
El proceso de calibración es similar al cálculo de corrección de profundidad, ya
que es necesaria la configuración de dos teclas libres. Se tomaron las teclas “1” y
“2”. Se vinculó una herramienta de captura del menú de herramientas presionando
la tecla “1” y seleccionando la opción “Capture” para capturar puntos de enlace y
67
al aparecer el mensaje “Creating Capture Tool...” presionamos la tecla “2” que
funciona para capturar el fondo nuevamente.
Para capturar los puntos de enlace de calibración es necesario un disco de 12cm
forrado con papel, marcado con una cruz que se encuentre en el centro del disco,
y sujeto a una pequeña varilla o extensor.
68
Se ubicó el disco de calibración a diferentes alturas, coincidiendo la cruz
proyectada en la caja con la del disco, y tomando los puntos de calibración
presionando la tecla “1”. Para los puntos más bajos, o de profundidad, fue
necesario hacer huecos en la arena, y capturar nuevamente el fondo presionando
la tecla “2”, para que el disco sea detectado por el sensor en los puntos más bajos,
y la calibración se realice desde los puntos superiores e inferiores. El proceso fue
repetido hasta que la cruz marcara el punto inicial.
69
70
71
Al finalizar el procedimiento verificamos que la calibración se realizara
correctamente, ubicando el disco de calibración en el plano de la caja, a diferentes
alturas, y cuando es detectado tornándose de color verde, se grafica una cruz roja
en el centro del disco en cualquier punto que escojamos dentro de la cobertura de
la caja. Cerramos la configuración presionando la tecla “ESC”.
72
73
Ejecutamos el software AR Sandbox
cd ~/src/SARndbox-2.6
./bin/SARndbox -uhm -fpv
Y presionamos F11 para pantalla completa, para empezar a probar que todo
estuviera en correcto funcionamiento.
74
75
Fuente: Autores
mkdir -p ~/.config/Vrui-4.6/Applications
xed ~/.config/Vrui-4.6/Applications/CalibrateProjector.cfg
76
En el editor de texto usamos estas líneas de código y guardamos los cambios del
archivo.
section Vrui
section Desktop
section Window
# Force the application's window to full-screen mode:
windowFullscreen true
endsection
section Tools
section DefaultTools
# Bind a tie point capture tool to the "1" and "2" keys:
section CalibrationTool
toolClass CaptureTool
bindings ((Mouse, 1, 2))
endsection
endsection
endsection
endsection
endsection
77
xed ~/.config/Vrui-4.6/Applications/SARndbox.cfg
y en el editor de texto usamos estas líneas de código y guardamos los cambios del
archivo:
section Vrui
section Desktop
# Disable the screen saver:
inhibitScreenSaver true
section MouseAdapter
# Hide the mouse cursor after 5 seconds of inactivity:
mouseIdleTimeout 5.0
endsection
section Window
# Force the application's window to full-screen mode:
windowFullscreen true
endsection
section Tools
section DefaultTools
# Bind a global rain/dry tool to the "1" and "2" keys:
section WaterTool
toolClass GlobalWaterTool
bindings ((Mouse, 1, 2))
endsection
endsection
endsection
endsection
78
endsection
xed ~/src/SARndbox-2.6/RunSARndbox.sh
#!/bin/bash
Esta línea en el terminal indica al sistema operativo que puede ejecutar el script:
79
Creamos el icono de acceso directo desde el terminal:
xed ~/Escritorio/RunSARndbox.desktop
y usamos estas líneas para indicar el directorio del script a ejecutar, guardamos
los cambios:
#!/usr/bin/env xdg-open
[Desktop Entry]
Version=1.0
Type=Application
Terminal=false
Icon=mate-panel-launcher
Icon[en_US]=
Name[en_US]=
Exec=/home/sandbox/src/SARndbox-2.6/RunSARndbox.sh
Comment[en_US]=
Name=Start the AR Sandbox
Comment=
80
/home/sandbox/src/SARndbox-2.6/RunSARndbox.sh %U
CONCLUSIONES
81
usarse en un entorno educativo. También se describió su implementación técnica
y las ventajas que proporciona su novedosa interfaz. Así mismo la importancia de
establecer una ruta de implementación que permita su uso en un entorno
educativo usando materiales accesibles y software libre. Finalmente se habló de la
propuesta educativa a desarrollar y discutido la importancia del proyecto para
impulsar este tipo de iniciativas.
En el futuro se espera hacer de este proyecto una plataforma sobre la cual añadir
nuevas prestaciones a la experiencia educativa.
82
RECOMENDACIONES
La base del proyector puede estar estática mientras que proyecte el área correcta
de la caja, pero la del sensor Kinect es recomendable que tenga movilidad, por su
tipo de calibración.
BIBLIOGRAFÍA
83
virtual adecuado para la comercialización de los productos en los grandes
almacenes de cadena por medio de sus tiendas virtuales, 2011. [En línea].
Available: https://repository.javeriana.edu.co/handle/10554/9515?show=full.
[5] J. D. Arango, A. Navarro, B. Muñoz, Y. Ariza y J. L. O. Velez, «Universidad
ICESI,» Investigadores colombianos desarrollan aplicaciones móviles para el
diagnóstico del Parkinson, 2016. [En línea]. Available:
https://www.icesi.edu.co/unicesi/todas-las-noticias/2383-investigadores-
colombianos-desarrollan-aplicaciones-moviles-para-el-diagnostico-del-
parkinson.
[6] L. Amaya y J. Santoyo, «Cuadernos de Musica, Artes Visuales y Artes
Escenicas,» Evaluación del uso de la realidad aumentada en la educación
musical, 2017. [En línea]. Available:
https://revistas.javeriana.edu.co/index.php/cma/article/view/15917.
[7] L. Cuta, J. Uribe, R. Montoya, J. Morales y G. Niño, «Fundacion Universitaria
de San Gil,» Diseño e implementación de un módulo AR Sandbox como
herramienta terapéutica para niños con sindrome de Down, 2017. [En línea].
Available: http://floridafork-lift.com/download/diseo-e-implementacion-de-un-
modulo-ar-sandbox-como-herramienta-terapeutica-para_pdf.
[8] O. Kreylos, Augmented Reality Sandbox, 2016. [En línea]. Available:
http://idav.ucdavis.edu/~okreylos/ResDev/SARndbox/.
[9] R. B. I. Taday, «Escuela Superior Politécnica de Chimborazo,» Sistema de
educación para niños de 3 a 5 años, mediante un robot controlado por el
sensor Kinect, 2014. [En línea]. Available:
http://dspace.espoch.edu.ec/handle/123456789/3276.
[10] O. Osorio y F. Peña, «Universidad Tecnológica de Pereira,» Captura De
Movimiento Utilizando El Kinect Para El Control De Una Plataforma Robotica
Controlada De Forma Remota Por Medio De Seguimiento De Los Puntos De
Articulación Del Cuerpo, 2015. [En línea]. Available:
http://repositorio.utp.edu.co/dspace/handle/11059/5136.
[11] J. Salvatore, J. Osio y M. Morales, Detección de objetos utilizando el sensor
Kinect, 2014. [En línea]. Available: http://www.laccei.org/LACCEI2014-
Guayaquil/RefereedPapers/RP178.pdf.
[12] J. Nuño, «Universidad Carlos III de Madrid,» Reconocimiento de Objetos
Mediante Sensor 3D KINECT, 2012. [En línea]. Available:
https://core.ac.uk/download/pdf/30046798.pdf.
[13] E. Fernández, «Universidad Carlos III de Madrid,» Control de Software
84
Educativo Mediante Kinect de Microsoft, 2012. [En línea]. Available: https://e-
archivo.uc3m.es/bitstream/handle/10016/16846/TFG_Estefania_Fernandez_S
anchez.pdf?sequence=1&isAllowed=y.
[14] D. Ruiz, «Revista ICONO14,» Realidad aumentada, educación y museos,
2011. [En línea]. Available:
https://icono14.net/ojs/index.php/icono14/article/view/24.
[15] Egokitek, «Egokitek,» AR Sandbox, Mapa topográfico interactivo, 2015. [En
línea]. Available: https://www.egokitek.com/productos/ar-sandbox/.
[16] O. P. Osorio y F. L. Peña, «Captura de movimiento utilizando el kinect para el
control de una plataforma robótica controlada de forma remota por medio de
seguimiemto de los puntos de articulación del cuerpo,» Pereira, Colombia,
2015.
[17] J. E. Salvatore, J. Osio y M. Martín, «Detección de objetos utilizando el
sensor Kinect,» de 12th Latin American and Caribbean Conference for
Engineering and Technology, Guayaquil, Ecuador, 2014.
[18] R. B. Ivay Taday, «Sistema de educación para niños de 3 a 5 años, mediante
un robot controlado por el sensor Kinect,» Riobamba, Ecuador, 2014.
85
ANEXOS
Manual
Para poner en marcha el sistema, se verifica que todos los dispositivos periféricos
estén correctamente conectados (mouse, teclado, proyector, sensor kinect), luego
encendemos el ordenador, el proyector y esperar a que inicie el software AR
Sandbox.
Para apagar el sistema, pulsar la tecla ESC, luego en la esquina superior derecha
el botón de configuración, luego apagar el sistema y confirmar. Es necesario
apagar el proyector de forma independiente.
86