Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Resumen : cuando se trata de aplicaciones prácticas de realidad En consecuencia, las aplicaciones descritas en este documento
aumentada, las herramientas de plataforma móvil son las más merecedoras.
se basan en la biblioteca ARKit 2.0 de Apple, que simplifica
Gracias a la naturaleza de los dispositivos móviles y su uso enormemente el desarrollo de aplicaciones basadas en AR en varios
cotidiano, se ha formado inadvertidamente la base ideal para este aspectos clave con el uso del lenguaje de programación Swift de Apple
tipo de contenido. En consecuencia, dentro del entorno de desarrollo compilado a través de Xcode.
de iOS , el programa Xcode de Apple permite el desarrollo de
aplicaciones utilizando la biblioteca ARKit , que ofrece una gran II. APLICACIÓN DE MEDICIÓN DE DISTANCIA
cantidad de beneficios. Entre la plétora de ventajas, este documento
Gracias a los recientes avances tecnológicos, muchas herramientas
se centra en la utilización de funciones como la capacidad de medir
cotidianas se reemplazan y mejoran gradualmente. Un ejemplo de ello
distancias entre dos puntos en el espacio, la detección de planos
horizontales y verticales, la capacidad de detectar objetos lo podemos ver en el caso de la regla clásica, o una cinta métrica cuyo
tridimensionales y utilizarlos como disparadores, y la implementación papel podría ser asumido por una aplicación basada en realidad
consolidada de Bibliotecas ARKit y MapKit junto con la API de aumentada.
Google Places destinada a mostrar contenido superpuesto generado
La siguiente aplicación intenta mostrar el potencial y cerrar la
por computadora en iOS 11 y versiones posteriores del sistema
brecha entre la realidad y la tecnología utilizando la realidad aumentada
operativo móvil de Apple .
con la ayuda de la cámara integrada del dispositivo iOS como elemento
de entrada para lograr una visualización creíble de la distancia entre
Palabras clave : Apple, AR, ARKit, realidad aumentada, dos puntos deseados en el espacio ( Figura 1).
Computer Vision, Core ML, Custom Vision, Google Places, iOS,
iPhone, Machine Learning, Map Kit, Microsoft Cognitive,
La visualización de la distancia se logró mediante el uso de la
PDI, Puntos de interés, SceneKit, Swift, Xcode
clase UIlabel() que, entre otros, contiene un elemento CGRect que
representa un rectángulo sobre el cual una cadena de caracteres
alfanuméricos representa la distancia medida en centímetros con dos
I. INTRODUCCIÓN
o más decimales.
En virtud de los avances tecnológicos recientes, los gráficos
Dado que el propósito de la aplicación es representar visualmente
generados por computadora han alcanzado un nivel en el que lograr
puntos en el espacio en función de la entrada del usuario, el método
una representación creíble del contenido fotorrealista ya no representa
SCNNode junto con la instancia SCNMaterial() representa el
un desafío, sino que sirve como un trampolín cuando se trata de definir
componente clave para traducir la entrada táctil en una interpretación
el concepto de realidad a través de la convergencia de contenido real
gráfica de un punto en la pantalla del dispositivo. .
y virtual.
Por lo tanto, se podría argumentar que el término Realidad Aumentada Por último, la inclusión de la clase UITapGestureRecognizer , que
representa la columna vertebral de los mundos real y virtual. es responsable de percibir la cantidad de toques, representa el
ingrediente final necesario para combinar la entrada táctil con las
medidas de distancia entre los dos puntos separados en el espacio.
Desde sus inicios, la realidad aumentada ha cambiado
drásticamente la forma en que se percibe la información. Aunque
presente durante muchos años, la realidad aumentada ha florecido La idea básica detrás de la aplicación se basa en utilizar la fórmula
gracias a la aparición de suficiente soporte de hardware y software a de la distancia basada en el sistema de coordenadas cartesianas y
finales del siglo XX. En consecuencia, interactuar con objetos virtuales aplicarla en el espacio tridimensional.
superpuestos al entorno real ya no es una cuestión de ficción, sino un La combinación de ese concepto con la biblioteca ARKit de Apple ,
elemento fundamental de numerosas aplicaciones y servicios que que es responsable de detectar superficies horizontales y verticales,
pretenden mejorar y simplificar simultáneamente las interacciones y el da como resultado una visualización de medición de distancia creíble
consumo de todo tipo de contenidos digitales. basada en la entrada del usuario a través de la interfaz de pantalla
táctil del dispositivo.
1629
Machine Translated by Google
más preciso cuanto más cerca esté el dispositivo con respecto al La funcionalidad de la aplicación en sí se basa en varios
objeto que se está midiendo. Donde la implementación de ARKit componentes clave. Uno de esos componentes es VNCoreMLModel
realmente brilla es el hecho de que los puntos de medición no de la biblioteca Core ML , que es responsable de utilizar el modelo
necesitan estar visibles en la pantalla al mismo tiempo, lo que en de Machine Learning dentro del código [7].
última instancia se traduce en un alto nivel de precisión siempre
que el dispositivo se coloque más cerca del objeto que se está
Gracias a la inclusión de la biblioteca ARKit y su clase
midiendo [4] (Figura 1).
UITapGestureRecognizer , la aplicación puede reconocer la entrada
En conclusión, gracias al sistema de seguimiento y mapeo de del usuario y traducirla en una acción definida específicamente. En
ARKit , se podría decir que los puntos colocados encima del mundo este caso, de manera similar a la aplicación de medición de
real encarnan la definición de realidad aumentada. distancias, la aplicación genera esferas blancas con la adición de
un elemento de texto tridimensional adjunto a su nodo.
1630
Machine Translated by Google
Se considera que el porcentaje de un modelo utilizable es superior Otro elemento destacado de la aplicación es la inclusión de
al 60 %, y los porcentajes de precisión y recuperación logrados en datos estadísticos ubicados en la mitad inferior de la pantalla. Las
10 sesiones de capacitación consecutivas alcanzaron más del 86 estadísticas incluyen funciones como un contador de fotogramas
%, el modelo ML personalizado se creó con éxito y está listo para por segundo y el número de nodos percibidos en la escena junto
implementarse dentro de la aplicación [4] . con el número total de polígonos. Al revisar las estadísticas
disponibles, proporcionadas gracias a la biblioteca SceneKit , el
usuario puede determinar cuántos elementos en la escena actual
ha reconocido el dispositivo y, por lo tanto, influir en su percepción
reposicionando ligeramente el dispositivo [4] (Figura 5).
1631
Machine Translated by Google
Gracias a la parte del código antes mencionada, la aplicación Dado que la aplicación está diseñada para mostrar el contenido
puede obtener datos relacionados con la ubicación actual del de PDI de dos maneras, es decir, en un mapa y a través de la vista
dispositivo, lo que a su vez lo prepara para obtener puntos de en vivo del módulo de cámara incorporado, la aplicación debe
interés a través de la interfaz API de Google Places . mostrar un mapa con la ubicación actual del usuario en la pantalla inicial.
pantalla.
Dado que la API de Google Places es, en esencia, un servicio
de pago, su uso e implementación requieren una cuenta de Google La implementación del elemento del mapa se logra mediante la
registrada junto con una tarjeta de crédito válida. Al completar el utilización de la biblioteca MapKit dentro de un archivo Swift
proceso de registro y pago, el servicio genera automáticamente una separado llamado MjestoAnotacija , cuyo propósito es vincular los
clave API necesaria para la correcta implementación de los servicios detalles del contenido de PDI obtenidos con sus ubicaciones
de Google dentro de la aplicación [3]. En este caso, la propia clave correspondientes en el mapa (Figura 10).
de API debía almacenarse en el archivo MjestaUcitavanje.swift
(Figura 7).
Figura 9. Parte de la función locationManager responsable de determinar el Figura 11. Implementación de ARViewController dentro del archivo ViewController Swift
radio máximo de obtención de contenido de PDI
Al combinar todos los elementos mencionados anteriormente, Otro elemento crucial de la experiencia de realidad aumentada
la aplicación puede determinar la ubicación del usuario, cargar una dentro de la aplicación es el protocolo ARDataSource , que es
cantidad de puntos de interés cercanos y almacenarlos dentro de responsable de transferir los datos necesarios para mostrar el
sus respectivas clases. contenido de los puntos de interés . Para ese propósito,
1632
Machine Translated by Google
se creó un archivo Swift separado con el nombre AnnotationView. puede obtener información relevante al tocar el punto de interés
deseado en la pantalla del dispositivo.
1633
Machine Translated by Google
Tocar el botón Cámara ubicado en la esquina inferior derecha Al moverse por el espacio, el usuario puede descubrir puntos de
revela la parte de realidad aumentada de la aplicación. Para que sea interés adicionales que inicialmente no estaban presentes según su
funcional, se le solicita al usuario una notificación emergente que le popularidad determinada por el servidor de Google Maps . El servidor
pide que permita el uso del módulo de cámara integrado del de Google Maps también ofrece 90 categorías diferentes de contenido
dispositivo debido a la clave NSCameraUsageDescription mencionada de puntos de interés que se pueden mostrar de forma selectiva
anteriormente contenida en el archivo Info.plist . Permitir el uso del utilizando el comando types= dentro del código [3]. En caso de que
módulo de cámara del dispositivo hace que la pantalla se ocupe con no se defina una categoría, el usuario puede ver todos los puntos de
puntos de interés cercanos que flotan sobre su ubicación real interés disponibles en su entorno.
superpuestos sobre el entorno real del usuario [4].
V. CONCLUSIÓN
Dado que la visualización del contenido de PDI depende de la Las soluciones contemporáneas de realidad aumentada, como
orientación espacial del dispositivo, el usuario debe apuntar el Apple ARKit , están actualizando diligentemente sus plataformas y
dispositivo hacia la dirección general en la que se encuentran los los utensilios que las acompañan con cada iteración que viene,
puntos de interés para poder ver su distancia real en la pantalla del proporcionando así a los desarrolladores una gama más amplia de
dispositivo (Figura 15). herramientas destinadas a simplificar las tareas tediosas y, en última
instancia, aumentar su productividad y creatividad y, en consecuencia,
descubrir un uso nuevo e innovador. -casos escenarios.
1634