Está en la página 1de 37

PRÁCTICA GADGETS - DISPOSITIVOS DE INTERACCIÓN

JULIAN FELIPE CASTELLANOS VILLATE


FABIAN ALEJANDRO CRISTANCHO RINCÓN
ÓSCAR ESTEBAN QUIROZ LÓPEZ
CARLOS ALBERTO RODRÍGUEZ SÁNCHEZ

Presentado a
Ing. Miguel Ángel Mendoza Moreno

Práctica de IOT para la identificación, documentación, configuración e implementación


de gadgets

UNIVERSIDAD PEDAGÓGICA Y TECNOLÓGICA DE COLOMBIA


FACULTAD DE INGENIERÍA
ESCUELA DE SISTEMAS Y COMPUTACIÓN
ELECTIVA IV - IOT
TUNJA
2022
OBJETIVO
DESCRIPCIÓN
DESARROLLO

En esta sección se presentan los dispositivos con los cuales se va a desarrollar la


práctica, teniendo en cuenta sus características esenciales, proceso de configuración,
uso, extensibilidad, aplicaciones y limitaciones.

XBOX 360 KINECT SENSOR

- Referencia: XBOX 360 EN/ES US HD Model 1473

- Versión

- Descripción
XBOX 360 KINECT SENSOR es un controlador de juego libre y entretenimiento creado por
Alex Kipman, desarrollado por Microsoft para la videoconsola Xbox 360, y desde junio de 2011
para PC a través de Windows 7 y Windows 8.
Permite controlar Xbox 360 con el cuerpo, realizando movimientos con la mano y convirtiendo
todas las partes del cuerpo en una extensión del personaje que aparece en pantalla. También
puede ser usado como controlador multimedia, así como un dispositivo para realizar
videoconferencias y detectar gestos faciales y corporales, así como la profundidad en el
entorno en el que se encuentre un usuario.

- ¿Para qué sirve?

Kinect permite a los usuarios controlar e interactuar con la consola sin necesidad de tener
contacto físico con un controlador de videojuegos tradicional, mediante una interfaz natural de
usuario que reconoce gestos, comandos de voz y objetos e imágenes.

- Empresa desarrolladora

- Características técnicas
- Quick guide, start guide, manual

Los componentes o dispositivos con los que viene incluído el Kinect Sensor para ser usado con
Xbox 360 son:
Los pasos que se deben tener en cuenta al momento de hacer uso del kinect son los
siguientes:

PASO 1. UBICA EL SENSOR

Coloca el sensor en una superficie estable cerca de la línea central del televisor a una altura
entre 0.6m y 1.8m (2 ft.-6 ft.).

x No lo coloques en una posición desde donde pueda caerse


x No lo coloques sobre la consola, delante de un altavoz, encima del televisor* ni en una
superficie que vibre o haga ruido.
x No intentes inclinar o rotar el sensor de su base porque puede romperse. El sensor se
ajustará automáticamente mientras juegas.
✓ Consulta la sección Consejos útiles o el manual técnico para obtener ayuda adicional con
respecto a la ubicación del sensor.

PASO 2. CONECTA LA CONSOLA Y EL SENSOR


● Conecta el sensor en el puerto con forma especial que está en la parte posterior de la
consola. Conecta el cable de alimentación a la consola y a la toma de corriente.
● Conecta el cable compuesto a la consola y al televisor.

✓ Para disfrutar de video de alta definición, comprar el cable HDMI Xbox 360®, el cable de alta
definición por componentes Xbox 360 o el cable VGA Xbox 360 (se venden por separado).
✓ Consulta la sección Consejos útiles si tienes alguna dificultad con la alimentación o con el
audio o el video. O visita el sitio web xbox.com/support.

PASO 3. DESPEJA TU ESPACIO DE JUEGO


Antes de cada uso, asegúrate de que el sensor tenga un espacio libre de obstáculos para
funcionar.
Despeja completamente la ruta que te separa del sensor.Espacio de juego recomendado:
• Un jugador: aproximadamente 1.8m (6 pies) de distancia del sensor.
• Dos jugadores: aproximadamente 2.5m (8 pies) de distancia del sensor

✓ El espacio necesario variará en función de la ubicación del sensor y del juego.


✓ Visita el sitio web xbox.com/support para obtener ayuda en la preparación del espacio de
juego
PASO 4. INSERTA EL JUEGO Y LEVÁNTATE A JUGAR
● Asegúrate de insertar el disco del juego que viene con la consola.
● Párate frente al sensor (sólo una persona).
● Las instrucciones en pantalla te guiarán paso a paso por el proceso de configuración, y te
dejarán listo para comenzar a jugar.

x Si mueves la consola mientras el disco está girando, corres el riesgo de rayarlo.


✓ Mueve la consola sólo cuando esté apagada

- Configuración paso a paso del dispositivo (fotografías)

- Inspección de extensibilidad (IDE, SDK, Plugins)

● The Kinect for Windows Software Development Kit (SDK)

Permite a los desarrolladores crear aplicaciones que soportan reconocimiento de voz y


gestos.

Versión 1.8.0.595

Fecha de publicación 23/01/2021

Nombre de archivo KinectSDK-v1.8-Setup.exe

Tamaño de archivo 222.4 MB

Incluye - Controladores para uso de Kinect en Windows 7, Windows 8,


Windows 8.1 y Windows Embedded Standard 7
- Interfaces de dispositivos

URL https://www.microsoft.com/en-us/download/details.aspx?
id=40278

OBS Kinect Plugin

Es un plugin que permite acceder a transmisiones de Kinect v1 (para Xbox 360 o para
Windows) y Kinect v2 (para Xbox One) y configurar un efecto de “pantalla verde virtual”
basado en datos de profundidad/cuerpo.

Sistema Operativo compatible Windows

Modelos que lo soportan - Kinect for 360 - original Kinect (v1)


- Kinect for Windows - same as Kinect for 360
but with support for camera controls and a
"near mode" (v1+)
- Kinect for Xbox One and Kinect 2 for Windows
(v2)
- Azure Kinect (v3)

URL https://github.com/SirLynix/obs-kinect

- Demo de uso (fotografías y/o vídeos)

- Análisis de utilidad y limitaciones (potencial de uso para suplir funciones de


interacción)
- Inspección de proyectos que han empleado el dispositivo y cómo lo han hecho
(tabla con por lo menos 3 título, descripción, URL)

Título Descripción URL

Obstacle detection En este artículo se presenta un enfoque para la https://


in a greenhouse detección de obstáculos en un entorno de invernadero www.sciencedirect.com
environment using utilizando el sensor Kinect 3D, que proporciona /science/article/abs/
the Kinect sensor información sincronizada de color y profundidad. pii/
S0168169915000435
Primero, los datos de profundidad se procesan
aplicando el cálculo de la pendiente. Esto crea un mapa
de obstáculos que etiqueta los píxeles que superan una
pendiente predefinida como obstáculos sospechosos y
otros como superficie. Luego, el sistema utiliza
funciones de color y textura para clasificar los píxeles
de obstáculos sospechosos.

La decisión de detección de obstáculos se toma


utilizando información sobre la pendiente del píxel, su
intensidad y los píxeles vecinos circundantes. La
detección de obstáculos del sensor y el algoritmo
propuestos se demuestra en los datos registrados por
Kinect en un invernadero.

Se demuestra que el sistema produce resultados


satisfactorios (se detectaron todos los obstáculos con
solo unas pocas detecciones de falsos positivos) y es lo
suficientemente rápido como para ejecutarse en una
computadora limitada.

Application of El artículo propone un "casco de protección de la https://ascelibrary.org/


Microsoft Kinect construcción" correctamente codificado por colores doi/abs/
Sensor for como un objeto de seguimiento clave que se puede 10.1061/97807844123
Tracking utilizar para diferenciar al personal del sitio (trabajador, 29.087
Construction supervisor, ingeniero, etc.).
Workers
El método propuesto detecta a los trabajadores de la
construcción en tres etapas principales que incluyen
reconocimiento humano, reconocimiento de cascos y
localización 3D. El reconocimiento humano se realiza
mediante el análisis de partes del cuerpo humano. Las
posiciones 3D de las articulaciones del cuerpo son
precisas a partir de una sola imagen de profundidad.

La detección del casco de construcción se basa en las


características del casco, como la forma y el color
únicos.

Metrology and El artículo propone un sistema de detección de https://


visualization of deterioro y desgaste del pavimento haciendo uso del ieeexplore.ieee.org/
potholes using the sensor de Microsoft Kinect. abstract/document/
microsoft kinect 6728408
sensor Debido a la degradación se forman baches y diferentes
tipos de grietas que deben ser detectadas y reparadas
oportunamente. Estimar la cantidad de material de
relleno que se necesita para tapar un bache es de gran
interés para evitar cualquier escasez o exceso, y por lo
tanto desperdicio de material de relleno que
generalmente debe transportarse desde una ubicación
diferente.
Las propiedades metrológicas y de visualización de un
bache juegan un papel importante a este respecto.
Usando un sensor Kinect de bajo costo, las imágenes
de profundidad del pavimento se recopilan de caminos
de concreto y asfalto. Se generan mallas para una
mejor visualización de los baches.

El área del bache se analiza con respecto a la


profundidad. El volumen aproximado del bache se
calcula utilizando la regla trapezoidal en las curvas de
profundidad de área a través del análisis de imágenes
del pavimento. Además, se estima el área, el largo y el
ancho del bache. El artículo también propone una
metodología para caracterizar los baches.

Robust hand El proyecto presenta un sistema de reconocimiento de https://dl.acm.org/doi/


gesture recognition gestos con la mano con ayuda del sensor Kinect, que abs/
with kinect sensor funciona de manera sólida en entornos no controlados 10.1145/2072298.2072
y es insensible a las variaciones y distorsiones de la 443
mano. El sistema consta de dos módulos principales, a
saber, detección de manos y reconocimiento de gestos.

A diferencia de los métodos de reconocimiento de


gestos manuales basados en la visión tradicional que
utilizan marcadores de color para la detección de
manos, este sistema utiliza la información de
profundidad y color del sensor Kinect para detectar la
forma de la mano, lo que garantiza la robustez en
entornos abarrotados.

Además, para garantizar su robustez a las variaciones


de entrada o las distorsiones causadas por la baja
resolución del sensor Kinect, se aplica una novedosa
métrica de distancia de forma llamada Finger-Earth
Mover's Distance (FEMD) para el reconocimiento de
gestos con las manos.
-Análisis de su potencial uso para IoT (Descripción y ejemplo de estudio de caso)

En un principio el Kinect se usaba específicamente para entornos de videojuegos

EMOTIV INSIGHT / EMOTIV COTIDIANO


nombre:Emotiv EPOC+ EEG
referencia: EPOC+ EGG

descripción : El EMOTIV EPOC+ es un sistema EEG portátil de alta resolución y 14 canales.


Fue diseñado para ser rápido y fácil de instalar y tomar medidas en aplicaciones prácticas de
investigación. Es compatible con todos los productos de software EMOTIV.
Los productos EMOTIV están destinados a ser utilizados únicamente para aplicaciones de
investigación y uso personal. Nuestros productos no se venden como dispositivos médicos
según se define en la directiva de la UE 93/42/EEC. Nuestros productos no están diseñados ni
destinados a ser utilizados para el diagnóstico o tratamiento de enfermedades.
quick start:
1. cargar el dispositivo
a. Configure su diadema en la posición "apagado" antes de cargar. Los auriculares
tardan aproximadamente 4 horas en cargarse por completo. El auricular no debe
cargarse en la cabeza.

2. hidratar los sensores


a. Hidrate siempre los sensores en el paquete de hidratación proporcionado. Las
almohadillas deben estar completamente saturadas con solución salina para
lograr un buen contacto. Mantenga seca la almohadilla hidratante blanca grande
en la cubierta superior del paquete hidratante. Esto ayudará a secar las
almohadillas cuando no estén en uso y reducirá la oxidación.

3. Instalar los sensores


a. Retire las unidades de sensor con sus almohadillas del paquete de hidratación e
inserte cada una en los brazos de plástico negros de los auriculares, girándolas
suavemente un cuarto de vuelta en el sentido de las agujas del reloj hasta que
sienta un "clic". Tenga cuidado de no forzar los sensores en su lugar. Las
unidades de sensor deben guardarse en el paquete de hidratación cuando no se
utilicen.
4. ajustando la diadema
a. Usando ambas manos, deslice la diadema hacia abajo desde la parte superior
de su cabeza. ADVERTENCIA: NO ESTIRAR PARA ABRIR LA DIADEMA. Debe
deslizarse sobre la cabeza. Los sensores de referencia tienen una cubierta de
goma negra. Coloque estos sensores en el hueso justo detrás de cada lóbulo de
la oreja. La colocación correcta de los sensores de referencia es fundamental
para el correcto funcionamiento. Los dos sensores frontales deben estar
aproximadamente en la línea del cabello o alrededor del ancho de 3 dedos por
encima de las cejas. Empareje su EPOC/EPOC+ a través de Bluetooth o USB.
Presione y sostenga los 2 sensores de referencia (ubicados justo encima y
detrás de las orejas) durante unos 20 segundos

Inspección de extensibilidad
Cortex es un wrapper de nuestro kit de desarrollo de software (SDK) y alberga todas las
herramientas necesarias para desarrollar con EMOTIV. Proporciona acceso API a diferentes
flujos de datos EMOTIV, distribuidos en tres niveles de licencia. Únase a nuestra comunidad
mundial de desarrolladores y comience a crear su propia aplicación ahora.
la conexion con cortex api se hace a traves de json y websockers

Título Descripción URL

On the Use of the EMOTIV Este documento explora la viabilidad https://


Cortex API to Control a de utilizar el servicio de interfaz de ieeexplore.ieee.org/
Robotic Arm Using Raw EEG programación de aplicaciones (API) de abstract/
Signals Acquired from the Emotiv Cortex para obtener señales de document/8987541
EMOTIV Insight sensor sin procesar del Emotiv Insight
NeuroHeadset NeuroHeadset para el control de un
brazo robótico. Se desarrolló un
software de adquisición de datos
basado en Python para utilizar el
servicio a través de transmisión de
datos en un Websocket. Las señales
del sensor de movimiento y EEG sin
procesar de los auriculares se
procesaron para la detección de
eventos. Luego, los eventos detectados
se usaron para activar señales de
control en un brazo robótico controlado
por una Raspberry Pi 3 usando el
protocolo IoT MQTT. Los resultados
obtenidos indican que el enfoque
propuesto y los algoritmos
desarrollados se tradujeron
adecuadamente en comandos válidos
para el desarrollo efectivo de una
interfaz de computadora principal que
permite la interacción completa con un
brazo robótico.

On the use of the Emotiv Este documento describe el uso de https://


EPOC neuroheadset as a low Emotiv EPOC como un método de ieeexplore.ieee.org/
cost alternative for EEG costo relativamente bajo para adquirir abstract/
signal acquisition señales de EEG sin procesar y document/7516380
propone un sistema de interpretación
automático basado en el análisis de
señales de EEG sin procesar para la
interfaz hombre-máquina como una
posible ayuda para personas con
discapacidades. Para demostrar la
viabilidad de utilizar las señales brutas
de EEG adquiridas mediante el sistema
Emotiv, se implementó como ejemplo
un algoritmo de clasificación de
eyewinks basado en redes neuronales
artificiales (ANN). Se ha encontrado
que el algoritmo propuesto es efectivo
para detectar y clasificar guiños
oculares que luego se pueden traducir
a comandos válidos para la interfaz
hombre-máquina. El rendimiento del
enfoque propuesto se estudió
utilizando dos tipos de topologías ANN.
Los resultados obtenidos indicaron un
alto índice de precisión de clasificación,
por lo tanto, sugiriendo que el Emotiv
EPOC puede ser utilizado como una
herramienta válida para la
investigación.
EEG control of an electric Este artículo presenta una descripción https://
wheelchair for disabled de un método de control inteligente ieeexplore.ieee.org/
persons para controlar una silla de ruedas abstract/
eléctrica para varias personas document/6729275
discapacitadas. También describe un
enfoque no invasivo basado en la señal
cerebral de EEG que puede controlar la
silla de ruedas con datos cognitivos,
movimientos oculares y gestos con la
cabeza. Nuestro objetivo técnico es
cubrir el mayor número de personas
con discapacidad.

MYO Gesture Control Armband

Referencia: MYOD05
Versión: 0.14.0

Descripción:

El brazalete Myo es un controlador de gestos que activa una variedad de acciones en


la computadora según las contracciones de sus músculos y los movimientos de su
brazo. Está diseñado para una variedad de aplicaciones, como controlar una
presentación de diapositivas, controlar la reproducción de vídeo mientras está AFK,
jugar y más. Desarrollado por Thalmic Lab’s

Peso 93 gramos

Grosor 0.45 pulgadas

Sensores EMG Sensor, 3 axis Giroscopio, 3 axis


Acelerómetro, 3 axis Magnetómetro

LEDs Dual Indicator LEDs


Procesador ARM Cortex M4

Conectividad Bluetooth Smart

Batería 2 Baterías de ion litio


Dentro de la caja:

Funcionalidades

● Jugar: Vuela tu Drone (Parrot Drone) o conduce tu Sphero(bola robótica) para


llevar tu experiencia a otro nivel
● Conectar: Aléjate de la computadora y controla tu mundo digital con gestos:
navegar por la web, reproducir videos, cambiar entre aplicaciones y más.
● Presentar: Sorprende a tu audiencia con características exclusivas de
presentación: controlar un puntero digital y hacer zoom en tus diapositivas, sin
contacto

Compatibilidad:
● Windows
● Mac
● iOS
● Android
Gestos:

Quick guide, start guide, manual:

● PARTE 1: CONFIGURACIÓN DEL BRAZALETE MYO

Primero, revisemos los artículos que ha recibido:

● Brazalete de control de gestos Myo


● Cable micro USB estándar
● Adaptador Bluetooth USB
● Clips de tamaño Myo

El cable micro-USB se usa para cargar su brazalete Myo y actualizar su


firmware. también necesitarás para encender su Myo si lo ha apagado.
El adaptador Bluetooth USB debe conectarse a su computadora Mac o
Windows.
Si encuentra que su brazalete Myo no se ajusta perfectamente a su antebrazo,
los clips de tamaño Myo le permitirán ajustar Myo para un ajuste seguro y
cómodo en su antebrazo. Fije los clips de tamaño a la goma flexionar entre las
vainas.

● PARTE 2: CONEXIÓN MYO

Myo Connect le permite conectar su brazalete a su computadora para acceder a


las guías Myo, opciones de personalización, reconocimiento de gestos y más.
Descargue Myo Connect desde myo.com/start2 e instalarlo en su computadora.
En el primer lanzamiento de Myo Connect, la Guía de inicio debería abrirse
automáticamente. Puede acceder a la Guía de inicio en cualquier momento en
Guías a través del menú Myo Connect. Esta guía le mostrará cómo usar el
brazalete Myo correctamente y cómo funciona, además de guiarlo a través de la
conexión y la sincronización.
La Guía de inicio presentará los cinco gestos básicos que Myo reconoce: Doble
toque,
Puño, Separación de dedos, Saludar a la derecha y Saludar a la izquierda.
Una vez que llegue al final de la guía, estará listo para utiliza el brazalete Myo

● PARTE 3: MYO MARKET

Myo Market es el lugar para descubrir nuevas aplicaciones y conectores.Puede


acceder a Myo Market en market.myo.com o desde el acceso directo en el menú
Myo Connect. Esto abrirá una pestaña del navegador en Myo Market con
páginas de aplicaciones destacadas, hay más de 100 conectores Myo y
aplicaciones para elegir, y cada uno se agregará automáticamente a su
administrador de aplicaciones si elige descargarlo.

SDK:
https://github.com/balandinodidonato/MyoToolkit/blob/master/Software%20for
%20Thalmic's%20Myo%20armband.md

Aprovechamiento:
● Presentaciones: El brazalete de MYO permite interactuar con presentaciones,
mediante el uso de gestos se puede: ir hacía adelante, atrás, hacer zoom, etc.
● Juegos con enlace de radio frecuencia: Con MYO armband puedes conectar
tu drone y tu bola robótica y controlarlos con movimientos de tu mano, arriba
abajo, izquierda, derecha, flip.
● Uso médico: Se adelantan integraciones con prótesis de brazo, en donde la
prótesis se mueve y reacciona acorde a los movimientos captados y emitidos por
el brazalete, esto ayudando a que la prótesis cobre la movilidad lo más acertada
a un brazo natural biológico
● Myo Mouse and Keyboard: Permite controlar el computador desde la distancia.
Apunta, dá clic y escribe usando Myo
● Keyboard Mapper: Con Keyboard Mapper, es fácil crear un conector para tu
aplicación favorita. Simplemente asigne gestos a las pulsaciones del teclado y
los clics del mouse y estará controlando una nueva aplicación con el brazalete
Myo en segundos.
● VideoJuegos: Juega Counter Strike, Ninja fruit, también lleva tu experiencia al
máximo con Myo armband e interactúa con tu mascota virtual

Potencial para suplir funciones de interacción:

● Movilidad de objetos: Con el fin de mejorar la experiencia de un supermercado,


mediante Myo se puede llevar a cabo el movimiento de los carritos de compras
debido al peso que pueden llegar a tener.
● Movilidad personal: Para todas aquellas personas con limitaciones de
movilidad y que están en silla de ruedas, mediante Myo se puede facilitar esta
tarea o necesidad de movilidad.

NEUROSKY

- Nombre: Neurosky Brainwave Starter Kit


- Referencia: MW003
- Versión:
- Descripción
- ¿Para qué sirve?
Este dispositivo de interfaz cerebro-computadora (BCI) convierte las ondas cerebrales
en acciones, desbloqueando nuevos mundos de interactividad. MindWave Mobile
informa el estado mental del usuario en forma de algoritmos eSense ™ de atención y
meditación patentados por NeuroSky, junto con ondas sin procesar e información
sobre las bandas de frecuencia de ondas cerebrales. Se puede utilizar con
videojuegos compatibles, software de investigación o una serie de otras aplicaciones
para mejorar la experiencia del usuario.

- Empresa desarrolladora: NeuroSky, Inc.


- Características técnicas:

- Quick guide, start guide, manual

Revisar este enlace :D


http://download.neurosky.com/public/Products/MindWave%20Mobile%202/MindWave
%20Mobile%202%20Quick%20Start%20Guide.pdf

- Configuración paso a paso del dispositivo (fotografías)


- Inspección de extensibilidad (IDE, SDK, Plugins)
- Demo de uso (fotografías y/o videos)
- Análisis de utilidad y limitaciones (potecial de uso para suplir funciones de interacción)
- Inspección de proyectos que han empleado el dispositivo y cómo lo han hecho (tabla
con por lo menos 3 título, descripción, URL)
- Análisis de su potencial uso para IoT (Descripción y ejemplo de estudio de caso)

LEAP MOTION

- Nombre
leap motion
- Referencia
ultraleap motion controller

- Versión
- Descripción
El Leap Motion Controller de Ultraleap es un módulo óptico de seguimiento de manos que
captura el movimiento de las manos y los dedos de los usuarios para que puedan interactuar
de forma natural con el contenido digital. Pequeño, rápido y preciso, el Leap Motion Controller
se puede usar para aplicaciones de productividad con computadoras Windows, integrado en
soluciones o pantallas de hardware de nivel empresarial, o conectado a auriculares de realidad
virtual/aumentada para creación de prototipos AR/VR/XR, investigación y desarrollo. El
controlador es capaz de rastrear manos dentro de una zona interactiva 3D que se extiende
hasta 60 cm (24”) o más, extendiéndose desde el dispositivo en un campo de visión típico de
140x120°. El software de Leap Motion es capaz de discernir 27 elementos distintos de la mano,
incluidos huesos y articulaciones, y rastrearlos incluso cuando están ocultos por otras partes de
la mano.

- Quick guide, start guide, manual


1. Remover el sticker :
a. remover el sticker que se encuentra en la parte superior del Leap Motion
Controller
2. Conectarlo al computador :
a. Usar el cable USB que viene incluido en la caja , centrar el dispositivo en frente
del teclado del computador ,El lado brillante del controlador mira hacia arriba y la
luz verde mira hacia ti. Ubíquese de manera que sea cómodo de usar. esto se
puede encontrar en el panel de control de leap motion

3. Ejecutar el visualizador de Leap Motion


a. ejecutar el visualizador de leap motion para verificar que el dispoisitvo esta
funcionado adecuadamente . esto se puede encontrar en el panel de control de
leap motion
- Configuración paso a paso del dispositivo (fotografías)
- Inspección de extensibilidad (IDE, SDK, Plugins)
- Demo de uso (fotografías y/o videos)
- Análisis de utilidad y limitaciones (potecial de uso para suplir funciones de interacción)
- Inspección de proyectos que han empleado el dispositivo y cómo lo han hecho (tabla
con por lo menos 3 título, descripción, URL)
- Análisis de su potencial uso para IoT (Descripción y ejemplo de estudio de caso)

Título Descripción URL

Intuitive and Adaptive Robotic En este artículo se propone la https://


Arm Manipulation using the implementación de un novedoso ieeexplore.ieee.or
Leap Motion Controller esquema de manipulación intuitivo y g/abstract/
adaptativo, mediante el desarrollo de document/
una interfaz de comunicación hombre- 6840112
máquina entre el controlador Leap
Motion y el brazo robótico 6-DOF Jaco.
Se desarrolla un algoritmo para permitir
un mapeo óptimo entre el movimiento
de la mano del usuario, rastreado por el
controlador Leap Motion, y el brazo
Jaco. El sistema debe permitir una
interacción humano-computadora más
natural y una manipulación suave del
brazo robótico, adaptándose
constantemente al temblor o sacudida
de la mano del usuario. La
implementación mejoraría
especialmente la calidad de vida,
especialmente para las personas con
problemas en las extremidades
superiores, y les ayudaría a realizar
algunas de las actividades esenciales
de la vida diaria "AVD". Las aplicaciones
de esta interacción humano-robot se
discutirán en relación con Ambient
Assisted Living, donde se presentarán
algunos escenarios de casos de uso.

Free-hand interaction with En los últimos años, el campo de la https://


leap motion controller for interacción humano-computadora (HCI) dl.acm.org/doi/
stroke rehabilitation ha avanzado con muchas tecnologías, abs/
sin embargo, la mayoría está limitada a 10.1145/2559206.
usuarios sanos. En este documento, 2581203
aprovechamos la tecnología de
interacción manual para rehabilitar a
pacientes con accidente
cerebrovascular. Modificamos el juego
de Fruit Ninja para usar los datos de
seguimiento de la mano del controlador
Leap Motion para pacientes con
accidente cerebrovascular con debilidad
en el brazo y la mano para practicar la
individuación de sus dedos. En un
estudio piloto, reclutamos a 14
pacientes con accidente
cerebrovascular crónico para jugar el
juego usando la interacción natural. Sus
puntajes de Fruit Ninja (FN) muestran
una alta correlación con los puntajes de
evaluación clínica estándar, como los
puntajes de Fugl-Meyer (FMA) y Box-
and-Blocks Test (BBT). Este hallazgo
sugiere que nuestra puntuación de Fruit
Ninja a mano alzada es un buen
indicador de la función de la mano del
paciente y, por lo tanto, será informativo
si se utiliza en su rehabilitación.
Objective and automatic El objetivo principal de este trabajo es https://biomedical-
classification of Parkinson desarrollar y probar la capacidad del engineering-
disease with Leap Motion controlador Leap Motion (LMC) para online.biomedcent
controller evaluar la disfunción motora en ral.com/articles/
pacientes con enfermedad de Parkinson 10.1186/s12938-
(PcPD) en base a los ejercicios MDS- 018-0600-7
UPDRSIII. Se utilizaron cuatro ejercicios
(golpeteo con el dedo pulgar,
apertura/cierre de la mano,
pronación/supinación, temblor postural)
para evaluar las características
descritas en MDS-UPDRSIII. Las
calificaciones clínicas de acuerdo con
los ítems de la sección III de
MDS/UPDRS se utilizaron como
objetivo. Para ello, se reclutaron 16
participantes con EP y 12 personas
sanas en el Ospedale Cisanello, Pisa,
Italia. Los participantes realizaron
movimientos de manos estandarizados
con marcador basado en cámara. Las
características de dominio de tiempo y
frecuencia relacionadas con la
velocidad, el ángulo, la amplitud y la
frecuencia se derivaron de los datos de
LMC.

OPCIONALES

Brain Link
Sphero
Teclado láser
Mind flex duel

ANÁLISIS
CONCLUSIONES
ANEXOS
FUENTES DE INFORMACIÓN

Kinect
https://www.vidaextra.com/hardware/kinect#:~:text=Kinect%20es%20un%20dispositivo
%20creado,%C3%97%20480%20p%C3%ADxeles%20a%2030FPS.

https://www.elotrolado.net/wiki/Kinect#Accesorios_para_Kinect

https://www.manuales.com.co/microsoft/xbox-360-kinect-sensor/manual

https://www.microsoft.com/en-us/download/details.aspx?id=40278

https://manuals.plus/es/neurosky/neurosky-mindwave-mobile-user-
guide#introduction_to_the_mindwave_mobile
https://www.emotiv.com/knowledge-base/
https://emotiv.gitbook.io/cortex-api/connecting-to-the-cortex-api
https://emotiv.gitbook.io/epoc-user-manual/introduction-1/technical_specifications
https://www.emotiv.com/get-started/
https://www.emotiv.com/emotiv-launcher/

También podría gustarte