Está en la página 1de 12

UNIVERSIDAD DE LOS LLANOS

FACULTAD DE CIENCIAS BASICAS E INGENIERIA


ESCUELA DE INGENIERÍA

ESTADO DEL ARTE DE RECONOCIMIENTO DE GESTOS DACTILOLÓGICOS

Presentando por:

MILTON STIVEN REY FERNANDEZ


JOHAN SEBASTIAN MOLINA PIÑEROS

Asesor:

Ing. Obeth Romero


Resumen de VISIÓN ARTIFICIAL APLICADA PARA EL RECONOCIMIENTO.
DEL LENGUAJE DE SEÑAS por Luis Sivisapa Aguilera 1., Henry Paz Arias2.

En el presente artículo, se realiza el estudio de la Visión Artificial, con el objetivo de realizar el


reconocimiento del lenguaje de señas en un nivel básico y en tiempo real, dicho proyecto está
encaminado a resolver ciertos problemas que se presentan en la enseñanza aprendizaje de los
docentes así como de los alumnos, el problema más evidente en este contexto es la gran cantidad
de tiempo que se demora el docente en indicar y corregir las posiciones de las manos a cada uno de
los estudiantes, la implementación del sistema se lo realizó con el empleo de la metodología RAD
junto a sus cuatro fases, la planificación de requerimientos, el diseño de usuario, la construcción
rápida y la fase de transición, a más de ello se hizo uso de la librería OpenCV y el IDE de
desarrollo QTCreator, para realizar el seguimiento de la mano del usuario se realizó un algoritmo
que permite el seguimiento de un objeto a través del color, para la clasificación de las señas
realizadas por el usuario se combinaron de forma secuencial dos de los algoritmos que con mayor
frecuencia son empleados en la construcción de estos sistemas, el algoritmo SVM y el KNN, con el
objetivo de reducir el porcentaje de error durante las predicciones, finalmente este proyecto estará
implementado e implantado en la asociación de sordos de Loja «Virgen del Cisne», ya que esta
institución ha brindado las facilidades para el desarrollo del mismo.

Resumen de TRADUCTOR DE LENGUAJE DE SEÑAS PORTATIL POR MEDIO DE.

RECONOCIMIENTO DE IMÁGENES. por Juan Fernando Guerrero Citelly.

El número de personas sordas colombianas que utiliza la L.S.C. es desconocido, pero se sabe con
certeza que es un número creciente. Además, los medios de comunicación masivos colombianos no
cuentan con un sistema propio de traducción de señas, por lo que la comunidad sorda está limitada
a entretenerse por otros medios o a observar limitados programas que cuenten con la traducción de
señas. El mismo fenómeno puede ser observado al momento de querer comunicarse con una
persona parlante, las instituciones educativas colombianas no enseñan ningún tipo de lenguaje de
señas. En el mundo se estima un total de 360 millones de personas con discapacidad auditiva, 328
millones de adultos y 32 millones de niños, equivalente a más del 5% de la población. Por lo
anterior, se ve la necesidad de disminuir la brecha de comunicación entre las personas, no solo
colombianas sino del mundo con discapacidad auditiva, y el resto de la población mundial
mediante un traductor de señas colombianas a español. Actualmente se cuenta con un traductor
señas colombianas virtual el cual busca incluir socialmente a la persona sorda, sin embargo, es un
sistema que requiere una conexión constante a internet y por ende supone una gran restricción para
su uso continuo. Adicionalmente solo presenta el alfabeto de señas colombiano de tal forma que su
uso poblacional es muy restringido. Dada la situación actual, surge la necesidad de crear un
traductor de lenguaje de señas y optimizarlo de tal forma que la persona no requiera conexión a
internet y sea de uso práctico, es decir, que se pueda utilizar todos los días con facilidad.

Resumen de Traducción del lenguaje de señas usando visión por computadora por Eduardo
Mancilla Morales, Oswaldo Vazquez Aparicio, Pedro Arguijo, Roberto Angel Melendez
Armenta, Antonio Hiram Vazquez Lopez.

Se realiza el ańalisis del desempeño de redes neuronales multicapa y SVM como clasificador para
el reconocimiento de señas del LSM considerando tres conjuntos de caracter ́ısticas: Momentos de
Hu, Momentos de Zernike e Histogramas de orientación del gradiente (HOG). Se creo un dataset
de 21 señas y se le aplicó un pre procesamiento a las imágenes antes de extraer el conjunto de
características, las técnicas aplicadas son: reducción de ruido, escalamiento de la imagen y
eliminacion del fondo de la imagen. As ́ı mismo, se analizó el efecto de la reducción de
dimensionalidad del conjunto de características con los algoritmos PCA y LDA. Los resultados
indican que los momentos de Zernike junto con LDA ofrece la mejor exactitud en los resultados.

Resumen de DESARROLLO DE UN SISTEMA AUTOMÁTICO DE RECONOCIMIENTO


DE LENGUAJE DE SIGNOS por AITOR ALCÁZAR FERNÁNDEZ.

Actualmente, las personas con discapacidades auditivas y del habla recurren al lenguaje de signos
para comunicarse entre sí, pero es una actividad que únicamente se puede realizar de forma
presencial y entre personas que conozcan dicha lengua. Para poder establecer la comunicación con
el resto de las personas, es necesario recurrir a un intermediario o traductor, que haga las veces de
emisor y receptor entre ambos. Esto resulta poco práctico y, en la mayoría de las ocasiones,
costoso. Se pretende con este proyecto desarrollar un sistema capaz de traducir en tiempo real la
detección de signos aislados de la lengua de signos americana . El software consiste en una
inteligencia artificial entrenada para monitorizar los movimientos de las manos de la persona
situada frente a la cámara de un terminal móvil, y mostrar por pantalla el signo traducido en ese
momento sobre la imagen captada. Para ello, se han seguido dos líneas de investigación: con la
primera, se ha desarrollado un traductor del alfabeto de la ASL recogiendo imágenes desde una
cámara IP en un terminal móvil, procesando los datos y mostrando los resultados en el ordenador.
La segunda línea de investigación ha sido más ambiciosa, pues se ha conseguido traducir cuatro
signos dinámicos aislados, y desplegar el sistema creado en un terminal móvil Android, el cual
ejecuta una aplicación autónoma de traducción de estos signos en tiempo real.

Cultural, educando a las personas que carecen de los conocimientos necesarios para comunicarse
con ellos; y económico, pues supone abaratar los costes relacionados con traductores personales y
cursos formativos.

Resumen Desarrollo de algoritmos para Traductor automático de Lenguaje de señas


Mexicanas (LSM) por Josué ESPEJEL CABRERA.

En años recientes, el desarrollo de algoritmos que asistan en la comunicación con gente sorda es un
reto importante. El desarrollo de sistemas automatizados para traducir el lenguaje de señas es un
tema de investigación vigente. Sin embargo, esto involucra varios procesos que van desde la
captura del video, pre-procesamiento hasta la identificación y clasificación de las señas. El
desarrollo de sistemas capaces de extraer características discriminativas para acentuar la capacidad
de generalización de un clasificador es aun un problema muy complejo. El significado de una seña
es a combinación del movimiento de la mano, forma de la mano y el punto de contacto de la mano
con el cuerpo. Este trabajo presenta un método para detectar y traducir señas de las manos.
Primero, se obtienen 15 cuadros por palabra, obteniendo 3 regiones de interés de las cuales se
obtienen características geométricas. Finalmente, se emplean diferentes clasificadores y se
muestran los resultados experimentales.

Resumen de “Aplicación de DSP ́s para la Transcripción de Lenguaje de Señas a Texto” por


Amanda Elizabeth Naranjo Villacis.

En el Ecuador existen gran cantidad de personas con deficiencias auditivas, por lo cual el proyecto
fue desarrollado para las personas sordomudas que de alguna manera se sienten excluidas de la
sociedad y mediante la ayuda del software puedan comunicarse no solo con sus familiares, sino
también con el resto de personas que desconocen el lenguaje dactilológico.

Para ayudar a mejorar el nivel de vida de las personas sordomudas se diseñó un sistema.

Traductor de lenguaje de señas a texto, que se enfoca principalmente en traducir la señas y


números que realizan la personas con deficiencias auditivas y transformarlas a texto para que
aquellas personas que desconocen este lenguaje puedan comunicarse. El proyecto también ofrece
un entrenador, el cual cuenta con el abecedario y los números para que aquellas personas que
desconocen el lenguaje de señas puedan realizar un aprendizaje adecuado. Basado en el
procesamiento digital de imágenes en visión artificial, se reconoce el alfabeto dactilológico
ingresado para luego transformarlo a texto, considerando que no existe error en el programa debido
a que reconoce cada una de las señas realizadas. Los resultados tienen significado social debido a
que el proyecto se desarrolló pensando en las personas con deficiencias auditivas, para que de
alguna manera puedan comunicarse con la sociedad en cualquier momento y en cualquier lugar, un
ejemplo básico de implementación seria en bancos los cuales aún no cuentan con la tecnología
capaz para comunicarse con personas sordomudas sin tener que depender de externos.

Resumen de Reconocimiento de Gestos Numéricos de la Mano Usando Matlab por M. S Rey


Fernandez N Vanegas Rodriguez J. C Torres Santamaria.

El lenguaje de señas es un método decomunicación que utilizan las personas con discapacidades
auditivas en el cual utilizan por medios de gestos con las manos para describir lo que tienen en
mente , por lo general a las personas les resulta muy difícil entenderles a los discapacitados. Es por
ello que en este artículo se describen cada uno de los pasos que se deben tener en cuenta a la hora
de realizar dicha conversión, cabe resaltar que se utilizaron herramientas tecnológicas, para la toma
de video en tiempo real se usa un smartphone, el software desarrollado está hecho sobre entorno de
programación Matlab.

Resumen de SISTEMA DE RECONOCIMIENTO DEL ALFABETO DACTILOLÓGICO


COLOMBIANO COMPLETO POR MEDIO DE VISIÓN ARTIFICIAL por Ingrid Julieth
Márquez Moreno Alfonso Sánchez Perdomo.

Actualmente los diferentes campos de desarrollo tecnológico son sumamente importantes para el
desarrollo de la humanidad. Uno de estos campos, es aquel que se enfoca en las herramientas que
permiten la comunicación entre las personas, como lo son los traductores, estos permiten
interpretar diferentes tipos de lenguajes en tiempo real, uno de los puntos clave dentro de la
interpretación de diferentes lenguajes es que te permite la comunicación entre personas de diferente
habla. Sin embargo, hay que tener en cuenta que uno de los lenguajes más complicados de traducir
es el de señas, puesto que este tipo de lenguaje requiere no sólo la interpretación gramatical, sino
que también cuenta con un componente visual muy fuerte que dificulta los procesos de traducción
del mismo. El alfabeto es un sistema ordenado de signos gráficos que se emplea en la escritura de
algunas lenguas, este también se puede emplear para formar un sistema de comunicación. Se puede
encontrar varios tipos de alfabeto, alfabeto Braille, alfabeto fonético, alfabeto griego, alfabeto
dactilológico entre otros. Este último hace referencia al sistema de signos que emplean las personas
con falta de habla o discapacidad auditiva. El sistema de signos dactilológicos no es universal, cada
país tiene sus propios sistemas de signos. Este proyecto muestra el desarrollo de un sistema de
reconocimiento del alfabeto dactilológico colombiano completo utilizando la visión artificial como
medio principal. Dicho esto, el documento presente se explica el procedimiento realizado para
obtener el sistema mencionado, mediante 8 secciones. En la sección uno se encontrara la
introducción en la cual se explica la finalidad del documento, en la sección dos el planteamiento
del problema, donde determina la necesidad del desarrollo de un sistema de reconocimiento del
alfabeto dactilológico colombiano completo, en la sección tres se encontrará la justificación que
demuestra por qué se realizó este sistema y cómo podrá servir como insumo para futuros
proyectos, en la sección cuatro se podrá observar los objetivos, los cuales determinan las diversas
propuestas en las cuales se fundamentó este proyecto. Encontrándose en la sección cinco se podrá
analizar el marco de referencia dará información acerca de los desarrollos parecidos a este sistema
que aunque hayan sido varios estos no poseen por completo el alfabeto dactilológico colombiano,
insumos utilizados para la realización del sistema y que leyes rigen sobre dicho sistema, La
metodología, en la cual se presenta como se llevó a cabo el desarrollo del sistema, haciendo énfasis
en las herramientas utilizadas, se visualizará en la sección seis. En la sección siete se encuentran
los resultados, en los cuales se indicará el cómo funcionó y funciona el sistema de reconocimiento
del alfabeto dactilológico colombiano completo. En la última sección estarán las conclusiones y
recomendaciones, en el cual se dará a conocer los análisis de los resultados expuestos en la anterior
sección, indicando sus posibles mejoras y sugerencias al momento de utilizar el sistema
desarrollado.

Dicho esto, se podrá validar que por medio de la cámara de video del computador capturará la
señal indicada con la mano, por medio de una imagen, a esta imagen se le realiza su debido
acondicionamiento utilizando la librería de OpenCv y utilizando la librería Media Pipe se obtendrá
su significado en la pantalla de manera visual.

Resumen de RECONOCIMIENTO DE VOCALES DEL LENGUAJE DE SEÑAS


MEDIANTE PROCESAMIENTO DE IMÁGENES por Sergio Armando Domínguez Rojero
Roberto Ramírez Ávila.

La discapacidad auditiva es un problema presente en la vida diaria de muchos seres humanos,


siendo un limitante para sus actividades, se tiene como objetivo presentar información de como se
produce, cuales son las consecuencias., además de conocer acerca del lenguaje de señas mexicano,
cuales señas representan cada vocal para poder adentrarse y conocer acerca del lenguaje
dactilológico. Para el desarrollo de este trabajo se realizó una indagación sobre procesamiento
digital de imágenes, algoritmos de clasificación, además de conocer la plataforma de programación
grafica en la cual se desarrolló el proyecto. La presente tesis tiene como objetivo mostrar la
evaluación de diferentes algoritmos de procesamiento de imágenes (3), implementados en la
plataforma de programación grafica (LabVIEW), con el fin de procesar imágenes del lenguaje
dactilológico, en este caso se utilizaran solo las vocales del lenguaje de señas mexicano para
realizar pruebas pertinentes con algoritmos de clasificación para procesamiento de imágenes y
mostrar cual reconoce mejor las señas realizadas por el usuario, con la intención que este proyecto
en un futuro pueda ser aplicado para el apoyo en el aprendizaje del lenguaje de señas.

Resumen de DESARROLLO DE UN INTÉRPRETE BÁSICO DEL LENGUAJE DE SEÑAS


PARA DACTILOLOGÍA EMPLEANDO INTELIGENCIA ARTIFICIAL por PEDRO
EZEQUIEL RIVAS PEREA.

En nuestros días ha crecido aceleradamente el desarrollo de la inteligencia artificial. Existen


aplicaciones en el área de medicina, biometría, procesos de manufactura y controles de calidad.
Estas disciplinas se han visto aventajadas con la implementación de estos sistemas, que llevan a la
perfección estos métodos, ocasionando grandes saltos inimaginables en poco tiempo. El presente
estudio muestra una metodología para el desarrollo de un sistema intérprete de lenguaje de señas
básico empleando inteligencia artificial, utilizando diferentes algoritmos en MATLAB para el
procesamiento de imágenes y desarrollo de código para las capturas de imágenes y evaluación de
resultados en C#. Primeramente se realiza el análisis del algoritmo para el reconocimiento de
patrones. Se entrena una red neuronal capaz de reconocer imágenes de lenguaje de señas,
posteriormente se ejecuta el mismo análisis pero con imágenes obtenidas con el sensor Kinect y
finalmente, se integra el diseño del algoritmo de la red neuronal con el sensor Kinect para formar
un sistema de visión artificial. La consecuencia de aplicar los conocimientos sobre lenguaje de
señas, procesamiento de imágenes y visión artificial da como resultado un producto de alta calidad
con muy buenos resultados, alcanzando un 98% de mejor rendimiento en el reconocimiento de las
señas. Al aplicar los conocimientos adquiridos y estudiar las investigaciones elaboradas, se
demuestra que el sistema cumple con los requisitos para la interpretación de lenguaje de señas por
medio de sistemas de visión artificial en comparación con otros sistemas sin inteligencia.

Resumen de Reconocimiento de gestos dinámicos y su aplicación al lenguaje de señas por


Franco Ronchetti.

El reconocimiento automático de gestos humanos es un problema multidisciplinar complejo y no


resuelto aún de forma completa. Desde la aparición de tecnologías de captura de video digital
existen intentos de reconocer gestos dinámicos con diferentes fines. La incorporación de nuevas
tecnologías como sensores de profundidad o cámaras de alta resolución, así como la mayor
capacidad de procesamiento de los dispositivos actuales, permiten el desarrollo de nuevas
tecnologías capaces de detectar diferentes movimientos y actuar en tiempo real. A diferencia del
reconocimiento de la voz hablada, que lleva más de 40 años de investigación, esta temática es
relativamente nueva en el ambiente científico, y evoluciona de forma acelerada a medida que
aparecen nuevos dispositivos, así como nuevos algoritmos de visión por computador. La captura y
reconocimiento de gestos dinámicos permite que sean utilizados en diversas áreas de aplicación
como por ejemplo monitoreo de pacientes médicos, control en un entorno de videojuego,
navegación y manipulación de entornos virtuales, traducción de léxicos de la lengua de señas, entre
otras aplicaciones de interés. Particularmente la lengua de señas puede entenderse como un
problema particular del reconocimiento de gestos dinámicos, el cual es sumamente apreciado en
los últimos tiempos por distintas instituciones, ya que permite una ayuda directa a personas
hipoacúsicas. A grandes rasgos, se pueden distinguir gestos corporales, que se realizan con
movimientos de todo el cuerpo, gestos con las manos, como un saludo, gestos con los dedos y las
manos, como la lengua de señas y gestos faciales, como los guiños y movimientos de los labios
(ver [Mit07]). Otra distinción importante es entre gestos estáticos, comúnmente llamados poses,
definidos por una configuración particular del cuerpo en el entorno, y gestos dinámicos
compuestos por una serie de movimientos de ciertas partes del cuerpo. Actualmente, el uso de
pantallas táctiles se ha convertido en un estándar para dispositivos móviles en ciertas aplicaciones;
el reemplazo de los joysticks tradicionales por interfaces de voz y movimiento en las consolas de
juegos se está consolidando. Sin embargo, el retiro del teclado-mouse en las PCs de propósito
general por interfaces más naturales basadas en gestos, todavía se encuentra lejos de ser una
realidad. En este panorama, las tecnologías más prometedoras para proveer una interfaz
hombre-máquina eficiente son el reconocimiento de voz y de gestos en tiempo real [Kar06].

Resumen Conversión de gestos de mano a voz usando matlab por Prof. Rajeshri Rahul
Itkarkar Dr. Anil V. Nandi

El gesto de la mano es uno de los métodos típicos utilizados en el lenguaje de señas para la
comunicación no verbal. Los gestos de signos son un lenguaje visual no verbal, diferente del
lenguaje hablado, pero que cumple la misma función. A menudo es muy difícil para la comunidad
con discapacidad auditiva comunicar sus ideas y creatividad a los humanos normales. Este
documento presenta un sistema que no solo reconocerá automáticamente los gestos de las manos,
sino que también los convertirá en la salida de voz correspondiente para que las personas con
problemas de habla puedan comunicarse fácilmente con las personas normales. El sistema de gesto
a voz, G2S, se ha desarrollado utilizando la segmentación del color de la piel. El sistema consta de
una cámara conectada a la computadora que tomará imágenes de los gestos de las manos. El
algoritmo de segmentación de imágenes y extracción de características se utiliza para reconocer los
gestos de la mano del firmante. De acuerdo con los gestos de las manos reconocidos, se
reproducirá la pista de sonido pregrabada correspondiente.

Resumen de DISEÑO E IMPLEMENTACION DE UN SISTEMA TRADUCTOR DE


LENGUAJE DE SEÑAS DE MANOS A UN LENGUAJE DE TEXTO MEDIANTE VISIÓN
ARTIFICIAL EN UN AMBIENTE CONTROLADO por CHIGUANO RODRIGUEZ
EDWIN FABIAN y MORENO DIAZ NATHALY VERONICA.

En el Ecuador existe una gran cantidad de personas con algún tipo de discapacidad física y/o
mental que limita de alguna manera el desarrollo de una vida con normalidad. Entre las
discapacidades que existen, nos enfocamos en las discapacidades auditiva y vocal que limitan
especialmente el área de la comunicación con el resto de personas, ya que para comunicarse se
requiere de medios específicos como el escrito u otros poco conocidos como el lenguaje de señas.
Con el objetivo de mejorar el nivel de vida de las personas con discapacidad auditiva y/o visual se
ha desarrollado un sistema traductor de lenguaje de señas a texto usando visión artificial, para que
personas que manejan el lenguaje de señas tengan la posibilidad de comunicarse con personas que
no tienen conocimiento de este lenguaje. El proyecto también ofrece a las personas que no tienen
conocimiento de este lenguaje, la opción de un entrenador para que aprendan cada uno de los
símbolos de este lenguaje y adquieran la habilidad necesaria para utilizar la aplicación. Este
proyecto se desarrolló en varias etapas que se describen brevemente a continuación: Etapa de
adquisición donde la imagen se toma con un fondo negro para lograr un mejor contraste y con
iluminación detrás de la cámara para que incida directamente sobre la mano para que tenga bien
definidas sus características, con la menor cantidad de ruido (sombras). En el procesamiento digital
de imágenes se aplicaron algunos filtros y operaciones morfológicas para resaltar las características
de la imagen y eliminar información innecesaria como ruido. Con la ayuda del Vision Assitant de
Labview se elaboraron las bases de datos, para llevar a cabo la comparación con la imagen
recortada y de esta manera asignar la clase (letra) correspondiente a cada imagen para después
formar el texto que se muestra en forma escrita en la pantalla o a su vez se puede enviar a un
documento de Word. Además, es posible reproducir mediante voz el texto formado con la ayuda
del reproductor de Windows. Los resultados obtenidos después de realizar las pruebas
correspondientes, muestran que el proyecto funciona con un margen de error del 17,85% que en
comparación a otros proyectos similares con porcentajes de error del 14,6% y del 31,25% muestran
que la aplicación funciona dentro de los parámetros aceptables.

Resumen de Sistema inteligente de reconocimiento de lenguaje de señas peruano para


mejorar la comunicación entre las personas sordomudas de la Institución Educativa Bautista
parasordos Harvest en Chiclayo por Montenegro Cachay, César Alfredo Villa Rodríguez,
Dante Ricardo.

En el presente proyecto de investigación se desarrolló un sistema inteligente de reconocimiento de


lenguaje de señas peruano, tuvo como objetivo general disminuir la barrera de comunicación
existente entre los estudiantes con deficiencia auditiva del colegio bautista para sordos Harvest de
Chiclayo y un oyente. El sistema fue desarrollado para escritorio y codificado en el lenguaje de
programación Python, asimismo se hizo uso de disciplinas científicas como son la visión artificial
para el procesamiento de la imagen y adquisición del segmento de las manos mediante la técnica
de espacios de color HSV, como también de la inteligencia artificial y redes neuronales
convolucionales para la construcción del modelo y posterior predicción de la seña. El tipo de
investigación que se siguió fue aplicada y experimental. Además, se obtuvieron los siguientes
resultados: sin el sistema traductor, una persona oyente tarda en comprender a un estudiante con
deficiencia auditiva 1.85 minutos y con el sistema propuesto se demora en comprender 0.57
minutos, obteniendo una diferencia de 1.28 min. Respecto al número de señas interpretadas
correctamente, sin el sistema son de 2.5 señas, y con el sistema alcanza un valor de 7.65 señas
evidenciando así una mejora, finalmente, el modelo obtuvo una precisión del 95%. Se concluyó
que con la implementación del sistema se logró disminuir la barrera de comunicación existente
entre un estudiante con deficiencia auditiva del colegio Bautista para sordos Harvest y un oyente.
Palabras Clave: Sistema inteligente de reconocimiento de lenguaje de señas peruano, personas con
deficiencia auditiva, redes neuronales convolucionales, visión artificial, inteligencia artificial.

Resumen Análisis del desarrollo de un traductor de la Lengua de Señas Mexicana usando


Reconocimiento de Patrones por Anahí Montserrat Torres Tinoco.

Las reformas educativas actuales, la creación del Instituto Guanajuatense para las personas con
Discapacidad, las instituciones educativas y las personas que laboran en ellas se deben preocupar
por brindar educación de calidad para las personas con discapacidad. El presente trabajo analiza la
posibilidad de desarrollar un traductor de la Lengua de Señas Mexicana (LSM) usando la técnica
de Reconocimiento de Patrones con el fin de incluir al alumnado que presente discapacidad
auditiva de la Universidad Tecnológica de León, específicamente en el área de Tecnologías de la
Información y Comunicación. Esta plataforma incluye el manejo del sensor KINECT de Windows
con el software para el tratamiento de imágenes desarrollado en el lenguaje más apropiado para el
desarrollo de este tipo de aplicaciones. Se reportan algunas barreras para el desarrollo del mismo y
además, se plantean interesantes premisas para investigación de trabajos futuros.

Resumen de PROTOTIPO DE APLICACIÓN MÓVIL ENFOCADO EN LA


COMUNICACIÓN ENTRE OYENTES Y SORDOS, QUE INTEGRE INFORMACIÓN
SOBRE EL LENGUAJE DE SEÑAS COLOMBIANO por DANIEL ENRIQUE
ZAMBRANO SOLER EDWARD MIGUEL AFANADOR ACEVEDO.

“Ser sordo en Colombia no solo representa dificultades para la comunicación y el aprendizaje,


también lleva consigo repercusiones en ámbitos económicos, laborales y sociales” . “El INSOR
reporta que el 70% de personas sordas registradas en el RLCPD (registro para la localización y
caracterización de personas con discapacidad) se encuentran en un nivel de pobreza o
vulnerabilidad de igual manera indica que solo el 15% de las personas con discapacidad auditiva en
edad productiva reporta estar vinculado laboralmente 11.198 Hombres (73,66%) y 4,005 mujeres
(26,34%)”. “Así mismo el 89% de las personas sordas se desempeñan en actividades que requieren
una baja cualificación, mientras que el 11% lo hace en actividades que requieren algún tipo de
cualificación, además el 89% de las personas sordas se desempeñan en actividades que requieren
una baja cualificación, mientras que el 11% lo hace en actividades que requiere algún tipo de
cualificación” ; “estos datos permiten apreciar las falencias en los sistemas Colombianos para la
implementación de herramientas y estrategias que permitan el acceso a educación, trabajo , salud a
personas sordas en Colombia” .

También podría gustarte