Guantes que traducen el lenguaje de signos a voz o texto

El auge y la popularización de los dispositivos orientados a dar soporte a personas con algún tipo de dificultad, están ayudando progresivamente a mejorar su calidad de vida.

Uno de los inventos que os queremos mostrar hoy, está pensado para que la gente con algún tipo de problema de audición (sordera), pueda comunicarse mejor con las personas.

Fue creado por dos estudiantes de la universidad de Washington, llamados Navid Azodi y Thomas Pryor, que se alzaron con el 1º puesto en el concurso Lemelson-MIT Student Prize, dotado con 10.000$. El prototipo fue desarrollado en la UW CoMotion MakerSpace, un espacio en el que se proporcionan herramientas, equipos y lo necesario para la creación de proyectos y prototipos.

La solución planteada se basa en un dispositivo wearable (el SignAloud), conformado como un par de guantes conectados a una placa Arduino Micro. Dicha placa, está interconectada a distintos sensores de posición, para interpretar los gestos de la mano que se corresponden a palabras o frases en lenguaje de signos americano. Los datos recogidos, se envían mediante bluetooth a un ordenador, que se encarga de analizar e interpretar esos datos para a partir de ellos, traducirlo a mensaje de texto o de voz.

Su siguiente objetivo es el de trasladar la unidad de cómputo y procesamiento a un teléfono móvil, siendo más cómodo y llegando a un número más amplio de gente. Además, deben de adaptarlo al lenguaje de signos de cada idioma, pero eso será cuestión de tiempo.

Llevan años mejorando el desarrollo, ya que hasta la fecha la solución no es suficientemente ergonómica y no pasa desapercibida.

La idea y la implementación nos parecen genial, no obstante, creemos que la implementación en modo de guante, no es lo óptimo. A modo de crítica constructiva, creemos que no es de lo más cómodo, a parte que, cuando te sudan mucho las manos, el no poder lavarlos, puede hacer que no sea muy higiénico. Plantearíamos otro tipo de implementación basada en anillos y sensorización secundaria (mediante inducción o movimiento de la muñeca). Creemos que mojarlo, ya sea con la lluvia o al hacer alguna cosa en la que tomes contacto con el agua, podría dañar el dispositivo. Viendo vídeos del prototipo, se logra traducir los movimientos  al lenguaje hablado, pero  ¿qué pasa cuando hay que transmitir algo a la persona que porta el dispositivo? Es muy interesante conocer este tipo de iniciativas y ver que poco a poco se va avanzando con pequeñas soluciones, en este caso, para ayudar a millones de personas que hacen uso del lenguaje de signos.

Para saber más pulsa aquí

 

Articulo realizado expresamente por el LACH

Deja un comentario

Comentario (requerido)

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Nombre (requerido)
Correo electrónico (requerido)

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies