Estudiante crea algoritmo capaz de traducir el lenguaje de señas en tiempo real

spot_img

La joven ha empleado una base de datos, que ha creado desde cero. Actualmente, su modelo solo es capaz de traducir los signos a inglés en fotogramas estáticos.


Por: MARTA MONTOTO SÁNCHEZ

Priyanjali Gupta, una joven estudiante de ingeniería, ha desarrollado un algoritmo capaz de traducir en tiempo real el lenguaje de signos.

En la actualidad, más de 30 millones de personas en el mundo tienen problemas de habla, por lo que el lenguaje de signos es su única herramienta para interactuar con el mundo. Sin embargo, muy pocas personas conocen y manejan este lenguaje, lo que dificulta, en ocasiones, la integración de este colectivo en la sociedad.

En la carrera por derribar estas barreras comunicativas entre aquellos que conocen este lenguaje y aquellos que no, la inteligencia artificial y los avances tecnológicos están adquiriendo gran importancia. Hace unos años, se desarrollaron unos guantes capaces de traducir la lengua de signos a señales de audio a través de un smartphone.

Estos guantes, creados por Roy Allela, están formados por cinco sensores flexibles, uno en cada dedo. Son capaces de cuantificar la curvatura de cada uno de los movimientos y cambian su resistencia en función de la flexión del propio sensor. Se conectan a una aplicación de Android, vía bluetooth, lo que les permite convertir los movimientos en señales de audio, traduciendo así de forma instantánea y automática el lenguaje de signos.

El lenguaje de signos más inclusivo

Ahora, Priyanjali Gupta, estudiante de ingeniería en el Instituto de Tecnología de Vellore de la India, ha empleado la inteligencia artificial para que conseguir que el lenguaje de signos se traduzca al inglés en tiempo real.

Para llevar a cabo esta innovación, la estudiante ha empleado una base de datos, que ha creado desde cero. De hecho, ha tenido que ponerse enfrente de la cámara y hablar en lenguaje de signos para que esta captase todos los movimientos de sus manos, con el objetivo de que la máquina reconociera los gestos y registrará sus correspondientes significados.

Actualmente, el modelo de Gupta solo es capaz de traducir los signos a inglés en fotogramas estáticos, puesto que para hacerlo en vídeo sería necesario perfeccionar la inteligencia artificial y ampliar sus capacidades a través de un entrenamiento más profundo. Por ahora, según ha afirmado la estudiante en GitHub, la página web donde ha publicado su trabajado, los signos que reconoce su modelo son HolaTe quierograciaspor favor y no.

Este modelo supone un gran avance para la interacción inclusiva de las personas con dificultades para comunicarse verbalmente y, además, es un buen ejemplo de como la inteligencia artificial puede ser una gran aliada para ayudar a las personas.

Aldea84
Aldea84http://aldea84.com
Sitio para nativos y migrantes digitales basado en la publicación de noticias de Tijuana y Baja California, etnografías fronterizas, crónicas urbanas, reportajes de investigación, además de tocar tópicos referentes a la tecnología, ciencia, salud y la caótica -y no menos surrealista- agenda nacional.

Artículos relacionados

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

spot_img
spot_img

Lo más reciente

Te recomendamos leer

spot_img