Científicos buscan crear un traductor bidireccional que reconozca las expresiones del lenguaje de señas y que funcione como herramienta de inclusión social.
El sistema de reconocimiento de imágenes para traducir señas a texto es creado por la Universidad Veracruzana de México, a través del Centro de Investigación en Inteligencia Artificial.
Un investigador de la institución, Homero Vladimir Ríos, explicó que a través de una cámara o sensor MS- Kinect se obtienen nubes de puntos que son interpretadas por algoritmos de visión por computadora y de esta forma las señas y los gestos pueden ser traducidos a texto o voz.
Río también explicó que el objetivo es crear un sistema que funcione como un traductor bidireccional, con el reconocimiento de expresiones dinámicas del lenguaje de señas y la función de un avatar que emule el lenguaje de señas mexicano.
El sistema podría integrarse a lugares públicos como bancos u hospitales para agilizar la comunicación con las personas que tienen discapacidad auditiva, puntualizó el investigador.
"Buscamos que el alfabeto pueda ser reconocido en condiciones ambientales y complejas, además de ampliar el vocabulario hasta que abarque todo el lenguaje y sea capaz de reconocerlo y ejecutarlo, lo cual podría tomar algún tiempo", dijo Figueroa.
El experto resaltó su interés en convertir el sistema en un medio de inclusión social que en medida de lo posible de respuestas a las necesidades de este sector de la población.