Un equipo del Instituto de Investigación Informática (III-LIDI) de la Universidad Nacional de La Plata (UNLP) trabaja en el desarrollo de un sistema para traducir a texto, de manera automática, el lenguaje de señas que utilizan las personas hipoacúsicas.
El sistema funciona con una cámara de video conectada a una computadora que permite captar la posición y los movimientos de las manos de la persona que se expresa en lenguaje de señas y, con el uso de algoritmos, lo traduce a texto en tiempo real.
La investigación incluyó la filmación de las 64 señas que componen las palabras más usadas del Lenguaje de Señas y después de que un equipo de diez personas repitiera cinco veces cada seña frente a la cámara, se obtuvieron 3.200 videos que fueron analizados por el sistema para incorporar modos particulares de mover las manos en distintas personas y caracterizar los movimientos constitutivos de cada seña.
El proyecto todavía se encuentra en una fase de laboratorio y se espera que la aplicación final contenga cientos de señas.
La base de datos resultante será de acceso público para todo investigador que quiera usarla.