www.zonamovilidad.es
Por Antonio Rodríguez
x
infozonamovilidades/4/4/18
viernes 21 de febrero de 2025, 14:00h

Escucha la noticia

Nvidia ha presentado Signs, una plataforma interactiva diseñada para enseñar la lengua de signos americano (ASL, por sus siglas en inglés) y facilitar la creación de aplicaciones accesibles para la comunidad sorda.

El gigante de los chips aprovecha para combinar inteligencia artificial (IA) con el aprendizaje y la inclusión social en esta nueva plataforma que busca ayudar a los usuarios a aprender ASL y romper las barreras de comunicación entre personas con problemas auditivos o de habla, fomentando una mayor inclusión en la sociedad.

La nueva plataforma Signs se basa en la inteligencia artificial para enseñar la lengua de signos propio de Estados Unidos mediante un avatar 3D interactivo. Los usuarios pueden aprender el ASL observando cómo deben realizar los signos, y luego utilizar su propia cámara para practicar. La IA, integrada en la plataforma, analiza las imágenes en tiempo real, proporcionando comentarios y correcciones a los usuarios sobre su técnica, lo que facilita una retroalimentación inmediata y efectiva.

Este enfoque permite que cualquier persona, sin necesidad de ser un experto en el tema, pueda aprender y comunicarse en ASL, lo que contribuye significativamente a la superación de las barreras de comunicación. Según Nvidia, el conjunto inicial de Signs incluye 100 signos básicos, validados por intérpretes profesionales, garantizando así la precisión y calidad de las enseñanzas que incluyen las palabras más comunes que los usuarios de ASL emplean para interactuar con personas oyentes.

Planes de expansión

Nvidia no se detiene aquí; la compañía planea expandir la plataforma de Signs y su base de datos para incluir hasta 400.000 videoclips, lo que equivale a 1.000 palabras diferentes en ASL. La comunidad también puede participar activamente en el proyecto añadiendo nuevos signos y contribuyendo al crecimiento de la plataforma. Este enfoque colaborativo busca crear un conjunto de datos de código abierto que permita a los desarrolladores de IA y otras organizaciones crear tecnologías aún más accesibles para la comunidad sorda.

Aunque actualmente Signs se centra en el uso de las manos y los dedos para enseñar el ASL, la lengua de signos va más allá de los movimientos manuales. Incluye expresiones faciales y movimientos de cabeza, elementos fundamentales que son esenciales para transmitir significado en ASL. Con esto en mente, el equipo de Signs está trabajando para integrar estas secciones no manuales en futuras versiones de la plataforma, enriqueciendo aún más la experiencia de aprendizaje.

Además, se están teniendo en cuenta variaciones regionales y jerga específica de diferentes zonas para asegurar que la base de datos sea lo más inclusiva y representativa posible.

Disponibilidad

La plataforma Signs ya está disponible en su versión web, y los planes de Nvidia incluyen continuar ampliando la base de datos y las capacidades de la herramienta. Por el momento, la iniciativa se centra en el lenguaje de signos estadounidenses y no hay planes confirmados para su expansión a otros idiomas.

A finales de 2025, se espera que el conjunto de datos esté disponible públicamente, ofreciendo un recurso invaluable tanto para la comunidad sorda como para desarrolladores de tecnología accesible.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios