L’intelligenza artificiale si mette al servizio dell’accessibilità con Signs, una piattaforma innovativa sviluppata da NVIDIA, l’American Society for Deaf Children e l’agenzia creativa Hello Monday. Il progetto mira a colmare il divario comunicativo tra sordi e udenti attraverso un sistema interattivo che supporta l’apprendimento della lingua dei segni americana (ASL) e lo sviluppo di applicazioni AI dedicate.
La piattaforma offre una libreria convalidata di segni ASL, accessibile a studenti e sviluppatori. Un avatar 3D dimostra i segni, mentre uno strumento basato su AI analizza i movimenti della webcam per fornire feedback in tempo reale agli utenti. Inoltre, chiunque può contribuire registrando video con nuovi segni per ampliare il database. NVIDIA prevede di raccogliere 400.000 videoclip per coprire 1.000 parole, creando così un prezioso strumento di apprendimento e ricerca.
Cheri Dowling, direttrice dell’American Society for Deaf Children, sottolinea l’importanza di strumenti accessibili per le famiglie con bambini sordi: “Poter imparare l’ASL fin dai primi mesi di vita facilita la comunicazione e l’integrazione sociale.”
Oltre all’apprendimento, il set di dati ASL sarà reso disponibile al pubblico per sviluppare tecnologie accessibili, tra cui agenti AI e strumenti di videoconferenza inclusivi. Il team di sviluppo sta lavorando per integrare anche espressioni facciali e varianti regionali della lingua dei segni, rendendo la piattaforma sempre più accurata.
La piattaforma Signs sarà protagonista anche all’NVIDIA GTC, la conferenza globale sull’intelligenza artificiale, in programma dal 17 al 21 marzo.