In un futuro ottimistico della scienza fiction, immaginiamo gli esseri umani impegnati in attività creative e appaganti, lasciando ai robot abilitati dall’Intelligenza Artificiale i compiti noiosi o pericolosi. Ma dove sono i robot? Il paradosso di Moravec afferma che le difficoltà maggiori per l’AI riguardano le abilità sensorimotorie, non l’astratto pensiero o la ragionamento. In altre parole, “i problemi difficili sono facili e i problemi facili sono difficili”.
Tuttavia, oggi ci sono due novità importanti riguardanti robot con Intelligenza Artificiale generale e la capacità di svolgere compiti sensorimotori sfidanti:
VC-1, la corteccia visiva artificiale: un modello di percezione unico che, per la prima volta, supporta una vasta gamma di abilità sensorimotorie, ambienti ed embodiment. VC-1 è addestrata su video di persone che eseguono compiti quotidiani tratti dall’innovativo set di dati Ego4D creato da Meta AI e dai partner accademici. E VC-1 raggiunge o supera i migliori risultati conosciuti in 17 diversi compiti sensorimotori in ambienti virtuali.
Un nuovo approccio chiamato Adaptive (sensorimotor) Skill Coordination (ASC), che raggiunge una prestazione quasi perfetta (98% di successo) nel difficile compito di manipolazione mobile robotica (navigazione verso un oggetto, prenderlo, navigare verso un’altra posizione, posizionare l’oggetto, ripetere) in ambienti fisici.
Entrambe le novità si basano sui dati, l’Intelligenza Artificiale ha bisogno di apprendere da questi ultimi e, nello specifico, l’Intelligenza Artificiale embodied ha bisogno di dati che catturino le interazioni con l’ambiente. Tradizionalmente, questi dati di interazione vengono raccolti raccogliendo grandi quantità di dimostrazioni o permettendo ai robot di apprendere dalle interazioni dall’inizio. Entrambi gli approcci richiedono troppi investimenti di risorse per l’apprendimento di un agente embodied AI generale. In entrambi i lavori, stiamo sviluppando nuovi modi per far imparare ai robot, usando video di interazioni umane con il mondo reale e interazioni simulate all’interno di mondi simulati fotorealistici.
Un modo per far imparare ai robot dalle interazioni umane del mondo reale, addestrando un modello di rappresentazione visiva a scopo generale (una corteccia visiva artificiale) a partire da un gran numero di video egocentrici.
Un gruppo di ricercatori sta lavorando al futuro dei robot, cercando di sviluppare tecnologie in grado di far loro apprendere da video di attività umane e interazioni simulate. La speranza è quella di integrare il tutto in un unico sistema, che sia in grado di gestire anche le situazioni più imprevedibili del mondo reale.
Tra le aree di ricerca più promettenti c’è quella della voce. L’obiettivo è quello di sviluppare tecnologie di elaborazione del linguaggio naturale che consentano di impartire ordini vocalmente, anziché attraverso una definizione di attività. In questo modo, sarà possibile chiedere al proprio assistente robotico di portare i piatti dal soggiorno al lavello della cucina.
Ma la sfida più grande resta quella di far interagire i robot con le persone in modo sempre più umano. Il sogno è quello di sviluppare macchine in grado di anticipare i bisogni degli umani e di aiutarli anche in attività complesse, come la preparazione di una torta.
Le potenzialità della tecnologia dei robot sono molte e il campo di ricerca ancora molto vasto. Tuttavia, i ricercatori credono che l’utilizzo di una forte rappresentazione visiva, unita a una formazione pregressa su video egocentrici e a una maggiore capacità di interazione con gli umani, possa aprire la strada a esperienze sempre più innovative e coinvolgenti, in cui assistenti virtuali e robot fisici lavorano in sinergia per migliorare la qualità della vita delle persone.
_____________
“Robots that learn from videos of human activities and simulated interactions“
“Notizie AIopenmind su Robotica“