Meta Report: Robots che imparano da video di attività umane e interazioni simulate

In un futuro ottimistico della scienza fiction, immaginiamo gli esseri umani impegnati in attività creative e appaganti, lasciando ai robot abilitati dall’Intelligenza Artificiale i compiti noiosi o pericolosi. Ma dove sono i robot? Il paradosso di Moravec afferma che le difficoltà maggiori per l’AI riguardano le abilità sensorimotorie, non l’astratto pensiero o la ragionamento. In altre parole, “i problemi difficili sono facili e i problemi facili sono difficili”.

Tuttavia, oggi ci sono due novità importanti riguardanti robot con Intelligenza Artificiale generale e la capacità di svolgere compiti sensorimotori sfidanti:

VC-1, la corteccia visiva artificiale: un modello di percezione unico che, per la prima volta, supporta una vasta gamma di abilità sensorimotorie, ambienti ed embodiment. VC-1 è addestrata su video di persone che eseguono compiti quotidiani tratti dall’innovativo set di dati Ego4D creato da Meta AI e dai partner accademici. E VC-1 raggiunge o supera i migliori risultati conosciuti in 17 diversi compiti sensorimotori in ambienti virtuali.

Un nuovo approccio chiamato Adaptive (sensorimotor) Skill Coordination (ASC), che raggiunge una prestazione quasi perfetta (98% di successo) nel difficile compito di manipolazione mobile robotica (navigazione verso un oggetto, prenderlo, navigare verso un’altra posizione, posizionare l’oggetto, ripetere) in ambienti fisici.

Entrambe le novità si basano sui dati, l’Intelligenza Artificiale ha bisogno di apprendere da questi ultimi e, nello specifico, l’Intelligenza Artificiale embodied ha bisogno di dati che catturino le interazioni con l’ambiente. Tradizionalmente, questi dati di interazione vengono raccolti raccogliendo grandi quantità di dimostrazioni o permettendo ai robot di apprendere dalle interazioni dall’inizio. Entrambi gli approcci richiedono troppi investimenti di risorse per l’apprendimento di un agente embodied AI generale. In entrambi i lavori, stiamo sviluppando nuovi modi per far imparare ai robot, usando video di interazioni umane con il mondo reale e interazioni simulate all’interno di mondi simulati fotorealistici.

Un modo per far imparare ai robot dalle interazioni umane del mondo reale, addestrando un modello di rappresentazione visiva a scopo generale (una corteccia visiva artificiale) a partire da un gran numero di video egocentrici.

Un gruppo di ricercatori sta lavorando al futuro dei robot, cercando di sviluppare tecnologie in grado di far loro apprendere da video di attività umane e interazioni simulate. La speranza è quella di integrare il tutto in un unico sistema, che sia in grado di gestire anche le situazioni più imprevedibili del mondo reale.

Tra le aree di ricerca più promettenti c’è quella della voce. L’obiettivo è quello di sviluppare tecnologie di elaborazione del linguaggio naturale che consentano di impartire ordini vocalmente, anziché attraverso una definizione di attività. In questo modo, sarà possibile chiedere al proprio assistente robotico di portare i piatti dal soggiorno al lavello della cucina.

Ma la sfida più grande resta quella di far interagire i robot con le persone in modo sempre più umano. Il sogno è quello di sviluppare macchine in grado di anticipare i bisogni degli umani e di aiutarli anche in attività complesse, come la preparazione di una torta.

Le potenzialità della tecnologia dei robot sono molte e il campo di ricerca ancora molto vasto. Tuttavia, i ricercatori credono che l’utilizzo di una forte rappresentazione visiva, unita a una formazione pregressa su video egocentrici e a una maggiore capacità di interazione con gli umani, possa aprire la strada a esperienze sempre più innovative e coinvolgenti, in cui assistenti virtuali e robot fisici lavorano in sinergia per migliorare la qualità della vita delle persone.

_____________
Robots that learn from videos of human activities and simulated interactions
Notizie AIopenmind su Robotica

NEWS AIopenmind su:

3D (6)6G (1)Accademia di Comunicazione (4)Acer (1)Adobe (39)Aeronautica (9)Africa (3)Agenti AI (1)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (7)AGID (1)Amazon (37)Ambiente (3)AMD (1)Android (6)Animali (6)Animazione (4)Anthropic (17)Anziani (1)App (10)Apple (63)Archeologia (3)Architettura (4)Archivi storici (1)Armi (3)Arredamento interni (2)Arte (28)Assistente vocale (6)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (54)Autoapprendimento (1)Avatar (7)Aviazione (1)Avvocati (2)Aziende (19)Banca (3)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (7)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (52)Chip (3)Cina (54)Cinema (11)Claude (19)Clima (3)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (2)Compagnie aeree (1)Computer (3)Computer quantistici (32)Computer Vision (3)Comuni italiani (1)Comunicazione (9)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (1)Convegno (13)Copilot (5)Copyright (14)Criptovalute (1)Cybersecurity (1)Dalle-2 (3)Dark web (2)Data center (2)Dating (1)Deepfake (2)Design automobilistico (2)Design Industriale (6)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (10)Email (1)ENEA (2)Esercito (2)Etica (131)Europol (1)Eventi (7)Evento (7)Facebook (4)FakeNews (18)Falegnameria (1)Fauna selvatica (1)Film (5)Finanza (9)Finanziamenti Italia (3)Firefly (3)Firefox (1)Fondo Monetario Internazionale (1)Formazione (19)Fotografia (110)Francia (1)Free lance (1)G7 (1)Gaming (1)Garante privacy (19)Giappone (9)Giochi (7)Giornalismo (17)Giustizia (1)Google (304)Governo (7)Governo Italiano (3)Grafica (6)Guerra (12)Guida autonoma (5)Hong Kong (1)Hugging Face (3)IBM (7)Illustrazioni (1)iMessage (1)Immobiliare (1)India (3)Indossabili (3)Influencer (1)Informazione (9)Inghilterra (7)INPS (2)Intel (7)ISO (1)Istruzione (16)Jailbreaking (1)Kamala Harris (1)Lavoro (44)Libri (3)Linguistica computazionale (7)Linkedin (8)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (71)Medicina (27)Mercedes-Benz (1)Meta (88)Metaverso (17)Microsoft (183)Midjourney (18)Mobilità sostenibile (1)Moda (5)Modelli AI (42)Motori di Ricerca (12)Mozilla (2)Museo (1)Musica (37)NASA (1)Nato (2)Natura (2)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (36)Occhiali (7)Occhiali Intelligenti (2)Occhiali Smart (1)Oculistica (1)Odore (1)OMS (1)ONU (1)Open Source (2)OpenAI (252)Opera (12)Opera Browser (1)Oppo (3)Oracle (2)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (7)Pianeta (2)Plugin (1)Polizia (2)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

Intelligenza Artificiale: Bruxelles prepara le linee guida contro i rischi inaccettabili

La Commissione Europea ha avviato un processo di consultazione rivolto alle parti interessate per definire le future linee guida sulla regolamentazione dell’Intelligenza Artificiale (IA)....

Occhiali Samsung XR: le nuove lenti intelligenti senza display, ma con tante funzioni avanzate

Samsung sta sviluppando occhiali intelligenti XR in collaborazione con Google, previsti per il lancio nella seconda metà del 2025. Secondo un report proveniente dalla...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines