ByteDance ha recentemente presentato OmniHuman-1, un innovativo sistema di intelligenza artificiale capace di trasformare una singola fotografia in video realistici di persone che parlano, cantano e si muovono in modo naturale. Questo progresso potrebbe rivoluzionare l’intrattenimento digitale e le comunicazioni.
OmniHuman-1 genera video a figura intera, mostrando individui che gesticolano e si muovono in sincronia con il parlato, superando i precedenti modelli di IA che sivano ad animare volti o parte superiore del corpo. Il sistema è stato addestrato su oltre 18.700 ore di dati video umani, utilizzando un approccio che combina input di testo, audio e movimenti corporei. Questa strategia di allenamento multimodale consente all’IA di apprendere da dataset più ampi e diversificati rispetto ai metodi precedenti.
“L’animazione umana end-to-end ha compiuto notevoli progressi negli ultimi anni”, affermano i ricercatori di ByteDance in un articolo pubblicato su arXiv. “Tuttavia, i metodi esistenti faticano ancora a scalare come i grandi modelli generativi di video, limitando il loro potenziale nelle applicazioni reali”.
La tecnologia di OmniHuman-1 rappresenta un significativo avanzamento nella generazione di media tramite IA, dimostrando capacità che spaziano dalla creazione di video di persone che tengono discorsi alla rappresentazione di soggetti che suonano strumenti musicali. Nei test, OmniHuman-1 ha superato i sistemi esistenti in vari parametri di qualità.
Questo sviluppo emerge in un contesto di crescente competizione nell’ambito della generazione di video tramite IA, con aziende come Google, Meta e Microsoft impegnate in progetti simili. La scoperta di ByteDance potrebbe conferire alla società madre di TikTok un vantaggio in questo campo in rapida evoluzione.
Gli esperti del settore ritengono che una tale tecnologia potrebbe trasformare la produzione di contenuti d’intrattenimento, la creazione di materiale educativo e le comunicazioni digitali. Tuttavia, solleva anche preoccupazioni riguardo al potenziale uso improprio nella creazione di media sintetici per scopi ingannevoli.
I ricercatori presenteranno i loro risultati in una prossima conferenza sulla visione artificiale, sebbene non abbiano ancora specificato quando e quale.