Negli ultimi undici anni, la collaborazione tra Stati Uniti e Cina è stata la più intensa nel campo dell’Intelligenza Artificiale, come dimostra uno studio condotto da ricercatori del Centro per lo studio dell’Intelligenza Artificiale presso l’Università di Stanford. Tuttavia, la collaborazione tra i due paesi si è sensibilmente ridotta nell’ultimo anno, aumentando soltanto del 2,1% rispetto al 2020 (scarica pdf).
Fino al 2014, la maggior parte dei modelli di apprendimento automatico significativi veniva rilasciata dall’accademia, ma dal quel momento l’industria ha preso il sopravvento. Nel 2022, infatti, sono stati prodotti 32 importanti modelli di apprendimento automatico dall’industria rispetto ai soli tre prodotti dall’accademia. Questo perché la costruzione di sistemi di IA all’avanguardia richiede grandi quantità di dati, potenza di calcolo e denaro, risorse che le grandi aziende possiedono in maggior quantità rispetto alle organizzazioni non profit e all’accademia.
La ricerca sull’Intelligenza Artificiale sta crescendo a livello globale, con un aumento del numero di pubblicazioni che si è più che raddoppiato dal 2010. I temi che dominano la ricerca sull’IA includono il riconoscimento dei pattern, il machine learning e la computer vision.
In termini di pubblicazioni su riviste, conferenze e repository, la Cina continua a guidare il mondo della ricerca sull’Intelligenza Artificiale. Tuttavia, gli Stati Uniti hanno ancora il primato per le citazioni di conferenze e repository sull’IA, ma la loro leadership si sta erodendo lentamente. Nonostante ciò, la maggior parte dei grandi modelli di linguaggio e multimodali (il 54% nel 2022) sono ancora prodotti da istituzioni americane.
I grandi modelli di linguaggio stanno diventando sempre più grandi e costosi. GPT-2, rilasciato nel 2019 e considerato il primo grande modello di linguaggio, aveva 1,5 miliardi di parametri e costava circa 50.000 dollari per l’addestramento. PaLM, uno dei modelli di linguaggio più grandi mai creati e lanciato nel 2022, aveva 540 miliardi di parametri e costava circa 8 milioni di dollari per l’addestramento – circa 360 volte più grande di GPT-2 e 160 volte più costoso.