Le principali aziende di intelligenza artificiale, tra cui OpenAI, stanno riconsiderando le strategie per sviluppare modelli linguistici avanzati, confrontandosi con limiti tecnici ed economici. Dopo anni di crescita basata sull’aumento della capacità computazionale e dei dati disponibili, esperti del settore indicano che il paradigma del “più grande è meglio” sta mostrando i suoi limiti.
Modelli come il nuovo o1 di OpenAI introducono un approccio rivoluzionario: l’uso del calcolo durante la fase di inferenza, che consente al modello di simulare un ragionamento umano. Questo metodo permette di affrontare compiti complessi dedicando più risorse computazionali alle operazioni più difficili, come problemi matematici o di codifica. Secondo Noam Brown, ricercatore di OpenAI, questa tecnica potrebbe ottenere risultati equivalenti a una moltiplicazione esponenziale della capacità di training tradizionale.
Tuttavia, il settore è in difficoltà. Le cosiddette “training runs” richiedono ingenti risorse economiche ed energetiche, oltre a una disponibilità sempre più scarsa di dati. Inoltre, problemi tecnici e carenze di chip avanzati hanno ritardato lo sviluppo di modelli che superino il popolare GPT-4.
Questa evoluzione potrebbe ridefinire la competizione nell’ambito dell’hardware AI, finora dominata da Nvidia. Con la crescente enfasi sull’inferenza piuttosto che sul training, nuovi attori potrebbero entrare nel mercato. “Ci stiamo muovendo verso un mondo di server cloud distribuiti per l’inferenza”, ha dichiarato Sonya Huang, partner di Sequoia Capital, sottolineando il cambiamento in atto.
Mentre OpenAI, Google DeepMind e altre aziende lavorano a nuove tecniche, il futuro dell’intelligenza artificiale sembra destinato a un equilibrio tra potenza computazionale, efficienza energetica e innovazione tecnologica.