Meta, gigante della tecnologia, ha appena annunciato un importante passo avanti nel campo dell’intelligenza artificiale generativa. Durante la conferenza sui risultati finanziari, Mark Zuckerberg ha rivelato che i modelli Llama 4 sono in fase di allenamento su un cluster di GPU mai visto prima, con una potenza che supera i 100.000 chip Nvidia H100. Questo segna una svolta nella corsa per sviluppare modelli AI sempre più potenti, e Meta sembra essere in prima linea.
L’infrastruttura, che rappresenta una delle più grandi installazioni di calcolo mai realizzate, pone Meta in una posizione di vantaggio rispetto ai suoi concorrenti, tra cui OpenAI e Google, che stanno anch’essi puntando su tecnologie avanzate. La strategia di Meta si distingue per la sua apertura: i modelli Llama sono scaricabili gratuitamente, consentendo a ricercatori e startup di gestirli autonomamente, un approccio opposto a quello di altre grandi aziende che offrono l’accesso ai loro modelli solo tramite API a pagamento.
Zuckerberg ha accennato alle capacità avanzate che Llama 4 avrà, pur non entrando nei dettagli. Si parla di “modi nuovi”, “ragionamento più forte” e performance decisamente superiori. La potenza di calcolo, però, solleva interrogativi anche sul suo impatto ambientale: un cluster di 100.000 H100 richiede infatti 150 megawatt di energia, molto di più rispetto ai supercomputer nazionali. Meta, comunque, ha dichiarato di investire enormi risorse in infrastrutture e centri di dati per alimentare queste ambizioni.
L’obiettivo di Meta non è solo tecnologico, ma anche commerciale. Con oltre 500 milioni di utenti mensili, Meta AI potrebbe presto diventare un’importante fonte di ricavi, grazie alla monetizzazione delle interazioni attraverso gli annunci pubblicitari, sfruttando la crescente diffusione di Llama nei servizi aziendali.