Meta Platforms, proprietaria di Facebook, ha pianificato di implementare nei propri data center quest’anno una nuova versione di un chip personalizzato mirato a sostenere la sua spinta nell’intelligenza artificiale (IA), secondo un documento interno aziendale visionato da Reuters giovedì.
Il chip, una seconda generazione di una linea di silicio interna annunciata lo scorso anno, potrebbe contribuire a ridurre la dipendenza di Meta dai chip Nvidia, che dominano il mercato e controllano i costi in aumento associati all’esecuzione di carichi di lavoro di IA, mentre si affretta a lanciare prodotti di IA.
La più grande azienda di social media al mondo sta cercando di aumentare la sua capacità di calcolo per i prodotti di IA generativa ad alto consumo energetico che sta introducendo nelle app Facebook, Instagram e WhatsApp, oltre ai dispositivi hardware come gli smartglass Ray-Ban, spendendo miliardi di dollari per accumulare arsenali di chip specializzati e riconfigurare i data center per ospitarli.
Su una scala come quella in cui opera Meta, una riuscita implementazione del proprio chip potrebbe potenzialmente tagliare centinaia di milioni di dollari nei costi energetici annuali e miliardi nei costi di acquisto dei chip, secondo Dylan Patel, fondatore del gruppo di ricerca sul silicio SemiAnalysis.
I chip, l’infrastruttura e l’energia necessari per eseguire applicazioni di IA sono diventati un enorme pozzo di investimenti per le aziende tecnologiche, in parte compensando i guadagni ottenuti nell’entusiasmo intorno alla tecnologia.
Un portavoce di Meta ha confermato il piano di mettere in produzione il chip aggiornato nel 2024, affermando che funzionerà in coordinazione con le centinaia di migliaia di unità di elaborazione grafica (GPU) disponibili commercialmente, i chip preferiti per l’IA, che l’azienda sta acquistando.
“Vediamo i nostri acceleratori sviluppati internamente come altamente complementari alle GPU disponibili commercialmente nel fornire la miscela ottimale di prestazioni ed efficienza sui carichi di lavoro specifici di Meta”, ha dichiarato il portavoce.
Il CEO di Meta, Mark Zuckerberg, ha dichiarato il mese scorso che l’azienda prevede di avere entro la fine dell’anno circa 350.000 processori “H100” di punta di Nvidia, che produce le GPU più richieste per l’IA. In combinato con altri fornitori, Meta accumulerebbe una capacità di calcolo equivalente a 600.000 H100 in totale, ha detto.
L’implementazione del proprio chip come parte di quel piano è una svolta positiva per il progetto di silicio di IA in casa di Meta, dopo una decisione degli esecutivi nel 2022 di interrompere la prima iterazione del chip. L’azienda ha invece optato per l’acquisto di miliardi di dollari di GPU di Nvidia, che detiene quasi un monopolio su un processo di IA chiamato training, che coinvolge l’alimentazione di enormi set di dati nei modelli per insegnare loro come svolgere compiti.
Il nuovo chip, chiamato internamente “Artemis”, come il suo predecessore, può eseguire solo un processo noto come inferenza, in cui i modelli sono chiamati a utilizzare i loro algoritmi per fare giudizi di classifica e generare risposte alle richieste degli utenti.
Reuters ha riferito l’anno scorso che Meta sta lavorando anche a un chip più ambizioso che, come le GPU, sarebbe in grado di eseguire sia il training che l’inferenza. L’azienda con sede a Menlo Park, in California, ha condiviso dettagli sulla prima generazione del suo programma Meta Training and Inference Accelerator (MTIA) l’anno scorso. L’annuncio ha presentato quella versione del chip come un’opportunità di apprendimento.
Nonostante questi ostacoli iniziali, un chip di inferenza potrebbe essere considerevolmente più efficiente nel processare i modelli di raccomandazione di Meta rispetto ai processori energivori di Nvidia, secondo Patel.
“C’è molta denaro e potenza che potrebbe essere risparmiato”, ha detto.
_______
Exclusive: Meta to deploy in-house custom chips this year to power AI drive – memo