AMD ha svelato GAIA, un’iniziativa open source che sfrutta i processori Ryzen AI 300 per eseguire modelli linguistici di grandi dimensioni (LLM) in locale, migliorando velocità e tutela della privacy.
AMD compie un passo deciso nel settore dell’intelligenza artificiale con l’annuncio di GAIA, un progetto open source pensato per portare l’esecuzione dei Large Language Model (LLM) direttamente sui dispositivi locali. Il cuore dell’iniziativa è l’integrazione con i nuovi processori Ryzen AI 300, capaci di gestire carichi di lavoro AI in modo efficiente e senza necessità di accesso al cloud.
Secondo quanto comunicato dall’azienda, l’esecuzione locale dei LLM consente di ottenere prestazioni più elevate, riducendo i tempi di latenza, e garantisce maggiore riservatezza dei dati, una preoccupazione crescente in ambito enterprise e consumer. GAIA, acronimo di GPU Accelerated Inference Architecture, è già disponibile su GitHub, dove gli sviluppatori possono accedere al codice sorgente e alla documentazione completa per l’installazione e l’uso.
I processori Ryzen AI 300 rappresentano una nuova generazione di chip AMD progettati specificamente per il calcolo AI. Essi includono un NPU (Neural Processing Unit) avanzato, in grado di supportare carichi AI con maggiore efficienza energetica.
Questa mossa posiziona AMD in diretta concorrenza con colossi come Intel e Qualcomm, che stanno anch’essi puntando sull’esecuzione AI in locale. La strategia open source, inoltre, punta a coinvolgere attivamente la comunità di sviluppatori e a favorire l’adozione rapida della piattaforma.
Fonti:
