Cerebras ha annunciato sei nuovi dispositivi per data center, progettati per gestire inferenze AI a una velocità record. Con oltre 40 milioni di token Llama 70B al secondo, promette una rivoluzione nei supercomputer AI.
Supercomputer AI: Cerebras sfida le GPU con il CS-3
Cerebras Systems ha presentato sei nuovi dispositivi progettati per l’inferenza AI ad alta velocità, basati sul chip proprietario Wafer-Scale Engine-3 (WSE-3) . Il sistema di punta, il Cerebras CS-3 , può essere facilmente raggruppato per creare supercomputer con una potenza computazionale senza precedenti.
Grazie al WSE-3, il CS-3 elabora oltre 40 milioni di token Llama 70B al secondorende la, superando di gran lunga le tradizionali GPU. Questo rende la tecnologia ideale per gestire modelli di linguaggio avanzati come Mistral Le Chat , DeepSeek R1 e Perplexity Sonar .
Un cloud di inferenza nazionale ad alte prestazioni
ifigura di spiccoCerebras intende costruire il più grande cloud nazionale per l’inferenza AI, puntando su velocità, scalabilità e personalizzazione. Le soluzioni, adatte sia on-premise che in cloud, supportano modelli LLM e gemelli digitali in tempo reale. Tra i partner di spicco figurano Mayo ClinicMayo, AlphaSense e Tavus , che già utilizzano Cerebras per rivoluzionare assistenza sanitaria, ricerca e comunicazione.
L’AI più veloce al servizio delle organizzazioni innovative
Con l’obiettivo di spingersi oltre i limiti dell’informatica, Cerebras propone un modello di calcolo alternativo e coraggioso. L’azienda si posiziona come punto di riferimento globale nella potenza AI, pronta a ridefinire il futuro dell’elaborazione neurale.
Fonti:
