La piattaforma NVIDIA GB200 NVL72 segna nuovi traguardi nei test MLPerf Inference 2025, ridefinendo la produttività delle AI factory.
NVIDIA ha conquistato la vetta dei benchmark MLPerf Inference v5.0 con il sistema GB200 NVL72, segnando un salto evolutivo nella potenza computazionale per l’intelligenza artificiale. Il sistema, che unisce 72 GPU Blackwell come un’unica unità, ha offerto una produttività fino a 30 volte superiore rispetto ai modelli precedenti, diventando riferimento per le future AI factory.
Queste infrastrutture, diverse dai tradizionali data center, trasformano dati grezzi in informazioni in tempo reale. Tuttavia, con l’aumento della complessità dei modelli, come il Llama 3.1 da 405 miliardi di parametri, cresce il costo computazionale per generare risposte intelligenti. NVIDIA affronta questa sfida attraverso un’ottimizzazione completa dell’intero stack tecnologico: silicio, rete e software.
Tra i dati chiave, spicca il benchmark interattivo Llama 2 70B, con requisiti di latenza severi. Il sistema DGX B200 con otto GPU Blackwell ha triplicato le prestazioni rispetto alla versione con GPU H200, abbattendo drasticamente i tempi di risposta (TTFT e TPOT).
Anche l’architettura Hopper di NVIDIA continua a dimostrarsi solida: la GPU H100 ha aumentato del 50% la produttività in un anno, mentre la nuova H200 migliora ulteriormente questo risultato.
Con 15 partner industriali coinvolti, i risultati MLPerf attestano l’affidabilità e l’adozione globale delle tecnologie NVIDIA, fondamentali per affrontare le crescenti esigenze di AI scalabile, efficiente e reattiva.
Pro: maggiore efficienza e velocità di risposta nelle AI factory.
Rischi: impatto ambientale, concentrazione tecnologica, accesso diseguale.
Fonti:
- MLCommons MLPerf Inference v5.0
- NVIDIA blog ufficiale
Approfondimenti:
- Che cos’è un’AI factory?
- Tutti i risultati MLPerf
