Il CEO di Nvidia, Jensen Huang, ha dichiarato che i chip AI dell’azienda stanno migliorando a un ritmo più rapido rispetto alla storica Legge di Moore, il principio che per decenni ha guidato il progresso tecnologico. Intervistato da TechCrunchdopo il keynote al CES di Las Vegas, Huang ha spiegato che l’innovazione nell’intero stack tecnologico – dall’architettura ai sistemi fino agli algoritmi – consente a Nvidia di superare i limiti tradizionali dell’industria informatica.
La Legge di Moore, formulata nel 1965 da Gordon Moore, prevedeva il raddoppio dei transistor sui chip ogni due anni, portando a prestazioni sempre più elevate. Tuttavia, questo ritmo di sviluppo ha rallentato negli ultimi anni. Nonostante ciò, Nvidia afferma che il suo superchip GB200 NVL72 è da 30 a 40 volte più veloce nell’inferenza AI rispetto ai precedenti modelli.
Huang ha sottolineato che i miglioramenti nella fase di inferenza ridurranno progressivamente i costi associati ai modelli di ragionamento AI, come il modello o3 di OpenAI. Sebbene queste tecnologie siano oggi costose, Huang ritiene che i progressi consentiranno di abbassare i prezzi, rendendo tali modelli più accessibili.
Il CEO ha anche evidenziato che l’IA sta vivendo una fase di evoluzione senza precedenti, con tre leggi di scalabilità – pre-addestramento, post-addestramento e calcolo in fase di test – che stanno ridefinendo il progresso dell’intelligenza artificiale.
Nvidia, leader globale nella produzione di chip AI, sta guidando questa trasformazione, rendendo i suoi prodotti essenziali per le aziende tecnologiche più avanzate. Con prestazioni 1.000 volte superiori rispetto a dieci anni fa, Huang sostiene che questa traiettoria di sviluppo è destinata a continuare, aprendo nuove possibilità per l’industria dell’AI.