Microsoft amplia la disponibilità dei modelli distillati DeepSeek R1 7B e 14B per i PC Copilot+, potenziando le capacità di intelligenza artificiale su dispositivi edge. L’iniziativa segna un passo avanti nell’integrazione dell’AI direttamente nei PC, offrendo maggiore efficienza e prestazioni avanzate.
L’evoluzione dell’AI su dispositivi locali
Dopo il rilascio della versione DeepSeek R1 1.5B ottimizzata per le unità di elaborazione neurale (NPU), Microsoft annuncia l’estensione a modelli più complessi, eseguibili direttamente su PC Copilot+ con processori Qualcomm Snapdragon X, Intel Core Ultra 200V e AMD Ryzen. Le NPU, capaci di oltre 40 trilioni di operazioni al secondo (TOPS), consentono di eseguire l’inferenza AI in locale, riducendo il consumo energetico e migliorando la velocità di elaborazione.
Efficienza e prestazioni migliorate
L’adozione delle tecnologie di quantizzazione avanzata, come QuaRot e Aqua, consente di mantenere alta la precisione del modello riducendo l’ingombro di memoria. La versione 14B raggiunge circa 8 token al secondo, mentre la versione 1.5B supera i 40 token/sec. Questo approccio ottimizza il ragionamento AI senza aumentare la complessità computazionale.
Un ecosistema integrato tra cloud ed edge
Gli sviluppatori possono ora eseguire questi modelli sia su dispositivi locali sia tramite Azure AI Foundry, garantendo flessibilità nell’elaborazione AI. Il toolkit AI di Visual Studio Code semplifica l’accesso e la sperimentazione con questi modelli, aprendo nuove possibilità per il settore.
Microsoft continua a innovare
Microsoft continua a innovare nell’AI per dispositivi edge, offrendo strumenti avanzati a sviluppatori e aziende. L’integrazione di DeepSeek R1 nei PC Copilot+ segna un passo decisivo verso un’intelligenza artificiale più accessibile ed efficiente.
Fonti:
- Microsoft Blog: DeepSeek R1 su PC Copilot+
- Azure AI Foundry: Catalogo modelli