Apple sta lavorando a un modello di linguaggio di grandi dimensioni (LLM) che verrà eseguito direttamente sui dispositivi, in modo da offrire una maggiore velocità e un più alto livello di privacy, secondo quanto riportato da Mark Gurman di Bloomberg. Nel suo famoso newsletter “Power On”, Gurman ha spiegato che questo LLM sarà alla base delle future funzionalità di intelligenza artificiale generativa di Apple.
A differenza della maggior parte dei servizi di intelligenza artificiale disponibili oggi, il modello di Apple non dipenderà dal cloud, ma verrà eseguito localmente sui dispositivi degli utenti. Questo approccio potrebbe comportare alcune limitazioni in termini di capacità rispetto alle soluzioni basate sul cloud, ma Apple sembra intenzionata a compensare tali limitazioni mediante l’integrazione di tecnologia da fornitori terzi come Google.
A settembre, Gurman aveva già riferito che Apple stava discutendo con Google la possibilità di integrare il suo motore di intelligenza artificiale Gemini nell’iPhone come parte di iOS 18. Tuttavia, la principale motivazione dietro la decisione di Apple di eseguire il proprio LLM sui dispositivi è la maggiore velocità e la tutela della privacy degli utenti.
Apple prevede di promuovere la sua nuova tecnologia di intelligenza artificiale puntando sull’utilità nella vita quotidiana degli utenti, piuttosto che sulla potenza pura del sistema. L’azienda potrebbe svelare ulteriori dettagli sulla sua strategia durante la Worldwide Developers Conference (WWDC) a giugno, quando verranno presentate le principali novità software per il 2024.
La decisione di Apple di sviluppare un LLM che funzioni direttamente sui dispositivi potrebbe segnare una nuova direzione per l’intelligenza artificiale nel settore tecnologico, favorendo soluzioni più sicure e riservate. Gli utenti Apple attendono con impazienza l’annuncio delle nuove funzionalità generative che potrebbero arrivare con iOS 18 e gli aggiornamenti futuri.
_____
Gurman: Apple Working on On-Device LLM for Generative AI Features