Google DeepMind ha pubblicato il suo sesto Responsible AI Progress Report , tracciando un bilancio dei progressi compiuti nel 2024 per garantire uno sviluppo etico e sicuro dell’intelligenza artificiale. L’azienda ha sottolineato il suo impegno nella governance dell’AI, nel monitoraggio dei rischi e nella creazione di framework per la sicurezza.
Tra i punti salienti del report, spiccano i miglioramenti nei protocolli di sicurezza, il lancio di nuovi modelli avanzati e un’intensificata collaborazione con istituzioni e governi per regolamentare l’uso dell’AI. Google DeepMind ha anche aggiornato il suo Frontier Safety Framework , un sistema di mitigazione dei rischi per le tecnologie AI più potenti, con misure mirate a prevenire utilizzi impropri e garantire trasparenza.
L’azienda ha inoltre rivisto i suoi Principi di Intelligenza Artificiale , puntando su tre pilastri fondamentali: innovazione audace, sviluppo responsabile e progresso collaborativo. Questi aggiornamenti riflettono l’evoluzione dell’AI, che da strumento sperimentale si è trasformata in una tecnologia pervasiva, utilizzata da miliardi di persone.
In un contesto geopolitico complesso, Google DeepMind ribadisce la necessità di una leadership democratica nello sviluppo dell’AI, basata su valori condivisi come libertà ed equità. Con la crescente vicinanza all’Intelligenza Artificiale Generale (AGI), il focus sarà sulla creazione di sistemi sicuri e vantaggiosi per la società.
L’azienda continuerà a investire nella ricerca, aggiornando costantemente policy e framework per garantire che il progresso tecnologico sia accompagnato da un uso responsabile e sicuro.