Il Regno Unito ha annunciato una significativa riorganizzazione del suo ente dedicato alla sicurezza nell’intelligenza artificiale, rinominandolo “AI Security Institute” e orientando la sua missione verso la protezione contro minacce come attacchi informatici, armi chimiche e biologiche, frodi e abusi sui minori. Questa mossa segna un allontanamento dalle precedenti priorità, che includevano la ricerca su bias e libertà di espressione, in favore di un approccio focalizzato sulla sicurezza nazionale e la protezione dei cittadini.
Il Segretario alla Tecnologia, Peter Kyle, ha dichiarato che questa trasformazione mira a garantire che i cittadini britannici siano protetti da coloro che potrebbero utilizzare l’IA contro le istituzioni e i valori democratici del paese. L’istituto collaborerà strettamente con il Ministero dell’Interno per formare un team dedicato alla “criminal misuse”, concentrandosi sull’uso criminale dell’IA.
Parallelamente, il governo britannico ha firmato un protocollo d’intesa con la startup statunitense Anthropic per esplorare l’utilizzo del loro chatbot avanzato, Claude, al fine di migliorare l’interazione dei cittadini con le informazioni e i servizi pubblici. Anthropic, sostenuta da giganti tecnologici come Google e Amazon, è considerata una rivale di OpenAI, l’azienda dietro ChatGPT. Claude è già impiegato da istituzioni come il Parlamento Europeo per facilitare l’accesso agli archivi e ridurre i tempi di ricerca e analisi dei documenti.
Queste iniziative riflettono l’impegno del Primo Ministro Keir Starmer nel posizionare il Regno Unito come una “superpotenza” nell’intelligenza artificiale, promuovendo l’uso dell’IA per incrementare la produttività dei servizi pubblici e adottando un approccio proattivo nella regolamentazione del settore. La collaborazione con Anthropic e la riorganizzazione dell’AI Security Institute sottolineano la determinazione del governo nel garantire che i benefici dell’IA siano percepiti in modo sicuro e responsabile dai cittadini e dalle imprese britanniche.