L’AI Act dell’Unione europea è un atto fondamentale della legislazione europea che disciplina l’uso dell’intelligenza artificiale in Europa, in fase di elaborazione da oltre due anni. Il suo obiettivo è quello di classificare diversi strumenti di intelligenza artificiale in base al loro livello di rischio percepito, da basso a inaccettabile. In tal modo, i governi e le aziende che utilizzano questi strumenti avranno obblighi diversi, a seconda del livello di rischio.
La portata dell’AI Act è espansiva e disciplinerà chiunque fornisca un prodotto o un servizio che utilizza l’intelligenza artificiale. La legge riguarderà i sistemi in grado di generare output come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti. Oltre agli usi dell’IA da parte delle aziende, esaminerà anche l’IA utilizzata nel settore pubblico e nelle forze dell’ordine.
Gli strumenti di intelligenza artificiale ad alto rischio sono quelli utilizzati nelle infrastrutture critiche, nelle forze dell’ordine o nell’istruzione. Non sono banditi a titolo definitivo, ma coloro che utilizzano IA ad alto rischio saranno probabilmente obbligati a completare rigorose valutazioni del rischio, registrare le proprie attività e mettere i dati a disposizione delle autorità per il controllo. Ciò potrebbe aumentare i costi di conformità per le aziende.
Un GPAIS (General Purpose AI System) è una categoria proposta dai legislatori per tenere conto degli strumenti di intelligenza artificiale con più di un’applicazione. I legislatori stanno attualmente discutendo se tutte le forme di GPAIS saranno designate ad alto rischio e cosa significherebbe per le aziende tecnologiche che desiderano adottare l’IA nei loro prodotti. Il progetto non chiarisce a quali obblighi sarebbero soggetti i produttori di sistemi di IA.
Le proposte affermano che coloro che violano l’AI Act rischiano multe fino a 30 milioni di euro o il 6% dei profitti globali, a seconda di quale sia il più alto. Questo potrebbe significare una multa di oltre $ 10 miliardi per un’azienda come Microsoft, che sostiene il creatore di ChatGPT OpenAI, se trovata a violare le regole.
L’AI Act dell’UE è attualmente in fase di discussione tra i parlamentari e, una volta raggiunto un terreno comune, ci sarà un trilogo tra i rappresentanti del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea. Dopo che i termini saranno definiti, ci sarebbe un periodo di grazia di circa due anni.
Dopo che i termini saranno definiti, ci sarebbe un periodo di grazia di circa due anni per consentire alle parti interessate di conformarsi ai regolamenti. In generale, la legge sull’IA dell’Unione europea rappresenta un importante passo avanti nella regolamentazione dell’intelligenza artificiale e nel garantire che la tecnologia venga utilizzata in modo etico e sicuro.
L’Intelligenza Artificiale (IA) sta rivoluzionando il mondo, e l’Unione Europea (UE) vuole diventare un hub globale per l’IA affidabile e centrata sull’uomo. Il pacchetto sull’IA presentato dalla Commissione Europea a partire dall’aprile 2021 comprende una comunicazione sulla promozione di un approccio europeo all’IA, un aggiornamento del piano coordinato sull’IA con gli Stati membri dell’UE e una proposta di regolamento che stabilisce norme armonizzate in materia di IA e relativa valutazione d’impatto.
L’UE promuove l’eccellenza nell’IA attraverso regole e azioni concrete, al fine di rendere l’IA una forza per il bene nella società e di costruire una leadership strategica in settori ad alto impatto. In particolare, la Commissione e gli Stati membri si sono impegnati a promuovere l’eccellenza nell’IA unendo le forze in materia di politiche e investimenti.
La Commissione prevede di investire 1 miliardo di EUR all’anno nell’IA attraverso i programmi Europa digitale e Orizzonte Europa, mobilitando ulteriori investimenti del settore privato e degli Stati membri per raggiungere un volume annuo di investimenti pari a 20 miliardi di EUR nel corso del decennio digitale. Inoltre, il dispositivo per la ripresa e la resilienza mette a disposizione 134 miliardi di EUR per il digitale, consentendo all’Europa di amplificare le sue ambizioni e diventare un leader globale nello sviluppo di un’IA all’avanguardia e affidabile.
Per costruire sistemi di IA ad alte prestazioni e robusti, l’accesso a dati di alta qualità è essenziale. In questo senso, la strategia dell’UE in materia di cibersicurezza, la legge sui servizi digitali e la legge sui mercati digitali e la legge sulla governance dei dati forniscono l’infrastruttura giusta per la costruzione di tali sistemi.
L’approccio dell’UE all’IA è incentrato sull’eccellenza e la fiducia, con l’obiettivo di rafforzare la ricerca e la capacità industriale garantendo al tempo stesso la sicurezza e i diritti fondamentali. L’obiettivo è costruire una resilienza, in modo che le persone e le imprese possano godere dei benefici dell’IA mentre si sentono sicuri e protetti.