Intelligenza Artificiale. La sua messa a terra passa per il delicato equilibrio tra sicurezza e utilità per gli utenti e garanzia di competitività per le imprese. La strada europea verso standards armonizzati: il ruolo degli esperti
Articolo su Economy Stampa (download PDF)
di Diana Daneluz | 28 ottobre 2024
L’Intelligenza Artificiale entra in azienda e nelle organizzazioni, che devono adeguarsi. L’AI Act, quadro normativo europeo in vigore dal 2 agosto, introduce vari adempimenti secondo la classe di rischio a cui appartiene il sistema di AI: rischio inaccettabile, ove ricadono i sistemi proibiti; alto rischio, es. dispositivi medici; rischio di trasparenza, es. sistemi di informazione; minimo o nessun rischio. Come primo adempimento, dal 2 febbraio 2025 i sistemi AI definiti “proibiti” dovranno essere spenti. L’AI Act segue il New Legislative Framework estendendo al mondo dell’immateriale le regole già in uso per la sicurezza del prodotto: potranno essere immessi sul mercato solo i Sistemi AI conformi ai suoi requisiti essenziali.
Tra 113 articoli, 180 “considerando”, 13 allegati dell’AI Act gli articoli sono il riferimento per porre in corrispondenza gli standards esistenti, secondo il loro contenuto e i termini definiti. La gap analysis tra AI Act e standards esistenti agevola da parte della Commissione Europea la richiesta di standards armonizzati condivisi da tutti i Paesi dell’Unione: la legislazione definisce i requisiti che la tecnologia deve soddisfare, le norme armonizzate, sviluppate da Enti di Normazione europei, rendono operativi questi requisiti. Il ruolo degli standards è cruciale: procedure e specifiche che definiscono criteri uniformi per garantire qualità, sicurezza e compatibilità in diversi settori, qui stabiliscono i parametri per sviluppo, uso e implementazione e monitoraggio dei sistemi di AI assicurando che rispettino principi di etica, sicurezza e trasparenza. Un supporto fondamentale al legislatore per un ecosistema normativo coerente, garante di qualità e affidabilità dei sistemi tradizionali in trasformazione e dei sistemi di AI. Il fine è raggiungere eguali condizioni di competitività soprattutto per le piccole e medie imprese e un alto livello di sicurezza e rispetto dei diritti fondamentali per tutti in Europa.
“Per lo sviluppo di standards tecnici per l’AI” – spiega Domenico SQUILLACE (Technical Relation Leader IBM Italia, Presidente UNINFO, della Commissione UNI/CT 533 AI e Commissione UNI/CT 535 Quantum Technologies) sono operativi 2 comitati: uno a livello internazionale ISO/IEC JTC 1 SC 42, uno a livello europeo CEN/CENELEC JTC 21. In quest’ultimo si sviluppano le norme armonizzate per rendere operativo l’AI Act. In Italia i comitati sono gestiti da UNI, Ente italiano di Normazione, tramite la Commissione UNI/CT 533 presso UNINFO, l’Ente Federato di UNI che ha la delega sulla normazione tecnica dell’IT. Per facilitare l’adozione dell’AI e la gestione dei sistemi di AI in Italia, la commissione UNI/CT 533 ha adottato lo standard ISO/IEC 42001:2023 come norma italiana, la traduzione in italiano presto disponibile nel catalogo UNI. Si stanno poi definendo i profili professionali relativi all’AI per piani di formazione verso competenze e skills adeguate”. Un ruolo essenziale quello della formazione per tutti coloro parte attiva nell’adempimento degli obblighi di legge: fornitori, sviluppatori e deployer sono infatti tenuti a garantire (art. 4 AI Act), che il proprio personale soddisfi i requisiti di alfabetizzazione ed educazione, con riferimento ai sistemi di AI in cui operano. Idem per le aziende che decideranno di implementare un Sistema di Gestione AI, in conformità alla ISO/IEC 42001.
Un contributo essenziale – sottolinea SQUILLACE – quello offerto dagli esperti italiani allo sviluppo della standardizzazione – e su tutti gli aspetti al vaglio dei gruppi di lavoro, supervisione generale delle attività, strategia, inclusiveness, Conformity assessment e Risk managemen, Governance, Qualità dei dati, Dataset, Bias, Trustworthiness, Cybersecurity” – con il fine di promuovere un’economia nazionale competitiva e sostenibile, in piena conformità con i principi legislativi e della responsabilità sociale. “Tra gli altri, Riccardo Mariani, per la sua leadership nella definizione delle norme ISO/IEC su Functional Safety, Renaud Difrancesco e Piercosma Bisconti project editor delle norme su Risk Management e Trustworthiness, Valentina Grazia Sapuppo alla guida del team che si occupa della ISO/IEC 42001 sui Sistemi di AI e sua traduzione in italiano, Domenico Natale ed Andrea Trenta per la qualità di applicazioni di Machine Learning, Natale con Luigi Briguglio sul tema della governance e qualità dei dati per aver contribuito a farne una report tecnica a livello europeo JTC21, anticipando l’importanza dei dati come “petrolio” del nuovo millennio e base di riferimento di misurazioni valide anche per l’AI”.
Proprio Domenico NATALE (esperto di standardizzazione ISO/IEC JTC1 SC 7 e SC 42, membro CEN-CENELEC JTC 21 per l’AI, Presidente Commissione UNI/CT 504 Ingegneria del software) spiega come gli standards adottati dalle imprese possano supportare l’AI Act verso un equilibrio tra rischi e vantaggi. “L’AI Act traccia la strada su alcune pietre miliari: una AI affidabile e innovativa centrata sull’uomo, la protezione della salute, della sicurezza, dei diritti fondamentali dell’UE, della democrazia e dello Stato di diritto, dell’ambiente contro gli effetti nocivi dei sistemi di AI. Inoltre, una molteplicità di definizioni impongono un grande sforzo di standardizzazione e l’adozione di presidi differenziati per i diversi settori e contesti di intervento. Agli esperti il compito di fornire nuovi requisiti armonizzati e di offrire al mercato un quadro interconnesso. Fondamentale l’attività di mapping tra AI Act e Standards, ideata nell’ambito della Commissione UNI CT 533 per la concreta messa a terra dell’impianto del Regolamento AI Act, implementata con il supporto dell’associazione italiana AI Open Mind attiva nell’hosting e sviluppo del progetto grazie ai contributi di Antonio Cappella, Nicola Fabiano e Alessandro Stazi, e patrocinata da realtà nazionali e internazionali. Presentata da Natale per la prima volta in Europa a giugno 2024 all’Università di Bath (UK), è ora in rete, al centro dell’attenzione a livello internazionale, e punta ad un allineamento dei termini e delle definizioni utilizzate nell’articolato normativo del Regolamento con l’ausilio degli standards, unendo disciplina legale e norme tecniche. Al momento sono forniti oltre 350 termini con più di 80 standards, abbinati agli Articoli, ai Considerando e agli Allegati dell’AI Act.
AI pervasiva in tutti i settori economico-sociali, tra rischi e vantaggi, ma per NATALE “La bilancia pende verso i secondi: la velocizzazione di servizi ripetitivi, della elaborazione e rappresentatività dei dati in irrefrenabile aumento, l’ottimizzazione di complessità burocratiche, l’approfondimento di scienze naturali e mediche, il progresso nei trasporti intelligenti. Certo, sempre mettendo al centro la protezione dei diritti fondamentali riconosciuti dalla Carta dei diritti fondamentali della UE e dei suoi valori, garantendo trasparenza e funzionamento degli algoritmi. Una buona riuscita dei sistemi di AI dipenderà non solo dall’uso di tecnologie avanzate, ma anche dall’addestramento delle macchine e dal coinvolgimento riconosciuto degli esperti di dominio in grado di trasferire conoscenze ed esperienze dagli uomini alle macchine. Non mancano rischi: nell’era attuale in cui le funzionalità del software (algoritmi) possono auto-modificarsi e adattarsi, c’è quello del temuto scarso controllo umano con impatto sulla sicurezza. Altro rischio il riproporsi del Digital divide per alcuni strati della popolazione a causa di possibile scarsa trasparenza e comprensibilità dei sistemi. L’eventuale utilizzo di dati senza l’adozione di modelli di qualità di riferimento, può portare a informazioni mal trasferite alle macchine intelligenti, e indurre a risultati errati. Le conseguenze degli automatismi dell’AI sui posti di lavoro poi, sono da prevedere in anticipo per ridurre i rischi occupazionali, con studi separati nei vari settori economici. E c’è il tema della sostenibilità dell’energia necessaria all’AI, altro importante campo di intervento da tener presente per la mitigazione di rischi economico-sociali”.
Una questione di fiducia. La necessità di standards è particolarmente evidente nell’AI, dove l’assenza di linee guida universali potrebbe comportare rischi significativi. Standards chiari e condivisi contribuiscono non solo a ridurre i rischi, ma anche a garantire che diverse tecnologie possano interagire tra loro in maniera fluida e compatibile. La standardizzazione, pertanto, non è solo un vincolo, ma strumento per favorire innovazione, fiducia di utenti finali e stakeholder in questa nuova evoluzione della scienza dei computer e adozione globale della tecnologia.