L’Unione Europea e gli Stati Uniti stanno prendendo provvedimenti per affrontare gli aspetti etici dell’intelligenza artificiale (AI). Nonostante la distanza di migliaia di miglia tra i due continenti, le loro strategie per regolamentare l’AI sono altrettanto diverse. Le cose stanno cambiando rapidamente, con gli ultimi cambiamenti in programma negli Stati Uniti che dovrebbero essere annunciati oggi, circa sette settimane dopo un importante passo avanti dell’Unione Europea.
In entrambe le parti dell’Atlantico, le conseguenze di queste decisioni riguarderanno pratiche diverse, come la determinazione della pena detentiva o la sua scelta.
L’Artificial Intelligence Act (AIA) dell’Unione Europea, approvato dal Consiglio dell’UE il 6 dicembre e che dovrebbe essere considerato dal Parlamento Europeo giĂ a marzo, regolerebbe le applicazioni, i prodotti e i servizi AI secondo una gerarchia basata sul rischio: piĂą alto è il rischio, piĂą rigida è la regola. Se fosse approvato, l’AIA dell’UE sarebbe la prima regolamentazione orizzontale al mondo per l’AI, che coprirebbe tutti i settori e le applicazioni.
Al contrario, negli Stati Uniti non esiste una legge federale che regoli specificamente l’uso dell’AI e si fa affidamento invece su leggi, schemi, quadri, standard e regolamenti esistenti che possono essere utilizzati per guidare l’uso etico dell’AI. Tuttavia, mentre le aziende e il governo possono essere guidati da questi schemi, essi sono volontari e non offrono alcuna protezione ai consumatori che subiscono danni quando l’AI viene utilizzata contro di loro.
Per completare il quadro di azioni federali, i governi locali e statali stanno adottando leggi per affrontare la discriminazione dell’AI nell’occupazione, come a New York City e in tutto lo stato della California, e nell’assicurazione, con una legge in Colorado. Non è stato segnalato alcun provvedimento legislativo proposto o adottato per affrontare l’uso dell’AI nella condanna o nella pena detentiva. Tuttavia, nel 2016, un uomo del Wisconsin, Eric Loomis, ha intentato una causa contro lo stato per una condanna detentiva di sei anni basata in parte su un software AI, secondo quanto riportato dal New York Times. Loomis sosteneva che i suoi diritti
L’ultima linea guida nazionale sull’intelligenza artificiale (AI) negli Stati Uniti dovrebbe essere rilasciata oggi dall’Istituto nazionale di norme e tecnologie (NIST). Il quadro volontario del NIST è stato progettato per aiutare le organizzazioni statunitensi a gestire i rischi dell’AI che potrebbero avere impatti su individui, organizzazioni e societĂ negli Stati Uniti. Il quadro fa questo incorporando considerazioni di attendibilitĂ , come spiegabilitĂ e mitigazione del bias dannoso, nei prodotti, servizi e sistemi di AI.
Secondo Haniyeh Mahmoudian, etica globale dell’AI in DataRobot, “abbiamo ancora bisogno della base dal governo federale, soprattutto in materia di privacy che praticamente ogni persona negli Stati Uniti ha diritto”.
Nel breve termine, ciò che vogliamo fare è coltivare la fiducia, ha dichiarato Elham Tabassi, capo di staff del Laboratorio di tecnologia dell’informazione al NIST. E lo facciamo capendo e gestendo i rischi dei sistemi AI in modo che possa aiutare a preservare le libertĂ civili e i diritti e migliorare la sicurezza, creando al tempo stesso opportunitĂ per l’innovazione.
A lungo termine, parliamo del quadro come attrezzatura per le squadre AI, che siano principalmente persone che progettano, sviluppano o implementano AI, per pensare all’AI da una prospettiva che considera i rischi e gli impatti, ha dichiarato Reva Schwartz, ricercatrice presso il laboratorio IT del NIST.
Prima della pubblicazione del quadro NIST, la Casa Bianca sotto la presidenza di Joe Biden ha emesso il suo Blueprint per una Carta dei diritti dell’AI nel mese di ottobre. Esso definisce cinque principi per guidare l’uso etico dell’AI:
- I sistemi devono essere sicuri ed efficaci
- Gli algoritmi e i sistemi non devono discriminare
- Le persone devono essere protette dalle pratiche abusive dei dati e avere il controllo su come i loro dati vengono utilizzati
- I sistemi automatizzati devono essere trasparenti
- Essere in grado di optare per l’intervento umano invece di un sistema AI deve essere un’opzione
L’approccio regolamentare leggero di Biden sembra seguire il tocco regolamentare leggero preferito dal suo predecessore immediato.
Leggi articolo completo: EU, U.S. Making Moves to Address Ethics in AI