Un avatar generato dall’intelligenza artificiale ha tentato di presentare un caso legale davanti alla Corte d’Appello di New York. I giudici hanno interrotto l’udienza, sollevando dubbi su etica, rappresentanza legale e sicurezza.
Il 26 marzo 2025, presso la Divisione d’appello del Primo Dipartimento della Corte Suprema dello Stato di New York, un evento inusuale ha sollevato nuove questioni sull’uso dell’intelligenza artificiale in ambito giuridico. Durante un’udienza trasmessa in streaming sul canale YouTube ufficiale, un avatar AI ha tentato di discutere un caso legale in rappresentanza di Jerome Dewald, cittadino coinvolto in una controversia di lavoro.
L’avatar, programmato per parlare con un linguaggio giuridico appropriato, è apparso in video dichiarandosi “umile pro se” davanti ai giudici. Ma la giudice Sallie Manzanet-Daniels ha prontamente interrotto l’intervento, chiedendo chiarimenti sull’identità del relatore. Alla risposta “L’ho generato io. Non è una persona reale”, l’udienza ha subito una brusca svolta.
La Corte ha sospeso la discussione, evidenziando che solo persone fisiche con capacità giuridica possono presentare argomentazioni legali in aula. L’episodio solleva interrogativi cruciali su come regolamentare l’uso dell’IA nel settore legale, dove rappresentanza, accountability e trasparenza sono elementi essenziali.
Fonti affidabili:
Consigli di approfondimento:
- EU AI Act e giustizia predittiva: rischi e opportunità
- Studio ABA: L’IA nel diritto tra innovazione e responsabilità
Conclusioni: Pro e rischi
Pro:
- Possibilità di semplificare accesso alla giustizia per chi si difende da solo
- Strumento educativo e di supporto tecnico per i non addetti ai lavori
Rischi etici e sociali:
- Mancanza di responsabilità legale
- Manipolazione dell’identità e rischi di disinformazione
- Esclusione di categorie vulnerabili dai processi legittimi
