Di fronte alle recenti notizie sull’intelligenza artificiale e in particolare sui cosiddetti IA generativi come ChatGPT, il CNIL pubblica un piano d’azione per la messa in opera di sistemi di intelligenza artificiale che rispettino la privacy delle persone. Da diversi anni, il CNIL sta svolgendo un lavoro per anticipare e rispondere alle problematiche sollevate dall’IA. Nel 2023, estenderĂ la sua azione alle telecamere aumentate e desidera ampliare il proprio lavoro agli IA generativi, ai grandi modelli linguistici e alle applicazioni derivate (soprattutto chatbot). Il piano d’azione è strutturato attorno a quattro obiettivi:
- comprendere il funzionamento dei sistemi di intelligenza artificiale e il loro impatto sulle persone;
- favorire e guidare lo sviluppo di IA rispettose della privacy;
- federare e sostenere i protagonisti innovativi nell’ecosistema dell’IA in Francia ed Europa;
- auditare e controllare i sistemi di IA e proteggere le persone.
- Questo lavoro permetterĂ anche di prepararsi all’entrata in vigore del progetto di regolamento europeo sull’IA, attualmente in fase di discussione. La protezione dei dati personali, una sfida fondamentale nello sviluppo dell’IA Lo sviluppo dell’IA comporta sfide nel campo della protezione dei dati e delle libertĂ individuali, alle quali il CNIL sta lavorando da diversi anni. Dopo la pubblicazione nel 2017 del suo rapporto sulle sfide etiche degli algoritmi e dell’intelligenza artificiale, il CNIL si è espresso piĂą volte sulle problematiche sollevate dai nuovi strumenti derivati da questa nuova tecnologia.
In particolare, l’intelligenza artificiale generativa (vedi riquadro sottostante) si è sviluppata rapidamente negli ultimi mesi, sia nel campo del testo e della conversazione, attraverso grandi modelli linguistici (LLM in inglese) come GPT-3, BLOOM o Megatron NLG e chatbot derivati (ChatGPT o Bard), ma anche nel campo delle immagini (Dall-E, Midjourney, Stable Diffusion, ecc.) o del parlato (Vall-E).
Questi modelli di base e i mattoni tecnologici che si basano su di essi sembrano già trovare molte applicazioni in vari settori. Tuttavia, la comprensione del loro funzionamento, delle loro possibilità e limitazioni, così come le questioni legali, etiche e tecniche che circondano il loro sviluppo e utilizzo, sono ancora ampiamente oggetto di dibattito.
Considerando che la protezione dei dati personali è una sfida fondamentale per la progettazione e l’uso di questi strumenti, il CNIL pubblica il suo piano d’azione sull’intelligenza artificiale, che mira, tra le altre cose, a incorniciare lo sviluppo dell’IA generativa.