Samsung vieta l’uso di strumenti AI generativi da parte dei dipendenti dopo una fuga di dati su ChatGPT I dipendenti hanno accidentalmente divulgato dati sensibili tramite ChatGPT L’azienda sta preparando i propri strumenti interni di intelligenza artificiale
Samsung Electronics Co. vieta ai dipendenti l’uso di popolari strumenti di intelligenza artificiale generativa come ChatGPT dopo aver scoperto che il personale ha caricato codici sensibili sulla piattaforma, causando un contrattempo nella diffusione di questa tecnologia sul luogo di lavoro.
L’azienda con sede a Suwon, in Corea del Sud, ha informato il personale di una delle sue divisioni più importanti lunedì scorso sulla nuova politica attraverso una nota interna consultata da Bloomberg News. L’azienda è preoccupata dal fatto che i dati trasmessi a tali piattaforme di intelligenza artificiale, inclusi Google Bard e Bing, siano archiviati su server esterni, rendendoli difficili da recuperare ed eliminare e potrebbero finire per essere divulgati ad altri utenti, secondo il documento.
L’azienda ha condotto una survey il mese scorso sull’uso degli strumenti di intelligenza artificiale internamente e ha dichiarato che il 65% dei partecipanti crede che tali servizi rappresentino un rischio per la sicurezza. Ad aprile, gli ingegneri di Samsung hanno involontariamente divulgato il codice sorgente interno caricandolo su ChatGPT, secondo la nota. Non è chiaro quali informazioni fossero incluse.
Un rappresentante di Samsung ha confermato che una nota è stata inviata la scorsa settimana vietando l’uso di servizi di intelligenza artificiale generativa.
“L’interesse per le piattaforme di intelligenza artificiale generativa come ChatGPT sta crescendo internamente ed esternamente”, ha dichiarato Samsung al personale. “Sebbene questo interesse si concentri sull’utilità e l’efficienza di queste piattaforme, esistono anche crescenti preoccupazioni per i rischi per la sicurezza presentati dall’intelligenza artificiale generativa.”
___________
“Samsung Bans Staff’s AI Use After Spotting ChatGPT Data Leak“