Il gigante sudcoreano Samsung ha commesso un grave errore nell’utilizzo di ChatGPT, il servizio di intelligenza artificiale fornito da OpenAI. Utilizzato per risolvere i problemi interni dell’azienda, ChatGPT ha permesso ai dipendenti di inserire dati top secret come input, incluso il codice sorgente di un nuovo programma.
Questo ha portato a tre casi di informazioni riservate che sono trapelate accidentalmente tramite ChatGPT, finendo nelle mani di OpenAI. In uno dei casi, un dipendente ha chiesto all’IA di ottimizzare le sequenze di test per identificare i guasti nei chip, mentre in un altro, ChatGPT ha dovuto convertire gli appunti di una riunione interna in presentazione.
Samsung ha inviato un avvertimento ai propri dipendenti sui potenziali pericoli di fuga di informazioni riservate, poiché una volta archiviate sui server di OpenAI, esse non possono essere più recuperate o cancellate. A seguito di questi incidenti, è comprensibile il blocco di ChatGPT in Italia.
L’episodio di Samsung solleva la questione dell’importanza della consapevolezza nell’utilizzo dell’intelligenza artificiale. Quando si utilizza una tecnologia come ChatGPT, si acconsente implicitamente all’osservazione degli input inviati al chatbot per migliorare la tecnologia stessa. Tuttavia, a volte i dettagli possono sfuggire, portando all’inserimento involontario di dati riservati.
La vicenda di Samsung dimostra la vulnerabilità dei dati sensibili nell’era dell’intelligenza artificiale e dell’economia digitale. È quindi fondamentale che le aziende siano più consapevoli dell’utilizzo dell’IA e che adottino le misure di sicurezza necessarie per proteggere i propri dati sensibili.
________
“Samsung ha usato ChatGPT e commesso un gravissimo errore“