Slack, il popolare strumento di comunicazione aziendale, è al centro di una controversia riguardante l’uso dei dati dei suoi utenti per addestrare modelli di intelligenza artificiale. Senza un esplicito consenso, Slack analizza messaggi, file e altri contenuti inviati sulla piattaforma per migliorare i suoi modelli di machine learning, come quelli per le raccomandazioni di canali ed emoji, nonché per i risultati di ricerca.
La notizia è emersa grazie a Corey Quinn, un dirigente del DuckBill Group, che ha individuato questa pratica nelle Politiche sulla Privacy di Slack e ne ha parlato su X (precedentemente noto come Twitter). Slack ha poi pubblicato un post sul blog per chiarire che i dati dei clienti non vengono utilizzati per addestrare i suoi prodotti di intelligenza artificiale generativa, che si basano su modelli di terze parti. Tuttavia, i modelli di machine learning tradizionali di Slack utilizzano dati aggregati e de-identificati, escludendo i contenuti dei messaggi nelle chat private e nei canali pubblici.
Per chi volesse escludere i propri dati da questo processo, Slack richiede che il proprietario o l’amministratore del workspace invii una richiesta via email. Questo solleva preoccupazioni sulla trasparenza e la facilità di gestione della privacy dei dati per gli utenti finali. Infatti, dipendenti e membri di un’organizzazione devono fare affidamento sui loro amministratori per proteggere la loro privacy.
Inoltre, c’è una certa confusione derivante dalle dichiarazioni contrastanti nelle politiche di Slack. Se da un lato l’azienda afferma che i dati dei clienti non vengono utilizzati per addestrare l’AI, dall’altro si scopre che alcuni modelli di machine learning si basano su tali dati. Questa ambiguità alimenta le preoccupazioni degli utenti sulla sicurezza e la gestione delle loro informazioni personali.
____
Slack has been using data from your chats to train its machine learning models