Nick Clegg, presidente degli affari globali di Meta, ha ammesso che i sistemi di moderazione dell’azienda stanno commettendo troppi errori, portando alla rimozione di contenuti innocui. Durante una conferenza stampa, Clegg ha sottolineato che la precisione nell’applicazione delle regole è ancora insufficiente, limitando la libertà di espressione, uno dei principi fondanti della piattaforma.
“Troppo spesso contenuti innocui vengono eliminati o penalizzati ingiustamente,” ha dichiarato Clegg, aggiungendo che l’azienda è consapevole delle lamentele degli utenti e sta lavorando per migliorare i sistemi automatizzati di controllo.
Un esempio significativo è emerso durante la pandemia da Covid-19, quando Meta ha adottato politiche rigorose per contrastare la disinformazione. Tuttavia, con il senno di poi, Clegg ha ammesso che molte rimozioni erano eccessive. “Non sapevamo come si sarebbe sviluppata la pandemia, ma ora riconosciamo che abbiamo esagerato,” ha affermato.
Il problema della moderazione è tornato alla ribalta con errori recenti, tra cui la censura di foto del presidente eletto Donald Trump, un fatto che ha scatenato critiche e richieste di revisione delle politiche aziendali. Nonostante l’impegno per una moderazione più precisa, Clegg ha descritto le regole di Meta come “un documento vivo e in evoluzione,” senza annunciare cambiamenti concreti a breve termine.
Le dichiarazioni giungono in un momento delicato, con Meta sotto pressione per bilanciare libertà di espressione e sicurezza dei contenuti, specialmente in vista delle elezioni presidenziali statunitensi del 2024.