Meta Platforms Inc., già al centro delle polemiche per il suo impatto sulla salute mentale degli adolescenti, ha annunciato un nuovo passo verso il rafforzamento della sicurezza online per i più giovani. A partire dal mese scorso, Instagram ha iniziato a utilizzare un software di intelligenza artificiale chiamato “adult classifier“, che si prefigge di identificare gli utenti minorenni che mentono sulla loro età.
L’introduzione di questo strumento avviene in un contesto di crescente pressione da parte di genitori e legislatori, preoccupati per i rischi legati alla presenza dei minorenni sui social media. Il software, sviluppato da Meta, è in grado di analizzare il profilo di un utente, studiando le interazioni con i contenuti, la lista dei follower e persino i messaggi pubblicati dai suoi amici, come i classici auguri di compleanno, per determinare l’età approssimativa. Se il sistema rileva che un utente potrebbe essere minorenne, il suo account verrà automaticamente spostato in una modalità con impostazioni di privacy più restrittive.
Questa iniziativa si inserisce in un più ampio progetto di Meta per proteggere la privacy dei minori e rispondere alle preoccupazioni che l’azienda sia troppo permissiva nel consentire ai giovani di accedere a contenuti inappropriati o di interagire con adulti non controllati. Nonostante le critiche a questo tipo di monitoraggio, Meta sostiene che l’intelligenza artificiale possa rappresentare un modo efficace per tutelare i ragazzi, senza sacrificare la loro esperienza digitale.
La sfida, tuttavia, rimane quella di bilanciare la protezione degli utenti con il rispetto della loro privacy.