Via libera dai regolatori britannici
Meta ha ottenuto il via libera delle autorità del Regno Unito per testare il suo nuovo sistema di riconoscimento facciale anti-frode sulle piattaforme Facebook e Instagram. Inizialmente, questo progetto era stato escluso da Regno Unito e Unione Europea a causa delle rigide normative locali sui dati biometrici​. Oggi, però, dopo un confronto con gli enti regolatori, la società ha confermato che potrà estendere i test anche in UK ed EU​. In altre parole, le autorità britanniche preposte (in particolare quelle che tutelano la privacy e la protezione dei dati) hanno dato l’ok all’iniziativa, a seguito di verifiche sulle misure adottate da Meta. La stessa Meta ha dichiarato di aver consultato regolatori, policy-maker ed esperti privacy durante lo sviluppo, e di aver condotto una rigorosa valutazione interna dei rischi prima di procedere​. Questo dialogo con le autorità ha permesso di allineare il test alle leggi UK sulla protezione dei dati personali, garantendo così il rispetto delle normative in vigore.
Come funziona il sistema di riconoscimento facciale anti-frode
Il sistema di Meta impiega la tecnologia di riconoscimento facciale con due obiettivi principali: individuare annunci pubblicitari fraudolenti (“celeb-bait”) e agevolare il recupero di account compromessi​. In pratica, sono stati sviluppati due strumenti distinti ma complementari:
- Rilevamento di annunci truffa con volti di celebrità  – La piattaforma analizza automaticamente le inserzioni sospette che mostrano l’immagine di personaggi famosi (un tipo comune di scam online). Se un annuncio viene contrassegnato dai sistemi come potenziale truffa contenente la foto di un VIP, l’algoritmo confronta il volto nell’inserzione con le immagini del profilo ufficiale di quella figura pubblica su Facebook e Instagram​. Se c’è riscontro (match) e l’annuncio risulta effettivamente fraudolento, viene bloccato immediatamente​. Meta ha sottolineato che questo meccanismo aiuterà a impedire ai truffatori di sfruttare l’immagine di celebrità per ingannare gli utenti (ad esempio promuovendo falsi investimenti)​. Importante: qualsiasi dato facciale generato per il confronto viene eliminato subito dopo l’analisi, indipendentemente dal risultato, e non viene conservato né riutilizzato per altri scopi​. Ciò significa che la foto dell’inserzione e quella di riferimento vengono usate una tantum per il matching e poi scartate, come misura di tutela della privacy.
- Verifica dell’identità con video-selfie per recupero account – Il secondo strumento mira a prevenire frodi legate agli account (es. furti di account o accessi illeciti) rendendo più rapido il recupero da parte dei legittimi proprietari. In caso di account bloccato, violato da un hacker o di password dimenticata, gli utenti avranno la possibilità facoltativa di verificare la propria identità tramite un breve video selfie​. L’immagine del volto nel video viene confrontata con le foto del profilo dell’utente per confermare che si tratti della stessa persona​standard.co.uk. Se la verifica ha esito positivo, l’utente riottiene l’accesso al proprio account. Meta specifica che questa procedura è volontaria e aggiuntiva (un’alternativa alla classica verifica tramite documento d’identità ) e serve a velocizzare e facilitare la restituzione degli account ai legittimi proprietari​. Anche in questo caso, la società afferma che i dati biometrici raccolti (frame del video selfie) vengono usati solo per il tempo necessario alla verifica e poi immediatamente cancellati​.
 Interfaccia utente di Meta per il recupero di un account tramite verifica con video-selfie. Il sistema guida l’utente a scattare un breve video (“Take a video selfie”) per confermare la propria identità e poter cliccare sul pulsante “Recover”. Meta indica anche che l’immagine del profilo è protetta da abusi con algoritmi anti-scam (icona dello scudo a destra). Entrambi questi strumenti sfruttano algoritmi di face recognition avanzati ma circoscritti a finalità di sicurezza. Lo scopo dichiarato è prevenire le frodi online: da un lato colpire le “truffe con celebrità ” (annunci ingannevoli che usano il volto di personaggi noti per truffare gli utenti), dall’altro impedire accessi non autorizzati e facilitare il recupero di account rubati​. Meta riferisce che i primi test condotti su scala limitata hanno dato risultati promettenti, migliorando la rapidità e l’efficacia nell’individuare questo tipo di truffe rispetto ai metodi tradizionali​
uk.pcmag.com. In sostanza, l’uso mirato del riconoscimento facciale dovrebbe rendere più difficile per i truffatori ingannare gli utentie al contempo più facile per gli utenti legittimi riprendere controllo dei propri profili, rafforzando la sicurezza delle piattaforme​.
Dichiarazioni ufficiali di Meta
Meta ha commentato pubblicamente il lancio di questi test, evidenziando il proprio impegno sia nella lotta alle truffe che nel rispetto della privacy. David Agranovich, direttore del team di sicurezza di Meta, ha spiegato le motivazioni dell’iniziativa affermando: “La sicurezza contro le truffe e la protezione degli account sono priorità per le persone. Stiamo lavorando costantemente a nuovi modi per tenere gli utenti al sicuro tenendo fuori i malintenzionati, e le misure che stiamo implementando questa settimana utilizzano il riconoscimento facciale per aiutarci a bloccare le false truffe con celebrità – comunemente chiamate celeb-bait – e per permettere un recupero più rapido degli account per le persone i cui profili sono stati bloccati o hackerati”​. Questa dichiarazione sottolinea l’approccio di Meta: sfruttare tecnologie avanzate per aumentare la sicurezza, mantenendo però queste funzionalità  limitate a specifici casi anti-frode.
Anche Monika Bickert, vice presidente di Meta per le policy sui contenuti, ha ribadito la finalità di queste soluzioni. Bickert ha evidenziato che l’idea è fornire “più protezione possibile” ai personaggi pubblici maggiormente bersagliati da scam ads, pur lasciando loro la libertà di partecipare o meno al programma (le celebrità coinvolte vengono avvisate e possono scegliere di disattivare questa protezione)​. Secondo Meta, l’adesione dei VIP sarà  su base volontaria (opt-in) in UK ed Europa​, in modo da rispettare le normative locali sul consenso per dati biometrici. Bickert ha inoltre sottolineato che “non appena confermiamo la corrispondenza e determiniamo che l’annuncio è una truffa, lo blocchiamo”, eliminando poi immediatamente i dati facciali usati per il confronto​. Sul fronte account, Meta ha descritto la verifica con selfie-video come “un modo più rapido e semplice” per gli utenti di confermare la propria identità , paragonandola agli strumenti di sblocco biometrico già diffusi negli smartphone​. L’azienda ha quindi comunicato con trasparenza queste nuove misure, ribadendo in ogni sede ufficiale che il riconoscimento facciale sarà impiegato solo per scopi di sicurezza e con tutte le garanzie del caso​.
Meta afferma di aver attentamente valutato privacy e rischi prima di procedere: “Abbiamo vagliato queste misure tramite il nostro solido processo di revisione della privacy e dei rischi, costruendo importanti salvaguardie”, tra cui informare gli utenti su come funzionano gli strumenti, renderne facoltativo l’utilizzo e assicurare la cancellazione immediata dei dati facciali non appena non più necessari​. Si tratta di dichiarazioni ufficiali che intendono rassicurare tanto il pubblico quanto i regolatori sul fatto che l’uso di dati biometrici sarà limitato, protetto e proporzionato all’obiettivo di prevenire frodi​. Meta spera che condividere questo approccio possa anche “informare le difese dell’industria contro le truffe online” in generale​, segno che l’azienda vuole porsi come apripista di soluzioni anti-frode nel settore dei social media.
Implicazioni per la privacy e pareri degli esperti
L’introduzione del riconoscimento facciale da parte di Meta solleva inevitabilmente questioni di privacy e sicurezza dei dati, dato lo storico controverso di questa tecnologia. Basti ricordare che nel 2021 Facebook (ora Meta) disattivò il suo precedente sistema di face recognition – usato ad esempio per taggare automaticamente le foto – proprio a causa delle crescenti preoccupazioni etiche e regolatorie sull’uso di dati biometrici​. In alcuni contesti, Meta ha anche affrontato conseguenze legali significative per l’uso improprio del riconoscimento facciale: ad esempio, negli Stati Uniti ha dovuto pagare sanzioni elevate (oltre 1 miliardo di dollari complessivi) per aver violato normative statali sulla raccolta di dati biometrici senza consenso​. Gli esperti di cybersicurezza e privacy, dunque, osservano con attenzione questo “ritorno” della tecnologia da parte di Meta, divisi tra il riconoscimento dei potenziali benefici anti-frode e i timori per la tutela dei dati personali.
Da un lato, specialisti anti-truffa e operatori del settore sicurezza accolgono positivamente la mossa. “Le truffe online possono avere un impatto devastante sulla vita delle persone, causando perdite economiche, stress emotivo e sfiducia nelle piattaforme”, ricorda Mark Tierney, amministratore delegato dell’organizzazione Stop Scams UK​. Tierney ha definito l’aggiornamento di Meta un “passo cruciale” verso la protezione degli utenti da questo tipo di contenuti ingannevoli​. Egli sottolinea che tutti i settori devono fare la propria parte per creare un ambiente digitale più sicuro, e l’uso di tecnologie avanzate come questa mostra l’impegno di Meta nel contrastare attivamente le frodi online​. In quest’ottica, diversi esperti di sicurezza informatica riconoscono che strumenti di verifica biometrica mirati e ben regolamentati possano effettivamente migliorare la protezione degli account e ridurre le truffe, a patto che siano implementati con cautele rigorose​.
Dall’altro lato, attivisti per la privacy e studiosi mettono in guardia sui rischi intrinseci di queste soluzioni. La tecnologia di riconoscimento facciale, infatti, fa uso di dati personali biometrici immutabili – a differenza di una password, un volto non può essere semplicemente “cambiato” in caso di violazione​. Il professor Keiichi Nakata, esperto di informatica sociale all’Henley Business School, evidenzia preoccupazioni etiche su “come questi dati vengono raccolti, gestiti e conservati, e se l’uso che se ne fa sia accettabile per gli utenti e avvenga in modo responsabile”​. In altri termini, gli esperti chiedono massima trasparenza su dove e per quanto tempo vengono conservati i dati facciali, chi vi può accedere e con quali tutele. Meta ha risposto prevedendo sistemi di opt-in e opt-out (le celebrità possono scegliere di partecipare, gli utenti possono scegliere il video-selfie) e garantendo la cancellazione immediata delle informazioni biometriche dopo l’uso​. Tuttavia, alcuni osservatori rimangono scettici: finché non vi sarà un chiaro quadro regolatorio e meccanismi di auditing indipendente, continuerà a esserci diffidenza verso l’impiego di riconoscimento facciale da parte delle big tech​.
Anche la robustezza tecnica del sistema sarà sotto esame. Gli analisti di sicurezza si chiedono, ad esempio, come il meccanismo reagirà di fronte a deepfake video o immagini sintetiche usate dai truffatori più evoluti​. Meta ha ammesso che al momento non ci sono dati a sufficienza per capire se video deepfake potrebbero ingannare il sistema di verifica, e ha dichiarato che “monitorerà attentamente” la situazione man mano che il test procede​. Questo indica che, pur confidando nella bontà dello strumento, l’azienda è consapevole dei possibili aggiramenti e pronta ad adattare i modelli di riconoscimento se emergessero nuove tattiche fraudolente.
In definitiva, il bilanciamento tra efficacia anti-frode e tutela della privacy sarà cruciale per il successo di questa iniziativa. L’approvazione concessa dai regolatori britannici e europei suggerisce che Meta ha implementato garanzie significative (consenso esplicito, uso circoscritto, cancellazione dati, ecc.) per conformarsi alle normative​. Se da una parte questo test rappresenta un passo innovativo per contrastare truffe online sempre più sofisticate, dall’altra costituisce un importante banco di prova: dimostrare che il riconoscimento facciale può essere utilizzato in modo responsabile e proporzionato, senza intaccare indebitamente la privacy degli utenti. Gli esperti concordano sul fatto che sarà necessario monitorare attentamente l’implementazione pratica di queste misure e i risultati ottenuti, così da valutare se i benefici in termini di sicurezza digitale supereranno i potenziali rischi per i diritti e le libertà personali di milioni di utenti. Con il procedere della sperimentazione nel Regno Unito, il dibattito rimane aperto e serviranno trasparenza e dialogo continuo tra aziende, regolatori, esperti e utenti per tracciare la strada più sicura ed etica nell’uso di tecnologie di riconoscimento facciale.
Fonti:
- Meta (Meta Newsroom) – “Testing New Ways to Combat Scams and Help Restore Access to Compromised Accounts”, aggiornamento 4 marzo 2025​ about.fb.com​about.fb.com.
- Evening Standard / PA News – “Meta brings facial recognition tools to spot celeb scam adverts to the UK”(Martyn Landi, 5 marzo 2025)​ standard.co.uk​standard.co.uk.
- Reuters – “Facebook owner Meta restarts facial recognition tech in ‘celeb-bait’ crackdown” (Byron Kaye & Katie Paul, 22 ottobre 2024)​ reuters.com​reuters.com.
- PCMag – “Meta Revives Facial Recognition to Fight Scams and Account Hijacking” (Michael Kan, 23 ottobre 2024) ​uk.pcmag.com​uk.pcmag.com.
- Stop Scams UK – dichiarazione di Mark Tierney riportata da Evening Standard​standard.co.uk.
- CCN – “Meta’s Facial Recognition Technology — AI Surveillance Tool?” (Kurt Robson, 21 febbraio 2025)​ ccn.com​ccn.com.
- Startmag – “Meta ci riprova con il riconoscimento facciale per scovare le truffe pubblicitarie” (Chiara Rossi, 22 ottobre 2024)​ startmag.it.