Consumer Reports ha pubblicato un rapporto sui rischi della clonazione vocale AI, rivelando la mancanza di misure di sicurezza adeguate per proteggere i consumatori da truffe e impersonificazioni.
Sicurezza carente nei servizi di clonazione vocale AI
Un’indagine di Consumer Reports (CR) ha valutato i prodotti di clonazione vocale di sei aziende: Descript, ElevenLabs, Lovo, PlayHT, Resemble AI e Speechify. Il rapporto ha rivelato che quattro di queste societĂ non adottano misure sufficienti per prevenire abusi, come la creazione non autorizzata di voci artificiali utilizzate per truffe e frodi.
Secondo CR, i ricercatori sono riusciti a creare facilmente cloni vocali con ElevenLabs, Speechify, PlayHT e Lovo, che si basano su semplici autocertificazioni per l’uso dei loro strumenti. Solo Descript e Resemble AI hanno introdotto controlli piĂą rigorosi. Inoltre, quattro delle sei aziende richiedevano solo un’email per registrarsi, facilitando l’accesso indiscriminato a questa tecnologia.
Raccomandazioni per una maggiore protezione
Per ridurre i rischi, CR suggerisce alle aziende di rafforzare la verifica dell’identità e il consenso degli utenti, applicare filigrane all’audio generato, impedire la clonazione di voci di figure pubbliche e implementare filtri automatici contro contenuti fraudolenti.
Il rapporto sollecita, inoltre, le autorità statunitensi a rafforzare la regolamentazione del settore. Consumer Reports ha chiesto alla Federal Trade Commission (FTC) e ai procuratori generali degli stati di applicare le attuali leggi sui diritti dei consumatori e di valutare nuove norme per contrastare l’abuso dell’intelligenza artificiale nella clonazione vocale.
Fonti
- Consumer Reports, “Voice Cloning AI Products Lack Adequate Safeguards”, 10 marzo 2025 –Â consumerreports.org
- Federal Trade Commission, sez. 5 del FTC Act –Â ftc.gov
