L’AI generativa è minacciata dalla propaganda russa: un’indagine rivela come la rete Pravda manipoli i chatbot con false informazioni.
Un’indagine rivela come i chatbot AI siano influenzati da false narrazioni pro-Cremlino
Un recente audit di NewsGuard ha evidenziato come i principali strumenti di intelligenza artificiale generativa siano vulnerabili alla disinformazione russa. L’indagine ha scoperto che il 33% delle risposte fornite dai chatbot AI testati ripeteva false narrazioni della rete “Pravda”, un’organizzazione con sede a Mosca specializzata nella diffusione di propaganda.
Secondo il rapporto, questa rete, attiva dal 2022, ha prodotto oltre 3,6 milioni di articoli nel 2024, utilizzando sofisticate strategie SEO per infiltrare i dati dei modelli AI. L’obiettivo non è raggiungere direttamente il pubblico umano, ma piuttosto alterare le fonti consultate dai chatbot, aumentando la probabilità che questi diffondano disinformazione.
NewsGuard ha analizzato dieci chatbot AI, tra cui ChatGPT-4o, Gemini di Google e Copilot di Microsoft, testandoli con quindici false narrazioni pro-Cremlino. I risultati mostrano che, in oltre il 33% dei casi, i modelli AI hanno ripetuto disinformazione, mentre nel 48% delle risposte hanno fornito smentite.
Esperti del settore avvertono che questa infiltrazione potrebbe avere implicazioni geopolitiche e sociali rilevanti, alterando la percezione pubblica di eventi chiave. Organizzazioni di fact-checking come NewsGuard e l’American Sunlight Project sollecitano le aziende AI a migliorare i sistemi di rilevamento delle fonti per ridurre l’influenza di reti di disinformazione come Pravda.
Fonti:
- NewsGuard
- American Sunlight Project: Analisi su AI e disinformazione
- Viginum, agenzia governativa francese: Indagine sulla rete Pravda
