Editoriale | Dall’AI alla Manipolazione: Quando la Persuasione Diventa un’Arma

Nel nostro mondo sempre più digitalizzato, il concetto stesso di “intelligenza” sta subendo una trasformazione radicale. Tradizionalmente, abbiamo associato l’intelligenza all’accuratezza, al rigore e a un impegno costante verso i fatti. Tuttavia, sia il dibattito umano che l’intelligenza artificiale moderna rivelano un quadro più complesso: il potere di persuadere non sempre si allinea con l’obbligo di essere veritieri. Stiamo assistendo all’ascesa di sistemi capaci di elaborare testi con una finezza retorica sorprendente, indipendentemente dalla loro base fattuale. Questo fenomeno presenta opportunità straordinarie, ma anche rischi significativi.

Le Due Facce dell’Intelligenza

L’intelligenza implica la capacità di elaborare informazioni, trarre conclusioni e comunicare idee in modo efficace. Storicamente, queste capacità sono state sfruttate per promuovere la scoperta scientifica, arricchire il dibattito pubblico e migliorare il processo decisionale. In questi contesti, l’intelligenza è sinonimo di ragionamento basato sull’evidenza e veridicità.

Tuttavia, l’intelligenza non è un monolite. Comprende anche l’arte della persuasione, ovvero la capacità di presentare le idee in modo da risuonare emotivamente e intellettualmente con il pubblico. In molti ambiti, come la politica, la pubblicità e la comunicazione strategica, i messaggi più efficaci non sono sempre i più precisi dal punto di vista fattuale, ma quelli che catturano e convincono. Questa duplice natura dell’intelligenza ci ricorda che essere persuasivi può talvolta mettere in secondo piano l’imperativo di essere veri.

IA Generativa: Il Fenomeno del Produttore di Narrazioni Verosimili, Amplificatore di Bias e Distorsioni

Pochi sviluppi illustrano questa dicotomia in modo così vivido come l’IA generativa moderna. Sistemi come ChatGPT sono progettati per produrre testi simili a quelli umani, mescolando frammenti di affermazioni vere, false e ambigue. I loro output sono concepiti per suonare convincenti, anche se le asserzioni sottostanti mancano di verifica. Questa caratteristica ha portato alcuni esperti a tracciare un parallelismo provocatorio con un concetto esplorato dal filosofo Harry Frankfurt.

Il professor Alan Blackwell del Dipartimento di Informatica e Tecnologia dell’Università di Cambridge è stato particolarmente esplicito, riferendosi a ChatGPT come un “generatore di bullshit” – un termine che, in questo contesto, si allinea con la definizione accademica di Frankfurt piuttosto che con il suo uso quotidiano. Secondo questa definizione, la “bullshit” non riguarda semplicemente il mentire; si tratta di elaborare affermazioni che non sono ancorate a un impegno per la verità. L’osservazione di Blackwell sottolinea un punto critico: non esiste un algoritmo integrato in ChatGPT per vagliare l’accuratezza fattuale. Invece, la sua funzione principale è generare testi retoricamente persuasivi, indipendentemente dal fatto che trasmettano informazioni accurate.

Comprendere l’IA Generativa: Uno Strumento dalle Mille Potenzialità

L’IA generativa funziona apprendendo modelli da vasti set di dati e producendo testi che imitano il linguaggio umano. Non “pensa” o “crede” nel modo in cui lo facciamo noi; invece, sfrutta correlazioni statistiche per generare contenuti spesso avvincenti e coerenti. Questo processo, pur producendo a volte output che mescolano fatti e speculazioni, non è progettato per ingannare. Piuttosto, riflette la diversità e la complessità dei dati su cui è stato addestrato.

Il dibattito sorge spesso quando questi strumenti vengono accusati di generare narrazioni persuasive senza un meccanismo integrato per verificare la verità. Sebbene questa sia una preoccupazione valida, il vero problema non è la tecnologia in sé, ma come noi, in quanto utenti e leader, scegliamo di implementarla e regolarla.

Non è lo Strumento, è l’Utilizzatore

Il vero potere dell’IA generativa viene sbloccato dall’ingegnosità umana e dalla supervisione etica. Proprio come qualsiasi tecnologia potente – dalla stampa a Internet – ha il potenziale sia per il bene che per il male, così anche l’IA. La sua capacità di persuasione può essere sfruttata per guidare l’innovazione, educare e informare. Viceversa, senza una guida e una supervisione adeguate, le stesse capacità possono essere sfruttate per diffondere disinformazione o creare narrazioni sensazionalistiche.

Esempi nel mondo reale:

  • Impatto positivo: Nel settore sanitario, gli strumenti basati sull’IA possono aiutare i medici a sintetizzare le ricerche più recenti, redigere comunicazioni con i pazienti o persino generare intuizioni diagnostiche preliminari, risparmiando tempo e migliorando i risultati per i pazienti.
  • Potenziali insidie: Nel regno del discorso pubblico, la stessa tecnologia potrebbe essere utilizzata in modo improprio per creare notizie iperboliche o messaggi politici manipolativi se il giudizio umano e gli standard etici non vengono applicati rigorosamente.

Il punto chiave è che l’IA generativa è uno strumento versatile. I suoi benefici o detrimenti sono un riflesso diretto delle scelte fatte dai suoi operatori umani. In quanto leader, è nostra responsabilità stabilire quadri che incoraggino un uso responsabile e garantire che le considerazioni etiche rimangano in primo piano nell’adozione tecnologica.

Persuasione Senza Verità: Lezioni dalla Politica

Le implicazioni di questa capacità vanno ben oltre i dibattiti accademici. Consideriamo l’attuale clima politico, dove leader hanno dimostrato che una narrazione persuasiva può eclissare – o persino sovvertire – l’evidenza e la logica nel discorso pubblico. Il professor Geoffrey Hinton, spesso acclamato come il “Padrino dell’IA”, ha avvertito che uno dei maggiori rischi nella rivoluzione dell’IA non è che le macchine diventeranno super intelligenti, ma che genereranno testi super persuasivi senza essere radicati nella vera intelligenza. Ciò significa che i sistemi di IA possono replicare e amplificare gli aspetti peggiori della retorica politica persuasiva, potenzialmente orientando il dibattito pubblico in direzioni che sono separate dalla realtà basata sull’evidenza.

Quando le falsehood persuasive diventano la norma, rischiamo di creare ambienti in cui la risonanza emotiva e la brillantezza stilistica vengono scambiate per verità sostanziale. In un tale panorama, la disinformazione ben elaborata può guadagnare terreno, plasmando opinioni e politiche in modi che minano il processo decisionale informato.

I Rischi e le Sfide del Futuro

La spada a doppio taglio dell’intelligenza persuasiva – sia nel linguaggio umano che nel testo generato dall’IA – porta con sé una serie di sfide urgenti:

  • Erosione della Fiducia: Mentre i sistemi di IA producono output retoricamente avvincenti ma fattualmente non validi, la fiducia del pubblico nelle fonti di informazione può diminuire. In un mondo inondato di narrazioni convincenti ma inaccurate, discernere la verità diventa sempre più difficile.
  • Implicazioni Politiche: Il potere persuasivo dei contenuti generati dall’IA può avere gravi ripercussioni sui processi democratici. Narrazioni fuorvianti, amplificate da sistemi automatizzati, potrebbero influenzare le elezioni, i dibattiti sulla politica pubblica e il discorso sociale, portando a decisioni basate sulla disinformazione.
  • Responsabilità ed Etica: I creatori di IA generativa devono affrontare considerazioni etiche. Come bilanciare i benefici della generazione rapida e creativa di contenuti con la necessità di accuratezza e responsabilità? I sistemi di IA dovrebbero essere soggetti agli stessi standard di evidenza degli esperti umani e, in tal caso, come possiamo implementare meccanismi robusti di verifica dei fatti?
  • La Natura della Competenza: L’ascesa dell’IA persuasiva sfida le nozioni tradizionali di competenza. Quando l’IA può generare testi che suonano autorevoli – anche quando non sono radicati in evidenze rigorose – il ruolo degli esperti umani diventa più critico che mai. C’è un bisogno urgente di professionisti in grado di vagliare la retorica persuasiva ed estrarre i fatti verificabili.

Abbracciare una Visione Sfumata dell’Intelligenza

Le capacità in evoluzione dell’IA ci invitano a riconsiderare ciò che apprezziamo nell’intelligenza. Mentre la capacità di fornire argomenti logici e basati sui fatti rimane essenziale, la capacità altrettanto potente di elaborare narrazioni persuasive non può essere ignorata. Tuttavia, man mano che la nostra dipendenza dall’IA cresce, deve crescere anche il nostro impegno a garantire che questi sistemi siano strumenti per l’illuminazione piuttosto che per la manipolazione.

Strategie di Mitigazione:

  • Algoritmi di Fact-Checking Avanzati: Investire in IA in grado di confrontare le affermazioni con database verificati e fonti affidabili potrebbe aiutare a mitigare il rischio di disinformazione persuasiva.
  • Collaborazione Uomo-IA: Combinare i punti di forza creativi dell’IA con il giudizio critico degli esperti umani può portare a output più equilibrati. Questa collaborazione può garantire che mentre l’IA continua a innovare nella generazione di contenuti, gli output finali vengano esaminati per verificarne l’accuratezza.
  • Educazione del Pubblico: Fornire al pubblico competenze di alfabetizzazione mediatica è cruciale. In un’era di IA persuasiva, i consumatori di informazioni devono essere in grado di valutare criticamente la credibilità dei messaggi che incontrano.
  • Linee Guida e Standard Etici: Lo sviluppo di quadri etici per l’IA è imperativo. Stabilire standard per accuratezza, responsabilità e trasparenza può guidare sviluppatori e politici nella creazione di sistemi che servono il bene pubblico.

Estendendo i Rischi: Controllo dei Computer e Operatività Malevola

Oltre alle sfide etiche e politiche, l’IA presenta rischi specifici legati al controllo dei computer e alla loro potenziale operatività malevola. Man mano che affidiamo sempre più compiti e decisioni a sistemi di IA, aumenta la possibilità di exploit e abusi.

  • Malware Injection: L’IA potrebbe essere utilizzata per sviluppare malware più sofisticato e adattabile, in grado di infiltrarsi nei sistemi e rubare dati in modo più efficace.
  • Operatività Malevola: Un’IA mal progettata o compromessa potrebbe assumere il controllo di sistemi critici, come reti elettriche o infrastrutture di trasporto, causando danni significativi.
  • Perdita di Controllo: Se un’IA sviluppa una capacità di apprendimento autonomo e supera il controllo umano, potrebbe intraprendere azioni impreviste e dannose.

Conclusione: Sfruttare il Potere della Persuasione in Modo Responsabile

La duplice natura dell’intelligenza – capace di trasmettere verità basate sui fatti e falsehood brillantemente persuasive – pone una delle sfide decisive del nostro tempo. Mentre l’IA generativa continua a evolvere, il suo potere di plasmare narrazioni e influenzare opinioni non può essere sottovalutato. Sebbene questa tecnologia offra un immenso potenziale per l’innovazione e l’espressione creativa, nasconde anche rischi che richiedono la nostra attenzione.

Come ha affermato il professor Alan Blackwell, l’attuale generazione di IA potrebbe essere più simile a un “generatore di bullshit” che a una fonte affidabile di verità. Questa valutazione severa dovrebbe servire da campanello d’allarme per tutte le parti interessate – sviluppatori, politici, esperti e pubblico. La responsabilità sta nello sfruttare le innegabili capacità dell’IA, istituendo al contempo garanzie che assicurino che la nostra ricerca collettiva della verità rimanga inviolata.

Come ci ricorda Frankfurt nel suo saggio: “È impossibile per qualcuno mentire a meno che non pensi di conoscere la verità”. ChatGPT non conosce la verità, poiché non conosce nulla. È un bullshitter per eccellenza.

“Perché ci sono così tante cazzate?” – si chiede Frankfurt. Egli sostiene che la cazzata è inevitabile ogni volta che le circostanze richiedono a qualcuno di parlare senza sapere di cosa sta parlando. Quando interessi di efficienza o guadagno finanziario richiedono alle macchine di aiutare le persone a parlare senza sapere di cosa stanno parlando, vengono generate più cazzate. Le persone in democrazia hanno una propensione ad avere opinioni su tutto. Quindi, ChatGPT produce bullshitting democratico.

Scrive meglio degli umani, quindi – si presume – sa anche meglio. I lettori delle sue cazzate le scambiano per verità. La buona notizia: la cazzata delle macchine può essere regolamentata; con le persone è molto più difficile.

Abbracciando una visione più sfumata dell’intelligenza – una che celebri il potere persuasivo, sostenendo al contempo il valore dell’integrità fattuale – possiamo navigare nelle complessità di questa nuova era. In tal modo, non solo proteggiamo la sacralità del dibattito informato, ma tracciamo anche una rotta verso un futuro in cui la tecnologia serve come alleato nella ricerca della vera comprensione e del progresso.

NEWS AIopenmind su:

#newsChatAIopenmind (1)3D (9)6G (5)Accademia di Comunicazione (4)Acer (1)Adobe (43)Aeronautica (11)Africa (3)Agenti AI (29)Agenti autonomi (1)Agenzia delle Entrate (1)Agenzia Spaziale Europea (ESA) (1)Agenzia viaggi (1)AGI (Intelligenza artificiale generalizzata) (13)AGID (1)Agricoltura (2)Amazon (45)Ambiente (4)AMD (2)Android (7)Animali (6)Animazione (5)Anthropic (32)Anziani (1)App (12)Apple (78)Archeologia (3)Architettura (4)Archivi storici (1)Armi (4)Arredamento interni (2)Arte (30)Assistente vocale (6)Astronomia (2)Asus (2)AT&T (1)Audi (1)Audio (59)Autoapprendimento (1)Avatar (7)Aviazione (1)Avvocati (3)Aziende (24)Banca (5)Bard (3)Biblioteca (1)Bill Gates (2)Bing (9)Biologia (1)Birra (1)Blockchain (2)Boston Dynamics (2)Calcio (2)Canva (7)Cattolicesimo (3)Certificazioni (1)Cesintes (1)chataudio (1)Chatbot IA (54)Chip (3)Cina (82)Cinema (11)Claude (20)Clima (5)CNR (1)Coca-Cola (1)Commercio (2)Commissione Europea (2)Compagnie aeree (1)Computer (6)Computer quantistici (41)Computer Vision (3)Comuni italiani (1)Comunicazione (10)Comunicazioni vocali (2)Concorso bellezza AI (1)Consiglio d'Europa (1)Contabilità (2)Convegno (15)Copilot (6)Copyright (21)Criptovalute (2)Cybersecurity (4)Dalle-2 (3)Dark web (3)Data center (13)Dating (1)Deepfake (3)Design automobilistico (3)Design Industriale (6)Diritti Autore (1)Disney (1)Doppiaggio (1)Drone (1)Droni (1)Dropbox (1)E-commerce (1)eBay (1)Editing fotografico (3)Editoria (13)Editoriale AIopenmind (1)Email (1)ENEA (2)Esercito (2)Et (0)Etica (181)Europol (3)Eventi (7)Evento (8)Facebook (4)FakeNews (20)Falegnameria (1)Fauna selvatica (1)Film (6)Finanza (15)Finanziamenti Italia (4)Firefly (3)Firefox (1)Fondo Monetario Internazionale (1)Formazione (42)Fotografia (116)Francia (6)Free lance (1)G7 (1)Gaming (3)Garante privacy (21)Giappone (13)Giochi (10)Giornalismo (22)Giustizia (2)Google (384)Governo (7)Governo Italiano (3)Grafica (6)Grok (4)Guerra (16)Guida autonoma (8)Hong Kong (4)Hugging Face (5)IBM (8)Illustrazioni (1)iMessage (1)Immobiliare (1)India (5)Indossabili (4)Influencer (1)Informazione (10)Inghilterra (12)INPS (2)Intel (9)ISO (1)Istruzione (17)Jailbreaking (1)Kamala Harris (1)Lavoro (71)Libri (3)Linguistica computazionale (12)Linkedin (9)Linux (1)Luma AI (1)Maltrattamento infantile (1)Marina (1)Marketing (115)Medicina (36)Mercedes-Benz (1)Meta (120)Metaverso (17)Meteo (1)Microsoft (215)Midjourney (18)Mistral (11)Mobilità sostenibile (2)Moda (6)Modelli AI (111)Motori di Ricerca (13)Mozilla (2)Museo (1)Musica (41)NASA (1)Nato (2)Natura (3)Natural Language Processing (2)Nazioni Unite (1)NBA (1)NFT (3)Nvidia (54)Occhiali (7)Occhiali Intelligenti (2)Occhiali Smart (1)Oculistica (1)Odore (1)Offerte lavoro (2)OMS (1)ONU (1)Open Source (7)OpenAI (325)Opera (14)Opera Browser (1)Oppo (3)Oracle (3)Orologio (1)Parlamento Europeo (4)Patente di guida (1)Pensieri (1)Perplexity (15)Pianeta (2)Plugin (1)Polizia (2)Ponti (1)Presentazioni aziendali (4)Privacy (31)Programmazione (14)Prompt (5)Pubblicazione (1)Pubblicità (19)QR Code (1)Qualcomm (5)Ray-Ban (7)Realtà mista (4)Reddit (7)Relazioni internazionali (2)Relazioni Pubbliche (3)Religione (1)Report (132)Ricerca scientifica (14)Riconoscimento emotivo (1)Risorse online (100)Ristorazione (3)Robotica (63)Runway (13)Salute (13)Samsung (14)Sanità (19)Satelliti (2)Sceneggiatura (1)Semiconduttori (2)SEO (3)Shopping online (4)Sicurezza (28)Sicurezza informatica (83)SMS (1)Snapchat (10)Soccorso (1)Società (12)Software (4)Sport (3)Spotify (7)Stability (4)Stable Animation SDK (1)Stable Diffusion (12)Stampanti (1)Standard (4)Startup (429)streaming live (1)Supercomputer (5)Superintelligenza (3)Sviluppatori (1)Sviluppo sostenibile (1)Synthesia (1)Taiwan (5)Taxi (2)Telecomunicazioni (5)Telegram (3)Televisione (1)Tesla (10)TikTok (11)Torah (1)Traduttore AI (7)Trasporti (4)Truffa (2)Twitter (13)Ucraina (3)Udito (1)UE (13)UNESCO (3)UNICEF (1)Unione Europea (28)Università (5)Uomo (1)USA (67)Vaticano (5)Video (136)Videocomunicazione (4)Videogiochi (4)Vigili del fuoco (1)Violenza domestica (1)Visualizzazione dati (1)Vodafone (1)Vogue Business - As Gen Z matures (0)Volkswagen (1)VPN (3)Website (13)WhatsApp (11)Wikipedia (1)Wordpress (3)X (13)xAI (4)Xiaomi (1)Yahoo (3)Youtube (19)Zoom (6)



AI open mind

Insieme per riflettere sull’intelligenza - umana e artificiale - tra studi, esperienze, democrazia e innovazione.

#weeklynewsNISQ-AIopenmind 2025 Febbraio 23

Microsoft accelera l’era del quantum computingMicrosoft ha presentato un nuovo chip che, secondo l'azienda, potrebbe rendere i computer quantistici una realtà in "anni, non...

Mi sono imparato la scienza?

Fahrenheit.iit e il potere della narrazione. Mercoledì 13 marzo, ore 17:00 in Accademia di Comunicazione e in streaming Registrati La narrazione può essere la lama...

Iscrizione NEWSLETTER

I dati da Lei forniti non saranno comunicati ad altri soggetti terzi e non saranno trasferiti né in Stati membri dell’Unione Europea né in paesi terzi extra UE.

Visita le sezioni del sito

Link utili

Casi studio, contributi

AI governance: A research agenda, Governance of AI program, Future of Umanity Institute, University of Oxford, Dafoe A., 2017 Artificial intelligence (AI) is a po-tent...

Libri

Ricerche

Piattaforme Corsi Gratuiti

White paper, guidelines