Un dialogo con l'AI sposta voti meglio della propaganda elettorale
Uno studio pubblicato su Nature e Science dimostra che i chatbot AI, programmati con posizioni politiche, persuadono elettori meglio degli annunci tradizionali. Si sollevano interrogativi sul futuro delle campagne elettorali
di Andrea Bai pubblicata il 05 Dicembre 2025, alle 16:33 nel canale WebRicercatori provenienti da varie università hanno condotto diversi studi che evidenziano come l'uso di chatbot AI politicamente orientati può influenzare le opinioni con un'efficacia ben maggiore degli annunci e slogan pubblicitari tradizionali, spingendo gli elettori a considerare più attentamente candidati di schieramenti opposti.
L'opera persuasiva si sviluppa nell'esposizione di fatti ed evidenze, che però non risultano sempre accurati e anzi vengono arricchiti da piccoli dettagli o elementi fuorvianti proprio allo scopo di spingere l'interlocutore umano a dubitare delle proprie convinzioni. E l'efficacia è tale che i chatbot AI sono capaci di insinuare il dubbio e spingere a valutazioni alternative anche in una sola interazione.
Su Nature è stato pubblicato uno di questi studi, che ha coinvolto oltre 2.300 partecipanti che hanno partecipato in conversazioni con un chatbot due mesi prima delle elezioni presidenziali USA del 2024. Il modello ha mostrato la capacità di spostare le opinioni dei partecipanti, specialmente quando l'interazione si è spostata su temi come l'economia e la sanità, a prescindere dalle idee politiche e con un'efficacia quattro volte maggiore rispetto agli effetti delle tradizionali campagne pubblicitarie elettorali del 2016 e del 2020. Esperimenti simili, condotti in Canada durante le elezioni federali del 2025 e in Polonia prima delle presidenziali del 2025, hanno mostrato effetti ancora più marcati, con variazioni di opinione di circa 10 punti percentuali. Thomas Costello, psicologo all’American University e coautore della ricerca, osserva che “le persone stanno adattando le loro opinioni in base ai fatti e alle informazioni presentate dal modello”. I risultati indicano che i chatbot, inclusi modelli come GPT e DeepSeek, risultano più persuasivi quando incorporano dati e evidenze rispetto a versioni prive di informazioni specifiche.

In un altro studio pubblicato questa settimana su Science, un team di ricercatori ha cercato di individuare quali siano gli elementi capaci di rendere questi chatbot così persuasivi. Lo studio ha visto l'impiego di 19 LLM per interagire con quasi 77.000 partecipanti del Regno Unito su oltre 700 questioni politiche, variando fattori come la potenza di calcolo, le tecniche di formazione e le strategie retoriche.
I chatbot mostrano un’efficacia particolare grazie alla cortesia e all’uso strategico di evidenze e prove, ma il maggior effetto persuasivo è occorso parallelamente all'uso di informazioni fuorvianti se non addirittura false. I ricercatori non sono stati in grado di individuare un motivo, ma ipotizzano che via via che i modelli imparano ad usare sempre più fatti e informazioni, raggiungono il "fondo del barile" di ciò che conosco, e quindi le informazioni che sfruttano diventano man mano di qualità inferiore.
Tutto ciò solleva ovviamente una serie di preoccupazioni sul ruolo futuro dell’AI nei processi elettorali, anche perché il fenomeno ha un contorno che ancora resta da chiarire. Il ruolo dell'intelligenza artificiale nelle future campagne elettorali non è scontato poiché non è scontato chi potrà trarre realmente vantaggio da queste tecnologie. L’accesso ai modelli più efficaci potrebbe non essere uguale per tutte le campagne politiche, e non è detto che gli elettori, da un capo all’altro dello spettro politico, interagiscano con l’AI nello stesso modo. Gli effetti persuasivi su una base elettorale provvista di una maggior alfabetizzazione tecnologica potrebbero essere meno incisivi rispetto a quanto esercitato su altri gruppi di elettori.
Resta il fatto che l’IA è ormai parte della quotidianità di moltissime persone, ed è quindi realistico immaginare elettori che, di propria iniziativa e senza alcuna spinta da parte delle campagne, scelgano di chiedere a un chatbot consigli o indicazioni di voto. Se l’ondata di deepfake e disinformazione diffusa sui social ha già mostrato, nel corso degli ultimi anni, quanto possa essere vulnerabile il processo democratico, l’accuratezza delle informazioni fornite dall’AI diventa un punto decisivo: in assenza di controlli solidi, il rischio è che questi strumenti finiscano per amplificare le distorsioni già presenti nel sistema, invece di ridurle.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCi attende un mondo meraviglioso.
Secondo me questo forum o altri simili vengono usati come area test.
Alla fine che interesse si potrebbe mai avere ad "influenzare" cosa si dice qui dentro?
Poi quando il bot è perfezionato lo lasciano libero sui social.
Ci sono alcuni personaggi qui dentro che sospetto siano BOT.. e penso che parecchi altri se ne siano accorti.
Alla fine che interesse si potrebbe mai avere ad "influenzare" cosa si dice qui dentro?
Poi quando il bot è perfezionato lo lasciano libero sui social.
Ci sono alcuni personaggi qui dentro che sospetto siano BOT.. e penso che parecchi altri se ne siano accorti.
Senza neanche dar due lire per il disturbo agli utenti storici in carne e ossa !
Che mondo !
Si d'accordo per la cena, ma mascherati e con parola d'ordine.
Stile Eyes Wide Shut !
Come vent'anni fa non si possono più fare...
Diversamente chi l'organizza verrebbe accusato - a ragione - di tentata strage o direttamente strage, con l'aggravante dei motivi abbietti !
Penso che appena dopo le presentazioni partirebbero in automatico risse e regolamenti di conti vari tra utenze...
Rilancio:
organizziamo partita di paintball.
sì infatti, alcuni hanno un commento su ogni notizia, di qualsiasi tipo. O sono bot o non hanno proprio un c***o da fare immagino
Adesso con la presunta IA, rinominata giustamente Indottrinamento Automatico, completano il puzzle.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".