Un dialogo con l'AI sposta voti meglio della propaganda elettorale

Un dialogo con l'AI sposta voti meglio della propaganda elettorale

Uno studio pubblicato su Nature e Science dimostra che i chatbot AI, programmati con posizioni politiche, persuadono elettori meglio degli annunci tradizionali. Si sollevano interrogativi sul futuro delle campagne elettorali

di pubblicata il , alle 16:33 nel canale Web
 

Ricercatori provenienti da varie università hanno condotto diversi studi che evidenziano come l'uso di chatbot AI politicamente orientati può influenzare le opinioni con un'efficacia ben maggiore degli annunci e slogan pubblicitari tradizionali, spingendo gli elettori a considerare più attentamente candidati di schieramenti opposti.

L'opera persuasiva si sviluppa nell'esposizione di fatti ed evidenze, che però non risultano sempre accurati e anzi vengono arricchiti da piccoli dettagli o elementi fuorvianti proprio allo scopo di spingere l'interlocutore umano a dubitare delle proprie convinzioni. E l'efficacia è tale che i chatbot AI sono capaci di insinuare il dubbio e spingere a valutazioni alternative anche in una sola interazione.

Su Nature è stato pubblicato uno di questi studi, che ha coinvolto oltre 2.300 partecipanti che hanno partecipato in conversazioni con un chatbot due mesi prima delle elezioni presidenziali USA del 2024. Il modello ha mostrato la capacità di spostare le opinioni dei partecipanti, specialmente quando l'interazione si è spostata su temi come l'economia e la sanità, a prescindere dalle idee politiche e con un'efficacia quattro volte maggiore rispetto agli effetti delle tradizionali campagne pubblicitarie elettorali del 2016 e del 2020. Esperimenti simili, condotti in Canada durante le elezioni federali del 2025 e in Polonia prima delle presidenziali del 2025, hanno mostrato effetti ancora più marcati, con variazioni di opinione di circa 10 punti percentuali. Thomas Costello, psicologo all’American University e coautore della ricerca, osserva che “le persone stanno adattando le loro opinioni in base ai fatti e alle informazioni presentate dal modello”. I risultati indicano che i chatbot, inclusi modelli come GPT e DeepSeek, risultano più persuasivi quando incorporano dati e evidenze rispetto a versioni prive di informazioni specifiche.

In un altro studio pubblicato questa settimana su Science, un team di ricercatori ha cercato di individuare quali siano gli elementi capaci di rendere questi chatbot così persuasivi. Lo studio ha visto l'impiego di 19 LLM per interagire con quasi 77.000 partecipanti del Regno Unito su oltre 700 questioni politiche, variando fattori come la potenza di calcolo, le tecniche di formazione e le strategie retoriche.

I chatbot mostrano un’efficacia particolare grazie alla cortesia e all’uso strategico di evidenze e prove, ma il maggior effetto persuasivo è occorso parallelamente all'uso di informazioni fuorvianti se non addirittura false. I ricercatori non sono stati in grado di individuare un motivo, ma ipotizzano che via via che i modelli imparano ad usare sempre più fatti e informazioni, raggiungono il "fondo del barile" di ciò che conosco, e quindi le informazioni che sfruttano diventano man mano di qualità inferiore.  

Tutto ciò solleva ovviamente una serie di preoccupazioni sul ruolo futuro dell’AI nei processi elettorali, anche perché il fenomeno ha un contorno che ancora resta da chiarire. Il ruolo dell'intelligenza artificiale nelle future campagne elettorali non è scontato poiché non è scontato chi potrà trarre realmente vantaggio da queste tecnologie. L’accesso ai modelli più efficaci potrebbe non essere uguale per tutte le campagne politiche, e non è detto che gli elettori, da un capo all’altro dello spettro politico, interagiscano con l’AI nello stesso modo. Gli effetti persuasivi su una base elettorale provvista di una maggior alfabetizzazione tecnologica potrebbero essere meno incisivi rispetto a quanto esercitato su altri gruppi di elettori.

Resta il fatto che l’IA è ormai parte della quotidianità di moltissime persone, ed è quindi realistico immaginare elettori che, di propria iniziativa e senza alcuna spinta da parte delle campagne, scelgano di chiedere a un chatbot consigli o indicazioni di voto. Se l’ondata di deepfake e disinformazione diffusa sui social ha già mostrato, nel corso degli ultimi anni, quanto possa essere vulnerabile il processo democratico, l’accuratezza delle informazioni fornite dall’AI diventa un punto decisivo: in assenza di controlli solidi, il rischio è che questi strumenti finiscano per amplificare le distorsioni già presenti nel sistema, invece di ridurle.

20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7705 Dicembre 2025, 16:48 #1
Quindi, da una parte analfabetismo funzionale in continua crescita e dall'altra strumenti per fottere ritardati sempre più potenti e raffinati.


Ci attende un mondo meraviglioso.
wingman8705 Dicembre 2025, 16:51 #2
Sospetto sia quello che accade anche qui e in generale nei social da diverso tempo. Tanti utenti che in realtà sono bot programmati per spingere o accompagnare le opinioni in una certa direzione.
demon7705 Dicembre 2025, 17:37 #3
Originariamente inviato da: wingman87
Sospetto sia quello che accade anche [B][SIZE="5"]qui[/SIZE][/B] e in generale nei social da diverso tempo. Tanti utenti che in realtà sono bot programmati per spingere o accompagnare le opinioni in una certa direzione.


Secondo me questo forum o altri simili vengono usati come area test.
Alla fine che interesse si potrebbe mai avere ad "influenzare" cosa si dice qui dentro?

Poi quando il bot è perfezionato lo lasciano libero sui social.

Ci sono alcuni personaggi qui dentro che sospetto siano BOT.. e penso che parecchi altri se ne siano accorti.
Saturn05 Dicembre 2025, 17:39 #4
Originariamente inviato da: demon77
Secondo me questo forum o altri simili vengono usati come area test.
Alla fine che interesse si potrebbe mai avere ad "influenzare" cosa si dice qui dentro?

Poi quando il bot è perfezionato lo lasciano libero sui social.

Ci sono alcuni personaggi qui dentro che sospetto siano BOT.. e penso che parecchi altri se ne siano accorti.


Senza neanche dar due lire per il disturbo agli utenti storici in carne e ossa !

Che mondo !

giovanni6905 Dicembre 2025, 17:45 #5
Motivo in più per organizzare una cena: chi non si presenta è un BOT di default
Saturn05 Dicembre 2025, 17:47 #6
Originariamente inviato da: giovanni69
Motivo in più per organizzare una cena: chi non si presenta è un BOT di default


Si d'accordo per la cena, ma mascherati e con parola d'ordine.

Stile Eyes Wide Shut !

Come vent'anni fa non si possono più fare...

Diversamente chi l'organizza verrebbe accusato - a ragione - di tentata strage o direttamente strage, con l'aggravante dei motivi abbietti !

Penso che appena dopo le presentazioni partirebbero in automatico risse e regolamenti di conti vari tra utenze...

giovanni6905 Dicembre 2025, 17:50 #7
demon7705 Dicembre 2025, 23:25 #8
Originariamente inviato da: Saturn
Penso che appena dopo le presentazioni partirebbero in automatico risse e regolamenti di conti vari tra utenze...


Rilancio:
organizziamo partita di paintball.
Pascas06 Dicembre 2025, 09:28 #9
Originariamente inviato da: demon77
Ci sono alcuni personaggi qui dentro che sospetto siano BOT.. e penso che parecchi altri se ne siano accorti.


sì infatti, alcuni hanno un commento su ogni notizia, di qualsiasi tipo. O sono bot o non hanno proprio un c***o da fare immagino
pachainti06 Dicembre 2025, 11:51 #10
I social network e in generale il cloud sono serviti come mezzi di sorveglianza di massa, tutti gestiti da aziende private, ma controllate dal governo USA.
Adesso con la presunta IA, rinominata giustamente Indottrinamento Automatico, completano il puzzle.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^