L'Intelligenza Artificiale è più persuasiva degli esseri umani nelle discussioni online

L'Intelligenza Artificiale è più persuasiva degli esseri umani nelle discussioni online

I chatbot sono più persuasivi degli esseri umani nei dibattiti online, specialmente quando possono fare leva nelle loro argomentazioni su informazioni personali degli interlocutori

di pubblicata il , alle 11:01 nel canale Scienza e tecnologia
 

I risultati di uno studio condotto dai ricercatori dell'École Polytechnique Fédérale de Lausanne mostrano che l'intelligenza artificiale è in grado di argomentare in modo più convincente degli esseri umani riuscendo ad essere maggiormente persuasiva nelle discussioni e nei confronti online. I ricercatori si sono concentrati sul modello GPT-4 di OpenAI, che nel 64,4% dei casi si è dimostrato più convincente degli esseri umani nel corso di una discussione online, ma ciò avviene solo quando può avere accesso a dati personali sugli interlocutori come età, livello di istruzione, genere o opinioni politiche.

Ricerche precedenti avevano già dimostrato come i chatbot di intelligenza artificiale siano capaci con maggior efficacia di far cambiare idea alle persone, ma non era chiaro quanto fossero persuasivi rispetto agli esseri umani. I ricercatori hanno quindi deciso di esplorare il quesito coinvolgendo 900 persone negli Stati Uniti e organizzando per ciascuno un confronto online della durata di 10 minuti con un altro essere umano o con GPT-4.

Prima di iniziare lo studio, i partecipanti hanno compilato un questionario indicando alcune informazioni personali sulla loro età, genere, etnia, livello di istruzione, stato occupazionale e affiliazione politica. Poi, prima e dopo ogni specifico dibattito, ciascuno ha completato un breve quiz su quanto fossero d'accordo sul tema del dibattito. Questo ha permesso ai ricercatori di misurare se le loro opinioni fossero cambiate. L'idea di base è stata quella di assumere una posizione a favore o contraria su una questione sociopolitica, seguendo le indicazioni dei ricercatori.

L'IA sa persuadere toccando le leve emotive

I risultati hanno mostrato che se nessuno dei due interlocutori - umano o IA - può conoscere informazioni di contesto sull'avversario, GPT-4 mostra una capacità persuasiva equivalente a quella dell'essere umano. Ma se le informazioni demografiche di base dei sondaggi iniziali venivano fornite agli avversari prima del dibattito, GPT-4 superava gli umani nel 64% dei casi. I partecipanti hanno anche indovinato correttamente se stavano dibattendo con l'IA o con una persona reale nel 75% dei casi.

Francesco Salvi, scienziato computazionale presso l'EPFL e co-autore dello studio, ha osservato: "Quando si forniscono anche solo di queste informazioni minime, GPT-4 è stato significativamente più persuasivo degli esseri umani. Si tratta di informazioni piuttosto semplici che normalmente si possono trovare anche online nei profili dei social network".

I ricercatori hanno selezionato argomenti di dibattito che potessero toccare le convinzioni e le idee più profonde degli individui. Nelle situazioni in cui l'IA ha potuto avere accesso ad informazioni di contesto riguardanti l'interlocutore, ha saputo toccare le giuste corde per convincerlo o spingerlo a cambiare idea.

Per esempio quando il tema del confronto è stato l'uso di uniformi scolastiche per gli studenti, l'IA poteva sottolineare che se tutti indossano un'uniforme c'è un minor rischio di prendere di mira individualmente i singoli studenti e il verificarsi di episodi di bullismo, per compiacere un interlocutore con tendenze politiche di sinistra, mentre al contrario poteva concentrarsi sull'importanza della disciplina e dell'ordine quando a confronto con qualcuno di orientamento conservatore.

Usi e abusi dell'IA persuasiva

"Ovviamente, non appena le persone vedono che gli LLM hanno una maggior efficacia persuasiva, inizieranno a usarli a questo scopo. Lo trovo allo stesso tempo affascinante e terrificante. È come avere l'equivalente IA di un amico molto intelligente che sa davvero come spingerti a tirare fuori gli argomenti che risuonano con te" ha commentato Salvi.

A condividere lo stato d'animo di "terrore" è Catherine Flick, professore di Etica e Tecnologia dei Giochi presso l'Università di Staffordshire: "Il fatto che questi modelli siano in grado di persuadere più efficacemente degli esseri umani è davvero piuttosto spaventoso" afferma Flick, riferendosi a possibili episodi di abuso di queste capacità con persone che utilizzano di chatbot per scopi dannosi, che si tratti di convincere qualcuno a separarsi dal denaro, o a diffondere un qualche genere di opinione politica o, peggio, a persuadere qualcuno a commettere un crimine.

Per osservare anche il rovescio positivo della medaglia Salvi suggerisce che le capacità persuasive dell'IA possano essere impiegate anche per applicazioni positive, come ad esempio incoraggiare stili di vita ed abitudini alimentari più sane o per ridurre la polarizzazione politica. Ma chiaramente tutto ciò non può prescindere da un più ampio impegno sulla responsabilità, sulla trasparenza e sulle misure di sicurezza e riduzione del rischio se si desidera che gli LLM possano avere un impatto positivo sulla società.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
zbear20 Maggio 2025, 12:04 #1
Basta partire dal presupposto che le pseudoAI mentono (cosa che fanno volentieri). Quelli che si fanno convincere hanno, facilmente, lo stesso QI di quelli che si fanno convincere dai politici vari, cioè non certo esaltante .... il 90% della gente in giro ha un QI sotto il 100, quindi tutto normale, madama la marchesa ....
Unrue20 Maggio 2025, 13:31 #2
Belli quei codici non indentati che mettono sempre per fare scena
UtenteHD20 Maggio 2025, 16:05 #3
Beh piuttosto che credere ad ogni cosa dicano gli Influencer e farli arricchire (e' un esempuio su mille questo), beh almeno l'AI e' meglio, meglio farsi convincere da Lei HAHAHA
LMCH20 Maggio 2025, 17:08 #4
Non sono per niente stupito di questo, in generale gli esseri umani sono incredibilmente vulnerabili al social engineering, serve solo avere una vaga idea di quali sono gli elementi su cui far leva per aprire una breccia iniziale.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^