Ricercatori simulano un social network popolato solo da bot. Indovinate com'è finita?

Un esperimento condotto dall’Università di Amsterdam rivela che le principali strategie per ridurre polarizzazione e hate speech online hanno effetti minimi, o addirittura peggiorano la situazione
di Andrea Bai pubblicata il 20 Agosto 2025, alle 10:11 nel canale WebL'assenza di regole realmente efficaci che possano contrastare nel concreto la diffusione di disinformazione e discorsi d'odio ha reso i social network ambienti per lo più tossici, dove sentimenti negativi come rabbia e indignazione vengono alimentate allo scopo di mantenere gli utenti coinvolti e connessi, e di conseguenza generare fatturato dalle inserzioni pubblicitarie. E' un dato di fatto, e secondo uno studio dell'Università di Amsterdam, è anche una situazione irrimediabile.
I ricercatori hanno condotto un esperimento che sembra dimostrare come il problema sia strutturale e connaturato proprio ai social network, e di conseguenza impossibile da risolvere con interventi semplici. I risultati dell'esperimento vanno comunque considerati con il giusto grado di scetticismo, dato che lo studio non è ancora stato sottoposto a peer-review, ma è comune interessante approfondire l'idea da cui sono partiti Petter Törnberg, assistente professore specializzato in intelligenza artificiale e social media, e il ricercatore Maik Larooij.
I due ricercatori hanno simulato una piattaforma social che è stata popolata interamente ed esclusivamente da chatbot basati sul modello linguistico GPT-4o di OpenAI, con l’obiettivo di capire se esistessero strategie concrete per evitare il degrado osservato su larga scala nelle piattaforme reali.
Gli studiosi hanno analizzato sei possibili strategie di intervento: dal passaggio ai feed in ordine cronologico, alla promozione dei punti di vista più diversificati, fino all’eliminazione di funzioni come le biografie degli account o i contatori pubblici di follower e like. Tuttavia, i risultati si sono rivelati sconfortanti: nessuna delle soluzioni ha avuto un impatto realmente risolutivo e sebbene alcune abbiano mostrato effetti moderati, in diversi casi la situazione è addirittura peggiorata.

Ad esempio la scelta di ordinare il feed in modalità cronologica ha ridotto la disuguaglianza nella distribuzione dell’attenzione, ma ha paradossalmente portato i contenuti estremisti a scalare le prime posizioni. Un risultato che contraddice, nei fatti, le promesse di molte big tech destinate a restare difficilmente raggiungibili.
Secondo Törnberg, il problema non dipende soltanto da contenuti tossici o polarizzanti, ma da come questi plasmano le stesse strutture delle reti sociali. Queste dinamiche retroagiscono sui contenuti proposti, alimentando un circuito vizioso di radicalizzazione. A questo si aggiunge il fenomeno della "disuguaglianza estrema dell’attenzione": una minima parte dei post attira la quasi totalità delle interazioni, lasciando invisibili la maggioranza delle voci.
Lo scenario si complica ulteriormente nell’era dell'intelligenza artificiale generativa, dove contenuti prodotti automaticamente possono amplificare queste dinamiche. “Stiamo già vedendo come diversi attori sfruttino l’IA per produrre contenuti che massimizzano l’attenzione, spesso sotto forma di mis-informazione o messaggi polarizzanti”, ha sottolineato Törnberg. E con modelli sempre più potenti, il rischio è che tali contenuti arrivino a dominare del tutto le piattaforme.
Di fronte a ciò, il ricercatore confessa di avere “difficoltà a immaginare che gli attuali modelli di social media possano sopravvivere a lungo”. In altre parole, le promesse originarie di spazi digitali dedicati al confronto costruttivo e democratico sono sempre più una chimera, sostituite da piattaforme dominate da estremismi, disinformazione e bot.
2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMi sono iscritto qualche mese fa per un certo gruppo specifico, ma facebook fa veramente schifo.
Mi sono iscritto qualche mese fa per un certo gruppo specifico, ma facebook fa veramente schifo.
In realtà su Facebook ci sono anche contenuti interessanti, quello che fa schifo sono i criteri con cui vengono scelti i post che ti compaiono, sono criteri appositamente elaborati per alimentare estremismo e conflittualità. Ci vorrebbe un Facebook dove l'utente può scegliere i criteri dei post da vedere.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".