X, il fact-checking non funziona: oltre il 90% delle Community Notes non viene preso in considerazione

X, il fact-checking non funziona: oltre il 90% delle Community Notes non viene preso in considerazione

Uno studio rivela che solo una minima parte delle note inviate dagli utenti su X viene effettivamente pubblicata. Il sistema promosso da Elon Musk come alternativa trasparente e scalabile al fact-checking professionale sembra oggi arenarsi su limiti strutturali e mancanza di visibilità

di pubblicata il , alle 17:01 nel canale Web
XTwitter
 

Su oltre 1,7 milioni di Community Notes inviate tra gennaio 2021 e marzo 2025, più del 90% non è stato mai pubblicato. Lo rivela un'analisi del Digital Democracy Institute of the Americas (DDIA), che mette in discussione l'efficacia del sistema di verifica collaborativa adottato da X, la piattaforma di Elon Musk, ex Twitter. Il sistema si basa sulla partecipazione volontaria degli utenti per aggiungere contesto o correggere informazioni in post pubblici, ma la maggior parte dei contributi resta bloccata in attesa di valutazione o non ottiene abbastanza voti per essere mostrata.

Secondo il meccanismo di funzionamento, ogni nota inviata deve essere valutata come "utile" da parte degli utenti, per poter essere approvata e resa visibile sotto al post originale. Nella pratica, però, la soglia di consenso richiesta e la mancanza di visibilità interna fanno sì che gran parte delle note resti ignorata. In particolare, tra le note in lingua inglese il tasso di pubblicazione scende dal 9,5% del 2023 al 4,9% dei primi mesi del 2025. Le note in spagnolo, al contrario, salgono dal 3,6% al 7,1%.

Community Notes

Il rapporto segnala che moltissime note non vengono neppure valutate, probabilmente perché mai mostrate ad altri utenti. La crescita del numero di contributori, invece di migliorare l'efficacia del sistema, accentua i colli di bottiglia legati alla visibilità: un problema che si fa particolarmente evidente per le note in inglese, dato che un numero maggiore di persone interagisce con la piattaforma in questa lingua. "Il sistema si blocca nella fase più cruciale: la visibilità interna che permette agli altri utenti di valutarle", scrive il DDIA.

Tra le anomalie emerse, spicca il caso di un account automatico specializzato nel segnalare truffe legate alle criptovalute. Questo bot pubblica oltre 43.000 note, ma solo il 3,1% di esse viene approvato. Pare, quindi, che, in questo caso come in molti altri, la maggior parte delle note resti invisibile o incapace di raccogliere i voti necessari.

I tempi medi per l'approvazione di una nota migliorano nel tempo: da oltre 100 giorni nel 2022 a circa 14 giorni nel 2025. Ma per il DDIA non basta: "La disinformazione virale, i contenuti tossici o gli errori su eventi in tempo reale si diffondono in poche ore, non in settimane".

L'analisi si basa su dati pubblici del programma Community Notes di X, raccolti dal lancio nel gennaio 2021 fino al 14 marzo 2025. Il dataset comprende quasi 1,8 milioni di note inviate tra gennaio 2021 e marzo 2025, suddivise in quattro tabelle principali: le note stesse, lo storico dello stato delle note, oltre 276 milioni di valutazioni degli utenti (utile o non utile) e dati limitati sui contributori.

Per gestire l’enorme quantità di dati, il team di ricerca del DDIA ha utilizzato Google BigQuery, una piattaforma cloud per query SQL su larga scala, poiché strumenti tradizionali come Excel non erano adeguati. Per identificare la lingua delle note è stato usato il tool Python langdetect, che ha rilevato 55 lingue; l'inglese risultava la lingua prevalente, seguito da spagnolo, giapponese e portoghese. Un controllo manuale su 2.000 note ha confermato l'accuratezza del riconoscimento linguistico al 99%.

Le criticità sollevate sono rilevanti anche perché il modello partecipativo sta per essere adottato da altri colossi del digitale come Meta e TikTok. Le Community Notes si sono dimostrate efficaci nel contrastare alcuni contenuti falsi, come le bufale sui vaccini, ma funzionano solo su temi in cui esiste un consenso diffuso. In casi polarizzati, invece, gli utenti potrebbero valutare le note sulla base delle proprie convinzioni politiche, trasformando lo strumento in un'arma che risente di pregiudizi.

Il programma era stato introdotto sotto la guida di Linda Yaccarino, CEO di X fino alle dimissioni annunciate mercoledì. Nessuna motivazione ufficiale è stata fornita per l'uscita, ma la notizia arrivava mentre esplodeva la polemica sull’intelligenza artificiale Grok, accusata di aver generato contenuti antisemiti e insulti religiosi in post pubblicati sulla piattaforma.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Notturnia11 Luglio 2025, 17:58 #1
Quindi grazie a musk adesso twitter è molto migliore di prima
Buono a sapersi
Larsen11 Luglio 2025, 18:10 #2
eh bhe', mica puo' esserci un open per tutti ehhh... che di fakenews spacciate come "debunking" ne abbiamo gia' piu' che a sufficienza.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^