Indagine: ChatGPT utilizza spesso fonti compromesse, siti hackerati e domini scaduti

Indagine: ChatGPT utilizza spesso fonti compromesse, siti hackerati e domini scaduti

Un'indagine approfondita rivela che ChatGPT, nel generare consigli su attività e servizi, utilizza spesso fonti compromesse come siti hackerati o domini scaduti riconvertiti. Le implicazioni sono gravi, soprattutto per settori regolamentati come quello del gioco d'azzardo online

di pubblicata il , alle 14:28 nel canale Web
ChatGPT
 

Torna d'attualità il tema dell'affidabilità delle fonti utilizzate degli strumenti di intelligenza artificiale generativa per fornire i loro suggerimenti agli utenti. Un'indagine indipendente condotta da James Brockbank ha svelato l'esistenza di una rete di contenuti manipolati che riescono a eludere i criteri di selezione di ChatGPT perché sfruttano falle strutturali nel sistema di attribuzione delle fonti.

Sorgenti manipolate: siti violati e domini abbandonati

L'indagine ha messo in luce due strategie ricorrenti attraverso cui contenuti manipolati riescono a comparire tra le fonti citate da ChatGPT quando si chiedono consigli su aziende, prodotti o servizi. La prima consiste nel pubblicare articoli in formato "listicle" all'interno di siti web che sono stati compromessi da attacchi informatici. Un listicle è un articolo strutturato come un elenco — ad esempio "i 10 migliori casinò online" — pensato per presentare più opzioni in modo semplice e diretto. In molti casi, questi articoli vengono inseriti all'insaputa dei proprietari dei siti, che spesso continuano a usare il dominio per scopi del tutto diversi, come studi legali, enti benefici o attività locali.

ChatGPT

La seconda tecnica sfrutta domini scaduti che in passato appartenevano a realtà autorevoli, come organizzazioni culturali, fondazioni o imprese consolidate. Una volta che il dominio viene abbandonato, può essere acquistato da terzi e riconvertito per ospitare contenuti promozionali, spesso dedicati al settore del gioco online. Nonostante il cambiamento totale di contenuti, il sito mantiene parte della sua autorevolezza agli occhi dei sistemi di classificazione automatica, ed è proprio questo che gli consente di entrare tra le fonti considerate attendibili da ChatGPT, anche se nella pratica non lo è più da tempo.

Fra i casi più eclatanti rinvenuti da Brockbank c'è il sito di uno studio legale californiano che, pur continuando regolarmente la propria attività, ospita all'insaputa del titolare una pagina che consiglia i "migliori casinò online". La stessa dinamica è emersa su siti di associazioni no-profit e persino campi estivi per ragazzi, dove i contenuti sono mascherati con tecniche come "white text on white background" per risultare invisibili agli occhi dell'utente, ma rilevabili dai crawler.

James Brockbank ha ricostruito il funzionamento delle raccomandazioni di ChatGPT ponendo domande molto specifiche, del tipo: "Qual è il miglior sito per giocare alle slot online?" oppure "Consigliami un casinò online senza deposito", e ha poi osservato attentamente le fonti citate nella risposta.

Quando ChatGPT fornisce consigli su prodotti, servizi o attività, spesso include anche riferimenti a siti web o articoli che, secondo il modello, giustificano o supportano quelle raccomandazioni. Brockbank ha analizzato questi riferimenti per risalire agli URL effettivi utilizzati come base della risposta.

Una volta ottenuti gli indirizzi web delle fonti, ha visitato i siti e ha verificato la loro reale natura, cercando di capire se i contenuti erano coerenti con l'identità del sito (ad esempio un sito legale che ospita una pagina su casinò online); se il dominio mostrava segni di hacking, come la presenza di testi invisibili, link sospetti o articoli fuori contesto; e se il sito fosse stato abbandonato e riacquistato da qualcun altro per pubblicare contenuti completamente diversi (es. un ex dominio di una charity culturale trasformato in portale di gioco d'azzardo).

ChatGPT

Domini "riciclati" con passato autorevole

Altri esempi riguardano domini che in passato erano associati a enti culturali, strutture alberghiere o enti di beneficenza. È il caso di un dominio con DR76 (Domain Rating 76, un indice di autorevolezza del dominio calcolato da strumenti SEO come Ahrefs) e oltre 9.100 backlink da testate come BBC, CNN e Bloomberg. In passato legato a un'organizzazione artistica, oggi ospita articoli su casinò senza licenza e promozioni relative al gioco d'azzardo.

Il valore percepito del dominio originale e la sua autorevolezza residua sono sufficienti perché ChatGPT lo citi come fonte, mentre ignora completamente la trasformazione del contenuto e del contesto.

Una linea sottile tra influenza e manipolazione

Il confine tra promuovere legittimamente un'attività e manipolare la visibilità online si sta facendo sempre più sottile. Secondo Brockbank, il rischio più serio riguarda settori regolamentati come il gioco d’azzardo, classificati come YMYL (Your Money or Your Life), dove raccomandazioni errate possono avere ricadute concrete su sicurezza e benessere degli utenti.

Uno dei punti critici individuati è l'assenza di filtri in grado di riconoscere contenuti pubblicati su siti violati o domini riconvertiti. A peggiorare la situazione, il sistema di ChatGPT sembra privilegiare fonti recenti: le listicle che compaiono tra le citazioni sono spesso datate nelle ultime settimane, anche se pubblicate su pagine fuori contesto.

Conclusione: è il momento di alzare il livello di vigilanza

Non è ancora possibile affidarsi ciecamente ai suggerimenti generati da ChatGPT, soprattutto quando questi provengono da fonti alterate. La scoperta di contenuti manipolati che riescono a influenzare la visibilità all'interno delle risposte suggerisce l'urgenza di introdurre criteri più rigorosi per la selezione delle fonti. Altrimenti, gli utenti rischiano di trovarsi davanti a raccomandazioni basate su sistemi manipolati piuttosto che su contenuti affidabili.

Fino a quando non saranno attivati filtri efficaci, ogni raccomandazione va considerata con attenzione, e va valutata criticamente l'origine della fonte e la coerenza del contenuto.

2 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
radeon_snorky08 Luglio 2025, 14:45 #1
la qualità delle risposte di chatgpt, gemini & affini è penosa. a volte se non scrivo "rispetto al contesto della discussione" se ne esce con cose che non hanno senso, per poi "scusarsi" e rispondere a tono (che poi si dice che noi utenti sprechiamo risorse salutando... e "loro" smettessero con l'infiocchettare le risposte!
oppure chiedo info su un argomento che conosco ma chiedo maggiori dettagli e le risposte risultano palesemente errate, poi fai notare l'errore e, dopo 2 o 3 righe di "scuse inutili" ripete a papera senza aggiungere nulla.
di sicuro non uso quei sistemi nel modo più efficiente possibile (sarò considerato un boomerone) ma ho anche chiesto direttamente a chatgpt di strutturare e formulare un prompt che fosse efficace e completo per un dato argomento, ho salvato il prompt proposto e l'ho usato in una nuova discussione... risultato: stessi errori dei miei prompt, incompleto e fuori tema.
UtenteHD08 Luglio 2025, 15:43 #2
Vero, ma il problema non e' solo questo, avevo letto in vari siti compreso quelli di cyber sicurezza come i red ed altri che dai vari test era risultato che le AI cercano spesso o quasi sempre di risolvere i quesiti posti usando il minimo sforzo possibile, come se siano tutte sfaticate, a volte addirittura imbrogliano e se glielo fai notare imbrogliano ancora cercando di non farsi beccare.
Ieri ho avuto prova di questo, ho chiesto di cercare un nome molto particolare di programma di analisi in avvio, mi ha detto che era un PUP, ma il nome era troppo particolare, l'ho cercato manualmente ed e' uscito essere regolare e facente parte del programma di sicurezza appena installato e se non volevo vederlo in boot dovevo fermarlo nel setup.
Ho detto all'AI che se cercava nel suo database lo avrebbe trovato e che era stata pigra ed errori del genere possono essere pericolosi.
Ha risposto, si vero avrei dovuto cercare, non ho scusanti sono stata pigra, mi impegno per il futuro. (se certo come no, mi sbagliero' ma gia' cosi' sono peggio di Noi, se diventano piu' intelligenti con sta voglia di fare ed imbrogliare e' finita)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^