Gli assistenti IA faticano a riconoscere i fatti dalle opinioni, distorcendo le notizie: lo studio
Gli assistenti IA stanno diventando sempre più presenti nelle nostre vite, ma la loro affidabilità è messa in discussione da pregiudizi e distorsioni. Un nuovo studio della BBC esplora come questi problemi possano influenzare le interazioni fra l'uomo e gli strumenti digitali, proponendo soluzioni per migliorare l'equità degli algoritmi.
di Nino Grasso pubblicata il 12 Febbraio 2025, alle 10:51 nel canale AppleChatGPTGeminiOpenAIGoogleMicrosoft
Gli assistenti di intelligenza artificiale più diffusi presentano notevoli lacune nell'accuratezza quando si tratta di riassumere notizie, secondo uno studio condotto dalla BBC. L'emittente britannica ha sottoposto a test quattro importanti chatbot IA, ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI, analizzando la loro capacità di sintetizzare correttamente i contenuti giornalistici del sito web della BBC.

I risultati della ricerca hanno evidenziato problematiche importanti nelle risposte generate dagli assistenti IA. In particolare, il 51% di tutte le risposte fornite dai chatbot è stato giudicato come affetto da problemi rilevanti di varia natura. Ancora più preoccupante è il dato relativo alle imprecisioni fattuali: il 19% delle risposte che citavano contenuti della BBC conteneva errori sostanziali, come dichiarazioni inesatte, numeri e date errati.
Le aziende che si occupano di Gen AI stanno "giocando con il fuoco"
La ricerca ha messo in luce non solo errori fattuali, ma anche una serie di altre problematiche nella gestione delle informazioni da parte degli assistenti IA. Tra queste, spiccano la difficoltà nel distinguere tra opinioni e fatti, la tendenza a editorializzare i contenuti e l'omissione di contesti essenziali per una corretta comprensione delle notizie. Deborah Turness, CEO di BBC News, ha espresso forte preoccupazione per queste scoperte, sottolineando come le aziende che sviluppano strumenti basati sull'IA stiano "giocando con il fuoco". La dirigente ha evidenziato il rischio concreto che titoli distorti dall'intelligenza artificiale possano causare danni significativi nel mondo reale, minando ulteriormente la già fragile fiducia del pubblico nei fatti e nelle informazioni verificate.
L'indagine della BBC ha rivelato esempi concreti di queste distorsioni. Gemini, ad esempio, ha erroneamente affermato che il NHS non avesse raccomandato la sigaretta elettronica come aiuto per smettere di fumare. ChatGPT e Copilot hanno indicato che Rishi Sunak e Nicola Sturgeon fossero ancora in carica, nonostante avessero già lasciato i loro incarichi. Perplexity, d'altra parte, ha attribuito erroneamente alla BBC News affermazioni su una presunta "moderazione" dell'Iran e "aggressività" di Israele in un articolo sul Medio Oriente, termini mai utilizzati nel reportage imparziale dell'emittente. La ricerca ha anche evidenziato come gli assistenti di nuova generazione tendano a mescolare indiscriminatamente fatti, opinioni e materiale d'archivio, creando un "cocktail confuso" di informazioni che si discosta notevolmente dai fatti verificati e dalla chiarezza che i consumatori di notizie cercano e meritano. In breve, per quanto Copilot e Gemini abbiano presentato problemi più complessi da risolvere rispetto a ChatGPT e Perplexity, tutte le piattaforme possono riportare informazioni fuorvianti o del tutto errate.
Pete Archer, direttore del programma per l'intelligenza artificiale generativa della BBC, ha sottolineato l'importanza del controllo editoriale sull'utilizzo dei contenuti giornalistici da parte delle aziende che si occupano di intelligenza artificiale: "Gli editori dovrebbero avere il controllo sul modo in cui vengono utilizzati i loro contenuti e le aziende di intelligenza artificiale dovrebbero mostrare come gli assistenti elaborano le notizie insieme alla portata degli errori e delle imprecisioni che producono", le sue parole.
La BBC ha condotto questa ricerca aprendo eccezionalmente il proprio sito web ai chatbot IA per la durata dei test nel dicembre 2024, nonostante normalmente blocchi l'accesso ai suoi contenuti da parte di questi sistemi. L'obiettivo era proprio valutare in modo approfondito le capacità e i limiti degli assistenti IA nel gestire informazioni giornalistiche di alta qualità. La ricerca sottolinea diverse problematiche, ormai ben note da tempo, legate alle nuove tecnologie: da un lato, emerge la necessità di una maggiore collaborazione tra aziende tecnologiche ed editori per garantire l'integrità e l'accuratezza delle notizie elaborate dagli assistenti IA; dall'altro, si pone l'urgenza di sviluppare linee guida e regolamentazioni che possano tutelare il pubblico dalla diffusione di informazioni distorte o inaccurate.
La Turness ha lanciato un appello alle aziende tecnologiche, invitandole a seguire l'esempio di Apple, che ha recentemente sospeso la funzione IA di riassunto delle notifiche di notizie dopo essere stata avvertita di gravi problemi di distorsione: "Viviamo in tempi difficili", ha dichiarato la CEO di BBC. "E quanto tempo ci vorrà prima che un titolo distorto dall'intelligenza artificiale causi danni significativi nel mondo reale?"










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoL'errore di "comprensione" potrebbe essere corretto man mano che i parametri e gli algoritmi vengono affinati ma la base da cui attingono, se non viene correttamente "catalogata" (ad esempio per capire quali contenuti siano "oggettivi" in quanto documentabili e quali siano puramente opinioni) resta una bella insalata di nulla (non credo si possa arrivare alle catastrofi paventate nell'articolo ma sicuramente di confusione ne abbiamo abbastanza).
Anche solo i riferimenti accurati di quali siano le fonti utilizzate per le risposte sarebbe già un passo avanti mostruoso perchè io continuo a usare questi bot ma quando cerco di approfondire l'argomento sembra di scavare nell'oceano, più a fondo cerchi di andare e più roba continua a proporsi.
Gli assistenti IA stanno diventando sempre più presenti nelle nostre vite
Parlate per voi....
un essere umano ha capacità di ragionamento e quindi può al limite dedurre la differenza se ha un minimo di QI ma una macchina prende dei dati e li elabora
se quei dati dicessero che la luna è fatta di formaggio alla domanda di cosa è fatta la luna risponderebbe di formaggio ovvero capacità di discernimento inferiore a quella di un bambino di 4 anni
vediamo chi è la prima che si scotta...
Puoi riuscire a fare il 99% dei lavori in un centesimo del tempo ma se quell'1% ti costa cento volte tanto non hai guadagnato niente.
Mettiamo che azzecchi 99 diagnosi su 100 ma in quella che sbagli, la sbagli così tanto che il paziente muore, che si fa? Per me è palese che l'IA può essere un ottimo aiuto per migliorare la qualità del nostro lavoro ma l'intervento umano almeno come supervisione non potrà mai mancare.
un essere umano ha capacità di ragionamento e quindi può al limite dedurre la differenza se ha un minimo di QI ma una macchina prende dei dati e li elabora
se quei dati dicessero che la luna è fatta di formaggio alla domanda di cosa è fatta la luna risponderebbe di formaggio ovvero capacità di discernimento inferiore a quella di un bambino di 4 anni
L'IA non è un essere umano, ma non è nemmeno un pappagallo orbo. Ha capacità di analisi testuale e classificazione, anche se mancano consapevolezza e intuizione in senso stretto..
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".