L'IA tira a indovinare? Non è un bug, è stata addestrata così: lo rivela OpenAI
Secondo un recente studio firmato da tre ricercatori di OpenAI e da un professore del Georgia Tech, i modelli linguistici producono falsi contenuti perché valutati e premiati per indovinare piuttosto che ammettere l'incertezza. La soluzione proposta: cambiare i criteri di valutazione
di Andrea Bai pubblicata il 18 Settembre 2025, alle 11:51 nel canale Scienza e tecnologiaAIOpenAI
Le allucinazioni generate dai modelli linguistici di intelligenza artificiale non sono casuali o accidentali, ma si tratta di un meccanismo di funzionamento legato al modo con cui i sistemi vengono addestrati e valutati. Lo conferma OpenAI in un documento pubblicato nei giorni scorsi che si propone proprio di spiegare come mai, in alcune situazioni, l'AI tende ad inventarsi informazioni invece di ammettere la propria ignoranza.
Il documento "Why Language Models Hallucinate", è firmato da tre ricercatori di OpenAI, assieme al professore di informatica Santosh Vempala del Georgia Institute of Technology ed evidenzia che "la maggioranza delle valutazioni premia i comportamenti allucinatori".
La causa principale di questi comportamenti risiede nel fatto che i modelli, sin dalla fase di pretraining, vengono istruiti a “indovinare” piuttosto che a riconoscere i propri limiti. Questo meccanismo porta i sistemi a restituire risposte convincenti, plausibili, ma non sempre e non necessariamente esatte, corrette e attendibili. L’esempio proposto dagli autori riguarda uno degli stessi ricercatori, Adam Tauman Kalai: quando si è chiesto a un modello la sua data di nascita, l’IA ha fornito tre risposte errate, dimostrando che preferisce azzardare un risultato piuttosto che ammettere di non conoscere un'informazione.
Quando nella grande mole di dati utilizzata per l’addestramento si trovano molte ripetizioni di pattern chiari, come ad esempio la corretta ortografia delle parole, il modello apprende dal numero elevato di esempi. Ma in assenza di regole generalizzabili - come nel caso delle date di compleanno, spesso presenti una sola volta nei dati raccolti - l’IA tende a «tirare a indovinare». Nel paper si legge: «Il tasso di allucinazioni dopo il pretraining dovrebbe essere almeno pari alla porzione di fatti presenti una sola volta nel set di addestramento. Se, ad esempio, il 20% dei compleanni appare solo una volta, ci si aspetta che i modelli base allucinino almeno sul 20% di essi».

Ma non finisce qui: la fase di post-training, invece di azzerare il fenomeno, può addirittura peggiorarlo. «Molti benchmark per modelli linguistici ricalcano esami standardizzati, con metriche binarie di accuratezza o tasso di successo», osservano gli autori. Ottimizzare le performance su questi test incentiva l’IA a non mostrare incertezza, perché le risposte esitanti vengono penalizzate, mentre le risposte decise ma errate possono favorire un punteggio complessivo maggiore. In questo modo si incentiva un comportamento di “bluff” che porta a generare contenuti inesatti ma convincenti. E' esattamente quanto avviene nel caso degli esami a scelta multipla, dove una risposta dubbia può essere considerata migliore di nessuna risposta. Gli autori osservano che la scelta casuale di opzioni plausibili può aumentare la probabilità di punteggio rispetto al non rispondere.
Secondo lo studio non basteranno, per ridurre le allucinazioni, nuovi benchmark progettati ad hoc: è necessario riformare le metriche attuali, modificando i sistemi di valutazione per premiare anche risposte come "Non lo so", piuttosto che penalizzarle. Così facendo si potrebbero “riallineare gli incentivi” e incoraggiare i modelli a comunicare l’incertezza quando necessario. In teoria, precisa lo studio, un dataset privo di errori eliminerebbe il problema, ma data la mole immensa delle informazioni usate nell’addestramento una simile ipotesi è irrealistica. Una soluzione più concreta consiste nel far sì che i modelli dichiarino più spesso di non conoscere l'informazione. Secondo OpenAI, ChatGPT-5 sarebbe già stato addestrato per gestire meglio queste situazioni, anche se, come osservano gli stessi autori, resta possibile che produca «clamorose inesattezze».










Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
IBM presenta i nuovi processori quantistici: arrivano Nighthawk e Loon
Amazon Haul esplode di sconti: con l'offerta 'Acquista 2', lo sconto vola al -40% fino al 19 novembre
Dacia Sandriders, incontro con piloti e navigatori dopo un anno di successi (e carburante alternativo)
Quanto costerà la Steam Machine? Valve conferma che il prezzo sarà competitivo
QNAP TS-h1655XeU-RP: filesystem ZFS e connettività a 10 GbE per archiviazione e virtualizzazione
Etica e software libero protagonisti a SFSCON 2025
Il reattore che ricarica le batterie scartate e produce nuovo litio: la rivoluzione di Rice University
AMD FSR Redstone: la nuova tecnologia basata sulle reti neurali esordisce su Call of Duty: Black Ops 7
Meta Quest 3S a un prezzo senza precedenti per le offerte Black Friday: realtà mista e bundle esclusivo a soli 249,99€
Rischio per gli SSD? I driver chipset AMD scrivono continuamente sul drive, ma non è chiaro il perché
Quanto sono 'woke' le intelligenze artificiali? Anthropic ha adesso uno strumento per misurarlo
Rockstar rilancia Red Dead Redemption su PS5, Series X, Switch 2 e smartphone
Blue Origin centra l'obiettivo: New Glenn atterra e porta ESCAPADE verso Marte
Regali di Natale spendendo poco con il Black Friday: tante idee mai sopra i 100€









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoCosa c'entra coi modelli linguistici di cui si parla nell'articolo?
Assolutamente niente perché non esistono LLM che fanno operazioni, al massimo vengono usati al momento in via sperimentale e sempre sotto la supervisione di medici specialisti, come strumento diagnostico ma non è al momento una procedura ufficiale e quindi viene usata a latere su casistiche già risolte per vedere cosa avrebbe risposto.
Di certo nessuna AI opera nessuno almeno non gli LLM.
Daglie... non è una cosa fattibile.
Un LLM è un sistema predittivo probabilistico e NON un ragionamento. Non è che ragiona e sa a monte cosa sa e cosa non sa.
Se io ti chiedo di pensare a un numero da 1 a 10 e poi dopo aver analizzato i tuoi pattern provo a indovinare che numero hai pensato secondo te io so se indovinerò o meno?
Ecco un LLM è la stessa cosa ovviamente semplificando molto. Non ha idea di cosa ti sta rispondendo ma attraverso dei modelli complessi prova a prevedere una risposta sensata. Bada bene che la "risposta sensata" non è ragionata. Un LLM non ha idea di cosa ti sta rispondendo ha solo calcolato che è la risposta con le chance maggiori di essere quella giusta.
Dire che dovrebbe dirti di non sapere qualcosa è non aver capito come funziona perché un LLM non SA NIENTE, semplicemente prova a indovinare la combinazione di parole giuste.
Un LLM è un sistema predittivo probabilistico e NON un ragionamento. Non è che ragiona e sa a monte cosa sa e cosa non sa.
Se io ti chiedo di pensare a un numero da 1 a 10 e poi dopo aver analizzato i tuoi pattern provo a indovinare che numero hai pensato secondo te io so se indovinerò o meno?
Ecco un LLM è la stessa cosa ovviamente semplificando molto. Non ha idea di cosa ti sta rispondendo ma attraverso dei modelli complessi prova a prevedere una risposta sensata. Bada bene che la "risposta sensata" non è ragionata. Un LLM non ha idea di cosa ti sta rispondendo ha solo calcolato che è la risposta con le chance maggiori di essere quella giusta.
Dire che dovrebbe dirti di non sapere qualcosa è non aver capito come funziona perché un LLM non SA NIENTE, semplicemente prova a indovinare la combinazione di parole giuste.
beh, è un sistema predittivo probabilistico [B][U]che inventa[/U][/B]...
e che vuoi di più ? genera risultati nuovi, a cui nessuno aveva mai pensato, fantastico !
Peccato che per avere miliardi, hanno sbandierato i miracoli della AI, come nella ricerca farmaceutica,
ma forse era una balla ?
E' perfino difficile da usare come un google potenziato, perchè i risultati della ricerca hanno zero affidabilità, e comunque devono essere approfonditi...
invece di risparmiare tempo, ne perdi...
e che vuoi di più ? genera risultati nuovi, a cui nessuno aveva mai pensato, fantastico !
Peccato che per avere miliardi, hanno sbandierato i miracoli della AI, come nella ricerca farmaceutica,
ma forse era una balla ?
E' perfino difficile da usare come un google potenziato, perchè i risultati della ricerca hanno zero affidabilità, e comunque devono essere approfonditi...
invece di risparmiare tempo, ne perdi...
No... semplicemente state mischiando cose completamente diverse.
chatGPT è una cosa, ha un certo tipo di funzionamento ecc... ecc...
Una IA sia pure sempre su modelli in stile LLM che fa ricerca medica ad esempio farmacologica è tutta un'altra cosa. Ha meccanismi in comune certo ma non è lo stesso strumento.
Da una parte hai un LLM generalista che deve poter rispondere un po' a tutto, con un linguaggio umano ecc... ecc...
Dall'altra hai un algoritmo che non ha interfaccia umana, altamente specializzato in un compito specifico e con parametri studiati ed estremamente restrittivi che permettono una approssimazione con regole che sono spesso matematiche e fisiche quindi molto più semplici per una macchina da comprendere.
Per fare un esempio per una macchina è molto più semplice calcolare che ne so una determinata espressione che si moltiplica per pi greco approssimato alla centesima cifra piuttosto che spiegare in italiano perché una poesia è bella.
Quindi per assurdo è molto più semplice per un LLM calcolare varianti di un determinato principio attivo che hanno un'alta probabilità di essere efficienti piuttosto che elaborare domande e risposte in italiano su argomenti non prevedibili e quindi con un addestramento generalista.
Quanto all'ultima parte non concordo. Se hai un minimo di capacità puoi scrivere le domande in maniera tale che l'AI è sufficientemente precisa e affidabile. Poi come qualsiasi strumento va saputa usare ma esattamente come google eh... perché se anche prima dell'AI usi google per autodiagnosticarti veniva fuori che avevi 120 malattie rare. Un LLM allo stesso modo è affidabile nella misura in cui chi lo usa ha un MINIMO di capacità nel saperlo usare.
...
ma certo, in ricerca farmacologica potrebbe benissimo essere solo lontanamente parente di un LLM
ma veniamo al dunque, se puoi dirlo:
tu, nel tuo ambito professionale o privato, hai trovato qualche uso utile ?
ma veniamo al dunque, se puoi dirlo:
tu, nel tuo ambito professionale o privato, hai trovato qualche uso utile ?
Relativamente...
PROFESSIONALE:
Alcune aziende per cui lavoro hanno addestrato un LLM sulla normativa interna e sono piuttosto precisi nel trovarti i riferimenti corretti ad esempio se gli chiedi "ho bisogno di capire quali condizione possono essere applicate per un finanziamento a un dipendente" ti trova il documento normativo e te ne fa un riassunto che fino ad oggi è sempre stato corretto almeno nella mia esperienza d'uso e dei colleghi.
Detto ciò gli LLM nel mio settore non hanno avuto una rivoluzione particolarmente significativa.
Ecco un altro aspetto in cui si sono rivelati utili è che capita di usare file excel di dati in cui ci sono veramente migliaia e migliaia di dati. LLM aziendale che poi è copilot eh non immaginare chissà che, gli dai in pasto il file excel e gli chiedi una determinata ricerca o una analisi dati e ti crea un file analizzato in cui anche lì sono veramente precisi.
Da non usare invece se ad esempio devi fare un pegno o un fidejussione perché in quei casi invece l'IA non è né precisa né affidabile e ti propone o modelli standard presi chissà dove o scrive in maniera contorta ed interpretabile che comunque non va bene.
PRIVATO:
Nel privato uso l'IA soprattutto per programmazione microcontrollori e per programmazione su linux (principalmente Debian 12 e Ubuntu). Qua è già più complessa la cosa in quanto nell'analisi e debug del codice a volte ti da degli spunti assolutamente interessanti e spesso riesce anche a ottimizzare un codice già funzionante in maniera non proprio intuitiva per un essere umano. Al tempo stesso a volte ha delle allucinazioni devastanti mescolando linguaggi diversi o proprio inventando funzioni che non esistono. Quindi utile sì ma a patto di saper leggere il codice che scrive in maniera critica e capire quando prende cantonate. Se fossi uno che non conosce il codice e pretende di far funzionare un microcontrollore con codice totalmente scritto dall'AI probabilmente non ci riuscirei o ci metterei veramente tanto tempo.
Raramente nel privato la uso per delle ricerche ad esempio l'altro giorno gli chiedi in quale ordine giocare i giochi della serie Atelier. Mi rispose correttamente sostanzialmente copiando wikipedia ma la uso talmente raramente per ricerche del genere che il mio parere penso lasci il tempo che trova.
In generale un LLM è funzionale come "aiutante": io lo paragono ad avere un neoassunto volenteroso. Tanta voglia di fare ma poca esperienza quindi se te sei un "senior" che conosce la materia lo guidi e ne correggi gli errori e comunque ti è utile; se invece siete entrambi, capisci quello che intendo, due "junior" l'uno amplifica gli errori dell'altro e non trovi più la strada per tornare a casa.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".