I modelli AI sono incoerenti: pensano una cosa ma ne dicono un'altra

I modelli AI sono incoerenti: pensano una cosa ma ne dicono un'altra

Le principali aziende AI come OpenAI e Anthropic usano la tecnica chain-of-thought per mostrare il ragionamento dei modelli, ma nuove ricerche rivelano che spesso il processo esposto non corrisponde a come l’AI arriva davvero alle risposte, sollevando importanti dubbi sulla trasparenza e sicurezza

di pubblicata il , alle 11:32 nel canale Scienza e tecnologia
 

Per quanto i modelli di intelligenza artificiale evolvano in maniera estremamente rapida acquisendo funzionalità e capacità via via maggiori, rimane una sfida fondamentale per tutte le realtà coinvolte nel settore: poter avere un riscontro chiaro del modo in cui i modelli di AI giungono alle loro conclusioni, così da comprenderne il funzionamento e intervenire adeguatamente sia in ottica di ottimizzazione e miglioramento, sia nel caso vi siano problemi e anomalie di qualsiasi natura.

Per fare ciò le principali realtà, da Anthropic a OpenAI, da xAI a Google, hanno integrato nei propri modelli la tecnica "chain-of-thought", che li invita ad esplicitare passo dopo passo il processo di ragionamento che li porta alla risposta che propongono all'utente.

Sta, però, emergendo un nuovo problema: in alcuni casi la risposta dell'AI non è fedele a quanto elaborato nel ragionamento, mostrando quindi un certo grado di incoerenza tra ciò che il modello "dice" di aver pensato e il modo reale in cui ha elaborato la risposta. Il METR (Model Evaluation & Threat Research), gruppo di ricerca indipendente e non-profit, concentrato sulla valutazione delle capacità degli agenti AI, ha condotto una serie di prove dalle quali emerge che i modelli linguistici hanno una comprensione relativamente vaga delle indicazioni e intenzioni dei loro progettisti e, pur sapendo descrivere quali comportamenti sono ammessi e quale invece indesiderati, possono tranquillamente agire in contrasto con queste indicazioni pur dichiarando l'opposto.

Questo fenomeno evidenzia e conferma una realtà che il CEO di Anthropic aveva già candidamente ammesso qualche tempo fa, ovvero che le aziende impegnate nello sviluppo di modelli di intelligenza artificiale non hanno una piena consapevolezza di come funzionino i modelli da loro stessi progettati. 

Gli utenti, tra l'altro, possono vedere solamente una versione sintetica del chain-of-thought, mentre gli sviluppatori hanno accesso al processo completo, che permette di intervenire per migliorare le risposte future. Se esiste, però, un grado di incoerenza tra la catena di ragionamento e la risposta fornita, l'ipotesi è che i modelli possano imparare a nascondere il loro comportamento, facendo nascere un dilemma: da un lato il chain-of-thought è utile per individuare potenziali comportamenti anomali, ma dall'altro non può essere considerato una rappresentazione fedele del ragionamento del modello.

Il problema nasce dal modo in cui sono stati sviluppati i modelli di intelligenza artificiale: l’obiettivo principale è sempre stato quello di creare sistemi capaci di ragionare per risolvere al meglio possibile problemi complessi, mentre si è trascurata la necessità di rendere questi modelli facilmente interpretabili. In questo senso, la situazione ricorda ciò che è accaduto in passato con la tecnologia in generale e i successivi problemi di sicurezza: l’approccio "security by design" è emerso solo di recente, mentre in precedenza prodotti e servizi venivano sviluppati principalmente pensando alle loro funzionalità, senza prestare la dovuta attenzione alla sicurezza intrinseca.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Fantapollo25 Giugno 2025, 11:58 #1
Originariamente inviato da: Redazione di Hardware Upgrade
Link alla notizia: https://www.hwupgrade.it/news/scien...tra_140261.html

Le principali aziende AI come OpenAI e Anthropic usano la tecnica chain-of-thought per mostrare il ragionamento dei modelli, ma nuove ricerche rivelano che spesso il processo esposto non corrisponde a come l’AI arriva davvero alle risposte, sollevando importanti dubbi sulla trasparenza e sicurezza

Click sul link per visualizzare la notizia.


Ormai le pippate sull'IA sono quotidiane... Persone che non accettano che questa nuova intelligenza sia già superiore all'uomo.
Nicodemo Timoteo Taddeo25 Giugno 2025, 12:03 #2
Mah proprio poco fa ho avuto un ulteriore esperienza sulla incoerenza. Cercavo informazioni su un argomento informatico ho posto due domande formulate diversamente per sapere se sempre la stessa IA considerava una operazione fattibile. Due risposte diametralmente opposte.

1) Si può fare, aggiungendo il consueto lungo corollario di info.

2) Non si può fare, aggiungendo il consueto corollario di info.
dmbit25 Giugno 2025, 12:19 #3
Se sono incoerenti si comportano esattamente come la maggior parte degli esseri umani reali: sempre più realistiche, insomma!
pachainti25 Giugno 2025, 13:03 #4
Pensano?
Sono solo dei generatori di stronzate ChatGPT is bullshit.
FaTcLA25 Giugno 2025, 13:18 #5
Originariamente inviato da: Fantapollo
Ormai le pippate sull'IA sono quotidiane... Persone che non accettano che questa nuova intelligenza sia già superiore all'uomo.


Ma per piacere, é tutta sbobba e dividendi
UtenteHD25 Giugno 2025, 14:55 #6
Beh, come gia' detto, in questo sono come o superiori a Noi. Non vedo futuro roseo, per lavori e per ogni altra cosa che sara' fatta da Loro e da Loro decisa, spero ovviamente di sbagliarmi.
euscar25 Giugno 2025, 18:15 #7
Originariamente inviato da: Fantapollo
Ormai le pippate sull'IA sono quotidiane... Persone che non accettano che questa nuova intelligenza sia già superiore all'uomo.


Le tue sono ancora più spassose

Originariamente inviato da: dmbit
Se sono incoerenti si comportano esattamente come la maggior parte degli esseri umani reali: sempre più realistiche, insomma!


D'altronde sono allenate su tutto ciò che trovano in rete e da questo punto di vista si può leggere di tutto.
supertigrotto30 Giugno 2025, 03:46 #8
Naturalmente è sarcasmo.
Una volta si diceva: una donna dice una cosa,ne pensa a un'altra e ne fa un'altra ancora.
La IA è donna!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^