PDA

View Full Version : o3 e o4-mini sono più inclini alle allucinazioni: inventano il doppio rispetto ai predecessori e OpenAI non sa perché


Redazione di Hardware Upg
22-04-2025, 11:21
Link alla notizia: https://www.hwupgrade.it/news/scienza-tecnologia/o3-e-o4-mini-sono-piu-inclini-alle-allucinazioni-inventano-il-doppio-rispetto-ai-predecessori-e-openai-non-sa-perche_137996.html

I nuovi modelli di intelligenza artificiale o3 e o4-mini di OpenAI, pur mostrando avanzate capacità di ragionamento e programmazione, registrano tassi di allucinazione sensibilmente superiori rispetto alle generazioni precedenti, sollevando interrogativi sulla loro affidabilità

Click sul link per visualizzare la notizia.

Cfranco
22-04-2025, 12:47
quasi una risposta su due risulta inventata o errata

le allucinazioni non affliggano solo le informazioni generate, ma riguardino anche azioni che il modello sostiene di aver compiuto nel ragionamento e nel processo di risposta. In particolare Transluce afferma di aver osservato, in un caso, il modello o3 affermare di aver eseguito codice su un MacBook Pro del 2021 "al di fuori di ChatGPT" e di aver riportato i risultati nella sua risposta. Si tratta di un'operazione che o3 non può fare e va oltre la semplice invenzione di fatti, rappresentando un motivo di ulteriore preoccupazione per l'affidabilità.

Sono sempre più umani :sofico:

Mo42
22-04-2025, 13:16
Ipotizzo sia un bias di training effettuato su contenuti a loro volta generati da IA. Ovviamente non stiamo parlando di contenuti verificati, ma molto probabilmente di dati sintetici basati su pattern inconsapevolmente allucinati (e per loro stessa natura, non verificabili).
Sembra ancora lontano il giorno in cui un'IA potrà comprendere autonomamente se quello che dice è una panzana oppure no. :rolleyes: