View Single Post
Old 22-04-2025, 12:47   #2
Cfranco
Senior Member
 
L'Avatar di Cfranco
 
Iscritto dal: Apr 2002
Città: VR-PD
Messaggi: 11642
quasi una risposta su due risulta inventata o errata

le allucinazioni non affliggano solo le informazioni generate, ma riguardino anche azioni che il modello sostiene di aver compiuto nel ragionamento e nel processo di risposta. In particolare Transluce afferma di aver osservato, in un caso, il modello o3 affermare di aver eseguito codice su un MacBook Pro del 2021 "al di fuori di ChatGPT" e di aver riportato i risultati nella sua risposta. Si tratta di un'operazione che o3 non può fare e va oltre la semplice invenzione di fatti, rappresentando un motivo di ulteriore preoccupazione per l'affidabilità.

Sono sempre più umani
__________________
Ph'nglui mglw'nafh Cthulhu R'lyeh wgah'nagl fhtagn
Cfranco è offline   Rispondi citando il messaggio o parte di esso
 
1