22-04-2025, 12:47
|
#2
|
Senior Member
Iscritto dal: Apr 2002
Città: VR-PD
Messaggi: 11642
|
quasi una risposta su due risulta inventata o errata
le allucinazioni non affliggano solo le informazioni generate, ma riguardino anche azioni che il modello sostiene di aver compiuto nel ragionamento e nel processo di risposta. In particolare Transluce afferma di aver osservato, in un caso, il modello o3 affermare di aver eseguito codice su un MacBook Pro del 2021 "al di fuori di ChatGPT" e di aver riportato i risultati nella sua risposta. Si tratta di un'operazione che o3 non può fare e va oltre la semplice invenzione di fatti, rappresentando un motivo di ulteriore preoccupazione per l'affidabilità.
Sono sempre più umani
__________________
Ph'nglui mglw'nafh Cthulhu R'lyeh wgah'nagl fhtagn
|
|
|