View Single Post
Old 19-09-2025, 08:22   #7
Darkon
Senior Member
 
L'Avatar di Darkon
 
Iscritto dal: Sep 2008
Messaggi: 8620
Quote:
Originariamente inviato da berson Guarda i messaggi
Questo lo sapevamo, quello che manca e che farebbe molto comodo agli utenti è la capacità di ammettere di non sapere o non essere capaci di trovare una soluzione.
Daglie... non è una cosa fattibile.

Un LLM è un sistema predittivo probabilistico e NON un ragionamento. Non è che ragiona e sa a monte cosa sa e cosa non sa.

Se io ti chiedo di pensare a un numero da 1 a 10 e poi dopo aver analizzato i tuoi pattern provo a indovinare che numero hai pensato secondo te io so se indovinerò o meno?

Ecco un LLM è la stessa cosa ovviamente semplificando molto. Non ha idea di cosa ti sta rispondendo ma attraverso dei modelli complessi prova a prevedere una risposta sensata. Bada bene che la "risposta sensata" non è ragionata. Un LLM non ha idea di cosa ti sta rispondendo ha solo calcolato che è la risposta con le chance maggiori di essere quella giusta.

Dire che dovrebbe dirti di non sapere qualcosa è non aver capito come funziona perché un LLM non SA NIENTE, semplicemente prova a indovinare la combinazione di parole giuste.
Darkon è offline   Rispondi citando il messaggio o parte di esso
 
1