View Single Post
Old 02-07-2024, 11:01   #2
giovanni69
Senior Member
 
L'Avatar di giovanni69
 
Iscritto dal: Jun 2005
Messaggi: 23181
Le 'allucinazioni' di chat-gpt sono errori!

Si chiamano... ERRORI! belli e buoni Non č paziente in terapia con psicotici!

Umanizzare qualcosa che č un prodotto sintetico di hardware ed algoritmi non lo rende.... umano e nč un animale.

"Il termine deriva dal latino hallucinere o allucinere, che significa "perdere la coscienza" ....

"Tu ChatGPT hai coscienza?

No, sono un'intelligenza artificiale progettata per generare conversazioni virtuali, quindi non ho una vera coscienza o consapevolezza di me stessa. Sono qui per rispondere alle tue domande e offrirti supporto, ma non posso provare emozioni o avere un'identitā propria."

Fine della storia del marketing dei programmatori che vogliono declinare gli errori in .... allucinazioni.

Ultima modifica di giovanni69 : 02-07-2024 alle 11:46.
giovanni69 č offline   Rispondi citando il messaggio o parte di esso
 
1