Redazione di Hardware Upg
18-08-2025, 08:02
Link alla notizia: https://www.hwupgrade.it/news/web/claude-ai-ora-puo-chiudere-le-conversazioni-tossiche-la-mossa-di-anthropic-per-contrastare-gli-abusi_142242.html
La società annuncia che, in casi estremi di interazioni dannose, i suoi modelli più avanzati avranno la possibilità di interrompere definitivamente la chat per tutelare sia gli utenti che l’IA
Click sul link per visualizzare la notizia.
Hiei3600
18-08-2025, 08:11
La società annuncia che, in casi estremi di interazioni dannose, i suoi modelli più avanzati avranno la possibilità di interrompere definitivamente la chat per tutelare sia gli utenti che l’IA
Questo approccio segna un nuovo passo nella direzione di una IA più consapevole e resiliente, capace non solo di assistere ma anche di proteggersi da interazioni tossiche o pericolose.
...tutelare l'IA? in che senso? l'IA si traumatizza ora? :mc:
Ma siamo (ancora di più) impazziti?
A quando l'IA che ti denuncia in caso di vessazioni?
...tutelare l'IA? in che senso? l'IA si traumatizza ora?
Visto che l’IA usa le conversazioni per auto apprendere, credo che vogliono “tutelarla” dall’utilizzare quelle informazioni nel suo processo di auto apprendimento.
Hiei3600
18-08-2025, 10:06
Visto che l’IA usa le conversazioni per auto apprendere, credo che vogliono “tutelarla” dall’utilizzare quelle informazioni nel suo processo di auto apprendimento.
Se l'IA è abbastanza capace di discernere quando una conversazione è "Tossica", allora basterebbe che l'IA stessa la escludi dalle sue fonti di "Apprendimento" invece di interromperla.
Ma capisco la logica: Se una conversazione non può essere usata per migliorare il prodotto, non ha alcun valore economico per l'azienda a continuare a fornirla, quindi ha più senso interromperla che non implementare il suggerimento di cui sopra.
Però ovviamente dire "Interrompiamo le conversazioni con l'IA che non siano economicamente convenienti per noi" suona male per le pubbliche relazioni, quindi hanno inventato questa bella scusa per coprire il loro (reale) motivo.
:mc:
...tutelare l'IA? in che senso? l'IA si traumatizza ora? :mc:
Ma siamo (ancora di più) impazziti?
A quando l'IA che ti denuncia in caso di vessazioni?
Utente "fantozzo" che conversa in maniera "zozza" con l'ia ! :D
https://media1.tenor.com/m/VMVlQ_QC3vUAAAAd/fantozzi-togliti-le-mutande.gif
Si concordo, abbiamo perso da parecchio "la bussola" con questa faccenda delle intelligenze artificiali.
Come sempre, "qualcosa è andato storto" ! :rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.