Claude AI ora può chiudere le conversazioni tossiche: la mossa di Anthropic per contrastare gli abusi

Claude AI ora può chiudere le conversazioni tossiche: la mossa di Anthropic per contrastare gli abusi

La società annuncia che, in casi estremi di interazioni dannose, i suoi modelli più avanzati avranno la possibilità di interrompere definitivamente la chat per tutelare sia gli utenti che l’IA

di pubblicata il , alle 09:02 nel canale Web
Anthropic
 

Anthropic ha annunciato una novità per i suoi modelli di punta Claude Opus 4 e Opus 4.1: per la prima volta, un'IA avrà la capacità di terminare autonomamente una conversazione con l’utente. La funzione, come chiarito dalla società in un post ufficiale, sarà riservata esclusivamente a "casi estremi e rari di interazioni persistenti dannose o abusive."

L’obiettivo dichiarato è quello di gestire situazioni particolarmente delicate, come richieste di contenuti sessuali che coinvolgono minori, tentativi di ottenere informazioni utili ad atti di violenza su larga scala o terrorismo. In questi scenari, se ripetuti e dopo diversi tentativi falliti di deviare la conversazione verso toni più costruttivi, Claude potrà decidere di chiudere definitivamente la chat.

Secondo Anthropic, si tratta di un “ultima risorsa” da adottare solo quando ogni possibilità di dialogo produttivo è ormai compromessa. L’azienda ha infatti specificato che la stragrande maggioranza degli utenti non si accorgerà mai di questa funzionalità, anche nel caso di discussioni su temi controversi o delicati, poiché il meccanismo entrerà in gioco unicamente nei cosiddetti “casi limite”.

Quando Claude decide di interrompere una conversazione, l’utente non può più inviare nuovi messaggi nello stesso thread. Tuttavia, ha la possibilità di aprire subito una nuova chat, oppure di tornare indietro e modificare o ritentare i messaggi precedenti per imboccare un percorso più costruttivo.

Per Anthropic, questa funzione rientra in un programma di ricerca più ampio che esplora il concetto di AI welfare, cioè il benessere dei sistemi di intelligenza artificiale e la loro gestione in condizioni di stress. Sebbene l’antropomorfizzazione delle IA resti un tema di dibattito nel settore, l’azienda considera questa possibilità di “uscita” da interazioni problematiche come un modo a basso costo e relativamente semplice per ridurre rischi e abusi.

La società ha inoltre fatto sapere che al momento il sistema è ancora sperimentale e invita gli utenti a lasciare un feedback qualora incontrino una chiusura forzata della conversazione. Questo approccio segna un nuovo passo nella direzione di una IA più consapevole e resiliente, capace non solo di assistere ma anche di proteggersi da interazioni tossiche o pericolose.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Hiei360018 Agosto 2025, 09:11 #1
La società annuncia che, in casi estremi di interazioni dannose, i suoi modelli più avanzati avranno la possibilità di interrompere definitivamente la chat per tutelare sia gli utenti che l’IA

Questo approccio segna un nuovo passo nella direzione di una IA più consapevole e resiliente, capace non solo di assistere ma anche di proteggersi da interazioni tossiche o pericolose.


...tutelare l'IA? in che senso? l'IA si traumatizza ora?
Ma siamo (ancora di più impazziti?

A quando l'IA che ti denuncia in caso di vessazioni?
Ago7218 Agosto 2025, 10:04 #2
Originariamente inviato da: Hiei3600
...tutelare l'IA? in che senso? l'IA si traumatizza ora?


Visto che l’IA usa le conversazioni per auto apprendere, credo che vogliono “tutelarla” dall’utilizzare quelle informazioni nel suo processo di auto apprendimento.
Hiei360018 Agosto 2025, 11:06 #3
Originariamente inviato da: Ago72
Visto che l’IA usa le conversazioni per auto apprendere, credo che vogliono “tutelarla” dall’utilizzare quelle informazioni nel suo processo di auto apprendimento.


Se l'IA è abbastanza capace di discernere quando una conversazione è "Tossica", allora basterebbe che l'IA stessa la escludi dalle sue fonti di "Apprendimento" invece di interromperla.

Ma capisco la logica: Se una conversazione non può essere usata per migliorare il prodotto, non ha alcun valore economico per l'azienda a continuare a fornirla, quindi ha più senso interromperla che non implementare il suggerimento di cui sopra.

Però ovviamente dire "Interrompiamo le conversazioni con l'IA che non siano economicamente convenienti per noi" suona male per le pubbliche relazioni, quindi hanno inventato questa bella scusa per coprire il loro (reale) motivo.

Saturn18 Agosto 2025, 11:29 #4
Originariamente inviato da: Hiei3600
...tutelare l'IA? in che senso? l'IA si traumatizza ora?
Ma siamo (ancora di più impazziti?

A quando l'IA che ti denuncia in caso di vessazioni?


Utente "fantozzo" che conversa in maniera "zozza" con l'ia !

Link ad immagine (click per visualizzarla)

Si concordo, abbiamo perso da parecchio "la bussola" con questa faccenda delle intelligenze artificiali.

Come sempre, "qualcosa è andato storto" !

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^