Claude AI ora può chiudere le conversazioni tossiche: la mossa di Anthropic per contrastare gli abusi
La società annuncia che, in casi estremi di interazioni dannose, i suoi modelli più avanzati avranno la possibilità di interrompere definitivamente la chat per tutelare sia gli utenti che l’IA
di Andrea Bai pubblicata il 18 Agosto 2025, alle 09:02 nel canale WebAnthropic
Anthropic ha annunciato una novità per i suoi modelli di punta Claude Opus 4 e Opus 4.1: per la prima volta, un'IA avrà la capacità di terminare autonomamente una conversazione con l’utente. La funzione, come chiarito dalla società in un post ufficiale, sarà riservata esclusivamente a "casi estremi e rari di interazioni persistenti dannose o abusive."
L’obiettivo dichiarato è quello di gestire situazioni particolarmente delicate, come richieste di contenuti sessuali che coinvolgono minori, tentativi di ottenere informazioni utili ad atti di violenza su larga scala o terrorismo. In questi scenari, se ripetuti e dopo diversi tentativi falliti di deviare la conversazione verso toni più costruttivi, Claude potrà decidere di chiudere definitivamente la chat.

Secondo Anthropic, si tratta di un “ultima risorsa” da adottare solo quando ogni possibilità di dialogo produttivo è ormai compromessa. L’azienda ha infatti specificato che la stragrande maggioranza degli utenti non si accorgerà mai di questa funzionalità, anche nel caso di discussioni su temi controversi o delicati, poiché il meccanismo entrerà in gioco unicamente nei cosiddetti “casi limite”.
Quando Claude decide di interrompere una conversazione, l’utente non può più inviare nuovi messaggi nello stesso thread. Tuttavia, ha la possibilità di aprire subito una nuova chat, oppure di tornare indietro e modificare o ritentare i messaggi precedenti per imboccare un percorso più costruttivo.
Per Anthropic, questa funzione rientra in un programma di ricerca più ampio che esplora il concetto di AI welfare, cioè il benessere dei sistemi di intelligenza artificiale e la loro gestione in condizioni di stress. Sebbene l’antropomorfizzazione delle IA resti un tema di dibattito nel settore, l’azienda considera questa possibilità di “uscita” da interazioni problematiche come un modo a basso costo e relativamente semplice per ridurre rischi e abusi.
La società ha inoltre fatto sapere che al momento il sistema è ancora sperimentale e invita gli utenti a lasciare un feedback qualora incontrino una chiusura forzata della conversazione. Questo approccio segna un nuovo passo nella direzione di una IA più consapevole e resiliente, capace non solo di assistere ma anche di proteggersi da interazioni tossiche o pericolose.










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
DJI Osmo 360 in super offerta su Amazon: -29%, versioni Standard e Adventure a prezzi mai visti
Moto Watch Fit con Moto AI a metà prezzo: smartwatch completo con GPS e 16 giorni di autonomia a 49,90€
Batterie ibride plug-in: la classifica dei marchi che durano di più (e di meno)
Ayaneo Next 2 è ufficiale: prestazioni da desktop nel palmo di una mano (costerà un rene?)
Windows 11 26H1 è ufficiale, ma è solo per Arm: brutte notizie per i possessori di PC x64
Archive.is nel mirino: l'FBI vuole sapere chi lo gestisce
CMF by Nothing Buds 2a: le cuffie ANC con bassi profondi e autonomia record a soli 27€ su Amazon
Galaxy Watch 7 e 8 in offerta su Amazon: i nuovi smartwatch Samsung con Galaxy AI scendono fino a 135€, anche il modello Classic in sconto
Amazon Haul rilancia con il codice LUCKY10: 10€ di sconto immediato, e se spendi meno… paghi solo la spedizione
Boeing Virtual Airplane, l'addestramento dei piloti passa (anche) da Microsoft Fligh Simulator
Tutte le funzioni satellitari in arrivo su iPhone: non solo SOS e messaggi
NIU inaugura un nuovo store a Milano: apre NIU Sempione
Applicazioni Mission-Critical: alla scoperta del cloud privato di Aruba Cloud con Proxmox VE
PC portatile Lenovo tuttofare a 499€: ora con 1TB di SSD, ma anche 16GB di RAM e CPU Intel Core i5-13420H









4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info...tutelare l'IA? in che senso? l'IA si traumatizza ora?
Ma siamo (ancora di più
A quando l'IA che ti denuncia in caso di vessazioni?
Visto che l’IA usa le conversazioni per auto apprendere, credo che vogliono “tutelarla” dall’utilizzare quelle informazioni nel suo processo di auto apprendimento.
Se l'IA è abbastanza capace di discernere quando una conversazione è "Tossica", allora basterebbe che l'IA stessa la escludi dalle sue fonti di "Apprendimento" invece di interromperla.
Ma capisco la logica: Se una conversazione non può essere usata per migliorare il prodotto, non ha alcun valore economico per l'azienda a continuare a fornirla, quindi ha più senso interromperla che non implementare il suggerimento di cui sopra.
Però ovviamente dire "Interrompiamo le conversazioni con l'IA che non siano economicamente convenienti per noi" suona male per le pubbliche relazioni, quindi hanno inventato questa bella scusa per coprire il loro (reale) motivo.
Ma siamo (ancora di più
A quando l'IA che ti denuncia in caso di vessazioni?
Utente "fantozzo" che conversa in maniera "zozza" con l'ia !
Link ad immagine (click per visualizzarla)
Si concordo, abbiamo perso da parecchio "la bussola" con questa faccenda delle intelligenze artificiali.
Come sempre, "qualcosa è andato storto" !
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".