ChatGPT ora ti ricorda di fare una pausa per contrastare dipendenza e rischi psicologici
OpenAI introduce notifiche di pausa in ChatGPT, incoraggiando un uso consapevole e affrontando i rischi emersi nei casi di conversazioni lunghe o temi delicati: focus su supporto nelle decisioni sensibili e protezione della salute mentale
di Andrea Bai pubblicata il 05 Agosto 2025, alle 10:43 nel canale WebOpenAIChatGPT
OpenAI ha annunciato l’introduzione di una nuova funzione su ChatGPT dedicata al benessere degli utenti: la comparsa di pop-up che invitano a prendersi una pausa nelle conversazioni particolarmente lunghe con l’intelligenza artificiale. Questa iniziativa punta a promuovere una relazione più sana con il servizio, mitigando i rischi derivanti da un uso eccessivo o dipendente dall'assistente.
Le notifiche, che richiamano quelle utilizzate su console videogiochi come
Nintendo Wii e Switch, compariranno durante sessioni estese invitando
l’utente a riflettere se sia il caso di interrompere la chat: “Hai
chattato a lungo — è un buon momento per una pausa?” Per
proseguire la conversazione, occorrerà cliccare o toccare la finestra
pop-up.
Il contesto che ha portato a questa decisione non è solo legato al tempo trascorso sulla piattaforma, ma anche a casi documentati in cui il chatbot ha contribuito a rafforzare convinzioni errate o pensieri pericolosi, inclusi casi di ideazione suicidaria. In parecchie situazioni, gli utenti coinvolti mostravano già una fragilità psicologica, ma ChatGPT non è stato in grado di interrompere conversazioni non sane in modo affidabile. OpenAI ha riconosciuto questi limiti e, attraverso il suo blog ufficiale, ha annunciato che in futuro ChatGPT verrà modificato per gestire con maggiore attenzione le richieste sensibili o le “decisioni personali ad alto impatto”.

Di fronte a domande complesse (“Dovrei lasciare il mio partner?”), il chatbot non fornirà più risposte dirette ma stimolerà la riflessione, proporrà domande e aiuterà a valutare pro e contro, piuttosto che prendere una posizione netta. L’obiettivo è favorire decisioni autonome e consapevoli, evitando risposte assolutistiche o suggestionabili in contesti delicati. La scelta di introdurre queste notifiche arriva anche a seguito del rollback di un aggiornamento risalente ad aprile, che aveva reso ChatGPT eccessivamente compiacente e accomodante nelle risposte, tanto da risultare talvolta fastidioso o artefatto. L’azienda sottolinea che il successo non verrà più valutato in base alla durata della sessione d’uso, ma sull'effettivo aiuto fornito all’utente prima che torni alle sue attività quotidiane.
Parallelamente al rilascio delle notifiche di pausa, OpenAI sta lavorando con equipe di esperti in salute mentale, sviluppo giovanile e interazione uomo-macchina, coinvolgendo anche oltre 90 medici di 30 paesi. Lo scopo è creare linee guida specifiche per la gestione delle conversazioni più complesse e assicurare la presenza di risorse basate sulle evidenze nei casi più delicati.
In un’ottica di progressivo miglioramento delle sue tecnologie, la società precisa che queste funzionalità saranno affinate nel tempo, in modo che risultino sempre più naturali e utili e possano aiutare a rendere meno evidenti problemi come la compiacenza automatica dell’AI o la tendenza alla dipendenza. In ogni caso, le notifiche permetteranno agli utenti di interrogarsi sull’effettiva utilità del tempo trascorso su ChatGPT e sulla correttezza delle risposte ottenute.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoServe più o meno come la domanda "sei maggiorenne" sui siti porno, direi.
Nella situazione descritta - di instaurazione di una dipendenza psicologica da "conversazione con un interlocutore che *sembra* umano" - l'unica cosa che funzionerebbe è portare la simulazione di umanità più avanti: il BOT deve dire "ora basta, adesso sono stanco, ci sentiamo tra <tempo calcolato sulla base di un algoritmo che tiene conto del tempo cumulativo trascorso>"
Altrimenti è un paravento contro eventuali azioni legali, e basta.
Luddismo 2.0
Questa la mettiamo assieme ai resoconti di quelli che si lamentavano perché tutti quei produttori della Rust Belt che fanno impianti di produzione di veicoli dopo la WW2.
OK.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".