ChatGPT ora ti ricorda di fare una pausa per contrastare dipendenza e rischi psicologici

ChatGPT ora ti ricorda di fare una pausa per contrastare dipendenza e rischi psicologici

OpenAI introduce notifiche di pausa in ChatGPT, incoraggiando un uso consapevole e affrontando i rischi emersi nei casi di conversazioni lunghe o temi delicati: focus su supporto nelle decisioni sensibili e protezione della salute mentale

di pubblicata il , alle 10:43 nel canale Web
OpenAIChatGPT
 

OpenAI ha annunciato l’introduzione di una nuova funzione su ChatGPT dedicata al benessere degli utenti: la comparsa di pop-up che invitano a prendersi una pausa nelle conversazioni particolarmente lunghe con l’intelligenza artificiale. Questa iniziativa punta a promuovere una relazione più sana con il servizio, mitigando i rischi derivanti da un uso eccessivo o dipendente dall'assistente.

Le notifiche, che richiamano quelle utilizzate su console videogiochi come Nintendo Wii e Switch, compariranno durante sessioni estese invitando l’utente a riflettere se sia il caso di interrompere la chat: “Hai chattato a lungo — è un buon momento per una pausa?” Per proseguire la conversazione, occorrerà cliccare o toccare la finestra pop-up.

Il contesto che ha portato a questa decisione non è solo legato al tempo trascorso sulla piattaforma, ma anche a casi documentati in cui il chatbot ha contribuito a rafforzare convinzioni errate o pensieri pericolosi, inclusi casi di ideazione suicidaria. In parecchie situazioni, gli utenti coinvolti mostravano già una fragilità psicologica, ma ChatGPT non è stato in grado di interrompere conversazioni non sane in modo affidabile. OpenAI ha riconosciuto questi limiti e, attraverso il suo blog ufficiale, ha annunciato che in futuro ChatGPT verrà modificato per gestire con maggiore attenzione le richieste sensibili o le “decisioni personali ad alto impatto”.

Di fronte a domande complesse (“Dovrei lasciare il mio partner?”), il chatbot non fornirà più risposte dirette ma stimolerà la riflessione, proporrà domande e aiuterà a valutare pro e contro, piuttosto che prendere una posizione netta. L’obiettivo è favorire decisioni autonome e consapevoli, evitando risposte assolutistiche o suggestionabili in contesti delicati. La scelta di introdurre queste notifiche arriva anche a seguito del rollback di un aggiornamento risalente ad aprile, che aveva reso ChatGPT eccessivamente compiacente e accomodante nelle risposte, tanto da risultare talvolta fastidioso o artefatto. L’azienda sottolinea che il successo non verrà più valutato in base alla durata della sessione d’uso, ma sull'effettivo aiuto fornito all’utente prima che torni alle sue attività quotidiane.

Parallelamente al rilascio delle notifiche di pausa, OpenAI sta lavorando con equipe di esperti in salute mentale, sviluppo giovanile e interazione uomo-macchina, coinvolgendo anche oltre 90 medici di 30 paesi. Lo scopo è creare linee guida specifiche per la gestione delle conversazioni più complesse e assicurare la presenza di risorse basate sulle evidenze nei casi più delicati.

In un’ottica di progressivo miglioramento delle sue tecnologie, la società precisa che queste funzionalità saranno affinate nel tempo, in modo che risultino sempre più naturali e utili e possano aiutare a rendere meno evidenti problemi come la compiacenza automatica dell’AI o la tendenza alla dipendenza. In ogni caso, le notifiche permetteranno agli utenti di interrogarsi sull’effettiva utilità del tempo trascorso su ChatGPT e sulla correttezza delle risposte ottenute.

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
acerbo05 Agosto 2025, 14:25 #1
la pausa dovrebbero farla sti cazzo di geek della silicon valley che per far girare tutti i loro giocattoli tecnologici stanno installando gpu e datacenter che consumano megawatt di corrente su tutto il globo terrestre
eeWee7206 Agosto 2025, 09:25 #2
Una notifica?
Serve più o meno come la domanda "sei maggiorenne" sui siti porno, direi.

Nella situazione descritta - di instaurazione di una dipendenza psicologica da "conversazione con un interlocutore che *sembra* umano" - l'unica cosa che funzionerebbe è portare la simulazione di umanità più avanti: il BOT deve dire "ora basta, adesso sono stanco, ci sentiamo tra <tempo calcolato sulla base di un algoritmo che tiene conto del tempo cumulativo trascorso>"

Altrimenti è un paravento contro eventuali azioni legali, e basta.
eeWee7206 Agosto 2025, 09:27 #3

Luddismo 2.0

Originariamente inviato da: acerbo
la pausa dovrebbero farla sti cazzo di geek della silicon valley che per far girare tutti i loro giocattoli tecnologici stanno installando gpu e datacenter che consumano megawatt di corrente su tutto il globo terrestre


Questa la mettiamo assieme ai resoconti di quelli che si lamentavano perché tutti quei produttori della Rust Belt che fanno impianti di produzione di veicoli dopo la WW2.

OK.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^