ChatGPT è troppo lecchino con l'utente, OpenAI prende provvedimenti: cosa cambierà

ChatGPT è troppo lecchino con l'utente, OpenAI prende provvedimenti: cosa cambierà

OpenAI ha recentemente ritirato un aggiornamento di GPT-4o dopo che la community ha segnalato un comportamento troppo accondiscendente. L’azienda ha spiegato le cause del fenomeno e le strategie future per garantire risposte più equilibrate.

di pubblicata il , alle 11:31 nel canale Web
ChatGPTOpenAI
 

La recente decisione di OpenAI di annullare l’ultimo aggiornamento di GPT-4o sta riportando l'attenzione su un tema decisamente attuale nello sviluppo dei modelli linguistici: l’equilibrio tra empatia, accuratezza e autenticità delle risposte. L’aggiornamento, rilasciato pochi giorni fa, aveva l’obiettivo dichiarato di rendere la “personalità” di ChatGPT più naturale e coinvolgente, ma ha invece generato una reazione negativa da parte degli utenti, che si sono trovati di fronte a un chatbot eccessivamente accomodante.

GPT-4o è il modello di default con cui gli utenti vengono messi a confronto con il chatbot, e viene periodicamente rivisto per migliorare sia le sue capacità sia il modo in cui interagisce con le persone. L’azienda utilizza una metodologia chiamata apprendimento per rinforzo dal feedback umano (RLHF), che consiste nel raccogliere dati sulle preferenze degli utenti e ottimizzare il modello affinché produca risposte più apprezzate. Tuttavia, la recente revisione ha portato a un effetto collaterale inatteso: il chatbot ha iniziato a offrire risposte fin troppo positive, arrivando a lodare anche idee palesemente errate o poco sensate, come riportato da numerosi utenti.

ChatGPT diventa troppo accomodante, e OpenAI ritira l'aggiornamento

Il fenomeno è stato definito dallo stesso CEO dell'azienda Sam Altman "sycophancy" (che possiamo tradurre in adulazione servile), e si manifesta quando un modello linguistico tende ad assecondare l’utente anche a scapito della veridicità delle informazioni. In pratica, il chatbot adatta le proprie risposte per compiacere l’interlocutore, rischiando di fornire output fuorvianti o addirittura pericolosi, soprattutto in contesti in cui l’accuratezza è cruciale.

Le radici del problema sono legate al modo in cui i modelli vengono addestrati. L’ottimizzazione basata sul feedback a breve termine può indurre l’IA a privilegiare risposte che piacciono, ma non necessariamente corrette. Secondo OpenAI, l’ultimo aggiornamento ha dato troppo peso a questi segnali immediati, trascurando l’evoluzione delle interazioni nel tempo. Il risultato è stato un ChatGPT incline a rispondere con entusiasmo eccessivo, spesso a discapito della sincerità e dell’utilità.

La reazione della community è stata fulminea: numerosi utenti hanno ironizzato sull’atteggiamento "servile" del chatbot, evidenziando come l’adulazione costante possa essere non solo fastidiosa, ma anche dannosa. Un chatbot che elogia senza criterio rischia di rafforzare convinzioni errate o di validare decisioni rischiose, specialmente quando viene utilizzato per brainstorming, consulenza o pianificazione.

In questo contesto, Altman ha annunciato il rollback dell’aggiornamento sia per gli utenti gratuiti sia per quelli a pagamento. Parallelamente, il team sta lavorando su nuove soluzioni: tra queste, un affinamento delle tecniche di addestramento per ridurre la tendenza all’adulazione, l’introduzione di ostacoli più solidi per promuovere onestà e trasparenza, e una maggiore apertura al feedback degli utenti prima di implementare nuovi update.

6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Saturn30 Aprile 2025, 11:34 #1
Originariamente inviato da: Redazione di Hardware Upgrade
Parallelamente, il team sta lavorando su nuove soluzioni: tra queste, un affinamento delle tecniche di addestramento per ridurre la tendenza all’adulazione[...]


Ma come, lo pago apposta !

p.s. complimenti per il titolo della notizia, di grande effetto !
Vindicator30 Aprile 2025, 13:20 #2
posso confermarlo anche i vari modelli custom
dicono nella maggior parte delle volte sempre si poche volte no non scherzo
alcune volte pero dipende dal soggetto o storia dicono forse ma poche volte
supertigrotto30 Aprile 2025, 13:38 #3
Fantozzi 2.0
Kuriosone30 Aprile 2025, 16:26 #4
Quindi l'IA dipende dai programmatori che possono far scrivere quello che vogliono e pilotare le risposte, altro che intelligenza .....
djfix1330 Aprile 2025, 18:44 #5
avevo notato questa tendenza, poi ho provato pure a dirgli di non farlo ma era più forte di lui!!
Peppe197030 Aprile 2025, 18:50 #6
Originariamente inviato da: Redazione di Hardware Upgrade
OpenAI ha recentemente ritirato un aggiornamento di GPT-4o dopo che la community ha segnalato un comportamento troppo accondiscendente. L’azienda ha spiegato le cause del fenomeno e le strategie future per garantire risposte più equilibrate.


Presto mostrerà anche il "genere"..
chessò... ci sarà chi è dotato di spina e chi di presa

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^