Pubblicità in ChatGPT, dimissioni in OpenAI: l’allarme sulla “deriva Facebook”

Pubblicità in ChatGPT, dimissioni in OpenAI: l’allarme sulla “deriva Facebook”

La ricercatrice Zoe Hitzig lascia OpenAI nel giorno in cui iniziano i test degli annunci in ChatGPT, denunciando il rischio di sfruttare dati estremamente personali e di imboccare la stessa strada dei social basati sulla profilazione aggressiva

di pubblicata il , alle 15:01 nel canale Web
OpenAI
 

Zoe Hitzig, ricercatrice che ha lavorato negli ultimi due anni in OpenAI, ha rassegnato le dimissioni nello stesso giorno in cui l'azienda ha iniziato a testare gli annunci pubblicitari all'interno del chatbot. La decisione è stata spiegata in un editoriale ospitato dal New York Times, in cui Hitzig collega direttamente il lancio della pubblicità in ChatGPT a un cambio di rotta che, a suo giudizio, allontana OpenAI dalle domande di sicurezza ed etica per cui aveva scelto di unirsi all'azienda.

Un "archivio di candore umano" al centro delle preoccupazioni

Al centro delle critiche di Hitzig non c'è la pubblicità in sé, che la ricercatrice non definisce intrinsecamente immorale, ma la combinazione tra annunci e natura dei dati raccolti da ChatGPT. Nel suo intervento, descrive le interazioni con il chatbot come un "archivio di candore umano" senza precedenti, costruito a partire da conversazioni in cui gli utenti condividono timori medici, problemi di coppia, fragilità psicologiche e convinzioni religiose, spesso nella convinzione di dialogare con uno strumento neutrale e privo di interessi propri. Il timore è che un sistema di annunci inserito in questo contesto possa evolvere verso forme di targeting profondamente personali, difficili da comprendere e da controllare sia per gli utenti sia per i regolatori.

Il modello economico e il timore di una deriva alla "Facebook"

Secondo Hitzig, la fase iniziale dei test potrebbe rispettare linee guida relativamente prudenti, ma il problema emergerebbe nel lungo periodo, man mano che si consolida il modello di business basato sulla pubblicità. La ricercatrice richiama esplicitamente la traiettoria dei grandi social network, e in particolare di Facebook, dove gli impegni iniziali sulla tutela della privacy sarebbero stati progressivamente erosi dalla pressione di un motore economico centrato su engagement, profilazione e microtargeting. Nel caso di ChatGPT, la combinazione tra dati conversazionali intimi e ottimizzazione algoritmica degli annunci potrebbe creare incentivi a spingere contenuti capaci di influenzare decisioni sensibili, dagli acquisti alla salute, fino alle opinioni politiche, sfruttando contesti emotivi particolarmente vulnerabili.

OpenAI ha annunciato nei giorni scorsi l'avvio dei test pubblicitari negli Stati Uniti per gli utenti del piano gratuito di ChatGPT e per alcuni abbonati al piano Go da 8 dollari al mese, mantenendo invece privi di annunci gli abbonamenti di fascia più alta come Pro e Business. Secondo le dichiarazioni ufficiali, gli annunci saranno mostrati nella parte inferiore delle risposte del chatbot, chiaramente etichettati come contenuti sponsorizzati e senza influire direttamente sulle risposte generate dal modello. L'azienda sostiene inoltre di voler adottare principi specifici per limitare l’uso dei dati e rendere trasparente la pubblicità, ma proprio la distanza tra queste garanzie formali e le spinte di lungo periodo del modello economico è al centro delle perplessità espresse da Hitzig.

Un segnale in un clima di crescente inquietudine nell'AI

Il caso Hitzig è un nuovo episodio che testimonia un serpeggiante sentimento inquietudine interna al settore dell'intelligenza artificiale, che proprio negli ultimi giorni ha visto due cofondatori di xAI lasciare l'azienda e il responsabile sicurezza di Anthropic rassegnare le proprie dimissioni. Nel passato recente non sono inoltre mancati addii e prese di posizione da parte di ricercatori e figure chiave che hanno espresso timori per una possibile deriva commerciale, percepita da alcuni come sempre più dominante rispetto ai temi della sicurezza, dell'affidabilità e della tutela degli utenti.

Del resto la fase attuale è fortemente segnata dalla corsa a trasformare i grandi modelli linguistici in piattaforme sostenibili dal punto di vista dei ricavi, con le aziende che si orientano anche verso soluzioni pubblicitarie o servizi premium che riprendono logiche già viste nei social network. In questo scenario, l'uscita di una figura che ha contribuito anche alla definizione delle prime policy di sicurezza di OpenAI viene letta come un segnale di frattura tra ricerca orientata alla tutela degli utenti e necessità di costruire un motore di profitto attorno a chatbot sempre più pervasivi nella vita quotidiana.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mo4212 Febbraio 2026, 15:17 #1
Il prodotto siamo noi.
Gnubbolo12 Febbraio 2026, 16:16 #2
per salvare FB devono levare la lista cerca amici, è impestata da NPC, devono bannare senza pietà chi genera sta roba.

un metodo per eliminare i fake si troverà. io sono stato bannato ( account Lino Cocco ) perchè, da cojone, ho provato i giochi zynga dove si dovevano aggiungere amici su amici per proseguire.. alla fine avevo tipo 200 persone che in real life non conoscevo.
quando hanno aggiunto il check degli amici figuriamoci se sapevo l'esatto nome e cognome di tutti così sono stato bannato.

secondo me, non sanno che FB sta collassando.
Pascas13 Febbraio 2026, 09:14 #3
Originariamente inviato da: Gnubbolo
per salvare FB devono levare la lista cerca amici, è impestata da NPC, devono bannare senza pietà chi genera sta roba.

un metodo per eliminare i fake si troverà. io sono stato bannato ( account Lino Cocco ) perchè, da cojone, ho provato i giochi zynga dove si dovevano aggiungere amici su amici per proseguire.. alla fine avevo tipo 200 persone che in real life non conoscevo.
quando hanno aggiunto il check degli amici figuriamoci se sapevo l'esatto nome e cognome di tutti così sono stato bannato.

secondo me, non sanno che FB sta collassando.


Coccolino mi hai ricordato che avevo perso anch'io un account stupido in un modo simile..
h.rorschach13 Febbraio 2026, 10:45 #4
Bubble

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^