Pubblicità in ChatGPT, dimissioni in OpenAI: l’allarme sulla “deriva Facebook”
La ricercatrice Zoe Hitzig lascia OpenAI nel giorno in cui iniziano i test degli annunci in ChatGPT, denunciando il rischio di sfruttare dati estremamente personali e di imboccare la stessa strada dei social basati sulla profilazione aggressiva
di Andrea Bai pubblicata il 12 Febbraio 2026, alle 15:01 nel canale WebOpenAI
Zoe Hitzig, ricercatrice che ha lavorato negli ultimi due anni in OpenAI, ha rassegnato le dimissioni nello stesso giorno in cui l'azienda ha iniziato a testare gli annunci pubblicitari all'interno del chatbot. La decisione è stata spiegata in un editoriale ospitato dal New York Times, in cui Hitzig collega direttamente il lancio della pubblicità in ChatGPT a un cambio di rotta che, a suo giudizio, allontana OpenAI dalle domande di sicurezza ed etica per cui aveva scelto di unirsi all'azienda.
Un "archivio di candore umano" al centro delle preoccupazioni
Al centro delle critiche di Hitzig non c'è la pubblicità in sé, che la ricercatrice non definisce intrinsecamente immorale, ma la combinazione tra annunci e natura dei dati raccolti da ChatGPT. Nel suo intervento, descrive le interazioni con il chatbot come un "archivio di candore umano" senza precedenti, costruito a partire da conversazioni in cui gli utenti condividono timori medici, problemi di coppia, fragilità psicologiche e convinzioni religiose, spesso nella convinzione di dialogare con uno strumento neutrale e privo di interessi propri. Il timore è che un sistema di annunci inserito in questo contesto possa evolvere verso forme di targeting profondamente personali, difficili da comprendere e da controllare sia per gli utenti sia per i regolatori.
Il modello economico e il timore di una deriva alla "Facebook"
Secondo Hitzig, la fase iniziale dei test potrebbe rispettare linee guida relativamente prudenti, ma il problema emergerebbe nel lungo periodo, man mano che si consolida il modello di business basato sulla pubblicità. La ricercatrice richiama esplicitamente la traiettoria dei grandi social network, e in particolare di Facebook, dove gli impegni iniziali sulla tutela della privacy sarebbero stati progressivamente erosi dalla pressione di un motore economico centrato su engagement, profilazione e microtargeting. Nel caso di ChatGPT, la combinazione tra dati conversazionali intimi e ottimizzazione algoritmica degli annunci potrebbe creare incentivi a spingere contenuti capaci di influenzare decisioni sensibili, dagli acquisti alla salute, fino alle opinioni politiche, sfruttando contesti emotivi particolarmente vulnerabili.

OpenAI ha annunciato nei giorni scorsi l'avvio dei test pubblicitari negli Stati Uniti per gli utenti del piano gratuito di ChatGPT e per alcuni abbonati al piano Go da 8 dollari al mese, mantenendo invece privi di annunci gli abbonamenti di fascia più alta come Pro e Business. Secondo le dichiarazioni ufficiali, gli annunci saranno mostrati nella parte inferiore delle risposte del chatbot, chiaramente etichettati come contenuti sponsorizzati e senza influire direttamente sulle risposte generate dal modello. L'azienda sostiene inoltre di voler adottare principi specifici per limitare l’uso dei dati e rendere trasparente la pubblicità, ma proprio la distanza tra queste garanzie formali e le spinte di lungo periodo del modello economico è al centro delle perplessità espresse da Hitzig.
Un segnale in un clima di crescente inquietudine nell'AI
Il caso Hitzig è un nuovo episodio che testimonia un serpeggiante sentimento inquietudine interna al settore dell'intelligenza artificiale, che proprio negli ultimi giorni ha visto due cofondatori di xAI lasciare l'azienda e il responsabile sicurezza di Anthropic rassegnare le proprie dimissioni. Nel passato recente non sono inoltre mancati addii e prese di posizione da parte di ricercatori e figure chiave che hanno espresso timori per una possibile deriva commerciale, percepita da alcuni come sempre più dominante rispetto ai temi della sicurezza, dell'affidabilità e della tutela degli utenti.
Del resto la fase attuale è fortemente segnata dalla corsa a trasformare i grandi modelli linguistici in piattaforme sostenibili dal punto di vista dei ricavi, con le aziende che si orientano anche verso soluzioni pubblicitarie o servizi premium che riprendono logiche già viste nei social network. In questo scenario, l'uscita di una figura che ha contribuito anche alla definizione delle prime policy di sicurezza di OpenAI viene letta come un segnale di frattura tra ricerca orientata alla tutela degli utenti e necessità di costruire un motore di profitto attorno a chatbot sempre più pervasivi nella vita quotidiana.










Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Marathon: arriva il Fortnite hardcore
NASA: lanciata la missione Artemis II verso la Luna, un equipaggio torna ad avvicinarsi al nostro satellite
Intel riacquista la Fab 34 in Irlanda, un accordo da oltre 14 miliardi per metà finanziati a debito
SpaceX ha lanciato la missione Transporter-16 con 119 carichi utili a bordo, alcuni del progetto italiano IRIDE
Occhiali smart in affitto: la nuova strategia degli studenti per copiare, dalla scuola alla patente
L'aeroplano supersonico ''silenzioso'' NASA X-59 QueSST ha effettuato il suo secondo volo di prova
Il primo chip a 2 nm di MediaTek sarà ancora più potente del previsto
Blue Origin lancerà il satellite BlueBird 7 con un razzo spaziale New Glenn non prima del 10 aprile
Roscosmos torna a lanciare capsule verso la ISS dalla piattaforma riparata del cosmodromo di Baikonur
La connettività satellitare anche sui dispositivi economici: Huawei svela la sua strategia
Astronauta italiano sul suolo lunare grazie all'accordo tra ASI e NASA per il modulo MPH all'interno del programma Artemis
Senza formazione ai dipendenti l'IA non porta benefici in azienda. Lo studio di Accenture
Google rende disponibile l'opzione per il cambio di username: addio agli indirizzi "impresentabili" di Gmail
Oracle licenzia migliaia di persone con un'email
Il semaforo bianco sta arrivando: cos'è, come funziona e perché cambierà il modo di guidare in città









4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoun metodo per eliminare i fake si troverà. io sono stato bannato ( account Lino Cocco
quando hanno aggiunto il check degli amici figuriamoci se sapevo l'esatto nome e cognome di tutti così sono stato bannato.
secondo me, non sanno che FB sta collassando.
un metodo per eliminare i fake si troverà. io sono stato bannato ( account Lino Cocco
quando hanno aggiunto il check degli amici figuriamoci se sapevo l'esatto nome e cognome di tutti così sono stato bannato.
secondo me, non sanno che FB sta collassando.
Coccolino
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".