Un professore tedesco perde due anni di lavoro accademico dopo aver disattivato un'impostazione di ChatGPT

Un professore tedesco perde due anni di lavoro accademico dopo aver disattivato un'impostazione di ChatGPT

Un professore dell'Università di Colonia ha perso due anni di lavoro accademico dopo aver disattivato un'impostazione di ChatGPT, cancellando tutte le chat. Il caso, raccontato su Nature, riaccende il dibattito su affidabilità dell'IA, uso responsabile e necessità di backup nel lavoro scientifico.

di pubblicata il , alle 10:11 nel canale Web
ChatGPTOpenAI
 

Un errore apparentemente banale si è trasformato in un incubo professionale per Marcel Bucher, professore di scienze vegetali all'Università di Colonia, che ha perso due anni di lavoro accademico dopo aver modificato un'impostazione di ChatGPT. La vicenda, raccontata dallo stesso Bucher in una colonna pubblicata su Nature, ha acceso un acceso dibattito sull'affidabilità degli strumenti di intelligenza artificiale e sull'uso responsabile di queste tecnologie in ambito scientifico.

Bucher ha spiegato di aver disattivato l'opzione di "data consent" di ChatGPT per verificare se il modello avrebbe continuato a funzionare senza fornire dati a OpenAI. Subito dopo, tutte le sue conversazioni sono scomparse: bozze di domande di finanziamento, revisioni di articoli scientifici, lezioni universitarie ed esami, frutto di due anni di lavoro quotidiano. "Non è apparso alcun avviso. Nessuna possibilità di annullare. Solo una pagina bianca", ha scritto.

Il professore utilizzava ChatGPT Plus come un vero e proprio assistente personale, affidandosi non tanto all'accuratezza dei contenuti quanto alla continuità e stabilità dello spazio di lavoro. Proprio questa fiducia si è rivelata fatale.

Questo episodio infiamma ancora di più il dibattito sull'uso di ChatGPT e in generale dell'IA

La reazione online non si è fatta attendere. Molti utenti hanno espresso una certa schadenfreude (piacere per le disgrazie altrui), criticando Bucher per non aver mai effettuato backup locali del suo lavoro. Altri si sono spinti oltre, accusandolo di un uso irresponsabile dell'IA in ambito accademico. Non sono mancati, però, messaggi di solidarietà: alcuni colleghi hanno lodato la sua onestà nel raccontare un flusso di lavoro profondamente difettoso, ma tutt'altro che raro.

L'episodio si inserisce in un contesto già fortemente critico verso l'uso dell'IA nella ricerca scientifica. Riviste accademiche sono sempre più sommerse da articoli mal documentati generati con modelli linguistici, mentre emergono casi di citazioni completamente inventate e persino riviste fraudolente che sfruttano la corsa alle pubblicazioni.

Bucher ha accusato OpenAI di vendere abbonamenti senza garantire misure di protezione di base per dati professionali. In risposta, OpenAI ha dichiarato che le chat eliminate non sono recuperabili e ha contestato l'assenza di avvisi, affermando che esiste una conferma prima dell'eliminazione definitiva. L'azienda ha inoltre ribadito una raccomandazione fondamentale: per il lavoro professionale, i backup personali sono indispensabili.

23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Hiei360026 Gennaio 2026, 10:31 #1
2 Anni di lavoro
0 Backup
Professore

...che idiota.
Questo episodio infiamma ancora di più il dibattito sull'uso di ChatGPT e in generale dell'IA


Qua l'IA proprio non centra una mazza.
Qui centra il non sapere usare uno strumento, cambiare un impostazione senza sapere cosa faccia e soprattutto il NON fare backup del proprio lavoro
Hiei360026 Gennaio 2026, 10:33 #2
Edit: Doppio post
io78bis26 Gennaio 2026, 10:34 #3
Io sto dalla parte di chi sostiene "Id10ta chi non fa i backup". 2 anni persi? Capisco se dici di aver perso le conversazioni ma i risultati/elaborati prodotti da quelle conversazioni non puoi averli persi altrimenti impara dai tuoi errori.

Lasciamo perdere poi il fatto di disattivare opzioni a caso senza prima informarsi su cosa comportino certe azioni
Fantapollo26 Gennaio 2026, 10:56 #4
Originariamente inviato da: io78bis
Io sto dalla parte di chi sostiene "Id10ta chi non fa i backup".


Pure io. Questo tizio e' chiaramente un cretino
ZeroSievert26 Gennaio 2026, 11:37 #5
Il titolo dovrebbe essere:

"Professionista usa uno strumento in maniera impropria e si lamenta pubblicamente quando subisce le conseguenze delle sue leggerezze"
randorama26 Gennaio 2026, 11:46 #6
io gli stornerei la paga di questi due anni.
Saturn26 Gennaio 2026, 12:07 #7
Però io tendo a vedere il bicchiere mezzo pieno anche questa volta.

La sua privacy e soprattutto la sua proprietà intellettuale è salva.

Nessuno copierà o si fregherà il lavoro dei suoi due anni.

Girategli il messaggio, forse si sentirà rincuorato..
jepessen26 Gennaio 2026, 12:20 #8
Qua non c'entra niente la diatriba filosofica con la IA. C'entra il fatto che un professore universitario non sia in grado di capire o creare un backup del proprio lavoro. Il resto e' solo fuffa.
Rubberick26 Gennaio 2026, 13:41 #9
si anche però fare un versioning e qualche messaggio in più di check magari con inserisci codice per cancellare non è male eh, sta roba dovrebbe essere prassi, già lo è altrove
io78bis26 Gennaio 2026, 13:58 #10
Originariamente inviato da: Rubberick
si anche però fare un versioning e qualche messaggio in più di check magari con inserisci codice per cancellare non è male eh, sta roba dovrebbe essere prassi, già lo è altrove


Potresti anche aver ragione però nel 2026 chiunque usi il PC per lavoro non può non sapere che i backup devono essere fatti. 2 anni persi? Sei semplicemente stup...

Io voglio sperare che nella realtà questo professore abbia perso cose secondarie

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^