OpenAI dichiara: 'Nessuno strumento riesce a riconoscere i testi generati dall'IA'
Secondo OpenAI gli strumenti progettati per distinguere il testo generato dall'IA da quello umano hanno un basso tasso di accuratezza e non sono affidabili. A luglio la società aveva interrotto il proprio strumento AI Classifier, che offriva un tasso di accuratezza del 26%
di Nino Grasso pubblicata il 11 Settembre 2023, alle 15:31 nel canale WebOpenAI
OpenAI, l'azienda che ha creato il popolare chatbot ChatGPT, ha ammesso ufficialmente che gli strumenti progettati per distinguere il testo generato dall'Intelligenza Artificiale da quello scritto dagli esseri umani hanno un basso tasso di accuratezza e non sono affidabili.

La scorsa settimana l'azienda ha pubblicato dei consigli per l'uso della tecnologia nell'ambito scolastico, e in una sezione delle FAQ si legge:
"Sebbene alcuni (tra cui OpenAI) abbiano rilasciato strumenti che pretendono di rilevare i contenuti generati dall'IA, nessuno di questi ha dimostrato di distinguere in modo affidabile tra contenuti generati dall'IA e contenuti generati dall'uomo".
Ricordiamo che a luglio la società aveva dismesso il proprio strumento sperimentale AI Classifier, pensato proprio per individuare testi scritti da intelligenze artificiali, a causa del tasso di accuratezza molto basso. Secondo OpenAI, insomma, attualmente non esiste uno strumento in grado di rilevare con precisione se un testo è stato generato da un'IA o scritto da un essere umano, e i rilevatori esistenti si basano su metriche non comprovate producendo molti falsi positivi.
Secondo OpenAI gli strumenti per rilevare l'uso dell'IA generativa non funzionano
Nella FAQ, OpenAI scrive inoltre che neanche ChatGPT stesso è in grado di stabilire se un testo è stato scritto da un'intelligenza artificiale. A risposte come "Hai scritto tu questo contenuto?", infatti, offre risposte "casuali e prive di alcun fondamento". Questi strumenti possono ad esempio essere utilizzati per scoprire se uno studente abbia utilizzato o meno un chatbot o altre IA per i propri compiti, ma OpenAI vuole sottolineare che non possono essere considerati affidabili.
Di contro, un umano (come l'insegnante in questo caso) potrebbe farlo, soprattutto chi conosce bene lo stile di scrittura di uno studente può notare cambiamenti improvvisi che facciano sospettare l'uso dell'IA generativa. Inoltre, testi palesemente generati da chatbot e copiati senza revisione possono contenere frasi rivelatrici inserite dalla stessa tecnologia. Un umano può scoprire anche eventuali errori grossolani, come nel caso discusso di recente dalla rivista scientifica Nature (in cui nel testo di un articolo scientifico era presente il testo Regenerate response, presente in uno dei tasti dell'interfaccia di ChatGPT).
Secondo OpenAI, al momento gli strumenti di rilevamento automatico non funzionano e probabilmente continueranno a non funzionare per diverso tempo: insomma, insegnanti e i revisori devono prestare attenzione a cambiamenti di stile e contenuti sospetti, evitando di affidarsi a rilevatori automatici che possono produrre falsi positivi. Allo stesso modo, OpenAI ammette che anche il suo strumento di IA generativa può sbagliare, e qualsiasi risposta di ChatGPT non deve essere considerata affidabile a prescindere.
ChatGPT non può essere, quindi, l'unica fonte di una eventuale ricerca: i loro testi vanno sempre verificati, messi in discussione e integrati con fonti e ricerche affidabili, visto che - come altri strumenti di IA generativa - ha grandi capacità di produrre testi coerenti e informativi, ma non possiede una reale comprensione del mondo e degli argomenti trattati.










Le soluzioni FSP per il 2026: potenza e IA al centro
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
Ecco perché dovremmo tutti avere paura di Cao Cao Mobility (no, non è uno scherzo)
È un robot completo con molte delle caratteristiche dei top di gamma: LEFANT M3 Max con stazione All-in-One scende a 360,98€ su Amazon
ASUS indaga sui guasti dei Ryzen 7 9800X3D sulle motherboard AM5 serie 800
Addio limiti di packaging? Intel mostra il suo 'super package' in vetro
Disastro Williams: la FW48 non supera l'omologazione del telaio, salta i test di Barcellona
Un hotel italiano fa incetta di recensioni a 5 stelle: merito di Arc Riders
OnePlus Nord 5 in super offerta su Amazon: top di gamma 'flagship killer' con 12GB + 512GB a prezzo minimo
L'innovazione in tournée: arrivano gli Innovation Meetup, si parte da Milano
Addio al caos dei gruppi Whatsapp: arriva la cronologia dei messaggi per i nuovi membri
Il nuovo chip a 2 nm di Samsung si mostra in un nuovo benchmark che mette alla prova la GPU
IBM Enterprise Advantage: consulenza personalizzata per sviluppare applicazioni di IA aziendali
Samsung celebra Milano Cortina 2026 con la campagna “Victory Is a Team Sport”
Aritmie cardiache, cresce il numero di casi scoperti grazie agli smartwatch
Rinviato il secondo lancio del razzo spaziale europeo Isar Aerospace Spectrum a causa di un problema tecnico








6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoOltre ai correttori ortografici, esistono anche quelli di sintassi e analisi logica.
E comunque 80% = inaffidabile.
perchè con le immagini invece spesso/a volte si capisce per i soliti difetti "congeniti" (es: occhi o altre parti del corpo cannate o mancanza di continuità tipo il non allineamento di una strada o un marciapiede se nel mezzo è interrotto da un altro elemento)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".