ChatGPT, niente etichette per il testo generato dall'IA: gli utenti non vogliono essere scoperti

ChatGPT, niente etichette  per il testo generato dall'IA: gli utenti non vogliono essere scoperti

OpenAI ha sviluppato un sistema di watermarking per il testo generato da ChatGPT, ma rimane indecisa sul suo rilascio. L'azienda valuta i benefici etici contro potenziali impatti negativi sull'utilizzo del servizio, mentre esplora alternative meno invasive.

di pubblicata il , alle 13:01 nel canale Web
OpenAIChatGPT
 

OpenAI sta affrontando un dilemma etico e commerciale riguardo l'implementazione della sua tecnologia di watermarking per ChatGPT. L'azienda ha già sviluppato un sistema capace di inserire una sorta di "filigrana" invisibile nei testi generati dal suo chatbot, insieme a uno strumento per rilevarla. Tuttavia, la decisione di rendere operativa la funzionalità sta dividendo la società.

La tecnica di watermarking elaborata da OpenAI modifica sottilmente il modo in cui il modello prevede e genera le sequenze di parole, creando un pattern rilevabile senza compromettere la qualità del testo prodotto. Secondo fonti interne, l'accuratezza di questo metodo raggiunge il 99,9% utilizzando gli strumenti di rilevazione appositi, ed è resistente a tentativi di elusione.

OpenAI studia dei metodi per rendere "riconoscibile" i testi generati da ChatGPT

L'introduzione di un tale sistema potrebbe rappresentare un significativo passo avanti nella trasparenza e nell'uso responsabile dell'intelligenza artificiale. Gli insegnanti, in particolare, potrebbero beneficiarne per scoraggiare la presentazione di elaborati generati dall'IA come lavoro originale degli studenti e, secondo un sondaggio commissionato dalla stessa OpenAI, c'è un ampio sostegno pubblico in relazione allo sviluppo di strumenti di rilevamento dell'IA, con un rapporto di quattro a favore su uno contro.

Nonostante i potenziali vantaggi, l'azienda si trova a dover considerare le possibili ripercussioni sull'adozione e l'utilizzo di ChatGPT: un'indagine interna ha evidenziato che quasi il 30% degli utenti intervistati ridurrebbe l'uso del software se fosse implementato il watermarking. OpenAI sta anche valutando le implicazioni per gli utenti non madrelingua che intendono sfruttare gli strumenti basati sull'IA per migliorare le proprie capacità linguistiche. Di fronte a queste sfide, alcuni dipendenti di OpenAI stanno proponendo di esplorare approcci alternativi "potenzialmente meno controversi tra gli utenti ma non ancora testati".

L'azienda ha confermato di essere effettivamente nelle fasi iniziali di sperimentazione di altri metodi, come ad esempio l'incorporazione dei metadati, che potrebbe rappresentare un giusto compromesso. Il metodo, basato su firme crittografiche, promette di eliminare il rischio di falsi positivi, ma la sua efficacia è tutta da dimostrare. La decisione finale sul watermarking dei testi generati con ChatGPT potrebbe stabilire un precedente importante per l'industria dell'IA, visto che può influenzare il modo in cui altre aziende affronteranno in futuro questioni simili legate alla trasparenza e alla responsabilità.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LMCH05 Agosto 2024, 13:46 #1
un'indagine interna ha evidenziato che quasi il 30% degli utenti intervistati ridurrebbe l'uso del software se fosse implementato il watermarking

E' proprio a causa di quel che fa quel 30% che si vuole introdurre il watermarking.
Ma se tanto mi da tanto in OpenAI hanno preso paura quando si sono resi conto da chi dipende il 30% del loro business (almeno quelli che ancora vorrebbero una "safe AI", altri non so).
Hiei360005 Agosto 2024, 14:35 #2
Se si tratta di un watermarking testuale, basta semplicemente leggere il testo e toglierlo.... a meno che questo non sia considerato troppo lavoro per l'utonto medio
Opteranium05 Agosto 2024, 14:39 #3
non lo faranno mai, azzererebbero il loro mercato, in quanto gli utenti sarebbero messi alla berlina sull'uso del software..
daviderules05 Agosto 2024, 14:42 #4
Originariamente inviato da: LMCH
E' proprio a causa di quel che fa quel 30% che si vuole introdurre il watermarking.
Ma se tanto mi da tanto in OpenAI hanno preso paura quando si sono resi conto da chi dipende il 30% del loro business (almeno quelli che ancora vorrebbero una "safe AI", altri non so).


Da quello che ho capito è un watermarking trasparente per l'utente e rilevabile solo tramite tool appositi, ad esempio il modello potrebbe forzare ogni decima parola ad iniziare per la lettera "a" e adattare il resto del testo in base a questa regola.

Ovviamente questa è una semplificazione per spiegare il concetto

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^