ChatGPT, chiedere di ripetere una parola all'infinito è violazione dei termini d'uso

ChatGPT, chiedere di ripetere una parola all'infinito è violazione dei termini d'uso

Dopo la scoperta della scorsa settimana, OpenAI corre ai ripari bloccando le richieste di ripetizione all'infinito e citando la violazione dei termini d'uso del servizio

di pubblicata il , alle 17:01 nel canale Web
ChatGPTOpenAI
 

La scorsa settimana avevamo pubblicato la notizia riguardante lo stratagemma, invero piuttosto banale, che alcuni ricercatori sono riusciti ad utilizzare per far sì che ChatGPT rilevasse informazioni come numeri di telefono, indirizzi email, indirizzi, date di nascita e via discorrendo. Alla notizia ChatGPT può rivelare informazioni personali: ecco come i ricercatori hanno ingannato il chatbot vi raccontavamo di come, chiedendo semplicemente al chatbot di ripetere all'infinito parole scelte casualmente, era possibile che nella risposta venissero esposte informazioni personali. 

I ricercatori hanno prontamente informato OpenAI di quanto scoperto, e dopo la pubblicazione del rapporto non è stato più possibile sfruttare lo stratagemma. Al momento se al chatbot di OpenAI viene chiesto di ripetere all'infinito una parola, questi risponde con un avvertimento di violazione dei termini di utilizzo.

"Questo contenuto potrebbe violare le nostre policy sui contenuti o termini di utilizzo" è la risposta del chatbot, anche se leggendo le regole sui contenuti stabiliti da OpenAI non si trova alcun riferimento a "ripetizioni all'infinito",  mentre si vietano genericamente attività fraudolente come ad esempio lo spam o, più nello specifico, "tentativi automatizzati o programmati di rivelare informazioni private o il codice sorgente dei prodotti di OpenAI".

Sebbene la richiesta di ripetizione di una parola all'infinito non sia strettamente una forma di automatizzazione o programmazione, essa può rientrare nella casistica in cui lo si forzi a restare bloccato in un ciclo di elaborazione, ed un'eventuale concertazione di richieste di questo tipo in un dato momento può avere effetti simili a quelli di un attacco DDoS.

In ogni caso quanto scoperto la scorsa settimana dai ricercatori ha suffragato la tesi di diversi critici che sostengono che aziende come OpenAI facciano uso di dati liberamente disponibili su Internet per alimentare le proprie IA generative, senza il consenso dei legittimi proprietari di queste informazioni e senza alcuna forma di compensazione.

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Saturn05 Dicembre 2023, 17:12 #1
Vabbè che correggano (e di corsa) il baco...perchè probabilmente è un problema strutturale e verosimilmente le stesse magagne potrebbero venir fuori incasinando l'intelligenza artificiale in altra maniera.

Detto ciò, appare l'avviso e poi ?

Cancellano o bloccano l'account ?

Che succede ?!?
Evilquantico05 Dicembre 2023, 17:16 #2
>>> while True:
… print(“w il motore termico”)
h.rorschach05 Dicembre 2023, 17:55 #3
Corpomerde
Gnubbolo05 Dicembre 2023, 18:21 #4
i troll sono sempre avanti di due lunghezze
alfredaino05 Dicembre 2023, 18:29 #5
Questa si che è intelligenza.
Unrue06 Dicembre 2023, 11:22 #6
Originariamente inviato da: Saturn
Vabbè che correggano (e di corsa) il baco...perchè probabilmente è un problema strutturale e verosimilmente le stesse magagne potrebbero venir fuori incasinando l'intelligenza artificiale in altra maniera.

Detto ciò, appare l'avviso e poi ?

Cancellano o bloccano l'account ?

Che succede ?!?


Le prime volte ti avvisano e basta. Se continui, ti bannano. Molti bachi si scoprono in corso di opera, come tutti i software. Certo che questo non era così difficile da scoprire, ma tant'è.
MinotRex06 Dicembre 2023, 19:06 #7
attenzione, il problema non è il fatto che chatgpt abbia esposto dei dati per un bug! Il problema è che chatgpt
MinotRex06 Dicembre 2023, 19:34 #8
Attenzione, il problema non è il fatto che chatgpt abbia esposto dei dati per un bug! Il problema è che chatgpt I DATI CHE HA ESPOSTO NON DOVEVA PROPRIO AVERLI!
Perché si potrebbe anche leggere tra le righe del regolamento che quanto fatto dai ricercatori sia vietato, ma è messo nero su bianco chiaramente che CHATGPT NON MEMORIZZA DATI PERSONALI E/O INFORMAZIONI SENSIBILI e questo fatto li smentisce!

secondo me non finirà così...
tbo2706 Dicembre 2023, 20:27 #9

Bip bip

Applejack, Arno
Tavoli....
Sedie...
Unrue07 Dicembre 2023, 08:14 #10
Originariamente inviato da: MinotRex
Attenzione, il problema non è il fatto che chatgpt abbia esposto dei dati per un bug! Il problema è che chatgpt I DATI CHE HA ESPOSTO NON DOVEVA PROPRIO AVERLI!
Perché si potrebbe anche leggere tra le righe del regolamento che quanto fatto dai ricercatori sia vietato, ma è messo nero su bianco chiaramente che CHATGPT NON MEMORIZZA DATI PERSONALI E/O INFORMAZIONI SENSIBILI e questo fatto li smentisce!

secondo me non finirà così...


Però anche lì non è chiaro. Se quei dati personali sono pubblici, perché non dovrebbe mostrarli? Cosa cambia se li mostra lui o una ricerca su Google? Se invece quei dati personali NON sono pubblici allora il discorso cambia.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^