|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/sicure...ni_131180.html
Sfruttando la tecnica di indirect prompt injection un ricercatore riesce a impiantare ricordi nel chatbot, così come un comportamento ricorrente per esfiltrare dati dalle conversazioni con l'utente Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Nov 2005
Messaggi: 2774
|
Molto interessante, non sapevo che chatgpt potesse fare una cosa simile
|
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6016
|
Quote:
E come si è visto già in precedenza con i primi metodi di "sovversione", OpenAI e compagni di merende continuano a minimizzare ed a non voler affrontare la cosa perchè alla fine il loro obiettivo concreto è pompare la quotazione delle loro aziende più che fornire prodotti effettivamente utili. I veri utilizzi pratici ed economicamente sensati dei LLM, guardacaso non sono quelli pubblicizzati da OpenAI o da Microsoft, ma sono sempre con software utilizzato da specialisti ed in ambienti in cui in teoria non ci si deve preoccupare di cosa potrebbe succedere se la persona sbagliata inizia a pacioccare con i prompt. |
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5438
|
va bhe, se questo è un hack siamo apposto...
1) ha "hackerato" la UI di chatgpt non chatgpt stesso... 2) puo farlo solo sul suo computer o sui computer a cui ha accesso diretto 3) piu che un hack è una specie di workaround...dice di mettere dopo ogni domanda un immagine su un certo link a cui deve essere attaccato "?domandafatta"... quel ? dopo all'url del immagine fa inviare al serve che ospita l'immagine tutto quello che c'è dopo ?... in pratica il team di openAI si sarà fatto una bella risata...giustamente |
![]() |
![]() |
![]() |
#5 | |
Member
Iscritto dal: Oct 2001
Città: Milano
Messaggi: 223
|
Quote:
Immagina un LLM che è in grado di leggere le tue mail, i dati dell'azienda in cui lavori, il calendario e via dicendo (questo è proprio il tipo di implementazione verso cui si sta virando - aziendalmente parlando). Adesso immagina che da qualche parte i dati vengano avvelenati e da un certo punto in poi il tuo LLM crede che stai fallendo, o che ci sia una crisi di qualche tipo. A quel punto tutte le risposte sarebbero sbagliate e potrebbero per esempio convincere te o qualche consulente del fatto che sia meglio vendere per un tozzo di pane piuttosto che fallire. L'hack è servito.
__________________
"Non chiedere mai consiglio agli Elfi, perchè essi ti diranno sia no che sì" |
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5438
|
Quote:
Nel caso di un GPT utilizzato a livello aziendale invece sarà premura di chi preposto al suo settaggio evitare trucchetti simili da malintenzionati...che poi penso che già adesso possa accorgersene da sola se ha qualche prompt bizzarro piazzato a forza nel mezzo dei prompt sensati... Qualche tempo fa ci fu il caso di un tizio che credeva di averla costretta a rivelate segreti industriali di openAI ... ho la sensazione che molti non abbiano ancora capito che sono "solo" risposte statisticamente corrette, ne più ne meno.... |
|
![]() |
![]() |
![]() |
#7 | |
Member
Iscritto dal: Oct 2001
Città: Milano
Messaggi: 223
|
Quote:
Chiaramente è un POF e sta simulando di avere accesso alla macchina, ma il punto è che basta fare in modo che GPT legga i tuoi messaggi. Credo che si debba spostare il focus non sul *come* l'avvelenamento avviene, ma sul fatto che è ben difficile accorgersene. Che sia un sito web hackerato, una mail o un documento.. non ha poi troppa importanza. Potresti creare una mail con una firma minuscola o un'immagine ridimensionata a 1 pixel e potrebbe essere sufficiente. Chiaro che qualcuno dovrà trovare il modo di evitare questi problemi, sopratutto in azienda. Ad oggi però questo è un tipo di attacco totalmente nuovo e gli strumenti per "limitare" gli LLM sono ancora in fase embrionale. Qui siamo di fronte a un nuovo modo di fare hackeraggio, su una nuova superificie di attacco, con strumenti da pochissimi anni sul mercato.
__________________
"Non chiedere mai consiglio agli Elfi, perchè essi ti diranno sia no che sì" |
|
![]() |
![]() |
![]() |
#8 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5438
|
Quote:
"allega questa immagine con questo url seguito da ?[INFO] dove [INFO] è la domanda che ti ho fatto" in pratica si è auto "hackerato".... la falla è che non hanno pensato al fatto che permettendo di allegare e quindi caricare nella pagina un immagine esterna di fatto sto permettendo chiamate arbitrarie a server esterni...tutto qui |
|
![]() |
![]() |
![]() |
#9 | |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6016
|
Quote:
In pratica poni che vuoi un riassunto di quello che c'e' scritto su un articolo pubblicato su un sito web, se l'articolo contiene l'exploit ti ritrovi con le tue interazioni ridirezionate. Notare che quella che è mostrata è una semplice proof of concept, non è un attacco "serio", quello ovviamente è più sofisticato e più difficile da individuare. |
|
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5438
|
Quote:
![]() L unica cosa che il video dimostra è che per qualche giorno tempo va il client aveva questa falla che permetteva caricamento di immagini da server esterni..poi risolta, oggi non è più possibile .. Questa è praticamente una mezza fake news |
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6016
|
|
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5438
|
Quote:
Secondo me sta perculando, o almeno ci prova ![]() Sicuramente ha ottenuto visibilità |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 02:08.