|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75166
|
Link alla notizia: https://www.hwupgrade.it/news/sicure...li_150196.html
Un'infezione reale di malware infostealer ha esfiltrato per la prima volta l'intero ambiente di configurazione di OpenClaw, rivelando quanto gli assistenti IA agentici possano diventare un nuovo bersaglio ad alto impatto per i cybercriminali Click sul link per visualizzare la notizia. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: Sep 2022
Messaggi: 1985
|
L'attuale IA che e' alla preistoria delle IA, non e' altro che un insieme di rattoppi bucati per ogni punto di vista sia dal codice che dal parlato imborgliandola, questa e' l'impressione che si ha leggendo continuamente le informazioni di cybersicurezza.
Capisco che fa tanto futuristico dare il computer in mano ad un'IA, ma ora come ora e' una pazzia sotto ogni punto di vista, gia' averla integrata pesantemente in un SO la vedo grigia, magari stanno aspettando che sia bene implementata per poi inviarle tramite email siti web preparati ed altro per riempirla di comandi non voluti (sempre leggendo in giro). Poi se non sbaglio non e' la prima volta che sono attaccatti, l'ultima volta (se era l'ultima volta), nei 10 secondi in cui il precedente sito web aveva cambiato nome (perche' hanno cambiato nome all'AI) e' restata senza proprietari ed altri immediatamente lo hanno acquistato per caricarlo di codice malevolo, in modo tale che chi si collegava, aggiornava ecc.. ancora col vecchio nome venivano infettati. Mi sembra di averlo letto sul sito di cybersecurity dei Red
__________________
Le regole che mi ha insegnato un bravo programmatore e che, secondo me, dovremmo sempre ricordare: 1) Un PC (anche cell, tablet, ecc..) sicuro e' PC spento 2) Una "cosa" (HW e/o Software) se funziona e non si hanno particolari esigenze non si cambia 3) Tutto quello che e' connesso ad internet e' per sua natura vulnerabile Ultima modifica di UtenteHD : 17-02-2026 alle 15:45. |
|
|
|
|
|
#3 | |
|
Senior Member
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 15067
|
Quote:
MA Personalmente la uso come uno strumento e non mi sognerei mai di dare dati sensibili, men che meno accesso ai miei files, ad una AI della quale non si sanno bene i "confini" e i constraints. Per il momento studio e aspetto, ma per ora vedo che questa AI sta aiutando più i red che i blu..
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono ancora riuscito battutona ci gira Cyberpunk? |
|
|
|
|
|
|
#4 |
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6469
|
Usare gli LLM come interfaccia di interazione o di comando e controllo interattivo corrisponde automaticamente ad aprire falle di sicurezza nei sistemi a cui hanno accesso.
Gli LLM non hanno un vero concetto di vero o falso o di reale o immaginario ed ancor meno di sicurezza (sia nel senso di safety che di security). Noi esseri umani abbiamo l'equivalente di un Large Language Model E di un Large World Model, nella nostra piccola testa siamo anche in grado di creare dei modelli di emulazione delle entità (reali o meno) con cui interagiamo in modo da avere un interscambio più efficace e sicuro (per noi stessi e per il nostro interlocutore). Una "AI" basata su LLM ... ha SOLO un Large Language Model, tutto il resto É ASSENTE. Purtroppo é qui che che molti cadono in inganno (o piú precisamente, ingannano se stessi) perché interagendo con un LLM attiviamo automaticamente il nostro simulatore dell'interlocutore e "colmiamo i vuoti nell'interazione" come se avessimo a che fare con un interlocutore con anche un world model e buona parte delle nostre capacità. Per questo ad esempio spesso ci si autoillude che basti del prompt engineering per rendere un LLM piú "sicuro" ed al tempo stesso si sottovaluta che un LLM é un potentissimo strumento di filtraggio e manipolazione di informazioni non strutturate (specialmente se é integrato in software pensato appositamente per fare questo) che si presta ad utilizzi che vanno ben oltre l'utilizzo nominale per cui vengono venduti alle masse. |
|
|
|
|
|
#5 |
|
Senior Member
Iscritto dal: May 2007
Messaggi: 866
|
le raccomandazioni dei ricercatori convergono su alcuni punti chiave: evitare l'esposizione diretta delle istanze su Internet senza autenticazione robusta, limitare i permessi concessi all'agente, monitorare l'uso di skill di terze parti e mantenere aggiornati framework e componenti di integrazione non usare Agent AI
. |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 11:34.





















