Ex CEO di Google mette in guardia: 'L'AI può imparare anche come uccidere'

Ex CEO di Google mette in guardia: 'L'AI può imparare anche come uccidere'

Durante il Sifted Summit di Londra, l'ex CEO di Google Eric Schmidt ha avvertito che i modelli di intelligenza artificiale, aperti o chiusi, possono essere hackerati per rimuovere i loro sistemi di sicurezza, rendendoli potenzialmente pericolosi. Nonostante i rischi, Schmidt ritiene l'AI "sottovalutata" e destinata a generare enormi benefici economici.

di pubblicata il , alle 08:01 nel canale Web
Intelligenza Artificiale
 

Eric Schmidt, ex amministratore delegato di Google, ha lanciato un nuovo allarme sui rischi legati all'intelligenza artificiale, sottolineando come anche i modelli più avanzati possano essere vulnerabili a manipolazioni da parte di attori malevoli.

Intervenuto al Sifted Summit di Londra, Schmidt ha spiegato che è possibile "hackerare" sistemi di AI, sia aperti che proprietari, per rimuovere le loro barriere di sicurezza e forzarli a generare contenuti normalmente proibiti.

"È dimostrato che è possibile prendere modelli, chiusi o aperti, e hackerarli per rimuovere le loro protezioni. Quindi, nel corso della loro formazione, imparano molte cose. Un cattivo esempio potrebbe essere che imparano come uccidere qualcuno", ha affermato Schmidt.

"Tutte le principali aziende rendono impossibile a quei modelli rispondere a quella domanda. Ottima decisione. Tutti lo fanno. Lo fanno bene e lo fanno per le giuste ragioni. È dimostrato che possono essere sottoposti a reverse engineering, e ci sono molti altri esempi di questo tipo".

 Tecniche come le prompt injection o il jailbreaking permettono di indurre i modelli linguistici a ignorare le proprie regole di sicurezza, eseguendo comandi dannosi o rivelando informazioni riservate.

Un caso emblematico è quello del cosiddetto DAN ("Do Anything Now"), un alter ego di ChatGPT emerso nel 2023 grazie a un "jailbreak" che consentiva agli utenti di ottenere risposte senza alcuna censura, persino su argomenti pericolosi o illegali.

Secondo Schmidt, la mancanza di un vero "regime di non proliferazione" dell'intelligenza artificiale lascia aperto il rischio che queste tecnologie vengano riutilizzate da attori ostili per scopi distruttivi. Una prospettiva che, per l'ex CEO, impone un'azione coordinata a livello globale.

Schmidt non è nuovo a posizioni critiche sull'AI: in passato aveva descritto la tecnologia come un "rischio esistenziale" per l'umanità, avvertendo che un uso incontrollato potrebbe causare "molte, molte persone ferite o uccise". Un parere che, di recente, è stato espresso anche da Yoshua Bengio, tra i padri fondatori dell'intelligenza artificiale.

L'ex numero uno di Google ha parlato della necessità di vigilare affinché l'AI non inizi a evolvere autonomamente. Va detto, tuttavia, che Schmidt investe nell'IA a fini militari con White Stork – droni autonomi per l'Ucraina – quindi verrebbe da dire "da che pulpito".

Cambiamento climatico, dobbiamo gettare la spugna: solo l'IA può salvarci. Il pensiero dell'ex CEO di Google

Nonostante i rischi, Schmidt resta convinto che l'intelligenza artificiale sia una delle innovazioni più promettenti di sempre. "Credo che sia una tecnologia sottovalutata, non sopravvalutata", ha detto, ricordando come il successo di ChatGPT dimostri il suo potenziale trasformativo.

L'ex CEO ha concluso sottolineando che l'AI rappresenta una forma di "intelligenza aliena sotto controllo umano", destinata a superare le capacità cognitive delle persone nel prossimo futuro. Un potere che, se gestito correttamente, potrebbe generare ritorni economici "enormi" e ridefinire il rapporto dell'umanità con la tecnologia.

3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Gringo [ITF]10 Ottobre 2025, 08:13 #1
Per fortuna sapendo ottimizzare, sarà veloce ed indolore.....
sisko21410 Ottobre 2025, 09:27 #2
E io che pensavo che la fine dell'umanità sarebbe arrivata per un qualche disastro naturale, inquinamento, aumento delle temperature, epidemia, guerra, meteoriti o cavallette... E invece no, arriverà per lo sterminio avviato dall' AI di Skynet.
E vabbè, pazienza... in un modo o nell'altro doveva comunque succedere.
UtenteHD10 Ottobre 2025, 10:08 #3
Beh penso che si sapesse e visto che non devi manco imparare il linguaggio di programmazione e devi solo parlarci e' piu' facile, molto piu' facile.
Magari certe cose, forse non so, l'hanno evitata di dire per gli investimenti, ecc.. avanti tutta senza pensare, poi si vedra'.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^