In che modo l'AGI può distruggere il mondo? Ce lo spiega DeepMind
DeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni
di Andrea Bai pubblicata il 04 Aprile 2025, alle 11:07 nel canale Scienza e tecnologiaDeepMind, il laboratorio di Intelligenza Artificiale di Google, ha recentemente pubblicato un documento tecnico di 145 pagine (di cui 38 di bibliografia!) che esplora i rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale (AGI), una tecnologia che potrebbe affacciarsi al mondo entro il 2030, secondo le previsioni degli autori del documento.
Come abbiamo più volte raccontato, l'AGI viene definita come un'intelligenza artificiale capace di svolgere compiti cognitivi complessi al pari degli esseri umani e rappresenta una frontiera tecnologica con il potenziale di trasformare profondamente la società per come la conosciamo oggi. Si tratta, però, di una prospettiva che porta con sé tutta una serie di rischi che richiedono una pianificazione attenta e una collaborazione globale.
Con il coordinamento del cofondatore Shane Legg, il team di DeepMind ha identificato quattro categorie di rischio legate all'AGI: uso improprio, disallineamento, errori, e rischi strutturali. Il documento tratta in maniera approfondita i primi due, mentre i restanti vengono accennati sommariamente.

Per "uso improprio" si intende la possibilità che sistemi AGI vengano usati deliberatamente a scopo dannoso: il documento porta l'esempio di attacchi informatici sofisticati o la progettazione di armi biologiche. Un tipo di rischio che, secondo DeepMind, può essere mitigato con procedure rigorose di test e con la creazione di protocolli di sicurezza avanzati. Secondo il team è opportuno pensare anche a meccanismi particolari che possano eliminare capacità dannose o pericolose e nel documento viene utilizzato in diverse situazioni il termine "unlearning" (cioè, "disimparare"). E' possibile che un approccio di questo tipo possa porre delle limitazioni ai modelli, anche se i ricercatori di DeepMind non affrontano nello specifico questo aspetto.
Con il termine "disallineamento" si intende invece quei casi in cui l'AGI agisce in modo opposto alle intenzioni degli sviluppatori, aggirando o addirittura ignorando eventuali limiti imposti. Un argine a questo rischio è rappresentato, secondo DeepMind, dalla "supervisione amplificata" cioè un setup in cui due copie di un'IA verificano in maniera reciproca i rispettivi output. Anche in questo caso viene suggerito un insieme di test intensivi, assieme a procedure di monitoraggio continuative che permettano di individuare eventuali segni di un comportamento anomalo. L'idea di base è quella che l'AGI sia "piantonata" da supervisori umani che possano, in caso di necessità, agire su un interruttore di emergenza.
Gli "errori" sono invece quelle situazioni in cui l'AGI produce risultati dannosi ma in modo non intenzionale. Questo può accadere per via di limiti nella comprensione del contesto o di errori umani nell'impostazione dei comandi. Si tratta di rischi che secondo DeepMind possono essere limitati anzitutto circoscrivendo il potere decisionale dell'AGI e in secondo luogo con l'impiego di sistemi di controllo capaci di filtrare i comandi prima della loro esecuzione.
Infine i "rischi strutturali": si tratta di conseguenze non intenzionali che possono derivare dall'integrazione dell'AGI nei sistemi che già contribuiscono alle attività dell'essere umano. DeepMind fa un esempio che sembra attingere a piene mani dalla narrativa fantascientifica: la diffusione di informazioni false così da orientare l'opinione pubblica e portare ad un accumulo di potere per l'AGI stessa nei sistemi economici e politici. I ricercatori osservano che questo tipo di rischi sono però difficili da prevedere e da mitigare per via dell'evoluzione della società e delle istituzioni umane.
Il fatto che l'AGI possa essere un obiettivo realizzabile nei tempi indicati non solo da DeepMind, ma anche da altre realtà del panorama IA, è un elemento che fa destare più di qualche perplessità: sebbene l'evoluzione dei modelli sia stata rapidissima anche solo nell'ultimo anno, non è scontato che questa rapidità possa continuare nei mesi e negli anni a venire, così come non è scontato che la traiettoria evolutiva dell'IA riesca realmente a condurre verso il paradigma dell'AGI.
Per DeepMind, in ogni caso, il documento redatto non rappresenta "l'ultima parola" sulla sicurezza dell'AGI, anzi è vero l'opposto: si tratta di un punto di partenza di un confronto particolarmente importante e che dovrà essere affrontato presto nel caso in cui realmente l'Intelligenza Artificiale Generale dovesse far capolino nei tempi previsti.










Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
4,9 miliardi su Google: Buffett sfida il suo stesso passato e ristruttura il portafoglio
Google ha svelato un agente AI che può giocare ai videogiochi e interagire con mondi virtuali 3D
Tesla cambia idea: è in arrivo l'integrazione con CarPlay?
Anche Firefox punta sull'intelligenza artificiale: navigare il web sarà diverso con AI Window
Stop alle super-accelerazioni delle auto elettriche? La Cina propone nuove norme e pensa alla sicurezza
Osservatorio AGCOM: sempre più accessi in fibra, Iliad non si ferma e Temu conquista gli italiani
Sempre più IA su Spotify: arrivano i riassunti degli audiolibri, per le parti già ascoltate
iMac M4 crolla a 1.199€ con risparmio di 330€ rispetto al listino: il tutto-in-uno Apple più potente e sottile è in super offerta su Amazon
Nintendo Switch 2: in rilascio un nuovo aggiornamento con tanti miglioramenti
Core Ultra 9 290K Plus, Core Ultra 7 270K Plus e Core Ultra 5 250K Plus: le CPU Arrow Lake Refresh in arrivo
Prezzo Black Friday per le super cuffie Sony WH-1000XM5SA, 229€, in offerta a 249€ anche le Sony WH-1000XM5, identiche, cambia la custodia
Crollano i prezzi della cuffie Beats col Black Friday: Studio Pro al minimo assoluto, Studio Buds+ a 95€ e altri prezzi mai visti prima
ASUS ROG Matrix RTX 5090 costa 4000 dollari: solo 1.000 unità per una scheda elitaria
Grazie ai dati di ESA il calcolo della traiettoria della cometa interstellare 3I/ATLAS è più preciso









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni
Consiglio sempre il libro "weapons of math destruction".
appunto, anzi è improbabile visto che le fonti di apprendimento sono in pratica esaurite. E' più probabile il contrario, cioè la specializzazione delle ia, che risultano molto più utili e controllabili, cosa che sta già avvenendo nel settore business.
senza andare nella fantascenza, gli algoritmi di trading automatizzato fanno già gli stessi danni tanto che devono essere sospesi in certi momenti per non far crollare le borse. L'ai farebbe uguale se non peggio, probabilmente in maniera meno evidente quindi più difficile da individuare.
Consiglio sempre il libro "weapons of math destruction".
Da profano, sottolineo che questa tecnologia (l'IA) e' una tecnologia iperbolica, quindi che non tende a rallentare, bensi' ad accellerare. In particolare in considerazione che l'hardware relativo piuttosto che rallentare (anche per evitare eventuali rischi), tende ad aumentare esponenzialmente in potenza, al motto del chi ce l'ha piu' lungo vince... Per cui, queste previsioni mi sembrano pessimistiche: per robot qualche anno fa si intendevano quei cosi' che stavano nelle fabbriche e che facevano solo UNA cosa; oggi invece, con tutti i limiti del caso, parliamo di robot umanoidi che passano l'aspirapolvere...
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento.
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento.
C'e' una differenza importante.
Mush lo diceva per spingere a comprare le sue Tesla.
Mentre DeepMind dice "Attenzione, andiamoci cauti".
Personalmente do' piu' credito alla seconda
esplosione di bolla speculativa abnorme costruita sui possibili profitti che potrebbero essere generati dalle AI di nuova generazione.
Voi direte: "ma qui si parla di vere AI, non di speculatori ecc. ecc. !"
Invece, si parla di vere e proprie AI, che esistono da molto tempo, molto vecchie, molto lente AI che hanno la brutta tendenza a degenerare in "paperclip optimizer" come descritto molto meglio di me da Charles Stross:
https://www.antipope.org/charlie/blog-static/2018/01/dude-you-broke-the-future.html
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".