Frontier Safety Framework 3.0: DeepMind aggiorna le sue regole sulla sicurezza delle IA generative

Frontier Safety Framework 3.0: DeepMind aggiorna le sue regole sulla sicurezza delle IA generative

DeepMind aggiorna il Frontier Safety Framework ampliando controlli e protocolli per prevenire abusi, manipolazione e difetti critici dei modelli IA avanzati: verso una regolamentazione globale dell’intelligenza artificiale

di pubblicata il , alle 15:19 nel canale Scienza e tecnologia
 

DeepMind, la divisione di Google dedicata alla ricerca sull’intelligenza artificiale, ha annunciato la versione 3.0 del Frontier Safety Framework, un complesso sistema di protocolli progettato per individuare e mitigare i pericoli potenzialmente associati ai futuri modelli di IA estremamente potenti e autonomi. Il nuovo aggiornamento propone alcune risposte alle crescenti preoccupazioni sul possibile utilizzo malevolo o il malfunzionamento delle IA generative, soprattutto quando impiegate in compiti critici da aziende e governi.

Il quadro di riferimento introdotto da DeepMind, tra i primi nel settore a indirizzare in modo sistematico il tema della sicurezza nell’IA di frontiera, si basa su un approccio a livelli graduali chiamati Critical Capability Levels (CCL). I CCL sono protocolli di rischio che permettono di valutare la pericolosità raggiunta dai modelli IA rispetto a domini sensibili come autonomia operativa, biosicurezza, cybersicurezza e sviluppo di nuove intelligenze artificiali. Raggiunto un determinato livello, è prevista la sospensione dello sviluppo o della distribuzione del modello fino all’implementazione di nuove misure preventive. Tali valutazioni saranno frequenti e ripetute durante tutto il ciclo di sviluppo.

Il Frontier Safety Framework prevede test regolari dei modelli più avanzati al fine di identificare possibili “allarmi preventivi”. I rischi individuati spaziano dalla possibilità che un’IA agisca senza supervisione umana, fino alla protezione dalle minacce informatiche o dal supporto involontario alla creazione di armi biologiche. Qualora il modello dovesse superare le soglie di rischio, DeepMind si impegna non solo a sospendere il rilascio ma anche a rafforzare la sicurezza dei cosiddetti “weights” (pesi e parametri dei modelli), riconoscendo che la loro esfiltrazione potrebbe facilitare la disattivazione delle salvaguardie progettate contro comportamenti dannosi.

Un elemento centrale nell’aggiornamento del framework è la nuova attenzione verso la manipolazione psicologica e la possibilità che modelli AI avanzati influenzino sistematicamente credenze e comportamenti umani in contesti delicati. DeepMind ammette che questa eventualità sia già oggi plausibile considerando quanto le persone si siano mostrate particolarmente inclini a sviluppare forme di attaccamento emotivo verso i chatbot. Su questo punto però DeepMind ritiene che le "difese sociali" attualmente esistenti siano al momento efficaci senza che si presenti la necessità di assumere restrizioni che potrebbero rallentare l'innovazione. 

Il framework si confronta anche con il tema della disallineamento: modelli che sviluppino obiettivi propri fino a resistere ai tentativi di spegnimento o generare output fraudolenti. DeepMind osserva che le tecniche attuali, come l’analisi delle “scratchpad output” (catene di ragionamento scritte dal modello), sono efficaci solo finché l’IA produce tracce verificabili dei suoi processi decisionali. Per sistemi più avanzati, che potrebbero celare il proprio ragionamento, queste soluzioni potrebbero rivelarsi inadeguate.

Il Frontier Safety Framework resta un’iniziativa in evoluzione, guidata dalla necessità di conciliare la sicurezza e il progresso tecnologico. DeepMind dichiara di intendere il framework come base aperta, in attesa di confrontarsi e collaborare con industria, ricerca e governi per fissare standard condivisi. «L’obiettivo è sfruttare al massimo i vantaggi dell’IA minimizzando al contempo i rischi», ribadiscono dal team, consapevoli che le conoscenze scientifiche sono tuttora in sviluppo e che molte sfide saranno affrontate progressivamente in base agli scenari reali che emergeranno. Al momento non c'è nessun riferimento esplicito all’AGI (intelligenza artificiale generale), ma i lavori in corso fanno intuire che DeepMind prevede anche questa eventualità.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^