Pericolo armi biologiche: l'ammissione choc di OpenAI sui suoi modelli futuri

OpenAI avverte che i suoi futuri modelli di intelligenza artificiale avranno capacità tali da poter semplificare la creazione di armi biologiche anche per chi ha nessuna o scarsa competenza in materia
di Andrea Bai pubblicata il 23 Giugno 2025, alle 11:31 nel canale Scienza e tecnologiaOpenAI
OpenAI sostiene che i suoi prossimi modelli saranno così avanzati da poter essere utilizzati per creare nuove armi biologiche mai esistite prima. L'azienda ha affermato, in un recente post sul proprio blog ufficiale, che nonostante stia sviluppando modelli sempre più sofisticati con "casi d'uso positivi come la ricerca biomedica e la biodifesa", avverte il dovere di bilanciare "l'abilitazione del progresso scientifico mantenendo barriere contro le informazioni dannose".
Queste "informazioni dannose" includerebbero, a quanto pare, la capacità di "assistere attori altamente qualificati nella creazione di armi biologiche". "L'accesso fisico ai laboratori e ai materiali sensibili rimane una barriera", si legge nel post, ma "quelle barriere non sono assolute".
Il responsabile della sicurezza di OpenAI Johannes Heidecke ha chiarito che, sebbene l'azienda non ritenga necessariamente che le sue future IA saranno in grado di produrre autonomamente armi biologiche, saranno abbastanza avanzate da aiutare a farlo anche chi ha poca o nessuna competenza. "Non siamo ancora nel mondo in cui esiste una creazione di minacce biologiche completamente nuove, mai esistite prima. Siamo più preoccupati della replica di cose che gli esperti già conoscono molto bene" ha spiegato Heidecke ad Axios.

Il responsabile della sicurezza di OpenAI ha anche ammesso che, sebbene gli attuali modelli non siano ancora a quel livello, si aspetta che "alcuni successori del nostro modello di ragionamento o3 raggiungano quel livello". "Il nostro approccio è focalizzato sulla prevenzione. Non riteniamo accettabile aspettare e vedere se si verifica un evento di minaccia biologica prima di decidere un livello sufficiente di garanzie".
Nel post sul proprio blog OpenAI sottolinea le contromisure che già sta mettendo in atto e quelle che adotterà in futuro, evidenziando come l'approccio non sia è quello di evitare sul nascere queste prospettive (si tratta, del resto, dell'eterno dilemma tra innovazione, progresso e rischi), ma piuttosto di incrementare gli sforzi nella realizzazione di modelli avanzati con ampie garanzie e controlli a corredo. Heidecke sottolinea che questi modelli dovranno avere una precisione "quasi perfetta" per riconoscere e segnalare eventuali pericoli ai supervisori umani: "Non è qualcosa in cui si possa accettare una probabilità del 99% o di 1 su centomila".
6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - inforimango spensieratamente ottimista ma andiamo incontro a diverse criticità a causa dell'IA
rimango spensieratamente ottimista ma andiamo incontro a diverse criticità a causa dell'IA
Parliamo di niente perchè se crei con IA una forma di attacco puoi creare con IA anche una forma di difesa...
Casi estremi, che si spera non accadano mai.. comunque sta Societa' e' iniziata con una cosa ed ora ha stravolto ogni cosa ed ogni credo..
Dai per favore non parlare di cose che non conosci/capisci. Fai solo una brutta figura.
L'unica cosa sensata che hai detto è che c'è moltissimo hype su questa tecnologia per attirare capitali, ma dire che è tanto fumo e poco arrosto vuol dire essere fuori dal mondo.
Fa ridere anche il discorso sui farmaci, perché secondo te un laboratorio farmaceutico in pochi giorni/ore è in grado di tirar fuori 2/3 molecole interessanti...
Però magari nel frattempo chissà quanta gente ci lascia la pelle
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".