Gli Stati Uniti daranno un'occhiata ai modelli IA di Anthropic e OpenAI prima del rilascio, per una buona ragione

Gli Stati Uniti daranno un'occhiata ai modelli IA di Anthropic e OpenAI prima del rilascio, per una buona ragione

Lo U.S. Artificial Intelligence Safety Institute avrà accesso ai modelli di intelligenza artificiale di Anthropic e OpenAI prima e dopo il rilascio. L'obiettivo è garantire lo sviluppo responsabile e la sicurezza di quei modelli, in modo da evitare che l'IA, un giorno, sfugga al nostro controllo.

di pubblicata il , alle 08:01 nel canale Web
Sora AIChatGPTClaudeAnthropicOpenAI
 

Accesso ai modelli di intelligenza artificiale prima e dopo il rilascio per garantire la sicurezza degli stessi. È questo il succo dell'accordo che gli Stati Uniti, Anthropic e OpenAI hanno siglato nei giorni scorsi.

Lo U.S. Artificial Intelligence Safety Institute presso il National Institute of Standards and Technology (NIST), a sua volta parte del Dipartimento del Commercio, potrà quindi visionare i principali nuovi modelli delle due società, al fine di dare vita a una "ricerca collaborativa" per capire "come valutare le capacità e i rischi per la sicurezza", nonché studiare "metodi per mitigare tali rischi".

"La sicurezza è essenziale per alimentare l'innovazione tecnologica. Con questi accordi, non vediamo l'ora di iniziare le nostre collaborazioni tecniche con Anthropic e OpenAI per far progredire la scienza della sicurezza dell'IA", ha dichiarato Elizabeth Kelly, direttore dello U.S. AI Safety Institute. "Questi accordi sono solo l'inizio, ma rappresentano un'importante pietra miliare per contribuire a gestire responsabilmente il futuro dell'IA".

Lo U.S. AI Safety Institute prevede anche di fornire feedback ad Anthropic e OpenAI su potenziali miglioramenti di sicurezza dei loro modelli, in stretta collaborazione con i partner dello U.K. AI Safety Institute.

"L'IA sicura e affidabile è fondamentale per l'impatto positivo della tecnologia. La nostra collaborazione con l'Istituto statunitense per la sicurezza dell'IA sfrutta la loro vasta esperienza per testare rigorosamente i nostri modelli prima di un'ampia diffusione", ha dichiarato Jack Clark, cofondatore e responsabile delle politiche di Anthropic.

"Crediamo che l'Istituto abbia un ruolo cruciale nel definire la leadership degli Stati Uniti nello sviluppo responsabile dell'IA e speriamo che il nostro lavoro insieme offra un quadro su cui il resto del mondo possa basarsi", ha dichiarato Jason Kwon, responsabile della strategia di OpenAI.

Da tempo i detrattori dell'IA, tra cui non mancano anche creatori di modelli e sostenitori della prima ora che hanno cambiato idea, richiamano lo scenario Terminator, ovvero la possibilità che l'IA evolva al tal punto da sfuggire al controllo umano, diventando una minaccia esistenziale per la nostra specie.

La collaborazione tra le due società e lo U.S. AI Safety Institute sembra andare nella direzione di evitare tutto questo. Da più parti si chiede ai governi di essere più incisivi nel controllo delle società che operano nel campo della Generative IA, in modo da evitare che il loro lavoro non possa arrivare a sopraffarle.

Allo stesso tempo, il fatto che i governi abbiano accesso anticipatamente ai modelli solleva i timori di chi è attento alla privacy e teme non solo l'introduzione di backdoor per spiare gli utenti che usano i servizi di IA, ma anche l'inserimento di una qualche censura preventiva. Come dice un proverbio, non si può avere "la botte piena e la moglie ubriaca", quindi un accordo di collaborazione, se gestito in modo rigoroso e all'interno di certi perimetri, appare il meglio che si possa fare per impedire un futuro infausto.

Per le società coinvolte, la collaborazione con i governi è il miglior modo per evitare misure più restrittive che potrebbero arrivare di punto in bianco, quando l'IA inciderà ancora in modo più profondo nella società.

"Le valutazioni condotte in base a questi accordi contribuiranno a far progredire lo sviluppo e l'uso dell'IA in modo sicuro e affidabile, basandosi sull'ordine esecutivo dell'amministrazione Biden-Harris sull'IA e sugli impegni volontari assunti nei confronti dell'amministrazione dai principali sviluppatori di modelli di IA", conclude la nota del NIST.

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^