L'AI ha bisogno di "linee rosse invalicabili": l'appello per una regolamentazione globale

L'AI ha bisogno di "linee rosse invalicabili": l'appello per una regolamentazione globale

Ex capi di Stato, premi Nobel, scienziati e personalità dell’AI lanciano un appello internazionale per fissare limiti invalicabili allo sviluppo delle tecnologie, come il divieto di auto-replicazione e di impersonare un essere umano

di pubblicata il , alle 11:00 nel canale Scienza e tecnologia
 

"Linee rosse" invalicabili per l'Intelligenza Artificiale: è questa la richiesta di oltre 200 ex capi di Stato, diplomatici, premi Nobel, leader del settore tecnologico e scienziati che hanno sottoscritto un appello per un accordo politico internazionale da raggiungere entro la fine del 2026 che vieti alcune ramificazioni dello sviluppo tecnologico dell'AI.

L’iniziativa, denominata Global Call for AI Red Lines, è stata sostenuta anche da oltre 70 organizzazioni legate alla ricerca e allo sviluppo dell’AI. L’annuncio è stato presentato in vista della 80ª Assemblea Generale delle Nazioni Unite a New York ed è guidato da CeSIA, The Future Society e dal Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley. La Nobel per la Pace Maria Ressa ha citato l’iniziativa nel suo intervento di apertura, richiamando l’urgenza di porre fine alla “impunità delle Big Tech attraverso una responsabilizzazione globale”.

“L’obiettivo non è reagire a incidenti quando si sono già verificati, ma prevenire rischi su larga scala e potenzialmente irreversibili prima che accadano”, ha spiegato Charbel-Raphaël Segerie, direttore esecutivo del CeSIA (French Center for AI Safety), durante una conferenza stampa. Segerie ha ribadito come, anche in assenza di una visione comune sui benefici dell’AI, i governi debbano quantomeno concordare su cosa l’AI non debba mai fare.

Tra i firmatari figurano nomi di primo piano come Geoffrey Hinton, pioniere delle reti neurali, Wojciech Zaremba, cofondatore di OpenAI, Jason Clinton, CISO di Anthropic, e Ian Goodfellow, ricercatore di Google DeepMind. Tutti uniti dall’idea che alcune soglie non possano essere superate, come il divieto per algoritmi e sistemi autonomi di auto-replicarsi o di fingersi esseri umani.

Alcuni esempi di linee rosse locali già esistono. L’Unione Europea, attraverso l’AI Act, ha bandito alcuni utilizzi considerati “inaccettabili”. Stati Uniti e Cina hanno firmato un accordo che stabilisce che il controllo delle armi nucleari debba restare in mano agli esseri umani, e non all’intelligenza artificiale. Quello che però manca ancora è un quadro condiviso a livello globale, anche perché gli impegni volontari assunti fino ad ora dalle aziende tecnologiche non sono vincolati né vincolanti, e quindi insufficienti.

“Le politiche di auto-regolamentazione sull’uso responsabile dell’AI non garantiscono un’applicazione effettiva”, ha sottolineato Niki Iliadis, responsabile per la governance globale dell’AI presso The Future Society. Secondo Iliadis, nel lungo periodo sarà necessario la creazione di una istituzione indipendente con reali poteri per definire, monitorare ed eventualmente far rispettare queste linee rosse.

Il professore dell’Università di Berkeley Stuart Russell ha sottolineato come l’industria tecnologica dovrà adottare un approccio diverso. “Proprio come nel campo dell'energia nucleare si è evitato di costruire centrali prima di sapere come controllarne la sicurezza, così l’industria dell’AI deve scegliere un percorso che includa la sicurezza fin dall’inizio”. Russell ha aggiunto che i limiti non frenano l’innovazione: “Si può avere un’AI utile allo sviluppo economico senza creare forme avanzate di intelligenza artificiale che non sappiamo controllare. Questa presunta dicotomia non ha alcun senso”.

8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
h.rorschach23 Settembre 2025, 11:47 #1
Line will go up
Ripper8923 Settembre 2025, 11:58 #2
Invalicabili ? Si a parole ma nei fatti come si fa a garantirne l'invalicabilità ?
Visto che una regola di questo tipo è una limitazione, gli altri non lo faranno o aderiranno a qualche accordo e poi non lo onoreranno.
Notturnia23 Settembre 2025, 12:14 #3
Originariamente inviato da: Ripper89
Invalicabili ? Si a parole ma nei fatti come si fa a garantirne l'invalicabilità ?
Visto che una regola di questo tipo è una limitazione, gli altri non lo faranno o aderiranno a qualche accordo e poi non lo onoreranno.


anche la clonazione era vietata fino a che qualcuno l'ha fatta..

scrivere sulla carta delle regole invalicabili per qualcosa che non comprendiamo neanche a fondo è come chiedere al meteo di fare quello che ci piace e non quello che vuole..
Ripper8923 Settembre 2025, 12:22 #4
Originariamente inviato da: Notturnia
anche la clonazione era vietata fino a che qualcuno l'ha fatta..

scrivere sulla carta delle regole invalicabili per qualcosa che non comprendiamo neanche a fondo è come chiedere al meteo di fare quello che ci piace e non quello che vuole..


Esperimenti sulla clonazione son un processo difficile da nascondere, ma soprattutto non attrae altrettanto interesse.

Impedire ad una AI di altre nazioni di addestrarsi con materiale illegale è ben più difficile da fare e verificare soprattutto, così come avere garanzie sullo stop del training o impedire che venga integrata in specifici servizi nazionali ( sempre di altre nazioni ).
Non è un qualcosa che vedi alla luce del sole, si fa tutto dietro le quinte.
Notturnia23 Settembre 2025, 12:36 #5
Originariamente inviato da: Ripper89
Esperimenti sulla clonazione son un processo difficile da nascondere, ma soprattutto non attrae altrettanto interesse.

Impedire ad una AI di altre nazioni di addestrarsi con materiale illegale è ben più difficile da fare e verificare soprattutto, così come avere garanzie sullo stop del training o impedire che venga integrata in specifici servizi nazionali ( sempre di altre nazioni ).
Non è un qualcosa che vedi alla luce del sole, si fa tutto dietro le quinte.


come fecero con la clonazione..

con le IA è probabilmente più facile e pericoloso ma non cambia il concetto.. scrivere libri di come non si dovevano far scappare le pecore dal recinto dopo che le pecore sono scappate, hanno mangiato l'erba del vicino, sono andate nella contea di fianco, si sono riprodotte e stanno mangiando il secondo raccolto è molto utile

come stanno facendo adesso con le IA.. dopo aver capito quanto sono pericolose adesso scrivono di come chiudere il recinto che non esiste più
GianMi23 Settembre 2025, 12:53 #6
"sarà necessario la creazione di una istituzione indipendente con reali poteri". Certo, come no, chiamiamo il giudice Dredd :-)
supertigrotto23 Settembre 2025, 14:22 #7
Ma gli americani non dicevano che limitare la IA è da stupidi e da antiprogressisti?
La IA è come un bambino,va cresciuta nei valori se si vuole vederla crescere sana,se la lasci allo stato brado,ottieni quello che vediamo tutti i giorni,bambini maleducati,irrispettosi,bulli etc.
Baskerville8723 Settembre 2025, 15:02 #8
L'europa è già indietro di anni rispetto a USA e Cina (che di sicuro non si fanno scrupoli ad usare l'AI anche per scopi bellici), come al solito qui pensiamo prima a regolamentare ed il risultato sarà che la prenderemo in quel posto in un modo o nell'altro.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^