L'AI ha bisogno di "linee rosse invalicabili": l'appello per una regolamentazione globale
Ex capi di Stato, premi Nobel, scienziati e personalità dell’AI lanciano un appello internazionale per fissare limiti invalicabili allo sviluppo delle tecnologie, come il divieto di auto-replicazione e di impersonare un essere umano
di Andrea Bai pubblicata il 23 Settembre 2025, alle 11:00 nel canale Scienza e tecnologia"Linee rosse" invalicabili per l'Intelligenza Artificiale: è questa la richiesta di oltre 200 ex capi di Stato, diplomatici, premi Nobel, leader del settore tecnologico e scienziati che hanno sottoscritto un appello per un accordo politico internazionale da raggiungere entro la fine del 2026 che vieti alcune ramificazioni dello sviluppo tecnologico dell'AI.
L’iniziativa, denominata Global Call for AI Red Lines, è stata sostenuta anche da oltre 70 organizzazioni legate alla ricerca e allo sviluppo dell’AI. L’annuncio è stato presentato in vista della 80ª Assemblea Generale delle Nazioni Unite a New York ed è guidato da CeSIA, The Future Society e dal Center for Human-Compatible Artificial Intelligence dell’Università di Berkeley. La Nobel per la Pace Maria Ressa ha citato l’iniziativa nel suo intervento di apertura, richiamando l’urgenza di porre fine alla “impunità delle Big Tech attraverso una responsabilizzazione globale”.

“L’obiettivo non è reagire a incidenti quando si sono già verificati, ma prevenire rischi su larga scala e potenzialmente irreversibili prima che accadano”, ha spiegato Charbel-Raphaël Segerie, direttore esecutivo del CeSIA (French Center for AI Safety), durante una conferenza stampa. Segerie ha ribadito come, anche in assenza di una visione comune sui benefici dell’AI, i governi debbano quantomeno concordare su cosa l’AI non debba mai fare.
Tra i firmatari figurano nomi di primo piano come Geoffrey Hinton, pioniere delle reti neurali, Wojciech Zaremba, cofondatore di OpenAI, Jason Clinton, CISO di Anthropic, e Ian Goodfellow, ricercatore di Google DeepMind. Tutti uniti dall’idea che alcune soglie non possano essere superate, come il divieto per algoritmi e sistemi autonomi di auto-replicarsi o di fingersi esseri umani.
Alcuni esempi di linee rosse locali già esistono. L’Unione Europea, attraverso l’AI Act, ha bandito alcuni utilizzi considerati “inaccettabili”. Stati Uniti e Cina hanno firmato un accordo che stabilisce che il controllo delle armi nucleari debba restare in mano agli esseri umani, e non all’intelligenza artificiale. Quello che però manca ancora è un quadro condiviso a livello globale, anche perché gli impegni volontari assunti fino ad ora dalle aziende tecnologiche non sono vincolati né vincolanti, e quindi insufficienti.
“Le politiche di auto-regolamentazione sull’uso responsabile dell’AI non garantiscono un’applicazione effettiva”, ha sottolineato Niki Iliadis, responsabile per la governance globale dell’AI presso The Future Society. Secondo Iliadis, nel lungo periodo sarà necessario la creazione di una istituzione indipendente con reali poteri per definire, monitorare ed eventualmente far rispettare queste linee rosse.
Il professore dell’Università di Berkeley Stuart Russell ha sottolineato come l’industria tecnologica dovrà adottare un approccio diverso. “Proprio come nel campo dell'energia nucleare si è evitato di costruire centrali prima di sapere come controllarne la sicurezza, così l’industria dell’AI deve scegliere un percorso che includa la sicurezza fin dall’inizio”. Russell ha aggiunto che i limiti non frenano l’innovazione: “Si può avere un’AI utile allo sviluppo economico senza creare forme avanzate di intelligenza artificiale che non sappiamo controllare. Questa presunta dicotomia non ha alcun senso”.










Cineca inaugura Pitagora, il supercomputer Lenovo per la ricerca sulla fusione nucleare
Mova Z60 Ultra Roller Complete: pulisce bene grazie anche all'IA
Renault Twingo E-Tech Electric: che prezzo!
Samsung Smart TV 85'' Neo QLED Mini LED in offerta su Amazon: un TV da 2.000€ oggi a 1.399€
TikTok rafforza la sicurezza degli acquisti in-app con nuove misure di protezione
Samsung Galaxy S25 Ultra 256 GB a 879,85€ su Amazon: il top di gamma mai così conveniente
Sanzione ridotta per TIM: l'azienda paga e chiude il caso teleselling con AGCOM
DJI Osmo 360 in super offerta su Amazon: -29%, versioni Standard e Adventure a prezzi mai visti
Moto Watch Fit con Moto AI a metà prezzo: smartwatch completo con GPS e 16 giorni di autonomia a 49,90€
Batterie ibride plug-in: la classifica dei marchi che durano di più (e di meno)
Ayaneo Next 2 è ufficiale: prestazioni da desktop nel palmo di una mano (costerà un rene?)
Windows 11 26H1 è ufficiale, ma è solo per Arm: brutte notizie per i possessori di PC x64
Archive.is nel mirino: l'FBI vuole sapere chi lo gestisce
CMF by Nothing Buds 2a: le cuffie ANC con bassi profondi e autonomia record a soli 27€ su Amazon
Galaxy Watch 7 e 8 in offerta su Amazon: i nuovi smartwatch Samsung con Galaxy AI scendono fino a 135€, anche il modello Classic in sconto
Amazon Haul rilancia con il codice LUCKY10: 10€ di sconto immediato, e se spendi meno… paghi solo la spedizione
Boeing Virtual Airplane, l'addestramento dei piloti passa (anche) da Microsoft Fligh Simulator









8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoVisto che una regola di questo tipo è una limitazione, gli altri non lo faranno o aderiranno a qualche accordo e poi non lo onoreranno.
Visto che una regola di questo tipo è una limitazione, gli altri non lo faranno o aderiranno a qualche accordo e poi non lo onoreranno.
anche la clonazione era vietata fino a che qualcuno l'ha fatta..
scrivere sulla carta delle regole invalicabili per qualcosa che non comprendiamo neanche a fondo è come chiedere al meteo di fare quello che ci piace e non quello che vuole..
scrivere sulla carta delle regole invalicabili per qualcosa che non comprendiamo neanche a fondo è come chiedere al meteo di fare quello che ci piace e non quello che vuole..
Esperimenti sulla clonazione son un processo difficile da nascondere, ma soprattutto non attrae altrettanto interesse.
Impedire ad una AI di altre nazioni di addestrarsi con materiale illegale è ben più difficile da fare e verificare soprattutto, così come avere garanzie sullo stop del training o impedire che venga integrata in specifici servizi nazionali ( sempre di altre nazioni ).
Non è un qualcosa che vedi alla luce del sole, si fa tutto dietro le quinte.
Impedire ad una AI di altre nazioni di addestrarsi con materiale illegale è ben più difficile da fare e verificare soprattutto, così come avere garanzie sullo stop del training o impedire che venga integrata in specifici servizi nazionali ( sempre di altre nazioni ).
Non è un qualcosa che vedi alla luce del sole, si fa tutto dietro le quinte.
come fecero con la clonazione..
con le IA è probabilmente più facile e pericoloso ma non cambia il concetto.. scrivere libri di come non si dovevano far scappare le pecore dal recinto dopo che le pecore sono scappate, hanno mangiato l'erba del vicino, sono andate nella contea di fianco, si sono riprodotte e stanno mangiando il secondo raccolto è molto utile
come stanno facendo adesso con le IA.. dopo aver capito quanto sono pericolose adesso scrivono di come chiudere il recinto che non esiste più
La IA è come un bambino,va cresciuta nei valori se si vuole vederla crescere sana,se la lasci allo stato brado,ottieni quello che vediamo tutti i giorni,bambini maleducati,irrispettosi,bulli etc.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".