AI Act, l'Europa è la prima a mettere paletti all'intelligenza artificiale

Le istituzioni europee hanno raggiunto l'accordo sull'AI Act. L'obiettivo è proteggere i diritti dei cittadini, la democrazia e lo Stato di diritto senza frenare l'innovazione. L'Europa è la prima al mondo a porre dei paletti sui sistemi di IA.
di Manolo De Agostini pubblicata il 11 Dicembre 2023, alle 12:31 nel canale WebIntelligenza Artificiale
È stato trovato l'accordo politico sull'AI Act, la normativa europea che regola l'uso dell'intelligenza artificiale per modelli di carattere generale. Un risultato importante, dopo un negoziato durato 36 ore, che ha messo d'accordo il Parlamento europeo e il Consiglio per l'Artificial Intelligence Act proposto dalla Commissione nel 2021.
Le nuove regole saranno applicate nello stesso modo in tutti gli Stati membri, in base a una definizione di IA che l'UE definisce "future proof", ovvero congeniata per tenere conto dei prossimi sviluppi nel settore. La normativa segue un approccio basato su livelli di rischio.
Con rischio minimo s'intende la maggioranza dei sistemi IA, rivolti ad applicazioni come sistemi di raccomandazione abilitati all'intelligenza artificiale o i filtri antispam. Questi beneficeranno dell'assenza di obblighi, poiché questi sistemi "presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di IA", sottolinea la Commissione.
I sistemi di intelligenza artificiale bollati come ad alto rischio dovranno invece rispettare requisiti rigorosi, tra cui "sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un elevato livello di robustezza, precisione e sicurezza informatica". Paletti normativi faciliteranno l'innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi.
Tra gli esempi di applicazioni in cui l'uso dell'IA è ritenuto ad alto rischio troviamo alcune "infrastrutture critiche, ad esempio nei settori dell'acqua, del gas e dell'elettricità; dispositivi medici; sistemi per determinare l'accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell'applicazione della legge, del controllo delle frontiere, dell'amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio".
I sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Tra questi sistemi e applicazioni che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come "giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi da parte di minori o sistemi che consentono il 'punteggio sociale' da parte di governi o aziende e alcune applicazioni di polizia predittiva".
Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l'identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
Per quanto riguarda l'IA applicata ai chatbot, la norma richiede alle società di rendere evidente agli utenti che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall'intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni.
Inoltre, le aziende dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.
Le aziende che non rispetteranno le regole verranno multate. Le sanzioni andranno da 35 milioni di euro o il 7% del fatturato annuo globale (a seconda di quale sia il più alto) in caso di applicazioni nel segmento dell'IA vietate, 15 milioni di euro o 3% per violazioni di altri obblighi e 7,5 milioni di euro o 1,5% per aver fornito informazioni errate. Sono previsti massimali più proporzionati in caso di sanzioni amministrative rivolte a PMI e startup trovate a violare l'AI Act.
In termini di governance, le autorità nazionali competenti in materia di vigilanza del mercato supervisioneranno l'attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l'IA all'interno della Commissione europea garantirà il coordinamento a livello europeo.
L'accordo politico è ora soggetto all'approvazione formale del Parlamento europeo e del Consiglio ed entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale. L'AI Act diventerebbe quindi applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi mentre le norme sull'IA per scopi generali si applicheranno dopo 12 mesi.
Per superare il periodo transitorio prima che il regolamento diventi generalmente applicabile, la Commissione lancerà un patto sull'intelligenza artificiale. L'evento riunirà sviluppatori di IA provenienti dall'Europa e da tutto il mondo che si impegnano su base volontaria ad attuare gli obblighi chiave della dell'AI Act prima dei termini legali.
13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLe "modelle" di OnlyFans possono tirare un respiro di sollievo
Ti darei ragione, se non fosse per il fatto che ehm, quali sono le imprese europee che sviluppano AI?
-giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi da parte di minori o sistemi che consentono il 'punteggio sociale' da parte di governi o aziende e alcune applicazioni di polizia predittiva
-Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l'identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
ambedue i casi sono copia-incollati dall'articolo
Inoltre bisogna porre un forte freno all'utilizzo dei big data che non vengono (ri)pagati da nessuno. Utilizzi delle basi dati per far funzionare i tuoi modelli IA? bene paga per tali dati visto che li hai acquisiti sostanzialmente senza pagarli adeguatamente.
E' un timido inizio ma ci sarà parecchio da perfezionare ed implementare in futuro. Non credo ci sia ancora l'adeguata percezione del rischio connesso alle IA.
E comunque sarà un bel cinema pure applicarla sta normativa.
Leggo la maggior parte dei i tuoi post con lo sguardo intenerito di chi guarda un bimbo che gioca con una granata innescata trovata a terra a Falluja.
Quello che mi preoccupa un po è l'utilizzo delle ai nei sistemi di scoring come valutazione del premio assicurativo o della performance lavorativa. Le conseguenze sulla vita dell'individuo possono essere devastanti e senza possibilità di appello.
Un altro aspetto fondamentale è quello della generazione di contenuti: chi usufruisce di contenuti generati deve essere informato in maniera chiara ed esplicita della cosa.
Perché di paletti ce ne siamo presi tanti.....
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".