EU AI Act: il Parlamento europeo approva la legge con maggioranza schiacciante

Definiti 4 livelli di rischio per le tecnologie IA e alcune norme specifiche per i chatbot e le IA generative. IBM elogia il testo della legge
di Andrea Bai pubblicata il 13 Marzo 2024, alle 13:51 nel canale WebIl 13 marzo 2024, il Parlamento europeo ha compiuto un passo cruciale verso la regolamentazione dell'intelligenza artificiale (IA) nell'Unione europea. Dopo un lungo periodo di dibattiti e negoziati, e un primo accordo lo scorso dicembre, i legislatori hanno concesso l'approvazione definitiva all'EU AI Act, una legge che mira a garantire che l'IA sia sviluppata e utilizzata in modo affidabile, sicuro e rispettoso dei diritti fondamentali dell'UE, sostenendo al contempo l'innovazione in questo settore cruciale.
Con 523 voti a favore, 46 contrari e 49 astenuti, il Parlamento europeo ha inviato un messaggio chiaro al mondo: l'Unione europea prende molto sul serio la questione dell'IA e intende svolgere un ruolo di primo piano nella definizione di norme e standard globali per questa tecnologia trasformativa. I relatori Brando Benifei e Dragos Tudorache hanno descritto la giornata come "storica" nel lungo cammino verso la regolamentazione dell'IA, sottolineando che il risultato finale riflette le priorità del Parlamento e contribuirà a creare un'IA "sicura e incentrata sull'uomo".
L'EU AI Act classifica i sistemi di IA in quattro categorie di rischio, con le regole più severe riservate ai modelli ad alto rischio utilizzati in settori cruciali come l'istruzione, la sicurezza pubblica, l'applicazione della legge e i processi democratici. Le applicazioni considerate a "rischio inaccettabile", come i sistemi di punteggio sociale dei governi o i giocattoli che incoraggiano comportamenti pericolosi, saranno vietate. Allo stesso tempo, l'UE riconosce che la "stragrande maggioranza" dei sistemi di IA attualmente in uso rientra nella categoria a "rischio minimo", che include applicazioni come videogiochi e filtri antispam, lasciando spazio per un "libero utilizzo" di queste tecnologie.

Un aspetto chiave della nuova legislazione riguarda i modelli di IA generativa, come i chatbot popolari come ChatGPT, Grok e Gemini. Gli sviluppatori di questi sistemi dovranno fornire una reportistica dettagliata dei dati di addestramento utilizzati e garantire la conformità con le leggi sul copyright dell'UE. Inoltre, i contenuti deepfake generati con l'IA dovranno essere etichettati come artificialmente manipolati.
Mentre alcune aziende tecnologiche hanno espresso preoccupazioni circa l'impatto della regolamentazione sull'innovazione, IBM ha elogiato l'approccio dell'UE come "intelligente" e in linea con le pratiche etiche di IA, contribuendo a costruire ecosistemi di IA aperti e affidabili.
Dopo l'azione di oggi, seguiranno piccole modifiche linguistiche durante la fase di traduzione della legge nelle lingue degli Stati membri. Una seconda votazione è prevista per aprile, e l'EU AI Act dovrebbe essere pubblicata nella gazzetta ufficiale dell'UE a maggio. I divieti sulle pratiche vietate entreranno in vigore a novembre, mentre le restanti disposizioni saranno attuate gradualmente in base a una specifica tempistica.
5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infopiu o meno si...
ma piu che altro servono a questo:
se qualcuno compie un illecito a mezzo di queste tecnologie e poi viene beccato...se non ci sono delle leggi che dicano "questo non era legale"...fondamentalmente non potrebbero farci nulla...è questo lo scopo alla fine..
Il GDPR è considerata un'ottima legge da tutti gli esperti di protezione dei dati personali e copiata in molte parti del mondo, ma purtroppo non funziona.
Why we need bigger fines for Big Tech
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".