L'Unione Europea vieta l'Intelligenza Artificiale rischiosa. Cosa cambia da oggi per l'utente?

A partire dal 2 febbraio 2025, l'Unione Europea ha introdotto un divieto sui sistemi di intelligenza artificiale considerati come comportanti "rischi inaccettabili" ai sensi dell'AI Act dell'UE. Cosa cambia per l'utente finale?
di Bruno Mucciarelli pubblicata il 03 Febbraio 2025, alle 12:04 nel canale WebAI
A partire dal 2 febbraio 2025, l'Unione Europea ha introdotto un divieto sui sistemi di intelligenza artificiale considerati come comportanti "rischi inaccettabili" ai sensi dell'AI Act dell'UE, prendendo di mira applicazioni come sistemi manipolativi, punteggi sociali e identificazione biometrica in tempo reale, introducendo al contempo misure di applicazione rigorose e un'implementazione graduale per bilanciare innovazione e sicurezza.
Applicazioni AI proibite
L'AI Act dell'UE vieta diverse categorie di sistemi di intelligenza artificiale considerati a rischio inaccettabile per i diritti fondamentali e la sicurezza. Questi includono:
- Sistemi manipolativi che utilizzano tecniche subliminali o che sfruttano le vulnerabilità di gruppi specifici
- Sistemi di scoring sociale che valutano gli individui in base al comportamento o ai tratti della personalità
- Database di riconoscimento facciale non mirati creati tramite scraping di immagini online o filmati di CCTV
- Identificazione biometrica in tempo reale negli spazi pubblici, con eccezioni limitate per le forze dell'ordine
- Intelligenza artificiale che deduce emozioni in contesti educativi o lavorativi
- Sistemi che prevedono comportamenti criminali basandosi esclusivamente su profilazione o valutazione della personalità
Questi divieti mirano a proteggere i cittadini da potenziali danni e a garantire che lo sviluppo dell'IA sia in linea con i valori dell'UE e gli standard sui diritti umani.
Misure di applicazione e sanzioni
L'AI Act dell'UE introduce misure di applicazione rigorose e sanzioni significative per garantire il rispetto delle sue disposizioni. La non conformità può comportare multe fino a 35 milioni di euro o il 7% del fatturato annuo totale mondiale di un'azienda, a seconda di quale sia maggiore. Per violazioni meno gravi, come fornire informazioni errate o fuorvianti alle autorità, le multe possono arrivare a 7,5 milioni di euro o all'1% del fatturato annuo. Queste sanzioni sostanziali sottolineano l'impegno dell'UE nell'applicare le normative sull'IA e nel proteggere i diritti dei cittadini.
L'applicazione sarà effettuata dalle autorità competenti nazionali in ciascun stato membro dell'UE, con la supervisione del Comitato Europeo per l'Intelligenza Artificiale. Le aziende che sviluppano o implementano sistemi di IA dovranno condurre valutazioni approfondite dei rischi, mantenere una documentazione dettagliata e garantire la trasparenza nelle loro operazioni di IA per evitare potenziali violazioni. L'implementazione graduale dell'Act consente alle organizzazioni di adattarsi, ma sottolinea anche l'urgenza di affrontare pratiche di IA ad alto rischio e proibite ben prima della data di piena applicazione prevista per agosto 2026.
L'AI Act dell'UE segue una timeline di implementazione graduale, con date chiave che vanno dal 2025 al 2026. Il divieto sui sistemi di IA a rischio inaccettabile, in vigore da oggi, segna il primo importante traguardo di applicazione. Le fasi successive includono:
- Maggio 2025: introduzione dei Codici di Condotta
- Agosto 2025: applicazione dei requisiti di trasparenza e delle sanzioni
- Agosto 2026: psiena attuazione delle restanti disposizioni
Questo rollout graduale consente alle organizzazioni di adattarsi al nuovo panorama normativo, garantendo al contempo un'azione rapida contro le applicazioni di IA più preoccupanti.
L'Atto sull'IA dell'UE mira a stabilire l'Europa come leader globale nello sviluppo di un'IA affidabile, salvaguardando al contempo i diritti fondamentali e promuovendo l'innovazione. Gli obiettivi principali includono affrontare i rischi posti dai sistemi di IA, definire categorie di rischio e stabilire requisiti chiari per i fornitori e gli utenti di IA. Si cerca di creare un quadro normativo equilibrato che protegga i cittadini dai potenziali danni legati all'IA, promuovendo al contempo il progresso tecnologico e la crescita economica nel settore dell'IA.
- Implementare un approccio basato sul rischio per la regolamentazione dell'IA, con regole più severe per le applicazioni ad alto rischio
- Migliorare la trasparenza e la responsabilità nei sistemi di IA, in particolare per le applicazioni ad alto rischio
- Promuovere la conoscenza dell'IA tra i dipendenti coinvolti nell'implementazione e nell'uso dell'IA
- Stabilire strutture di governance sia a livello europeo che nazionale per supervisionare la regolamentazione dell'IA
- Posizionare l'UE come pioniere nella legislazione completa sull'IA, potenzialmente influenzando gli standard globali
23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLink ad immagine (click per visualizzarla)
cominciano a strepitare...
Ma quale sviluppo????!? L'Atto mira a creare nuovi burocrati e nuovi posti di lavoro quasi totlmente inutili oppure dannosi in cui mettere zio beppino.
Gli usi dell'IA che verranno vietati dalla normativa sono tutti usi distopici e liberticidi.
Non a caso non hanno fatto nessun commento sul fatto che i vincoli siano giusti o sbagliati.
Ora, lo so che questo commento è OT, e non lo riprenderò, ma va fatto chiarezza, per il lettore, che alcune persone qui fanno commenti politici sfruttando scorrettamente notizie di argomento informatico.
Poi però vengono a seguire le regole imposte dall'UE. E non ridono più tanto...
L'effetto Bruxelles è ancora sconosciuto ai più...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".