Artificial Intelligence Act dell'Unione europea
Featured

Artificial Intelligence Act dell'Unione europea

L'AI Act (Artificial Intelligence Act, Regolamento (UE) 2024/1689) è stato approvato dal Parlamento europeo in data 13 giugno 2024, ed è entrato in vigore l'1 agosto 2024. 

L'AI Act è la normativa sull'intelligenza artificiale più completa mai emanata, eppure rimane altamente controversa e in continua evoluzione. L'obiettivo delle norme è promuovere un'IA affidabile in Europa, e a tal fine stabilisce un insieme chiaro di regole basate sul rischio per gli sviluppatori e gli utilizzatori di IA. Il Regolamento fa parte di un più ampio pacchetto di misure a sostegno dello sviluppo di un'IA affidabile. 

Per favorire la transizione al nuovo quadro normativo, la Commissione europea ha lanciato l'IA Pact, un'iniziativa volontaria mirata a sostenere l'attuazione futura delle norme e a coinvolgere le parti interessate. 

 

Attuazione

L'AI Act è entrato in vigore vigore il 1° agosto 2024 e sarà pienamente applicabile due anni dopo, il 2 agosto 2026, con alcune eccezioni:
- obblighi di alfabetizzazione sull'IA (i fornitori che gli implementatori di sistemi di IA di qualunque natura, devo adottare misure per garantire un “livello sufficiente” di alfabetizzazione del loro personale) sono entrati in vigore dal 2 febbraio 2025; 
- le regole di governance e gli obblighi per i modelli GPAI entrano in vigore il 2 agosto 2025; 
- le norme sui sistemi IA ad alto rischio, integrati nei prodotti regolamentati, prevedono un periodo di transizione esteso fino al 2 agosto 2027. 

 

I punti fondamentali

Classificazione del rischio

L'AI Act classifica l'IA in base al suo rischio. Gran parte del testo è focalizzato sui sistemi di IA ad alto rischio e alle regolamentazioni alle quali si devono attenere. 

- sono vietate le IA che presentano rischi inaccettabili (ad esempio, sistemi di social score e IA manipolativa); 
- le IA a rischio limitato sono soggette a obblighi di trasparenza: gli sviluppatori e gli implementatori devono garantire che gli utenti finali siano consapevoli di interagire con l'intelligenza artificiale (chatbot e deepfake); 
- le IA a rischio minimo non sono regolamentate (ad esempio, la maggior parte delle applicazioni di intelligenza artificiale attualmente disponibili sul mercato dell'UE, come i videogiochi e i filtri antispam basati sull'intelligenza artificiale). 

 

Obblighi per fornitori (sviluppatori)

La maggior parte degli obblighi ricade sui fornitori (sviluppatori) di sistemi di intelligenza artificiale ad alto rischio. Coloro che intendono immettere nel mercato europeo sistemi di IA ad alto rischio, indipendentemente dal fatto che abbiano sede nell'UE o in un paese terzo, sono soggetti alle norme. Allo stesso modo anche i fornitori di paesi terzi in cui l'output del sistema IA ad alto rischio è utilizzato nell'UE. 

Anche gli utenti sono soggetti ad alcune delle norme dell'AI Act, laddove per utenti però si intende le persone fisiche o giuridiche che utilizzano un sistema di intelligenza artificiale a titolo professionale (implementatori), non gli utenti finali interessati. 

  

Sistemi di IA vietati

In base all'AI Act sono vietati i seguenti sistemi di IA: 
- sitemi che utilizzano tecniche manipolative o ingannevoli per distorcere il comportamento e compromettere il processo decisionale informato, causando danni significativi; 
- sistemi che sfruttano le vulnerabilità legate all'età, alla disabilità o alle circostanze socioeconomiche per distorcere il comportamento, causando danni significativi; 
- sistemi di categorizzazione biometrica che deducono informazioni sensibili (razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale), ad eccezione dell'etichettatura o del filtraggio di set di dati biometrici acquisiti legalmente o quando le forze dell'ordine categorizzano i dati biometrici; 
- sistemi di social scoring, ovvero valutazione o classificazione di individui o gruppi in base al comportamento sociale o ai tratti personali, che determina un trattamento dannoso o sfavorevole di tali persone; 
- sistemi di valutazione del rischio che un individuo commetta reati penali basandosi esclusivamente sulla profilazione o sui tratti della personalità, salvo quando utilizzato per integrare le valutazioni umane basate su fatti oggettivi e verificabili direttamente collegati all'attività criminale; 
- compilazione di database di riconoscimento facciale mediante l'estrazione non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso; 
- deducono emozioni nei luoghi di lavoro o nelle istituzioni educative, salvo per motivi medici o di sicurezza; 
- sistemi di identificazione biometrica remota (RBI) in tempo reale in spazi accessibili al pubblico per le forze dell'ordine, tranne nei seguenti casi: 
-- ricerca di persone scomparse, vittime di rapimenti e persone vittime di tratta di esseri umani o di sfruttamento sessuale;
-- prevenzione di una minaccia sostanziale e imminente alla vita o un attacco terroristico prevedibile;
-- o identificazione di sospettati di reati gravi (ad esempio, omicidio, stupro, rapina a mano armata, traffico di stupefacenti e armi illegali, criminalità organizzata e reati ambientali, ecc.). 

 

Sistemi di IA ad alto rischio

I Sistemi di IA ad alto rischio (art. 6) sono: 
- utilizzati come componenti di sicurezza di prodotti disciplinato dalle normative UE di cui all'allegato I
- quelli elencati nei casi d'uso dell'allegato III (utilizzati in settori critici come sanità - sistemi di diagnosi - , trasporti - guida automatizzata - , istruzione, lavoro - selezione del personale - , giustizia - decisioni legali - , pubblica amministrazione e infrastrutture - servizi essenziali - , se presentano un rischio significativo di danno), tranne se:
-- il sistema di IA esegue un compito procedurale ristretto;
-- migliora il risultato di un'attività umana precedentemente completata;
-- rileva modelli decisionali o deviazioni da modelli decisionali precedenti e non è destinato a sostituire o influenzare la valutazione umana precedentemente completata senza un'adeguata revisione umana;
-- o svolge un compito preparatorio per una valutazione pertinente ai fini dei casi d'uso elencati nell'allegato III.

I sistemi di intelligenza artificiale elencati nell'allegato III sono sempre considerati ad alto rischio se profilano gli individui, cioè se elaborano automaticamente dati personali per valutare vari aspetti della vita di una persona (ad esempio, il rendimento lavorativo, la situazione economica, la salute, le preferenze, gli interessi, l'affidabilità, il comportamento, l'ubicazione o gli spostamenti). I fornitori il cui sistema di IA rientra nei casi d'uso di cui all'allegato III ma ritengono che non sia ad alto rischio devono documentare tale valutazione prima di immetterlo sul mercato. 


Requisiti per i fornitori di sistemi di IA ad alto rischio (artt. 8 – 17 )
I fornitori di intelligenza artificiale ad alto rischio devono:
- stabilire un sistema di gestione del rischio durante l'intero ciclo di vita del sistema;
- gestire la governance dei dati, assicurando che i dataset di addestramento, convalida e test siano pertinenti, sufficientemente rappresentativi e, nella misura più ampia possibile, privi di errori e completi in base allo scopo previsto;
- redigere la documentazione tecnica per dimostrare la conformità e fornire alle autorità le informazioni per valutarla; 
- progettare il loro sistema per la tenuta dei registri, in modo da consentirgli di registrare automaticamente gli eventi rilevanti per l'identificazione dei rischi a livello nazionale e delle modifiche sostanziali durante l'intero ciclo di vita del sistema; 
- fornire istruzioni per l'uso agli operatori a valle per consentirne la conformità; 
- progettare il loro sistema per consentire agli operatori di implementare la supervisione umana; 
- progettare il proprio sistema per raggiungere livelli adeguati di accuratezza, robustezza e sicurezza informatica; 
- istituire un sistema di gestione della qualità per garantire la conformità. 

 

IA per scopi generali (GPAI)

I GPAI sono sistemi di intelligenza artificiale che possono essere utilizzati per molteplici finalità, indipendentemente dal fatto che siano stati specificamente progettati per uno o più scopi particolari. Il riferimento è alle AI generative tipo ChatGPT.
I fornitori di modelli di IA per scopi generali (GPAI) devono: 
- redigere la documentazione tecnica , compresi i processi di formazione e collaudo e i risultati della valutazione; 
- elaborare informazioni e documentazione da fornire ai fornitori a valle che intendono integrare il modello GPAI nel proprio sistema di intelligenza artificiale, in modo che questi ultimi ne comprendano capacità e limitazioni e siano in grado di conformarsi; 
- stabilire una politica per rispettare la direttiva sul diritto d'autore; 
- pubblicare un riepilogo sufficientemente dettagliato del contenuto utilizzato per l'addestramento del modello GPAI.

I fornitori di modelli GPAI con licenza aperta e gratuita devono solo rispettare il copyright e pubblicare il riepilogo dei dati di addestramento, a meno che non rappresentino un rischio sistemico. 

I modelli GPAI presentano rischi sistemici quando la quantità cumulativa di elaborazione utilizzata per il loro addestramento è superiore a 1025 operazioni in virgola mobile (FLOP). I fornitori devono notificare alla Commissione se il loro modello soddisfa questo criterio entro 2 settimane. Il fornitore può presentare argomentazioni secondo cui, nonostante il rispetto dei criteri, il suo modello non presenta rischi sistemici. La Commissione può decidere autonomamente, o tramite una segnalazione qualificata da parte del gruppo scientifico di esperti indipendenti, che un modello ha capacità di impatto elevato, rendendolo sistemico.
Tutti i fornitori di modelli GPAI che presentano un rischio sistemico devono, in aggiunta agli obblighi generali: 
- eseguire valutazioni del modello, inclusa la conduzione e la documentazione di test avversari per identificare e mitigare il rischio sistemico; 
- valutare e mitigare i possibili rischi sistemici; 
- monitorare, documentare e segnalare senza indebito ritardo gli incidenti gravi e le possibili misure correttive all'Ufficio IA e alle autorità nazionali competenti; 
- garantire un livello adeguato di protezione della sicurezza informatica. 

 

Obblighi di alfabetizzazione per i dipendenti

Le pratiche più comuni relative alla formazione dei dipendenti includono:
- la formazione modulare su diversi livelli di competenza;
- l'integrazione con strumenti digitali e-learning;
- il focus sulla compliance e sull'IA etica;
- progetti di collaborazioni con istituti accademici; 
- il monitoraggio continuo dell’efficacia della formazione.

La Commissione europea ha messo a disposizione una  Repository delle pratiche per promuovere l'apprendimento e lo scambio sull'alfabetizzazione all'intelligenza artificiale.