Il 13 marzo 2024 il Parlamento europeo ha definitivamente approvato l’AI Act, il regolamento europeo sull’intelligenza artificiale, tale legislazione rappresenta un passo fondamentale verso un utilizzo sicuro e responsabile di questa tecnologia. L’accordo è stato raggiunto a dicembre 2023 tra i deputati europei degli Stati membri con 523 voti favorevoli, 46 contrari e 49 astensioni; il regolamento, primo del suo genere, entrerà in vigore dopo 20 giorni dalla pubblicazione sulla Gazzetta Ufficiale dell’UE, quindi probabilmente a maggio.
Il Regolamento si applicherà a tutti i soggetti (pubblici e privati) che producono strumenti con tecnologia di intelligenza artificiale che operano sul mercato europeo; sono quindi comprese anche le aziende che non sono europee.
Negli ultimi anni l’Intelligenza artificiale ha acquisito un ruolo rilevante nella trasformazione digitale influenzando settori e cambiando paradigmi; vista la capacità di questa tecnologia di prendere decisioni, di auto-apprendere e di generare contenuti realistici, urgeva darne una regolamentazione per tutelare i cittadini, garantire il controllo umano, la sicurezza, la privacy e la trasparenza.
L’Unione europea è così la prima al mondo a regolamentare l’intelligenza artificiale fornendone un quadro giuridico che mira a fornire agli sviluppatori e agli operatori dell'IA requisiti e obblighi chiari per quanto riguarda gli usi specifici dell'IA e che sia in linea con i diritti e valori dell’UE.
Grande attenzione è stata data alla definizione di sistema di intelligenza artificiale, che è stata così espressa: “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
L’approccio usato per la stesura del testo è quello ormai noto basato sul rischio; in particolare i sistemi di intelligenza artificiale vengono classificati sulla base di 4 livelli di rischio:
A seconda del livello di rischio associato le applicazioni AI saranno sottoposte a diversi livelli di monitoraggio.
Rischio inaccettabile
Le applicazioni di IA a rischio inaccettabile e quindi vietate sono quelle che minacciano i diritti dei cittadini sono. Tra queste per esempio: i sistemi di categorizzazione biometrica in riferimento ai dati sensibili, l'estrapolazione indiscriminata di immagini facciali da internet, strumenti di punteggio sociale da parte dei governi, meccanismi di polizia predittiva. Sono quindi considerati a rischio inaccettabile tutti i sistemi di IA che rappresentano una minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone.
Rischio alto
Per questi sistemi vige l’obbligo di conduzione di una “valutazione di conformità” preliminare che vada a soddisfare un insieme di requisiti e parametri volti a garantire la sicurezza del sistema; in generale è necessario valutare e ridurre i rischi, registrare l'attività per garantire la tracciabilità dei risultati e garantire sempre la trasparenza e la sorveglianza.
Per le applicazioni IA ad alto rischio è prevista anche la creazione di un database pubblico dove le aziende dovranno pubblicare informazioni riguardo ai loro sistemi.
Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni).
Rischio limitato
In questo caso ci si riferisce ai rischi alla mancanza di trasparenza nell'utilizzo dell'IA. La legge sull'IA introduce specifici obblighi di trasparenza per garantire che gli esseri umani siano informati del suo utilizzo quando necessario, promuovendo così la fiducia. I fornitori dovranno inoltre garantire che i contenuti generati dall'IA siano identificabili (compresi contenuti audio e video). Rientra in questa categoria il caso di utilizzo di chatbot: gli esseri umani devono essere informati di essere interfacciati con un sistema di IA e devono poter scegliere se proseguire o meno.
Rischio minimo
All’interno di questa categoria si trovano la maggior parte delle applicazioni di IA più diffuse in UE con cui interagiamo maggiormente come possono essere videogiochi abilitati all’AI, filtri antispam e sistemi di gestione delle scorte. L’utilizzo di tali tecnologie rimane libero.
L’AI Act come regolamento europeo mira perciò a creare un ambiente dove le tecnologie di intelligenza artificiale possano esistere nel rispetto della dignità umana, dei diritti e della fiducia. Una volta che un sistema di IA sarà sul mercato, le autorità risulteranno responsabili della sua vigilanza assicurando sorveglianza e monitoraggio umano anche da parte dei fornitori. L’Europa, con questo atto, mira a posizionarsi come leader nello sviluppo etico e sostenibile delle tecnologie di IA e apre un tavolo di collaborazione e confronto internazionale sul tema.