L’Ue punta al via libera definitivo della prima legislazione al mondo di ampio respiro sull’AI entro il 2024
L’Artificial Intelligence Act, già approvato in via provvisoria lo scorso 28 aprile, compie un ulteriore passo in avanti e si avvia a essere il primo regolamento al mondo sull’Intelligenza Artificiale. La relazione del Parlamento Europeo sulla proposta di Regolamento per fissare un quadro normativo comune nell’UE è stata approvata con 87 voti a favore, 7 contrari e 12 astenuti durante la riunione congiunta delle commissioni Imco (Mercato interno e protezione dei consumatori) e Libe (Libertà civili, giustizia e affari interni).
Presentata dai co-relatori Brando Benifei e Dragos Tudorache, rispettivamente S&D e Renew Europe, dovrà essere votata durante la prossima sessione plenaria dell’Eurocamera, prevista tra il 12 e il 15 giugno, in vista dei negoziati inter-istituzionali con il Consiglio UE. L’obiettivo è ambizioso: dare il via libera, entro la primavera del 2024, alla prima legislazione al mondo sull’Intelligenza Artificiale, a livello orizzontale e di ampio respiro, regolamentando così uno degli aspetti cruciali della transizione digitale e verde dell’UE.
Diritti e innovazione, alla ricerca di un difficile ma possibile equilibrio
“Possiamo essere orgogliosi di quanto fatto in questi mesi intensi, con discussioni fruttuose – ha affermato Benifei alla vigilia del voto – Abbiamo un testo bilanciato con un chiaro focus sui diritti fondamentali, ma senza dimenticare l’innovazione e il potenziale delle tecnologie”.
In votazione separata è stato approvato anche il compromesso sul divieto permanente dell’utilizzo di programmi di riconoscimento biometrico in spazi accessibili al pubblico (Dna, voce, andatura, impronte digitali). Sinora era stato vietato solo l’uso in real time, mentre ora è previsto solo un utilizzo ex post per reati gravi e previa autorizzazione del giufice.
Intelligenza artificiale di base, in arrivo obblighi più severi
Il Parlamento UE ha confermato le proposte della Commissione di imporre obblighi più severi ai modelli di base, categoria generica in cui rientrano applicativi di intelligenza artificiale ormai noti ai più come ChatGPT. Per quanto riguarda l’intelligenza artificiale generativa, l’UE ha deciso che i sistemi dovranno essere progettati nel rispetto del diritto dell’UE stessa e delle libertà fondamentali. Il Parlamento, inoltre, ha esteso il divieto sui software di identificazione biometrica e vietato l’utilizzo del software di riconoscimento delle emozioni nei settori del lavoro, dell’istruzione, della gestione delle frontiere e dell’applicazione della legge. Il divieto del controllo predittivo è stato invece esteso dai reati penali a quelli amministrativi.
I sistemi ad alto rischio
Le proposte e gli interventi della Commissione nascono dalle considerazioni nate intorno a sistemi definiti a rischio elevato, quelli cioè applicati all’istruzione, alla formazione, all’occupazione, ai servizi pubblici essenziali e alle reti critiche. Gli eurodeputati hanno perciò ritenuto doveroso intervenire introducendo un livello aggiuntivo, considerando ad alto rischio anche i sistemi che possono ledere i diritti fondamentali oppure provocare danni alla salute e alla sicurezza.
Come si legge nel testo approvato, il rischio viene definito significativo come “risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”. Sono considerati ad alto rischio anche i sistemi di raccomandazione delle piattaforme online di grandi dimensioni. Sono state inoltre aumentate le tutele per i dati sensibili, con maggiori controlli sull’elaborazione dei dati sensibili da parte dei provider di sistemi ad alto rischio. Per poter elaborare informazioni come l’orientamento sessuale, politico o religioso, i pregiudizi non devono essere rilevabili, ma anonimizzati, preudomizzati oppure criptati. Il procedimento, inoltre, deve avvenire in ambienti controllati e i dati devono essere cancellati dopo la valutazione dei pregiudizi. I fornitori, infine, devono documentare i motivi per cui è stato effettuato il trattamento dei dati.