L’Europa ha approvato l’AI Act, la legge sull’intelligenza artificiale. Entrerà in vigore entro la fine della legislatura e sarà applicata nel giro di 24 mesi. Si tratta della prima normativa al mondo in materia e si baserà su una scala di rischio per conciliare esigenza di innovazione e tutela dei diritti umani.
AI Act: il lungo cammino fino a oggi
Il cammino che ha portato alla legge sull’IA è iniziato tre anni fa, nel 2021, con la proposta della Commissione e step by step si è arrivati allo scorso 9 dicembre con l’accordo politico sul testo e la preparazione del testo alle votazioni finali. L’ultima votazione, quella del Parlamento, si è svolta il 13 marzo e con 523 voti favorevoli, 46 contrari e 49 astenuti ha dato semaforo verde all’Artificial Intelligence Act. L’adozione formale si avrà nel mese di aprile in seduta plenaria. Il regolamento europeo sull’intelligenza artificiale è stato votato con una procedura accelerata in considerazione dell’imminente fine della legislatura.
Il testo dell’AI Act si compone di 113 articoli e 12 allegati e regola tutto ciò che riguarda l’intelligenza artificiale (secondo la definizione proposta dall’OCSE), dallo sviluppo alla fornitura e all’uso dei sistemi in Europa. Anche i sistemi creati al di fuori dell’Unione europea dovranno attenersi alle regole comunitarie per trovare utilizzo in Europa; di eventuali difformità saranno ritenuti responsabili non solo i produttori ma anche gli importatori e i distributori.
L’obiettivo della legge è quello di mettere d’accordo innovazione e diritti fondamentali come la democrazia, lo Stato di diritto e la sostenibilità ambientale, istituendo una scala di rischio alla quale corrisponderà un sistema di restrizioni.
Cosa prevede il regolamento sull’intelligenza artificiale approvato dall’Europa
Secondo questo criterio, il regolamento considera fuori legge i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Sono vietate anche le pratiche di polizia predittiva basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona.
Discorso diverso per le forze dell’ordine che potranno fare ricorso ai sistemi di identificazione biometrica in alcune situazioni specifiche. Per esempio, l’identificazione “in tempo reale” potrà essere utilizzata solo se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. E’ ammesso utilizzare questi sistemi cioè nella ricerca di una persona scomparsa o per la prevenzione di un attacco terroristico. L’utilizzo degli stessi sistemi a posteriori è considerato, invece, ad alto rischio, pertanto si potranno utilizzare solo se in relazione a un reato.
Quanto ai sistemi ad alto rischio, quelli cioè che potrebbero arrecare danni alla salute, alla sicurezza, all’ambiente, alla democrazia o ai diritti fondamentali, la ratio sarà quella di valutare i rischi e agire secondo quanto stabilito e secondo trasparenza. Dal canto loro, i cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.
I sistemi di IA ad alto rischio
I sistemi di IA dovranno soddisfare requisiti di trasparenza e rispettare le norme europee sul diritto d’autore nelle fasi di addestramento. I modelli più potenti dovranno essere sottoposti a valutazioni per testare il livello di rischio. Le immagini e i contenuti audio e video artificiali o manipolati (generalmente chiamati deepfake) dovranno essere segnalati.
I Paesi dell’Unione europea dovranno, infine, incentivare la creazione di sandbox, vale a dire di spazi di sperimentazione normativa e di meccanismi di prova in modo da consentire a PMI e start-up di sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Prima di essere adottato, il regolamento dovrà essere tradotto nelle diverse lingue. Entrerà in vigore venti giorni dopo la pubblicazione in Gazzetta ufficiale dell’UE. Sarà applicato, invece, con tempi diversi: la parte riguardante i divieti di pratiche vietate, dopo sei mesi; i codici di buone pratiche dopo nove mesi; le norme sulla governance e le finalità generali dopo 12 mesi e gli obblighi per i sistemi ad alto rischio dopo 36 mesi; le restanti parti dopo 24 mesi.
In copertina foto di Tung Nguyen da Pixabay