AI Act. Il primo regolamento europeo sull’intelligenza artificiale è legge

La prima legge organica sull’intelligenza artificiale è realtà. Rimangono molte critiche in merito alla sorveglianza di massa, soprattutto dei migranti.

L’AI Act, il regolamento europeo sull’intelligenza artificiale, è legge. Con il voto del Parlamento comunitario del 13 marzo si completa il lungo iter legislativo che ha portato alla luce la prima normativa complessa sull’intelligenza artificiale al mondo, creando un precedente storico importante.

Il Parlamento, in vista dello scioglimento per le prossime elezioni europee, ha anticipato il voto finale del testo che era previsto per la metà di aprile. Per la promulgazione del testo bisognerà aspettare maggio, dato che dovrà essere tradotto nelle 24 lingue comunitarie e ci saranno molto probabilmente degli adattamenti alle normative nazionali che porteranno ad un ulteriore voto del Parlamento ad aprile. La prima scadenza degli adeguamenti è di sei mesi; le norme diventeranno completamente operative tra due anni.

Brando Benifei, il relatore del Parlamento europeo sull’AI Act, lo ha definito un regolamento “volto a limitare i rischi e aumentare le opportunità, a combattere le discriminazioni, a portare la trasparenza e i nostri valori democratici di libertà e uguaglianza all’interno dello sviluppo dell’intelligenza artificiale, sostenendo al contempo l’innovazione e la competitività”.

A chi è indirizzato l’AI Act: escluse ricerca, scopi militari, controlli sui migranti

I soggetti interessati dalle regole dell’AI Act sono diversi. Fornitori, utilizzatori e acquirenti: tutti soggetti a cui fa riferimento il regolamento. Insomma, chiunque deve assicurarsi che il prodotto acquistato abbia superato la procedura di valutazione di impatto prevista dalla norma.

Ci sono però delle eccezioni: le regole non si applicano infatti alle attività di ricerca e sviluppo che precedono la messa in vendita del prodotto, né ai sistemi destinati a scopi esclusivamente militari, di difesa, di controllo dei flussi migratori o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con rischi sistemici.

Il sistema a “scala di rischio”

Il regolamento prevede un livello di protezione degli utenti, con una scala di rischio per regolare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, elevato e inaccettabile. I sistemi a rischio limitato saranno soggetti a requisiti di trasparenza molto leggeri, come, per esempio, il solo obbligo a comunicare che un determinato contenuto è stato prodotto attraverso l’uso dell’intelligenza artificiale.

Per quelli a rischio elevato, è prevista una valutazione d’impatto sui diritti fondamentali prima dell’immissione sul mercato, che comprende l’obbligo di registrazione presso l’apposita banca dati dell’Unione Europea e di requisiti sui dati e sulla documentazione tecnica da presentare per dimostrare la conformità del prodotto.

Il regolamento classifica nella categoria di rischio inaccettabile – e quindi di fatto li vieta – i sistemi di manipolazione del comportamento cognitivo, lo scraping ossia la raccolta non mirata di immagini dal web o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, i sistemi di punteggio sociale (social scoring) da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o religiosi, e alcuni casi di polizia predittiva.

Riconoscimento facciale
Un gruppo eterogeneo di professionisti identificato grazie alla tecnologia di riconoscimento facciale © SDI Productions/iStockphoto

Le critiche della società civile: legittimata la sorveglianza biometrica, nonostante rischi ed errori

La bozza iniziale del regolamento prevedeva il divieto della sorveglianza di massa attraverso il riconoscimento biometrico facciale. Il testo definitivo, invece, consentirà alle forze dell’ordine di usare software per il riconoscimento facciale negli spazi pubblici nonostante le prove empiriche degli errori e delle discriminazioni che questo genere di tecnologie presenta nei loro algoritmi.

Con il voto di mercoledì, invece, il Parlamento ha legittimato la sorveglianza biometrica in tutto il territorio comunitario, con il rischio di trasformare il nostro sistema democratico in “uno stato di sorveglianza high-tech”, come dichiarato da Patrick Breyer, eurodeputato del Partito Pirata e membro della commissione Libertà civili (Libe).

La società civile ha aspramente criticato il livello di permissività dell’uso del riconoscimento facciale contenuto nell’AI Act. Secondo quanto dichiarato da Access Now, organizzazione no profit focalizzata sui diritti digitali, il diavolo è nei dettagli. La nuova legge sull’intelligenza artificiale è piena di concessioni alle lobby del settore, ma soprattutto di deroghe che permettono l’uso da parte di forze dell’ordine e di autorità di quei sistemi categorizzati come inaccettabili. Per EDRi, rete di ong e accademici che si occupano di diritti digitali, con questo regolamento si crea un pericoloso precedente attraverso un quadro giuridico parallelo per l’uso dell’intelligenza artificiale da parte delle autorità nell’ambito della sicurezza nazionale, ma soprattutto nel controllo dei flussi migratori.

I divieti sui sistemi di intelligenza artificiale ad alto rischio non si estendono al contesto migratorio, anzi, molti di quelli che vengono già usati nel controllo delle frontiere o nelle gestioni delle domande di asilo non compaiono nell’elenco dei sistemi considerati, appunto, ad alto rischio. Anche la conformità dei database comunitari in materia di migrazioni, l’Eurodac, e il Sistema d’informazione Schengen avranno tempo per conformarsi al regolamento solo nel 2030.

Tutte scappatoie ed eccezioni che danneggeranno i migranti, le comunità etnicamente connotate e quelle emarginate che già sopportano il peso della discriminazione e dell’eccessiva sorveglianza da parte delle autorità.

Siamo anche su WhatsApp. Segui il canale ufficiale LifeGate per restare aggiornata, aggiornato sulle ultime notizie e sulle nostre attività.

Licenza Creative Commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

Articoli correlati