“Un precedente pericoloso: il Regolamento UE sull’AI manca di proteggere migranti e persone in movimento”. Questa dichiarazione è stata redatta collettivamente dalla coalizione #ProtectNotSurveil in seguito al voto finale del Parlamento Europeo sul Regolamento UE sull’intelligenza artificiale, AI Act. Sebbene la legislazione sia ampiamente celebrata come un primato mondiale, secondo l’organizzazione Access Now l’AI Act si rivela carente nell’ambito cruciale della migrazione, non riuscendo a prevenire danni e a fornire protezione per le persone in movimento.
Access Now difende ed estende i diritti digitali delle persone e delle comunità a rischio.
Access Now: “L’AI Act è un precedente pericoloso”
Access Now sostiene che, nella sua versione definitiva, l’AI Act stabilisce un precedente pericoloso. La legislazione, infatti, sviluppa un quadro giuridico separato per l’utilizzo dell’AI da parte delle forze dell’ordine, del controllo della migrazione e delle autorità di sicurezza nazionale, fornisce scappatoie ingiustificate, e addirittura incoraggerebbe l’utilizzo di sistemi pericolosi per una sorveglianza discriminatoria sui più marginalizzati nella società.
La dichiarazione di Access Now evidenzia le principali lacune nella protezione rispetto all’AI nel contesto della migrazione.
Perché l’AI Act è un fallimento sulla migrazione
L’AI Act mira a fornire un quadro normativo per lo sviluppo e l’utilizzo dell’AI più “rischiosa” all’interno dell’Unione Europea. La legislazione delinea divieti per gli usi “inaccettabili” dell’AI e stabilisce un quadro di requisiti tecnici, di supervisione e di responsabilità per l’AI “ad alto rischio” quando viene distribuita o messa sul mercato dell’UE. Secondo Access Now, sebbene l’AI Act compia passi positivi in altri settori, la legislazione è debole e addirittura abilita sistemi pericolosi nel campo della migrazione. Ecco perché.
• I divieti sui sistemi AI non si estendono al contesto della migrazione. La legislazione introduce divieti (limitati) per usi dannosi dell’AI. I legislatori dell’UE si sono rifiutati di vietare sistemi dannosi come i sistemi di valutazione del rischio discriminatorio nella migrazione e l’analisi predittiva quando utilizzata per facilitare i respingimenti. Inoltre, il divieto sul riconoscimento delle emozioni non si applica nel contesto della migrazione, escludendo quindi casi documentati di detector di bugie basati sull’AI ai confini.
• L’elenco dei sistemi ad alto rischio non riesce a catturare i numerosi sistemi AI utilizzati nel contesto della migrazione e che, alla fine, non saranno soggetti agli obblighi di questo Regolamento. L’elenco esclude sistemi pericolosi come i sistemi di identificazione biometrica, gli scanner delle impronte digitali o gli strumenti previsionali utilizzati per prevedere, intercettare e limitare le migrazioni.
• L’AI utilizzata come parte dei grandi database dell’UE sulla migrazione, come Eurodac, il Sistema d’Informazione Schengen e ETIAS, non dovrà essere conforme al Regolamento fino al 2030.
• Esportazione di tecnologia di sorveglianza dannosa: l’AI Act non ha affrontato come i sistemi AI sviluppati da aziende con sede nell’UE impattano le persone al di fuori dell’UE, nonostante le prove esistenti di violazioni dei diritti umani facilitate dalle tecnologie di sorveglianza sviluppate nell’UE in paesi terzi (ad es., Cina, Territori palestinesi occupati). Pertanto, non sarà vietato esportare un sistema vietato in Europa al di fuori dell’UE.
L’AI Act abilita la sorveglianza dannosa da parte della polizia e delle autorità migratorie
Forse l’aspetto più dannoso dell’AI Act, per Access Now, è la creazione di un quadro giuridico parallelo quando l’AI viene utilizzata dalle forze dell’ordine, dalla migrazione e dalle autorità di sicurezza nazionale.
Secondo l’organizzazione, a seguito della pressione esercitata dagli Stati membri, dai lobbisti delle forze dell’ordine e dell’industria della sicurezza, queste autorità sono esplicitamente esentate dalle regole e salvaguardie più importanti all’interno dell’AI Act:
• Esenzioni alle salvaguardie sulla trasparenza e supervisione per le autorità delle forze dell’ordine. Il regolamento introduce salvaguardie sulla trasparenza che richiedono alle autorità pubbliche che utilizzano sistemi AI ad alto rischio di registrare informazioni sul sistema su un database accessibile al pubblico. L’AI Act introduce un’esenzione a questo requisito per le forze dell’ordine e le autorità migratorie, instaurando segretezza per alcuni degli usi più dannosi dell’AI. Ciò renderà impossibile per le persone interessate, la società civile e i giornalisti sapere dove vengono distribuiti i sistemi AI.
• L’esenzione sulla sicurezza nazionale consentirà agli Stati membri di esentarsi dalle regole per qualsiasi attività ritengano rilevante per la “sicurezza nazionale”, in sostanza un’esenzione generale alle regole dell’AI Act che potrebbe in teoria essere utilizzata in qualsiasi questione di migrazione, polizia e sicurezza. Queste esenzioni codificano effettivamente l’impunità per l’uso illimitato della tecnologia di sorveglianza, stabilendo un precedente pericoloso per l’utilizzo della tecnologia di sorveglianza in futuro. Di fatto, i legislatori dell’AI Act hanno notevolmente limitato il controllo cruciale delle autorità delle forze dell’ordine e hanno abilitato sempre più l’utilizzo di sorveglianza razziale e discriminatoria. Prima di tutto, queste scappatoie danneggeranno i migranti, le comunità razziali e altre comunità marginalizzate che già subiscono il peso del targeting e della sorveglianza eccessiva da parte delle autorità.
AI Act: diritti fondamentali, tecnologia di sorveglianza e migrazione
L’AI Act impiegherà tra due a cinque anni per entrare in vigore. Nel frattempo, i sistemi AI dannosi continueranno a essere testati, sviluppati e distribuiti in molti settori della vita pubblica. Inoltre, l’AI Act è solo un contesto legale in cui l’UE sta abilitando la tecnologia di sorveglianza. Dalla Regolamentazione dello Screening, Eurodac, a molti altri, vediamo un quadro giuridico in espansione che sorveglia, discrimina e criminalizza i migranti.
La coalizione #ProtectNotSurveil è nata nel febbraio 2023 per sostenere l’AI Act a proteggere le persone in movimento dai danni derivanti dall’uso dei sistemi AI. Questa coalizione continuerà a monitorare, sostenere e organizzare contro gli usi dannosi della tecnologia di sorveglianza.
I prossimi passaggi cruciali saranno:
• Per gli organismi dell’UE e di livello nazionale documentare e rispondere ai danni derivanti dall’uso dell’AI nei contesti di migrazione e polizia, garantendo la protezione contro la violazione dei diritti delle persone.
• Per la società civile contestare ulteriormente l’espansione del quadro di sorveglianza, invertendo e rifiutando le tendenze che criminalizzano, prendono di mira e discriminano i migranti e i gruppi marginalizzati.
• Per tutti rivalutare l’investimento di risorse in tecnologie che puniscono, prendono di mira e danneggiano le persone invece di affermare i diritti e fornire protezione.
L’AI Act dell’UE: “un fallimento per i diritti umani, una vittoria per l’industria e le forze dell’ordine”
Access Now ritiene che, nonostante la sua intenzione di proteggere i diritti delle persone, il testo finale dell’AI Act è un pezzo di legislazione sulla sicurezza dei prodotti poco ambizioso. “A seguito di un lobbying scandaloso da parte dell’industria e delle agenzie delle forze dell’ordine, il testo finale è pieno di scappatoie, deroghe ed eccezioni, il che significa che non proteggerà le persone, né i loro diritti umani, da alcuni degli usi più pericolosi dell’AI”.
Il Parlamento Europeo ha avviato le ultime negoziazioni del trilogo con un testo molto forte, ma è caduto all’ultimo ostacolo; le protezioni per i diritti delle persone sono state o diluite o completamente rimosse nel testo votato.
Access Now nota in particolare che la versione finale dell’AI Act:
• Non riesce a vietare adeguatamente alcuni degli usi più pericolosi dell’AI, compresi i sistemi che abilitano la sorveglianza biometrica di massa e i sistemi di polizia predittiva;
• Crea una vistosa scappatoia tramite l’articolo 6(3) per gli sviluppatori per esentarsi dagli obblighi per i sistemi AI ad alto rischio;
• Esonera le forze dell’ordine e le autorità migratorie da importanti requisiti di trasparenza pubblica quando utilizzano l’AI ad alto rischio, il che significa che possono continuare a distribuire sistemi pericolosi in segreto;
• Estende ulteriormente l’esenzione sulla sicurezza nazionale oltre quanto consentito dai trattati dell’UE, consentendo ai governi di esentarsi dagli obblighi previsti dall’AI Act al fine di perseguire casi ritenuti rilevanti per la sicurezza nazionale;
• Crea un regime separato per le persone in migrazione, in cerca di rifugio e/o senza documenti, lasciandoli con molti meno diritti dei cittadini dell’UE e quasi nessun accesso al rimedio quando questi diritti vengono violati.
La coalizione #ProtectNotSurveil, co-guidata da Access Now, ha dettagliato come l’AI Act finale presenti rischi elevati in un contesto di migrazione, stabilendo precedenti pericolosi per l’uso delle tecnologie di sorveglianza contro le persone in movimento e le comunità razziali.
Nonostante le gravi carenze dell’AI Act, Access Now lavorerà con i partner della società civile per spingere per la più forte implementazione possibile dell’AI Act e i pochi strumenti che proteggono i diritti che include, mentre continuerà a monitorare e denunciare gli abusi facilitati dall’AI.
Amnesty International UE: il regolamento sull’intelligenza artificiale non riesce a fermare la proliferazione di tecnologie abusive
Al grido di allarme di Access Now si unisce anche Amnesty International. In risposta all’adozione da parte del Parlamento Europeo del Regolamento sull’intelligenza artificiale dell’Unione Europea, Mher Hakobyan, consulente per l’advocacy su intelligenza artificiale di Amnesty International, ha dichiarato: “Anche se l’adozione delle prime regole al mondo sullo sviluppo e il dispiegamento delle tecnologie AI è una pietra miliare, è deludente che l’UE e i suoi 27 Stati membri abbiano scelto di dare priorità all’interesse dell’industria e delle agenzie delle forze dell’ordine piuttosto che proteggere le persone e i loro diritti umani. L’AI Act offre solo protezioni limitate alle persone colpite e marginalizzate. Non vieta l’utilizzo sconsiderato e l’esportazione di tecnologie AI draconiane, mentre non riesce nemmeno a garantire una protezione uguale ai migranti, ai rifugiati e ai richiedenti asilo. Allo stesso modo, manca di disposizioni adeguate sulla responsabilità e trasparenza, che probabilmente esacerberanno gli abusi dei diritti umani. I paesi al di fuori dell’UE dovrebbero imparare dal fallimento del blocco nel regolamentare adeguatamente le tecnologie AI e non devono cedere alle pressioni dell’industria tecnologica e delle autorità delle forze dell’ordine durante lo sviluppo della regolamentazione. Gli Stati dovrebbero invece mettere in atto una legislazione AI robusta e vincolante che dia priorità alle persone e ai loro diritti.”