Il 4 ottobre 2022 il governo degli Stati Uniti ha pubblicato l’AI Bill of Rights, i.e. un progetto per definire una “Carta dei diritti dell’AI” riferito ai sistemi che utilizzano questa tecnologia nel territorio americano. Si tratta di linee guida che forniscono indicazioni su come proteggere dati, ridurre al minimo il rischio di bias e l’uso della sorveglianza. Ovvero, una prima mossa importante verso la regolamentazione dell’AI negli Stati Uniti per tenere il passo con le legislazioni sviluppate in Europa.
AI Bill of Rights, cosa dicono le cinque linee guida
Il progetto è stato predisposto dall’OSTP (i.e. Office of Science and Technology Policy fondato a metà degli anni ’70 e che fornisce consulenza al presidente americano e all’ufficio esecutivo degli Stati Uniti su vari aspetti tecnologici, scientifici e ingegneristici di importanza nazionale). Un progetto per una “Carta dei diritti dell’AI” – a differenza della più nota Carta dei Diritti degli Stati Uniti – che non sarà convertita in legge, essendo un “white paper” non vincolante che fornisce una serie di raccomandazioni a cui le agenzie governative e le società tecnologiche possono volontariamente conformarsi.
Le linee guida pubblicate identificano cinque principi che dovrebbero guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati basati sull’AI e, precisamente:
- Proteggere le persone da sistemi automatizzati non sicuri o inefficaci – I sistemi automatizzati basati sull’AI dovrebbero essere sviluppati prevedendo la consultazione di diverse comunità, di parti interessate e di esperti in modo da identificare eventuali preoccupazioni, rischi e potenziali impatti del sistema.
- Prevenire la discriminazione in termini di razza, colore, etnia o sesso da parte di algoritmi – I sistemi di AI dovrebbero essere utilizzati e progettati in modo equo.
- Salvaguardare le persone da pratiche abusive sui dati & privacy – Si tratta di garantire ai cittadini americani la possibilità di decidere sulle modalità di utilizzo dei loro dati e salvaguardarli dall’uso incontrollato delle tecnologie di sorveglianza. Inoltre, le persone dovrebbero essere protette dalle violazioni della privacy attraverso scelte progettuali che garantiscano che tali protezioni siano incluse by design, la raccolta dei dati sia conforme alle aspettative e che i dati siano raccolti solo per il contesto specifico.
- Informare le persone quando un sistema di AI è in uso e su che base vengono effettuate le decisioni che le riguardano – Progettisti, sviluppatori e gli implementatori di sistemi automatizzati basati sull’AI dovrebbero fornire una documentazione redatta utilizzando un linguaggio semplice e facilmente comprensibile ed in grado di fornire descrizioni chiare del funzionamento generale del sistema e del ruolo svolto dall’automazione.
- Consentire agli utenti di rinunciare ai sistemi automatizzati basati sull’AI e di poter interagire con una persona – Tale opzione deve essere garantita quando il cittadino vuole interagire con una persona in grado di considerare e risolvere rapidamente i problemi riscontrati, soprattutto quando si tratta di AI utilizzata in aree sensibili come, ad esempio, la giustizia, l’occupazione, l’istruzione e la salute.
Il progetto è accompagnato anche da un manuale – i.e. “Dai principi alla pratica” – con passaggi dettagliati su come implementare questi principi nel processo di progettazione tecnica. È doveroso evidenziare che esso non include alcuna raccomandazione in termini di restrizioni sull’uso di forme controverse dell’AI quali, ad esempio: i sistemi che identificano le persone in tempo reale utilizzando immagini facciali o altri dati biometrici o sistemi per l’uso di armi autonome letali.
La Casa Bianca, contemporaneamente al rilascio della “Carta dei diritti dell’AI”, ha annunciato che alcune agenzie – tra cui il Dipartimento della salute e dei servizi umani e il Dipartimento dell’istruzione- pubblicheranno nei prossimi mesi delle linee guida per ridurre l’uso di tecnologie algoritmiche dannose o pericolose e per garantire un’AI responsabile, etica e affidabile.
US AI Bill of Rights vs. regolamentazione EU
Stiamo assistendo, su entrambe le sponde dell’Atlantico, a dei tentativi di proteggere i cittadini dai danni collaterali dell’AI e che differiscono tra loro come approccio.
Di fatto, l’AI Bill Rights manca di qualsiasi supporto legale per l’AI, rispetto all’approccio dell’UE che, pur non conferendo diritti alle persone, impone invece obblighi a coloro che realizzano sistemi basati su questa tecnologia o che li utilizzano a titolo professionale.
Inoltre, le linee guida US non sono così rigide come il GDPR dell’UE che prevede pesanti multe per le aziende che non rispettano le regole destinate a limitare il modo in cui sono raccolti ed utilizzati i dati personali. L’entrata in vigore del GDPR in UE ha indotto aziende come Microsoft e Amazon – che operano in Europa – a conformarsi e, in alcuni casi, a cambiarne l’approccio per quanto riguarda la raccolta, lo sfruttamento e la condivisione dei dati degli utenti.
È doveroso evidenziare che l’AI Act proposto dall’UE mira a classificare le applicazioni di AI in base al rischio e regolarle di conseguenza, fornendo norme per l’uso in aree designate “ad alto rischio” e sanzioni fino al 6% del fatturato globale annuo all’azienda incriminata per le violazioni più gravi.
Inoltre, l’AI Act unitamente all’AI Liability Directive – appena presentata – garantirà ai cittadini europei il diritto di citare in giudizio le aziende qualora si ritenessero danneggiati da un sistema automatizzato. Ancora, l’AI Act è destinato ad integrare il Digital Markets Act e il Digital Services Act, in modo da creare sia un ambiente più sicuro sia uno spazio digitale più aperto nel rispetto dei diritti fondamentali dei cittadini europei.
L’European Digital SME Alliance (i.e. la più grande rete europea di PMI nel settore dell’informazione) ritiene che i requisiti complessi e costosi di conformità dell’AI Act (i.e. previsti costi iniziali compresi tra 193.000-330.000 dollari e 71.400 dollari di costi di manutenzione annuali) non favoriranno l’innovazione dell’AI nell’area. Anzi, molto probabilmente, comporteranno la fuoriuscita dal mercato delle PMI non in grado di sostenerne gli oneri. Pertanto, se da un lato l’EU viene considerata come il regolatore tecnologico più “potente” e aggressivo a livello globale, dall’altro lato rischia di ostacolare l’innovazione dell’AI nel vecchio continente, favorendo maggiormente il mercato e le grandi società tecnologiche d’Oltreoceano.
C’è bisogno di un coordinamento fra Usa e UE
Entrambe le sponde dell’Atlantico progrediscono nel definire un quadro legislativo per salvaguardare i diritti delle persone a fronte del proliferare dell’impiego dell’AI.
L’EU e gli Stati Uniti dovrebbero, però, lavorare maggiormente a definizioni comuni dell’AI e condividere informazioni oltre a incoraggiare la comunicazione e la collaborazione man mano che le normative prendono forma. In quest’ottica, la creazione di un ufficio centrale di coordinamento normativo internazionale dell’AI risulterebbe quanto mai strategica e garantirebbe la consulenza alle varie agenzie in modo da evitare future norme o interpretazioni contrastanti e contribuire a una maggiore sinergia tra l’UE e gli Stati Uniti nel definire processi e criteri coerenti in termini di audit dei sistemi di AI.
Concludendo, come afferma il professor Luciano Floridi – ordinario di Filosofia ed Etica dell’Informazione all’Università di Oxford – nel suo libro “Etica dell’Intelligenza Artificiale”: “… abbiamo bisogno di coordinarci (non dobbiamo intralciarci), collaborare (ognuno fa la sua parte) e cooperare (lavoriamo insieme) di più, meglio a livello internazionale…”. Ovvero, nonostante le barriere naturali alla cooperazione interculturale e la concorrenza intrinseca tra i Paesi, la natura e il potenziale di trasformazione dell’AI rendono ineludibile una cooperazione normativa globale.