L’approvazione dell’AI Act, il 16 marzo 2024, costituisce un momento fondamentale nella storia recente dell’intelligenza artificiale per quanto riguarda l’aspetto legislativo. Si tratta della prima regolamentazione che ha l’obiettivo di disciplinare lo sviluppo e l’adozione dell’intelligenza artificiale, riducendone i rischi e le implicazioni più critiche legate agli impatti su privacy, sicurezza, e su una grande varietà di materie già trattate in passato: qui, qui e qui, ad esempio.
L’approvazione dell’AI Act e le questioni etiche
Lo sforzo di disciplinare gli sviluppi di una tecnologia potente, versatile, pervasiva e per certi versi imprevedibile nelle sue applicazioni e nelle sue conseguenze non è nuovo: nell’aprile del 2019 l’High-Level Expert Group on AI della Commissione Europea aveva elencato una serie di principi per guidare un approccio etico all’intelligenza artificiale attraverso l’Ethics Guidelines for Trustworthy Artificial Intelligence, in cui i termini chiave sono proprio etica da un lato e affidabile (trustworthy) dall’altro.
Per AI affidabile (trustworthy AI) si intendono quelle applicazioni che sono contemporaneamente rispettose delle leggi, di valori e principi etici condivisi e robuste, tecnicamente e socialmente rispetto agli impatti attesi.
Il tema delle leggi è molto complesso e dipende fortemente dalle diverse giurisprudenze. L’Europa, già avanguardia nella regolamentazione per il trattamento dei dati personali con il GDPR, apre la strada sul tema regolatorio anche in questo campo con l’AI Act. Molti altri Paesi seguiranno, convinti come sono tecnologi e legislatori che non possano essere solo la tecnologia, il mercato e la competizione geopolitica globale a indirizzare sviluppi e utilizzi di una tecnologia così potente.
L’AI etica e affidabile: un ambito enorme di ricerca, sviluppo e dibattito
Particolarmente complesso è il tema dell’etica, anche per la compresenza e il proliferare di definizioni, linee guida e raccomandazioni, con aspetti di sovrapposizione e alcune volte piccole contraddizioni tra le diverse enunciazioni. Si possono citare a questo proposito:
- I 17 principi per lo sviluppo sostenibile delle Nazioni Unite, che forniscono una cornice a cui tutti nel campo rimandano.
- I principi di AI Etica redatti dall’Unesco.
- Le raccomandazioni dell’IEEE, la più importante associazione internazionale di scienziati e tecnologi per lo sviluppo delle scienze tecnologiche.
- I principi sviluppati da Google e da diverse altre tech company globali, nel tentativo di auto-regolamentare e indirizzare gli sviluppi verso il bene comune.
La lista di modelli e linee guida potrebbe continuare, con l’effetto di aumentare più l’entropia della chiarezza.
L’etica dell’intelligenza artificiale secondo Luciano Floridi
Proprio nel tentativo di fare ordine su questa materia, Luciano Floridi ha dato alle stampe Etica dell’intelligenza artificiale, pubblicato da Raffaello Cortina, un volume che offre un impianto teorico consistente per inquadrare il tema e linee guida pratiche e concrete per assistere chi nelle università, nei centri di ricerca, nelle imprese, nelle pubbliche amministrazioni e negli enti regolatori debba definire le politiche e i limiti allo sviluppo e all’applicazione etica dell’intelligenza artificiale.
Senza poter restituire la complessità e la ricchezza del libro, di cui si consiglia la lettura, si riportano alcuni concetti fondamentali, utili a guidare anche l’applicazione di regolamentazioni come l’AI Act.
Due concetti preliminari
In apertura del libro, Floridi dà due definizioni utili a comprendere l’intero impianto:
- una definizione di intelligenza artificiale, finalizzata a comprenderne da subito opportunità e limiti;
- la definizione di infosfera e dei rapporti tra il digitale, l’ambiente e l’intelligenza artificiale.
La definizione di intelligenza artificiale che Floridi utilizza nel testo è foriera di diverse conseguenze. La definizione è quella che venne data da John McCarty, Marvin L. Minsky, Nathaniel Rochester e Claude E. Shannon nel 1955 in “A Proposal for the Darmouth Summer Research Project on Artificial Intelligence”, ovvero:
“Per il presente scopo il problema dell’intelligenza artificiale è quello di far sì che una macchina agisca con modalità che sarebbero definite intelligenti se un essere umano si comportasse allo stesso modo”.
La definizione implica che le macchine non sono né intelligenti né coscienti, permettendo di saltare disquisizioni teoriche o scenari futuristici per adottare un approccio ingegneristico, orientato a costruire macchine in grado di riprodurre comportamenti intelligenti. Una visione pragmatica che ridimensiona aspettative e preoccupazioni legate all’avvento della cosiddetta intelligenza artificiale generale (di cui avevamo scritto qui) o addirittura di forme di super-intelligenza. La scelta è pragmatica proprio perché questi dibattiti nominalistici non aiutano ad agire concretamente nello sviluppo e nell’applicazione dei modelli di machine learning e deep learning disponibili oggi, qui e ora.
Il secondo concetto preliminare è quello di infosfera – ovvero di un mondo immerso nel contesto digitale fatto di dati e piattaforme, un ecosistema digitale in cui siamo immersi che creano un ambiente (fatto di zeri e di uno) certamente idoneo all’intelligenza artificiale e al machine learning in particolare, che proprio di dati si nutre.
Principi etici per l’intelligenza artificiale
Fatte queste premesse, è possibile considerare e descrivere i principi etici per lo sviluppo e il governo dell’intelligenza artificiale, ovvero, i 4 principi fondamentali e comuni con la bioetica:
- beneficenza
- non maleficenza
- autonomia
- giustizia
a cui si aggiunge una dimensione fondamentale per l’intelligenza artificiale: l’esplicabilità, intesa sia come spiegazione del funzionamento, sia di responsabilità. Da ricordare che l’explainable AI rappresenta una delle risposte all’incertezza, al rischio e in qualche modo anche alla paura di sistemi visti come scatole nere (black box) imperscrutabili.
A questo scopo, sono stati creati framework, le model cards, ovvero documenti che raccolgono le informazioni chiave rispetto agli scopi, al funzionamento, al contesto di utilizzo e di training di un modello di machine learning. Affiancare un’applicazione da una descrizione dettagliata rende più trasparente e più facilmente intellegibili anche possibili pregiudizi, rischi, limitazioni all’utilizzo.
Per approfondire il tema dei model card, si può fare riferimento sia alla ricerca accademica (tra cui Model Cards for Model Reporting di Mitchell et al, 2018 ), sia ai modelli in uso nelle tech company come Google (Google Model Cards, ecc.), sia, infine a piattaforme open source come gli HuggingFace Model Cards.
Da rimarcare che il rispetto dei principi etici esposti sopra va al di là della compliance normativa, nella consapevolezza che la legislazione da sola non potrà mai garantire il rispetto di principi etici validi generalmente e che necessariamente i tempi della politica e della giurisprudenza non sono quelli di una tecnologia in rapidissima evoluzione. A mantenere uno sviluppo etico dell’AI devono essere gli operatori che devono in un certo senso anche autoregolarsi.
Dai principi etici alle pratiche
Nella distanza tra i principi enunciati e le applicazioni pratiche si misurano le vere intenzioni dei diversi attori e si incontrano i principali rischi di fallimento, riducendo lo sviluppo etico a una serie di raccomandazioni etiche cui si aderisce solo formalmente. A questo proposito, Floridi identifica cinque modi in cui si assiste al divorzio tra teoria e pratica. Si tratta di comportamenti che si possono osservare anche in altri ambiti, come la sostenibilità ambientale e sociale, ovvero
- shopping etico: la pratica di cercare nella molteplicità ed eterogeneità dell’offerta di linee guida e raccomandazioni quei principi che possono, a posteriori, giustificare comportamenti pre-esistenti;
- bluewashing etico: analogamente al “greenwashing” in ambito ambientale si tratta della pratica di comunicare pratiche etiche non applicate nella realtà, oppure applicate in maniera molto parziale e marginale;
- lobbismo etico digitale: la pratica volta a sfruttare l’argomento dell’etica per fare pressioni e ritardare una coerente e cogente legislazione;
- dumping etico: la pratica di sviluppare in contesti a bassa o nulla regolamentazione i modelli, applicati poi in contesti maggiormente regolamentati e restrittivi;
- elusione etica: la pratica di evitare di sottostare a normative e principi etici in contesti in cui è considerato meno rilevante e vincolante.
AI for Social Good
Nel testo sono approfonditi diversi altri temi, tra cui: le diverse regolamentazioni e i sistemi di governance; l’etica degli algoritmi e le modalità con cui algoritmi e dati possono portare a risultati errati, rischi ingiustificati, alimentare e rafforzare pregiudizi (bias), ecc.; le cattive pratiche e le applicazioni dell’intelligenza artificiale per il bene sociale (AI for Social Good, AI4SG).
Il capitolo dedicato alle applicazioni di intelligenza artificiale per il bene sociale è particolarmente rilevante perché da un lato descrive casi concreti di applicazione etica e positiva dell’AI, mostrando che ci deve guidare la speranza di costruire un mondo migliore, con più intelligenza, meno fatica, meno ingiustizia; dall’altro, offrendo un framework per indirizzare strategicamente e praticamente l’AI nel perseguimento del bene sociale.
Un capitolo che chiama ciascuno alle proprie responsabilità: se l’AI porterà a esiti negativi o addirittura catastrofici non sarà per la ribellione di macchine super-intelligenti, ma per gli obiettivi pratici che decideremo di perseguire.
Conclusioni
Già oggi, possiamo usare l’intelligenza artificiale da un lato per rendere più autonoma e piena la vita dei non vedenti, come fa Be my Eyes, dall’altro per costruire armi di distruzione e morte. Quello che vorremmo far fare alle macchine dipenderà solo da noi. Loro, le macchine, non hanno (almeno per ora) né coscienza né volontà.