Secondo informatici, scienziati dei processi cognitivi e studiosi di legge, i sistemi di intelligenza artificiale dovrebbero avere responsabilità giuridica ed essere in grado di spiegare le loro decisioni senza rivelare tutti i loro segreti.
Nuovo appuntamento con VISIONARI che questa settimana offre ai lettori di AI4Business un articolo tratto da MIT Tecnology Review
La responsabilità giuridica dell’intelligenza artificiale
L’intelligenza artificiale (AI) è destinata a svolgere un ruolo sempre più importante nella società e questo solleva la questione della responsabilità giuridica. Se ci affidiamo alle macchine per prendere decisioni sempre più importanti, avremo bisogno di meccanismi di ricorso nel caso in cui i risultati si rivelassero inaccettabili o di difficile comprensione.
Ma fare in modo che i sistemi di intelligenza artificiale spieghino le loro decisioni non è del tutto semplice. Un problema è che le spiegazioni non sono libere, ma richiedono notevoli risorse sia per lo sviluppo del sistema AI sia per il modo in cui viene interrogato nella pratica.
Un’altra preoccupazione è che le spiegazioni possono rivelare segreti commerciali costringendo gli sviluppatori a pubblicare il funzionamento interno del sistema di intelligenza artificiale. Inoltre uno dei vantaggi di questi sistemi è che possono dare senso a dati complessi in modi non accessibili all’uomo. Quindi rendere le loro spiegazioni comprensibili agli esseri umani potrebbe richiedere una riduzione in termini di performance.
Come rendere l’AI responsabile delle sue decisioni senza soffocare l’innovazione?
Oggi riceviamo una risposta grazie al lavoro di Finale Doshi-Velez, Mason Kortz e altri ricercatori e studiosi dell’Università di Harvard, a Cambridge nel Massachusetts. Queste persone sono informatici, scienziati cognitivi e giuristi che insieme hanno esplorato le questioni legali sollevate dai sistemi di intelligenza artificiale, hanno identificato problemi chiave e suggerito possibili soluzioni.
Il team comincia definendo il concetto di spiegazione: «quando parliamo di spiegazione di una decisione, intendiamo generalmente le ragioni o le giustificazioni di quel particolare risultato, oppure la descrizione del processo decisionale in generale».
La distinzione è importante. Doshi-Velez ed il suo gruppo sottolineano che è possibile spiegare come un sistema di AI prenda decisioni nello stesso modo in cui è possibile spiegare come funziona la gravità o come cuocere una torta. Ciò avviene stabilendo le regole che il sistema segue, senza fare riferimento specifico a concetti come “oggetto in caduta libera” o “torta”.
Il timore dei vendor sta proprio qui, nella spiegazione del funzionamento del proprio sistema di intelligenza artificiale; i vendor vogliono mantenere segreti i meccanismi dei loro sistemi di AI per proteggere il loro vantaggio commerciale.
Tuttavia, questo tipo di trasparenza – in molti casi – non è necessario. Spiegare perché un oggetto è caduto in un incidente industriale, ad esempio, non richiede normalmente una spiegazione collegata alla gravità. Al contrario, le spiegazioni sono di solito necessarie per rispondere a domande come queste: quali sono stati i fattori principali di una decisione? Il cambiamento di un certo fattore avrebbe cambiato la decisione? Perché due casi simili hanno portato a decisioni diverse?
Rispondere a queste domande non richiede necessariamente una spiegazione dettagliata del funzionamento di un sistema di AI.
Quando dovrebbero essere fornite spiegazioni per l’uso dell’AI?
Essenzialmente, quando il beneficio supera il costo. «Troviamo che ci siano tre condizioni che caratterizzano le situazioni in cui la società considera un decisore obbligato – moralmente, socialmente o legalmente – a fornire una spiegazione», dicono Doshi-Velez e il suo gruppo.
1) Il team dice che la decisione deve avere un impatto su una persona diversa dal decisore.
2) Deve essere utile sapere se la decisione è stata presa erroneamente.
3) Ci deve essere qualche ragione per credere che si sia verificato (o si verificherà) un errore nel processo decisionale.
Ad esempio, gli osservatori potrebbero sospettare che una decisione sia stata influenzata da alcuni fattori irrilevanti, come ad esempio un chirurgo che si rifiuta di eseguire un’operazione a causa di una fase lunare. Oppure possono diffidare di un sistema se ha preso la stessa decisione in due circostanze completamente diverse. In tal caso si potrebbe sospettare che non abbia tenuto conto di un fattore importante. Un’altra preoccupazione riguarda le decisioni che sembrano trarre ingiustamente vantaggio da un gruppo, come nel caso in cui gli amministratori delle società adottino decisioni che vanno a vantaggio dei loro azionisti.
In altre parole, ci devono essere buone ragioni per pensare che una decisione sia impropria prima di chiedere una spiegazione. Ma possono anche esserci altre ragioni per fornire spiegazioni, come il tentativo di aumentare la fiducia nei confronti dei consumatori.
Spiegazione dell’AI: usare lo standard “umano”
Così Doshi-Velez e il suo gruppo guardano a concrete situazioni giuridiche in cui le spiegazioni sono necessarie. Essi sottolineano che menti ragionevoli possono e non possono differire a seconda che sia moralmente giustificabile o socialmente auspicabile chiedere una spiegazione. «D’altro canto, le leggi sono codificate, e mentre si potrebbe discutere se una legge è corretta, almeno sappiamo che cos’è la legge», affermano gli studiosi.
In base alla legislazione statunitense, le spiegazioni sono richieste in un’ampia varietà di situazioni e a vari livelli di dettaglio. Ad esempio, sono necessarie spiegazioni nei casi di responsabilità oggettiva, divorzio o discriminazione, per le decisioni amministrative e per i giudici e le giurie. Ma il livello di dettaglio varia enormemente.
Tutto ciò ha importanti implicazioni per i sistemi di intelligenza artificiale. Doshi-Velez e il suo gruppo ritengono che le spiegazioni giuridicamente fattibili sono possibili per i sistemi di intelligenza artificiale perché la spiegazione di una decisione può essere fatta indipendentemente dalla descrizione del suo funzionamento interno. Inoltre, il team dice che un sistema di spiegazione dovrebbe essere considerato distinto dal sistema di intelligenza artificiale stesso.
Questo è un risultato significativo. Ciò non significa che sarà sempre facile fornire spiegazioni soddisfacenti. Ad esempio, come si può dimostrare che un sistema di sicurezza che utilizza come input immagini di un volto non discrimina in base al genere? Questo è possibile solo utilizzando un volto alternativo che è simile per ogni verso all’originale ad eccezione del sesso, afferma il team.
Ma le spiegazioni per le decisioni prese dai sistemi di AI sono generalmente possibili. E questo porta la squadra ad una chiara conclusione: «per il momento proponiamo che i sistemi di intelligenza artificiale possano e debbano essere considerati ad uno standard di spiegazione simile a quello degli esseri umani», propongono e sostengono gli studiosi. «Ma il nostro uso e la nostra comprensione dell’intelligenza artificiale probabilmente cambieranno in modi che non comprendiamo ancora (e forse non comprenderemo mai). Per questo motivo tale approccio dovrà essere rivisto. In futuro potremmo desiderare di mantenere l’intelligenza artificiale a uno standard diverso».
*VISIONARI è un’associazione non-profit che promuove l’utilizzo responsabile di scienza e tecnologia per il miglioramento della società. Per diventare socio, partecipare ad eventi e attività, fare una donazione, visitare il sito: https://visionari.org