Negli ultimi anni l’AI ha acquisito grande popolarità, portando con sé importanti implicazioni nel mondo del lavoro, dell’intrattenimento e nella società in generale. E ovviamente quando la tecnologia diventa così pervasiva di ogni aspetto della vita, è necessaria una grande attenzione ai suoi aspetti etici.
Per sviluppare un’AI etica, chi opera nel settore deve comprenderne bene gli effetti sul breve e medio periodo. Nell’addestramento dei modelli devono essere usate enormi quantità di dati per garantire che la tecnologia sia inclusiva e non discriminatoria né rifletta pregiudizi nei confronti di determinati gruppi o individui. Nel caso sia individuato un pregiudizio, gli sviluppatori devono proattivamente creare un equilibrio nel sistema e nei suoi dati. Ovviamente, non tutte le forme di AI presentano lo stesso livello di rischio e i legislatori si stanno pertanto concentrando su quegli utilizzi che possono avere un impatto particolarmente negativo.
Le aree ad alto rischio dell’AI
Due delle aree più sensibili per l’implementazione dell’AI sono la sanità e la giustizia. Nel settore sanitario, i principali aspetti da salvaguardare sono la privacy, la protezione dei dati e la mitigazione dei pregiudizi. I dati sensibili riguardanti i pazienti devono essere gestiti eticamente, raccogliendo tutti i consensi necessari e tenendo in massima considerazione la confidenzialità.
Tuttavia, poiché l’intelligenza artificiale è addestrata con i dati esistenti, è possibile che nei nuovi sistemi siano introdotti pregiudizi non intenzionali. Pertanto, gli algoritmi dell’AI devono essere vagliati rigorosamente per minimizzare quei pregiudizi che potrebbero perpetuare disparità nell’accesso al sistema sanitario e ai trattamenti. Analogamente, anche nell’amministrazione della giustizia è necessario prestare attenzione ai pregiudizi algoritmici per evitare trattamenti o sentenze non eque.
Per tutti questi motivi, l’utilizzo dell’AI, e in particolare dell’AI generativa, dovrebbe essere in carico a professionisti adeguatamente formati, che abbiano la capacità di comprendere e valutare i fattori critici. E nei casi più sensibili, l’AI dovrebbe essere usata solo in maniera controllata per ridurre ogni potenziale pericolo.
Trasparenza e responsabilità
Per incoraggiare la responsabilità, deve esserci una documentazione e divulgazione chiara rispetto alle fonti dei dati, agli algoritmi e ai processi decisionali coinvolti nei sistemi di AI. Con la registrazione di queste informazioni fondamentali, il legislatore, le imprese e il grande pubblico possono comprendere come vengono prese le decisioni e identificare i possibili pregiudizi ed errori dove necessario.
Inoltre, le organizzazioni sono chiamate a individuare dei meccanismi per la revisione e validazione dei sistemi di AI in modo che entità indipendenti possano poi definirne la correttezza, l’affidabilità e le performance. L’accountability può sostenere schemi di governance per definire ruoli e responsabilità per lo sviluppo, implementazione e monitoraggio dei sistemi AI. Ciò significa stabilire dei canali per correggere eventuali errori degli algoritmi o intervenire in caso di risultati avversi. Infine, è indispensabile mantenere aperto il dialogo con i diversi stakeholder (comunità, esperti, legislatore) in modo che i sistemi di AI siano costantemente allineati con i valori della società e l’interesse pubblico. Se la trasparenza e l’accountability sono una priorità, le tecnologie AI possono conquistare la fiducia del pubblico, mentre i rischi restano limitati.
Di fronte ai grandi cambiamenti introdotti dall’AI, è indispensabile porre delle regole. L’AI Act è il primo esempio normativo emesso da uno dei maggiori enti regolatori destinato specificamente alla regolamentazione della tecnologia. Una legge innovativa che fungerà probabilmente da esempio per altri legislatori nel mondo.
Come gli stakeholder possono plasmare l’AI etica
Il coinvolgimento degli stakeholder è fondamentale per dare forma a un’AI etica, in quanto gruppi e individui offrono prospettive e responsabilità uniche. I governi e gli enti regolatori devono definire e applicare degli inquadramenti legali capaci di guidare lo sviluppo, l’implementazione e l’uso dell’AI. I regolamenti devono riguardare preoccupazioni etiche come correttezza, responsabilità, trasparenza e protezione della privacy. Gli operatori del settore e le aziende tecnologiche sono responsabili per la progettazione e l’implementazione di sistemi di AI allineati con i principi etici. Tale responsabilità comporta rigorose valutazioni dei rischi, mitigazione dei pregiudizi, promozione della trasparenza e una piena responsabilità nell’uso di questi sistemi per il loro intero ciclo di vita.
L’università e la ricerca sono fondamentali per fare progredire la nostra comprensione dell’etica dell’AI e per sviluppare linee guida etiche e best practice. In questo scenario, la società civile, nonché i gruppi di advocacy ricoprono un ruolo chiave nell’evidenziare le preoccupazioni etiche legate a queste tecnologie e fare pressioni per uno sviluppo e un’implementazione responsabili. Infine, gli utenti finali e le comunità che subiscono l’impatto dell’AI devono essere attivamente coinvolti nella progettazione e implementazione di questo tipo di sistemi in modo che essi riflettano differenti punti di vista, valori e necessità. Ecco, dunque, che collaborazione e coinvolgimento sono essenziali per lo sviluppo etico dell’AI.
Etica dell’AI, principio inderogabile
L’etica dell’AI deve essere un principio inderogabile di tutte le parti coinvolte. Ovviamente gli sviluppatori devono impegnarsi a rimuovere i pregiudizi dai propri prodotti e comprendere i potenziali rischi.
Un trend che si sta affermando è la nomina di Chief AI Officer con il compito di coordinare lo sviluppo efficace e responsabile dell’AI. Una funzione questa che avrà un ruolo sempre più importante con la progressiva diffusione dei sistemi di AI.
Ai team di marketing e vendite spetta, invece, il compito di posizionare responsabilmente i prodotti e gli strumenti di AI. Con un posizionamento attento e onesto, anche i consumatori e gli utenti possono formarsi aspettative realistiche sull’AI e su come e dove possa essere utilizzata.
Con lo sviluppo di nuovi quadri normativi, i team legali in azienda devono garantire la compliance e supportare le best practice. Ciò è particolarmente importante per le organizzazioni internazionali per comprendere in quali giurisdizioni ricadono.
Allineare valori e sistemi AI
Per garantire che i sistemi AI siano allineati con i valori sociali, deve esserci una stretta collaborazione all’interno della società, non limitandosi solo ai governi e ai tecnologi. Per lo sviluppo di quadri normativi atti a tenere l’AI lontana da usi e risultati pericolosi, la discussione deve coinvolgere anche accademici, organizzazioni che si occupano di giustizia sociale e di etica.
La realtà è che chiunque, indipendentemente dal suo legame con l’AI, desidera lo stesso risultato: migliorare la nostra sicurezza informatica, l’efficienza energetica, la ricerca medica e molto altro ancora, evitando discriminazioni, pregiudizi e manipolazioni del comportamento umano.