LIBRI

“La legge dell’intelligenza artificiale”, il primo libro dedicato all’AI Act



Indirizzo copiato

Scritto da Roberto Viola e Luca De Biase e pubblicato da Il Sole 24 Ore. Tramite la spiegazione delle vicende che hanno condotto al Regolamento europeo, il lettore viene aiutato a comprendere quali sfide pone all’umanità lo sviluppo dell’AI

Pubblicato il 2 lug 2024



La legge dell’intelligenza artificiale

L’AI Act è il regolamento UE che per primo al mondo offre un quadro compiuto di norme per garantire la sicurezza degli algoritmi dell’intelligenza artificiale.

Il libro “La legge dell’intelligenza artificiale”, scritto da Roberto Viola – commissario Ue – e dal giornalista Luca De Biase, cerca di informare su come le regole europee ci proteggano dai rischi: gli utilizzi abusivi e pericolosi, le tecnologie non trasparenti, le concentrazioni di potere. Inoltre, offre un racconto degli episodi che hanno condotto al testo che alla fine è stato approvato: la difficoltà di creare una legge su un argomento che cambia di continuo a causa dell’innovazione tecnologica è superabile soltanto sviluppando una visione competente e strategica nel contesto delle istituzioni che legiferano, il che non è necessariamente semplice.

E c’è un sottotesto da tenere presente: tramite la spiegazione delle vicende che hanno condotto al regolamento europeo, il lettore sarà aiutato a comprendere quali sfide pone all’umanità lo sviluppo dell’AI. 

La prima parte del libro è dedicata alla dimensione delle grandi decisioni collettive. A chi spetterà il compito di operarle? Sarà un sistema multilaterale di stati esplicitamente costruito per governare l’intelligenza artificiale? Saranno le aziende che producono quella tecnologia a imporre di fatto il loro punto di vista? Oppure l’ultima parola spetterà alle istituzioni globali?

Nella seconda parte si passano in rassegna i fatti che hanno condotto all’elaborazione, alla discussione e all’approvazione dell’AI Act. La prima proposta della Commissione. La prima revisione operata dal Parlamento, a valle della spettacolare entrata in gioco dell’intelligenza artificiale generativa e dei Large language model.

La terza parte è relativa alle policy che l’Europa sta mettendo in opera per non essere soltanto attiva nella regolamentazione ma per conquistare migliori posizioni anche dal punto di vista imprenditoriale e tecnologico nella grande competizione globale per l’intelligenza artificiale.

Ma occorre prestare attenzione a come ci si informa su questa materia. Il libro è sotteso da una convinzione. Per leggere lo sviluppo dell’intelligenza artificiale occorre distinguere la narrazione e la realtà. La complessità è notevole. Vanno studiate contemporaneamente diverse traiettorie di sviluppo di una tecnologia con pochi precedenti e tutte le condizioni abilitanti che ne accelerano le conseguenze.

Indice degli argomenti:

Gli autori

Luca De Biase: giornalista, scrive di innovazione su Il Sole 24 Ore e La Svolta, è autore e voce di Rai Radio 3, docente alle università di Pisa e Luiss ed è Media ecology director a Reimagine Europa. Ha vinto il James Carey Award for Outstanding Media Ecology Journalism nel 2016. Tra i suoi libri, ricordiamo le pubblicazioni più recenti: Il lavoro del futuro (Codice, 2018), Eppur s’innova (Luiss, 2022).

Roberto Viola: Direttore generale per le politiche digitali e per l’intelligenza artificiale della Commissione europea (DG Connect). Prima della Commissione europea è stato Segretario Generale dell’AGCOM. Dal 1986 al 1999 ha lavorato all’Agenzia Spaziale Europea (ESA) dove ha ricoperto differenti incarichi, fra cui responsabile della sezione sistemi di telecomunicazioni. Ha pubblicato numerosi articoli scientifici e insegnato in diverse università.

Di seguito pubblichiamo uno stralcio dalla prima parte del libro.

Antefatto

Almeno 3 miliardi di esseri umani accettano, più o meno consapevolmente, che un’intelligenza artificiale decida che cosa verranno a sapere dai media digitali. La soddisfazione delle persone che usano questi strumenti è provata, almeno a giudicare dall’uso crescente che ne fanno. Ma l’evoluzione delle relazioni tra gli umani e le macchine, in questo contesto, non è priva di problemi.

Gli algoritmi di raccomandazione, nati per facilitare gli utenti nel reperire le informazioni che meglio rispondevano ai loro interessi personali, nel tempo, hanno imparato anche a suggerire i messaggi che meglio soddisfano le esigenze della piattaforma: cioè tenere le persone agganciate alle piattaforme il più a lungo possibile, conquistare la loro attenzione il più intensamente possibile, allo scopo di rivendere quel tempo e quell’attenzione sul mercato delle inserzioni pubblicitarie personalizzate.

Così, le intelligenze artificiali di quei servizi hanno scoperto che le persone restano per più tempo connesse alle loro piattaforme preferite e vi si impegnano di più se quello che vedono corrisponde il più possibile ai loro valori e se le informazioni che ricevono sono curiose, emozionanti, divisive e, talvolta, persino violente. In una sorta di gigantesco esperimento sociale, con almeno 3 miliardi di persone coinvolte, le intelligenze artificiali che governano le interazioni sui social network, coadiuvate dalle interfacce di quei servizi, sono riuscite a intrattenere moltissimi utenti, ma con il rischio di provocare dipendenze e depressioni, diffondendo disinformazione e discorsi di odio, con un crescente ricorso a messaggi composti da “deepfake”, prodotti da altre intelligenze artificiali, in aumento del 550% tra il 2019 e il 2023.

In realtà, una quantità di notizie sembra avvalorare l’idea che le intelligenze artificiali dei social media e dei servizi di e-commerce o di logistica che governano le interazioni tra le piattaforme e le persone non si comportano in modo oggettivo ma tendono ad avvantaggiare le aziende che le hanno prodotte. Il caso di Armin Samii, un esperto di informatica che per qualche tempo ha lavorato per Uber Eats, è solo uno di innumerevoli esempi. Il giovane si è accorto che i calcoli dell’algoritmo della piattaforma che gli mandava gli ordini e pagava le sue corse non erano sempre convincenti. Per questo, dopo avere tentato di parlare con un operatore umano, ha scritto un software per verificare i conti dell’algoritmo e ha scoperto che c’erano errori significativi. Ha tentato di confrontarsi con i suoi colleghi e quindi ha pubblicato online questo suo programma – che ha chiamato UberCheats – per facilitarne l’uso da parte di altri rider. Il risultato è stato che molti hanno trovato lo stesso tipo di errori: la piattaforma pagava meno del dovuto. I rider avevano motivo di protestare e ottenere qualche rimborso. La piattaforma chiese a Google di deindicizzare UberCheats in modo che non fosse facile trovarla. Il motore di ricerca acconsentì. Armin Samii chiese che l’accesso al software fosse ripristinato. E Google acconsentì. I rider usavano il software, Uber Eats cambiava i parametri in modo da rendere difficile l’uso di UberCheats, centinaia di rider avvertivano Samii dei cambiamenti, questi modificava il programma perché continuasse a funzionare, ma il processo richiedeva un impegno sempre più pesante, e alla fine Samii ha lasciato perdere. Il “Financial Times”, il giornale che ha raccontato la storia, ha sentito Uber e la risposta è stata fondamentalmente che la piattaforma fa di tutto per dare ai rider il giusto, negando che l’algoritmo contenga specifiche che tendano a sottopagare i rider.

L’impatto delle intelligenze artificiali nella società ha già prodotto una quantità incredibile di conseguenze. Dal 2010 in poi, un panorama vastissimo di piccoli o grandi casi, tutti da studiare e comprendere, ha invaso le cronache come uno stillicidio di piccole battaglie tra umani e macchine. Progressivamente, i media digitali si sono trasformati: da emblema della modernizzazione del commercio, dei mezzi di comunicazione e della partecipazione popolare, sono apparsi sempre più chiaramente come gli strumenti di un sistema per lo sfruttamento dei dati personali volto all’arricchimento delle piattaforme.

La reazione delle società è stata lenta e complicata. Si è manifestata con una serie di cause antitrust, con una quantità di interventi sulla privacy, con molte richieste di autoregolamentazione per contrastare gli eccessi di violenza e i discorsi d’odio. Ma la critica si è accorta che, per quanto le piattaforme sembrassero collaborare, in realtà nei loro comportamenti essenziali continuavano a privilegiare i propri interessi su quelli del bene comune. E, in alcuni casi, tutto questo è diventato oggetto di dibattito pubblico. Potevano le piattaforme regolarsi da sole, nella complessità di interessi divergenti che si manifestava attraverso i loro servizi?

Naturalmente, in alcuni casi, la questione era diventata enorme: come quando il presidente degli Stati Uniti si era trovato a commentare l’invasione del Congresso americano attraverso i social network e questi avevano deciso di chiudere il suo profilo. Possibile che una decisione così grave dovesse spettare a imprenditori che avevano dimostrato straordinaria sagacia negli affari, ma non erano necessariamente dei costituzionalisti?

In molti altri casi, le piattaforme si regolano da sole con successo. Per esempio, sanno come risolvere la maggior parte delle controversie con i loro utenti. Pagando un poco e senza troppe discussioni nei casi in cui le questioni possono altrimenti trascinarsi a lungo, le piattaforme riescono a mantenere la pace sociale, continuando ad accumulare profitti leggendari, come racconta Vili Lehdonvirta: «Oggi probabilmente le società di piattaforme risolvono insieme più controversie dei tribunali pubblici di tutto il mondo».

Ma ci sono molti casi in cui l’autoregolamentazione non basta. Dal 17 febbraio è entrato pienamente in vigore in Europa il Digital Service Act. Si tratta del primo intervento normativo organico al mondo che protegge gli utenti delle piattaforme online dagli abusi degli algoritmi di raccomandazione dei contenuti e impone verifiche indipendenti agli algoritmi utilizzati. A livello nazionale, in Italia, nel marzo del 2024, l’Antitrust ha deciso di multare TikTok per 10 milioni di euro. La sanzione si riferisce alla “challenge” che invitava a giocare a chi infliggeva ad altri il peggiore “French scar”, una sorta di violento pizzicotto che lascia a lungo il segno sulla guancia. I minori, particolarmente manipolabili, erano i più probabili partecipanti alla gara.

Ma c’erano storie anche peggiori. E le intelligenze artificiali delle piattaforme erano sempre al centro. Non si trattava di storie riguardanti un imprecisato futuro nel quale le macchine andavano fuori controllo e danneggiavano gli umani. Erano casi numerosi che aprivano gli occhi su una realtà gigantesca e attuale. Alcuni casi erano particolarmente drammatici. Due bambine californiane avevano lasciato che un’intelligenza artificiale, quella di TikTok, le coinvolgesse in una sfida di coraggio che richiedeva di strozzarsi fino a svenire. Hanno provato: i genitori hanno fatto causa a TikTok perché purtroppo quella sfida è finita con la tragica morte delle bambine.

Il Social Media Victims Law Center sostiene che le piattaforme promuovono storie pericolosissime per i bambini e seguono numerose cause del genere. Come quella di Selena Rodriguez, una bambina di undici anni che si è tolta la vita dopo aver conosciuto una forte dipendenza da social network ed essersi per questo lasciata irretire da pedofili.

Le intelligenze artificiali che selezionano i contenuti da mostrare agli utenti sui social network hanno l’obiettivo di trattenere il più a lungo possibile le persone sulle loro piattaforme e di catturare il più possibile la loro attenzione. E hanno imparato che il miglior modo per raggiungere quell’obiettivo è offrire messaggi molto curiosi e sorprendenti, spesso estremi, sempre emotivamente coinvolgenti. Quelle intelligenze artificiali hanno aumentato la rabbia, la paura, la conflittualità che circola in rete.

E nel frattempo hanno favorito, appunto, la diffusione di varie forme di dipendenza dai social network. L’introduzione di questi algoritmi di raccomandazione nelle più importanti piattaforme mediatiche del mondo ha avuto conseguenze importanti. Ma, a pensarci bene, il potere dell’intelligenza artificiale si era già espresso abbondantemente nella gestione della complessità della sofisticatissima finanza globale. Gli algoritmi che comprano e vendono titoli finanziari non sono più una novità da molto tempo. Chiunque abbia vissuto le crisi finanziarie del nuovo millennio ha anche avuto modo di conoscere le conseguenze dell’intelligenza artificiale applicata al governo della finanza. Non sono tecnologie che hanno conquistato il potere indipendentemente dagli umani che le progettano, le usano, le interpretano. Ma di certo dimostrano che i rischi e le opportunità offerte dall’intelligenza artificiale non sono una questione adatta a riflessioni su un lontano futuro: sono già presenti.

Del resto, sono forme di intelligenza artificiale che stanno già innovando diversi settori della vita economica e sociale: le intelligenze artificiali che guidano gli aerei e quelle che guidano i taxi in qualche città con un sistema normativo che lo consente, come San Francisco; gli algoritmi che falsificano qualsiasi video o audio con immagini e voci sintetiche ma volendo perfettamente ingannevoli; i sistemi di social scoring che qualche Paese adotta per gestire la popolazione e che comunque qualche banca adotta per gestire l’accesso al credito dei cittadini; i sistemi per la manutenzione predittiva delle macchine industriali; i modelli per le previsioni del tempo; i sistemi capaci di generare testi, video, audio sulla base di qualsiasi prompt; le tecnologie per individuare nuove molecole, per descrivere le proteine, per immaginare nuovi farmaci, e anche per governare in battaglia le armi più sofisticate.

Eppure, la convergenza di una enorme disponibilità di dati registrati in formato digitale, la presenza di risorse di calcolo e memorizzazione di potenza inaudita, la sofisticatezza crescente dei modelli utilizzabili per sfruttare tutto questo fanno dell’intelligenza artificiale anche un grande tema di prospettiva futura. Tanto è vero che mentre una larga maggioranza dei tecnici ritiene che i rischi e le opportunità dell’intelligenza artificiale più importanti siano quelli che già si possono vedere nelle applicazioni attuali della tecnologia, molti scienziati, tecnici e intellettuali pensano invece che in un futuro non troppo lontano i rischi e le opportunità delle intelligenze artificiali diventeranno enormemente più importanti. E in effetti più di 33mila persone hanno firmato la lettera aperta del Future of Life Institute che chiede una moratoria di sei mesi sullo sviluppo ulteriore dell’intelligenza artificiale, per studiare il modo di evitare le conseguenze potenzialmente catastrofiche di questa tecnologia, se continuasse a progredire senza controllo: tra i firmatari anche Elon Musk, Yoshua Bengio e Stuart Russell, tutti, a modo loro, pionieri dell’intelligenza artificiale.

Insomma. Dopo decenni di sviluppo, tra alti e bassi clamorosi, l’intelligenza artificiale sembra avere imboccato la strada giusta per diventare una delle tecnologie strategiche per qualsiasi futuro si possa immaginare: possibile, plausibile, probabile o preferibile.

Articoli correlati

Articolo 1 di 4