L’intelligenza artificiale è un soggetto che prenderà il controllo delle nostre vite, oppure è un oggetto al nostro servizio che dobbiamo imparare a usare in maniera corretta? Parte da questo interrogativo il lavoro svolto da Fabio Ferrari nel volume “L’intelligenza artificiale non esiste”, edito da Il Sole 24 Ore.
Attraverso dialoghi con il mondo delle imprese, delle università e della ricerca, in Italia e nel mondo, l’autore costruisce una visione interdisciplinare sugli impatti dell’intelligenza artificiale sulle nostre vite e comunità. e sull’apporto che può dare alle attività economiche, con un occhio di riguardo alle piccole e medie imprese che costituiscono il nerbo del sistema produttivo del Paese
Con interventi di Stefano Venier, Alfonso Dolce, Alberto Calcagno, Monica Poggio, Alessandra Perrazzelli, Sabina Leonelli, Alberto Mantovani, Barbara Carfagna, Gianna Martinengo, Paolo Benanti, Luciano Floridi.
Proprio dalla postfazione scritta da quest’ultimo pubblichiamo un estratto.
A intelligenza zero
di Luciano Floridi
Avremmo usato un vocabolario umano. Questa è una delle intuizioni più poetiche di Alan Turing: erano gli anni Cinquanta e il matematico inglese sosteneva che, nel giro di mezzo secolo, le persone avrebbero cominciato a riferirsi alle macchine scegliendo un vocabolario antropocentrico – a dire cioè che le macchine vedono, sentono, comprendono…
Per noi sarebbe stato normale riferirci a loro come ad agenti capaci di pensare, ragionare, dibattere; la percezione umana di questi strumenti sarebbe cambiata al punto da applicare tale linguaggio antropocentrico a oggetti che di umano e intelligente non hanno niente. E questo non avrebbe destato stupore.
Settanta anni dopo, la verità di quelle intuizioni è chiara a tutti: a nessuno verrebbe in mente di dire che una lavastoviglie pensa, che ha rotto i piatti intenzionalmente, che è cattiva; tuttavia, ci pare perfettamente naturale riferire qualità umane all’intelligenza artificiale: «L’AI pensa, legge, scrive, pianifica…». Abbiamo adottato un linguaggio antropocentrico e antropomorfo per parlare di questa nuova capacità di azione. Sul fatto che l’intelligenza artificiale sarebbe andata in direzione cognitivistica (e non ingegneristica, come di fatto è successo) Turing ha sbagliato. Ma la sua intuizione sull’uso del vocabolario completamente umano era perfettamente centrata, e ci aiuta a spiegare meglio il rapporto complesso fra esseri umani e intelligenza artificiale.
È un rapporto che coinvolge anche altri saperi. Esistono due scienze, l’AI e la Neuroscienza, che sono nate e cresciute sostanzialmente nello stesso arco di tempo.
Pensiamo alla creazione del vocabolario concettuale di queste discipline. A un certo punto la prima si è trovata ad avere tra le mani agenti artificiali, che sono in grado di fare cose in maniera autonoma. Questa scienza si è sviluppata, ma senza avere un vocabolario adeguato e specifico – ha adottato allora, in maniera naturale, il vocabolario “umano”. In un’espressione come machine learning, per esempio, se ci focalizziamo sulla parola learning, “apprendimento”, è chiaro come essa abbia un senso completamente diverso se applicata a noi o a una macchina. Il discorso vale anche per computer vision, deep learning, intelligenza artificiale…
Nello stesso periodo, la neuroscienza si è trovata sprovvista di un vocabolario adeguato a descrivere le sue scoperte sul cervello e sul suo funzionamento. Così ha preso a fare propri i termini tipici dell’informatica come data processing, network…, e a usare una terminologia prevalentemente computazionale.
Così l’AI ha iniziato a usare un vocabolario antropomorfico per parlare dei suoi sistemi artificiali e la Neuroscienza un vocabolario computazionale per parlare del cervello. E poiché ogni vocabolario porta dietro di sé percezioni, sottintesi, implicazioni, la sovrapposizione fra scienza dell’AI e scienza del cervello contribuisce a generare fraintendimenti e a indirizzarci verso una comprensione non adeguata di questi fenomeni. Per fortuna la storia alla fine fa giustizia di questi fraintendimenti.
Noi tutti sappiamo che un telefonino non è in grado di giocare a scacchi: reagisce ad alcuni input, ma il concetto di gioco è più corretto applicarlo agli esseri umani, ad alcuni animali, certamente non a batteri o a circuiti elettrici… Un telefonino non “gioca” a scacchi, eppure noi ci intendiamo quando usiamo questa espressione: un po’ come quando diciamo che il sole sorge e tramonta. Il fatto che il sole non vada da nessuna parte è noto da tempo, ma questa espressione ereditata da un terracentrismo di altri tempi non ci confonde, siamo perfettamente liberi di dire che il sole sorge e tramonta senza che nessuno ci fraintenda.
Che cosa impariamo da tutto questo? L’osservazione di Turing è corretta, ed è stata complicata dalla sovrapposizione di due lessici scientifici. Ma la mia scommessa è che fra pochi anni anche per l’intelligenza artificiale si osserverà un effetto “sorge e tramonta”. Tra pochi anni, cioè, quando la scienza, la tecnologia, il business, la pubblicità genereranno meno rumore attorno a questo fenomeno, capiremo che ciò che chiamiamo intelligenza artificiale si riferisce a macchine che fanno quello che devono fare, senza intelligenza, esattamente come le lavastoviglie: efficienti o inefficienti, non cattive o buone, senza intenzioni, coscienza, emozioni, comprensione, dubbi, desideri e tutto ciò che caratterizza la vita mentale e intelligente di un essere umano. Continueremo a usare un vocabolario antropocentrico, ma non ci confonderemo più quando diremo “sorge e tramonta”. Avremo cioè attraversato una trasformazione filosofica di vocabolario. Quando diremo machine learning, a nessuno verrà in mente di pensare che le macchine sono in grado di apprendere.
Questo è il futuro che immagino, e che scommetto di poter vedere entro i prossimi anni. Al momento, però, viviamo in una condizione di confusione, senza renderci conto che di una AI “intelligente e cattiva” dovremmo aver paura come dei fantasmi – che non esistono. Conviviamo invece con un previsionismo piuttosto coriaceo, seppur affievolito rispetto a qualche anno fa. ChatGPT, si diceva, è il primo passo verso intelligenza universale, verso la singularity: le macchine stanno per conquistare il mondo, bisogna averne paura, meglio staccare la spina finché siamo in tempo. Trovo che questo sia un modo pessimo e un po’ superstizioso per ragionare sulle macchine che abbiamo attorno a noi. La superstizione è comprensibile, del resto. Per la prima volta nella storia dell’umanità, ci troviamo di fronte a oggetti ingegnerizzati che hanno una capacità di agire non biologica e a intelligenza zero.
Eravamo abituati ad avere a che fare con forze naturali (le maree, il fiume, il vulcano, il vento…) o sovrannaturali (il dio che si palesa sotto forma di tuono, di onde marine, di terremoto…), ma un oggetto capace di prendere decisioni in maniera autonoma imparando dal suo output per migliorare, interagendo in maniera sempre più precisa con noi con una certa autonomia, seppur limitata e vincolata: ebbene questo non l’avevamo mai visto nella nostra storia. Di fronte a questa capacità di agire a intelligenza zero, sono emerse di nuovo delle paure ataviche. Quando vediamo un’ombra improvvisamente, pensiamo per una frazione di secondo a un fantasma o una bestia pericolosa, così la nostra spina dorsale ci fa fare ancora un salto quando vediamo un oggetto che è in grado di lavorare per conto proprio.
Anche questa condizione, però, credo sia solo temporanea. Cambierà la nostra comprensione del mondo e di questa grande riserva di capacità di azione che chiamiamo intelligenza artificiale. Immagino che, come usiamo l’elettricità per un numero infinito di cose, così accadrà all’AI. Potrà funzionare come una riserva di capacità azionabile su richiesta, agendo nella misura in cui avremo adattato a essa il nostro ambiente e i nostri problemi.
Con l’elettricità, abbiamo costruito un ambiente favorevole al suo utilizzo – abbiamo di fatto creato un mondo intorno all’elettricità. Così accadrà per le auto a guida autonoma, per esempio: funzioneranno solo nella misura in cui avremo creato un mondo che permette loro di funzionare, come nodi all’interno di una rete. E così accadrà per le altre tecnologie. Non avremo a che fare con umanoidi che faranno le cose al nostro posto: questa è la visione, simpatica ma datata, di Guerre stellari, in cui il robot soppianta l’umano dietro un volante o un timone e prende la guida della navicella.
Assieme agli agenti, sta cambiando il mondo intero.
Stiamo sviluppando cioè una enorme capacità di azione a intelligenza zero, che funziona perché a essa abbiamo adattato il nostro ambiente, non perché la stiamo sguinzagliando libera. Avrà successo solo se sapremo universalizzarla, se la renderemo cioè una specie di strumento euristico che possa essere utilizzato a seconda dei problemi che è in grado di risolvere. In questo mondo, l’umanità percepirà l’intelligenza artificiale – ma anche se stessa – in modo molto diverso. Dovremo ripensare il nostro ruolo, perché ormai non siamo più gli unici agenti in grado di condizionare il mondo. Con una differenza, però: quando tocca a noi, occorre essere intelligenti, mentre l’AI non ha bisogno dell’intelligenza. Un agente a intelligenza zero risolve gli stessi problemi che, se dovessero essere affrontati da un essere umano, richiederebbero l’applicazione di una quantità enorme di pensiero.
Detto altrimenti: un telefonino “gioca” a scacchi meglio di me e di chiunque io abbia mai incontrato. Ma non è intelligente. Allo stesso modo, ChatGPT non è bravo in matematica, ma può essere un’interfaccia intuitiva per lavorare meglio sulle piattaforme scientifiche dedicate alla matematica. Questo è il modo in cui dobbiamo imparare a lavorare con tale tipo di strumenti.
Non è detto che ciò accada, ci troviamo sul crinale di un possibile “effetto cellulare”. Se l’AI diventerà cioè lo strumento che portiamo sempre con noi, come un cellulare, e che potremo usare secondo occorrenza in maniera facile, allora faremo un serio salto qualitativo nel suo utilizzo.
Il vero merito di ChatGPT è aver dato la speranza di un’AI intuitiva, facile ed efficace, e soprattutto orientata alla soluzione dei nostri problemi, capace di fare cose al nostro posto, di farci fare una vita più comoda. Potrà diventare, allora sì, una tecnologia di successo.
Ripensandoci, un nome diverso per l’intelligenza artificiale ci avrebbe aiutato ad andare in questa direzione.
Col beneficio di osservare le cose tanti anni dopo, avrei parlato piuttosto di “agenti artificiali”. Questo ci avrebbe portato a preoccuparci meno di ipotesi fantascientifiche – dalle macchine che prendono il controllo del mondo in giù – e a ragionare con maggiore profondità su fatti più concreti e seri. Pensiamo ai droni che vediamo impiegati nel conflitto in Ucraina. Sono agenti artificiali, in grado di fare e di migliorare, il tutto a intelligenza zero. In Ucraina si stanno testando armi nuove, mai sperimentate.
Del loro futuro faremmo bene a preoccuparci, non degli androidi. Il che, in ultima analisi, riporta il pensiero ai due veri, grandi problemi che ci toccherà affrontare. Entrambi sono esclusivamente umani – in questo dominio, il problema non è mai la macchina. La legislazione sull’AI sulla quale si sta lavorando è costruita in maniera non dissimile a quella, paradossalmente, dei forni a microonde o dei frigoriferi. Ci stiamo immaginando di garantire la sicurezza dell’AI in termini di pericolosità intrinseca dell’oggetto, senza pensare che è in realtà l’uso che facciamo dell’AI a renderla potenzialmente dannosa. Dietro l’AI ci sono rischi e opportunità mancate, e quindi costi enormi legati a ciò che non possiamo fare perché non abbiamo la regolamentazione legale ed etica. Nel settore medico, per esempio, gli effetti di questa inerzia sono catastrofici. Occorre concentrarsi sull’uso che dell’AI fanno gli uomini, non sull’AI per sé.
Secondo, non ci stiamo curando degli impatti non immediatamente valutabili dell’AI sugli esseri umani. Pensiamo per esempio ai sistemi di raccomandazione, ovvero sistemi automatici di pubblicità invasivi e potenziati, sui quali non esiste legislazione. Le nostre norme vigilano sulle intrusioni della pubblicità, per esempio, sulle pagine dei quotidiani. Ma nessuno regolamenta le raccomandazioni online che orientano il nostro comportamento in maniera molto più rischiosa. Oppure pensiamo a ciò che stiamo facendo per adattare le città alla guida autonoma – senza pensare che quelle città verranno poi vissute da cittadini. Possibile che ci vogliano filosofi per dire che stiamo adattando gli ambienti più alle macchine che agli esseri umani, senza immaginare come questo cambierà le nostre vite? Stiamo perdendo di vista ciò che è a monte (le nostre necessità) e a valle (le conseguenze delle nostre azioni), concentrandoci sul resto (l’AI), senza comprendere che quest’ultimo altro non è che buona o cattiva ingegneria, a servizio di buoni o cattivi scopi del tutto e solamente umani.