Quanto è importante il linguaggio nel definire noi stessi? Qual è il limite da non oltrepassare nella creazione di intelligenze artificiali modellate su individui reali? Domande vecchie di secoli e talmente nuove da suonare fantascientifiche si intersecano nell’affrontare le questioni poste dalle tecnologie di intelligenza artificiale: non siamo più di fronte a oggetti chiaramente distinguibili dagli esseri viventi, ma a qualcosa che tende ad assomigliare sempre di più a noi, spesso progettato proprio per ingannarci sulla sua stessa natura sintetica. Uno degli aspetti più affascinanti del diritto dell’informatica e della tutela dei dati personali deriva dal fatto che, nel mondo digitalizzato in cui tutti – volenti o nolenti – siamo immersi, ognuno lascia intorno a sé una sorta di scia di informazioni che, combinate, possono contribuire a ricreare una rappresentazione di noi stessi, più o meno approfondita. Il tutto con conseguenze a dir poco inquietanti, che vanno ben al di là delle semplici chatbot programmate per le varie truffe online e che spesso possono essere facilmente “smascherati”: già da alcuni anni si è cominciato a creare delle intelligenze artificiali in grado di imitare (e, spesso, sostituire) la conversazione con un individuo ben determinato.
L’idea di chattare con un fidanzato (o amico) defunto ricorda molto un episodio di Black Mirror (“Be Right Back”), la popolare serie fantascientifico/distopica di Netflix che, in fondo, tanto fantascientifica non è: proprio questo episodio è stato uno degli spunti che qualche anno fa hanno portato Eugenia Kuyda, co-fondatrice di Luka, una startup di intelligenza artificiale, alla programmazione di una chatbot utilizzando i messaggi scambiati con Roman Mazurenko, morto in un incidente, per erigere una sorta di “monumento digitale” all’amico e permettere alle persone che lo conoscevano di continuare a conversare con una sua replica fedelissima. L’iniziativa di Kuyda è stata accolta per lo più favorevolmente (anche dalla stessa madre del defunto), tanto che l’imprenditrice si è poi lanciata in un nuovo progetto: Replika, un bot che chattando con una persona impara a imitarla e, piano piano, diventa un avatar della persona stessa, una sorta di assistente digitale a sua immagine e somiglianza. Oggi Replika è stata scaricata da milioni di persone e viene utilizzata per “migliorare la salute mentale” (almeno, stando a quello che dice la mail che arriva dopo la registrazione alla app); secondo la sua descrizione che si trova su Google Play, si tratta di una intelligenza artificiale con cui è possibile instaurare una vera connessione emotiva, decidendo se si voglia sfruttare come partner romantico, mentore o amico.
È evidente, però, che questi sviluppi della tecnologia necessitano di alcune riflessioni un po’ più approfondite, al di là delle semplici reazioni emotive alla possibilità di affrontare il lutto per la scomparsa di una persona scambiando un’ultima conversazione con un software che ne imita il linguaggio e la personalità. Ci troviamo in un campo estremamente delicato in cui considerazioni etiche e morali incontrano problemi giuridici ed esistenziali sulla comprensione di cosa sia l’identità umana e come questa si estrinsechi nel mondo digitale. È necessario, infine, ricordarsi che nel momento in cui ci basiamo su una persona realmente esistita e incapace, per forza di cose, di dare il consenso alla creazione di una chatbot modellata a sua immagine, stiamo invadendo una sfera privata, arrogandoci la facoltà di progettare un meccanismo in grado di prevedere e ricreare le reazioni di questa persona con un sistema probabilistico e, quindi, di simulare il suo pensiero decisionale basandosi sui dati in nostro possesso che sono, inevitabilmente, parziali.
La creazione di una chatbot e l’imitazione del linguaggio umano
Partiamo dalle basi: negli ultimi anni la scienza ha fatto enormi progressi nella programmazione di sistemi di intelligenza artificiale, utilizzando meccanismi di machine learning. Il campo che ci interessa ai fini della nostra trattazione è, in particolare, l’addestramento delle chatbot, ovvero i programmi informatici finalizzati a intrattenere delle conversazioni con gli esseri umani in modo credibile ed efficiente. Le chatbot possono essere utilizzate in vari settori e non è detto che siano maligne o che la loro natura fittizia sia sempre celata, anzi: esempi di chatbot si trovano nei servizi di assistenza ai consumatori come primo intervento cui, in caso di insoddisfazione del cliente, fa seguito un operatore umano, mentre anche quelli più sofisticati nell’imitare le persone in molti casi mettono in chiaro fin da subito di non essere individui reali, ma non per questo sono meno efficienti (lo stesso Roman della Kuyda rientrava in questa categoria).
Il primo passo per “addestrare” un bot a parlare con delle persone è fare in modo che il programma sia in grado di comprenderle e rispondere loro utilizzando lo stesso linguaggio. Il “Natural Language Processing” (NLP) è la disciplina che si occupa di trattare in modo informatico il linguaggio naturale, che per dei computer è particolarmente complesso perché contiene anche sottintesi e ambiguità; spesso, infatti, per sbugiardare le chatbot più semplici basta usare il sarcasmo. Viola Bachini e Maurizio Tesconi, nel loro libro “Fake people – storie di social bot e bugiardi digitali”, spiegano come oggi i programmatori combinino spesso due strade diverse per insegnare a una macchina a parlare: da un lato forniscono all’algoritmo una serie di regole linguistiche (metodo più tradizionale); dall’altro, allo stesso tempo, utilizzano tecniche di machine learning, dando “in pasto” all’algoritmo una quantità enorme di esempi in modo che impari da solo a rispondere agli stimoli. Grazie alla capacità computazionale dei computer di oggi è diventato possibile utilizzare sistemi di reti neurali per creare connessioni molto profonde – il deep learning.
Tuttavia, se il nostro scopo è addestrare una chatbot per imitare una persona, non basta che questo fornisca risposte sensate alle nostre domande. Diventa necessario studiare la psicologia e i meccanismi cognitivi per capire cosa ci distingue dalle macchine e colmare, almeno apparentemente e per quanto possibile, le lacune delle intelligenze artificiali. Su questo punto è interessante la teoria del premio Nobel per l’Economia Daniel Kahneman sui pensieri lenti e veloci. Secondo Kahneman possiamo immaginare il pensiero umano come se fosse suddiviso in due sistemi, che lui chiama 1 e 2, di cui il primo è quello intuitivo, che genera pensieri veloci e ci fa prendere delle decisioni senza quasi accorgercene, mentre il secondo è quello razionale che governa il pensiero consapevole, deliberativo, educabile e quindi, inevitabilmente, lento. La teoria di Kahneman, secondo Bachini e Tesconi, consente di comprendere “una delle sfide scientifiche e tecnologiche più interessanti del momento: insegnare alle macchine a essere intuitive, a pensare con il sistema 1” (“Fake people – storie di social bot e bugiardi digitali”, p. 69). È quello che si tenta di fare con i sistemi di machine learning, ma attenzione: finché l’elaborazione degli algoritmi rimarrà solo e puramente razionale, sarà possibile distinguere anche quelli più sofisticati dalle persone reali. Secondo Bachini e Tesconi, ciò che davvero è necessario per ricreare l’intelligenza umana è programmare delle macchine per essere talmente istintive da poter anche sbagliare – con tutte le conseguenze, anche negative, che ne derivano, visto che spesso le intelligenze artificiali vengono utilizzate in contesti particolarmente delicati.
Il linguaggio come creatore di una personalità digitale nella chatbot
Nel secolo scorso la filosofia del linguaggio ha assunto una propria sistematicità e autonomia rispetto ai discorsi ontologici e gnoseologici nei quali era stata inserita fin dall’antichità. I grandi pensatori in questo campo hanno portato nuova vita allo studio della logica, da cui ha mosso i primi passi l’informatica. Fin dalle origini, quindi, c’è una stretta connessione tra l’analisi del modo in cui descriviamo il mondo esterno e la creazione delle realtà dematerializzate digitali: l’origine stessa dei software, in fondo, sono sequenze di codici. Nel caso della chatbot della Kuyda, tuttavia, si è cercato di insegnare a un’intelligenza artificiale il linguaggio che apparteneva a una persona reale ormai scomparsa. In un certo senso, si è ridotta tutta la personalità di Roman Mazurenko ai messaggi che scambiava con amici e parenti, cercando di dedurre da questi, tramite machine learning, come l’uomo avrebbe risposto in una nuova conversazione. Si potrebbe discutere a lungo sul fatto che dal linguaggio di una persona si possa o meno comprenderne la natura utilizzando metodi probabilistici, ma un punto della vicenda resta fermo e innegabile: saremo sempre, per forza di cose, di fronte a una rappresentazione parziale dell’uomo. I dati, per quanti possano essere, non saranno mai in grado di dirci tutto. I sottintesi, i non detti, le intenzioni, sono tutti elementi impliciti che non si possono dedurre da una linea di testo; senza contare che le persone cambiano continuamente, mentre in questo modo il software ne cristallizza una versione di un certo momento storico e una certa situazione – che non è detto sia la migliore possibile.
Come nel caso del professor Hiroshi Ishiguro, che utilizza i suoi studi sulla robotica e l’intelligenza artificiale per comprendere a fondo l’animo umano (come se i robot potessero mostrarci ciò che siamo a partire da ciò che a loro manca), anche in questo caso di chatbot c’è il rischio di ricercare nelle risposte artificiali del software un indizio su elementi della persona “ricreata” che ci erano sfuggiti. Di particolare impatto, in questo senso, sono le dichiarazioni che la madre di Mazurenko ha rilasciato a Casey Newton per “The Verge”: la donna sostiene che c’erano molte cose che non sapeva del figlio, ma chiacchierando con la chatbot di Kuyda le sembra di riuscire a conoscerlo meglio, come se fosse ancora qui. Sarebbe importante, tuttavia, capire quanto di quello che legge la donna sia effettivamente stato detto dal figlio e quanto sia frutto dell’elaborazione dei messaggi a opera dell’algoritmo di machine learning – si rischia, insomma, di far dire qualcosa a una persona, senza essere sicuri di cosa ne avrebbe pensato se fosse stata ancora in vita.
Il diritto all’oblio e l’identità digitale dei defunti
L’idea alla Black Mirror di Eugenia Kuyda solleva alcune perplessità anche dal punto di vista di tutela della privacy e dell’identità di una persona deceduta di cui amici o parenti provino a ricreare un “simulacro” tramite una chatbot. Dal punto di vista giuridico, la questione è particolarmente fumosa.
In Europa il Regolamento a tutela dei dati personali (GDPR) non si applica ai dati delle persone defunte, ambito la cui regolamentazione è lasciata alla discrezionalità degli Stati membri. In Italia, il d.lgs 101/2018 ha introdotto nel Nuovo Codice Privacy l’art. 2-terdecies, rubricato “Diritti riguardanti le persone decedute”. La disciplina riguarda l’esercizio dei diritti previsti dal GDPR sui dati del defunto da parte di chi “ha un interesse proprio, o agisce a tutela dell’interessato, in qualità di suo mandatario, o per ragioni familiari meritevoli di protezione”.
Non è facile quindi capire come tutelare l’identità del defunto nei confronti di comportamenti posti in essere proprio da queste categorie di persone – come è avvenuto nel caso di Roman Mazurenko, i cui dati necessari per la creazione della chatbot sono stati forniti alla startup Luka da amici e parenti. In Italia vi potrà essere chi, nell’interesse del defunto, eserciti il diritto alla cancellazione dei suoi dati, in modo da impedire il loro utilizzo nella programmazione di una intelligenza artificiale; tuttavia, in caso di accordo tra tutte le persone rimaste in vita, sarà probabilmente possibile sfruttare i dati lasciati dalla persona deceduta per insegnare a una chatbot a imitarne il linguaggio e quel poco di personalità che si può dedurre da tali informazioni.
Conclusioni
Nel caso delle chatbot, è proprio vero che “The limits of my language are the limits of my world” (“I limiti del mio linguaggio sono i limiti del mio mondo”) come diceva il filosofo Wittgenstein e come è scritto su un segnale neon appeso negli uffici della Luka a Mosca. Se fino a qualche anno fa i problemi di questo settore erano per lo più legati all’identificazione di bot maligni e ai tentativi di truffe e reati informatici, oggi le frontiere delle nuove tecnologie si spostano sempre più lontano, rischiando di portarci a invadere la sfera privata degli individui nel tentativo di “inserire” la loro identità in un meccanismo virtuale. Un possibile limite potrebbe essere dato dagli individui stessi, magari lasciando un “testamento digitale” per disciplinare il trattamento dei dati che li riguardano nel momento in cui non saranno più in grado di esercitare alcun diritto autonomamente. Di sicuro sarà necessario sviluppare nuove riflessioni di tipo filosofico ed etico: ora più che mai abbiamo bisogno di trovare metodi per comprendere la nostra natura e i suoi confini che non siano l’utilizzo di intelligenze artificiali e robot, che anzi dovrebbe basarsi su tale comprensione.