L’intelligenza artificiale fa parte della nostra vita quotidiana, basti pensare all’assistente personale virtuale che ci aiuta a organizzare la nostra giornata lavorativa, a viaggiare in un veicolo a con un certo livello di guida autonoma o a avere uno smartphone che ci suggerisce le canzoni o i ristoranti che potrebbero piacerci. Questi sistemi fanno uso di una quantità di dati personali che devono essere adeguatamente trattati e protetti, secondo la vigente regolamentazione.
Tra le diverse declinazioni dell’AI distinguiamo, a titolo esemplificativo: Natural Language Processing, Speech recognition, Virtual agent, Machine learning, AI optimized hardware, decision management, Deep learning, biometrica, Robotic process automation e text analytics.
AI e protezione dei dati personali
I sistemi di intelligenza artificiale utilizzano una grossa quantità di dati personali, che provengono sia da chi ne è il diretto interessato, sia da chi si trova nell’ambiente circostante. Inizialmente, un sistema di intelligenza artificiale utilizza i dati che gli vengono forniti dall’utente per specifiche finalità. Successivamente, per meccanismi di machine learning, i sistemi di AI potrebbero sfruttare automaticamente gli stessi dati per finalità differenti, all’insaputa del soggetto interessato, in violazione degli artt. 13 e 14 del Regolamento UE 679/2016 (GDPR).
Il Libro Bianco sull’Intelligenza Artificiale (IA) al servizio del cittadino, a cura dell’Agenzia Italiana per il Digitale (AGID), nasce per analizzare l’impatto dell’AI sulla società e in particolare sulla Pubblica Amministrazione (PA).
Sundar Pichai, Ceo di Google, ha affermato che “l’IA sarà più grande dell’elettricità o del fuoco”.
L’AI è in effetti una delle tecnologie più promettenti del presente ma, allo stesso tempo, una delle più pericolose. Il Libro Bianco infatti fornisce anche spunti di riflessione su come migliorare la vita dei cittadini sfruttando in modo positivo l’AI, con un’attenzione particolare verso strumenti come, a titolo esemplificativo, le chatbot, i robot che si prendono cura dei malati, gli algoritmi che leggono i risultati degli esami medici, etc.
Le linee guida etico-legali per l’uso responsabile dell’AI variano in tutto il mondo.
Negli ultimi anni, sono stati prodotti diversi report per stabilire i requisiti di un’implementazione affidabile delle tecnologie di intelligenza artificiale. Dalla letteratura emergono i seguenti principi etici: trasparenza, giustizia, non maleficenza, responsabilità e privacy. Ogni paese interpreta questi principi, li traduce e li adegua al proprio sistema legale, cercando un bilanciamento tra regolamentazione e innovazione.
L’approccio Usa
In particolare, gli Usa promuovono un “modello Silicon Valley” che si basa sul principio “move fast, break things first, apologize later”. In altre parole, il sistema è basato sulla concezione umana di Homo economicus e dell’individualismo. Nel 2020, l’amministrazione di Trump ha pubblicato una bozza della guida per la regolamentazione dell’applicazione dell’AI, che scoraggia ogni azione che ostacoli l’innovazione e la crescita, coerentemente con l’approccio americano di dare priorità all’innovazione piuttosto che alla legge
L’approccio europeo
L’approccio europeo è invece basato sul rispetto dei diritti fondamentali, della democrazia e della legge. In particolare, quattro principi etici sono considerati molto rilevanti per l’AI: rispetto per l’autonomia umana, prevenzione da rischi, equità e spiegazione. Il sistema europeo si basa sulla concezione kantiana della persona come autonoma (libertà, autonomia e dignità). L’Unione Europea comunque è probabilmente leader mondiale nella regolamentazione dei principi etici dell’AI e nell’influenza della discussione internazionale su questo argomento.
Tra le sfide giuridiche del nostro secolo vi è quella di trovare un compromesso tra l’utilizzo di dati in sistemi di intelligenza artificiale e la normativa vigente in materia di protezione dei dati.
Criticità legate alla finalità del trattamento, al principio di minimizzazione che si scontra con un utilizzo di dati smisurato, poca chiarezza di “ruoli” privacy, carenza di basi giuridiche idonee per il trattamento di dati da parte dell’interessato.
Per questo si auspica un intervento da parte del legislatore europeo nell’accogliere un regolamento in materia di intelligenza artificiale, già proposto nello scorso 21 aprile 2021 ma ancora in fase di proposta.
Alcune fra le più diffuse applicazioni dell’AI
Chatbot
Le chatbot, o assistenti virtuali, sono una delle soluzioni software di intelligenza artificiale su cui stanno investendo sempre più aziende italiane e internazionali, con applicazioni in diversi settori. La spinta che la pandemia ha dato verso il mondo digitale ha avvicinato ulteriormente i consumatori verso questo “alleato virtuale” che può offrire aiuto in tempo reale.
Intelligent Data Processing
Si tratta di algoritmi che analizzano dati specifici per estrapolare informazioni e compiere azioni in conseguenza. In questa categoria rientrano diversi utilizzi, come l’analisi predittiva (analisi di dati per fornire previsioni sull’andamento futuro di un determinato fenomeno) e il rilevamento di frodi (identificazione di elementi non conformi a un modello previsto).
Recommendation system
Gli algoritmi di AI indirizzano le scelte degli utenti in base a informazioni da essi fornite (in maniera diretta o indiretta). Tra le soluzioni più diffuse si individuano i sistemi che suggeriscono un acquisto in base a quelli precedenti, influenzando così il processo decisionale dell’utente.
Natural Language Processing
Il Natural Language Processing (NLP) è quel ramo dell’AI che riguarda l’informazione espressa nel linguaggio naturale. Si tratta di soluzioni che elaborano il linguaggio, con finalità che possono variare dalla comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o documenti forniti in input.
A titolo esemplificativo, strumenti quali Siri, Alexa, Google Assistant.
Soluzioni fisiche
Rientrano in questa classe di applicazioni:
- Autonomous Vehicle
- Intelligent Object
- Autonomous Robot
Alcuni cenni storici sull’AI
L’intelligenza artificiale ha radici profonde nella storia del genere umano: nata con l’antico desiderio di “fabbricare gli dei”, come sostiene la scrittice Pamela McCorduck nel suo libro “Machines Who think” – è un’idea che ha pervaso continuamente la storia della civiltà occidentale, anche se nel corso dei secoli è stata espressa sotto forme molto diverse ed eterogenee.
Nell’ottobre del 1950, Alan Turing pubblicò un lavoro pioneristico (Computing Machinery and Intelligence, 1950), in cui si studiava la possibilità teorica di costruire una macchina pensante. Turing si pose l’interrogativo: possono pensare le macchine?
Considerando la difficoltà di definire esattamente il significato di “macchina” e di “pensare”, Turing introdusse un test per valutare la capacità di una macchina di dimostrare un comportamento intelligente, inteso come un comportamento che non fosse facilmente distinguibile da quello di un essere umano. Questo test, successivamente prese il nome di Test di Turing.
Nonostante le tesi di Turing – ancora oggi alla base di molti sviluppi dell’AI – la nascita ufficiale di questa disciplina scientifica si fa coincidere con un evento che si svolse al Dartmounth College nel 1956. L’evento era il “Dartmounth Summer Research Project on Artificial Intelligence” e fu organizzato da un gruppo di ricercatori statunitensi capitanati da John McCarthy.
Oggi l’intelligenza artificiale costituisce uno strumento ormai diffuso, benché ancora suscettibile di grande espansione. Si tratta, dunque, di una realtà e non di una eventualità futura.