Intelligenza Artificiale e leggi sulla protezione dei dati personali, tra opportunità e minacce

Pubblicato il 10 Mar 2020

Paolo Dotti

Quence - TXTGROUP

SAP Ai generativa

In pochi anni l’intelligenza artificiale e gli algoritmi di analisi dati hanno incrementato l’interesse di molte aziende ma anche delle superpotenze che investono sempre di più in sistemi di analytics a scopo predittivo. Se per le aziende le sorgenti di dati probabilmente hanno un costo, una nazione o un ente statale potrebbero usufruire di canali preferenziali solo per il fatto di disporre di un’infrastruttura che fornisce servizi alla popolazione. Il pensiero e la paura che un’enorme mole di dati sia in possesso di pochi incrementa gli investimenti sulla protezione dei dati e sulla garanzia di correttezza. L’Europa e gli altri Paesi stanno rispondendo con leggi non sempre allineate.

Di cosa parliamo quando parliamo di dati

Gli algoritmi di machine learning e l’intelligenza artificiale non sono certo scienze nuove e non si può dire che siano una scoperta del terzo millennio. Le basi sono state create già nel secolo scorso e dal 1950 in poi sono state fatte molte ricerche e sono stati sviluppati molti algoritmi. La disponibilità di processori sempre più potenti e di architetture parallele unite a grandi capacità di memoria a costi contenuti ha permesso l’applicazione della teoria sviluppata e l’utilizzo degli algoritmi su quantità oltre il TB di dati distribuiti in una infrastruttura cloud, tanto che siamo partecipi di questo boom in espansione. Non c’è da stupirsi se gli investimenti in questo campo siano in continuo aumento da parte delle aziende, ma soprattutto da parte delle nazioni che ne stanno facendo un mezzo per la corsa alla supremazia digitale. In questo scenario i dati hanno un valore che supera nominalmente quello del denaro, dell’oro, del petrolio; la possibilità di raccogliere dati a scopo proprio o per la vendita crea un mercato globale delle fonti di informazioni.

Ma per dati cosa intendiamo? Le abitudini delle persone, i loro acquisti, le loro preferenze, i loro commenti, se lo scopo è analizzare e prevedere il comportamento e le azioni di gruppi di individui; rilevazioni da sensori ambientali, di posizione, di controllo passaggio di persone se lo scopo è raccogliere informazioni sull’ambiente e sul movimento all’interno di questo; quotazioni di borsa, indici azionari; questo e molto altro si può riassumere in poche parole che possono significare tutto e niente, ogni cosa che facciamo tramite un dispositivo connesso o in presenza di un dispositivo connesso produce dati.

Sebbene tutti possano pensare di raccogliere questi dati e produrre informazioni in modo autonomo o in caso di necessità avvalersi di servizi a pagamento forniti tramite delle API esposte per esempio dai social, ci sono canali preferenziali che derivano da una infrastruttura internet a cui ci si appoggia per fornire servizi apparentemente gratuiti alla popolazione. Non si intendono qui solo i fornitori di mail, spazio web, spazio di archiviazione, servizi di condivisione immagini, portali social, ma anche una nazione e nel caso italiano delle regioni e dei comuni che forniscono servizi al cittadino a scopo sanitario, civile, contributivo, informativo alla persona; questi enti si trovano in possesso senza sforzo di tutte le informazioni che un cittadino inserisce nei portali pubblici.

Un cittadino deve essere cosciente del fatto che ogni sua azione effettuata in modo digitale sia direttamente presso un ente sia attraverso dispositivi connessi, produce dati che possono essere salvati in una o più aree di storage per essere esaminati insieme a tanti altri dello stesso tipo. Per utilizzare i metodi statistici di apprendimento non sono importanti i dati della singola persona che possono essere sensibili e protetti dalle leggi sulla privacy; invece i dati opportunamente  anonimizzati diventano una preziosa fonte di analytics ovvero la base per fare analisi predittive. Questo è lo scenario in cui gli algoritmi di machine learning lavorano bene e producono risultati con alte percentuali di affidabilità.

Come proteggersi dagli algoritmi di machine learning

Di fronte a uno scenario così ampio di disponibilità di fonti di informazioni è naturale chiedersi quanto proteggere i propri dati e soprattutto come evitare di diffonderli gratuitamente e inconsapevolmente. Il Regolamento europeo sulla protezione dei dati fornisce le linee guida per proteggere gli individui dall’uso indiscriminato dei dati in possesso alle aziende; ogni nazione europea integra il GDPR sulla base della propria legislazione che nel caso dell’Italia è il D.Lgs 101/2018 che ha sostituito il vecchio D.Lgs. 196/2003. Tuttavia il privato non si cura delle proprie azioni effettuate tramite l’uso di dispositivi smart sempre connessi esponendosi a una diffusione silente di informazioni sulla propria vita, abitudini e preferenze. Ma lo stesso privato si sente sicuro dietro la sigla GDPR e la legge sulla privacy. La verità indiscutibile è che ogni dispositivo connesso in rete è fonte di dati e questi dati sono raccolti e conservati con il consenso dell’utilizzatore che non può evitare una serie di consensi obbligatori. Rimane la possibilità di negare il consenso a tutti gli usi extra al fine della fruizione di un servizio compresa la cessione a terze parti. I post sui siti social rischiano di rompere questo sottile guscio protettivo della sfera di privacy che un soggetto cerca di mantenere quando nega i consensi facoltativi al trattamento dei dati personali; un caso particolare è quello dei post di immagini.

Quando i dati sono immagini

Il post di immagini anche solo proprie su uno o più social arricchisce i database online in cloud di dati sulla nostra persona che è possibile recuperare con algoritmi di machine learning e deep learning; in particolare nelle fotografie di un post spesso compare un viso perché lo scopo è farsi riconoscere e raccogliere consensi o “like”. Il riconoscimento facciale permette con una elevata percentuale di successo, di trovare immagini riferite alla stessa persona, ovvero di recuperare da qualche immagine di partenza tutte le immagini presenti in rete riferite a quella stessa persona.

Da un lato le informazioni sono diffuse dagli utenti, dall’altro algoritmi molto potenti ma non infallibili, possono e riescono a raccogliere dati in rete senza restrizioni. Ormai è certo che i dati sensibili non sono solo in formato testo ma anche immagini e video.

Una nazione fino a che punto si deve preoccupare di limitare l’uso delle risorse tecnologiche che potrebbero violare i regolamenti sulla protezione dei dati e quanto deve preoccuparsi dell’uso etico del riconoscimento di persone da riprese video e in particolare del riconoscimento facciale?

Norme sul riconoscimento facciale nel mondo

In Cina l’utilizzo del riconoscimento facciale fa parte ormai della quotidianità. In un numero crescente di ambienti quali strade, metropolitane, supermercati, scuole sono installate videocamere collegati a sistemi capaci di selezionare il viso e riconoscere l’identità delle persone.

Il riconoscimento facciale in Cina è sempre più diffuso e ormai viene utilizzato in tutto il Paese ovunque sia possibile. Secondo uno studio di un’azienda specializzata in cybersecurity (Comparitech) si rileva che in Cina non ci sono leggi a tutela dei dati biometrici e definisce anzi preoccupante la situazione nei luoghi di lavoro.

La legge in alcuni casi impone il riconoscimento facciale obbligatorio, per esempio  a chi sottoscrive contratto con un operatore telefonico. Con queste misure la Repubblica Popolare oltre ad avere uno stretto controllo sulla popolazione riesce a limitare e rendere difficile l’infiltrazione straniera a scopo di hacking e spionaggio.

Negli Stati Uniti sta crescendo l’opposizione all’adozione da parte delle autorità di sistemi con riconoscimento facciale; in molte città  queste tecniche sono state messe al bando e organizzazioni no profit ne hanno chiesto il bando totale nel Paese. La prima motivazione addotta al bando del riconoscimento facciale è la discriminazione razziale e non la protezione dei dati personali degli individui. Ma è di gennaio 2020 la notizia dell’azienda Clearview che ha creato un’app in grado di risalire da una singola foto di una persona a tutte le sue foto in rete e dal link URL alle informazioni ad esse collegate. Una simile app potrebbe esporre tutti gli iscritti ad almeno un sito social alla diffusione involontaria di informazioni.

L’Europa sta valutando un divieto fino alla creazione di leggi adeguate; si valuta la possibilità di fornire strumenti adeguati alle forze dell’ordine ma con un opportuno regolamento. Non tutte le nazioni europee hanno la stessa visione sull’uso del riconoscimento facciale, per esempio in Germania le forze di polizia ne fanno già uso a scopo di controllo, in altre nazioni non è ancora esplicita la scelta. In Italia per esempio sono diffusi sistemi di controllo e antifurti con riconoscimento delle persone in una famiglia e di conseguenza rilevazione della presenza di estranei; in questi casi non sarebbe necessario alcun divieto se vi è la garanzia che una volta rilevato un volto estraneo non vengano memorizzate immagini o ricercate informazioni in rete. In altre situazioni sono in funzione dei sistemi di monitoraggio del passaggio di individui senza un esplicito riconoscimento della persona ma solo a scopo di conteggio e controllo del flusso.

Conclusioni

Il quadro mondiale è molto complesso e disomogeneo, tutti i Paesi investono soprattutto per la sicurezza della nazione. L’intelligenza artificiale è uno strumento valido per combattere e perseguire i criminali, i cyber-criminali e, allo stesso tempo, per avere un monitoraggio rapido di ambienti affollati e una rilevazione in tempo reale di situazioni critiche. Tra chi fa un uso quasi illimitato del riconoscimento facciale senza curarsi della privacy dei singoli individui e chi si oppone all’uso anche se è lo scopo è combattere la criminalità, l’Europa prende tempo per approfondire la materia e intervenire con un regolamento appropriato alle diverse possibili applicazioni; tra le nazioni europee c’è oggi una disomogeneità e come nel caso del GDPR probabilmente si riuscirà a produrre un regolamento equilibrato a livello generale che ogni singola nazione potrà estendere con le personalizzazioni concesse.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati