AI e GDPR, un incontro non sempre facile

I possibili punti di attrito che sussistono i sistemi di intelligenza artificiale e la normativa comunitaria sulla protezione dei dati personali sono stati esaminati nel paper “The impact of the General Data Protection Regulation (GDPR) on artificial intelligence” pubblicato nello scorso giugno dal Panel for the Future of Science and Technology

Pubblicato il 21 Dic 2020

Gabriele Borghi

Baldi & Partners

AI gdpr

Nell’ultimo decennio, l’AI ha registrato un rapido sviluppo, al punto da essere divenuta uno dei motori maggiormente potenti ed efficaci della trasformazione sociale[1]: infatti, come chiaramente affermato dalla Commissione UE all’interno del White Paper “Sull’Intelligenza Artificiale – Un approccio europeo all’eccellenza e alla fiducia” del 19 febbraio 2020[2] (infra “White Paper”), essa cambierà la vita di ogni cittadino, grazie al miglioramento dell’assistenza sanitaria (ad es. rendendo le diagnosi più precise e consentendo una migliore prevenzione delle malattie), all’aumento dell’efficienza dell’agricoltura, al miglioramento della regolazione e adeguamento dei cambiamenti climatici, oltre che, infine, all’incremento dell’efficienza dei sistemi produttivi e della sicurezza di qualsivoglia cittadino[3]. Tuttavia, tali opportunità comportano, in modo inesorabile, una serie di (potenziali) rischi, tra cui un processo decisionale opaco (cd. black box), possibili discriminazioni (basate sul genere o altri fattori) o esclusione sociale nonché, non da ultimo, un’intrusione (anche per scopi non leciti, tra cui la manipolazione ovvero la sorveglianza) all’interno della vita privata[4]. Dato che – come è facile intuire – alla base del funzionamento di un sistema AI vi è l’analisi, il trattamento e l’elaborazione di grandi quantitativi di dati personali (cd. big data[5]), è necessario analizzare l’interazione e i possibili cortocircuiti che sussistono tra tale sistema e la normativa comunitaria sulla protezione dei dati personali (GDPR), riguardo alle quali alcuni tentativi di risposte sono contenuti nel paper intitolato “The impact of the General Data Protection Regulation (GDPR) on artificial intelligence”[6] (di seguito “studio”) pubblicato nel mese di giugno 2020 dal Panel for the Future of Science and Technology[7], il quale ha raccolto il monito – contenuto all’interno del White Paper, nel documento del MISE “Proposte per una strategia italiana per l’intelligenza artificiale” del luglio 2019, nonché nelle “Linee guida in materia di intelligenza artificiale e protezione dei dati” del Consiglio d’Europa[8] del 25.1.2019 – circa l’evidente difficoltà del GDPR di affrontare, in modo idoneo ed efficace, i consueti rischi connessi ad un sistema AI, onde così cercare di renderlo pienamente dotato dei sette requisiti fondamentali di cui, secondo la Commissione UE, deve essere composto, tra cui la “riservatezza e governance dei dati”[9].

AI, la definizione dello High Level Expert Group on Artificial Intelligence

Sebbene, ad oggi, non sia ancora stata adottata una definizione generale e unica di intelligenza artificiale (AI)[10], lo High Level Expert Group on Artificial Intelligence (AI HLEG), istituito dalla Commissione UE, ha provveduto, all’interno del documento intitolato “Etichs Guidelines for Trustworthy Artificial Intelligence”, a perfezionare la sua prima descrizione, fornita dalla Commissione UE nella comunicazione intitolata “L’intelligenza artificiale per l’Europa” del 25.4.2018[11], definendola come quei: “sistemi software (e possibilmente hardware) progettati da esseri umani che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il loro ambiente attraverso l’acquisizione dei dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni, derivate da questi dati e che decidono le migliori azioni da intraprendere per raggiungere il dato. I sistemi di intelligenza artificiale possono utilizzare regole simboliche o apprendere un modello numerico e possono anche adottare il loro comportamento analizzando come l’ambiente è influenzato dalle loro azioni precedenti”[12]: in buona sostanza, si può affermare, seppur in modo esplicitamente semplicistico, che l’AI rappresenta un insieme di tecnologie che combina dati, algoritmi e, infine, una (grande) potenza di calcolo.

Rapporto tra l’AI e il concetto di “dato personale” del GDPR

Dopo un breve excursus circa il rischio (o meglio, la probabilità) di un’identificabilità di una persona in base a quanto osservato dal GDPR e dal Regolamento UE n. 2018/1807[13], lo Studio pone in evidenza il fatto che l’AI solleva, in relazione alla definizione di “dato personale” ex art. 4 n. 1) del GDPR, alcuni profili di criticità connessi, in particolare, alla possibilità che il suo utilizzo consenta, da un lato, di ricondurre informazioni anonime a soggetti identificati o identificabili (re-personalisation) e, dall’altro, di inferire ulteriori dati personali rispetto a quelli raccolti dall’interessato (personal data inference).

Con riguardo al primo aspetto, viene precisato che, grazie all’uso di sistemi avanzati di correlazione statistica e ai big data (nonché, in generale, per il tramite della crescente dinamicità del progresso tecnologico), è (notevolmente) accresciuta la possibilità di ricondurre dati (apparentemente) anonimi a soggetti identificati. In ragione di ciò, sussiste, dunque, l’impossibilità di escludere, a priori, che anche sistemi che, in apparenza, si basano sull’utilizzo di dati esclusivamente anonimi siano soggetti, invero, all’applicazione del GDPR (e conseguente normativa nazionale in materia)[14]: a tal fine, lo Studio consiglia l’utilizzo di tecniche di anonimizzazione e pseudonimizzazione, accompagnate da adeguate misure (e procedure) di sicurezza, che rendano la successiva re-identificazione dei dati maggiormente difficile.

Da ultimo, quanto alla capacità dei sistemi AI di inferire, mediante l’applicazione di modelli statistici ed algoritmici, dati personali (tra cui anche dati personali cd. particolari), lo Studio conferma, in tal caso, che gli inferred personal data devono essere qualificati come dati personali “nuovi”, ovverosia differenti rispetto a quelli dai quali sono stati dedotti[15].

Rapporto tra l’AI e i principi generali di protezione dei dati personali

In primo luogo, viene rilevato che la complessità dell’elaborazione basata sull’AI (e il fatto che essa non può essere completamente anticipata, soprattutto laddove fondata sull’apprendimento automatico) rende particolarmente arduo garantire il rispetto del principio di trasparenza ex artt. 5 comma 1 lettera a), 13 e 14 del GDPR sia nella fase cd. ex ante (ossia, quando le informazioni di un soggetto interessato vengono immesse all’interno di un sistema informatico) che in quella cd. ex post, cioè a seguito dell’applicazione del modello algoritmico del sistema AI al fine così di fornire lo specifico risultato atteso.

A tal proposito, lo studio ha osservato che, al momento della raccolta dei dati personali (i.e. prima che questi siano elaborati dall’algoritmo), è possibile fornire al soggetto interessato unicamente indicazioni generali circa il funzionamento del sistema AI nonché sulle finalità (complessive) che esso intende raggiungere: nello specifico, dovrebbero essere fornite le seguenti informazioni: i) i dati di input presi in considerazione dal sistema AI, chiarendo tuttavia se diverse tipologie di dati possano incidere favorevolmente o sfavorevolmente sul risultato sperato; ii) i valori (target) che il sistema AI intende calcolare; iii) la conseguenza della valutazione e/o decisione automatizzata.

In aggiunta a quelle poc’anzi esposte, lo studio fornisce, altresì, alcune raccomandazioni anche con riferimento alle informazioni che potrebbero essere fornite ex post (in conseguenza dell’adozione di una decisione da parte dell’AI), ovverosia: i) model explanation: condivisione di un modello interpretabile (e trasparente) che descrive la logica sottesa al sistema AI; ii) model inspection: rappresentazione tesa alla comprensione di alcune proprietà specifiche di un modello opaco (o delle sue previsioni); iii) outcome explanation: resoconto del risultato generato da un sistema (opaco) in uno specifico e particolare caso.

Analoghe complessità si presentano con riferimento al rapporto tra il sistema AI e i principi di limitazione della finalità e di minimizzazione ex art. 5 comma 1 lettere b) e c) del GDPR, dato che tale tipologia di tecnologia è solita riutilizzare i dati personali per il perseguimento di scopi differenti rispetto a quelli per i quali erano stati originariamente raccolti.

Ai GDPR

AI e principio di minimizzazione

Secondo lo studio[16], al fine di comprendere se l’utilizzo dell’AI risulti (o meno) compatibile con il principio di limitazione della finalità risulta necessario distinguere, in via preliminare, tra i dati personali utilizzati per il cd. training test[17] e quelli impiegati, invece, per inferenze individuali[18]: infatti, se nella prima fattispecie è (pressoché) improbabile che il soggetto interessato possa essere direttamente danneggiato (fatto salvo il (remoto) caso in cui rivesta la qualifica di portatore di un interesse di gruppo), laddove, viceversa, i suoi dati personali siano utilizzati per alimentare il modello dell’algoritmo al fine di creare deduzioni che lo riguardino, si rientra all’interno dell’alveo della profilazione, con la conseguenza che tali informazioni potranno essere riutilizzate esclusivamente ove la finalità ulteriore sia compatibile con quella per cui i dati personali erano stati originariamente raccolti[19].

Con riferimento, invece, al principio di minimizzazione[20], lo Studio chiarisce, innanzitutto, che, a suo parere, deve essere letto in un ottica (innovativa) di proporzionalità, dato che – sebbene l’art. 5 comma 1 lettera c) del GDPR prescriva che i dati personali debbano essere “adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati” – non deve escludersi, a priori, che possa svolgersi il trattamento di dati personali ulteriori laddove, alla luce di un apposito bilanciamento, ciò può tradursi, per il soggetto interessato, in un vantaggio superiore rispetto ai rischi che potrebbero derivare.

Da ultimo, degno di pari attenzione è il principio di esattezza ex art. 5 comma 1 lettera d) del GDPR dei dati personali (sia nel caso in cui siano utilizzati esclusivamente come parte di un set per l’addestramento di un algoritmo sia qualora siano utilizzati, invece, per inferenze individualizzate), giacché – com’è facile intuire – la qualità di essi (oltre che la relativa integrità) è un aspetto di fondamentale (e preliminare) importanza per la corretta prestazione di un sistema AI.

Rapporto tra l’AI e le basi giuridiche previste dal GDPR

Secondo lo studio, le caratteristiche (intrinseche) dell’AI sono idonee a minare, in primo luogo, l’efficacia e la validità del consenso ex art. 4 n. 11) e Considerando n. 32) del GDPR, in virtù di due (principali) criticità: la prima di esse è rappresentata dal fatto che, per mancanza di competenze, di tempo e di energie da parte dei soggetti interessati (dovuto, in particolar modo, alla complessità degli strumenti di AI utilizzati che richiederebbero informative molto dettagliate e tecniche), il consenso raramente si fonda su una reale comprensione e conoscenza dei trattamenti sottesi; la seconda critica sostiene, invece, che il consenso non include (e, di conseguenza, preclude) usi futuri (peraltro, spesso sconosciuti) dei dati, così impendendo, almeno in via potenziale, utilizzi dei dati personali socialmente vantaggiosi per l’interessato (e per la società civile).

Preso atto dell’oggettiva difficoltà di acquisire un consenso valido, lo studio – dopo aver escluso, in modo espresso e pressoché categorico, la possibilità di applicare le basi giuridiche di cui all’art. 6 comma 1 lettere da b) a e) del GDPR, in quanto, essendo fondanti sull’accertamento della necessità di un trattamento, mal si applicano all’elaborazione basata sull’AI – si domanda quanto la base giuridica del “legittimo interesse” ex art. 6 comma 1 lettera f) del GDPR possa, invero, applicarsi al trattamento di dati personali da parte di un sistema AI.

Anche in tal caso, secondo lo Studio è necessario distinguere a seconda che i dati personali siano utilizzati nell’ambito del cd. training test ovvero all’interno di un modello algoritmico teso ad ottenere risposte personalizzate: infatti, se nel primo caso, in presenza di adeguate misure di sicurezza (es. pseudonimizzazione; anonimizzazione), potrebbe essere configurabile il “legittimo interesse”, nel secondo caso dovrebbe, invece, essere data priorità agli interessi dell’individuo, con la conseguente necessità di ottenere lo specifico consenso.

Rapporto tra l’AI e i diritti del soggetto interessato

Com’è normale che sia, l’AI impatta anche sui diritti esercitabili dai soggetti interessati in relazione ai propri dati trattati.

A tal proposito, lo studio si è, innanzitutto, interrogato – senza addivenire, tuttavia, ad una posizione univoca – se l’obbligo di fornire informazioni sulla “logica utilizzata”, così come richiesto dall’art. 15 del GDPR, sia da intendersi con generale riferimento al metodo utilizzato dal sistema AI ovvero sia, invece, necessario fornire al soggetto interessato specifiche indicazioni su come tali metodi siano applicati nel caso che lo riguardano; dopo di ché, lo Studio ha rilevato, con riferimento al diritto di cancellazione ex art. 17 del GDPR, che, in ottemperanza ad una richiesta formulata in tal senso, dovrebbero essere cancellati anche i dati personali inferiti (fatta eccezione per i gruppi di dati inferiti)[21].

Infine, sono state rilevate criticità con riguardo al diritto di opposizione ex art. 21 del GDPR, il cui esercizio è particolarmente significativo nell’ambito dell’attività di profilazione, dato che soltanto in casi del tutto particolari il Titolare del trattamento può avere motivi (imperativi) legittimi per continuare a profilare un interessato che abbia comunicato la propria opposizione.

Conclusioni

Benché il GDPR fornisca indicazioni significative per la protezione dei dati personali in relazione ai sistemi AI, tale normativa non appare, come illustrato, attualmente idonea e matura per fornire un’equilibrata risposta ad una serie di quesiti e problematiche sottese all’applicazione dell’AI, creando, in tal modo, incertezze ed ostacoli allo sviluppo di questo fondamentale strumento tecnologico, così come peraltro evidenziato, a chiare lettere, nel White Paper (“…Dato l’impatto significativo che l’intelligenza artificiale può avere nella nostra società e la necessità di creare maggiore fiducia, è essenziale che l’IA europea sia fondata sui nostri valori e diritti fondamentali quali la dignità umana e la tutela della privacy […] un quadro normativo europeo chiaro rafforzerebbe la fiducia dei consumatori e delle imprese nell’IA e accelererebbe quindi l’adozione della tecnologia”)[22].

In definitiva, si auspica che, in attesa di una revisione (seppur, non significativa) del GDPR[23] al fine di creare un (rinnovato) quadro giuridico agile e adaptive, ciascun Titolare del trattamento si impegni, nell’eventuale utilizzo ovvero creazione di sistemi AI, ad adottare un approccio risk based e accountable grazie, peraltro, all’ausilio del sempre più importante (e duttile) DPIA ex art. 35 del GDPR, così come suggerito dall’EDPS nel proprio parere n. 4/2020.

  1. Sono già state messe in commercio una serie di applicazioni di (enorme) successo: es. riconoscimento vocale, dell’immagine e del volto; traduzione automatizzata; analisi dei documenti; robotica industriale; veicoli autonomi.
  2. Il White Paper fa parte dell’iniziativa n. 10 (“Un approccio europeo all’IA”) e rientra nel capitolo “Un’Europa adatta all’era digitale” del Programma di lavoro 2020 della Commissione UE.
  3. Nel 2016 sono stati investiti in UE circa 3,2 miliardi di euro nell’AI, rispetto, tuttavia, ai circa 12,1 miliardi di euro in America settentrionale ed ai 6,5 miliardi di euro in Asia. Per il prossimo bilancio dell’UE a lungo termine (2021-2025), l’UE ha proposto di investire 9,2 miliardi di euro per il digitale, di cui almeno 2,5 direttamente per l’AI.
  4. In via generale, i danni possono essere di natura sia materiale (quando incide sulla salute e sulla sicurezza delle persone, provocando perdite di vite umane o danni patrimoniali) sia immateriale (quando causa una perdita della privacy, restrizioni alla libertà di espressione, pregiudizi alla dignità umana o discriminazioni, ad esempio nell’accesso all’occupazione).
  5. Com’è noto, il termine “big data” identifica un vasto set di dati di difficile gestione, a causa delle loro caratteristiche standard, ovvero le cd. tre “V” (volume; velocità; varietà) a cui può aggiungersi “valore” e “veracity”, intesa come (alta) possibilità che almeno alcuni dati siano imprecisi. Il volume dei dati prodotti a livello mondiale è in rapida crescita, dai 33 zettabyte del 2018 ai 175 zettabyte previsti nel 2025.
  6. Lo Studio, guidato dall’accademico e giurista italiano dott. Giovanni Sartor, ha analizzato i principali rischi e opportunità derivanti dall’utilizzo dei sistemi basati sull’AI, chiedendosi se il GDPR permetta di beneficiare delle opportunità offerte da tali tecnologie prevedendo i rischi che ne derivano ovvero piuttosto non ponga alcuna barriera all’uso di essi, senza curarsi della prevenzione dei relativi rischi.
  7. Esso costituisce una parte integrante della struttura del Parlamento UE: ha la funzione di supportarlo, fornendo informazioni indipendenti, imparziali ed accessibili sugli sviluppi della scienza e della tecnologia, sulle opportunità che offrono, ma anche sui rischi che comportano e sulle loro implicazioni etiche.
  8. Viene affermato che lo sviluppo dell’AI, fondato sul trattamento di dati personali, deve basarsi sui principi della Convenzione n. 108 (plus) del 1981 del Consiglio d’Europa (poi modernizzata nel 2018): l’importanza di tale Convenzione è data dal fatto che essa rappresenta l’unico strumento giuridicamente vincolante a livello internazionale in tale materia, dato che ad essa possono aderire anche stati non membri del Consiglio d’Europa (il quale, peraltro, conta, ad oggi, 47 paesi aderenti).
  9. Gli altri requisiti individuati dalla Comunicazione della Commissione UE n. 168 del 8.4.2019 sono: intervento e sorveglianza umana; robustezza tecnica e sicurezza; trasparenza; diversità, non discriminazione ed equità; benessere sociale e ambientale; accountability.
  10. La nascita dell’intelligenza artificiale si fa risalire alla Conferenza di Dartmouth (New Hampshire) del 1956. Essa è stata suddivisa in due macro categorie, ossia l’AI “forte” e l’AI “debole”: la prima persegue l’ambizioso obiettivo di sviluppare sistemi informatici che esibiscono la maggior parte delle capacità cognitive umane; viceversa, la seconda persegue uno scopo maggiormente modesto, ossia la costruzione di sistemi che, ad un livello soddisfacente, siano in grado di svolgere compiti specifici che richiedono l’intelligenza.
  11. “Intelligenza artificiale (IA) indica sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’IA in dispositivi hardware (per esempio in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle cose)”.
  12. Il gruppo di esperti dell’AI HLEG ha ulteriormente precisato che l’AI include diversi approcci e tecniche, come l’apprendimento automatico, il ragionamento automatico (che racchiude la pianificazione, programmazione, rappresentazione della conoscenza e ragionamento, ricerca e ottimizzazione), la robotica (che comprende controllo, percezione, sensori e attuatori, nonché l’integrazione di tutte le altre tecniche nei sistemi cyber-fisici), oltre che la comunicazione (in particolare, la comprensione e la generazione del linguaggio), così come la percezione e la visione.
  13. Cfr. Considerando n. 26 del GDPR “…Per stabilire l’identificabilità di una persona è opportuno considerare tutti i mezzi, come l’individuazione, di cui il titolare del trattamento o un terzo può ragionevolmente avvalersi per identificare detta persona fisica direttamente o indirettamente. Per accertare la ragionevole probabilità di utilizzo dei mezzi per identificare la persona fisica, si dovrebbe prendere in considerazione l’insieme dei fattori obiettivi, tra cui i costi e il tempo necessario per l’identificazione, tenendo conto sia delle tecnologie disponibili al momento del trattamento, sia degli sviluppi tecnologici” e Considerando n. 9 del Regolamento UE n. 2018/1807 “…Se gli sviluppi tecnologici consentono di trasformare i dati anonimizzati in dati personali, tali dati devono essere trattati come dati personali e il Regolamento (UE) 2016/679 deve applicarsi di conseguenza”.
  14. Si noti che affinché un’informazione sia collegata a una persona non è necessario che il relativo soggetto sia identificato con assoluta certezza, ma è sufficiente un grado di probabilità tale da consentire di assumere nei confronti di esso un comportamento e/o decisione differente rispetto agli altri.
  15. Cfr., in proposito, sia l’ampia definizione di dato personale di cui all’Opinione n. 4/2007 che le Linee Guida sulle decisioni individuali automatizzate e la profilazione, nell’ambito delle quali il WP 29 ha chiarito che il diritto di rettifica deve poter essere esercitato dagli interessati sia con riferimento ai dati personali che costituiscono l’input dell’analisi sia con riguardo a quelli che ne costituiscono l’output, ossia quelli dedotti.
  16. In via preliminare, lo Studio ha ritenuto che i criteri, previsti dal WP 29, per definire la “compatibilità” ovvero la “non compatibilità” di un nuovo scopo (ovverosia: i) distanza tra il nuovo scopo e lo scopo originario; ii) l’allineamento del nuovo scopo con le aspettative del soggetto interessato, la natura dei dati e il loro impatto sui diritti dei soggetti interessati; iii) le garanzie adottate da un Titolare al fine di garantire un trattamento equo e prevenire gli impatti futuri) non forniscono, invero, una risposta effettiva e definitiva alle problematiche tipiche relative al riutilizzo dei dati personali nelle applicazioni AI.
  17. Set di dati utilizzati per addestrare e valutare le prestazioni di un sistema AI.
  18. Si consideri, ad esempio, il caso in cui i dati medici di qualcuno siano inseriti in un modello per fare una diagnosi medica ovvero per determinare le condizioni di salute prospettiche di quella medesima persona.
  19. Cfr. Opinione n. 3/2013 del WP 29 e Considerando n. 50 del GDPR (“…Per accertare se la finalità di un ulteriore trattamento sia compatibile con la finalità per la quale i dati personali sono stati inizialmente raccolti, il titolare del trattamento dovrebbe, dopo aver soddisfatto tutti i requisiti per la liceità del trattamento originario, tenere conto tra l’altro di ogni nesso tra tali finalità e le finalità dell’ulteriore trattamento previsto, del contesto in cui i dati personali sono stati raccolti, in particolare le ragionevoli aspettative dell’interessato in base alla sua relazione con il titolare del trattamento con riguardo al loro ulteriore utilizzo; della natura dei dati personali; delle conseguenze dell’ulteriore trattamento previsto per gli interessati; e dell’esistenza di garanzie adeguate sia nel trattamento originario sia nell’ulteriore trattamento previsto”).
  20. Tale principio è contenuto anche nel Considerando n. 78) del GDPR che richiede la “minimizzazione dei dati personali” come misura organizzativa per la protezione dei dati per progettazione e per impostazione predefinita.
  21. In proposito, lo Studio ha, al contempo, riconosciuto che la cancellazione dei dati utilizzati per costruire il modello algoritmico potrebbe rendere più difficile, se non impossibile, dimostrare la correttezza di esso, a cui devono aggiungersi i costi che una tale operazione potrebbe comportare per il Titolare del trattamento, ammesso che sia tecnicamente possibile.
  22. Il modello culturale (e giuridico) del GDPR – fondato, com’è noto, sul principio dell’autodeterminazione, seppur mitigato dall’accountability – mal si concilia (o meglio, è parzialmente inadeguato) con l’AI, basata su grandi masse di dati personali (e non).
  23. Cfr. documento “La protezione dei dati come pilastro dell’autonomia dei cittadini e dell’approccio dell’UE alla transizione digitale: due anni di applicazione del regolamento generale sulla protezione dei dati” del 24.6.2020 a firma della Commissione UE (pag. 11: …Si prospettano sfide future per chiarire come applicare i principi comprovati a tecnologie specifiche quali l’intelligenza artificiale, la blockchain, l’Internet delle cose o il riconoscimento facciale, che richiedono un monitoraggio continuo”).

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2