L’intelligenza artificiale permea molti aspetti della nostra vita. L’impiego di sistemi di AI nell’attività di “law enforcement” è già una realtà, e si presenta in crescita per i prossimi anni. Nella fattispecie, le chatbot (sistemi basati su una particolare applicazione dell’AI) possono essere di contrasto ai reati di pedopornografia.
A titolo esemplificativo e non esaustivo, ecco altri esempi di impego dell’AI:
- sistemi che mostrano itinerari su carte geografiche e offrono consigli a chi guida;
- sistemi di raccomandazione che suggeriscono libri sulla base degli acquisti fatti dall’utente, oppure di supporto alle decisioni mediche;
- il moderno riconoscimento del linguaggio parlato, basato su tecniche statistiche (come i modelli di Markov nascosti);
- assistenti digitali personali (come Siri della Apple);
- riconoscimento ottico dei caratteri di testi scritti a mano e a macchina (digitalizzazione dei documenti);
- sistemi di traduzione automatica;
- riconoscimento dei volti;
- filtri bayesiani antispam (software che controllano il traffico mondiale di e-mail);
- sistemi di trading automatico.
Nonostante la massiva presenza di questa tecnologia, sempre più raffinata rispetto al passato, non siamo ancora a un livello di intelligenza, da parte della macchina, che eguagli gli esseri umani quanto a intelligenza generale, rappresentata dal buon senso, l’effettiva capacità di imparare, ragionare e pianificare per affrontare compiti complessi di elaborazione delle informazioni in una vasta gamma di domini naturale e astratti [1].
Questo avvenimento è comunque atteso, al riguardo ricordiamo le parole di Irvin John Good, che nel 1965 scrive: “definiamo una macchina ultraintelligente come una macchina che può superare di gran lunga tutte le attività intellettuali di qualunque essere umano, per quanto intelligente; sarebbe […] una esplosione di intelligenza”[2].
E la giurisprudenza, come considera l’utilizzo di sistemi di AI come le chatbot per la prevenzione e la scoperta di reati?
Breve storia dell’AI: da Logic Theorist alle chatbot
I primi anni di sviluppo delle soluzioni di AI sono caratterizzati da piccoli sistemi che realizzano il compito “x” in un dominio limitato; si pensi a Logic Theorist, capace di dimostrare la maggior parte dei teoremi dei Principia Mathematica; Eliza, chatbot che impersona uno psicoterapeuta rogersiano; Shrludu, braccio robotico simulato in un mondo simulato di blocchi geometrici, che può eseguire istruzioni e rispondere a domande in inglese inserite a tastiera dagli utenti; Standup, programma di AI che inventa battute originali.
Nonostante questi successi iniziali, l’AI ha attraversato molti “inverni”, cioè periodi di scetticismo e relative diminuzioni negli investimenti.
La svolta è rappresentata dall’introduzione di nuove tecniche alternative al GOFAI (Good Old-Fashioned Artificial Intelligence), quali le reti neurali.
Le reti neurali presentano alcune proprietà che hanno loro permesso di dare nuova linfa vitale alle applicazioni di AI:
- la proprietà del deterioramento graduale, cioè un danno di lieve entità a una rete neurale produce un lieve scadimento delle sue prestazioni, ma non un crollo totale.
- sono in grado di imparare dall’esperienza, hanno modi naturali di generalizzare a partire dagli esempi forniti e individuare configurazioni statistiche nascoste nei dati in ingresso,
- l’algoritmo di propagazione all’indietro, introdotto da Rumelhart et al., che rende possibile l’addestramento delle reti neurali multistrato, reti con uno o più strati intermedi (nascosti) di neuroni tra gli stati dell’input e dell’output permettono di apprendere una varietà maggiore di funzioni rispetto alle più semplici reti precedenti[3],
- computer sempre più potenti.
Emerge che l’intelligenza artificiale è una ricerca di scorciatoie.
Il sottocampo dell’intelligenza artificiale che si focalizza sulla capacità dei computer di comprendere ed elaborare i linguaggi umani è il natural language processing (NLP). Alle macchine viene insegnato non solo a leggere, analizzare e interpretare dei testi con modalità analoghe a quelle che utilizzano gli esseri umani, ma anche a “comprenderli” tramite l’elaborazione del linguaggio naturale, scritto e parlato.
Le chatbot rientrano di diritto nel NLP. Si tratta di sistemi costituiti da rete Seq2seq, cioè una rete neurale ricorrente (RNN) che prende in input una sequenza di parole e genera in output un’altra sequenza di parole.
I sistemi di AI e le chatbot nel contrasto ai reati
Come abbiamo anticipato, l’impiego di sistemi di AI nell’attività di “law enforcement” è già una realtà. Essi vengono utilizzati a contrasto di molte fattispecie penali, utilizzate per attività di pattugliamento, sorveglianza, disinnesco bombe, individuazione di atteggiamenti sospetti, riconoscimento facciale.
Per contrastare lo sfruttamento di minori nei reati sessuali, la software house olandese Terre des Hommes ha ideato nel 2013 Sweetie[4], una chatbot che grazie all’intelligenza artificiale riesce ad assumere infinite identità per chattare con utenti diversi, contribuendo alla scoperta di reati di pedopornografia. L’applicativo, arrivato alla sua seconda versione, sfrutta diverse tipologie di avatar, cioè una rappresentazione virtuale in 3D. L’obiettivo della software house, con la sua chatbot, è la “prevenzione” più che la punizione, scoraggiare i pedofili prima che commettano i reati.
I dati dichiarati da Terre des Hommes durante la prima attivazione della chatbot sono sconcertanti: nel 2013 Sweetie ha chattato per dieci settimane, mostrandosi in flash di pochi secondi, governata da quattro tecnici. È stata contattata da 20mila pedofili di 71 Paesi. Un migliaio sono stati identificati e segnalati alle forze dell’ordine.
È evidente l’utilità di questo strumento come law enforcement, ma si aprono molti interrogativi:
- le condotte ai danni di un agente virtuale (una chatbot con le sembianze di un minore) configurerebbero ipotesi di reati?
- è ammissibile un uso di soluzioni di AI al fine di prevenzione della consumazione di reati (polizia predittiva) o, in caso di indagini già avviate, l’identificazione dei responsabili?
- quale peso probatorio avrebbe all’interno di un procedimento penale l’uso di una chat intrattenuta con un agente virtuale?
Questi sono solo alcuni degli interrogativi che scaturiscono da una analisi dell’uso di una chatbot per il contrasto dei reati pedopornografici.
Pedopornografia, un problema di proporzioni mondiali
È notizia recente che, grazie a una inchiesta del New York Times, si denuncia la presenza di contenuti video con abusi sessuali su minori su di una nota piattaforma streaming di materiale a luci rosse. Inchiesta che ha portato due grandi circuiti di carte di credito ad avviare una indagine sul materiale video pubblicato e a vietare i pagamenti con le loro carte. Detta piattaforma ha eliminato un totale di 9 milioni di video di origine incerta[5].
Il dato è allarmante e spiega la portata del problema, quindi sembra giusto dare al lettore alcune coordinate circa la fattispecie di reato in discussione all’interno dell’ordinamento italiano.
I reati di pornografia minorile nell’ordinamento italiano
I reati di pornografia minorile (o pedopornografia) sono stati introdotti nel codice penale dall’art. 3, L. 3.8.1998, n. 269, le ragioni dell’introduzione si spiegano con la volontà di dare attuazione a una serie di impegni connessi a decisioni adottate da organismi internazionali cui il nostro paese aderisce (Convenzione di New York e Dichiarazione finale della Conferenza mondiale di Stoccolma).
Le più recenti modifiche all’art. 600-ter c.p. sono la conseguenza del recepimento della c.d. “Convenzione di Lanzarote”, con l’entrata in vigore del dettato legislativo n. 172 del 2012.
Il bene giuridico tutelato è la salvaguardia dello sviluppo fisico, psicologico, spirituale, morale e sociale dei minori, cioè la protezione della formazione dell’intera personalità da gravi fatti di sfruttamento sessuale.
L’art. 600-ter c.p. ha uno spettro di azione molto ampio, prevedendo dieci distinte fattispecie, che si pongono a protezione di due distinti interessi:
- la protezione della personalità in divenire nella sua dimensione interiore (psico-fisica o morale);
- la protezione della personalità in divenire nella sua dimensione esteriore (relazionale o sociale)[6].
Con la legge n. 38/2006, il nostro legislatore nazionale ha introdotto, altresì, l’art. 600 quater.1 che incrimina la pornografia virtuale, estendendo la portata degli artt. 600 ter e 600 quater (ma con una diminuzione di pena di un terzo) anche all’ipotesi che il materiale pornografico rappresenti immagini virtuali realizzate utilizzando immagini di minori di anni 18 o parti di esse.
Le ipotesi delittuose previsti dall’art. 600-quater.1 c.p. introdotte dal legislatore in ossequio alla decisione quadro n. 2004/68/GAI, non sembrano tutelare in alcun modo la personalità o altri interessi propri dei minori, ma punire l’autore per la propria condotta di vita (cioè una attitudine sessuale deviante) e la potenziale inclinazione al delitto.
Secondo una parte della dottrina, l’immagine virtuale può avere un impatto sul mercato della pedofilia e stimolare potenziali fruitori a ulteriori scambi di materiale pedo-pornografico reale[7].
Il reato in parola ricomprende le immagini puramente virtuali, prive di qualsiasi riconducibilità a minori reali, ma che appaiono, all’occhio del produttore o del fruitore, realistiche e idonee a stimolare istinti sessuali.
Fatta questa panoramica normativa, tornando all’argomento di cui ci occupiamo, è chiaro che da parte nostra si chiede alla dottrina e alla giurisprudenza di dare risposte agli interrogativi sollevati.
Chatbot e reati nella legge italiana
Infatti, l’impiego di intelligenza artificiale, nello specifico una chatbot, per identificare soggetti dediti alle diverse condotte che caratterizzano le fattispecie ex art. 600-ter ss. c.p., ovvero gli autori di reati, solleva più di una censura riguardo alle attività di contrasto ex art. 14 L. 3.8.1998, n. 269.
Diversamente, infatti, da quanto avviene, per esempio, nel diritto anglosassone dove è sufficiente “l’intenzione” di commettere un crimine perché le forze dell’ordine possano ottenere un mandato per effettuare operazioni sotto copertura online. In Italia l’accesso a questa attività di contrasto, che distingue tra agente sotto copertura e agente provocatore, è autorizzata in via del tutto eccezionale rispetto alle norme e ai principi fondamentali del nostro ordinamento processuale in tema di acquisizione delle prove.
La distinzione tra agente infiltrato e agente provocatore sta nel fatto che il primo si limita alla raccolta di prove, mentre per il secondo la sua condotta può variare “dall’istigazione” al reato, quando la sua attività sia rivolta a stimolare nel reo una preesistente volontà psichica alla commissione del reato; alla cosiddetta “determinazione”, identificabile quando l’agente influisca direttamente sul processo di formazione della volontà del provocato, “chiarendo” o consolidando l’intenzione criminosa.
Nel caso in cui una chatbot si sostituisca a un agente provocatore umano per la prevenzione o la scoperta di reati, si potrebbero sollevare le medesime censure previste per questo.
A tal proposito, la Corte EDU, nel caso in cui accerti che l’operazione sotto copertura sia sfociata in attività provocatoria, considera violato l’art. 6 CEDU sul diritto a un equo processo e inutilizzabili le prove ottenute attraverso provocazione.
Anche la giurisprudenza italiana, per molto tempo ha oscillato tra una “intrinseca illegittimità” delle attività di provocazione poste in essere dalla polizia giudiziaria in assenza di una specifica previsione legittimante, tale da comportare una inutilizzabilità patologica, ex art. 191 c.p.p. a una “ammissione” per la piena e diretta utilizzabilità delle acquisizioni conseguite con le attività sotto copertura anche in riferimento a reati non compresi nell’elencazione dell’art. 14, allorquando quelle attività siano state comunque legittimate da un provvedimento autorizzatorio rilasciato con riguardo a reato che, invece, sia compreso in quella elencazione.
Conclusioni
È evidente, quindi, che l’acquisizione di così particolari mezzi di indagine, come la chatbot “adescatrice”, deve portare, in tempi rapidi, a trovare nuove categorie di dottrina del diritto e di giurisprudenza che raccolgano la sfida dell’uso dell’AI come nuovo mezzo d’indagine penale, come contrasto alla commissione di reati.
È una sorta di mondo nuovo che si apre per giuristi, pensatori di dottrina del diritto, forze inquirenti e organi legislativo e giudicante. Solo se sapremo affrontare con adeguata celerità e corretta applicazione delle norme del giudizio penale, secondo il dettato costituzionale, avremo la possibilità di utilizzare con equilibrata lungimiranza tutte le più moderne metodologie per scongiurare il perpetuarsi di così orrendi crimini.
Ben vengano quindi chatbot e algoritmi predittivi in ambito legale purché servano a dare certezza della pena in caso di reati così aberranti, ma conservando all’eventuale imputato margine di difesa della propria innocenza.
Comprendiamo di aver disegnato scenari di nuove possibilità investigative e di possibili contestazioni difensive, ma da queste sfide deve nascere un modo nuovo ed esemplare di amministrare giustizia in un paese estenuato dalle lungaggini della odierna giurisprudenza.
- N. Bostrom, Superintelligenza tendenze, pericoli, strategie, Bollati Boringhieri, 2018. ↑
- Good 1965, pg. 33. ↑
- Minsky e Papert 1969. ↑
- https://www.repubblica.it/venerdi/reportage/2017/02/27/news/sweetie_pedofili_chat_avatar_internet-159359472/ ↑
- https://www.repubblica.it/esteri/2020/12/15/news/usa_pornhub_rimuove_due_terzi_dei_video-278397990/ ↑
- S. Del Signore, La tutela dei minori e la pedopornografia telematica: i reati dell’art. 600-ter c.p., Cybercrime, Utet giuridica, 2019. ↑
- S. Del Signore, op. cit. ↑