“La ragione umana […] ha il destino particolare di essere tormentata da problemi che non può evitare, perché le son posti dalla natura della stessa ragione, ma dei quali non può trovare la soluzione, perché oltrepassano ogni potere della ragione umana.”
Nella prefazione alla “Critica della ragion pura”, il filosofo Immanuel Kant discute la limitatezza della ragione umana che tenta di risolvere questioni che arrivano dove la ragione non può.
Il pensiero è quanto mai attuale – e il dibattito in continua evoluzione – se si pensa che la ragione umana, oltrepassando se stessa, rifiuta l’idea che possa essere un algoritmo a giudicare se un uomo è o non è penalmente responsabile e in quale misura.
I considerando introduttivi alle norme di diritto civile sulla robotica (2015/2103(INL), pur riconoscendo che “l’apprendimento automatico offre enormi vantaggi economici e innovativi per la società migliorando notevolmente le capacità di analisi dei dati”, nel contempo confessano l’esistenza di sfide, ancora irrisolte, “legate alla necessità di garantire la non discriminazione, il giusto processo, la trasparenza e la comprensibilità dei processi decisionali”.
Diritto e tecnologia sono due sistemi regolativi certamente in grado di trovare vigore nella loro congiunzione – tant’è che apprezzabili vantaggi possono trarsi nel diritto civile e ancor più nel diritto amministrativo – quanto di entrare in netta competizione, talvolta a scapito del soggetto umano. In sede penale, infatti, affidare rilevanti questioni etico-giuridiche a sistemi di apprendimento automatico potrebbe creare contrasti applicativi e di opinione, così come potrebbe crearne affidare la valutazione degli elementi essenziali e circostanziali del reato a meri automatismi. Il caso Eric Loomis, di cui parliamo più avanti, ne è l’emblema.
L’AI e il sistema penale italiano
A dimostrazione del fatto che non si tratta di un rifiuto a priori dell’intelligenza artificiale nel sistema penale italiano cerchiamo di capire se, tenuto conto degli istituti vigenti, i due sistemi regolativi siano in grado di non collidere.
In un sistema penale come il nostro la pena ha diverse funzioni: ha una funzione general-preventiva e special-preventiva, allorquando infliggere una pena significa prospettare ad altri soggetti, o allo stesso, la minaccia della sua irrogazione frenando, quindi, la loro tendenza a delinquere; ha una funzione retributiva, se considerata un’equa punizione al male commesso in precedenza; ha soprattutto una funzione tendenzialmente rieducativa, l’unica costituzionalizzata all’art. 27, il cui finalismo tenta (!) di ricondizionare il reo ai valori collettivi. Ognuna di queste funzione, tuttavia, potrà dirsi compiuta se da un lato avremo soggetti in grado di comprendere gli svantaggi della pena, dall’altro soggetti in grado di misurare l’efficacia dell’irrogato. Alla base, quindi, non può non esservi una valutazione umana, per cui sarà solo un uomo a poter giudicare se un altro uomo è o non è penalmente responsabile. È un dato, quindi, che l’applicazione di un automatismo sovvertirebbe le funzioni, fra cui quella costituzionalmente garantita, della pena.
Applicazione di un algoritmo alla misura della pena
Stabilito questo occorre valutare se l’applicazione di un algoritmo alla dosimetria della pena può tendere a garantire la parità del trattamento sanzionatorio. L’art. 132 del codice penale è quanto mai esplicativo dell’infungibilità umana nell’applicazione della pena e così dispone: “Potere discrezionale del giudice nell’applicazione della pena: limiti” – “Nei limiti fissati dalla legge, il giudice applica la pena discrezionalmente; esso deve indicare i motivi che giustificano l’uso di tale potere discrezionale”. In maniera chiara il legislatore dispone che per l’applicazione della pena non solo è indispensabile una valutazione del giudice ma, in ossequio al disposto costituzionale dell’art. 111 comma 6 “tutti i provvedimenti giurisdizionali devono essere motivati”. In ossequio al disposto normativo, quindi, l’applicazione della pena necessita di un processo valutativo discrezionale, motivato, che difficilmente potrà essere operato da una macchina.
Anche in materia di recidiva è intervenuta la Corte di Cassazione (SS.UU. n°20798/2011) per vincere un automatismo che, diversamente dal precedente, è insito nella norma penale: il comma 3 dell’art. 99 c.p., infatti, testualmente dispone che “qualora concorrano più circostanze fra quelle indicate al secondo comma, l’aumento di pena è della metà”. Se A allora B. La Suprema Corte è intervenuta per ribadire il concetto secondo cui per applicare la recidiva del comma 3 è necessaria una “valutazione della gravità dell’illecito commisurata alla maggiore attitudine a delinquere manifestata dal soggetto agente […] nell’ambito di una relazione qualificata tra i precedenti del reo e il nuovo illecito da questo commesso […] in rapporto alla natura e al tempo di commissione dei precedenti, e avuto riguardo ai parametri indicati dall’art. 133 c.p.”. Per l’applicazione dell’aumento ex art. 99 comma 3, quindi, non sarà sufficiente la mera sussistenza di precedenti penali ma sarà necessario che questi – tenuto conto della loro natura e del tempo di commissione del reato – siano valutati e ritenuti idonei ad incidere negativamente sulla fattispecie concreta.
Il caso di Compas e Eric Loomis negli Usa
L’applicazione della giustizia predittiva (quella degli algoritmi) è realtà nei tribunali statunitensi. Compas è un software che – tenuto conto delle risposte date a 137 domande da un essere umano a un algoritmo – è in grado di valutare il rischio di recidiva e di prevedere dove quei reati potranno essere nuovamente commessi. Nessuna ulteriore valutazione umana può intervenire. Col supporto di Compas, Eric Loomis è stato condannato a una pena di sei anni per aver commesso reati minori ma, nelle sue valutazioni, ha violato molti diritti, primo fra tutti la non discriminazione e poi anche il giusto processo, la trasparenza e la comprensibilità dei processi decisionali.
È un’idea lontana che un algoritmo sia in grado di valutare la gravità, la precisione e la concordanza degli indizi (art. 192 comma 2 c.p.p.). Non mi dilungherò sul punto, limitandomi a trascrivere come la Cassazione si è espressa per chiarire il concetto di valutazione della prova indiziaria: “il giudice di merito […] deve valutare, anzitutto, i singoli elementi indiziari per verificarne la certezza […], saggiarne l’intrinseca valenza dimostrativa […] e poi procedere a un esame globale degli elementi certi […] consentendo di attribuire il reato all’imputato “al di là di ogni ragionevole dubbio” e, cioè, con un alto grado di credibilità razionale” (Cass. sent. n° 44324/2013; sent. n°20461/2016).
L’AI nel diritto civile
A differenza del diritto processuale penale, il diritto processuale civile si concede qualche possibilità in più. L’art. 116 comma 1 dispone che “il giudice deve valutare le prove secondo il suo prudente apprezzamento, salvo che la legge disponga altrimenti”. La locuzione “salvo che” introduce al tema delle prove legali ossia quelle la cui efficacia è predeterminata dalla legge e di fronte alle quali al giudice è impedita ogni valutazione sul contenuto. In un sistema penale tendenzialmente rieducativo come il nostro le prove legali non sono ammesse dovendo sempre intervenire il libero convincimento del giudice.
Anche l’art 22 del Regolamento Generale sulla Protezione dei Dati (679/2016) dispone sul “processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione” stabilendo che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. In materia di protezione dei dati personali, quindi, è garantito all’interessato l’intervento umano su una decisione automatizzata che sia teso a rettificare fattori che possano comportano inesattezze, a minimizzare il rischio di errori per scongiurare i potenziali rischi con i conseguenti, eventuali, effetti discriminatori.
Ci sono fattori dell’universo giuridico penale e, più specificatamente, della responsabilità penale in grado di incidere in maniera invasiva sulla libertà del soggetto; fattori che non possono, in maniera del tutto distaccata, essere affidati ad un automatismo meccanizzato poiché, come si è dimostrato, ci sono passaggi valutativi, motivazionali e di comparazione, a cui il robot non può aspirare.
Al contrario è sbagliato ritenere che il settore della giustizia penale debba sfiduciare – in maniera assoluta – l’universo cyber; alla luce dell’automazione, della dematerializzazione, dell’interazione fra uomo e macchina, infatti, molti fattori dello stesso universo giuridico richiederebbero interventi di tipo strutturale: ripensare i concetti di “azione”, di “causalità” e di “evento”, ad esempio, con importanti riverberi sulla determinazione del momento e del luogo di consumazione del reato; riconsiderare il concetto di responsabilità alla luce di un novero accresciuto di possibili agenti fra cui persone fisiche, persone giuridiche, strumenti elettronici, strumenti elettronici connessi, macchine, macchine intelligenti.
Conclusioni
L’umanità è sulla soglia di un‘era cyborg e l’intelligenza artificiale può certamente contribuire a migliorare anche l’efficacia e la qualità di lavoro dei tribunali ma non solo potrà essere solo un uomo a giudicare se un altro uomo è o non è penalmente responsabile, ma ogni uomo, trattandosi della propria libertà, cercherà sempre un altro uomo a cui manifestare difese e suppliche.