applicazioni

AI per i giuristi: risultati più accurati con la ricerca semantica



Indirizzo copiato

Attraverso gli algoritmi di apprendimento, basati sul deep learning, il giurista, oggi, rispetto alla sua controversia ha a disposizione più elementi di un tempo che possano essere oggetto di valutazione

Pubblicato il 31 lug 2024

Federico Casa

avvocato – socio fondatore dello studio legale Casa & Associati



AI

Occorre domandarsi se i sistemi di AI aiutino il giurista a risolvere uno dei suoi problemi cruciali: la previsione della decisione del giudice. A questa soluzione, sin dagli anni Ottanta del secolo scorso, erano dedicati i sistemi basati sulla conoscenza e sugli algoritmi tradizionali, i quali dovevano essere tenuti ben distinti da quelli che erano utilizzati dall’informatica giuridica documentaristica, che si occupa di studiare i programmi informatici che agevolano la ricerca nelle banche dati giuridiche. In questa direzione vanno sempre più affinandosi programmi che consentono di determinare, rispetto a una determinata questione, pur proposta in modo astratto, quali siano le decisioni giurisprudenziali di legittimità e di merito che siano andate in un senso e quelle che sono state di senso contrario.

Ciò avviene attraverso la c.d. “indicizzazione semantica”, che organizza i termini da utilizzare nella ricerca specificando i rapporti tra gli stessi, non tanto attraverso parole chiave e/o connettori logici, ma tramite il linguaggio naturale. Oggi il giurista può sicuramente conoscere come sia già stata decisa la questione giuridica che gli è sottoposta; lo poteva già fare già 50 anni fa con l’informatica giuridica documentaristica; la ricerca semantica rende certamente più accurati i risultati ottenuti.

L’apprendimento automatico supervisionato nel lavoro del giurista

Il problema allora non è evidentemente sapere come una determinata questione astratta sia stata decisa, ma se è possibile ipotizzare quale sarà la decisione proprio del caso che è stato sottoposto dalla parte assistita al giurista.

Negli anni Ottanta del secolo scorso questo sogno c’era ancora. L’idea era affinare dei programmi che contenevano una base di conoscenza costituita da regole, elaborate da algoritmi, i quali applicavano i procedimenti della logica (perlopiù deduttiva) al fine di risolvere casi concreti. L’intento di fondo era cercare di prevedere, rispetto a una determinata e concreta controversia, quale sarebbe stata la decisione del giudice; d’altro canto, è non poco diffusa nella scienza giuridica europea non continentale la tesi che compito del giurista sia ipotizzare in che modo e in che termini sia decisa una determinata lite.

In buona sostanza, si pensava che, a lungo andare, il giudice sarebbe stato sostituito; oggi è un’opzione a cui nessun informatico si dedica più.

Tanto per fare un esempio, oggi, attraverso il programma “Claudette”, è possibile riconoscere, tramite l’apprendimento automatico supervisionato, le clausole potenzialmente abusive che le piattaforme on line propongono ai propri consumatori. L’operazione consiste nell’addestrare alcuni algoritmi, affinché insegnino al sistema a effettuare determinazioni e valutazioni analoghe a quelle specificate e implementate durante l’attività di addestramento.

Tali algoritmi generano un “modello”, che fornisce al sistema informatico criteri per la determinazione della possibile vessatorietà di alcune clausole non ancora proposte dalla piattaforma. Il programma, sulla base degli esempi forniti dai giuristi, mira a costruire un concetto di vessatorietà, applicabile anche a pattuizioni diverse da quelle che i giuristi, che hanno implementato il programma, hanno ritenuto abusive.

Il risultato è soddisfacente, nel senso che otto volte su dieci il programma risponde come avrebbe risposto un giurista esperto.

Il giurista ha oggi a disposizione un enorme quantità di dati

Negli Stati Uniti alcuni programmi determinano in capo al condannato il possibile rischio della recidiva; ciò comporta evidentemente un inasprimento della pena, ma non ci sono ancora studi che dal punto di vista empirico possono confermare o meno tali previsioni. Lo stesso dicasi per i programmi che suggeriscono di negare a determinati condannati la libertà vigilata, perché vi è il rischio che venga violata. Possibili esiti di alcune controversie in tema di brevetti sono stati previsti, e ciò con riferimento alle caratteristiche delle parti, degli avvocati e dei giudici. Alcune decisioni della Corte Federale sono state previste raffrontando la materia trattata, i casi già risolti e l’orientamento politico dei giudici; crediamo però che quest’ultimo possa essere considerato un esercizio non così difficile.

Non vi è dubbio che, al fine di prevedere l’esito di una controversia, il giurista ha oggi a disposizione un numero di dati enorme; ciò consente di utilizzare algoritmi di apprendimento, in grado di evidenziare connessioni tra tali dati e la determinazione di correlazioni probabilistiche inattese. In altri termini, attraverso gli algoritmi di apprendimento, che utilizzano l’apprendimento profondo, il giurista oggi, rispetto alla sua controversia, ha a disposizione più elementi di un tempo, che possano essere oggetto di valutazione. Eppure, ciò non tanto perché egli sia in grado di meglio comprendere le ragioni dei contendenti, oppure perché abbia imparato a formalizzare più accuratamente le c.d. “ontologie” giuridiche, quanto perché si è verificato negli anni recenti un passaggio significativo dalla logica tradizionale dell’istruzione programmata all’uso dei corpora, che sono grandi collezioni di testi, sia scritti che orali, provenienti da contesti comunicativi reali.

Conclusioni

Eppure, appare abbandonata l’idea che le macchine intelligenti possano identificare i “veri” meccanismi che si nascondono nei dati che esse analizzano; si possono fare previsioni utili, anche se queste non insegnano nulla del modello che riproducono; in questo senso l’AI ha rinunciato alla descrizione della realtà in nome della prevedibilità. Si tratta di una scorciatoia; in questo modo il giurista corre il rischio di sapere di avere probabilmente delle ragioni da proporre, ma di non ritenere necessario conoscerle oppure di averle perché in alcuni casi simili qualcun altro le ha già proposte.

Non è un caso che gli informatici affermino sempre più spesso, e senza alcuna ritrosia, che è più facile predire la parola seguente di un testo che comprendere una frase; ed è tutto quello che può servire.

Articoli correlati

Articolo 1 di 4