Gli strumenti di AI generativa promettono di trasformare gran parte del lavoro quotidiano degli avvocati, ma persistono le preoccupazioni per le fughe di dati e l’erosione della differenziazione. Così, in mezzo a una raffica di lanci e aggiornamenti, molti studi legali sono ancora indecisi su come e quando entrare in gioco. Fioccano le notizie da parte di aziende big-tech e fornitori di servizi su innovazioni che promettono di trasformare il lavoro legale: tutti intendono sfruttare l’intelligenza artificiale generativa e il software di apprendimento automatico, applicando queste tecnologie come parte dei grandi modelli linguistici (LLM).
LexisNexis ha presentato un piano per integrare le soluzioni basate sull’intelligenza artificiale con il software 365 di Microsoft. Anche gli studi legali sono entrati in campo, segnalando una serie di nuovi sviluppi.
OpenAI ha lanciato un LLM per clienti aziendali che garantisce i dati
Lo studio legale Gunderson Dettmer, con sede nella Silicon Valley, ha presentato uno strumento proprietario che i suoi avvocati utilizzano per fornire accordi legali – o altro materiale rilevante – come contesto per le interrogazioni.
Sullivan & Cromwell, con sede a New York, ha promosso gli strumenti che sta sviluppando e che intende vendere ad altri studi legali, comprese le versioni che aiutano a esaminare in modo completo i documenti e a condurre le deposizioni.
Allo stesso tempo, OpenAI, l’azienda che ha dato il via alla rivoluzione dell’intelligenza artificiale generativa con la rivelazione di ChatGPT, ha lanciato un sistema LLM aggiornato per i clienti aziendali che affronta i timori degli avvocati per la perdita dei dati dei clienti.
Thomson Reuters, l’azienda di dati e media legali, ha chiuso l’acquisizione di Casetext, nota per i suoi strumenti basati sull’intelligenza artificiale, per un valore di 650 milioni di dollari.
Con l’AI generativa maggiore velocità e semplicità per gli studi legali
Tutti i nuovi strumenti promettono di affrontare alcune delle attività più laboriose degli avvocati con maggiore facilità e velocità. Ad esempio, sono in grado di confrontare e analizzare i contratti alla ricerca di clausole chiave, di riassumere le regole di conformità e di riscrivere normative complesse in linguaggio profano. Il loro potenziale di risparmio di tempo ha suscitato l’aspettativa che trasformino – e forse anche eliminino – gran parte del lavoro quotidiano degli avvocati.
Per Thomson Reuters, l’obiettivo è fornire un prodotto di redazione legale che, come Lexis-Nexis, sia pronto per essere collegato alla funzione di assistente AI Copilot di Microsoft e possa essere messo in vendita entro la fine dell’anno.
Preoccupazioni per la privacy e la perdita di distintività
Tuttavia, in questo turbinio di lanci e aggiornamenti di sistemi, molti studi legali rimangono titubanti su come e quando saltare sul carro dell’intelligenza artificiale.
Quando ChatGPT è stato reso disponibile per la prima volta, molti potenziali utenti della tecnologia di AI generativa legale – studi legali e uffici legali interni – hanno iniziato a soffrire della sindrome “Fomo” (Fear of Missing Out), ossia paura e ansia sociale di essere esclusi da esperienze ed eventi, secondo Dan Katz, professore del Chicago Kent College of Law, che dirige il centro di tecnologia legale della scuola. Ma l’entusiasmo iniziale ha lasciato il posto al “Fud” (paura, incertezza e dubbio). Le preoccupazioni dei clienti per le fughe di dati li hanno resi “timidi”, afferma Katz, sottolineando che gli studi legali non vogliono che nemmeno i loro prompt – le richieste con cui chiedono alle piattaforme di rispondere o di intraprendere – vengano catturati da estranei. Inoltre, esprimono la preoccupazione di perdere la loro distintività competitiva: “[Se] acquistano solo una soluzione standard, dov’è la loro differenziazione?”, sottolinea Katz.
L’AI generativa per gli studi legali è anche una questione di costi
Inoltre, l’esclusività iniziale degli inviti a partecipare ai progetti pilota LLM dei grandi gruppi tecnologici, e le successive offerte al dettaglio ad alto prezzo, hanno impedito ad alcuni avvocati di diventare early adopter. Microsoft ha addebitato più di 50.000 dollari a ciascuna delle 600 imprese invitate a partecipare alle prove del suo assistente AI Copilot, che sarà venduto alle imprese come aggiornamento in abbonamento a 30 dollari al mese per utente.
LexisNexis e Thomson Reuters chiederanno agli studi legali di pagare abbonamenti aggiuntivi, finora non resi noti, per accedere ai loro plug-in legali Copilot. Anche i costi aggiuntivi dell’hardware necessario per far funzionare questi sistemi di intelligenza artificiale potrebbero rappresentare un deterrente finanziario a breve termine.
Natasha Blycha, amministratore delegato di Stirling Rose a Sydney, Australia, afferma che la sua azienda “non è un acquirente” dell’ultima ondata di sistemi software LLM commercializzati. Stirling Rose, che è specializzata nella consulenza in materia di AI, asset digitali e altre tecnologie emergenti, intende invece costruire i propri strumenti, utilizzando LLM di base liberamente disponibili ed esperti e ingegneri interni.
Presso la società di consulenza globale McKinsey, l’ufficio legale interno sceglierà tra “costruire, acquistare o collaborare” per sviluppare strumenti di AI generativa solo dopo che i suoi leader avranno valutato gli usi commerciali più efficaci, afferma Ilona Logvinova, associate general counsel. “Da lì, si esplorerà l’offerta dei fornitori di tecnologia”, aggiunge.
Thomas Pfennig, responsabile globale della conformità dei dati e della privacy di Bayer, multinazionale tedesca delle scienze biologiche, ha già utilizzato l’AI generativa per automatizzare compiti legali ripetitivi e di scarso valore, al fine di ridurre i costi del lavoro. “Un passo che abbiamo fatto è preparare l’organizzazione a un cambiamento operativo significativo, passando da interazioni basate sull’uomo a interazioni più tecnologiche”, afferma Pfennig. Pfennig sta collaborando con Prime Legal AI, con sede ad Hannover, in Germania, per sviluppare un LLM specifico per il diritto. Condivide le preoccupazioni generali sulla possibilità che le informazioni raccolte da questi sviluppi trapelino nei modelli dei grandi operatori tecnologici. “La conformità alla privacy dei dati di solito non è integrata negli LLM”, osserva. “Anche se vengono formati su miliardi di parametri, non si tratta necessariamente di parametri di conformità legale o di privacy dei dati”.