Secondo un recente articolo del Financial Times, l’AI – nonostante le problematiche normative e i dubbi sulla sua affidabilità – è destinata a essere sempre più utilizzata nel settore finanziario. L’intelligenza artificiale può aiutare a ridurre il rischio finanziario, ma al contempo introduce nuovi rischi.
Utilizzo dell’AI a supporto dei risk management nel settore finanziario
I risk manager del settore finanziario utilizzano sempre più l’AI per ridurre al minimo le minacce e massimizzare il valore aziendale, creando modelli sia per anticipare le frodi, gli errori operativi, le incognite di mercato, i problemi di liquidità sia per migliorare il processo decisionale.
Le tecnologie di AI conversazionale o generativa – quali ChatGPT di OpenAI o Bard di Google – sono in grado di analizzare enormi quantità di dati – i.e.: contenuti in documenti aziendali, normativi, quotazioni del mercato azionario, notizie e social media presenti su internet – migliorando le modalità di gestione del rischio di credito e, al contempo, permettono di svolgere esercizi di “stress test” maggiormente articolati e realistici, sino a riuscire a simulare come una società finanziaria possa gestire congiunture economiche o situazioni di mercato avverse.
Luci e ombre dell’AI nel settore finanziario
Diverse istituzioni finanziarie stanno iniziando a utilizzare l’AI generativa sotto forma di agente virtuale – a supporto dei risk manager finanziari – per raccogliere informazioni sui mercati finanziari e sugli investimenti e fornire in tempi brevissimi suggerimenti per la mitigazione del rischio. È doveroso ricordare che la qualità dei dati con cui sono “alimentati” gli algoritmi è fondamentale dal momento che dati sbagliati – che contengono pregiudizi e sono quindi “spazzatura” (i.e. paradigma garbage in-garbage out) può indurre la tecnologia a ragionamenti sbagliati ed a risultati distorti e pericolosi.
Per quanto riguarda l’AI generativa, attualmente, l’impiego di ChatGPT è limitato e utilizzato con successo per acquisire e per analizzare data lake sotto forma di dati strutturati e contratti legali oppure per trascrivere comunicazioni intercorse con i clienti (inclusi thread di posta elettronica, messaggi WhatsApp e chat di Bloomberg ad esempio) sia ai fini della conformità normativa sia per la verifica di possibili attività di insider trading, pur sempre sotto la vigilanza dei responsabili della compliance a cui spetta la decisione finale se agire o meno sulle informazioni.
La complessità di ChatGPT e altre tecnologie che si basano sull’AI generativa potrebbe causare problemi alle società di servizi finanziari – secondo l’European Risk Management Council – se non fossero in grado di spiegare le decisioni prese da tali tecnologie (i.e. requisito di Explainability dell’AI). Inoltre, questi sistemi di AI possono essere vulnerabili agli attacchi informatici, pertanto, le istituzioni finanziarie devono implementare solide misure di sicurezza informatica per prevenire tali violazioni.
Nonostante i dubbi sul fatto che l’AI generativa sia la tecnologia giusta per i dipartimenti di gestione del rischio altamente regolamentati e intrinsecamente cauti delle istituzioni finanziarie – dove i dati e i modelli statistici complessi devono essere attentamente convalidati – molti attori del settore ritengono che, in futuro, sarà sempre più utilizzata.
I rischi di ChatGPT, il parere degli esperti
Anche in Italia il settore finanziario sta cogliendo e sfruttando le possibilità fornite dall’evoluzione tecnologica per migliorare e automatizzare i servizi finanziari.
Gabriele Faggioli – Presidente di Clusit – sostiene che: “Sicuramente è una strada che sarà percorsa ma non ritengo che sia ragionevole pensare a una sostituzione della valutazione umana nel medio periodo. La capacità elaborativa e di correlazione dell’AI è ovviamente superiore a qualsiasi capacità umana, ma è ancora da dimostrare che sia possibile per un algoritmo raggiungere l’intuito e le finezza interpretativa tipica del cervello umano.
In ogni caso, una valutazione meramente automatizzata la ritengo arida e nel lungo periodo perdente. L’AI deve supportare le decisioni, non sostituire il decisore”.
Luca Sambucci – coordinatore del tavolo di lavoro AIxIA e Clusit su Security & AI – afferma: “L’AI, in particolare l’AI generativa, rappresenta sicuramente un prezioso alleato per il settore finanziario, in Italia come in altri Paesi. Questo tipo di tecnologia può offrire numerosi vantaggi per i dipartimenti di gestione del rischio delle istituzioni finanziarie, anche se altamente regolamentati e intrinsecamente cauti.
È fondamentale sottolineare che l’AI non deve essere destinata a sostituire il lavoro umano, ma piuttosto a migliorare la produttività e l’efficienza delle persone. Gli strumenti basati sull’AI dovrebbero essere visti come alleati che consentono agli operatori umani di concentrarsi su compiti più complessi e strategici. In questo modo si ottiene una combinazione ottimale di precisione tecnologica e perspicacia umana”.
Quadro normativo e AI
Quando si parla di AI viene spontaneo chiedersi a che punto sono i lavori delle numerose organizzazioni di normazione – a varie latitudini – in termini di quadro normativo dell’AI.
UK – Il 29 marzo 2023, è stato pubblicato un White Paper dal titolo “A pro-innovation approach to AI regulation” per fornire un quadro generale – e non una normativa – adattabile ai diversi settori e in grado di garantire la trasparenza di utilizzo dell’AI.
UE e USA – I due Paesi svolgono un ruolo congiunto fondamentale per il futuro della governance globale dell’AI, considerando che sarebbe auspicabile garantire che gli approcci alla gestione del rischio dell’AI tra i due blocchi siano generalmente allineati per facilitare il commercio bilaterale e migliorare la supervisione normativa, oltre a consentire una più ampia cooperazione transatlantica.
L’UE sta finalizzando l’AI Act – il cui Regolamento è stato approvato lo scorso 14 giugno. Per fine anno potrebbe arrivare approvazione finale dall’UE, per un’entrata in vigore nel 2024. Esso prevede la classificazione di rischio inaccettabile, alto o basso relativo all’AI. Senza dimenticare che a settembre 2022 è stata pubblicata la AI Liability Directive in base alla quale chi è stato danneggiato da aziende che impiegano l’AI può presentare reclami. La nuova Direttiva vuole essere una misura per prevenire i potenziali danni causati dall’AI e da determinati suoi utilizzi, oltre a prevedere un risarcimento nei casi in cui si sia già verificato un danno.
Gli USA hanno introdotto lo scorso anno il progetto dell’AI Bill of Rights che stabilisce cinque principi chiave per la protezione dei diritti degli americani per quanto riguarda l’impatto dell’AI. Inoltre, nel luglio 2022, l’House Energy and Commerce Committee ha approvato l’American Data Privacy and Protection Act (ADPPA) che propone standard nazionali in materia di dati personali raccolti dalle aziende e di processo decisionale dell’AI.
Pertanto, si ritiene che il governo USA si focalizzerà maggiormente su un’ulteriore regolamentazione del processo decisionale sull’AI per progettare una governance strategica dell’AI con particolare attenzione all’allineamento UE-USA. Inoltre, sarebbe auspicabile che gli USA implementassero un quadro giuridico per la governance delle piattaforme online.
Ancora, l’UE e gli USA dovrebbero lavorare sulla documentazione condivisa dei sistemi di raccomandazione e degli algoritmi di rete, nonché svolgere ricerche collaborative sulle piattaforme online.
Si tratterebbe, di fatto, di approfondire la condivisione delle conoscenze a vari livelli, compreso lo sviluppo delle norme, sandbox AI, grandi progetti pubblici di ricerca sull’AI e strumenti open source, ovvero, scambi da regolatore a regolatore per lo sviluppo di un ecosistema di garanzia dell’AI.
È ormai evidente che sono necessarie politiche per la gestione del rischio dell’AI e solo attraverso l’approfondimento della collaborazione cruciale tra UE e USA sarà possibile garantire che esse si convertano in pilastri sinergici della governance globale dell’AI.
Riflessioni
Lo scenario sopra delineato ci porta a riflettere sull’utilizzo sempre più opportuno ed etico dell’AI. Gli algoritmi di AI, benché sofisticati e altamente performanti, difficilmente potranno disporre di tutte le informazioni se non sono sufficientemente alimentati dall’intervento umano che si differenzia dalle macchine per le caratteristiche uniche, quali: la ragion critica e la sensibilità capaci di indirizzare e governare l’AI nella giusta direzione.
Inoltre, l’approccio risk-based delle regolamentazioni dell’AI implica il considerare un’analisi a priori dei rischi (i.e. “risk assesment”) che possono scaturire dall’impiego di questa tecnologia anche in termini di gestione dei rischi del settore finanziario. Pertanto, sarà necessario avere un preciso e puntale dettaglio delle attività eseguite dall’AI, non solo come approccio operazionale, ma anche comunicativo in modo da far comprendere il valore aggiunto del servizio prestato attraverso l’utilizzo di meccanismi dell’AI stessa.
Concludendo, lo sfruttamento efficace dell’AI generativa comporterà, da parte delle istituzioni finanziarie, un’implementazione dei principi di risk management, business continuity e cybersecurity per affrontare sfide come: la privacy, l’etica dei dati e, al contempo, garantire la conformità normativa, sviluppare solidi quadri di gestione del rischio atti a guidare l’innovazione e fornire soluzioni di valore. Ovvero, un’innovazione armonica a fronte di istituzioni finanziarie sempre più bioniche che si basano sulla tecnologia ma che devono mantenere le persone – dotate di ragion critica – al centro.