ANALISI

McKinsey: dalla GenAI un aiuto alle banche per rischi e compliance



Indirizzo copiato

Dall’analisi dei modelli all’automazione dei compiti manuali, alla sintesi di contenuti non strutturati, questa tecnologia sta già cambiando il modo in cui le funzioni bancarie operano, incluso come le istituzioni finanziarie gestiscono i rischi e rimangono in regola con le normative

Pubblicato il 12 mar 2024



rpa

L’intelligenza artificiale generativa (GenAI) è pronta a diventare un catalizzatore per la prossima ondata di guadagni di produttività in vari settori, i servizi finanziari sono tra i protagonisti. Lo afferma McKinsey in un articolo dal titolo “How generative AI can help banks manage risk and compliance”. Dall’analisi dei modelli all’automazione dei compiti manuali, alla sintesi di contenuti non strutturati, questa tecnologia sta già cambiando il modo in cui le funzioni bancarie operano, incluso come le istituzioni finanziarie gestiscono i rischi e rimangono in regola con le normative.

Sfruttare la “promessa” dell’AI generativa

Nel suo articolo, McKinsey sottolinea come sia fondamentale per le funzioni di rischio e conformità stabilire delle linee guida sull’utilizzo dell’AI generativa all’interno di un’organizzazione. Tuttavia, la tecnologia può aiutare queste funzioni stesse a migliorare l’efficienza e l’efficacia. Nell’articolo si discute come le banche possano costruire un approccio flessibile e potente all’utilizzo dell’AI generativa nella gestione del rischio e della conformità e si identificano alcuni argomenti cruciali che i leader delle funzioni dovrebbero considerare.

L’AI generativa ha il potenziale per rivoluzionare il modo in cui le banche gestiscono i rischi nei prossimi tre-cinque anni. Potrebbe consentire alle funzioni di passare da attività orientate al compito verso una collaborazione con le linee di business sulla prevenzione strategica del rischio e avere controlli fin dall’inizio nei nuovi percorsi dei clienti, spesso definito come un approccio “shift left”. Ciò, a sua volta, libererebbe i professionisti del rischio per consigliare le aziende sullo sviluppo di nuovi prodotti e decisioni strategiche di business, esplorare le tendenze e gli scenari di rischio emergenti, rafforzare la resilienza e migliorare proattivamente i processi di rischio e controllo. Questi progressi potrebbero portare alla creazione di centri di intelligence sul rischio alimentati da AI e GenAI che servono tutte le linee di difesa (Lines of defense – LOD): business e operazioni, le funzioni di conformità e rischio, e audit.

Un tale centro fornirebbe report automatizzati, una maggiore trasparenza del rischio, un’efficienza superiore nel processo decisionale legato al rischio e un’automazione parziale nella redazione e nell’aggiornamento delle politiche e delle procedure per riflettere i cambiamenti nei requisiti normativi. Agirebbe come una fonte affidabile ed efficiente di informazioni, consentendo ai gestori del rischio di prendere decisioni informate rapidamente ed accuratamente.

Un esperto virtuale basato su GenAI

McKinsey, ad esempio, ha sviluppato un esperto virtuale basato su AI generativa che può fornire risposte personalizzate basate sulle informazioni proprietarie dell’azienda. Le funzioni di gestione del rischio delle banche e i loro stakeholder possono sviluppare strumenti simili che analizzano le transazioni con altre banche, potenziali segnali d’allarme, notizie di mercato, prezzi degli asset e altro ancora per influenzare le decisioni sul rischio. Questi esperti virtuali possono anche raccogliere dati e valutare le valutazioni del rischio climatico per rispondere alle domande delle controparti.

Infine, l’AI generativa potrebbe facilitare una migliore coordinazione tra il primo e il secondo LOD nell’organizzazione, mantenendo la struttura di governance su tutti e tre. Il miglioramento del coordinamento consentirebbe meccanismi di monitoraggio e controllo più efficaci, rafforzando così il quadro di gestione del rischio dell’organizzazione.

Applicazioni emergenti dell’AI generativa nel rischio e nella conformità

Tra le molte promettenti applicazioni dell’AI generativa per le istituzioni finanziarie, c’è un insieme di candidati che le banche stanno esplorando per una prima ondata di adozione: conformità normativa, crimine finanziario, rischio di credito, modellazione e analisi dei dati, rischio cybernetico e rischio climatico.

Nel complesso, McKinsey vede le applicazioni dell’AI generativa attraverso tre archetipi di casi d’uso.

  1. Attraverso un esperto virtuale, un utente può fare una domanda e ricevere una risposta sintetizzata generata da documenti a lunga forma e dati non strutturati.
  2. Con l’automazione dei processi manuali, l’AI generativa svolge compiti che richiedono molto tempo.
  3. Con l’accelerazione del codice, l’AI generativa aggiorna o traduce vecchi codici o scrive codici completamente nuovi.

Tutti questi archetipi possono avere ruoli nelle responsabilità chiave del rischio e della conformità:

Conformità normativa. Le imprese stanno utilizzando l’AI generativa come esperto virtuale in materia di regolamentazione e politiche, addestrandola a rispondere a domande su regolamenti, politiche aziendali e linee guida. La tecnologia può anche confrontare politiche, regolamenti e procedure operative. Come acceleratore di codice, può controllare il codice per disallineamenti e lacune nella conformità. Può automatizzare il controllo della conformità normativa e fornire avvisi per potenziali violazioni.

Crimine finanziario. L’AI generativa può generare rapporti su attività sospette basati su informazioni sui clienti e sulle transazioni. Può anche automatizzare la creazione e l’aggiornamento delle valutazioni del rischio dei clienti in base ai cambiamenti negli attributi del know-your-customer. Generando e migliorando il codice per rilevare attività sospette e analizzare le transazioni, la tecnologia può migliorare il monitoraggio delle transazioni.

Rischio di credito. Riassumendo le informazioni sui clienti (ad esempio, le transazioni con altre banche) per informare le decisioni di credito, l’AI generativa può aiutare ad accelerare il processo di credito end-to-end delle banche. A seguito di una decisione di credito, può redigere la nota di credito e il contratto. Le istituzioni finanziarie stanno utilizzando la tecnologia per generare rapporti sul rischio di credito ed estrarre intuizioni sui clienti dalle note di credito.

L’AI generativa può generare codice per reperire e analizzare i dati di credito per ottenere una visione dei profili di rischio dei clienti e generare stime della probabilità di default e perdita attraverso i modelli.

Modellazione e analisi dei dati. L’AI generativa può accelerare la migrazione di linguaggi di programmazione legacy, come il passaggio da SAS e COBOL a Python. Può anche automatizzare il monitoraggio delle prestazioni del modello e generare avvisi se le metriche cadono al di fuori dei livelli di tolleranza.

Le aziende stanno anche utilizzando l’AI generativa per redigere la documentazione del modello e i rapporti di validazione.

Rischio cybernetico. Controllando le vulnerabilità della sicurezza informatica, l’AI generativa può utilizzare il linguaggio naturale per generare codice per le regole di rilevamento e accelerare lo sviluppo del codice sicuro. Può essere utile nel “red teaming” (simulazione di strategie avversarie e test degli scenari di attacco). La tecnologia può anche fungere da esperto virtuale per indagare sui dati sulla sicurezza. Può rendere più intelligente il rilevamento del rischio velocizzando e aggregando intuizioni e tendenze sulla sicurezza dagli eventi sulla sicurezza e dalle anomalie comportamentali.

Rischio climatico. Come acceleratore del codice, l’AI generativa può suggerire frammenti di codice, facilitare i test unitari e assistere nella visualizzazione del rischio fisico con mappe ad alta risoluzione. Può automatizzare la raccolta di dati per le valutazioni del rischio di transizione della controparte e generare segnali di allarme anticipati basati su eventi trigger.

Come esperto virtuale, l’AI generativa può generare automaticamente rapporti su temi ambientali, sociali e di governance (ESG) e sezioni sulla sostenibilità dei rapporti annuali. Una volta che le aziende hanno integrato l’AI generativa in questi ruoli e funzioni, hanno visto una seconda ondata di casi d’uso emergenti in altri aspetti della gestione del rischio.

L’AI generativa può semplificare il rischio aziendale sintetizzando i riassunti della gestione del rischio aziendale dai dati e dai rapporti esistenti. Può aiutare ad accelerare il processo di valutazione dell’adeguatezza del capitale interno e modellare l’adeguatezza del capitale reperendo dati pertinenti. Le banche possono anche utilizzarla per riassumere le posizioni di rischio e redigere rapporti sul rischio e briefing esecutivi per la direzione.

Un altro settore in cui l’AI generativa può svolgere un ruolo importante è il rischio operativo. Le banche possono utilizzarla per l’automazione operativa dei controlli, del monitoraggio e del rilevamento degli incidenti. Può anche redigere automaticamente autovalutazioni del rischio e controllo o valutare quelle esistenti per la qualità.

Considerazioni chiave nell’adozione dell’AI generativa

Sebbene esistano diversi casi d’uso convincenti in cui l’AI generativa può fungere da propellente per la produttività, è fondamentale dare loro priorità per realizzare valore adottando la tecnologia in modo responsabile e sostenibile. Vediamo tre dimensioni critiche che i leader del rischio possono valutare per determinare la priorità dei casi d’uso e massimizzare l’impatto.

I Chief Risk Officer possono basare le loro decisioni su valutazioni qualitative e quantitative dell’impatto, del rischio e della fattibilità. Questo processo include l’allineamento con le visioni generali delle loro banche per l’AI generativa e le relative linee guida, la comprensione delle normative pertinenti (come il Regolamento UE sull’AI) e la valutazione della sensibilità dei dati. Tutti i leader devono essere consapevoli dei nuovi rischi associati a questa nuova tecnologia. Questi rischi possono essere suddivisi in otto categorie:

  1. Equità compromessa, quando l’output di un modello di AI generativa può essere intrinsecamente prevenuto contro un particolare gruppo di utenti.
  2. Violazione della proprietà intellettuale, come violazioni del copyright e incidenti di plagio, poiché i modelli di base sfruttano tipicamente i dati basati su Internet.
  3. Preoccupazioni sulla privacy, come la divulgazione pubblica non autorizzata di informazioni personali o sensibili.
  4. Uso malevolo, come la diffusione di contenuti falsi e l’utilizzo dell’AI generativa da parte dei criminali per creare false identità, orchestrare attacchi phishing o truffare i clienti
  5. Minacce alla sicurezza, quando le vulnerabilità all’interno dei sistemi di AI generativa possono essere violate o sfruttate.
  6. Rischi di performance e “spiegabilità”, come i modelli che forniscono risposte fattualmente errate e informazioni obsolete.
  7. Rischi strategici attraverso la non conformità con gli standard o i regolamenti ESG, creando rischi societari o reputazionali.
  8. Rischi di terze parti, come la fuga di dati proprietari al dominio pubblico attraverso l’uso di strumenti di terze parti.

Strategie vincenti per pianificare un percorso nell’AI generativa

Le organizzazioni che possono estrarre valore dall’AI generativa dovrebbero utilizzare un approccio focalizzato e dall’alto verso il basso per iniziare il viaggio. Data la scarsità di talenti per scalare le capacità dell’AI generativa, le organizzazioni dovrebbero iniziare con tre-cinque casi d’uso ad alta priorità nel rischio e nella conformità che si allineano con le loro priorità strategiche. Possono eseguire questi casi d’uso in tre-sei mesi, seguiti da una stima dell’impatto aziendale. La scalatura delle applicazioni richiederà lo sviluppo di un ecosistema di AI generativa che si concentra su sette aree:

  1. Un catalogo di servizi e soluzioni pronti per la produzione, riutilizzabili e basati su AI generativa (casi d’uso) che possono essere facilmente integrati in una serie di scenari aziendali e applicazioni lungo la catena del valore bancario.
  2. Uno stack tecnologico pronto per l’AI generativa e sicuro che supporta le implementazioni ibride cloud per abilitare il supporto per i dati non strutturati, l’incorporazione di vettori, l’addestramento del machine learning, l’esecuzione e il pre- e post-lancio.
  3. Integrazione con modelli di base e strumenti di livello aziendale per consentire una selezione adatta allo scopo e un’orchestrazione tra modelli aperti e proprietari.
  4. Automazione degli strumenti di supporto, inclusi MLOps (operazioni di machine learning), dati e pipeline di elaborazione, per accelerare lo sviluppo, il rilascio e la manutenzione delle soluzioni di AI generativa.
  5. Modelli di governance e talento che dispiegano prontamente competenze cross-funzionali abilitate a collaborare e scambiare conoscenze (come linguaggio, elaborazione del linguaggio naturale e apprendimento dal feedback umano, ingegneri dei prompt, esperti cloud, leader dei prodotti AI e esperti legali e normativi).
  6. Allineamento dei processi per la costruzione dell’AI generativa per supportare l’esperimentazione end-to-end rapida e sicura, la validazione e il dispiegamento delle soluzioni
  7. Una roadmap, dettagliando la tempistica per quando varie capacità e soluzioni saranno lanciate ed espanse che si allinea con la strategia aziendale più ampia dell’organizzazione In un momento in cui le aziende di tutti i settori stanno sperimentando l’AI generativa, le organizzazioni che non riescono a sfruttare il potenziale della tecnologia rischiano di rimanere indietro in termini di efficienza, creatività e coinvolgimento del cliente. All’inizio, le banche dovrebbero tenere presente che il passaggio dal pilota alla produzione richiede significativamente più tempo per l’AI generativa rispetto all’AI classica e al machine learning.

Nella selezione dei casi d’uso, le funzioni di rischio e conformità potrebbero essere tentate di utilizzare un approccio frammentato. Invece, dovrebbero allinearsi con la strategia e gli obiettivi dell’AI generativa dell’intera organizzazione. Perché l’adozione dell’AI generativa da parte dei gruppi di rischio e conformità sia efficace e responsabile, è fondamentale che questi gruppi comprendano la necessità di una nuova gestione del rischio e dei controlli, l’importanza delle esigenze dei dati e della tecnologia, e i nuovi requisiti del modello operativo e del talento.

Gestione del rischio e controlli

Con l’AI generativa è necessario un nuovo livello di gestione del rischio e controllo. Vincere responsabilmente richiede sia strategie difensive che offensive. Tutte le organizzazioni affrontano rischi in entrata dall’AI generativa, oltre ai rischi derivanti dallo sviluppo di casi d’uso dell’AI generativa e dall’integrazione dell’AI generativa negli strumenti standard di lavoro. Quindi le banche dovranno evolvere le loro capacità di mitigazione del rischio di conseguenza. La prima ondata si concentra fortemente sulle revisioni umane nel ciclo per garantire l’accuratezza delle risposte del modello. Utilizzare l’AI generativa per controllare se stessa, ad esempio attraverso citazioni di fonti e punteggi di rischio, può rendere le revisioni umane più efficienti. Alcune aziende stanno già mettendo l’AI generativa direttamente davanti ai loro clienti, spostando le linee guida dell’AI generativa in tempo reale e eliminando le revisioni umane nel ciclo. Per fare questo passo, i professionisti del rischio e della conformità possono lavorare con i membri del team di sviluppo per impostare le linee guida e creare controlli fin dall’inizio.

Le funzioni di rischio devono essere vigili per gestire i rischi dell’AI generativa a livello aziendale. Possono adempiere a tale obbligo seguendo i seguenti passaggi:

– Assicurarsi che tutti nell’organizzazione siano consapevoli dei rischi inerenti all’AI generativa, pubblicando cosa fare e cosa non fare e impostando linee guida sul rischio.

– Aggiornare i criteri di identificazione del modello e la politica sul rischio del modello (in linea con normative come il Regolamento UE sull’AI) per consentire l’identificazione e la classificazione dei modelli di AI generativa, e avere un quadro appropriato di valutazione del rischio e controllo in atto.

– Sviluppare esperti di rischio e conformità basati sull’intelligenza artificiale in grado di lavorare direttamente con i team di sviluppo in prima linea su nuovi prodotti e percorsi dei clienti.

– Riesaminare i controlli esistenti per la conoscenza del cliente, l’antiriciclaggio, le frodi e i controlli informatici per garantire che siano ancora efficaci in un mondo abilitato all’intelligenza artificiale.

Richieste di dati e tecnologia

Le banche non dovrebbero sottovalutare le richieste di dati e tecnologia relative a un sistema di intelligenza artificiale di ultima generazione, che richiede enormi quantità di entrambi. Perché? Innanzitutto, il processo di incorporazione del contesto è fondamentale per garantire l’accuratezza e la pertinenza dei risultati. Tale processo richiede l’inserimento di dati appropriati e la risoluzione di problemi di qualità dei dati. Inoltre, i dati a disposizione potrebbero essere insufficienti. Le organizzazioni potrebbero aver bisogno di creare o investire in set di dati etichettati per quantificare, misurare e monitorare le prestazioni delle applicazioni di intelligenza artificiale di generazione in base all’attività e all’utilizzo.

I dati costituiranno un vantaggio competitivo nell’estrazione di valore dalla GenAI. Un’organizzazione che cerca di automatizzare il coinvolgimento dei clienti utilizzando l’intelligenza artificiale di generazione deve disporre di dati aggiornati e accurati. Le organizzazioni con piattaforme di dati avanzate saranno le più efficaci nello sfruttare le capacità di intelligenza artificiale della generazione.

Requisiti di talento e modello operativo

Poiché la GenAI è una tecnologia di trasformazione che richiede un cambiamento organizzativo, le organizzazioni dovranno comprendere i relativi requisiti di talento. Le banche possono incorporare cambiamenti del modello operativo nella loro cultura e nei processi business-as-usual. Possono formare i nuovi utenti non solo su come utilizzare l’AI generativa , ma anche sui suoi limiti e punti di forza. Mettere insieme un team di “campioni della GenAI” può aiutare a modellare, costruire e scalare l’adozione di questa nuova tecnologia.

Articoli correlati

Articolo 1 di 4