La Retrieval Augmented Generation (RAG) gioca un ruolo potenzialmente dirompente nel portare valore aggiunto a costi sostenibili, valorizzando il patrimonio informativo aziendale in modi fino ad oggi ancora molto complessi e onerosi.
Il contesto aziendale
Spesso le aziende accumulano enormi quantità di informazioni legate al proprio business, ma fanno fatica a riutilizzarle per rendere migliori e più efficienti i propri task e i servizi che offrono. Nel panorama delle applicazioni dei LLM (Large Language Models) un trend emergente è quello di rendere le knowledge base aziendali sempre più azionabili, oltre che supportare la creazione di contenuti per le aziende che lo fanno per core business. Dal poter azionare informazioni tecniche al migliorare i servizi ai clienti, dal poter avere suggerimenti a problemi nell’operatività al rendere consultabili velocemente testi, referti, atti e documenti legali e finanziari: lo spettro dei settori in cui recuperare valore spendibile, grazie a queste tecnologie, è estremamente ampio.
Cos’è la Retrieval Augmented Generation (RAG) e come funziona
La Retrieval Augmented Generation (RAG) rappresenta una tecnica innovativa nell’ambito dell’utilizzo dei Large Language Models. Questo framework combina la forza dei modelli linguistici di grandi dimensioni (LLMs) con fonti di conoscenza specifiche, con l’obiettivo principale di migliorare la qualità delle risposte fornite dagli algoritmi e di aderire maggiormente ai casi d’uso.
La RAG opera attraverso due fasi distintive: recupero e generazione. Nella fase di recupero, gli algoritmi cercano informazioni pertinenti alla domanda dell’utente da basi di conoscenza decise dedicate al problema. Una volta ottenute queste informazioni, si passa alla fase di generazione, durante la quale le informazioni recuperate vengono utilizzate per arricchire e migliorare la risposta finale fornita dall’LLM.
I vantaggi della RAG nei sistemi LLMs
I benefici di utilizzare la RAG in combinazione con gli LLMs sono molteplici. Oltre a migliorare la qualità delle risposte, RAG permette di superare tre limiti fondamentali dei modelli fondativi:
- Limite di aggiornamento delle informazioni: le informazioni su cui ha appreso un LLM non contengono informazioni recenti; questo è un limite che potrà essere sempre più spostato, ma anche se si arrivasse a dei modelli che si aggiornano frequentemente, difficilmente potranno essere aggiornati su tutto, considerando anche il carattere estensivo che un modello generalista ha come scopo.
- Limite di informazioni non pubbliche: la specificità dei modelli LLMs è quella di essere addestrati su informazioni web pubbliche, o comunque raggiungibili. La parte di retrieval augmentation della RAG invece permette di introdurre basi informative private, specifiche, tipicamente all’interno di knowledge base non disponibili al grande pubblico del web. Questo permette di avere risposte provenienti da contesti specifici e dedicati agli obiettivi.
- Limite della genericità e rischio di allucinazioni: è molto difficile controllare le risposte fornite da un modello fondativo, sia in termini di veridicità sia di aderenza alla domanda. La RAG permette di dare risposte pertinenti, basate su fonti certe che possono anche essere consultabili per un check da parte del fruitore.
I vantaggi economici e commerciali
Per un’azienda che vende servizi di AI, la RAG rappresenta inoltre un’opportunità golosa in quanto in generale è più efficiente, rispetto ad altri approcci come il fine tuning, e incarna una vera e propria value proposition, di cui è semplice mostrare il potenziale e il ritorno di investimento. In tutti i numerosi settori a cui si può applicare, questa tecnologia può aumentare la produttività in modo esponenziale non soltanto per la rapidità di accesso, ma anche per velocizzare la creazione di contenuti di alta qualità (con dei limiti alla creatività, vedi sotto).
Inoltre, può essere predisposta come supporto, talvolta persino live, nello svolgimento di moltissime attività specializzate, fungendo da vero e proprio oracolo esperto. Infine, la versatilità rispetto alle fonti da cui si può approvvigionare predispone a un’infinità di casi d’uso nei contesti più vari.
Esistono tuttavia anche alcuni elementi di attenzione in questo approccio, di cui tener conto:
- Mantenere un corpus di documenti può diventare oneroso e possono insorgere dei problemi di latenza nelle ricerche
- La limitatezza delle fonti potrebbe portare a non avere risposte alle ricerche o peggio reintrodurre informazioni non corrette
- Maggiore complessità di implementazione rispetto a fine tuning, per dover gestire le due componenti di retrieval e generation
- Il prezzo per la puntualità e precisione delle informazioni fornite può limitare seriamente la capacità creativa di nuovi contenuti
Riconoscimento e potenziale della Retrieval Augmented Generation
Nel panorama dell’intelligenza artificiale, la RAG si sta affermando come uno strumento fondamentale. Essa è sempre più adottata per migliorare l’efficacia dei sistemi basati su AI generativa, apprezzandone in particolare la capacità di fornire informazioni aggiornate e la trasparenza nelle citazioni delle fonti. Tuttavia, l’utilizzo di queste tecniche in contesti ad alto rischio deve essere sempre sottoposto a un’attenta valutazione.