Innovazione

Cosa c’è dietro il funzionamento dei modelli di AI? DeepMind cerca di spiegarlo



Indirizzo copiato

Strumenti come Gemma Scope e sparse autoencoder permettono agli scienziati di esplorare e comprendere il funzionamento interno dei modelli, garantendo trasparenza e affidabilità nelle decisioni

Pubblicato il 18 nov 2024



Gemma Scope

L’interpretazione dei modelli di intelligenza artificiale sta emergendo come uno degli aspetti più critici per il futuro dello sviluppo tecnologico. Mentre l’adozione dell’AI continua a crescere a ritmi esponenziali in vari settori, la comprensione di come queste macchine prendono le loro decisioni diventa imperativa per garantire trasparenza e fiducia. Strumenti come Gemma Scope di Google DeepMind si stanno rivelando fondamentali in questo contesto, offrendo agli scienziati e ai tecnologi una finestra sul funzionamento interno dei modelli AI.

L’uso di tecniche avanzate, quali gli autoencoder sparsi (sparse autoencoder), permette agli esperti di esplorare e interpretare grandi volumi di dati con una precisione senza precedenti. La collaborazione nel campo dell’open source gioca un ruolo cruciale nel promuovere un ambiente di ricerca inclusivo e innovativo, essenziale per affrontare le nuove sfide poste dall’interpretazione avanzata dei modelli AI.

Gemma Scope

Gemma Scope: uno strumento per comprendere i modelli AI

Gemma Scope, introdotto da Google DeepMind, si configura come uno strumento essenziale per gli scienziati che desiderano esplorare le dinamiche interne dei modelli di intelligenza artificiale. Attraverso l’utilizzo di autoencoder sparsi, Gemma Scope permette di visualizzare come specifiche categorie di dati vengono elaborate e trasformate nelle varie fasi di elaborazione del modello. Questa capacità di ispezione dettagliata facilita enormemente il compito di individuare eventuali errori di logica o bias non intenzionali, garantendo così che i modelli AI lavorino in maniera più affidabile e conforme agli standard etici richiesti nelle applicazioni reali.

Autoencoder sparsi: una lente di ingrandimento sui dati

Gli autoencoder sparsi rappresentano una tecnologia rivoluzionaria per analizzare e interpretare vasti set di dati in maniera efficiente e dettagliata. Operando come microscopi che isolano e ingrandiscono particolari caratteristiche dei dati all’interno delle reti neurali, questi strumenti sono fondamentali per identificare le rappresentazioni più rilevanti e significative. Questa capacità di focalizzazione aiuta i ricercatori a comprendere meglio come le AI elaborano e reagiscono a specifici input, fornendo così intuizioni cruciali che possono guidare l’ottimizzazione dei modelli verso prestazioni sempre più accurate e imparziali.

Si può pensare agli sparse autoencoder come a un microscopio che ingrandisce i livelli e permette di osservarne i dettagli. Per esempio, se chiedete a Gemma di parlare di un chihuahua, si attiverà la funzione “cani”, illuminando ciò che il modello sa sui “cani”.

Il motivo del termine “sparse”, sparsi, è che limita il numero di neuroni utilizzati, spingendo fondamentalmente per una rappresentazione più efficiente e generalizzata dei dati.
La parte difficile degli autoencoder sparsi è decidere quanto granulare si vuole ottenere. Pensate di nuovo al microscopio: si può ingrandire qualcosa fino a un grado estremo, ma ciò potrebbe rendere impossibile l’interpretazione di ciò che si sta guardando per un essere umano. Ma se si ingrandisce troppo, si rischia di limitare le cose interessanti che si possono vedere e scoprire.
La soluzione di DeepMind è stata quella di eseguire autoencoder sparsi di diverse dimensioni, variando il numero di caratteristiche che l’autoencoder deve trovare. L’obiettivo non era che i ricercatori di DeepMind analizzassero a fondo i risultati da soli. Gemma e gli autoencoder sono open-source, quindi questo progetto mirava più che altro a stimolare i ricercatori interessati a esaminare i risultati degli autoencoder sparsi e, auspicabilmente, a fare nuovi approfondimenti sulla logica interna del modello. Poiché DeepMind ha eseguito gli autoencoder su ogni livello del modello, un ricercatore ha potuto mappare la progressione dall’input all’output a un livello mai visto prima.

Gemma Scope: collaborazioni e open source per la ricerca sull’interpretabilità

L’apertura del codice sorgente degli strumenti come Gemma Scope rappresenta una strategia inclusiva che stimola la collaborazione globale tra ricercatori. Questo approccio democratizza l’accesso agli avanzamenti tecnologici e incoraggia una varietà di prospettive nell’esaminare e migliorare le funzionalità AI. Le collaborazioni tra istituti di ricerca e aziende leader nel settore, come quella tra DeepMind e Neuronpedia, accelerano il progresso nel campo dell’interpretabilità meccanistica, promuovendo un ambiente fertile per l’innovazione continua e condivisa.

Neuronpedia, una piattaforma per l’interpretabilità meccanicistica, ha collaborato con DeepMind a luglio per creare una demo di Gemma Scope. Nella demo è possibile testare diversi prompt e vedere come il modello scompone il prompt e quali attivazioni si accendono. Si può anche giocare con il modello. Per esempio, se si alza di molto la funzione relativa ai cani e poi si pone al modello una domanda sui presidenti degli Stati Uniti, Gemma troverà il modo di inserire un’espressione casuale sui cani, oppure il modello inizierà ad abbaiare…

Una cosa interessante degli autoencoder sparsi è che non sono supervisionati, cioè trovano le caratteristiche da soli. Questo porta a scoperte sorprendenti sul modo in cui i modelli decompongono i concetti umani. “La mia caratteristica preferita è la caratteristica ‘cringe‘”, dice Joseph Bloom, responsabile scientifico di Neuronpedia. “Sembra che appaia nelle critiche negative a testi e film. È un ottimo esempio di tracciamento di cose che sono così umane a un certo livello”.

Perché ChatGPT non dà informazioni su come costruire una bomba

Esistono anche altre potenziali applicazioni. Attualmente, un prompt a livello di sistema è integrato negli LLM per gestire situazioni come quella degli utenti che chiedono come costruire una bomba. Quando si pone una domanda a ChatGPT, il modello viene prima sollecitato segretamente da OpenAI ad astenersi dal dire come costruire bombe o fare altre cose nefaste. Tuttavia, è facile per gli utenti fare il jailbreak dei modelli di AI con suggerimenti intelligenti, aggirando qualsiasi restrizione.

Se i creatori dei modelli sono in grado di vedere in quale punto dell’AI si trova la conoscenza della costruzione di bombe, possono teoricamente disattivare quei nodi in modo permanente. In questo modo, anche la richiesta più intelligente non potrebbe dare una risposta su come costruire una bomba, perché l’AI non avrebbe letteralmente alcuna informazione su come costruire una bomba nel suo sistema.

Nuove frontiere e sfide nell’interpretazione dei modelli AI

Mentre la meccanicistica interpretativa continua a evolversi, emergono nuove sfide che richiedono soluzioni innovative. La comprensione profonda del funzionamento interno dei modelli AI solleva questioni complesse relative all’equilibrio tra dettaglio granulare e capacità interpretativa umana. Ogni progresso nel settore porta alla luce limitazioni che stimolano ulteriori ricerche, spingendo gli scienziati a rifinire continuamente le tecniche esistenti o a inventarne di nuove. Inoltre, mentre ci avviciniamo a comprendere meglio le “menti” delle macchine, dobbiamo anche navigare le implicazioni etiche che emergono dall’utilizzo sempre più pervasivo dell’AI nelle nostre vite quotidiane.

Nel panorama attuale dell’intelligenza artificiale, l’interpretazione dei modelli non è soltanto una necessità accademica, ma una vera e propria esigenza pratica che permea diversi settori industriali e di ricerca. Strumenti come Gemma Scope e le tecniche basate su autoencoder sparsi rappresentano pietre miliari nell’avanzamento di questa disciplina, permettendo agli esperti di scrutare con maggiore dettaglio nelle “scatole nere” che sono i modelli AI.

L’adozione di approcci open source e la promozione di collaborazioni interdisciplinari non fanno altro che accelerare questo processo, democratizzando la conoscenza e spingendo verso nuove frontiere del sapere. Di fronte a queste sfide, il compito della comunità scientifica e tecnologica è quello di continuare a esplorare con rigoroso impegno critico, assicurando che l’evoluzione dell’AI sia guidata non solo dall’innovazione, ma anche da un solido principio di trasparenza e comprensibilità.

Articoli correlati

Articolo 1 di 4