NEWS

DeepMind: AlphaTensor è la prima AI per scoprire algoritmi di moltiplicazione delle matrici più veloci

Il sistema si basa su AlphaZero, un agente che ha mostrato prestazioni eccezionali in giochi da tavolo come scacchi e Go. Un passo importante nel percorso verso l’utilizzo dell’AI per la scoperta algoritmica

Pubblicato il 06 Ott 2022

AlphaTensor

L’intelligenza artificiale (AI) può creare i propri algoritmi per accelerare la moltiplicazione delle matrici, uno dei compiti fondamentali dell’apprendimento automatico? In un articolo pubblicato su Nature, DeepMind ha presentato AlphaTensor, il “primo sistema di intelligenza artificiale per scoprire algoritmi nuovi, efficienti e corretti in modo dimostrabile”. Il laboratorio di proprietà di Google ha detto che la ricerca “fa luce” su una domanda irrisolta da 50 anni in matematica sulla ricerca del modo più veloce per moltiplicare due matrici.

Da quando l’algoritmo di Strassen è stato pubblicato, nel 1969, l’informatica è stata alla ricerca di superare la sua velocità di moltiplicazione di due matrici. Mentre la moltiplicazione della matrice è una delle operazioni più semplici dell’algebra è anche uno dei compiti computazionali fondamentali e, a quanto pare, una delle operazioni matematiche fondamentali nelle reti neurali di oggi.

La moltiplicazione della matrice viene utilizzata per elaborare le immagini degli smartphone, comprendere i comandi vocali, generare computer grafica per giochi per computer, compressione dei dati e altro ancora. Oggi, le aziende utilizzano costosi hardware GPU per aumentare l’efficienza della moltiplicazione della matrice, quindi qualsiasi velocità extra sarebbe rivoluzionaria in termini di riduzione dei costi e risparmio energetico.

AlphaTensor, secondo un post sul blog di DeepMind, si basa su AlphaZero, un agente che ha mostrato prestazioni eccezionali in giochi da tavolo come scacchi e Go. Questo nuovo lavoro porta avanti il viaggio di AlphaZero, passando dal giocare ad affrontare problemi matematici irrisolti.

DeepMind utilizza l’intelligenza artificiale per migliorare l’informatica

Questa ricerca approfondisce come l’intelligenza artificiale potrebbe essere utilizzata per migliorare l’informatica stessa, ha affermato Pushmeet Kohli, capo dell’intelligenza artificiale per la scienza presso DeepMind, in una conferenza stampa.

“Se siamo in grado di utilizzare l’intelligenza artificiale per trovare nuovi algoritmi per compiti computazionali fondamentali, questo ha un enorme potenziale perché potremmo essere in grado di andare oltre gli algoritmi attualmente utilizzati, il che potrebbe portare a una maggiore efficienza”, ha affermato Kohli.

Questo è un compito particolarmente impegnativo, ha spiegato, perché il processo di scoperta di nuovi algoritmi è così difficile, e automatizzare la scoperta algoritmica usando l’intelligenza artificiale richiede un processo di ragionamento lungo e difficile – dalla formazione dell’intuizione sul problema algoritmico alla scrittura effettiva di un nuovo algoritmo e alla dimostrazione che l’algoritmo è corretto su istanze specifiche. “Questa è una serie di passaggi difficili e l’AI non è stata molto brava finora in questo”, ha detto Kohli.

Come funziona AlphaTensor

DeepMind ha accettato la sfida della moltiplicazione della matrice perché è un problema noto nel calcolo. “È anche un problema molto intrigante e sbalorditivo perché la moltiplicazione della matrice è qualcosa che impariamo al liceo”, ha detto Kholi. “È un’operazione estremamente semplice, ma al momento non conosciamo il modo migliore per moltiplicare effettivamente questi due insiemi di numeri. Quindi è estremamente stimolante per noi anche come ricercatori iniziare a capirlo meglio”.

Secondo DeepMind, AlphaTensor ha scoperto algoritmi che sono più efficienti dello stato dell’arte per molte dimensioni di matrice e superano quelle progettate dall’uomo.

AlphaTensor inizia senza alcuna conoscenza del problema, ha spiegato Kohli, e poi gradualmente impara cosa sta succedendo e migliora nel tempo. “Prima trova questo algoritmo di classe che ci è stato insegnato, e poi trova algoritmi storici come quello di Strassen e poi, a un certo punto, li supera e scopre algoritmi completamente nuovi che sono più veloci di prima”.

Kohli ha detto che spera che questo documento ispiri gli altri nell’uso dell’intelligenza artificiale per guidare la scoperta algoritmica per altri compiti fondamentali della competizione. “Pensiamo che questo sia un passo importante nel nostro percorso verso l’utilizzo reale dell’intelligenza artificiale per la scoperta algoritmica”, ha affermato.

AlphaTensor di DeepMind utilizza AlphaZero

Secondo Thomas Hubert, ingegnere di ricerca dello staff di DeepMind, è davvero AlphaZero che gira dietro le quinte di AlphaTensor come gioco per giocatore singolo. “È lo stesso algoritmo che ha imparato a giocare a scacchi che è stato applicato qui per la moltiplicazione delle matrici, ma che doveva essere esteso per gestire questo spazio infinitamente grande – ma molti dei componenti sono gli stessi”, ha detto Hubert.

In effetti, secondo DeepMind, questo gioco è così impegnativo che “il numero di possibili algoritmi da considerare è molto maggiore del numero di atomi nell’universo, anche per piccoli casi di moltiplicazione della matrice”. Rispetto a Go, che è stata una sfida AI per decenni, il numero di mosse possibili è di 30 ordini di grandezza più grande.

“Il gioco consiste fondamentalmente nell’azzerare il tensore, con alcune mosse consentite che in realtà rappresentano alcune operazioni algoritmiche”, ha spiegato. “Questo ci dà due risultati molto importanti: uno è che se riesci a scomporre perfettamente lo zero dal tensore, allora hai la garanzia di avere un algoritmo corretto in modo dimostrabile. In secondo luogo, il numero di passaggi necessari per scomporre questo tensore ti dà effettivamente la complessità dell’algoritmo. Quindi è molto, molto pulito.”

L’articolo di DeepMind ha anche sottolineato che AlphaTensor scopre uno spazio più ricco di algoritmi di moltiplicazione delle matrici di quanto si pensasse in precedenza, fino a migliaia per ogni dimensione.

Secondo il post sul blog, gli autori hanno affermato di aver adattato AlphaTensor per trovare specificamente algoritmi veloci su un determinato hardware, come la GPU Nvidia V100 e Google TPU v2. Questi algoritmi moltiplicano matrici di grandi dimensioni il 10-20% più velocemente rispetto agli algoritmi comunemente usati sullo stesso hardware, il che mostra la flessibilità di AlphaTensor nell’ottimizzare obiettivi arbitrari”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati