AI generativa

Nasce il Frontier Model Forum, obiettivo: controllare i rischi dell’AI

A fondarlo sono state Anthropic, Google, Microsoft e OpenAI. La missione ufficiale del forum è identificare le migliori pratiche per l’applicazione dell’AI senza rischi, ma alcune voci critiche sostengono che con questa mossa le quattro big tech vogliano eludere la regolamentazione

Pubblicato il 27 Lug 2023

Immagine Microsoft

Quattro delle aziende di intelligenza artificiale più avanzate al mondo, Anthropic, Google, Microsoft e OpenAI, hanno formato un gruppo di ricerca per un’intelligenza artificiale sempre più potente e per stabilire le migliori pratiche per controllarla. Mercoledì 26 luglio, le quattro big tech hanno lanciato il Frontier Model Forum, con l’obiettivo di “garantire uno sviluppo sicuro e responsabile dei modelli di AI di frontiera”. La decisione scaturisce, probabilmente, dalle richieste dell’opinione pubblica di un controllo normativo sull’impatto della tecnologia.

Cosa farà il Frontier Model Forum

Secondo quanto riportato sul blog di OpenAI, i governi e l’industria concordano sul fatto che, sebbene l’AI offra un’enorme promessa di benefici per il mondo, sono necessarie adeguate protezioni per mitigare i rischi. I governi degli Stati Uniti e del Regno Unito, l’Unione Europea, l’OCSE, il G7 (attraverso il processo di Hiroshima AI) e altri hanno già dato un contributo importante a questi sforzi.

Per proseguire questi sforzi, è necessario lavorare ulteriormente sugli standard di sicurezza e sulle valutazioni per garantire che i modelli di AI di frontiera siano sviluppati e utilizzati in modo responsabile. Il Forum sarà un veicolo per discussioni e azioni inter-organizzative sulla sicurezza e la responsabilità dell’AI. 

Kent Walker, Presidente degli Affari globali di Google e Alphabet, ha dichiarato: “Siamo entusiasti di collaborare con altre aziende leader, condividendo le competenze tecniche per promuovere un’innovazione responsabile dell’IA. Dovremo lavorare tutti insieme per far sì che l’IA porti benefici a tutti”.

Tre aree chiave nel 2024

Nel corso del prossimo anno il Forum si concentrerà su tre aree chiave per sostenere lo sviluppo sicuro e responsabile dei modelli di IA di frontiera:

  1. Identificare le migliori pratiche: promuovere la condivisione delle conoscenze e delle migliori pratiche tra l’industria, i governi, la società civile e il mondo accademico, con particolare attenzione agli standard e alle pratiche di sicurezza per mitigare un’ampia gamma di rischi potenziali.
  2. Promuovere la ricerca sulla sicurezza dell’AI: sostenere l’ecosistema della sicurezza delle AI identificando le più importanti questioni di ricerca aperte sulla sicurezza delle AI. Il Forum coordinerà la ricerca per far progredire questi sforzi in aree quali la robustezza avversaria, l’interpretabilità meccanicistica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e il rilevamento delle anomalie. Inizialmente ci si concentrerà sullo sviluppo e sulla condivisione di una biblioteca pubblica di valutazioni tecniche e benchmark per i modelli di IA di frontiera.
  3. Facilitare la condivisione delle informazioni tra aziende e governi: stabilire meccanismi affidabili e sicuri per la condivisione di informazioni tra le aziende, i governi e le parti interessate in merito alla sicurezza e ai rischi dell’AI. Il Forum seguirà le migliori pratiche di divulgazione responsabile in settori quali la sicurezza informatica.

Come funzionerà il Frontier Model Forum

OpenAi scrive che nei prossimi mesi, il Frontier Model Forum istituirà un comitato consultivo per guidare la sua strategia e le sue priorità, rappresentando una diversità di background e di prospettive.

Le società fondatrici stabiliranno anche i principali accordi istituzionali, tra cui uno statuto, la governance e i finanziamenti, con un gruppo di lavoro e un comitato esecutivo che guideranno questi sforzi. Nelle prossime settimane intendiamo consultarci con la società civile e i governi sulla struttura del Forum e sui modi più significativi per collaborare.

Il Frontier Model Forum accoglie con favore l’opportunità di contribuire a sostenere e alimentare le iniziative governative e multilaterali esistenti, come il processo di Hiroshima del G7, il lavoro dell’OCSE sui rischi, gli standard e l’impatto sociale dell’IA e il Consiglio per il commercio e la tecnologia USA-UE.

Il Forum cercherà inoltre di sfruttare il prezioso lavoro delle iniziative esistenti dell’industria, della società civile e della ricerca in ciascuno dei suoi workstream. Iniziative come la Partnership on AI e MLCommons continuano a fornire importanti contributi alla comunità dell’AI e il Forum esplorerà i modi per collaborare e sostenere queste e altre preziose iniziative multi-stakeholder.

Anna Makanju, vicepresidente degli Affari globali di OpenAI, ha dichiarato: “Le tecnologie avanzate di AI hanno il potenziale per beneficiare profondamente la società, e la capacità di realizzare questo potenziale richiede supervisione e governance. È fondamentale che le aziende di AI – specialmente quelle che lavorano sui modelli più potenti – si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili per garantire che i potenti strumenti di AI abbiano il più ampio beneficio possibile. Si tratta di un lavoro urgente e questo forum è ben posizionato per agire rapidamente per far progredire lo stato della sicurezza dell’AI”.

L’escalation dell’AI degli ultimi mesi

Negli ultimi mesi, le aziende statunitensi hanno lanciato strumenti di intelligenza artificiale sempre più potenti che producono contenuti originali in forma di immagini, testi o video attingendo alla enorme banca informazioni esistente. Questi sviluppi hanno sollevato preoccupazioni per la violazione del copyright e della privacy e per il fatto che l’AI potrebbe, in ultima analisi, sostituire gli esseri umani in una serie di lavori.

“Le aziende che creano tecnologie di AI hanno la responsabilità di garantire che siano sicure e che rimangano sotto il controllo umano”, ha dichiarato al Financial Times Brad Smith, vicepresidente e presidente di Microsoft. “Questa iniziativa è un passo fondamentale per unire il settore tecnologico nell’avanzamento dell’AI in modo responsabile e nell’affrontare le sfide che ne derivano a beneficio di tutta l’umanità”.

Secondo i fondatori, l’adesione al forum è limitata a poche aziende che stanno costruendo “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli più avanzati esistenti”.

Ciò suggerisce che il lavoro del forum si concentrerà sui rischi potenziali derivanti da un’AI notevolmente più potente, invece di rispondere alle domande sul copyright, sulla protezione dei dati e sulla privacy che sono oggi di pertinenza delle autorità di regolamentazione.

Il Frontier Model Forum avrà lo scopo di promuovere la ricerca sulla sicurezza e di fornire un canale di comunicazione tra l’industria e i responsabili politici.

Dario Amodei, CEO di Anthropic, ha dichiarato: “Anthropic crede che l’AI abbia il potenziale per cambiare radicalmente il funzionamento del mondo. Siamo entusiasti di collaborare con l’industria, la società civile, il governo e il mondo accademico per promuovere uno sviluppo sicuro e responsabile della tecnologia. Il Frontier Model Forum svolgerà un ruolo fondamentale nel coordinare le migliori pratiche e condividere la ricerca sulla sicurezza dell’AI di frontiera”

Gruppi simili sono già stati istituiti in passato. La Partnership on AI, di cui anche Google e Microsoft sono stati membri fondatori, è stata costituita nel 2016 con un numero di membri provenienti dalla società civile, dal mondo accademico e dall’industria e con la missione di promuovere l’uso responsabile dell’AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2