Microsoft, Amazon, IBM, Meta, Anthropic, xAI, OpenAI e altre nove aziende, si sono impegnate a pubblicare misure di sicurezza per i modelli di AI e a divulgare pubblicamente i rischi posti dai loro modelli. Durante l’AI Seoul Summit, svoltosi in Corea il 21 e 22 maggio 2024,16 aziende hi-tech hanno concordato di pubblicare quadri di sicurezza su come stanno misurando i rischi dell’AI durante la costruzione dei modelli. Nel corso del Summit si è tenuto anche l’AI Global Forum. Tutte le aziende hanno concordato di non sviluppare o implementare un modello AI se i rischi che esso comporta non possono essere controllati o mitigati.
L’impegno sui foundation model, o “di frontiera”
L’impegno riguarda i foundation model, o “di frontiera” – solitamente un sistema multimodale in grado di gestire immagini, testi e altri input. Tra i firmatari figurano anche Samsung, l’Istituto per l’Innovazione Tecnologica con sede a Dubai e il provider internet coreano Naver.
Zhipu AI, la startup che sta costruendo la risposta cinese a ChatGPT, è tra le aziende che hanno firmato gli impegni sviluppati dai governi britannico e coreano.
“Siamo fiduciosi che gli Impegni per la Sicurezza dell’AI di frontiera si affermeranno come una best practice nell’ecosistema globale dell’industria AI e speriamo che le aziende continueranno i dialoghi con i governi, l’accademia e la società civile e costruiranno reti di cooperazione con l’Istituto per la sicurezza dell’AI in futuro”, ha dichiarato Lee Jong Ho, ministro coreano della scienza e delle tecnologie dell’informazione e della comunicazione. Ogni azienda che ha aderito agli impegni esporrà pubblicamente il livello di rischio dei suoi modelli fondamentali e cosa intende fare per garantire che siano sicuri per l’implementazione.
I firmatari dovranno pubblicare i loro risultati prima del prossimo summit sulla sicurezza dell’AI, che si terrà in Francia all’inizio del 2025.
Gli impegni sulla sicurezza sono basati sulla dichiarazione di Bletchley
“Questi impegni garantiscono che le principali aziende di AI del mondo forniranno trasparenza e responsabilità sui loro piani per sviluppare un’AI sicura”, ha detto il primo ministro britannico Rishi Sunak. Gli impegni sono basati sull’accordo di Bletchley firmato al primo Summit sulla Sicurezza dell’AI nel novembre 2023, che classifica e categorizza i rischi AI.
L’impegno delle aziende tecnologiche è ben accetto, secondo Beatriz Sanz Saiz, leader globale dei dati di consulenza e AI di EY. “Fornire trasparenza e responsabilità è essenziale nello sviluppo e nell’implementazione di un’AI affidabile”, ha detto Saiz. “Sebbene l’AI abbia un enorme potenziale per le aziende e gli individui, questo potenziale può essere sfruttato solo attraverso un approccio coscienzioso ed etico al suo sviluppo”.
“Le aziende che utilizzano l’AI dovrebbero dare priorità alle considerazioni etiche e alle pratiche responsabili dei dati al fine di costruire la fiducia del cliente”, ha detto Sachin Agrawal, direttore generale di Zoho U.K. “Adottare le giuste procedure AI potrebbe significare andare oltre le attuali normative sulla privacy e considerare ciò che è più etico per bilanciare i benefici dell’IA senza compromettere i dati dei clienti e garantire che tutte le pratiche siano completamente trasparenti”.
Impegni da accompagnare con la regolamentazione
Yoshua Bengio, considerato uno dei “padri dell’AI”, ha accolto con favore gli impegni, ma ha osservato che gli impegni volontari dovrebbero essere accompagnati da una regolamentazione.
Da novembre, la discussione sulla regolamentazione dell’AI si è spostata da scenari apocalittici a lungo termine a preoccupazioni più pratiche, come ad esempio come utilizzare l’AI in settori come la medicina o la finanza, ha affermato Aidan Gomez, co-fondatore della grande società di modelli linguistici Cohere, a margine del vertice.
All’incontro hanno partecipato Elon Musk di Tesla, l’ex CEO di Google Eric Schmidt, il presidente di Samsung Electronics Jay Y. Lee e altri leader del settore dell’intelligenza artificiale.