Il 30 ottobre 2023 i leader del G7 hanno raggiunto un accordo sui principi guida internazionali in materia di intelligenza artificiale (IA) e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo Hiroshima AI.
In una dichiarazione, la Commissione europea, che ha contribuito alla loro elaborazione, ha accolto favorevolmente l’accordo, specificando che i principi e il codice di condotta integreranno, a livello internazionale, le norme giuridicamente vincolanti stabilite nella legge dell’UE sull’IA, attualmente in fase di finalizzazione.
Gli undici principi guida, che insieme al codice di condotta saranno rivisti e aggiornati se necessario, forniscono indicazioni alle organizzazioni che sviluppano, distribuiscono e utilizzano sistemi avanzati di IA, come i foundation model e l’AI generativa, per promuovere la sicurezza e l’affidabilità della tecnologia.
Gli impegni previsti dai principi guida internazionali
Tra gli impegni, vi è quello di ridurre i rischi e l’uso improprio e di identificare le vulnerabilità, di incoraggiare la condivisione responsabile delle informazioni, la segnalazione degli incidenti e l’investimento nella sicurezza informatica, nonché un sistema di etichettatura che consenta agli utenti di identificare i contenuti generati dall’AI.
Questi principi, basati sui risultati di un’indagine condotta tra le parti interessate, sono serviti a loro volta come base per la stesura del codice di condotta volontario, che fornirà una guida dettagliata e pratica alle organizzazioni che sviluppano l’AI. Il codice di condotta promuoverà inoltre una governance responsabile dell’AI a livello globale.
Von der Leyen: “Invito gli sviluppatori di IA a firmare e attuare questo Codice di condotta il prima possibile”
La presidente della Commissione europea, Ursula von der Leyen, tra i firmatari della dichiarazione dei leader del G7 rilasciata dalla presidenza giapponese del G7 per il 2023, ha dichiarato che i principi guida e il codice di condotta volontario “riflettono i valori dell’UE per promuovere un’IA affidabile”.
“Invito gli sviluppatori di IA a firmare e attuare questo Codice di condotta il prima possibile”, ha proseguito, sottolineando come l’UE sia “già all’avanguardia dal punto di vista normativo con la legge sull’IA” e stia “contribuendo anche a creare guardrail e governance dell’IA a livello globale”.
Cos’è il G7 Hiroshima Artificial Intelligence Process
Il G7 Hiroshima Artificial Intelligence Process è stato istituito in occasione del Vertice del G7 del 19 maggio 2023 per promuovere dei guardrail per i sistemi avanzati di AI a livello globale. L’iniziativa si inserisce in una più ampia gamma di discussioni internazionali sui guardrail per l’AI, anche in seno all’OCSE, al Partenariato globale sull’intelligenza artificiale (GPAI) e nel contesto del Consiglio per il commercio e la tecnologia UE-USA e dei Partenariati digitali dell’UE.
Il quadro politico globale del processo di Hiroshima è costituito da quattro pilastri:
- analisi dei rischi, delle sfide e delle opportunità prioritarie dell’AI generativa,
- principi guida internazionali del processo di Hiroshima per tutti gli attori nell’ecosistema dell’IA;
- Codice internazionale di condotta del processo di Hiroshima per le organizzazioni che sviluppano sistemi avanzati di AI,
- cooperazione basata su progetti a sostegno dello sviluppo di strumenti e migliori pratiche di AI responsabili.
La Dichiarazione dei leader del G7 sul processo di Hiroshima per l’IA
Nella Dichiarazione dei leader del G7 sul processo di Hiroshima per l’AI si legge, fra l’altro: “Chiediamo alle organizzazioni che sviluppano sistemi avanzati di IA di impegnarsi nell’applicazione del Codice di condotta internazionale. Diamo istruzioni ai ministri competenti di accelerare il processo verso lo sviluppo dell’Hiroshima AI Process Comprehensive Policy Framework, che include la cooperazione basata su progetti, entro la fine di quest’anno, in collaborazione con il Partenariato globale per l’intelligenza artificiale (GPAI) e l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), e di condurre attività di sensibilizzazione e consultazione multi-stakeholder, anche con i governi, il mondo accademico, la società civile e il settore privato, non solo quelli del G7 ma anche quelli delle economie future, comprese le economie emergenti e in via di sviluppo. Chiediamo inoltre ai ministri competenti di sviluppare un piano di lavoro entro la fine dell’anno per far progredire ulteriormente il processo di Hiroshima sull’IA”.
Il documento si conclude così: “Riteniamo che i nostri sforzi congiunti attraverso il processo di Hiroshima sull’IA promuoveranno un ambiente aperto e abilitante in cui i sistemi di IA sicuri, protetti e affidabili siano progettati, sviluppati, implementati e utilizzati per massimizzare i benefici della tecnologia mitigarne i rischi, per il bene comune in tutto il mondo, comprese le economie emergenti e in via di sviluppo, al fine di colmare i divari digitali e raggiungere l’inclusione digitale. Attendiamo con impazienza anche l’AI Safety Summit del Regno Unito l’1 e il 2 novembre”.