Mentre l’Europa marcia compatta nel percorso di regole standard sull’intelligenza artificiale per tutti gli Stati membri, gli Stati Uniti sembrano procedere in ordine sparso. Lo stato della California ha appena introdotto linee guida sull’utilizzo delle tecnologie di intelligenza artificiale generativa, obbligando i funzionari a condurre audit e valutazioni dei rischi prima di adottare nuovi sistemi. Le linee guida sono una diretta conseguenza dell’ordine esecutivo del governatore Gavin Newsom, emesso nel settembre 2023, che ha imposto regole sull’uso dell’intelligenza artificiale generativa nel governo statale.
Cosa dicono le linee guida sull’AI introdotte in California
Tra le nuove linee guida, le agenzie statali devono indicare quando un’azienda propone di fornire prodotti o servizi basati su intelligenza artificiale generativa. Qualsiasi potenziale fornitore deve evidenziare gli aspetti legati all’intelligenza artificiale generativa della proposta avanzata allo stato. Le linee guida offrono anche indicazioni specifiche sugli acquisti “incidentali” e “intenzionali” di tecnologie di intelligenza artificiale generativa.
“Una richiesta può ricevere risposte che includono intelligenza artificiale generativa, indipendentemente dal fatto che si tratti di beni e servizi non IT, beni e servizi IT o acquisti di telecomunicazioni”, si legge nelle linee guida.
Le regole rendono più difficile per i fornitori offrire i loro servizi, poiché le agenzie statali possono acquistare sistemi di intelligenza artificiale solo da fornitori che hanno superato un processo di richiesta scritta. Le agenzie statali devono anche coinvolgere un esperto di intelligenza artificiale generativa per aiutare a redigere e controllare i contratti per i nuovi sistemi. Prima di procedere con l’acquisto, i CIO delle agenzie devono anche condurre valutazioni dei rischi delle tecnologie di intelligenza artificiale generativa per garantire che nessun sistema possa danneggiare i cittadini.
Il personale incaricato di condurre le valutazioni dei rischi deve utilizzare i Principi di Gestione del Rischio dell’Intelligenza Artificiale Generativa della California, che forniscono un quadro per la valutazione dei rischi dell’intelligenza artificiale generativa. Prima di adottare tecnologie di intelligenza artificiale generativa, le agenzie statali della California saranno obbligate a condurre una formazione del personale:
- il personale dirigenziale riceverà una formazione iniziale seguita da specialisti legali e della privacy;
- il personale generale riceverà una formazione successiva prima che gli strumenti di intelligenza artificiale generativa vengano implementati.
Tutti i dipendenti dovranno seguire una formazione sulla privacy e sulla sicurezza delle informazioni. Inoltre, le entità statali sono tenute a presentare un inventario di tutti gli usi dell’intelligenza artificiale generativa al Dipartimento della Tecnologia della California per la revisione. Alle agenzie è stato fornito anche un kit di strumenti che possono utilizzare per aiutare a procurarsi tecnologie di intelligenza artificiale generativa. È scritto in un linguaggio semplice, così che il personale non tecnico possa comprendere le regole e sarà continuamente aggiornato man mano che le migliori pratiche evolvono.