ChatGPT: il caso Italia inizia a fare scuola nel mondo. Anche negli Usa, dove l’amministrazione Biden ha iniziato a esaminare se sia necessario effettuare controlli su strumenti di intelligenza artificiale generativa, come ChatGPT, considerate le crescenti preoccupazioni che la tecnologia possa essere utilizzata per discriminare o diffondere informazioni dannose.
Un primo passo verso una potenziale regolamentazione può essere visto nella richiesta pubblica formale di commento, pubblicata lo scorso 4 aprile dal Dipartimento del Commercio, su quelle che ha definito “misure di responsabilità”, incluso se i nuovi modelli di intelligenza artificiale potenzialmente rischiosi debbano passare attraverso un processo di certificazione prima di essere rilasciati.
ChatGPT negli Usa: “Dobbiamo mettere dei guardrail”
L’azione dell’amministrazione Biden arriva nel bel mezzo di un boom nell’uso di strumenti di intelligenza artificiale in grado di generare, rapidamente, scritti, immagini, video e altro ancora.
“È incredibile vedere cosa possono fare questi strumenti anche se si trovano ancora nella loro infanzia”, ha detto Alan Davidson, a capo della National Telecommunications and Information Administration, l’agenzia del Dipartimento del Commercio, che ha pubblicato la richiesta di commento. “Sappiamo che dobbiamo mettere in atto dei guardrail per assicurarci che vengano utilizzati in modo responsabile”.
I commenti, che saranno accettati nei prossimi 60 giorni, saranno utilizzati per aiutare a formulare consigli ai responsabili politici statunitensi su come avvicinarsi all’AI, ha dichiarato Davidson, che ha aggiunto che il mandato legale della sua agenzia prevede di consigliare il presidente sulla politica tecnologica, piuttosto che scrivere o far rispettare i regolamenti.
L’industria e i funzionari governativi hanno espresso preoccupazione per una serie di potenziali danni dall’AI, incluso l’uso della tecnologia per commettere crimini o diffondere falsità.
Preoccupazioni per la sicurezza dei minori
La sicurezza dei minori era sicuramente al primo posto per il senatore Michael Bennet quando ha scritto il mese scorso a diverse società di intelligenza artificiale, chiedendo informazioni sugli esperimenti pubblici in cui i chatbot davano consigli preoccupanti agli utenti che si atteggiavano a giovani.
“Ci sono conversazioni molto attive in corso sul bene e il male esplosivi che l’AI potrebbe fare”, ha dichiarato il senatore Richard Blumenthal, in un’intervista. “Questa, per il Congresso, è la sfida finale: altamente complessa e tecnica, posta in gioco molto significativa e tremenda urgenza”.
Anche OpenAI è d’accordo sul sottoporre l’AI a valutazioni di sicurezza
Come è ormai noto, alcuni leader dell’industria hi-tech, tra cui Elon Musk, hanno recentemente chiesto una moratoria di sei mesi sullo sviluppo di sistemi più potenti di GPT-4. Il loro voleva essere un avvertimento che la gara in corso tra OpenAI e concorrenti come Google di Alphabet Inc. si stava svolgendo senza un’adeguata gestione e pianificazione dei potenziali rischi.
Il presidente Biden ha discusso l’argomento con un consiglio consultivo di scienziati alla Casa Bianca la scorsa settimana. Alla domanda di un giornalista se la tecnologia AI sia pericolosa, Biden ha detto: “Resta da vedere. Potrebbe essere.”
Nel gruppo consultivo c’erano rappresentanti di Microsoft e Google. Loro e altre aziende che rilasciano sistemi di intelligenza artificiale hanno affermato di aggiornare costantemente i guardrail di sicurezza, ad esempio programmando i chatbot per non rispondere a determinate domande.
In alcuni casi, le aziende hanno accolto e cercato di modellare nuove normative.
“Riteniamo che i potenti sistemi di intelligenza artificiale dovrebbero essere soggetti a rigorose valutazioni di sicurezza”, ha affermato OpenAI in un recente post sul blog. “La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere”.
ChatGPT negli Usa: si muovono anche Dipartimento di Giustizia e Federal Trade Commission
La rappresentante Nancy Mace, presidente di un comitato di supervisione della Camera sulla tecnologia, il mese scorso ha aperto un’audizione sull’AI con una dichiarazione di tre minuti che discute i rischi e i benefici dell’AI. Poi ha aggiunto: “Tutto ciò che ho appena letto nella mia dichiarazione di apertura è stato scritto, indovinate, da ChatGPT”.
Uno dei testimoni, Eric Schmidt, ex amministratore delegato di Google che ha presieduto una commissione del Congresso sulle implicazioni dell’AI per la sicurezza nazionale, ha affermato che “tutti credono che l’AI che stiamo costruendo sia ciò che vedono nei film di Terminator, e non stiamo precisamente costruendo quelle cose”.
Schmidt ha affermato che il Congresso Usa dovrebbe concentrarsi sulla promozione dello sviluppo dei talenti e dell’innovazione. “Lasciate che l’ingegno americano, gli scienziati americani, il governo americano, le corporazioni americane inventino questo futuro, e otterremo qualcosa di molto vicino a ciò che vogliamo”, ha detto ai legislatori.
Il rappresentante Gerry Connolly ha espresso scetticismo sulla capacità del Congresso di adottare regole sull’AI, sottolineando la sua mancanza di azione per affrontare il “potere impressionante” che esercitano le società di social media. “Senza alcuna interferenza da parte del governo, prendono tutti i tipi di decisioni massicce in termini di contenuto, in termini di ciò che sarà o non sarà permesso, in termini di chi può usarlo”, ha detto. “Perché dovremmo credere che l’AI sarebbe molto diversa?”
In assenza di una legge federale incentrata sui sistemi di intelligenza artificiale, alcune agenzie governative hanno utilizzato altre autorità legali.
I regolatori del settore finanziario si sono interrogate su come i creditori potrebbero utilizzare l’intelligenza artificiale per sottoscrivere prestiti, con un occhio alla prevenzione della discriminazione contro i gruppi minoritari.
La divisione antitrust del Dipartimento di Giustizia ha dichiarato che sta monitorando la concorrenza nel settore, mentre la Federal Trade Commission ha avvertito le aziende che potrebbero affrontare conseguenze legali per aver fatto affermazioni false o non comprovate sui prodotti AI.
Nel documento di commento pubblico pubblicato martedì, l’agenzia federale di consulenza tecnologica chiede se debbano essere aggiunte misure per garantire la fiducia del pubblico nei sistemi di intelligenza artificiale, come “certificazioni di garanzia della qualità”.
Il documento chiede se debbano essere applicate nuove leggi o regolamenti, ma si ferma prima di dettagliare potenziali danni o di approvare eventuali garanzie specifiche.