La Federal Trade Commission (FTC) ha avviato un’ampia indagine sul produttore di ChatGPT OpenAI. In una lettera inviata all’azienda, la FTC ha dichiarato che esaminerà se vi siano persone che sono state danneggiate dalla creazione di false informazioni su di loro da parte del chatbot AI e se OpenAI abbia adottato pratiche “sleali o ingannevoli” in materia di privacy e sicurezza dei dati.
I prodotti dell’AI generativa sono nel mirino delle autorità di regolamentazione di tutto il mondo, mentre molti esperti lanciano l’allarme per l’enorme quantità di dati personali consumati dalla tecnologia, nonché per i suoi risultati potenzialmente dannosi, che vanno dalla disinformazione ai commenti sessisti e razzisti.
A maggio, la FTC aveva lanciato un avvertimento al settore, affermando di “starsi concentrando intensamente sul modo in cui le aziende possono scegliere di utilizzare la tecnologia AI, compresi i nuovi strumenti di AI generativa, in modi che possono avere un impatto effettivo e sostanziale sui consumatori”.
Nella sua lettera, l’autorità di regolamentazione statunitense ha chiesto a OpenAI di condividere materiale interno che va dal modo in cui il gruppo conserva le informazioni degli utenti alle misure adottate dall’azienda per affrontare il rischio che il suo modello produca dichiarazioni “false, fuorvianti o denigratorie”.
La FTC non ha commentato la lettera inviata a OpenAI
La FTC ha rifiutato di commentare la lettera, riportata per la prima volta dal Washington Post. Scrivendo su Twitter giovedì 13 luglio, l’amministratore delegato di OpenAI, Sam Altman ha definito “molto deludente vedere che la richiesta della FTC inizia con una fuga di notizie e non aiuta a creare fiducia”. Poi aggiunge: “Per noi è molto importante che la nostra tecnologia sia sicura e a favore dei consumatori, e siamo certi di seguire la legge. Naturalmente collaboreremo con la FTC”.
Lina Khan, presidente della FTC, ha testimoniato davanti alla commissione giudiziaria della Camera e ha affrontato le forti critiche dei legislatori repubblicani per la sua dura posizione di applicazione. Quando gli è stato chiesto di parlare dell’indagine durante l’udienza, Khan ha rifiutato di commentare, ma ha detto che le preoccupazioni più ampie dell’autorità di regolamentazione riguardano ChatGPT e altri servizi di intelligenza artificiale che “vengono alimentati con un’enorme quantità di dati”, mentre non c’è “alcun controllo sul tipo di dati che vengono inseriti in queste aziende”.
Ha aggiunto: “Abbiamo sentito parlare di rapporti in cui le informazioni sensibili delle persone compaiono in risposta a una richiesta da parte di qualcun altro. Abbiamo sentito parlare di calunnie, dichiarazioni diffamatorie, cose palesemente false che stanno emergendo. Questo è il tipo di frode e di inganno che ci preoccupa”.
Preoccupa l’enorme volume di dati ingerito dai LLM
Gli esperti sono preoccupati per l’enorme volume di dati ingerito dai modelli linguistici di ChatGPT. OpenAI aveva più di 100 milioni di utenti attivi mensili a due mesi dal suo lancio. Il motore di ricerca Bing di Microsoft, anch’esso basato sulla tecnologia OpenAI, è stato utilizzato da più di 1 milione di persone in 169 Paesi nelle due settimane successive al suo rilascio a gennaio.
Gli utenti hanno segnalato che ChatGPT ha fabbricato nomi, date e fatti, oltre a link falsi a siti web di notizie e riferimenti a documenti accademici, un problema noto nel settore come “allucinazioni”.
L’indagine della FTC scava nei dettagli tecnici di come è stato progettato ChatGPT, compreso il lavoro dell’azienda per correggere le allucinazioni, e la supervisione dei suoi recensori umani, che hanno un impatto diretto sui consumatori. Ha inoltre chiesto informazioni sui reclami dei consumatori e sugli sforzi compiuti dall’azienda per valutare la comprensione da parte dei consumatori dell’accuratezza e dell’affidabilità del chatbot.
Facendo eco alle precedenti ammissioni sulla fallibilità di ChatGPT, Altman ha twittato: “Siamo trasparenti sui limiti della nostra tecnologia, soprattutto quando non riusciamo a raggiungere i nostri obiettivi. E la nostra struttura a profitti limitati significa che non siamo incentivati a realizzare rendimenti illimitati”. Tuttavia, ha affermato che il chatbot è stato costruito sulla base di “anni di ricerca sulla sicurezza”, aggiungendo: “Proteggiamo la privacy degli utenti e progettiamo i nostri sistemi per conoscere il mondo, non gli individui privati”.