Non è solo l’Italia a dubitare della affidabilità di ChatGPT-4. Un giorno prima che il Garante per la Privacy nostrano emettesse il suo “ban” nei confronti della tecnologia di OpenAI, la Federal Trade Commission (FTC) riceveva una denuncia dal Center for AI and Digital Policy (CAIDP), in cui si chiede una indagine su OpenAI e su GPT-4.
La denuncia è arrivata un giorno dopo la lettera aperta che chiedeva una “pausa” di sei mesi sullo sviluppo di modelli di intelligenza artificiale su larga scala successivi a GPT-4, che ha evidenziato un acceso dibattito sui rischi rispetto all’hype, mentre la velocità dello sviluppo dell’AI accelera.
GPT-4 non rispetta i requisiti posti dalla FTC per l’AI
La denuncia sostiene che mentre la FTC dichiara che l’uso dell’AI dovrebbe essere “trasparente, spiegabile, equo ed empiricamente valido, promuovendo al contempo la responsabilità”, GPT-4 di OpenAI “non soddisfa nessuno di questi requisiti” ed è “parziale, ingannevole e un rischio per la privacy e la sicurezza pubblica”.
CAIDP è un’organizzazione di ricerca indipendente senza scopo di lucro con sede a Washington, che “valuta le politiche e le pratiche nazionali di AI, forma i leader delle politiche AI e promuove i valori democratici per l’AI”. L’organizzazione è guidata dal presidente e fondatore Marc Rotenberg e dal direttore senior della ricerca Merve Hickok.
“La FTC ha la chiara responsabilità di indagare e vietare pratiche commerciali sleali e ingannevoli. Riteniamo che la FTC dovrebbe esaminare attentamente OpenAI e GPT-4“, ha affermato Rotenberg in un comunicato stampa sulle denunce. “Stiamo specificamente chiedendo alla FTC di determinare se la società ha rispettato le linee guida emesse dall’agenzia federale”.
“Chatbot, deepfake e cloni vocali: inganno AI in vendita”
La denuncia arriva anche 10 giorni dopo che la FTC ha pubblicato un post sul blog aziendale intitolato “Chatbot, deepfake e cloni vocali: inganno AI in vendita“, scritto da Michael Atleson, un avvocato della divisione FTC delle pratiche pubblicitarie. Il post sul blog afferma che il “divieto di condotta ingannevole o sleale della legge FTC può essere applicato se si produce, si vende o si utilizza uno strumento che è effettivamente progettato per ingannare, anche se non è il suo scopo previsto o unico”.
Le aziende dovrebbero considerare se produrre o vendere lo strumento di intelligenza artificiale e se stanno effettivamente mitigando i rischi.
“Se decidi di realizzare o offrire un prodotto del genere, prendi tutte le precauzioni ragionevoli prima che colpisca il mercato”, afferma il post sul blog. “La FTC ha citato in giudizio le aziende che hanno diffuso tecnologie potenzialmente dannose senza adottare misure ragionevoli per prevenire danni ai consumatori”.
L’avvocato della FTC ha detto che l’agenzia applicherà sempre i principi “fondamentali” della legge sulla pubblicità.
La regolamentazione federale dell’AI potrebbe arrivare dalla FTC
Con la crescita dell’AI e la velocità del suo sviluppo, gli esperti legali affermano che la regolamentazione della FTC sull’AI potrebbe arrivare nel 2023. In un articolo del dicembre 2022 scritto da Alston e Bird, si afferma che la regolamentazione federale dell’AI potrebbe venire dalla FTC, anche se le leggi incentrate sull’AI introdotte al Congresso non hanno ancora ottenuto un sostegno significativo.
“Negli ultimi anni, la FTC ha pubblicato due documenti che prefigurano una maggiore attenzione alla regolamentazione dell’AI”, si afferma nell’articolo. La FTC ha sviluppato competenze in materia di AI nell’applicazione di una varietà di statuti, come il Fair Credit Reporting Act, l’Equal Credit Opportunity Act e il FTC Act.