- La ricerca dell’Allen Institute for AI ha rilevato che ChatGPT ha una tossicità intrinseca che aumenta fino a sei volte quando vengono assegnati diversi personaggi (come figure storiche o professionisti). L’output può variare significativamente in base alle impostazioni del personaggio, cambiando lo stile di scrittura e il contenuto, il che può portare a risposte tossiche.
- Un attore malintenzionato potrebbe modificare queste impostazioni per produrre output dannosi. Anche modifiche non intenzionali possono portare a comportamenti parziali e potenzialmente dannosi del modello.
- Lo studio evidenzia che ChatGPT può mostrare pregiudizi specifici in base ai personaggi assegnati, influenzati dai dati di addestramento. Ad esempio, i giornalisti risultano essere il doppio più tossici degli uomini d’affari. Questi pregiudizi possono essere problematici, specialmente quando ChatGPT è integrato in applicazioni aziendali come quelle di Snap, Instacart e Shopify.
News
ChatGPT può diventare “tossico” se cambia il personaggio assegnato nelle impostazioni
Lo rivela un nuovo studio dell’Allen Institute for AI. I LLM portano con sé una tossicità intrinseca, che può aumentare fino a sei volte quando nelle impostazioni del sistema viene assegnata una vasta gamma di “personaggi”, come figure storiche, professione, razza e altro
giornalista
Continua a leggere questo articolo
Argomenti
Canali