La disinformazione generata dall’intelligenza artificiale può essere più convincente di quella scritta dagli esseri umani. Lo rileva una ricerca dell’Università di Zurigo pubblicata su Science Advances.
Secondo lo studio, le persone hanno il 3% in meno di probabilità di individuare i tweet falsi generati dall’AI rispetto a quelli scritti dagli esseri umani. Questo divario di credibilità, per quanto piccolo, è preoccupante se si considera che il problema della disinformazione generata dall’AI sembra destinato a crescere in modo significativo, fa notare Giovanni Spitale, il ricercatore che ha guidato lo studio.
“Il fatto che la disinformazione generata dall’AI sia non solo più economica e veloce, ma anche più efficace, fa venire gli incubi”, afferma Spitale. Egli ritiene che se il team ripetesse lo studio con l’ultimo modello linguistico di OpenAI, GPT-4, la differenza sarebbe ancora maggiore, dato che GPT-4 è molto più potente.
Il test: argomenti comuni di disinformazione
Per testare la nostra suscettibilità a diversi tipi di testo, i ricercatori hanno scelto argomenti comuni di disinformazione, tra cui il cambiamento climatico e il covid. Poi hanno chiesto al modello linguistico GPT-3 di OpenAI di generare 10 tweet veri e 10 falsi e hanno raccolto un campione casuale di tweet veri e falsi da Twitter.
Quindi hanno reclutato 697 persone per completare un quiz online che giudicava se i tweet erano stati generati dall’AI o raccolti da Twitter, e se erano accurati o contenevano disinformazione. Hanno scoperto che i partecipanti avevano il 3% in meno di probabilità di credere a tweet falsi scritti da umani rispetto a quelli scritti dall’AI.
I ricercatori non sanno perché le persone siano più propense a credere ai tweet scritti dall’intelligenza artificiale. Secondo Spitale, però, il modo in cui GPT-3 ordina le informazioni potrebbe avere qualcosa a che fare con questo.
“Il testo di GPT-3 tende a essere un po’ più strutturato rispetto al testo organico [scritto dall’uomo]”, spiega. “Ma è anche condensato, quindi è più facile da elaborare”.
Con l’AI generativa, potenti strumenti nelle mani di tutti
Il boom dell’AI generativa mette strumenti potenti e accessibili nelle mani di tutti, compresi i malintenzionati. Modelli come GPT-3 possono generare testi errati che appaiono convincenti e che potrebbero essere utilizzati per generare false narrazioni in modo rapido ed economico per i teorici della cospirazione e le campagne di disinformazione. Le armi per combattere il problema sono gli strumenti di rilevamento del testo dell’AI, ancora nelle prime fasi di sviluppo e molti non sono del tutto accurati.
OpenAI è consapevole che i suoi strumenti di intelligenza artificiale potrebbero essere utilizzati come armi per produrre campagne di disinformazione su larga scala. Sebbene ciò violi le sue politiche, a gennaio ha pubblicato un rapporto in cui avverte che è “praticamente impossibile garantire che i modelli linguistici di grandi dimensioni non vengano mai utilizzati per generare disinformazione”. OpenAI non ha risposto immediatamente a una richiesta di commento.
Tuttavia, l’azienda ha anche invitato alla cautela quando si tratta di sovrastimare l’impatto delle campagne di disinformazione. Secondo gli autori del rapporto di OpenAI, sono necessarie ulteriori ricerche per determinare le popolazioni più a rischio di contenuti inautentici generati dall’AI, nonché la relazione tra le dimensioni del modello di AI e le prestazioni complessive o la persuasività dei suoi risultati.
Sebbene la distribuzione di disinformazione online possa essere più facile ed economica con l’AI rispetto alle troll farm con personale umano, la moderazione sulle piattaforme tecnologiche e i sistemi di rilevamento automatico sono ancora ostacoli alla sua diffusione.