scenari

Media: 2024 anno di elezioni, tutti i pericoli derivanti dall’AI Gen



Indirizzo copiato

Oltre 40 paesi nel mondo andranno alle urne e crescono le preoccupazioni su come l’intelligenza artificiale possa essere sfruttata per influenzare i risultati. Il report “Journalism, Media, and Technology Trends and Predictions 2024” del Reuters Institute fa il punto sull’utilizzo delle nuove tecnologie nel mondo dell’informazione

Pubblicato il 6 mar 2024



AI gen elezioni

Intelligenza artificiale generativa, elezioni e notizie: un triangolo complesso. Con oltre 40 paesi che si preparano per importanti elezioni nel 2024, crescono le preoccupazioni su come le nuove tecnologie potrebbero essere sfruttate da politici, attivisti e possibili ‘attori malevoli’ esterni per influenzare i risultati. Il report “Journalism, Media, and Technology Trends and Predictions 2024” del Reuters Institute, pubblicato a gennaio 2024, fa il punto sull’utilizzo delle nuove tecnologie nel mondo dell’informazione. Ecco una sintesi del capitolo riguardante l‘intelligenza artificiale generativa.

Come l’AI generativa viene utilizzata per i deep fake nelle elezioni

Nella recente campagna elettorale argentina, immagini generate dall’intelligenza artificiale sono state utilizzate per catturare l’attenzione degli elettori e denigrare entrambi i principali candidati. Il vincitore finale è stato ritratto come un mostro assetato di sangue, mentre un video falso mostrava l’altro contendente principale in difficoltà nelle trincee del film sulla Prima Guerra Mondiale “1917”.

Fonte: Reuters Institute

In Slovacchia, registrazioni audio false di un candidato che discuteva su come manipolare le elezioni sono state rilasciate pochi giorni prima di un voto combattuto, rendendo difficile per i fact-checker contraddire definitivamente tali affermazioni.

Finora queste interferenze non sembrano aver giocato un ruolo significativo nei risultati delle elezioni. Tuttavia, in un recente sondaggio, quasi sei adulti su dieci (58%) negli Stati Uniti pensano che gli strumenti di intelligenza artificiale potrebbero aumentare la diffusione di informazioni false e fuorvianti durante la prossima campagna. Questi strumenti possono generare immagini sintetiche, audio e video in pochi secondi, oltre a mirare a specifici gruppi di pubblico su larga scala. Tuttavia, la regolamentazione elettorale deve ancora adeguarsi a questa minaccia. Grandi aziende tecnologiche come Meta, Google e TikTok stanno rafforzando le loro difese, richiedendo agli utenti e ai partiti politici di dichiarare qualsiasi uso di intelligenza artificiale quando caricano contenuti, potenziando i team per l’integrità delle elezioni e collaborando con i fact-checker per identificare rapidamente i contenuti falsi.

La politica britannica ha subito uno dei suoi primi momenti di ‘deep fake’ in ottobre, quando un clip audio del leader dell’opposizione Keir Starmer che apparentemente insultava il personale è diventato virale, accumulando milioni di visualizzazioni su X anche dopo essere stato smascherato come falso.

Anche il conflitto tra Israele e Gaza ha generato innumerevoli esempi di immagini false, ritoccate o stilizzate utilizzate per scopi propagandistici – da sostenitori di entrambe le parti. Versioni recenti di strumenti come Midjourney possono creare immagini iper-realistiche e dettagliate di qualsiasi situazione che sono difficili da distinguere dalle fotografie reali, utilizzando semplici prompt. Mentre l’offerta di contenuti sintetici è destinata ad aumentare nel 2024, l’impatto sui consumatori è più difficile da prevedere. Molti dei cosiddetti ‘deep fake’ sono stati relativamente facili da individuare finora e solo una parte di questo contenuto è progettata per manipolare o confondere il pubblico.

fonte: Reuters Institute

Il rischio è che le persone non credano più a nulla

Tuttavia, il pericolo maggiore potrebbe non essere che le persone ‘credano alle bugie, ma piuttosto che nessuno creda più a nulla’, come scrisse la filosofa politica Hannah Arendt nel contesto di un precedente periodo di tumulto. La stragrande maggioranza dei nostri editori intervistati sono piuttosto pessimisti riguardo alle implicazioni per la fiducia. “L’esplosione di contenuti scadenti ha sicuramente il potenziale per minare la fiducia nei media”, afferma Christoph Zimmer, responsabile del prodotto presso Der Spiegel in Germania. Tuttavia, sostiene anche che ciò potrebbe alla fine permettere ad alcuni media di notizie di “differenziarci ancora più chiaramente come un medium di qualità, e quindi rafforzare ancora di più la nostra posizione”.

Cosa potrebbe succedere nel 2024?

In Europa, il Digital Service Act (DSA) ha reso le più grandi piattaforme social e tecnologiche legalmente responsabili per i contenuti che pubblicano, compresi vari tipi di discorsi d’odio e interferenze con le elezioni. Combattere la disinformazione, compresa la propaganda pro-russa, sarà un focus chiave per l’UE con elezioni critiche in diversi stati membri. I regolatori vorranno dimostrare che sono seri e hanno il potere di multare le piattaforme (fino al 6% del fatturato globale) o addirittura di bandirle dal mercato dell’UE. Nulla può essere escluso con tutti gli occhi puntati su X (Twitter), dove la moderazione umana è stata ridotta notevolmente nell’ultimo anno, anche se altre grandi piattaforme hanno rafforzato le difese per conformarsi alla nuova regolamentazione.

A dicembre, l’UE ha avviato procedimenti formali contro X per sospetta violazione dei suoi obblighi di contrastare i contenuti illegali e la disinformazione.

Etichettatura diffusa sui contenuti AI

Il prossimo AI Act dell’UE mira a mitigare ulteriormente i rischi, ma è improbabile che la conformità sia obbligatoria prima del 2026, quindi si sta iniziando con un codice volontario di pratica sulla disinformazione guidata dall’AI. Un elemento chiave è far rilevare alle piattaforme e poi etichettare qualsiasi uso di AI. Meta richiede agli inserzionisti politici di segnalare quando hanno utilizzato l’intelligenza artificiale o la manipolazione digitale negli annunci su Facebook, Instagram o Threads e Google ha annunciato un approccio simile. TikTok non accetta pubblicità politica ma insiste sulla trasparenza da parte dei creatori. Queste linee guida sono tuttavia in gran parte basate sull’onestà e ci sono anche preoccupazioni che i consumatori ignoreranno le etichette o che potrebbero addirittura generare un effetto boomerang.

Integrazione dell’AI nei flussi di lavoro del fact-checking

Una ulteriore difesa potrebbe arrivare con strumenti che utilizzano l’AI per identificare falsi e affermazioni false più rapidamente. L’organizzazione di fact-checking leader nel Regno Unito, Full Fact, ha integrato una serie di tecniche di intelligenza artificiale per aiutare i fact-checker umani a identificare nuove affermazioni, comprese quelle da trasmissioni in tempo reale, utilizzando la trascrizione da discorso a testo, abbinandole a precedenti verifiche dei fatti, così come aiutando a verificare o smascherare le affermazioni.

Articoli correlati

Articolo 1 di 4