I contenuti creati dall’intelligenza artificiale stanno inondando sempre più il Web (soprattutto i social media), rendendo sempre meno chiaro ciò che è reale da ciò che non lo è. Sono i cosiddetti deepfake. Basti pensare alla propaganda elettorale statunitense che tiene banco in questo “caldo” 2024. Da un lato abbiamo il magnate Donald Trump che sostiene falsamente che le immagini di un comizio dell’attuale vicepresidente Kamala Harris siano state generate dall’AI, mentre da un altro lato abbiamo una falsa robocall, successivamente sanzionata, del presidente Usa, Joe Biden, che dice agli elettori di non recarsi a votare. E questi sono solo due piccoli esempi sulla pericolosa ascesa dell’intelligenza artificiale nel campo della disinformazione dilagante.
AI per attaccare, AI per difendersi
Tuttavia, se da un lato abbiamo l’attacco, dall’altro abbiamo la difesa. A contrastare quell’intelligenza artificiale “distorta” che prende il nome di deepfake abbiamo degli utili rilevatori a servizio di chi ha un “interesse contrario” alla disinformazione, ossia organi di stampa e social media. I giganti del calibro di Meta o X, per esempio, usano tali rilevatori per etichettare i contenuti falsi sulle loro piattaforme.
I funzionari governativi statunitensi, invece, stanno facendo pressione sul settore privato affinché versi milioni di euro per la creazione di software anti-deepfake che non permetta a questi ultimi di disturbare le elezioni a stelle e strisce di novembre prossimo o consentire potenze straniere (leggasi Russia e Cina, in primis) di “fomentare disordini interni”.
Ma se l’intelligenza artificiale è ormai una decana del settore, la scienza del rilevamento dei contenuti manipolati o inappropriati è ancora agli inizi della sua “avventura”. Uno studio di alcuni mesi fa promosso da Reuters ha rilevato che molti strumenti di rilevamento dei deepfake possono essere facilmente ingannati con semplici trucchi software o tecniche di editing. Proliferando a macchia d’olio.
Come si possono scoprire i deepfake?
Ma come si fa a capire se una foto, un video o un file audio sono stati manipolati o meno? Come si fa a saperlo, soprattutto, “con certezza”? Per prima cosa, un videoclip, un brano audio o un’immagine riferiti a una persona (si pensi a Trump o a Harris) vengono caricati in uno strumento di rilevamento deepfake. Qui il contenuto viene giudicato da un gruppo di algoritmi “esperti” addestrati a cercare “indicatori di autenticità”.
Un algoritmo ispeziona l’area intorno al volto, alla ricerca di prove che dimostrino che è stato scambiato con il corpo di un’altra persona, mentre un altro algoritmo traccia le labbra alla ricerca di movimenti anomali e posizionamenti non realistici.
Un terzo algoritmo analizza il suono, cercando frequenze vocali insolite, pause e balbettii. Scendendo, invece, a livello di pixel, un algoritmo esamina le immagini alla ricerca di modelli di “rumore” visivo che si discostano da altre aree. L’algoritmo successivo confronta il modo in cui i pixel si muovono tra i fotogrammi del video, alla ricerca di indizi sottili come salti innaturali o l’assenza di sfocature di movimento presenti nei video autentici.
Se l’analisi dei movimenti è inconcludente, un algoritmo tenta di rifare l’immagine utilizzando la tecnica di diffusione che attualmente alimenta l’intelligenza artificiale. L’immagine risultante mostra ciò che la diffusione non è stata in grado di ricostruire. Infine, l’ultimo algoritmo cerca un pattern a scacchiera nella distribuzione dei pixel, un segno distintivo delle Generative Adversarial Networks (GAN), una tecnica di generazione di immagini “più datata”.
Il verdetto di ciascun algoritmo viene poi combinato dallo strumento di rilevamento in una decisione finale sulla probabilità che il contenuto sia reale o falso.
Un fact-checking in tempo reale
Se gli strumenti di rilevamento deepfake funzionassero correttamente, potrebbero fornire un “fact-checking” (accertamento o verifica dei fatti) in tempo reale su piattaforme come Instagram, TikTok e X, sradicando i falsi annunci politici generati dall’intelligenza artificiale, gli stratagemmi di marketing ingannevoli e la disinformazione prima che prendano piede. I politici, da Washington a Bruxelles, sono sempre più preoccupati per l’impatto dei deepfake e si stanno mobilitando per mettere in campo dei rilevatori come soluzione al problema.
La legislazione europea di “fresco varo” sull’AI (Regolamento UE 2024/1689) tenta di arginare l’impatto delle immagini false attraverso mandati che aiuterebbero il pubblico a identificare i deepfake, anche attraverso la tecnologia di rilevamento. Il governo statunitense e gli alti funzionari dell’Unione Europea hanno esercitato pressioni sull’industria tecnologica affinché investisse in nuovi modi per rilevare i contenuti generati dall’intelligenza artificiale nel tentativo di arginare la sua parte più “maligna” a livello informativo.
I difetti dei rilevatori di deepfake
Tuttavia, i rilevatori di deepfake hanno anche difetti significativi (così come l’intelligenza artificiale è affetta da pregiudizi o bias). Secondo alcuni ricercatori di diverse università e aziende negli Stati Uniti, in Australia e in India, le tecniche di rilevamento hanno un’accuratezza tra l’82% e il 25%. Ciò significa che i rilevatori spesso identificano erroneamente i filmati falsi o manipolati come reali e segnalano quelli veri come falsi (falso positivo – falso negativo). Gli algoritmi che alimentano i rilevatori di deepfake sono validi a seconda di quanto sono validi i dati su cui si addestrano (un po’ come l’AI potremmo dire).
I dataset sono in gran parte composti da deepfake creati in laboratorio e non imitano accuratamente le caratteristiche dei deepfake che appaiono, per esempio, sui social media. I rilevatori potrebbero non essere in grado, tra le altre cose, di individuare modelli anomali nella fisica dell’illuminazione o del movimento del corpo. I rilevatori sono più bravi a individuare le immagini comuni nei loro dati di addestramento.
Ciò significa che i rilevatori potrebbero individuare con precisione i deepfake del presidente russo Vladimir Putin, mentre potrebbero avere difficoltà con le immagini del presidente estone Alar Karis (perché meno comune nelle ricerche online e, in generale, “meno famoso” del “confinante omologo”). Inoltre, i rilevatori potrebbero essere meno precisi quando le immagini contengono persone con la pelle scura (un bias dell’AI trasferito ai rilevatori di deepfake potremmo dire).
Oppure quando le persone manipolano le foto generate dall’AI utilizzando tecniche di Photoshop come la sfocatura o la compressione dei file; tutti casi in cui gli strumenti di rilevamento potrebbero essere ingannati. Gli esperti di intelligenza artificiale hanno dichiarato che coloro che adoperano deepfake sono anche abili nel creare immagini che sono un passo avanti rispetto alla tecnologia di rilevamento.
Se poi nel “calderone” ci mettiamo anche che i proprietari di social media possono spingere verso questo genere di storture della tecnologia, il quadro completo della situazione è servito.