Nell’ambito di internet, ci sono due espressioni di lingua anglosassone al centro dell’attenzione degli sviluppi di sistemi di intelligenza artificiale: hate speech e fake news. Espressioni salite prepotentemente alla ribalta del grande pubblico nel 2018, dopo l’elezione del presidente americano Donald Trump. La prima, composta dai sostantivi hate (“odio”) e speech (“discorso”), è l’espressione di odio o incitamento all’odio di tipo razzista, tramite discorsi, slogan e insulti violenti, rivolti contro individui o intere fasce di popolazione. La seconda, letteralmente notizie false, designa un’informazione in parte o del tutto non corrispondente al vero, divulgata principalmente in maniera intenzionale e caratterizzata da un’apparente plausibilità, spesso alimentata dalle aspettative di parte dell’opinione pubblica e da un’amplificazione dei pregiudizi che ne sono alla base (così da agevolarne la condivisione e la diffusione pur in assenza di una verifica delle fonti e del contenuto). Esistono meccanismi automatici di riconoscimento, algoritmi intelligenti, in grado di individuare, riconoscere e rimuovere questo tipo di contenuti. Per avere un’idea è utilissima la pubblicazione del rapporto relativo al periodo che va da ottobre 2019 a marzo 2020, del più grande e utilizzato social network del pianeta: Facebook.
L’AI nella individuazione di post d’odio
I temi interessati e presi in esame sono diversi, tra gli altri: bullismo e molestie, nudità infantile e sfruttamento sessuale dei bambini, organizzazioni pericolose, droghe e armi da fuoco, contenuto violento, suicidio e autolesionismo, incitamento all’odio e disinformazione.
In un chiaro e preciso dettaglio vengono spiegati gli accorgimenti e gli aggiornamenti che sono stati apportati nel tempo ai sistemi di intelligenza artificiale sviluppati con l’obiettivo di rilevare i due temi che vogliamo prendere in esame: hate speech e fake news.
Le regole di utilizzo del social sono molto chiare: non si permettono discorsi di odio, ovverosia discorsi violenti o disumanizzanti, dichiarazioni di inferiorità, richieste di esclusione o segregazione, insulti che possono basarsi anche su razza, etnia, appartenenza religiosa, orientamento sessuale, identità di genere, disabilità, ecc.
Salta subito all’occhio come l’88,8% di tutti i post relativi a temi d’odio che sono stati rimossi in questo trimestre sono stati rilevati in maniera automatica da sistemi di intelligenza artificiale, rispetto all’80,2% del trimestre precedente.
I numeri di quanto stiamo parlando sono impressionanti: sono circa 9,6 milioni i post contenenti discorsi d’odio, rispetto ai 5,7 milioni del periodo precedente e, dalla seconda metà del 2017, da quando Facebook condivide le sue analisi, c’è stato un aumento di sei volte rispetto ai volumi delle rimozioni di questo tipo di contenuto.
Ma, se è vero che gli algoritmi sviluppati sono in grado di rimuovere in maniera automatica quanto scritto dagli utenti nel momento in cui hanno la certezza che si tratti di odio, la maggior parte delle operazioni è, in ogni caso, ancora controllata da una persona fisica.
Il miglioramento che è stato raggiunto dipende, in gran parte, da due importanti aggiornamenti fatti ai sistemi di intelligenza artificiale del social network.
Il primo riguarda la disponibilità di dataset e modelli di linguaggio naturale molto ricchi, così da permettere all’azienda di comprendere e decifrare molto meglio le sfumature e il significato di un post: la linguistica computazionale, l’area che si concentra sull’analisi e sul funzionamento della lingua naturale, è certamente molto complessa ma questi modelli, grazie al continuo progresso della ricerca, consentono alle reti neurali di essere addestrate senza alcuna supervisione, eliminando, di fatto, il collo di bottiglia causato dalla necessità della presenza umana per il controllo manuale dei dati.
Il secondo aggiornamento, invece, è relativo allo sforzo che ha reso possibile, per i calcolatori, il poter analizzare contenuti combinati, composti da differenti tipologie di media (testo, immagini, video, audio).
Nel tempo, infatti, gli algoritmi si sono dovuti adeguare a quanto prodotto dagli utenti e hanno dovuto imparare ad analizzare i meme (termine che indica un contenuto divertente o bizzarro – che può essere composto da un’immagine, un video, una foto, una frase – che in poco tempo si diffonde anche in maniera virale tanto da diventare un tormentone).
L’intelligenza artificiale, ad oggi, è ancora limitata nella sua capacità di interpretare tali contenuti “misti” e, per ridurre il gap, si sta procedendo rapidamente grazie a due temi molto interessanti:
- il rilascio di un nuovo set di dati di “meme odiosi”, che possano essere una ricca raccolta di esempi per istruire nuovi algoritmi
- una competizione, lanciata da poco, che ha l’obiettivo di costruire e migliorare algoritmi in grado di analizzare e di rilevare questo tipo di contenuti
L’AI nella lotta contro le fake news
Nonostante gli avanzamenti avuti nel tempo, l’AI non ha avuto un ruolo altrettanto importante nella gestione della disinformazione e delle fake news in genere (sono sotto gli occhi di tutti, in questi mesi, le falsità legate in modo particolare al tema pandemico del coronavirus: dalle teorie cospirative sull’origine del virus, alle false notizie di possibili cure, alla correlazione con i sistemi di trasmissione 5G).
Rispetto ai contenuti correlati al tema del COVID-19, sono stati circa 50 milioni i contenuti sui quali gli algoritmi hanno applicato un elemento di attenzione legato alla disinformazione, una vera e propria etichetta.
Come ha dichiarato ai giornalisti, in una conferenza stampa, Mark Zuckerberg, CEO di Facebook: “Riteniamo che queste etichette di avvertimento funzionino. Il 95% delle volte in cui una persona vede contenuti con una nota di attenzione, non fa clic per visualizzarli né decide di condividerli sulla sua rete di contatti”.
Oggi, questa è la sfida che rivela i limiti della moderazione dei contenuti basata su sistemi automatici di intelligenza artificiale che possono rilevare contenuti simili a quelli che già “visti” e analizzati, ma che hanno ancora alcune limitazioni nel momento in cui si trovano di fronte a nuovi tipi di disinformazione.
Negli ultimi anni, Facebook ha investito molto nello sviluppo di sistemi di intelligenza artificiale in grado di adattarsi più rapidamente ai nuovi contenuti, ma, certamente, questo problema è condiviso da tutti i soggetti che si trovano a gestire contenuti: questa è e rimane una delle maggiori sfide di ricerca.
Al momento, nel contesto della disinformazione, il social network, ha preferito fare affidamento anche su revisori umani di oltre 60 organizzazioni partner: il processo prevede che vengano contrassegnati elementi dei post, come immagini, titoli, frasi fuorvianti, in modo che i sistemi di intelligenza artificiale possano valutare elementi identici o simili e possano aggiungere in autonomia delle etichette di avvertimento su nuovi contenuti così che, una seconda analisi, possa portare alla loro eventuale eliminazione.
Non solo AI, serve ancora l’elemento umano
Già nel 2016 Facebook aveva lanciato Deeptext che, da subito aveva contribuito a eliminare oltre 60.000 post alla settimana. Tuttavia, come ammesso da subito dalla società, lo strumento si basava ancora su un ampio pool di moderatori umani per eliminare effettivamente i contenuti dannosi.
I data scientist e i data engineer stanno lavorando all’addestramento di un modello di apprendimento automatico in grado di trovare, in autonomia, nuovi casi di disinformazione.
Come ha dichiarato in una conferenza stampa Mike Schroepfer, CTO di Facebook dal marzo 2013: “la creazione di un nuovo algoritmo in grado di classificare e comprendere i contenuti che non ha mai visto prima, richiede molto tempo e molti dati”.
In tutto questo, si aggiunge un grande dibattito nella comunità accademica sull’effettiva efficacia dell’identificazione passiva, automatica, di informazioni potenzialmente false per gli utenti dei social media.
Alcuni ricercatori suggeriscono che gli sforzi di verifica dei fatti sia online che offline non siano così efficaci nella loro forma attuale e che sia necessario pensare e studiare nuove strategie.
Al momento il risultato migliore si ottiene ancora dalla combinazione di lavoro umano e lavoro di intelligenza artificiale ma, il controllo dei fatti potenziato dall’AI, è solo una delle vie da poter seguire: l’apprendimento automatico (machine learning) e l’apprendimento profondo (deep learning), insieme a professionisti umani, possono combattere la disinformazione anche in altri modi.
Uno dei maggiori problemi, al momento, resta legato al rischio di falsi positivi (come spiega wikipedia: il risultato di un test che porta erroneamente ad accettare l’ipotesi sulla quale esso è stato condotto), ovverosia il contrassegnare come “malevoli” anche i post che in realtà non contengono violazioni.
Gli algoritmi, infatti, vengono addestrati utilizzando sia l’apprendimento automatico ma, evidentemente, anche utilizzando input da persone umane che, volente o nolente, possono avere loro pregiudizi.