Nell’ultimo anno sono state introdotte molte novità nell’ambito della cosiddetta AI generativa, tra le quali DALL-E 2 e Stable Diffusion, entrambi modelli di intelligenza artificiale sviluppati da OpenAI. Per capire meglio i problemi che affliggono questi modelli abbiamo analizzato la ricerca realizzata dalla start up Hugging Face e dall’Università di Lipsia, volta a identificare e dimostrare i pregiudizi intrinseci nella generazione di immagini realizzata da DALL-E 2 e da Stable Diffusion.
DALL-E2 e Stable Diffusion, breve ripasso
DALL-E 2 è il successore del modello originale DALL-E, che è in grado di generare immagini di alta qualità da descrizioni testuali. Porta la tecnologia generativa a un livello superiore, grazie a una serie di miglioramenti e di nuove funzionalità, come la capacità di generare animazioni e di eseguire attività di manipolazione degli oggetti.
Stable Diffusion, invece è un potente modello generativo in grado di sintetizzare immagini e video complessi con un incredibile realismo. A differenza di DALL-E, progettato specificamente per la generazione di immagini dal testo, Stable Diffusion può creare immagini e video realistici partendo da dati input di diversa varietà.
Entrambi questi modelli sono oggetto di attenzione in quanto stanno dimostrando quanto si possano superare i confini in termini di arte generativa e di tecnica di produzione multimediale. Questi modelli hanno il potenziale per rivoluzionare una serie di settori, quello dell’intrattenimento e della pubblicità e design primi su tutti, offrendo a questi settori la possibilità di rapidità di prototipazione e la creazione di innovativi concetti creativi.
Tra gli aspetti negativi di questi modelli, come abbiamo già accennato, ci sono i pregiudizi e gli stereotipi associati, nonostante i tentativi delle aziende di risolverli.
La ricerca condotta da Hugging Face e dall’Università di Lipsia
Per capire meglio questa problematica, la start up di intelligenza artificiale Hugging Face e l’Università di Lipsia hanno realizzato una ricerca volta a identificare e dimostrare i pregiudizi intrinseci nella generazione di immagini da parte di DALL-E 2 e da Stable Diffusion.
I ricercatori hanno utilizzato, come criteri richiesti, attributi sociali e aggettivi che descrivessero determinate figure professionali, osservando come variavano le serie di immagini applicando la tecnica del clustering delle immagini. Il clustering è una tecnica utilizzata nell’apprendimento automatico e nell’analisi dei dati per raggruppare insieme dati e punti simili in base alle loro caratteristiche.
Il clustering viene utilizzato in una varietà di applicazioni, come la segmentazione dei clienti o delle immagini, il rilevamento delle anomalie e i sistemi di raccomandazione. Identificando modelli e raggruppamenti nei dati, il clustering può aiutare aziende e ricercatori a prendere decisioni informate e ottenere informazioni su set di dati complessi.
I risultati della ricerca
I risultati ottenuti sono chiaramente dominati dall’applicazione di pregiudizi. Vi è un significativo problema di gender equality non rispettata, esaltazione delle figure maschili a discapito di quelle femminili; alcune parole chiave che identificano potere hanno creato immagini che privilegiano persone di razza bianca, applicando quindi pregiudizi di etnia.
Questo perché questi modelli vengono addestrati su enormi quantità di dati e immagini prelevati da Internet, un processo che non solo riflette ma amplifica ulteriormente gli stereotipi su razza e genere, ma non solo.
DALL-E: Digitando il prompt “primo ministro” i risultati mostrano uomini di razza bianca
Il modello di Stable Diffusion si riferisce alla diffusione di informazioni e influenze all’interno di una rete sociale; pertanto, se all’interno di una rete sociale viene diffusa una certa informazione o opinione si può creare un effetto a catena che fa sì che le persone si influenzino a vicenda e si creino determinati pregiudizi o convinzioni basate su dati errati e non realistici.
DALL-E: Anche con il prompt “top manager” i risultati danno solo uomini; unica variante, in questo caso, su quattro uno ha tratti asiatici, gli altri sono bianchi
Le echo chamber, cosa sono, come si formano
Si può arrivare anche alla formazione di ”echo chamber”, dove le persone si ritrovano a condividere e rafforzare le loro convinzioni senza alcuna contestazione esterna, il che può portare a un’ulteriore radicalizzazione delle opinioni e all’esclusione di chi la pensa diversamente.
Una echo chamber è un ambiente in cui le persone sono esposte solo a idee e opinioni che rafforzano le loro convinzioni esistenti, senza alcuna esposizione a punti di vista diversi. L’intelligenza artificiale può essere utilizzata per creare e mantenere queste echo chamber in diversi modi.
Ad esempio, i motori di ricerca possono essere personalizzati per mostrare solo risultati che confermano le opinioni dell’utente, ignorando quelli che potrebbero sfidare quelle opinioni. I feed di social media possono anche essere personalizzati per mostrare solo i post che supportano le opinioni dell’utente, creando una bolla di informazioni che confermano le sue idee preesistenti.
Questo tipo di echo chamber può portare alla polarizzazione, alla chiusura mentale e all’incapacità di considerare punti di vista diversi. Alcune aziende e ricercatori stanno sviluppando soluzioni per ridurre l’impatto delle echo chamber, come l’utilizzo di algoritmi che mostrano una gamma più ampia di opinioni e punti di vista.
Conclusioni
In sintesi, il modello di Stable Diffusion e altri modelli simili possono contribuire alla creazione di pregiudizi e alla formazione di echo chamber all’interno delle reti sociali, se non vengono adottati strumenti e pratiche che promuovano la diversità di opinioni e il confronto critico tra i membri della comunità.
OpenAI e Stability.AI, la società che ha creato Stable Diffusion, affermano di aver introdotto correzioni per mitigare i pregiudizi radicati nei loro sistemi, come il blocco di determinati prompt che sembrano generare immagini offensive. Tuttavia, la ricerca di Hugging Face mostra quanto siano ancora limitate queste correzioni.
Fonti:
OpenAi, Wired, Hugging face, unive.it, MIT Technology Review