Google DeepMind ha sviluppato SynthID, un innovativo strumento per identificare testi generati da intelligenza artificiale, che ora è disponibile come open source. SynthID fa parte di una serie di strumenti di watermarking per output generativi, che include anche watermark per immagini e video generati da AI.
L’importanza dei watermark
I watermark sono emersi come strumenti fondamentali per aiutare le persone a determinare quando un contenuto è generato da AI, contribuendo a contrastare problemi come la disinformazione. “Ora, altri sviluppatori di AI generativa potranno utilizzare questa tecnologia per rilevare se i testi provengono dai loro modelli linguistici, facilitando lo sviluppo responsabile dell’AI,” afferma Pushmeet Kohli, vicepresidente della ricerca di Google DeepMind.
A maggio 2024 DeepMind ha esteso le capacità di SynthID al watermarking del testo generato dall’intelligenza artificiale nell’app Gemini e nell’esperienza web, e al video in Veo, il modello video generativo più capace.
SynthID per il testo è progettato per integrare la maggior parte dei modelli di generazione di testo AI disponibili e per essere distribuito su scala, mentre SynthID per il video si basa sul metodo di watermarking delle immagini e dell’audio per includere tutti i fotogrammi nei video generati. Questo metodo innovativo incorpora un watermark impercettibile senza influire sulla qualità, l’accuratezza, la creatività o la velocità del processo di generazione del testo o del video.
DeepMind ammette che SynthID non è una pallottola d’argento per l’identificazione dei contenuti generati dall’AI, ma è un elemento importante per lo sviluppo di strumenti di identificazione dell’AI più affidabili e può aiutare milioni di persone a prendere decisioni informate su come interagire con i contenuti generati dall’AI.
Come funziona SynthID
SynthID funziona aggiungendo un watermark invisibile direttamente nel testo generato da un modello AI. I modelli linguistici di grandi dimensioni operano scomponendo il linguaggio in “token” e prevedendo quale token è più probabile che segua l’altro. SynthID introduce informazioni aggiuntive modificando la probabilità che i token vengano generati.
Risultati dell’esperimento su larga scala
Google DeepMind ha condotto un esperimento su vasta scala per testare l’efficacia di SynthID, coinvolgendo milioni di utenti. I risultati hanno dimostrato che l’uso del watermark non compromette la qualità, l’accuratezza, la creatività o la velocità del testo generato.
SynthID presenta alcune limitazioni. Il watermark resiste a modifiche leggere, come il ritaglio del testo o piccole riscritture, ma è meno affidabile quando il testo generato da AI viene riscritto o tradotto. Inoltre, è meno efficace nelle risposte a domande fattuali.
Le opinioni degli esperti
In un articolo pubblicato da MIT Technology Review, Soheil Feizi, professore associato all’Università del Maryland, sottolinea che ottenere un watermarking affidabile e impercettibile è una sfida, specialmente in scenari deterministici. L’apertura del codice di Google DeepMind è vista positivamente per la comunità AI, permettendo di testare e valutare la robustezza dei rilevatori in diversi contesti.
João Gante, ingegnere di machine learning presso Hugging Face, evidenzia che l’open source permette a chiunque di incorporare il watermarking nei propri modelli, migliorando la privacy del watermark stesso. Tuttavia, Irene Solaiman, responsabile della politica globale di Hugging Face, avverte che i watermark non sono una soluzione universale e devono essere parte di un ecosistema più ampio di salvaguardie.