tecnologia

Google DeepMind rende open source SynthID, il watermark per testi generati da AI



Indirizzo copiato

Questo strumento fa parte di una famiglia più ampia di watermark per output generativi; è stato testato da milioni di utenti e si è dimostrato efficace senza compromettere la qualità del testo. Tuttavia, presenta ancora delle limitazioni, specialmente quando i testi sono tradotti o riscritti. L’apertura del codice mira a migliorare la sicurezza e l’affidabilità dei modelli AI

Pubblicato il 28 ott 2024



SinthID

Google DeepMind ha sviluppato SynthID, un innovativo strumento per identificare testi generati da intelligenza artificiale, che ora è disponibile come open source. SynthID fa parte di una serie di strumenti di watermarking per output generativi, che include anche watermark per immagini e video generati da AI.

L’importanza dei watermark

I watermark sono emersi come strumenti fondamentali per aiutare le persone a determinare quando un contenuto è generato da AI, contribuendo a contrastare problemi come la disinformazione. “Ora, altri sviluppatori di AI generativa potranno utilizzare questa tecnologia per rilevare se i testi provengono dai loro modelli linguistici, facilitando lo sviluppo responsabile dell’AI,” afferma Pushmeet Kohli, vicepresidente della ricerca di Google DeepMind.

SynthID: A new tool for watermarking and identifying AI-generated content

A maggio 2024 DeepMind ha esteso le capacità di SynthID al watermarking del testo generato dall’intelligenza artificiale nell’app Gemini e nell’esperienza web, e al video in Veo, il modello video generativo più capace.
SynthID per il testo è progettato per integrare la maggior parte dei modelli di generazione di testo AI disponibili e per essere distribuito su scala, mentre SynthID per il video si basa sul metodo di watermarking delle immagini e dell’audio per includere tutti i fotogrammi nei video generati. Questo metodo innovativo incorpora un watermark impercettibile senza influire sulla qualità, l’accuratezza, la creatività o la velocità del processo di generazione del testo o del video.

SinthID


DeepMind ammette che SynthID non è una pallottola d’argento per l’identificazione dei contenuti generati dall’AI, ma è un elemento importante per lo sviluppo di strumenti di identificazione dell’AI più affidabili e può aiutare milioni di persone a prendere decisioni informate su come interagire con i contenuti generati dall’AI.

Come funziona SynthID

SynthID funziona aggiungendo un watermark invisibile direttamente nel testo generato da un modello AI. I modelli linguistici di grandi dimensioni operano scomponendo il linguaggio in “token” e prevedendo quale token è più probabile che segua l’altro. SynthID introduce informazioni aggiuntive modificando la probabilità che i token vengano generati.

SinthID
Immagine DeepMind

Risultati dell’esperimento su larga scala

Google DeepMind ha condotto un esperimento su vasta scala per testare l’efficacia di SynthID, coinvolgendo milioni di utenti. I risultati hanno dimostrato che l’uso del watermark non compromette la qualità, l’accuratezza, la creatività o la velocità del testo generato.

SynthID presenta alcune limitazioni. Il watermark resiste a modifiche leggere, come il ritaglio del testo o piccole riscritture, ma è meno affidabile quando il testo generato da AI viene riscritto o tradotto. Inoltre, è meno efficace nelle risposte a domande fattuali.

SinthID
Immagine DeepMind

Le opinioni degli esperti

In un articolo pubblicato da MIT Technology Review, Soheil Feizi, professore associato all’Università del Maryland, sottolinea che ottenere un watermarking affidabile e impercettibile è una sfida, specialmente in scenari deterministici. L’apertura del codice di Google DeepMind è vista positivamente per la comunità AI, permettendo di testare e valutare la robustezza dei rilevatori in diversi contesti.

SynthID: A tool for watermarking and identifying AI-generated content

João Gante, ingegnere di machine learning presso Hugging Face, evidenzia che l’open source permette a chiunque di incorporare il watermarking nei propri modelli, migliorando la privacy del watermark stesso. Tuttavia, Irene Solaiman, responsabile della politica globale di Hugging Face, avverte che i watermark non sono una soluzione universale e devono essere parte di un ecosistema più ampio di salvaguardie.

Articoli correlati

Articolo 1 di 4