Google Photos introdurrà un sistema di filigrana digitale, SynthID, per identificare le immagini modificate tramite la funzione di intelligenza artificiale generativa “Magic Editor”. Il lancio di questa nuova funzionalità è previsto per questa settimana e mira a facilitare il riconoscimento delle immagini manipolate con lo strumento “Reimmagina” di Magic Editor. SynthID, sviluppato dal team DeepMind di Google, è un sistema di watermarking che incorpora un tag di metadati digitali direttamente in immagini, video, audio e testo per segnalare se sono stati creati o alterati utilizzando strumenti di IA. Questo sistema è già in uso per le immagini generate interamente tramite il modello text-to-image Imagen di Google. Anche altre aziende, come Adobe con le Content Credentials applicate alle opere create o modificate con la suite Creative Cloud, hanno sviluppato sistemi di watermarking simili.
Precedentemente è stata documentata la facilità con cui è possibile modificare fotografie in modo convincente tramite la funzione disponibile sui telefoni Pixel 9 di Google, semplicemente descrivendo l’aggiunta desiderata. Sebbene gli strumenti di editing basati su IA non siano intrinsecamente dannosi, Magic Editor ha generato contenuti inappropriati in immagini senza un’evidente indicazione che le manipolazioni fossero state generate dall’IA. Da ottobre scorso, Google ha iniziato ad aggiungere tag alle descrizioni dei file su Google Foto per le immagini modificate con IA.
Il nuovo aggiornamento con filigrana cerca di risolvere questa problematica, ma presenta alcune limitazioni. SynthID non altera visibilmente l’immagine a cui è allegato e può essere identificato tramite un apposito strumento di rilevamento IA integrato nella funzione “Informazioni su questa immagine” di Google. Google ha anche dichiarato che alcune modifiche apportate con la funzione “Reimmagina” di Magic Editor potrebbero essere troppo piccole per essere etichettate e rilevate da SynthID. Sebbene la tecnologia di watermarking possa essere d’aiuto nell’identificare le manipolazioni, alcuni esperti nel settore concordano sul fatto che da sola non sarà sufficiente per autenticare in modo affidabile i contenuti generati dall’IA su larga scala e richiederà una combinazione di approcci diversi che operino sinergicamente.