SynthID, arriva lo strumento di Google per identificare le immagini generate con l'AI

SynthID, arriva lo strumento di Google per identificare le immagini generate con l'AI

Google sviluppa un sistema che permette di marcare e identificare le immagini realizzate con l'intelligenza artificiale: un primo passo verso un uso e una fruizione più consapevole?

di pubblicata il , alle 15:31 nel canale Scienza e tecnologia
Google
 

Nei giorni scorsi Google ha compiuto un importante passo in direzione della trasparenza delle immagini generate tramite intelligenza artificiale con la presentazione di SynthID, uno strumento di marcatura e identificazione per l'arte generativa.

La tecnologia, si legge nel blog di DeepMind, integra direttamente nei pixel dell'immagine una "filigrana" o watermark digitale che risulta invisibile all'occhio umano. SynthID verrà introdotto inizialmente per un numero limitato di clienti che utilizzano Imagen, il generatore di arte di Google disponibile nella suite di strumenti AI cloud.

L'arte generativa ha fin da subito posto una serie di grattacapi etici, come ad esempio la creazione dei cosiddetti deepfake. L'immagine virale del papa in versione hip hop, creata con MidJourney, è un esempio goliardico di cosa potrebbe diffondersi con gli strumenti di AI generativa: non è difficile immaginare che al posto di un'immagine irriverente ma, nei fatti, innocua possano diffondersi invece false informazioni che vengono accreditate di credibilità solo perché paiono essere state pronunciate da questa o da quella personalità pubblica.

Lo scorso luglio dopo un incontro alla Casa Bianca, sette realtà che operano nel campo dell'AI (tra cui, oltre la stessa Google, anche Meta, Microsoft e OpenAI) si sono impegnate a sviluppare sistemi di marcatura per indicare contenuti creati con le tecnologie generative, e Google è la prima di esse ad annunciare l'implementazione di questo sistema con SynthID.

DeepMind spiega che il watermark è incorporato direttamente nei pixel dell'immagine generata dall'IA, rendendola riconoscibile ma non alterandone la percezione visiva per l'utente. Non vengono rivelati particolari dettagli tecnici, probabilmente per evitare che si possano realizzare strumenti in grado di aggirare il sistema. Da Mountain View, però, giunge la rassicurazione che il watermark non può essere facilmente rimosso con semplici modifiche all'immagine, anche se Google ammette che non si tratta di una soluzione infallibile, in particolare contro manipolazioni estreme.

Come spiegano sul blog DeepMind i responsabili Sven Gowal e Pushmeet Kohli, la complessità del sistema è stata quella di trovare il giusto equilibrio tra la non-percettibilità del watermark e la robustezza alle manipolazioni. SynthID è stato progettato per non compromettere la qualità dell'immagine, rimanendo individuabile anche dopo modifiche come filtri, cambi di colore e la compressione tipica dei  di alcui algoritmi come quello JPEG.

SynthID si basa su una coppia di modelli di deep learning: uno per la marcatura e uno per l'identificazione delle immagini generate dall'IA. Entrambi sono addestrati su dataset eterogenei, fino a combinarli in un unico modello ML ottimizzato, come spiegano Gowal e Kohli. L'azienda prevede di estendere il sistema di marcatura anche ad altri modelli per generare testo, video e audio.

Tuttavia è bene osservare che una tecnologia di questo tipo potrebbe richiedere costanti aggiornamenti, poiché aprirebbe una fase in cui hacker, criminali informatici e malintenzionati cercano modi per aggirare i watermark o, al contrario, di replicarli per screditare immagini reali. Google intende comunque rendere SynthID disponibile a terze parti per migliorare la trasparenza del settore IA.

4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Unrue31 Agosto 2023, 16:31 #1
Ben vengano questi metodi, anche se non mi è chiaro cosa significhi inserire la filigrana nel pixel. Un pixel non è solo un colore? Come ci infili una filigrana?
AlPaBo31 Agosto 2023, 17:59 #2
Originariamente inviato da: Unrue
Ben vengano questi metodi, anche se non mi è chiaro cosa significhi inserire la filigrana nel pixel. Un pixel non è solo un colore? Come ci infili una filigrana?


Qui puoi leggere qualcosa in merito.

L'idea, basata su concetti di steganografia, è quella di modificare un certo numero di pixel presi in locazioni particolari dell'immagine, dandogli un colore diverso da quello originale. Modifiche di questo tipo sono invisibili all'occhio umano, ma possono essere individuate con appositi programmi. In base alle tecniche di selezione dei pixel e ai colori utilizzati (tecniche che io non ho studiato e quindi non conosco, ma ci sono varie pubblicazioni in materia), è possibile fare in modo che le informazioni siano disponibili anche dopo modifiche semplici dell'immagine (ridimensionamenti, tagli, ecc.).

Nota che si tratta di un articolo di 25 anni fa, per cui non è una novità.

Rimane il problema che una soluzione di una sola azienda non è adeguata, bisognerebbe modificare la normativa sul copyright in modo da prevedere obbligatoriamente tecniche di watermark per le immagini (e i testi e i suoni e i video) generate da IA in modo da renderle tutte riconoscibili indipendentemente dal produttore.
zancle31 Agosto 2023, 23:19 #3
Originariamente inviato da: AlPaBo
Qui puoi leggere qualcosa in merito.

L'idea, basata su concetti di steganografia, è quella di modificare un certo numero di pixel presi in locazioni particolari dell'immagine, dandogli un colore diverso da quello originale. Modifiche di questo tipo sono invisibili all'occhio umano, ma possono essere individuate con appositi programmi. In base alle tecniche di selezione dei pixel e ai colori utilizzati (tecniche che io non ho studiato e quindi non conosco, ma ci sono varie pubblicazioni in materia), è possibile fare in modo che le informazioni siano disponibili anche dopo modifiche semplici dell'immagine (ridimensionamenti, tagli, ecc.).

Nota che si tratta di un articolo di 25 anni fa, per cui non è una novità.

Rimane il problema che una soluzione di una sola azienda non è adeguata, bisognerebbe modificare la normativa sul copyright in modo da prevedere obbligatoriamente tecniche di watermark per le immagini (e i testi e i suoni e i video) generate da IA in modo da renderle tutte riconoscibili indipendentemente dal produttore.


facilmente aggirabile con un print screen o una foto dello schermo.
chi vuol creare scompiglio non gli serve una foto di qualità eccelsa, basta solo che la scena ritratta sia scandalosa e si riconoscano i soggetti.
AlPaBo31 Agosto 2023, 23:57 #4
Originariamente inviato da: zancle
facilmente aggirabile con un print screen o una foto dello schermo.
chi vuol creare scompiglio non gli serve una foto di qualità eccelsa, basta solo che la scena ritratta sia scandalosa e si riconoscano i soggetti.


Può darsi. Forse non hai letto dove ho scritto
è possibile fare in modo che le informazioni siano disponibili anche dopo modifiche semplici dell'immagine


Non credo che a Google siano così ingenui da non averci pensato.

Inoltre qui lo scopo principale è quello di proteggere la produzione autoriale umana; si vuole che sia possibile identificare un'immagine ottenuta da AI per due scopi:
[LIST=1]
[*]Si chiede che le AI non siano proteggibili, ma che il copyright sia previsto solo per la produzione umana.
[*]Se l'oggetto prodotto dall'AI è troppo simile a quella di un autore, si vuole applicare il diritto d'autore e chiederne la rimozione.
[/LIST]
Una immagine a bassa qualità non interessa.

Un ulteriore punto riguarda le immagini usate per fake new. Non a caso, già adesso le immagini a bassa qualità si squalificano da sole. La cosa sarà sempre più vera: se sei un produttore di fake new l'uso di immagini di bassa qualità, sgranate, con colori innaturali verrà sempre più considerata come un forte sintomo di falsità e verrà segnalato sui social dalle organizzazioni che se ne occupano.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^