Gemini può ora rilevare i deepfake anche nei video

Gemini può ora rilevare i deepfake anche nei video

Google estende in Gemini la funzione di verifica dei contenuti ai video generati o modificati con i propri modelli di intelligenza artificiale, con un responso contestualizzato e articolato su quali porzioni sono state create artificialmente

di pubblicata il , alle 13:21 nel canale Web
GoogleGemini
 

Google ha ampliato anche ai video la funzione dell'app Gemini che consente di riconoscere i contenuti generati dai propri modelli AI, consentendo agli utenti di capire se un filmato sia stato creato o modificato tramite Google AI. Sottoponendo un video all'analisi di Gemini sarà possibile ricevere una risposta dettagliata sull'impiego dell'IA di Google nel contenuto esaminato.

Il sistema si basa sulla filigrana digitale proprietaria SynthID, applicata in modo impercettibile alle immagini e ai segmenti video generati dai modelli di Google, senza alterarne la qualità visiva o sonora. Questa filigrana viene inserita al momento della creazione del contenuto e, secondo Google, è progettata per resistere a modifiche come ritagli, applicazione di filtri, variazioni del frame rate o compressioni con perdita di qualità, rendendo più difficile rimuovere le tracce dell'porigine artificiale del materiale .

Con la nuova funzione di verifica dei video, Gemini esamina sia la traccia video sia quella audio alla ricerca della filigrana SynthID, combinando questa analisi con le proprie capacità di ragionamento per restituire un riscontro contestualizzato: la risposta, pertanto, non si limita al riscontro sì-no, ma indica esplicitamente le porzioni del filmato in cui la filigrana è stata rilevata, ad esempio formulazioni come "SynthID detected within the audio between 10-20 secs. No SynthID detected in the visuals", che chiariscono quali elementi siano stati generati attraverso l’IA di Google e quali invece siano autentici.

Google aveva introdotto qualche tempo fa la verifica per le immagini, anche in questo caso limitata ai contenuti realizzati o modificati con i suoi strumenti di AI. La logica è la medesima, e cioè l'associazione di una filigrana digitale ai contenuti generati artificialmente, in maniera trasparente all'utente ma riconoscibile da appositi strumenti.

Resta però aperto il tema della robustezza di tali sistemi di marcatura: in passato alcuni watermark applicati ai contenuti AI si sono dimostrati relativamente facili da rimuovere, come emerso nel caso dei video generati da Sora, dove sono rapidamente comparsi online strumenti dedicati alla “"pulizia" delle filigrane digitali per rendere più difficile l'ndividuazione dell'origine artificiale dei filmati.

Quanto a SynthID, al momento non è chiaro quanto sia semplice o complesso, nel caso si ricorra all'uso di strumenti di editing avanzati, tentare di rimuovere o degradare la filigrana, né quanto facilmente piattaforme di terze parti potranno rilevare la presenza di SynthID e utilizzare tali informazioni per etichettare in modo automatico i contenuti come generati dall'IA.

All’interno dell’ecosistema Google esistono già altri strumenti di trasparenza, come il modello di generazione di immagini Nano Banana AI integrato in Gemini, che incorpora metadati compatibili con lo standard C2PA per le credenziali dei contenuti. Questi metadati servono a indicare l'origine e la storia di modifiche di un'immagine, con l'obiettivo di costruire una sorta di "cartella clinica" tecnica che accompagna il file lungo la sua diffusione online, facilitando l'identificazione di ciò che è stato prodotto tramite strumenti di intelligenza artificiale.

Va però osservato che al momento manca un sistema coordinato e ampiamente adottato di etichettatura dei contenuti generati dall'AI tra le varie piattaforme social e di condivisione. L'assenza di un approccio comune fa sì che molti contenuti, inclusi potenziali deepfake, possano circolare senza un chiaro contrassegno della loro natura artificiale, rendendo più difficile per gli utenti distinguere ciò che è reale da ciò che è creato o modificato dall’IA .

Per quanto riguarda, invece, l'aspetto più pragmatico, il sistema di verifica dei video in Gemini presenta alcuni limiti tecnici pensati per equilibrare l'accuratezza dell'analisi con costi computazionali. È possibile caricare file video fino a 100 MB e della durata massima di 90 secondi, parametri che rendono gestibile l'elaborazione diretta dall'app e riducono i tempi di risposta, pur limitando la possibilità di verificare contenuti più lunghi come filmati completi o dirette estese. La funzione di verifica è disponibile in tutte le lingue e in tutti i Paesi in cui l'app Gemini è distribuita, ampliando così il numero di persone che possono controllare l'origine dei contenuti video con cui interagiscono .

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^