Dalle galassie ai pixel: le tecniche astronomiche possono aiutare a rilevare i deepfake

Utilizzando tecniche di analisi dei corpi celesti dello spazio profondo, un gruppo di ricercatori è riuscito ad identificare i deepfake osservando le incongruenze dei riflessi della luce negli occhi dei soggetti
di Andrea Bai pubblicata il 23 Luglio 2024, alle 15:31 nel canale Scienza e tecnologiaGli astronomi stanno applicando le loro competenze nell'analisi delle immagini degli oggetti dello spazio profondo ad un problema decisamente... terrestre: l'identificazione dei deepfake.
Come abbiamo avuto modo di sottolineare più volte, la sofisticazione raggiunta dalle tecnologie di intelligenza artificiale generativa permette di ricreare immagini che, ad occhio nudo, sono del tutto indistinguibili da fotografie autentiche, sollevando gravi problemi di attendibilità e credibilità e, di conseguenza, innalzando il rischio della diffusione di disinformazione (o, più in generale, alimentando il fenomeno di Information War come recentemente descritto dalla società di sicurezza russa Kaspersky).
Un gruppo di ricercatori guidato da Kevin Pimbblet, direttore del Centre of Excellence for Data Science, Artificial Intelligence and Modelling dell'Università di Hull sta esplorando un nuovo approccio per riconoscere i deepfake: il lavoro è stato presentato lo scorso 15 luglio al National Astronomy Meeting della UK Royal Astronomical Society.
Al centro dell'approccio dei ricercatori c'è l'analisi dei riflessi negli occhi dei soggetti ritratti. Secondo il suo team, le fotografie autentiche dovrebbero mostrare una "fisica coerente" nei riflessi oculari, con pattern riconoscibili come simili in entrambi gli occhi.

Gli occhi nelle immagini deepfake (sinistra) presentano schemi di riflessione incoerenti (destra). Adejumoke Owolabi - Fonte: Nature
Per rilevare le sottili discrepanze che potrebbero indicare una manipolazione, i ricercatori hanno adattato strumenti e tecniche sviluppati originariamente per studiare galassie lontane.
Il primo di essi è il sistema CAS, a lungo utilizzato dagli astronomi per caratterizzare la luce delle stelle extragalattiche, mediante la quantificazione della concentrazione, dell'asimmetria e della fluidità della distribuzione della luce di un oggetto.
Il secondo è l'indice di Gini, utilizzato in campo statistico e che gli astronomi usano per misurare la disuguaglianza nella distribuzione della luce nelle immagini delle galassie.Adejumoke Owolabi, scienziato dei dati presso l'Università di Hull, ha condotto gli esperimenti per la sua tesi di laurea magistrale. Utilizzando immagini reali dal dataset Flickr-Faces-HQ e creando volti falsi con un generatore di immagini AI, Owolabi ha analizzato i riflessi negli occhi delle immagini utilizzando le tecniche precedentemente indicate.
I risultati sono stati promettenti: confrontando i riflessi nei bulbi oculari di un individuo, i ricercatori sono stati in grado di rilevare correttamente se un'immagine fosse falsa nel 70% circa dei casi. L'analisi ha inoltre mostrato una maggior efficacia dell'indice di Gini rispetto al sistema CAS nel rilevare le manipolazioni.
Il tasso di successo del 70% lascia comunque spazio ad un potenziale non trascurabile di falsi positivi e falsi negativi, come riconosciuto dallo stesso Pimbblet, che sottolinea però il potenziale dell'approccio, suggerendo una sua integrazione in un insieme più ampio di test per la verifica dell'autenticità delle immagini.
Su Nature, che ha condiviso il lavoro di Pimbblet e Owolabi, vengono riportati anche i pareri di altri scenziati, in particolare Zhiwu Huang, ricercatore di intelligenza artificiale presso l'Università di Southampton, che suggerisce come tecniche simili potrebbero essere utili per analizzare sottili anomalie nell'illuminazione, nelle ombre e nei riflessi in diverse parti di un'immagine, contribuendo quindi non solo al rilevamento dei deepfake ma anche di immagini generate dall'IA che risultano indistinguibili da fotografie reali.
Brant Robertson, un astrofisico dell'Università della California, Santa Cruz, accoglie positivamente i risultati del lavoro di Pimbblet e di Owolabi, ma avverte che la stessa tecnica utilizzata per rilevare i deepfake nei loro esperimenti potrebbe essere a sua volta usata per addestrare nuovi modelli IA generativi a realizzare immagini ancor più realistiche.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".