HONOR usa l'IA per proteggere gli utenti dai deepfake: ecco AI Deepfake Detection

HONOR usa l'IA per proteggere gli utenti dai deepfake: ecco AI Deepfake Detection

HONOR ha introdotto una nuova tecnologia di rilevamento deepfake basata sull'IA per proteggere gli utenti dalle frodi online. La feature funziona on-device e analizza minuziosamente le immagini per individuare manipolazioni digitali.

di pubblicata il , alle 15:01 nel canale Apple
honor
 

La proliferazione dei deepfake rappresenta una minaccia crescente per la sicurezza digitale e la privacy degli utenti e HONOR vuole rispondere a questa nuova sfida con una soluzione all'avanguardia proprietaria, chiamata AI Deepfake Detection.

I deepfake, contenuti multimediali artificiali incredibilmente realistici, hanno il potenziale di ingannare persino i sistemi di riconoscimento facciale più sofisticati. Recenti episodi hanno visto l'uso di video contraffatti di celebrità per perpetrare truffe finanziarie ai danni di fan ignari e, secondo uno studio condotto da Deloitte, l'intelligenza artificiale generativa sta amplificando il rischio di frodi basate su deepfake nel settore bancario.

AI Deepfake Detection: l'IA addestrata da HONOR per proteggere gli utenti dai deepfake

Per contrastare questa tendenza allarmante, HONOR ha sviluppato una tecnologia di rilevamento deepfake integrata direttamente nei dispositivi. Questa soluzione analizza meticolosamente le caratteristiche spaziali delle immagini, cercando imperfezioni a livello di pixel, incongruenze nei bordi e anomalie nella continuità tra i fotogrammi. L'IA è in grado di rilevare anche le più sottili discrepanze nei tratti del viso, sottolinea il produttore, segnalando tempestivamente agli utenti potenziali tentativi di frode.

La tecnologia di HONOR si distingue per la sua capacità di operare direttamente sul dispositivo, evitando i rischi associati all'elaborazione cloud, come malware o violazioni della sicurezza. L'approccio on-device è parte integrante di MagicOS, il sistema operativo mobile di HONOR, che incorpora MagicGuard, un sistema di protezione multilivello che copre chipset, sistema operativo e applicazioni. L'azienda sta anche collaborando con leader del settore per implementare sistemi di crittografia hardware, garantendo un ulteriore strato di protezione per i dati degli utenti.

AI Deepfake Detection si inserisce in un contesto di crescente sfiducia verso le tecnologie emergenti basate sull'IA, offrendo agli utenti strumenti per identificare potenziali minacce e creare un ambiente digitale più sicuro e affidabile. L'azienda continua a investire in ricerca e sviluppo per offrire prodotti e servizi che permettano agli utenti di sfruttare appieno le potenzialità della tecnologia e, con l'evolversi delle minacce digitali, soluzioni come AI Deepfake Detection rischiano di divenire sempre più cruciali..

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
AntisocialNTwo19 Settembre 2024, 15:17 #1
Vedendo la proprietà di Honor e Huawei è più probabile che questa tecnologia venga usata per marcare immagini vere (magari di qualcosa che non piace al governo) come fake e mascherare invece quelle immagini generate con l'IA che fanno da megafono per il partito comunista cinese e la sua narrativa.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^