Google, Microsoft e Meta firmano accordo contro deepfake in vista delle prossime elezioni

Google, Microsoft e Meta firmano accordo contro deepfake in vista delle prossime elezioni

Le principali aziende tecnologiche stanno discutendo un accordo per lo sviluppo di soluzioni che possano identificare e controllare immagini, video e registrazioni audio generati dall’intelligenza artificiale con l'obiettivo di ingannare gli elettori in vista delle elezioni cruciali negli Usa ma anche in altre parti del mondo.

di pubblicata il , alle 13:31 nel canale Web
GoogleMicrosoftMetaTikTokAdobeOpenAI
 

L’accordo riguarda i principali protagonisti del mondo della tecnologia, segnatamente Google, Microsoft, Meta, OpenAI, Adobe e TikTok. Si concentra sull'individuazione dei contenuti generati con le moderne tecnologie di intelligenza artificiale e deepfake ma, come sottolinea il Washington Post, non prevede, almeno in questa fase, il divieto di divulgazione di questi contenuti ingannevoli. X, prima nota come Twitter, non è tra i firmatari dell'accordo.

Il documento equivale a un manifesto in cui si afferma che i contenuti generati dall’intelligenza artificiale, molti dei quali creati con gli strumenti messi a disposizione da queste stesse aziende e pubblicati sulle loro piattaforme, presentano rischi e possono incidere sui prossimi cruciali risultati elettorali, negli Stati Uniti così come in Europa. Inoltre, la nuova strategia delinea le misure per cercare di mitigare tale rischio, come etichettare i contenuti sospetti ed educare il pubblico sui pericoli connessi alle nuove forme di intelligenza artificiale.

Deepfake

"La generazione e la distribuzione intenzionale di contenuti elettorali basati sull’intelligenza artificiale può ingannare il pubblico in modi che mettono a repentaglio l’integrità dei processi elettorali", si legge nell’accordo, a cui altre aziende possono aggiungersi in un secondo momento.

"In un anno critico per le elezioni in tutto il mondo, le aziende tecnologiche stanno lavorando a un accordo per combattere l’uso ingannevole dell’intelligenza artificiale in riferimento ai processi elettorali" si legge ancora. "Adobe, Google, Meta, Microsoft, OpenAI, TikTok e altri stanno lavorando insieme per progredire su questo obiettivo condiviso e speriamo di finalizzare e presentare i dettagli venerdì alla Conferenza sulla sicurezza di Monaco", ha scritto David Cuddy, portavoce di Microsoft, in una email.

Le immagini generate dall’intelligenza artificiale, o “deepfake”, esistono da diversi anni, ma nell’ultimo anno la loro qualità è migliorata a tal punto che in molti casi è diventato impossibile distinguere tra realtà e finzione. Anche gli strumenti per realizzarli sono rapidamente progrediti e ormai messi alla portata di un maggior numero di utenti, perché spesso disponibili gratuitamente e immediati da usare. Diventa un ostacolo pressoché insormontabile per chi ha a cuore la veridicità dell'informazione anche se, paradossalmente, in un mondo sempre più complesso l'eventuale rilascio di strumenti per combattere la disinformazione è avverso da una parte della popolazione.

I contenuti generati dall’intelligenza artificiale sono già diventati protagonisti di alcune campagne elettorali. L’anno scorso, uno spot pubblicitario a sostegno dell’ex candidato presidenziale repubblicano Ron DeSantis ha impiegato tecniche di intelligenza artificiale per imitare la voce di Donald Trump. In Pakistan, il candidato alla presidenza Imran Khan ha utilizzato l’intelligenza artificiale per tenere discorsi, anche se si trovava in carcere. A gennaio, un robot che fingeva di essere il presidente Biden ha incoraggiato le persone a non votare alle primarie del New Hampshire con telefonate con voce generata a partire da alcune frasi pronunciate dallo stesso presidente.

Le aziende tecnologiche hanno subito pressioni da parte di regolatori, ricercatori e attivisti politici per frenare la diffusione di contenuti elettorali falsi. Il nuovo accordo è quindi simile a un impegno volontario che le stesse aziende hanno firmato dopo un incontro alla Casa Bianca nello scorso luglio. Nel nuovo accordo, le aziende si impegnano inoltre a educare gli utenti sui contenuti ingannevoli e a essere trasparenti sui loro sforzi per identificare i deepfake.

Le compagnie coinvolte, inoltre, hanno già dispiegato accortezze per limitare fin da subito la diffusione di questo tipo di contenuti. TikTok, ad esempio, quando si tratta di sponsorizzazioni politiche o commerciali non consente l'utilizzo di contenuti IA falsi legati a personaggi pubblici o del mondo della politica. Meta, invece, richiede agli inserzionisti di rivelare se utilizzano l’intelligenza artificiale negli annunci sulle sue piattaforme che riguardano la politica. YouTube richiede ai creatori di etichettare i contenuti generati dall'intelligenza artificiale che sembrano realistici. Tuttavia, nessuna di queste piattaforme tecnologiche riesce ancora a distinguere automaticamente tra contenuti genuini e contenuti creati con intelligenza artificiale, il che può portare a conseguenze decisamente inquietanti, e non solo in termini di campagne elettorali. Anche perché molte persone subiscono una forte emozione al primo impatto con il contenuto fake e, una volta che è stato confutato, hanno ormai acquisito un'idea che non sono più disposte a trattare.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Doraneko14 Febbraio 2024, 17:10 #1
Ottimo! L'intelligenza artificiale non ruberà il lavoro ai bugiardi!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^