Esperti di tecnologia chiedono azioni urgenti contro i Deepfake: una lettera aperta rivolta ai Governi

Oltre 400 esperti globali di tecnologia, intelligenza artificiale, etica digitale e sicurezza dei minori hanno collaborato per redigere una lettera aperta che esorta i governi ad agire "immediatamente" per affrontare i problemi correlati ai Deepfake.
di Rosario Grasso pubblicata il 23 Febbraio 2024, alle 14:05 nel canale WebUna lettera intitolata "Disrupting the Deepfake Supply Chain", firmata da centinaia di esperti di tecnologia, è stata inoltrata ai principali Governi al fine di esortare i legislatori e i leader politici a "imporsi obblighi" nella loro programmazione per trovare delle soluzioni per fermare la proliferazione dei Deepfake.
"I Deepfake rappresentano un'enorme minaccia per l'umanità e stanno già causando crescenti danni agli individui e alla democrazia", ha spiegato Andrew Critch, ricercatore di IA presso l'Università della California, Berkeley, autore principale della lettera. Soprattutto negli Stati Uniti, quello sui Deepfake è diventato un dibattito molto acceso dopo che su alcune piattaforme di social network sono state diffuse immagini che hanno coinvolto la pop star Taylor Swift, rappresentata in atteggiamenti critici. I legislatori degli Stati Uniti hanno chiesto una legislazione per criminalizzare la produzione di immagini di questo tipo proprio all'indomani della diffusione dei contenuti su Taylor Swift.
I Deepfake sono immagini, audio e video realistici creati da algoritmi di intelligenza artificiale. I recenti progressi nella tecnologia li hanno resi sempre più indistinguibili dal contenuto creato dall'uomo, il che crea delle enormi questioni quando vengono utilizzati per trasmettere messaggi inesistenti nella realtà.
La lettera punta a combattere la loro diffusione fornendo raccomandazioni su come regolamentare i Deepfake, tra cui la completa criminalizzazione della pornografia infantile realizzata tramite Deepfake, con sanzioni penali per chiunque crei o faciliti la diffusione di Deepfake dannosi e l'obbligo per le aziende di IA di impedire ai loro prodotti di creare questo tipo di contenuti.
Oltre 400 individui provenienti da varie aree tra cui accademici, protagonisti del mondo dell'intrattenimento e politici hanno firmato la lettera. Tra i firmatari figurano Steven Pinker, professore di psicologia ad Harvard, Yoshua Bengio, scienziato noto per il suo lavoro sulle reti neurali artificiali e sul deep learning, così come ricercatori di Google, DeepMind e OpenAI.
Assicurare che i sistemi di intelligenza artificiale non danneggino la società è stata una priorità per i regolatori fin dall'annuncio di ChatGPT da parte di Microsoft e OpenAI nel 2022, che ha stupito gli utenti perché consentiva loro di intrattenere conversazioni simili a quelle umane e di svolgere altre attività avanzate. Poi, i modelli di intelligenza artificiale generativa sono arrivati ai mondi delle immagini e dei video, mettendo a disposizione un potenziale enorme, fino al recente lancio di OpenAI Sora, il nuovo modello IA che realizza video credibili partendo da un prompt testuale.
Avvertimenti da parte di personalità di spicco riguardo ai rischi legati all'IA sono già giunti da più direzioni e, in particolare, una lettera firmata, tra gli altri, anche da Elon Musk l'anno scorso che chiedeva una pausa di sei mesi nello sviluppo di sistemi più potenti rispetto al già avanzatissimo modello AI GPT-4 di OpenAI.
29 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoergo, è la stupidità umana il problema, non la tecnologia... e siccome la stupidità si poggia su 200 mila anni di evoluzione, è brigosetto "aggiustarla"
Si e no
Credo che una stretta su certi modelli di IA danneggerà le grandi aziende (Google/Microsoft/Apple ecc.) perché non potranno implementare delle funzioni nella loro IA mentre il produttore anonimo potrà rilasciare la sua IA senza restrizioni che gli utenti si potranno "Passare" a vicenda un pò come nella pirateria ci si scambia gli MP3 illegali delle musiche
Credo che una stretta su certi modelli di IA danneggerà le grandi aziende (Google/Microsoft/Apple ecc.) perché non potranno implementare delle funzioni nella loro IA mentre il produttore anonimo potrà rilasciare la sua IA senza restrizioni che gli utenti si potranno "Passare" a vicenda un pò come nella pirateria ci si scambia gli MP3 illegali delle musiche
Però già ora i modelli delle grandi aziende sono pesantemente censurati, con Bing Chat neanche sono riuscito a generare Hamilton che guida una Ferrari da Formula 1, quindi per loro mi sa che non cambierebbe nulla, mentre molti dei siti da cui è possibile scaricare i modelli liberamente dovrebbero sostanzialmente chiudere perché non vorrebbero assumersi i rischi.
Si troverebbero sicuramente da altre fonti però il tutto risulterebbe più difficile, significherebbe di fatto rendere illegali le IA generative aperte perché in ogni caso sarebbe possibile renderle in grado di generare contenuti illegali dopo un po' di fine tuning.
Detto questo penso che non se ne farà nulla
Si troverebbero sicuramente da altre fonti però il tutto risulterebbe più difficile, significherebbe di fatto rendere illegali le IA generative aperte perché in ogni caso sarebbe possibile renderle in grado di generare contenuti illegali dopo un po' di fine tuning.
Detto questo penso che non se ne farà nulla
Infatti se non sono riusciti a chiudere thepiratebay dopo 10 anni o fermare il traffico di torrent illegali in generale di certo non riusciranno a fermare la circolazione di IA incensurate - ed è per questo motivo per il quale penso che alla fine quelle più colpite saranno le grande aziende che saranno costrette a fornire solo IA decelebrate; Insomma, si stanno dando solo una zappa sui piedi.
Sul non riuscire a fermare sono d'accordo, per questo sono dell'idea che non se ne farà nulla, però penso che se lo facessero gli utenti ne resterebbero danneggiati, è vero che attualmente si trovano mp3 e materiali illegali ma se fosse legale condividerli si troverebbero ancora più facilmente.
Poi sarebbe più difficile anche rilasciare nuovi modelli aperti, ad esempio se Stability AI volesse rilasciare un nuovo Stable Diffusion XXXL..no facciamo XXL che la tripla X è ambigua
ergo, è la stupidità umana il problema, non la tecnologia... e siccome la stupidità si poggia su 200 mila anni di evoluzione, è brigosetto "aggiustarla"
come se internet fosse l'unico problema...
è uno e forse anche il minore.
e in decenni non si è riusciti ad avere post in lingua italiana...
Una prova che io sono umano e non una macchina
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".