PDA

View Full Version : Scarlett Johansson e video hard fasulli creati con la deepfake AI: "difendersi dalla depravazione è una causa persa"


Redazione di Hardware Upg
02-01-2019, 09:01
Link alla notizia: https://www.hwupgrade.it/news/web/scarlett-johansson-e-video-hard-fasulli-creati-con-la-deepfake-ai-difendersi-dalla-depravazione-una-causa-persa_79912.html

Lo sfogo sul Washington Post di Scarlett Johansson mette in luce ancora una volta il lato oscuro della AI: impossibile arginare la proliferazione di video hard fasulli che sovrappongono il volto delle celebrità in reali scene pornografiche

Click sul link per visualizzare la notizia.

nickname88
02-01-2019, 09:37
Oramai con i sex tape si ottiene ancora più visibilità.
Una volta ti licenziavano, adesso se spuntano fuori si diventa famosi.

kamon
02-01-2019, 09:48
Oramai con i sex tape si ottiene ancora più visibilità.
Una volta ti licenziavano, adesso se spuntano fuori si diventa famosi.

Di sicuro Scarlett Johansson non ha bisogno di questo per aumentare la sua notorietà.

Il fenomeno del deep learning applicato alla prouzione di falso materiale multimediale è effettivamente preoccupante, ma non tanto per quanto riguarda la pornografia quanto per il fatto che in un futuro non troppo lontano, certi personaggi potrebbero usarlo come spiegazione per cose che effettivamente hanno fatto ma che non vogliono ammettere... Immagino già il politico random pizzicato in un video mentre prende una mazzetta o in una telefonata in cui pianifica un omicidio: "signor magistrato, sono vittima di deepfake!", lo vediamo tutti i giorni già oggi, tizio x dice una bestialità su un social network di cui sottostima l'effetto, scoppia un casino e lui prontamente dice: "sono stato hackerato"...

tallines
02-01-2019, 09:49
Sembrerà assurdo, io ho trovato una conduttrice che mi piace moltissimo, in queste scene fasulle..........:doh: :doh:

Non si può, dice l' articolo risalire a chi ha fatto la stupidaggine......ma cancellare le immagini e oscurare il sito, mi sembra che si possa.........

aqua84
02-01-2019, 09:54
Immagino già il politico random pizzicato in un video mentre prende una mazzetta o in una telefonata in cui pianifica un omicidio
non credo ce ne sarà bisogno.
già da qualche anno ormai i politici hanno perso quel poco di vergogna (e buonsenso) che avevano nel fare le cose almeno di nascosto, e anche davanti a prove schiaccianti e documentate hanno la faccia di dire che sono innocenti, o per usare la risposta perfetta che salva tutti: "Ci penserà la magistratura"

nickname88
02-01-2019, 09:57
Immagino già il politico random pizzicato in un video mentre prende una mazzetta o in una telefonata in cui pianifica un omicidio: "signor magistrato, sono vittima di deepfake!", lo vediamo tutti i giorni già oggi, tizio x dice una bestialità su un social network di cui sottostima l'effetto, scoppia un casino e lui prontamente dice: "sono stato hackerato"...Se parliamo del politico italiano non ce nè bisogno. Anche se si diffondesse un video fasullo non precluderebbe che non l'abbia fatto sul serio in un altra occasione.

Dinofly
02-01-2019, 10:31
Ma per favore, fossero questi i problemi.
Fossero questi i problemi, ringrazi la "depravazione" su cui si basa il successo e la notorietà di cui godono.

kamon
02-01-2019, 10:51
Ma per favore, fossero questi i problemi.
Fossero questi i problemi, ringrazi la "depravazione" su cui si basa il successo e la notorietà di cui godono.

Ah il benaltrismo... Soluzione semplice e istantanea a tutti i problemi e allo stesso tempo rovina del mondo.
Sarei portato a dirti: "Quando diffonderanno video con la tua faccia mentre prendi in quel posto particolari cose da particolari persone, allora potrai parlare", ma in realtà anche se la cosa si verificasse e a te stesse benissimo, non potresti comunque decidere tu cosa dovrebbe o non dovrebbe offendere la sensibilità e l'immagine altrui, poi nessuno mi ha mai saputo spiegare perché quando si diventa famosi non si avrebbe più alcun diritto di tutelare la propria immagine, ne tu hai spiegato perché usi la parola "depravazione" scritta tra virgolette, come se di depravazione non si trattasse... E allora di cosa stiamo parlando? Servzio pubblico?

NoNickName
02-01-2019, 10:51
Attenzione, qua il problema non è solo fake porno. Immaginate cosa si può fare con le immagini degli autovelox, tutor oppure con le registrazioni dalle bodycam degli agenti di polizia. Si può incriminare gente che non è simpatica, per ritorsione o scopo politico, dimostrare che si trovava in posti dove non era, far commettere reati in luoghi dove non si è mai stati.

TWT
02-01-2019, 10:52
Io mi chiedo cosa ci trovino tutti in quest'attrice (parlo puramente di aspetto estetico), carina, sì, ma c'è molto di meglio, perfino al livello nazionale. Come attrice non la seguo molto ma i pochi film in cui l'ho vista recitare non mi hanno fatto impazzire

recoil
02-01-2019, 10:54
Attenzione, qua il problema non è solo fake porno. Immaginate cosa si può fare con le immagini degli autovelox, tutor oppure con le registrazioni dalle bodycam degli agenti di polizia. Si può incriminare gente che non è simpatica, per ritorsione o scopo politico, dimostrare che si trovava in posti dove non era, far commettere reati in luoghi dove non si è mai stati.

esatto il problema è proprio questo ed è abbastanza inquietante

kamon
02-01-2019, 10:55
Attenzione, qua il problema non è solo fake porno. Immaginate cosa si può fare con le immagini degli autovelox, tutor oppure con le registrazioni dalle bodycam degli agenti di polizia. Si può incriminare gente che non è simpatica, per ritorsione o scopo politico, dimostrare che si trovava in posti dove non era, far commettere reati in luoghi dove non si è mai stati.

Già... Pensiamo poi alla deriva autoritaria che si sta diffondendo a macchia d'olio in sostanzialmente tutto il pianeta, se un governo decidesse di usare quest'arma contro chi vuole eliminare, buona fortuna poi a far verificare il materiale dai periti per scagionarti.

AceGranger
02-01-2019, 11:05
Di sicuro Scarlett Johansson non ha bisogno di questo per aumentare la sua notorietà.

Il fenomeno del deep learning applicato alla prouzione di falso materiale multimediale è effettivamente preoccupante, ma non tanto per quanto riguarda la pornografia quanto per il fatto che in un futuro non troppo lontano, certi personaggi potrebbero usarlo come spiegazione per cose che effettivamente hanno fatto ma che non vogliono ammettere... Immagino già il politico random pizzicato in un video mentre prende una mazzetta o in una telefonata in cui pianifica un omicidio: "signor magistrato, sono vittima di deepfake!"

anche per una persona normale, con i software giusti e se sai dove guardare, è abbastanza easy risalire a manipolazioni di video/foto/audio, anche se te lo fa l'AI; gli organi giudiziari non avranno problemi in merito.


lo vediamo tutti i giorni già oggi, tizio x dice una bestialità su un social network di cui sottostima l'effetto, scoppia un casino e lui prontamente dice: "sono stato hackerato"...

si ma per le stupidate dove non controlla nessuno..

ci vogliono 5 secondi per controllarne la veridicita e i magistrati/forze dell'ordine gli sparacazzole li vedono tutti i giorni.

Rello75cl
02-01-2019, 11:12
Niente link?
Solo per valutare la bontà del software naturalmente!

kamon
02-01-2019, 11:30
anche per una persona normale, con i software giusti e se sai dove guardare, è abbastanza easy risalire a manipolazioni di video/foto/audio, anche se te lo fa l'AI; gli organi giudiziari non avranno problemi in merito.

si ma per le stupidate dove non controlla nessuno..

ci vogliono 5 secondi per controllarne la veridicita e i magistrati/forze dell'ordine gli sparacazzole li vedono tutti i giorni.

Io spero tanto che tu abbia ragione, ma questo vale per adesso... Vedremo poi con l'avanzare della tecnologia se sarà ancora possibile smascherarli, senza contare che questi video sono attualmente prodotti con strumenti ancora sperimentali da persone con scarsi mezzi, nonostante ciò sono in alcuni casi già spaventosamente realistici, cosa sarebbe capace di fare tra qualche anno un vero e proprio studio professionale che si occupa solo di queste produzioni?
Tra l'altro anche senza parlare strettamente dell'ambito giudiziario, abbiamo imparato soprattutto negli ultimi anni che una cosa è la realtà dei fatti dimostrabile e dimostrata, un'altra è la percezione che l'utente medio ha... L'indignazione "da facebook" per qualcosa che una pagina di pallonari ha deciso di lanciare oggi fa prestissimo a esplodere, ma quando viene a galla la verità, di solito nessuno si cura di diffonderla e soprattutto a nessuno interessa, quindi i danni restano.

AceGranger
02-01-2019, 11:46
Io spero tanto che tu abbia ragione, ma questo vale per adesso... Vedremo poi con l'avanzare della tecnologia se sarà ancora possibile smascherarli, senza contare che questi video sono attualmente prodotti con strumenti ancora sperimentali da persone con scarsi mezzi, nonostante ciò sono in alcuni casi già spaventosamente realistici, cosa sarebbe capace di fare tra qualche anno un vero e proprio studio professionale che si occupa solo di queste produzioni?
Tra l'altro anche senza parlare strettamente dell'ambito giudiziario, abbiamo imparato soprattutto negli ultimi anni che una cosa è la realtà dei fatti dimostrabile e dimostrata, un'altra è la percezione che l'utente medio ha... L'indignazione "da facebook" per qualcosa che una pagina di pallonari ha deciso di lanciare oggi fa prestissimo a esplodere, ma quando viene a galla la verità, di solito nessuno si cura di diffonderla e soprattutto a nessuno interessa, quindi i danni restano.

Non ci vuole molto a photoshoppare con un collage di altre foto e farla sembrare "vera" all'occhio umano, ma basta anche solo analizzare un minimo gli istogrammi per vedere molte volte qualche cosa che non va senza nemmeno guardare la foto e, come ci sono le AI che photoshoppano, ci sono anche le AI che fanno il retro-enginering e che "sgamano" le photoshoppate.

Non basarti solo su quello che vede il tuo occhio, perchè nei pixel ci sono molte piu informazioni che "a occhio" non riesci a vedere.

Nurgiachi
02-01-2019, 12:52
Niente link?
Solo per valutare la bontà del software naturalmente!
Foto? :O
Ma per favore, fossero questi i problemi.
Questo perché non hai mai visto Dredd La legge sono io. :O
foto (http://oi63.tinypic.com/2ahwqco.jpg) :D

NoNickName
02-01-2019, 13:36
Sono oramai disponibili schede GPU con ray tracing. Qua non si sta parlando di photoshoppare la foto del collega con paint. Si sta parlando di immagini interamente sintetiche, per le quali la banale analisi dell'istogramma è inutile. E non serve produrre immagini in 4K, perchè le bodycam e gli autovelox non esistono (ancora) a tale risoluzione, quindi puoi zoommare, ma solo per arrivare ai pixel che sono grandi come formaggini.

dado1979
02-01-2019, 14:40
Sarà un problema molto serio con il passare degli anni... soprattutto ma non solo in campo pornografico.

AceGranger
02-01-2019, 15:22
Sono oramai disponibili schede GPU con ray tracing. Qua non si sta parlando di photoshoppare la foto del collega con paint. Si sta parlando di immagini interamente sintetiche, per le quali la banale analisi dell'istogramma è inutile. E non serve produrre immagini in 4K, perchè le bodycam e gli autovelox non esistono (ancora) a tale risoluzione, quindi puoi zoommare, ma solo per arrivare ai pixel che sono grandi come formaggini.

- il Ray Tracing non centra un caz, ed era disponibile anche prima delle Turing.
- qui si sta parlando proprio di una fotoshoppata solo che è fatta da una AI e che siano immagini interamente sintetiche te lo sei inventato tu.

cit: "...di una figura umana o parte di essa tratta da immagini e video pre-esistenti, da soprapporre o integrare in altro materiale multimediale..."

e non credo ci sia molto da fraintendere... l'AI analizza un gran numero di immagini, prende gli spezzoni di immagini e video ed effettua un collage che viene sovrapposto ad una porzione della foto/video base;

la AI non fa altro che fare quello che normalmente viene fatto in ambito fotografico/cinematografico e gia solo con un analisi dell'istogramma hai buonissime probabilita di sgamare la "photosoppata" dell'AI. La differenza è che oggi lo fa solo chi ha dimestichezza con software di compositing, mentre domani lo potra fare anche il primo che passa con 2 click; è lo step successivo del cerotto di Photoshop.

NoNickName
02-01-2019, 17:06
Vedo che non ti è chiaro il concetto.
L'AI serve per CREARE immagini, non per modificare le immagini. Queste persone non esistono: https://www.pcmag.com/news/357068/nvidias-ai-creates-artificial-human-faces-from-celebrity-ph

E poi il ray tracing era disponibile sì prima delle turing tramite rendering, ma adesso è disponibile a tutti a basso costo in real time.

imayoda
02-01-2019, 17:26
Quando hai dato il tuo volto per fare i miliardi, poi è logico che la gente faccia schifezze con la tua immagine... sei pubblica

AceGranger
02-01-2019, 20:07
Vedo che non ti è chiaro il concetto.
L'AI serve per CREARE immagini, non per modificare le immagini. Queste persone non esistono: https://www.pcmag.com/news/357068/nvidias-ai-creates-artificial-human-faces-from-celebrity-ph


ma hai problemi con l'inglese o con l'italiano ?

la tua news parla della creazione di volti non esistenti facendo un collage di piu volti, mentre la news qui parla di video e foto porno contraffatti con il volto di Scarlett Johansson RIcreato utilizzando sue foto e video :asd:

ri-cit:

...di ricreare in foto e video una simulazione molto veritiera di una figura umana o parte di essa tratta da immagini e video pre-esistenti, da soprapporre o integrare in altro materiale multimediale...

la parola RIcreare al posto di creare c'è per un motivo... anche perchè dei volti inventati della tua news alla Scarlett non frega una cippa


sono 2 news diverse


E poi il ray tracing era disponibile sì prima delle turing tramite rendering, ma adesso è disponibile a tutti a basso costo in real time.

tralasciando sempre il fatto che il raytracing non centra un caz :asd:

- adesso non è disponibile a nessuno visto che non ci sono tool di sviluppo
- l'attuale RT "real time" che arrivera con i game engine sara comuqnue inferiore al rendering RT puro
- il rendering RT beneficera dei core RT con un boost del 40%, cosa che non cambiera gli equilibri del mondo del rendering anceh perchè tanto i "tutti" non sapranno usare i tool :asd:

lemuel
02-01-2019, 22:58
Non avrei mai voluto intervenire su qualche risposta di qualche utente, ma questa volta sento che l'argomento è importante.
Quindi mi rivolgo, con il dovuto massimo rispetto, a Acegranger ed ai suoi commenti.
A me non interessa nella fattispecie ciò di cui si sta parlando, cioè di un volto di Tizio montato con Photoshop cul corpo nudo di Caio (magari anonimo) per realizzare un qualcosa che serva a danneggiare Tizio.
È chiaro che al momento possano esistere sistemi per individuare la manipolazione e giudicare sulla veridicità di una siffatta immagine.
Mi sono occupato in passato, per puro diletto, a correggere immagini grafiche, e mi sono reso conto delle difficoltà, giacché non ho mai usato quel misero programma che è Photoshop, ma ho lavorato manualmente pixel su pixel, ottenendo buoni risultati, a costo però di molta fatica.
Ma il futuro riserva sempre nuove sorprese e importanti e inarrestabili progressi.
Pertanto verrà il giorno in cui qualche software, che faccia uso o meno di ray-tracing o di AI, potrà legare perfettamente una immagine all'altra, anche in sequenza, per realizzare filmati o altro, che sarà IMPOSSIBILE giudicare come falsi.
(A proposito, riporto che mi occupo a livello matematico e informatico di ray-tracing già da 45 anni, per la progettazione di ottiche di precisione per grandi telescopi).
Chi nega ciò non ha ancora capito quali potenzialità offre il sistema informatico, oppure non vuole accettare l'idea che saremo tutti omologati a qualche modello nefasto.
L'ottimista buonista denigra il pessimista malvagio, ma dimentica il razionale realista, che alla fine la spunta su tutti, sempre.
Anche in campo audio, se si vuole, oggi è perfettamente possibile inserire uno spezzone entro un brano in modo perfetto, cosa che io eseguo nel montaggio di brani musicali quando devo rimasterizzare le registrazioni di amici, e familiari.
Nessun perito potrebbe capire la cosa, perché eseguo una sincronizzazione al millesimo di secondo, e anche meno, dato che scrivo musica e conosco bene la fisica e le relative tecnologie, con la perfetta sequenza delle forme d'onda, senza alcuna interruzione, senza soluzioni di continuità nemmeno sulle armoniche oltre i 40 KHz.
Ma questa roba non è per dilettanti.
Anche in campo grafico si otterranno risultati analoghi.
Basterà che un adeguato software sia capace di leggere e interpretare pixel per pixel ogni contorno di immagine, compresi i campi a confine, per generare elementi di collegamento delle immagini senza soluzioni di continuità, anche riguardo agli sfondi.
Quindi, per coloro che si illudono, perlomeno oggi, che si possa sempre individuare la falsità di una immagine montata ad arte, il futuro riserverà certamente ad essi una disfatta totale.

Allora, come rimediare?
Per me stesso ho la risposta pronta.
Qualcuno sorriderà, ma la cosa, opportunamente adattabile e modificabile, potrebbe avvenire in futuro per tutti.
Ad esempio, acquisterei una videocamera miniaturizzata di futuribile generazione, che farei sigillare da una entità notarile, la quale, con la sola sostituzione delle schede, di lunga durata, presso organismi certificati, riprenderebbe ogni istante del mio quotidiano, quando mi sveglio, quando mi siedo nel WC, quando faccio l'amore, quando studio, quando dormo.
Il tutto riporterebbe una indicazione precisa della data e dell'ora, ottenuti in modo inequivocabile, fotogramma per fotogramma.
Il giorno in cui un tabloid, un magistrato, un cretino qualsiasi, venisse a sputtanarmi con immagini false, io utilizzerei il materiale genuino certificato in mio possesso per dimostrare ove stavo ed a che ora nel momento in cui qualcuno affermerebbe che ad esempio stavo ricevendo una mazzetta.
Poi ci penserebbe la magistratura a far pagare al cretino o a chi per esso i danni, morali e giudiziari.
Quando una pratica del genere o equivalente sarebbe generalizzata e perfettamente standardizzata per tutti i cittadini, allora addio "privacy", ma perlomeno eviteremmo lo sputtanamento e la galera, se saremmo stati onesti, ovviamente, e ripeto, ovviamente, per coloro, che sono troppi, che invece rubano e corrompono, oppure fanno azioni riprovevoli, soprattutto sul piano etico.

futu|2e
03-01-2019, 06:28
Ma che diavolo :mbe:

ramses77
03-01-2019, 07:18
I link, subito!! :-)

bonzoxxx
03-01-2019, 10:54
Forse si trova qualcosa su celebjihad, di solito i video fake li mettono li.

Ryddyck
03-01-2019, 15:42
cut
Allora, come rimediare?
Per me stesso ho la risposta pronta.
Qualcuno sorriderà, ma la cosa, opportunamente adattabile e modificabile, potrebbe avvenire in futuro per tutti.
Ad esempio, acquisterei una videocamera miniaturizzata di futuribile generazione, che farei sigillare da una entità notarile, la quale, con la sola sostituzione delle schede, di lunga durata, presso organismi certificati, riprenderebbe ogni istante del mio quotidiano, quando mi sveglio, quando mi siedo nel WC, quando faccio l'amore, quando studio, quando dormo.
Il tutto riporterebbe una indicazione precisa della data e dell'ora, ottenuti in modo inequivocabile, fotogramma per fotogramma.
Il giorno in cui un tabloid, un magistrato, un cretino qualsiasi, venisse a sputtanarmi con immagini false, io utilizzerei il materiale genuino certificato in mio possesso per dimostrare ove stavo ed a che ora nel momento in cui qualcuno affermerebbe che ad esempio stavo ricevendo una mazzetta.
Poi ci penserebbe la magistratura a far pagare al cretino o a chi per esso i danni, morali e giudiziari.
Quando una pratica del genere o equivalente sarebbe generalizzata e perfettamente standardizzata per tutti i cittadini, allora addio "privacy", ma perlomeno eviteremmo lo sputtanamento e la galera, se saremmo stati onesti, ovviamente, e ripeto, ovviamente, per coloro, che sono troppi, che invece rubano e corrompono, oppure fanno azioni riprovevoli, soprattutto sul piano etico.
Blackmirror S01E03... per il resto sistema notarile un par di **, Blockchain tutta la vita.

Comunque siamo già avanti, siamo arrivati al riconoscimento del movimento https://compvis.github.io/hbugen2018/images/rerender.pdf

AceGranger
03-01-2019, 18:27
Non avrei mai voluto intervenire su qualche risposta di qualche utente, ma questa volta sento che l'argomento è importante.
Quindi mi rivolgo, con il dovuto massimo rispetto, a Acegranger ed ai suoi commenti.
A me non interessa nella fattispecie ciò di cui si sta parlando, cioè di un volto di Tizio montato con Photoshop cul corpo nudo di Caio (magari anonimo) per realizzare un qualcosa che serva a danneggiare Tizio.
È chiaro che al momento possano esistere sistemi per individuare la manipolazione e giudicare sulla veridicità di una siffatta immagine.
Mi sono occupato in passato, per puro diletto, a correggere immagini grafiche, e mi sono reso conto delle difficoltà, giacché non ho mai usato quel misero programma che è Photoshop, ma ho lavorato manualmente pixel su pixel, ottenendo buoni risultati, a costo però di molta fatica.
Ma il futuro riserva sempre nuove sorprese e importanti e inarrestabili progressi.
Pertanto verrà il giorno in cui qualche software, che faccia uso o meno di ray-tracing o di AI, potrà legare perfettamente una immagine all'altra, anche in sequenza, per realizzare filmati o altro, che sarà IMPOSSIBILE giudicare come falsi.
(A proposito, riporto che mi occupo a livello matematico e informatico di ray-tracing già da 45 anni, per la progettazione di ottiche di precisione per grandi telescopi).
Chi nega ciò non ha ancora capito quali potenzialità offre il sistema informatico, oppure non vuole accettare l'idea che saremo tutti omologati a qualche modello nefasto.
L'ottimista buonista denigra il pessimista malvagio, ma dimentica il razionale realista, che alla fine la spunta su tutti, sempre.
Anche in campo audio, se si vuole, oggi è perfettamente possibile inserire uno spezzone entro un brano in modo perfetto, cosa che io eseguo nel montaggio di brani musicali quando devo rimasterizzare le registrazioni di amici, e familiari.
Nessun perito potrebbe capire la cosa, perché eseguo una sincronizzazione al millesimo di secondo, e anche meno, dato che scrivo musica e conosco bene la fisica e le relative tecnologie, con la perfetta sequenza delle forme d'onda, senza alcuna interruzione, senza soluzioni di continuità nemmeno sulle armoniche oltre i 40 KHz.
Ma questa roba non è per dilettanti.
Anche in campo grafico si otterranno risultati analoghi.
Basterà che un adeguato software sia capace di leggere e interpretare pixel per pixel ogni contorno di immagine, compresi i campi a confine, per generare elementi di collegamento delle immagini senza soluzioni di continuità, anche riguardo agli sfondi.
Quindi, per coloro che si illudono, perlomeno oggi, che si possa sempre individuare la falsità di una immagine montata ad arte, il futuro riserverà certamente ad essi una disfatta totale.


sono 3D artist e mi occupo di ray-tracing e fotoritocco tutti i giorni :p

non metto in dubbio nulla di quello che hai scritto, il miei post erano riferiti specificatamente alla news in oggetto e ai software attualmente in circolazione.

In futuro sicuramente le cose si faranno piu serie in questo ambito e arriveranno AI sempre piu affinate, ma a controbilanciare arriveranno anche AI sempre piu affinate nel trovare le parti contraffatte o foto troppo "pulite"; alla fine si ridurra ad una lotta fra software e AI.

Dinofly
03-01-2019, 21:08
Ah il benaltrismo... Soluzione semplice e istantanea a tutti i problemi e allo stesso tempo rovina del mondo.
Sarei portato a dirti: "Quando diffonderanno video con la tua faccia mentre prendi in quel posto particolari cose da particolari persone, allora potrai parlare", ma in realtà anche se la cosa si verificasse e a te stesse benissimo, non potresti comunque decidere tu cosa dovrebbe o non dovrebbe offendere la sensibilità e l'immagine altrui, poi nessuno mi ha mai saputo spiegare perché quando si diventa famosi non si avrebbe più alcun diritto di tutelare la propria immagine, ne tu hai spiegato perché usi la parola "depravazione" scritta tra virgolette, come se di depravazione non si trattasse... E allora di cosa stiamo parlando? Servzio pubblico?

Quindi io non posso giudicare la sensibilità altrui, mentre tu si.
Io non ritengo sia depravazione, non è stato fatto del male a nessuno, nessuno ha effettuato alcun tipo di violenza fisica o psicologica.

Quando si diventa famosi attraverso una carriera consapevole e che si basa sulla notorietà si accettano tutti i lati della medaglia, tra cui, questo.
Peraltro, totalmente innocuo.

Basterebbe un minimo di apertura mentale (che, purtroppo, richiede intelligenza) per capire che questa roba deve scivolare addosso come l'acqua, e non è nulla di più dell'entrare nelle fantasie delle svariate migliaia di fan che contribuiscono a renderla nota e strapagata.
Il culto dell'immagine gl ista bene fintanto che gli porta sul contocorrente ingaggi milionari e la infastidisce quando implica di entrare nell'immaginario erotico? Poteva studiare fisica nucleare o servire panini al mcdonald, il mondo non è al suo servizio.

sono 3D artist e mi occupo di ray-tracing e fotoritocco tutti i giorni :p

non metto in dubbio nulla di quello che hai scritto, il miei post erano riferiti specificatamente alla news in oggetto e ai software attualmente in circolazione.

In futuro sicuramente le cose si faranno piu serie in questo ambito e arriveranno AI sempre piu affinate, ma a controbilanciare arriveranno anche AI sempre piu affinate nel trovare le parti contraffatte o foto troppo "pulite"; alla fine si ridurra ad una lotta fra software e AI.

Generative adversarial networks

bonzoxxx
03-01-2019, 21:13
Mah, da quelli che ho visto (se sono quelli) non è siano opere d'arte alla Kubrick eh, fanno abbastanza pena e si vede che sono fake.

Vabbè, può dar fastidio, ma se si è famosi purtroppo può capitare.

Dinofly
03-01-2019, 21:30
Detto questo come funzioni l'algoritmo non è chiarissimo neanche a chi la programmato, trattandosi di machine learning.
Si tratta di complessi reti neuronali, che mettono in relazione input e output con pesi e relazioni non lineari attraverso diversi layer di neuroni, i cui pesi (le sinapsi) si sono perfezionati attraverso un dataset di training.
Capire come fa l'algoritmo è forse più complesso di svilupparlo.

Ryddyck
04-01-2019, 10:15
Ma veramente non è così oscuro come si crede, DeepFakes funziona tramite l'autoencoder basato su CNN.

mrk-cj94
04-01-2019, 22:10
Attenzione, qua il problema non è solo fake porno. Immaginate cosa si può fare con le immagini degli autovelox, tutor oppure con le registrazioni dalle bodycam degli agenti di polizia. Si può incriminare gente che non è simpatica, per ritorsione o scopo politico, dimostrare che si trovava in posti dove non era, far commettere reati in luoghi dove non si è mai stati.
parliamo della stessa apocalisse che doveva causare photoshop 10/15 anni fa?
Ma veramente non è così oscuro come si crede, DeepFakes funziona tramite l'autoencoder basato su CNN.
?
Mah, da quelli che ho visto (se sono quelli) non è siano opere d'arte alla Kubrick eh, fanno abbastanza pena e si vede che sono fake.

Vabbè, può dar fastidio, ma se si è famosi purtroppo può capitare.
boh, non sono esperto sull'argomento deepfakes, ma da quei tre che ho googlato dopo questa news si nota che son fake non solo -come dici te- causa "motivi tecnologici" (sovrapposizioni sbagliate o ballerine ecc) ma anche perchè se si mettono a fare la "replica" di un'attrice usando una modella/pornostar piena di tatuaggi, anelli, collane giappe anni 90.. beh non sono nemmeno tanto svegli...

vista l'uscita di aquaman, l'attice del momento dovrebbe essere Amber Heard (imdb.com conferma); se tu uploader le "dedichi" un deepfake usando una modella con capelli corti e tatuaggi sulle gambe, non hai capito nulla... e in teoria per l'attrice non dovrebbe essere un problema, no?

Ryddyck
05-01-2019, 18:09
?
Ho sintetizzato come avviene il face swap. Cosa c'è di strano?