Abbiamo un nuovo problema con l'Intelligenza Artificiale: la pedopornografia computer-generated

Abbiamo un nuovo problema con l'Intelligenza Artificiale: la pedopornografia computer-generated

Gli esperti concordano: 'Gli scenari legati alle intelligenze artificiali generative che si aprono nell'ambito della pedopornografia sono spaventosi e serve alzare il livello di vigilanza sul tema'

di pubblicata il , alle 15:14 nel canale Web
Midjourney
 

Il tema è molto delicato e ha risvolti che vanno ben oltre le considerazioni più superficiali. Il Washington Post ha pubblicato un lungo report sul tema 'Intelligenza Artificiale utilizzata per creare immagini pedopornografiche', riportando il parere di diversi esperti, sia sul lato 'informatico' sia su quello delle forze dell'ordine.

Una prima considerazione un po' ingenua potrebbe essere quella che le immagini generate a partire da una semplice riga di testo in sistemi come Stable Diffusion non ritraggono nessun bambino realmente esistente e quindi non rappresentino un problema.

Che il soggetto esista o meno, il problema resta

In realtà sono un problema più grosso di quanto possa sembrare a prima vista. Innanzitutto il fiorire di immagini generate dall'intelligenza artificiale che ritraggono minori in atteggiamenti erotici o in atti sessuali rischia di vanificare gli sforzi delle forze dell'ordine nello scoprire e tracciare le immagini di reali abusi.

I sistemi sviluppati per rilevare e tracciare i contenuti pedopornografici, infatti, al momento non sono in grado di distinguere tra quelli reali e quelli generati: il carico di lavoro per tali sistemi potrebbe quindi aumentare in modo considerevole e portarli al collasso, privando gli inquirenti di una delle armi a loro disposizione. La facilità con cui questo tipo di immagini può essere creato, infatti, permette la generazione in pochi minuti di centinaia di finti scatti.

Sui forum di pedofili sul dark web sono fiorite in questi mesi le guide su come creare contenuti pedopornografici sfruttando l'intelligenza artificiale. Non solo, diverse guide spiegano come creare nuovi contenuti a partire da immagini di abusi e come creare deepfake sfruttando immagini di minori reali.

Piattaforme come DALL-E e Midjourney che girano su canali proprietari e hanno adottato diverse strategie per limitare questo tipo di utilizzo: da un lato hanno esplicitamente vietato i contenuti a sfondo sessuale, e dall'altro eliminato i set di dati relativi ai contenuti espliciti, togliendo così ai sistemi di generazione immagini la base da cui partire per far convergere le immagini generate.

La stessa strategia è stata adottata anche da Stable Diffusion, che però è fornito come strumento open-source e può essere fatto girare in locale. A quel punto basta trovare i database 'giusti' e la creazione di immagini pedopornografiche è alla portata anche di persone con scarse conoscenze informatiche: basta che sappiano seguire una guida di installazione e riescano a scaricare modelli e set di dati 'proibiti'.

Tra le persone ascoltate dal Washington Post figurano anche esperti del Dipartimento di Giustizia statunitense, che su un punto sono chiari: la legge americana considera illegali le immagini sessualmente esplicite - anche se generate al computer - con soggetti 'virtualmente indistinguibili' da minori reali. Un'altra legge che vieta le immagini generate al computer di minori coinvolti in atti sessuali in mancanza di un reale valore artistico specifica che per essere efficace il provvedimento non richiede che il minore raffigurato esista realmente.

Anche se gli strumenti legislativi esistono, al momento però non c'è evidenza di nessuna sentenza a carico di persone che abbiano generato al computer immagini sessualmente esplicite di minori.

Vi è poi un'altra questione da affrontare: sono stati documentati casi in cui gli strumenti di generazione immagini tramite intelligenza artificiale sono stati utilizzati per creare dei 'selfie ringiovaniti' da utilizzare in profili falsi con cui adescare i minori.

Tutte le persone intervistate per la stesura del pezzo concordano su un aspetto: gli scenari legati alle intelligenze artificiali generative che si aprono nell'ambito della pedopornografia sono 'spaventosi' e certamente bisognerà alzare il livello di vigilanza sul tema.

114 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
MorgaNet22 Giugno 2023, 15:30 #1
Non so che posizione prendere al riguardo.
Personalmente penso che se da un lato possiamo dire che il pedofilo è sicuramente un malato, dall'altro penso che se non sono coinvolti minori viene a mancare il fulcro della questione (il danneggiamento al minore).

Il fatto che si crei un carico di lavoro extra per le forze dell'ordine non può essere la discriminante sulla liceità o meno di tali immagini.
Paganetor22 Giugno 2023, 15:37 #2
concordo con MorgaNet: pur essendo una cosa davvero inquietante, non è molto diverso dai porno giapponesi con ragazze maggiorenni che "sembrano" minorenni.

Certo nasconde un problema di fondo...
matrix8322 Giugno 2023, 15:38 #3
Originariamente inviato da: MorgaNet
Non so che posizione prendere al riguardo.
Personalmente penso che se da un lato possiamo dire che il pedofilo è sicuramente un malato, dall'altro penso che se non sono coinvolti minori viene a mancare il fulcro della questione (il danneggiamento al minore).

Il fatto che si crei un carico di lavoro extra per le forze dell'ordine non può essere la discriminante sulla liceità o meno di tali immagini.


Esatto. Anzi ci aggiungerei il carico: se la creazione di suddette immagini fake sia sufficiente a far abbassare le vittime di reati VERI perchè magari gli basta una situazione AI generated per essere "soddisfatti" senza doverla ricreare in real life, allora ben vengano.
D'altro canto non stiamo mica condannando pedofili per quello che sono, ma per quello che fanno. Altrimenti verrebbe a cadere tutta la struttura di aiuti che ci gira intorno (ma lo stesso vale per gli alcolisti, i drogati, etc). Perchè non esiste una cura, o sei pedofilo o non lo sei, ma solo metodi per imparare a contenere certe pulsioni e quindi condurre una vita normale _nonostante_ la malattia.

Edit: D'altronde come fa notare l'utente dopo, allora dovremmo vietare ai giapponesi di pubblicare hentai con polpi che usano ragazzine come anelli per i tentacoli.
MorgaNet22 Giugno 2023, 15:40 #4
Originariamente inviato da: matrix83
Esatto. Anzi ci aggiungerei il carico: se la creazione di suddette immagini fake sia sufficiente a far abbassare le vittime di reati VERI perchè magari gli basta una situazione AI generated per essere "soddisfatti" senza doverla ricreare in real life, allora ben vengano.
D'altro canto non stiamo mica condannando pedofili per quello che sono, ma per quello che fanno. Altrimenti verrebbe a cadere tutta la struttura di aiuti che ci gira intorno (ma lo stesso vale per gli alcolisti, i drogati, etc). Perchè non esiste una cura, o sei pedofilo o non lo sei, ma solo metodi per imparare a contenere certe pulsioni e quindi condurre una vita normale _nonostante_ la malattia.


Giusto, non avevo considerato anche il fatto che potrebbero essere un modo per diminuire gli abusi.

Però capisco che, dove vigono legislazioni che proibiscono anche solo l'esistenza di queste immagini (siano esse reali o meno) la cosa si complica di molto.
jepessen22 Giugno 2023, 16:20 #5
Il problema a me pare piu' chiaro invece... Se un pedofilo non danneggia in nessun modo nessun bambino per godersi le immagini non fa nessun reato. Altrimenti non vedrei la differenza, ad esempio, con chi disegna o si fa generare da AI gente uccisa; mica viene arrestata per omicidio...
Unrue22 Giugno 2023, 16:22 #6
Originariamente inviato da: MorgaNet
Non so che posizione prendere al riguardo.
Personalmente penso che se da un lato possiamo dire che il pedofilo è sicuramente un malato, dall'altro penso che se non sono coinvolti minori viene a mancare il fulcro della questione (il danneggiamento al minore).


Se vengono create immagini deep fake partendo da immagini reali di minori direi che il coinvolgimento dei minori c'è comunque.

Il tema è molto delicato. Tendenzialmente chi genera quel tipo di foto può facilmente sfociare nel reale, quindi è comunque da tenere sotto osservazione.
MorgaNet22 Giugno 2023, 16:23 #7
Originariamente inviato da: jepessen
Il problema a me pare piu' chiaro invece... Se un pedofilo non danneggia in nessun modo nessun bambino per godersi le immagini non fa nessun reato. Altrimenti non vedrei la differenza, ad esempio, con chi disegna o si fa generare da AI gente uccisa; mica viene arrestata per omicidio...


Non è esattamente così semplice.
Ci sono alcuni paesi in cui anche solo l'immagine (reale o meno) è reato.

Limitatamente al nostro paese invece, il fatto che si cerchi di eliminare la disponibilità di immagini pedopornografiche fa parte del "trattamento" della malattia del pedofilo. Immagino che, tra le tante cose che si fanno per tentare di "curare" queste persone, non sia contemplato il libero accesso ad immagini pedopornografiche (anche se virtuali).
Unrue22 Giugno 2023, 16:24 #8
Originariamente inviato da: jepessen
Il problema a me pare piu' chiaro invece... Se un pedofilo non danneggia in nessun modo nessun bambino per godersi le immagini non fa nessun reato. Altrimenti non vedrei la differenza, ad esempio, con chi disegna o si fa generare da AI gente uccisa; mica viene arrestata per omicidio...


La gente uccisa però si vede ovunque, basta vedere un film. La pedopornografia no, proprio perché è un argomento ancora più delicato.
MorgaNet22 Giugno 2023, 16:28 #9
Originariamente inviato da: Unrue
Se vengono create immagini deep fake partendo da immagini reali di minori direi che il coinvolgimento dei minori c'è comunque.

Il tema è molto delicato. Tendenzialmente chi genera quel tipo di foto può facilmente sfociare nel reale, quindi è comunque da tenere sotto osservazione.


Io non so come si generano queste immagini, ma ovviamente se alla base ci sono immagini reali la soluzione è già più semplice. Dovrebbero essere proibite a priori.
Unrue22 Giugno 2023, 16:29 #10
Originariamente inviato da: MorgaNet
Giusto, non avevo considerato anche il fatto che potrebbero essere un modo per diminuire gli abusi.


Il pedopornografico ( o come cavolo si chiama) non si limita a vedere le foto purtroppo...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^