Numeri choc: quest'anno sono cresciuti a ritmi esponenziali i contenuti di abuso su minori generati dall’IA

Numeri choc: quest'anno sono cresciuti a ritmi esponenziali i contenuti di abuso su minori generati dall’IA

Un’inchiesta del New York Times fa luce sulla diffusione di CSAM generato da intelligenza artificiale, che ha raggiunto livelli senza precedenti nel 2025, con numeri in crescita esponenziale e immagini sempre più realistiche e difficili da distinguere da quelle reali

di pubblicata il , alle 14:20 nel canale Web
 

Nel corso del 2025, il fenomeno dei contenuti di abuso sessuale su minori generati dall’intelligenza artificiale (AI-generated CSAM - Child Sexual Abuse Material) ha raggiunto proporzioni allarmanti: è una recente indagine del New York Times a fare luce sul problema, suffragata da una serie di dati raccolti da organizzazioni come la Internet Watch Foundation (IWF) e il National Center for Missing & Exploited Children (NCMEC). La quantità di contenuti prodotti artificialmente è aumentata a ritmi esponenziali, rappresentando un grave problema per le autorità e i gruppi di tutela dei minori.

La IWF, ente britannico che raccoglie e analizza segnalazioni di CSAM, ha identificato 1.286 video generati dall’IA solo nei primi sei mesi del 2025, a fronte dei soli due rilevati nello stesso periodo del 2024. Il NCMEC ha confermato questa tendenza, dichiarando al New York Times di aver ricevuto 485.000 segnalazioni di CSAM generato dall’IA (tra immagini e video) nella prima metà del 2025, contro le 67.000 dell’intero 2024. Amazon ha segnalato 380.000 casi rimossi nei primi sei mesi dell’anno, mentre OpenAI ne ha denunciati 75.000.

Secondo gli esperti, la qualità dei contenuti generati dall’IA sta raggiungendo livelli tali da renderli quasi indistinguibili dal materiale reale. In forum online frequentati da criminali, gli utenti elogiano il grado di realismo dei nuovi video, che vengono spesso distribuiti tramite dark web, rendendo ancora più complesso il lavoro delle forze dell’ordine.

Il funzionamento di questi sistemi si basa sull’addestramento tramite immagini e video reali. Il New York Times sottolinea come parte della nuova ondata di contenuti sia costituita da CSAM reale “riciclato” dagli algoritmi, oppure da foto di bambini estratte da siti scolastici e social network, manipolate per generare nuovi materiali di abuso.

Il fenomeno non è purtroppo nuovo: come vi avevamo raccontato già nel 2023, ricercatori della Stanford Internet Observatory avevano trovato centinaia di esempi di CSAM in un dataset usato per addestrare una versione iniziale di Stable Diffusion, uno dei principali generatori di immagini. Stability AI ha dichiarato di aver introdotto nuove misure di sicurezza per prevenire abusi, affermando il proprio impegno nel contrastare la creazione e la diffusione di contenuti dannosi, inclusi quelli di abuso su minori.

La pressione pubblica e l’emergere di questi casi hanno spinto altre aziende tecnologiche a segnalare i contenuti sospetti al NCMEC, con numeri che testimoniano la portata del fenomeno e la necessità di una risposta coordinata tra privati, enti di tutela e autorità giudiziarie. Queste ultime stanno faticando a tenere il passo con l’evoluzione tecnologica: nel 2024, il Dipartimento di Giustizia statunitense ha effettuato il primo arresto noto per possesso e distribuzione di CSAM generato dall’IA. Nel Regno Unito, un uomo è stato condannato a 18 mesi di carcere per aver prodotto e venduto immagini di abuso create artificialmente.

Il materiale generato dall’IA rappresenta una frazione del totale dei contenuti di abuso segnalati. Nel 2024, la IWF ha confermato 291.273 segnalazioni di CSAM, di cui solo due erano riconducibili all’IA. L’aumento esponenziale e la crescente sofisticazione delle tecniche di generazione automatica fanno temere che la situazione possa rapidamente sfuggire di mano se non verranno adottate misure efficaci e coordinate.

15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7711 Luglio 2025, 15:33 #1
"Nel Regno Unito, un uomo è stato condannato a 18 mesi di carcere per aver prodotto e venduto immagini di abuso create artificialmente"

Al di là dell'ovvio biasimo per la cosa.. ma questo è lecito?
Cioè.. uno è stato condannato per aver "prodotto immagini".. di fatto, è bene ricordarlo, nessun minore o chiunque altro è rimasto coinvolto o danneggiato.

E' come condannare uno perchè ha prodotto un'immagine di un omicidio a rigor di logica.
antroscepolo11 Luglio 2025, 15:47 #2
mi sfugge il senso infatti...
per non contare tutta la serie SVU
Kenichi8011 Luglio 2025, 17:30 #3
Ma se è generato e non fatto con persone vere beh.. mi sembra un'ottima valvola di sfogo per chi ha queste pulsioni.
O si ha l'idea di togliere il vizio dalle persone? Che cosa vittoriana. E impossibile.
Poi esistono fumetti già dedicati a queste e anche altri feticismi e inclinazioni, questa sarebbe solo una ovvia evoluzione già prevista da chiunque.
Neo12311 Luglio 2025, 19:53 #4
Beh, almeno in Italia per fortuna è un reato

Fonte:
https://www.laleggepertutti.it/6689...con-lia-e-reato

e da quel che ho letto non dipende solo dal dettaglio/realismo delle foto, ma dall'atto in sé.
E secondo me è giusto che sia un reato.
Poi francamente, senza offesa, ma non sono d'accordo riguardo "la valvola di sfogo", penso che le persone che hanno questi disturbi devono curarsi o stare in carcere.
Informative11 Luglio 2025, 19:55 #5
Originariamente inviato da: demon77
"Nel Regno Unito, un uomo è stato condannato a 18 mesi di carcere per aver prodotto e venduto immagini di abuso create artificialmente"

Al di là dell'ovvio biasimo per la cosa.. ma questo è lecito?
Cioè.. uno è stato condannato per aver "prodotto immagini".. di fatto, è bene ricordarlo, nessun minore o chiunque altro è rimasto coinvolto o danneggiato.

E' come condannare uno perchè ha prodotto un'immagine di un omicidio a rigor di logica.


Infatti è pura follia. Ma del resto in UK ti danno il carcere per qualche meme razzista, quindi cosa aspettarsi.

Anzi, deo gratia che ora ci sia questo strumento che magari può, potenzialmente, almeno mitigare abusi reali, e invece l'idiozia demente dei central planners colpisce ancora.
piwi11 Luglio 2025, 20:35 #6
E' una questione giuridicamente spinosa. La legislazione italiana in materia di pedofilia ha la funzione di proteggere l'integrità fisica e morale dei minori; nel momento in cui il bene giuridico tutelato non è leso dalla condotta, quale reato commette chi fruisce di materiale "di fantasia" ? Probabilmente, è possibile procedere per "apologia" contro chi lo genera, ma un buon avvocato avrebbe diverse argomentazioni per difendere l'imputato.
icoborg11 Luglio 2025, 20:58 #7
come è stato sottolineato c'è un intera serie tv su vittime di violenze, stupri, pedeofilia...
euscar11 Luglio 2025, 21:38 #8
Bell'utilizzo della IA

E intanto i consumi di energia elettrica raddoppiano ogni cento giorni

Ma non bastava mettere un paletto a questi algoritmi per impedire un simile utilizzo?
E poi c'è chi ancora sostiene che stiamo progredendo come razza umana
demon7711 Luglio 2025, 23:08 #9
Originariamente inviato da: Neo123
Beh, almeno in Italia per fortuna è un reato

Fonte:
https://www.laleggepertutti.it/6689...con-lia-e-reato

e da quel che ho letto non dipende solo dal dettaglio/realismo delle foto, ma dall'atto in sé.
E secondo me è giusto che sia un reato.
Poi francamente, senza offesa, ma non sono d'accordo riguardo "la valvola di sfogo", penso che le persone che hanno questi disturbi devono curarsi o stare in carcere.


mi pare che ci sia un controsenso ideologico.
parliamo di materiale "inventato" che non ha in alcun modo coinvolto persone reali.
Se è reato prdurre materiale inventato che raffigura abusi su minori in che modo non lo è materiale inventato che raffigura omicidi, torture, abusi di mille generi?

Originariamente inviato da: Informative
Infatti è pura follia. Ma del resto in UK ti danno il carcere per qualche meme razzista, quindi cosa aspettarsi.

Anzi, deo gratia che ora ci sia questo strumento che magari può, potenzialmente, almeno mitigare abusi reali, e invece l'idiozia demente dei central planners colpisce ancora.


meh.. su questo nutro forti dubbi..
Magari sbaglio, ma sta cosa della valvola di sfogo mi pare na cazzata..
Informative12 Luglio 2025, 00:49 #10
Originariamente inviato da: demon77
meh.. su questo nutro forti dubbi..
Magari sbaglio, ma sta cosa della valvola di sfogo mi pare na cazzata..


A prescindere dalla valvola di sfogo: comunque il materiale fittizio andrà a coprire parte della domanda, diminuendo la fetta per quello vero, e quindi si spera anche l'incentivo a produrlo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^