Numeri choc: quest'anno sono cresciuti a ritmi esponenziali i contenuti di abuso su minori generati dall’IA
Un’inchiesta del New York Times fa luce sulla diffusione di CSAM generato da intelligenza artificiale, che ha raggiunto livelli senza precedenti nel 2025, con numeri in crescita esponenziale e immagini sempre più realistiche e difficili da distinguere da quelle reali
di Andrea Bai pubblicata il 11 Luglio 2025, alle 14:20 nel canale WebNel corso del 2025, il fenomeno dei contenuti di abuso sessuale su minori generati dall’intelligenza artificiale (AI-generated CSAM - Child Sexual Abuse Material) ha raggiunto proporzioni allarmanti: è una recente indagine del New York Times a fare luce sul problema, suffragata da una serie di dati raccolti da organizzazioni come la Internet Watch Foundation (IWF) e il National Center for Missing & Exploited Children (NCMEC). La quantità di contenuti prodotti artificialmente è aumentata a ritmi esponenziali, rappresentando un grave problema per le autorità e i gruppi di tutela dei minori.
La IWF, ente britannico che raccoglie e analizza segnalazioni di CSAM, ha identificato 1.286 video generati dall’IA solo nei primi sei mesi del 2025, a fronte dei soli due rilevati nello stesso periodo del 2024. Il NCMEC ha confermato questa tendenza, dichiarando al New York Times di aver ricevuto 485.000 segnalazioni di CSAM generato dall’IA (tra immagini e video) nella prima metà del 2025, contro le 67.000 dell’intero 2024. Amazon ha segnalato 380.000 casi rimossi nei primi sei mesi dell’anno, mentre OpenAI ne ha denunciati 75.000.
🔎 Developments in artificial intelligence (AI) come with a range of benefits, including supporting learning and innovation. There is, however, growing concern for how AI can also be misused to create and share child sexual abuse material (CSAM), referred to as AI-CSAM.
— Internet Watch Foundation (IWF) (@IWFhotline) July 8, 2025
In… pic.twitter.com/lgfRQNBk8N
Secondo gli esperti, la qualità dei contenuti generati dall’IA sta raggiungendo livelli tali da renderli quasi indistinguibili dal materiale reale. In forum online frequentati da criminali, gli utenti elogiano il grado di realismo dei nuovi video, che vengono spesso distribuiti tramite dark web, rendendo ancora più complesso il lavoro delle forze dell’ordine.
Il funzionamento di questi sistemi si basa sull’addestramento tramite immagini e video reali. Il New York Times sottolinea come parte della nuova ondata di contenuti sia costituita da CSAM reale “riciclato” dagli algoritmi, oppure da foto di bambini estratte da siti scolastici e social network, manipolate per generare nuovi materiali di abuso.
Il fenomeno non è purtroppo nuovo: come vi avevamo raccontato già nel 2023, ricercatori della Stanford Internet Observatory avevano trovato centinaia di esempi di CSAM in un dataset usato per addestrare una versione iniziale di Stable Diffusion, uno dei principali generatori di immagini. Stability AI ha dichiarato di aver introdotto nuove misure di sicurezza per prevenire abusi, affermando il proprio impegno nel contrastare la creazione e la diffusione di contenuti dannosi, inclusi quelli di abuso su minori.
La pressione pubblica e l’emergere di questi casi hanno spinto altre aziende tecnologiche a segnalare i contenuti sospetti al NCMEC, con numeri che testimoniano la portata del fenomeno e la necessità di una risposta coordinata tra privati, enti di tutela e autorità giudiziarie. Queste ultime stanno faticando a tenere il passo con l’evoluzione tecnologica: nel 2024, il Dipartimento di Giustizia statunitense ha effettuato il primo arresto noto per possesso e distribuzione di CSAM generato dall’IA. Nel Regno Unito, un uomo è stato condannato a 18 mesi di carcere per aver prodotto e venduto immagini di abuso create artificialmente.
Il materiale generato dall’IA rappresenta una frazione del totale dei contenuti di abuso segnalati. Nel 2024, la IWF ha confermato 291.273 segnalazioni di CSAM, di cui solo due erano riconducibili all’IA. L’aumento esponenziale e la crescente sofisticazione delle tecniche di generazione automatica fanno temere che la situazione possa rapidamente sfuggire di mano se non verranno adottate misure efficaci e coordinate.










PNY RTX 5080 Slim OC, sembra una Founders Edition ma non lo è
Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
L'AI agentica potrebbe trasformare Internet: il settore della pubblicità online è a rischio?
Qualcomm lancerà due chip per smartphone Android a 2 nm nel 2026: ecco le possibili differenze
Xiaomi dà i numeri: ecco come è andato il 2025 dell'azienda tra smartphone, tablet, accessori e auto elettriche
AMD annuncia Ryzen 9 9950X3D2 Dual Edition: primo Zen 5 con doppio 3D V-Cache e TDP a 200W
CyrusOne avvia la costruzione del suo primo data center in Italia, a Milano
Cloud in crescita, ma l’adozione dell’IA resta lenta. L’identikit delle PMI italiane secondo Wolters Kluwer Italia
OpenAI cancella l'adult mode di ChatGPT: il riassetto strategico miete un'altra vittima
Google Search Live arriva in Italia: la ricerca ora ci vede e ci parla
MacBook Air 15'' con chip M4 (2025) crolla su Amazon: il prezzo che stavamo cercando è finalmente realtà
Ora è possibile trasferire file tra Samsung e Apple con AirDrop e Quick Share. Ecco come fare
Apple domina con il MacBook Neo: i laptop Windows faticano a tenere il passo
Arriva la nuova gamma di PC Dell Pro per utenti aziendali: nuovi notebook, desktop e workstation portatili
DJI Avata 360: la recensione del primo drone FPV 8K con sensori da 1 pollice
Il browser di Samsung arriva su Windows, ma in Italia non c'è l'IA agentica









15 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAl di là dell'ovvio biasimo per la cosa.. ma questo è lecito?
Cioè.. uno è stato condannato per aver "prodotto immagini".. di fatto, è bene ricordarlo, nessun minore o chiunque altro è rimasto coinvolto o danneggiato.
E' come condannare uno perchè ha prodotto un'immagine di un omicidio a rigor di logica.
per non contare tutta la serie SVU
O si ha l'idea di togliere il vizio dalle persone? Che cosa vittoriana. E impossibile.
Poi esistono fumetti già dedicati a queste e anche altri feticismi e inclinazioni, questa sarebbe solo una ovvia evoluzione già prevista da chiunque.
Fonte:
https://www.laleggepertutti.it/6689...con-lia-e-reato
e da quel che ho letto non dipende solo dal dettaglio/realismo delle foto, ma dall'atto in sé.
E secondo me è giusto che sia un reato.
Poi francamente, senza offesa, ma non sono d'accordo riguardo "la valvola di sfogo", penso che le persone che hanno questi disturbi devono curarsi o stare in carcere.
Al di là dell'ovvio biasimo per la cosa.. ma questo è lecito?
Cioè.. uno è stato condannato per aver "prodotto immagini".. di fatto, è bene ricordarlo, nessun minore o chiunque altro è rimasto coinvolto o danneggiato.
E' come condannare uno perchè ha prodotto un'immagine di un omicidio a rigor di logica.
Infatti è pura follia. Ma del resto in UK ti danno il carcere per qualche meme razzista, quindi cosa aspettarsi.
Anzi, deo gratia che ora ci sia questo strumento che magari può, potenzialmente, almeno mitigare abusi reali, e invece l'idiozia demente dei central planners colpisce ancora.
E intanto i consumi di energia elettrica raddoppiano ogni cento giorni
Ma non bastava mettere un paletto a questi algoritmi per impedire un simile utilizzo?
E poi c'è chi ancora sostiene che stiamo progredendo come razza umana
Fonte:
https://www.laleggepertutti.it/6689...con-lia-e-reato
e da quel che ho letto non dipende solo dal dettaglio/realismo delle foto, ma dall'atto in sé.
E secondo me è giusto che sia un reato.
Poi francamente, senza offesa, ma non sono d'accordo riguardo "la valvola di sfogo", penso che le persone che hanno questi disturbi devono curarsi o stare in carcere.
mi pare che ci sia un controsenso ideologico.
parliamo di materiale "inventato" che non ha in alcun modo coinvolto persone reali.
Se è reato prdurre materiale inventato che raffigura abusi su minori in che modo non lo è materiale inventato che raffigura omicidi, torture, abusi di mille generi?
Anzi, deo gratia che ora ci sia questo strumento che magari può, potenzialmente, almeno mitigare abusi reali, e invece l'idiozia demente dei central planners colpisce ancora.
meh.. su questo nutro forti dubbi..
Magari sbaglio, ma sta cosa della valvola di sfogo mi pare na cazzata..
Magari sbaglio, ma sta cosa della valvola di sfogo mi pare na cazzata..
A prescindere dalla valvola di sfogo: comunque il materiale fittizio andrà a coprire parte della domanda, diminuendo la fetta per quello vero, e quindi si spera anche l'incentivo a produrlo.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".