Cloudflare ha bloccato 416 miliardi di richieste AI in pochi mesi: il web rischia di rimanere in mano a pochi
Cloudflare ha bloccato oltre 416 miliardi di richieste AI grazie alle nuove protezioni anti-scraping introdotte a luglio. Il CEO Matthew Prince, intervistato da Wired, ha criticato Google per l'unificazione dei crawler e avverte sui rischi di un web sempre più controllato da poche infrastrutture.
di Manolo De Agostini pubblicata il 06 Dicembre 2025, alle 09:01 nel canale WebCloudflare
Cloudflare ha superato quota 416 miliardi di richieste AI bloccate dall'inizio di luglio, un risultato che evidenzia l'impatto crescente dei bot di scraping generati dall'esplosione dei modelli linguistici di nuova generazione.
A rivelarlo è stato il CEO Matthew Prince durante un'intervista concessa a Wired, dove ha illustrato come l'iniziativa Content Independence Day abbia portato alla creazione di strumenti che impediscono ai crawler delle aziende di intelligenza artificiale di accedere ai contenuti online, salvo accordi economici espliciti.
Secondo Prince, l'AI sta introducendo un cambiamento strutturale nel modello economico di Internet, storicamente fondato sulla produzione di contenuti, sulla generazione di traffico e sulla monetizzazione tramite abbonamenti o pubblicità. L'arrivo di piattaforme capaci di generare risposte senza inviare utenti alle fonti originali altera in modo significativo questo ecosistema e crea tensioni tra creatori, editori e sviluppatori di modelli generativi.

Uno dei nodi centrali riguarda Google, accusata da Prince di aver unificato il proprio crawler di ricerca con quello dedicato all'AI. Questa scelta impedisce ai siti web di bloccare l'uso dei propri contenuti per l'addestramento dell'intelligenza artificiale senza rinunciare contemporaneamente all'indicizzazione nei risultati di ricerca. Una dinamica che, secondo il CEO di Cloudflare, consolida una posizione dominante "di ieri" per acquisire un vantaggio competitivo "di domani".
Cloudflare sostiene inoltre che Google possieda una visibilità sul web nettamente superiore rispetto ad altri operatori del settore: l'azienda vedrebbe 3,2 volte più pagine di OpenAI, 4,6 volte più di Microsoft e 4,8 volte più di Meta e Anthropic. Un accesso privilegiato che, secondo Prince, produce un forte squilibrio competitivo.
La protezione dei contenuti umani è considerata cruciale anche per la qualità degli stessi modelli di AI: diversi studi hanno dimostrato come l'addestramento su dati generati artificialmente degradi rapidamente le prestazioni, portando i modelli a produrre risultati imprecisi o ripetitivi. Questo rende i contenuti originali - dalle testate locali ai forum - una risorsa di valore crescente, potenzialmente alla base di nuovi accordi di licenza tra publisher e aziende dell'AI.
Prince sottolinea inoltre che un web vario e popolato da creatori indipendenti non è soltanto un obiettivo etico o regolatorio, ma coincide con l'interesse industriale di Cloudflare: più siti attivi significano più potenziali clienti da proteggere e supportare.
Secondo Prince, per evitare che il web si concentri ulteriormente nelle mani di pochi attori, potrebbe essere necessario un intervento normativo. Fino a quel momento, Cloudflare continuerà a esercitare pressione sulle big tech affinché adottino pratiche più eque, in particolare la separazione dei crawler dedicati alla ricerca e all'intelligenza artificiale.










HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata
La nave elettrica più grande mai progettata è finalmente realtà: iniziati i test in acqua
Spusu lancia il Wi-Fi Calling: come funziona il VoWiFi e quanto costa
Questo robot impara a muovere le labbra semplicemente guardandoti
iPhone 17 annienta la concorrenza in Cina: da solo vende il doppio di tutti i competitor locali
La nuova Xiaomi SU7 batte un record: 4.264 km percorsi in 24 ore (comprese le ricariche)
È possibile copiare i qubit: dei ricercatori scoprono come fare il backup dei dati quantistici
BYD alza ulteriormente l'asticella: batterie garantite per almeno 250.000 km
Il nuovo razzo spaziale riutilizzabile cinese Lunga Marcia 12B è quasi pronto al debutto
L'ex leader di Assassin's Creed porta Ubisoft in tribunale e chiede un risarcimento: non si sono lasciati bene
Il razzo spaziale NASA SLS e la capsula Orion per la missione Artemis II sono al pad di lancio per gli ultimi test
Samsung Galaxy S26 Ultra: quattro colorazioni in arrivo, la versione arancione non ci sarà
AWS investe 1,2 miliardi in Italia. Coinvolte 35 imprese per rafforzare l'ecosistema di data center lombardo
La navicella cinese Shenzhou-20 con il finestrino danneggiato da un detrito è rientrata correttamente
I piani Business ed Education di Google Workspace ottengono Flow: video generati da AI da testo e immagini








4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoHanno un bel coraggio ad aprire bocca dopo che per colpa loro metà internet è andato offline.
Anzi, ringraziamo i satelliti che stanno aprendo nuove possibilità, anche questi controllati ma che comunque prima non avevamo.
Hanno un bel coraggio ad aprire bocca dopo che per colpa loro metà internet è andato offline.
comunque l'analisi che hanno fatto è esatta: le IA sono sanguisughe che prelevano i dati dal web e producono direttamente un output, senza che chi ha creato l'info originaria ne tragga alcun vantaggio. E' ovvio che il modello del web 2.0 così è del tutto compromesso.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".