Un agente AI visita 5.000 siti dove un umano ne visita 5: perché il web cambierà completamente
Il CEO di Cloudflare Matthew Prince al SXSW 2026: entro il 2027 il traffico bot AI supererà quello umano. Gli agenti visitano fino a 1.000 volte più siti di un utente, con effetti pesanti su infrastrutture e modelli di business del web
di Andrea Bai pubblicata il 20 Marzo 2026, alle 17:31 nel canale WebCloudflare
Al SXSW di Austin, Matthew Prince, CEO di Cloudflare, ha condiviso con il pubblico una previsione chiara: entro il 2027, il traffico generato dai bot AI supererà quello prodotto dagli esseri umani su internet. Non si tratta di un'ipotesi speculativa, ma di una proiezione basata su dati che la stessa Cloudflare può osservare in tempo reale, dato che la sua infrastruttura gestisce il traffico di circa il 20% di tutti i siti web al mondo.
"Con la crescita dell'AI generativa e la sua fame insaziabile di dati, stiamo osservando una traiettoria per cui nel 2027 il volume di traffico bot online supererà quello umano", ha dichiarato Prince. Il dato è tanto più significativo se si considera che, prima dell'era dei modelli generativi, il traffico automatizzato rappresentava già circa il 20% del totale, costituito principalmente dal crawler di Google, da altri crawler legittimi e da bot usati da truffatori. Quella percentuale era considerata la "baseline" fisiologica del web, ma che oggi è in rapida espansione.
Il moltiplicatore degli agenti AI
Il motore di questa trasformazione non è solo il volume di modelli che scansionano il web per il training, ma soprattutto il comportamento degli agenti AI, quelli che eseguono compiti per conto degli utenti. Prince ha usato un esempio concreto: se un essere umano sta cercando di acquistare una fotocamera digitale, visiterà cinque siti. L'agente AI che esegue lo stesso compito ne visiterà potenzialmente 5.000, cioè mille volte di più. "È traffico reale, e genera un carico reale, con cui tutti devono fare i conti", ha sottolineato il CEO.
Questo effetto moltiplicatore non è teorico. I dati di TollBit, azienda che monitora il traffico bot AI, mostrano che il fenomeno è già in corso con una velocità notevole: nel primo trimestre del 2025 il rapporto tra visite bot AI e visite umane era di 1 a 200. Nel quarto trimestre dello stesso anno era già sceso a 1 a 31. In meno di dodici mesi, la distanza si è ridotta di quasi sette volte. E il traffico umano, nel frattempo, non è rimasto fermo: tra il Q3 e il Q4 2025 è diminuito del 5%.
Infrastruttura sotto pressione
Prince ha richiamato l'analogia con il periodo COVID, quando la crescita improvvisa dell'uso dei servizi di streaming video aveva portato alcune parti di internet vicino al collasso. La differenza stavolta è strutturale: "Durante il COVID c'è stato un picco in due settimane, poi ha raggiunto un nuovo plateau. Quello che stiamo vedendo adesso è una crescita continua, e non vediamo nulla che possa rallentarla o fermarla."
I numeri del rapporto WP Engine del gennaio 2026 aggiungono un dettaglio tecnico rilevante: il traffico bot AI non si limita a crescere in volume, ma ha un impatto sproporzionato sulle risorse computazionali. Secondo lo studio, il traffico automatizzato può consumare fino al 70% delle risorse dinamiche più costose dei server, come hosting, ambiente di esecuzione e performance. Questo significa che un sito con il 30% del traffico proveniente da bot può trovarsi a reggere il 70% del peso computazionale a causa di quei bot. La gestione del traffico automatizzato è diventata una questione economica prima ancora che tecnica.
A questo si aggiunge un altro dato particolarmente indicativo: Cloudflare ha già bloccato 416 miliardi di richieste di scraping da parte di bot AI. Una cifra che da sola racconta la portata del fenomeno.
Sandbox on-demand come risposta infrastrutturale
Di fronte a questa prospettiva, Prince non si è limitato a descrivere il problema, ma ha descritto anche alcune possibili risposte tecnologiche. La più concreta riguarda la creazione di sandbox dinamiche per gli agenti AI: ambienti isolati che vengono avviati al volo quando un agente deve eseguire un compito come la prenotazione di un viaggio, effettuare ricerche, o l'acquisto di un prodotto, e poi smontati una volta completato il lavoro.
"Quello su cui stiamo ragionando è: come costruiamo l'infrastruttura sottostante in modo che tu possa, con la stessa semplicità con cui apri un nuovo tab nel browser, avviare del codice nuovo che esegue e serve gli agenti?", ha spiegato Prince. La sua visione è che milioni di questi ambienti potrebbero essere creati ogni secondo per gestire la scala del traffico AI in arrivo. Si tratta di un cambio architetturale profondo rispetto al modello attuale di web server statici o applicazioni server-side tradizionali.
Un platform shift, non solo un'anomalia
Prince ha inquadrato tutto ciò in una lettura più ampia: quella dell'AI come platform shift, paragonabile al passaggio dal desktop al mobile. "Il modo in cui si consumeranno le informazioni è completamente diverso", ha detto, ricordando che ogni grande transizione di piattaforma ha richiesto una riscrittura delle infrastrutture sottostanti e dei modelli di business costruiti sopra. Il web che conoscevamo, ottimizzato per utenti umani con sessioni di navigazione lineari, deve ripensare sé stesso per un ecosistema dove la maggior parte delle richieste proviene da macchine che operano in modo non lineare, parallelo e ad altissima frequenza.
Certamente le dichiarazioni di Prince non sono disinteressate: Cloudflare è tra le aziende che più direttamente beneficiano di questo scenario. Il ventaglio dei suoi servizi (CDN, protezioni DDoS, gestione della disponibilità, strumenti per il blocco selettivo dei bot AI) è esattamente ciò di cui i siti web hanno bisogno per sopravvivere all'ondata in arrivo. Ma la scala dei dati che l'azienda elabora le conferisce anche una prospettiva difficilmente replicabile: pochi altri soggetti hanno visibilità su una fetta così ampia dell'intero web.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi
Melania Trump scortata da un robot umanoide alla Casa Bianca. Il video è virale
HONOR 600: nuove conferme sulle specifiche del nuovo mid-range con batteria enorme
Blade 16: Razer sostituisce AMD con Intel, e i prezzi volano
Solo 649€ con coupon: questa e-bike da città HillMiles ha 100 km di autonomia, batteria rimovibile IP65 ed è in offerta in 3 colori
Arriva AI Dividend: 1.000 dollari al mese per chi ha perso il lavoro a causa dell'intelligenza artificiale
Forza Horizon 6 sorprende con requisiti PC accessibili e supporto al gaming handheld fin dal lancio









7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoAnche non lo facessero potrebbero velocemente far uscire dai motori di ricerca i siti che raccontano fatti reali e far salire quelli di fake news in modo consapevole o meno
Possono velocemente incidere su quello che la “gente” crede sia vero in tempi molto veloci
La società cambia semplicemente padrone e da “Dio” al Re al politico si passa in modo diretto a chi scrive e manipola le notizie senza dover passare per chi le inventava..
Ormai la gente sarà ancora più pecora di prima e internet meno utile poichè sarà difficile per la gente che non usa il cervello discriminare fra quello che è vero e quello che viene detto da IA e motori di ricerca.. pochi fanno funzionare i neuroni, molti si limitano a YT e google
Esiste già
https://www.reddit.com/r/PoisonFoun...y9/explanation/
Comunque quello descritto da Prince (persona sempre sul pezzo, non certo il classico venditore di fumo alla Sam Altman) è già ampiamente presente ed è già un grosso problema.
Non è la prima volta che mi tocca intervenire su infrastruttura e servizi di clienti che si sono ritrovati di punto in bianco con i servizi azzoppati da eccessivo martellamento da parte di crawler AI (e con questi mi riferisco anche solo a quelli con user agent parlante), che a differenza dei crawler di Google e altri motori di ricerca sono infinitamente più aggressivi.
secondo me dovresti bere di meno la sera... cmq sì l'AI ti fa i gattini come li desideri, personalizzati
Ci sarà un agente che se lo fa venire duro al posto mio???
Scusate per l' esempio un po' forte...ma questi la raccontano come se ad un certo punto nessun umano guarderà più alcuna informazione....
Voi non le guardate le foto delle tette?!?
Mi sembra che stiano un po' esagerando
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".