Un agente AI visita 5.000 siti dove un umano ne visita 5: perché il web cambierà completamente

Un agente AI visita 5.000 siti dove un umano ne visita 5: perché il web cambierà completamente

Il CEO di Cloudflare Matthew Prince al SXSW 2026: entro il 2027 il traffico bot AI supererà quello umano. Gli agenti visitano fino a 1.000 volte più siti di un utente, con effetti pesanti su infrastrutture e modelli di business del web

di pubblicata il , alle 17:31 nel canale Web
Cloudflare
 

Al SXSW di Austin, Matthew Prince, CEO di Cloudflare, ha condiviso con il pubblico una previsione chiara: entro il 2027, il traffico generato dai bot AI supererà quello prodotto dagli esseri umani su internet. Non si tratta di un'ipotesi speculativa, ma di una proiezione basata su dati che la stessa Cloudflare può osservare in tempo reale, dato che la sua infrastruttura gestisce il traffico di circa il 20% di tutti i siti web al mondo.

"Con la crescita dell'AI generativa e la sua fame insaziabile di dati, stiamo osservando una traiettoria per cui nel 2027 il volume di traffico bot online supererà quello umano", ha dichiarato Prince. Il dato è tanto più significativo se si considera che, prima dell'era dei modelli generativi, il traffico automatizzato rappresentava già circa il 20% del totale, costituito principalmente dal crawler di Google, da altri crawler legittimi e da bot usati da truffatori. Quella percentuale era considerata la "baseline" fisiologica del web, ma che oggi è in rapida espansione.

Il moltiplicatore degli agenti AI

Il motore di questa trasformazione non è solo il volume di modelli che scansionano il web per il training, ma soprattutto il comportamento degli agenti AI, quelli che eseguono compiti per conto degli utenti. Prince ha usato un esempio concreto: se un essere umano sta cercando di acquistare una fotocamera digitale, visiterà cinque siti. L'agente AI che esegue lo stesso compito ne visiterà potenzialmente 5.000, cioè mille volte di più. "È traffico reale, e genera un carico reale, con cui tutti devono fare i conti", ha sottolineato il CEO.

Questo effetto moltiplicatore non è teorico. I dati di TollBit, azienda che monitora il traffico bot AI, mostrano che il fenomeno è già in corso con una velocità notevole: nel primo trimestre del 2025 il rapporto tra visite bot AI e visite umane era di 1 a 200. Nel quarto trimestre dello stesso anno era già sceso a 1 a 31. In meno di dodici mesi, la distanza si è ridotta di quasi sette volte. E il traffico umano, nel frattempo, non è rimasto fermo: tra il Q3 e il Q4 2025 è diminuito del 5%.

Infrastruttura sotto pressione

Prince ha richiamato l'analogia con il periodo COVID, quando la crescita improvvisa dell'uso dei servizi di streaming video aveva portato alcune parti di internet vicino al collasso. La differenza stavolta è strutturale: "Durante il COVID c'è stato un picco in due settimane, poi ha raggiunto un nuovo plateau. Quello che stiamo vedendo adesso è una crescita continua, e non vediamo nulla che possa rallentarla o fermarla."

I numeri del rapporto WP Engine del gennaio 2026 aggiungono un dettaglio tecnico rilevante: il traffico bot AI non si limita a crescere in volume, ma ha un impatto sproporzionato sulle risorse computazionali. Secondo lo studio, il traffico automatizzato può consumare fino al 70% delle risorse dinamiche più costose dei server, come hosting, ambiente di esecuzione e performance. Questo significa che un sito con il 30% del traffico proveniente da bot può trovarsi a reggere il 70% del peso computazionale a causa di quei bot. La gestione del traffico automatizzato è diventata una questione economica prima ancora che tecnica.

A questo si aggiunge un altro dato particolarmente indicativo: Cloudflare ha già bloccato 416 miliardi di richieste di scraping da parte di bot AI. Una cifra che da sola racconta la portata del fenomeno.

Sandbox on-demand come risposta infrastrutturale

Di fronte a questa prospettiva, Prince non si è limitato a descrivere il problema, ma ha descritto anche alcune possibili risposte tecnologiche. La più concreta riguarda la creazione di sandbox dinamiche per gli agenti AI: ambienti isolati che vengono avviati al volo quando un agente deve eseguire un compito come la prenotazione di un viaggio, effettuare ricerche, o l'acquisto di un prodotto, e poi smontati una volta completato il lavoro.

"Quello su cui stiamo ragionando è: come costruiamo l'infrastruttura sottostante in modo che tu possa, con la stessa semplicità con cui apri un nuovo tab nel browser, avviare del codice nuovo che esegue e serve gli agenti?", ha spiegato Prince. La sua visione è che milioni di questi ambienti potrebbero essere creati ogni secondo per gestire la scala del traffico AI in arrivo. Si tratta di un cambio architetturale profondo rispetto al modello attuale di web server statici o applicazioni server-side tradizionali.

Un platform shift, non solo un'anomalia

Prince ha inquadrato tutto ciò in una lettura più ampia: quella dell'AI come platform shift, paragonabile al passaggio dal desktop al mobile. "Il modo in cui si consumeranno le informazioni è completamente diverso", ha detto, ricordando che ogni grande transizione di piattaforma ha richiesto una riscrittura delle infrastrutture sottostanti e dei modelli di business costruiti sopra. Il web che conoscevamo, ottimizzato per utenti umani con sessioni di navigazione lineari, deve ripensare sé stesso per un ecosistema dove la maggior parte delle richieste proviene da macchine che operano in modo non lineare, parallelo e ad altissima frequenza.

Certamente le dichiarazioni di Prince non sono disinteressate: Cloudflare è tra le aziende che più direttamente beneficiano di questo scenario. Il ventaglio dei suoi servizi (CDN, protezioni DDoS, gestione della disponibilità, strumenti per il blocco selettivo dei bot AI) è esattamente ciò di cui i siti web hanno bisogno per sopravvivere all'ondata in arrivo. Ma la scala dei dati che l'azienda elabora le conferisce anche una prospettiva difficilmente replicabile: pochi altri soggetti hanno visibilità su una fetta così ampia dell'intero web.

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto20 Marzo 2026, 17:55 #1
Pensate se creano siti compromessi
Notturnia20 Marzo 2026, 18:13 #2
Originariamente inviato da: supertigrotto
Pensate se creano siti compromessi


Anche non lo facessero potrebbero velocemente far uscire dai motori di ricerca i siti che raccontano fatti reali e far salire quelli di fake news in modo consapevole o meno

Possono velocemente incidere su quello che la “gente” crede sia vero in tempi molto veloci

La società cambia semplicemente padrone e da “Dio” al Re al politico si passa in modo diretto a chi scrive e manipola le notizie senza dover passare per chi le inventava..

Ormai la gente sarà ancora più pecora di prima e internet meno utile poichè sarà difficile per la gente che non usa il cervello discriminare fra quello che è vero e quello che viene detto da IA e motori di ricerca.. pochi fanno funzionare i neuroni, molti si limitano a YT e google
Gnubbolo20 Marzo 2026, 18:17 #3
ma se il 99% dei siti d'informazione sono solo pappagalli di Bloomberg e Reuters.. sai che gran spunti può darti l'agente.
Tasslehoff20 Marzo 2026, 23:34 #4
Originariamente inviato da: supertigrotto
Pensate se creano siti compromessi
Intendi siti compromessi per "inquinare" i dataset degli LLM che spazzolano il web con i loro maledetti crawler?

Esiste già

https://www.reddit.com/r/PoisonFoun...y9/explanation/

Comunque quello descritto da Prince (persona sempre sul pezzo, non certo il classico venditore di fumo alla Sam Altman) è già ampiamente presente ed è già un grosso problema.

Non è la prima volta che mi tocca intervenire su infrastruttura e servizi di clienti che si sono ritrovati di punto in bianco con i servizi azzoppati da eccessivo martellamento da parte di crawler AI (e con questi mi riferisco anche solo a quelli con user agent parlante), che a differenza dei crawler di Google e altri motori di ricerca sono infinitamente più aggressivi.
alexfri21 Marzo 2026, 00:23 #5
Ma santoidd!io c’é una cosa positiva di sta stramaledetta IA?? Oppure é una domanda tipo: c’é una cosa positiva se ti tiro un calcio fortissimo nei coglionj? chi lo riceve sá dirmi almeno una cosa positiva nel riceverlo???
Pascas21 Marzo 2026, 08:38 #6
Originariamente inviato da: alexfri
Ma santoidd!io c’é una cosa positiva di sta stramaledetta IA?? Oppure é una domanda tipo: c’é una cosa positiva se ti tiro un calcio fortissimo nei coglionj? chi lo riceve sá dirmi almeno una cosa positiva nel riceverlo???


secondo me dovresti bere di meno la sera... cmq sì l'AI ti fa i gattini come li desideri, personalizzati
hodler21 Marzo 2026, 13:40 #7
Si ma io come farò a doomscrollare foto di tette e culi?!?

Ci sarà un agente che se lo fa venire duro al posto mio???


Scusate per l' esempio un po' forte...ma questi la raccontano come se ad un certo punto nessun umano guarderà più alcuna informazione....


Voi non le guardate le foto delle tette?!? ... Più banalmente non guardate le foto di vari bed and breakfast per decidere? E dei piatti di un ristorante? E leggete le recensioni? E leggete i commenti su hwupgrade?!? E tante altre cose....

Mi sembra che stiano un po' esagerando

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^