Oltre 200 siti di news hanno limitato l'accesso a Internet Archive: cosa sta succedendo
La tensione tra editori e intelligenza artificiale investe Internet Archive. Le testate temono che la Wayback Machine funga da ingresso secondario per l'addestramento dei modelli, e hanno attivato blocchi che di fatto possono minacciare l'esistenza di una memoria storica del web
di Nino Grasso pubblicata il 03 Febbraio 2026, alle 12:31 nel canale WebLa conservazione della memoria digitale si trova oggi schiacciata in un conflitto che non la riguarda direttamente, ma che ne sta compromettendo l'integrità. Grandi gruppi editoriali internazionali hanno iniziato a limitare o bloccare completamente l'accesso ai propri contenuti da parte di Internet Archive, l'ente no-profit che da decenni fotografa e cataloga l'evoluzione del web tramite Wayback Machine. La causa di questa chiusura non risiede nell'attività di archiviazione in sé, quanto nel timore che le aziende di intelligenza artificiale utilizzino questi archivi come scorciatoia per addestrare i propri modelli linguistici (LLM) aggirando paywall e restrizioni imposte sui siti originali.
Si tratta di un fenomeno che Robert Hahn, responsabile delle licenze per Guardian, ha definito - contattato da Nieman Lab - una questione di "conformità" e una difesa contro una "minaccia backdoor". I log di accesso del quotidiano britannico hanno rivelato una frequente attività di scansione proveniente proprio da Internet Archive. Sebbene Guardian supporti la missione di democratizzazione dell'informazione promossa dall'archivio, la dirigenza ha scelto di limitare l'esposizione dei propri articoli completi, temendo che le API della piattaforma di archiviazione offrano database strutturati troppo facili da prelevare per le compagnie tecnologiche a caccia di proprietà intellettuale. Non si tratta di un caso isolato, ma di una tendenza che coinvolge i maggiori attori dell'informazione globale.
Centinaia di siti di news bloccano l'accesso a Internet Archive, contro lo scraping per l'IA
Le contromisure adottate variano per intensità e metodo tecnico: anche New York Times ha confermato di aver attivato un "hard blocking" contro i crawler di Internet Archive, inserendo specifici bot come archive.org_bot nella lista di esclusione del proprio file robots.txt alla fine del 2025. Una decisione simile è stata presa da Reddit e dal conglomerato USA Today Co. (Gannett), che possiede centinaia di testate locali negli Stati Uniti. Mike Reed, CEO di Gannett, ha reso noto che nel solo mese di settembre 2025 l'azienda ha bloccato 75 milioni di bot AI, la maggior parte dei quali tentava di estrarre contenuti locali.
L'analisi condotta da Nieman Lab su oltre mille siti di notizie ha evidenziato che 241 testate in nove paesi vietano esplicitamente l'accesso ad almeno uno dei bot riconducibili a Internet Archive. La preoccupazione principale è che la Wayback Machine mostri versioni gratuite di articoli che sul sito originale sarebbero protetti da abbonamento, offrendo così materiale di alta qualità "pulito" e pronto per essere ingerito dai sistemi di machine learning. Financial Times, ad esempio, blocca qualsiasi automatismo tenti di accedere ai propri contenuti a pagamento, colpendo indistintamente le aziende di AI come OpenAI e gli archivi storici.
Michael Nelson, docente di informatica alla Old Dominion University, descrive la situazione con amarezza: Internet Archive e Common Crawl, considerati i "buoni" dell'ecosistema digitale, sono diventati un danno collaterale nella guerra contro i "cattivi" che sfruttano i dati senza permesso. Brewster Kahle, fondatore di Internet Archive, sostiene che tale condotta potrebbe avere effetti collaterali per gli utenti del web: se gli editori continueranno a limitare le biblioteche digitali, insomma, il pubblico avrà meno accesso alla documentazione storica, minando la lotta contro il disordine informativo.
Nonostante le rassicurazioni di Kahle sui sistemi di sicurezza e filtraggio interni, la fiducia tra chi produce notizie e chi le conserva sembra essersi incrinata di fronte alla fame insaziabile di dati dei nuovi modelli generativi.










Wi-Fi 7 con il design di una vetta innevata: ecco il nuovo sistema mesh di Huawei
Core Ultra 7 270K Plus e Core Ultra 7 250K Plus: Intel cerca il riscatto ma ci riesce in parte
PC Specialist Lafité 14 AI AMD: assemblato come vuoi tu
Google risolve il problema della memoria negli LLM: TurboQuant fa girare gli stessi modelli con cinque volte meno RAM
Un altro colpo alle auto elettriche: Panasonic taglia le batterie EV in favore di quelle per data center IA
Core Ultra 9 290K Plus: Intel conferma che non arriverà sul mercato
Addio connettori fusi? MSI promette di fermare tutto prima del disastro con GPU Safeguard+
Basta brani fake su Spotify: la nuova funzione dà controllo totale agli artisti
OPPO Find X9 Ultra: come funziona il rivoluzionario zoom 10x Hasselblad
Prezzo diverso per giochi digitali e fisici: la nuova politica Nintendo divide i giocatori
DDR5 32GB a meno di 340€: le Corsair Vengeance 6000MHz hanno buoni prezzi (visto il periodo) su Amazon
Harry Potter: HBO pubblica il primo trailer della serie TV e svela il nuovo volto di Hogwarts
Android 17 Beta 2 si allarga: la lista completa dei modelli (non solo Pixel) compatibili
RDNA 4m: AMD evolve RDNA 3.5 con AI e FSR 4 per le prossime APU Ryzen?
Sunseeker ha un mostro per i Pro e un'intera gamma domestica: punta ai prati italiani
Storica sentenza negli USA: Meta e Google ritenute responsabili della dipendenza da social e dei danni psicologici ai giovani
Musica generativa, arriva Lyria 3 Pro: ora Gemini compone brani completi









6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoLa tensione tra editori e intelligenza artificiale investe Internet Archive. Le testate temono che la Wayback Machine funga da ingresso secondario per l'addestramento dei modelli, e hanno attivato blocchi che di fatto possono minacciare l'esistenza di una memoria storica del web
Click sul link per visualizzare la notizia.
Che cagata, basta semplicemente fingersi Googlebot o Bingbot. Voglio vedere se bloccano pure quello. D'altronde quasi tutti i paywall remover funzionano anche così.
cavoli sei un tipo sveglio tu!
Perchè dovrebberlo farlo? Un crawler deve rispettare robots.txt se non lo fa si passa alle maniere forti, blocco del range IP.
Anche la ca**ata del fingersi googlebot non funziona, perchè c'è chi controlla se l'IP corrisponde al bot segnalato.
Credi di essere il grande hacker?
Perchè dovrebberlo farlo? Un crawler deve rispettare robots.txt se non lo fa si passa alle maniere forti, blocco del range IP.
Anche la ca**ata del fingersi googlebot non funziona, perchè c'è chi controlla se l'IP corrisponde al bot segnalato.
Credi di essere il grande hacker?
Si lo credo, tu invece che fai nella vita?. Se l'ho detto è perchè l'ho già fatto. Ci lavoro ogni giorno. Sono un sistemista/programmatore. Ti posso fare crawling fingendo di essere un Googlebot e pure con gli IP di google stessa senza che manco te ne accorgi. Se non sapete di cosa parlate tacete.
Ma perdi tempo a rispondergli? Leggiti anche solo gli ultimi 10 post e capisci che ovunque posta solo in maniera aggressiva e provocatoria. Tra l'altro accunt del 2020 con 236 post... non serve che ti dica altro, vero?
Da lumeruz a lameruz il passo è breve.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".