Anche gli LLM possono "rimbecillirsi" come cervelli umani in overdose da social
Un nuovo studio statunitense suggerisce che il pre-addestramento degli LLM su grandi quantità di contenuti superficiali e virali possa causare un declino cognitivo simile a quello umano, sollevando l'allarme sulla qualità dei dati usati per l'intelligenza artificiale
di Andrea Bai pubblicata il 24 Ottobre 2025, alle 16:31 nel canale Scienza e tecnologiaUn gruppo di ricercatori statunitensi del Texas A&M, University of Texas e della Purdue University ha condiviso un documento in attesa di revisione formale che introduce la “LLM brain rot hypothesis”, ovvero l'ipotesi secondo cui l'esposizione prolungata a dati di bassa qualità porterebbe i modelli linguistici di grandi dimensioni (LLM) a sviluppare comportamenti paragonabili al "declino cognitivo" umano.
Ispirandosi a studi neuroscientifici sul consumo eccessivo di contenuti banali e superficiali online, gli studiosi hanno cercato di quantificare in che misura l'allenamento su dati “spazzatura” possa degradare le capacità di ragionamento e memoria degli LLM. L’obiettivo è comprendere se il pre-addestramento continuo su testi di bassa qualità possa tradursi in un deterioramento delle prestazioni del modello nel lungo periodo.
Definire cosa sia “junk” non è semplice
Il problema, però, è che il concetto di “junk web text” non ha confini oggettivi e netti: per trovare una via percorribile, i ricercatori hanno analizzato il dataset Twitter100M presente su Hugging Face, che include 100 milioni di tweet, e ne hanno estratto campioni distinti tra contenuti “junk” e “di controllo”.
Partendo dall’ipotesi che la “brain rot” negli esseri umani derivi da un abuso di contenuti che stimolano l’engagement in modo banale, hanno identificato i tweet “junk” come quelli con numeri elevati di mi piace, retweet e risposte, ma di lunghezza ridotta. In altre parole, post virali ma brevi, che possono essere sintomi di un certo grado di superficialità contenutistica.
New Finding: 🧠 LLMs Can Get Brain Rot (too)!
— Junyuan "Jason" Hong (@hjy836) October 19, 2025
[1/6]🚨LLMs can suffer from “brain rot” when continually fed trivial, highly engaging Twitter/X content.
🧩Their reasoning, long‑context understanding, safety, and even personality traits persistently deteriorate. pic.twitter.com/O0PYjfX8Ma
Una seconda metrica ha preso spunto dal marketing per valutare la “qualità semantica” dei testi. Utilizzando un complesso prompt basato su GPT-4o, è stato selezionato un insieme di tweet concentrati su temi superficiali o sensazionalistici, come le varie teorie del complotto, affermazioni esagerate, contenuti lifestyle o linguaggio di tipo "-bait". Un campione casuale di questi risultati è stato poi verificato manualmente da tre studenti universitari, registrando una corrispondenza del 76% con le classificazioni automatiche.
Con i due dataset “junk” e “control” pronti, i ricercatori hanno pre-addestrato quattro LLM utilizzando proporzioni diverse dei due insiemi di dati. Le prestazioni sono state poi valutate attraverso una serie di benchmark: il test di ragionamento ARC, la memoria a lungo contesto (RULER), la conformità a norme etiche (AdvBench e HH-RLHF) e le caratteristiche della “personalità” (TRAIT).
I risultati hanno mostrato che una maggiore presenza di dati “junk” nell'addestramento si traduce in un peggioramento significativo delle capacità di ragionamento e della memoria a lungo termine. Gli effetti sono apparsi più eterogenei negli altri test: in particolare, un mix equilibrato (50% junk, 50% control) nel modello Llama 8B ha prodotto risultati curiosamente positivi in alcune metriche legate ai tratti di personalità, oltre a una migliore adesione a norme etiche.
Rischio di “contaminazione cognitiva”
Gli autori concludono che una dipendenza eccessiva dai dati provenienti dal web espone i LLM a un “trappola di contaminazione dei contenuti” e sottolineano l'importanza di una revisione urgente delle pratiche di raccolta e pre-addestramento dei dati, sottolineando la necessità di una selezione più rigorosa e controlli di qualità per evitare danni cumulativi nei modelli futuri.
Il pericolo è amplificato dal fatto che una quantità sempre maggiore dei contenuti online è ormai prodotta da altre IA, tornando quindi al rischio di "collasso" del modello, un processo in cui i modelli si allenano su dati generati da sé, perdendo progressivamente capacità e diversità informativa.










Renault Twingo E-Tech Electric: che prezzo!
Il cuore digitale di F1 a Biggin Hill: l'infrastruttura Lenovo dietro la produzione media
DJI Osmo Mobile 8: lo stabilizzatore per smartphone con tracking multiplo e asta telescopica
Snap e Perplexity unite: dal prossimo anno le ricerche si potranno fare direttamente da Snapchat
La Cina dice addio a NVIDIA? Il governo avrebbe vietato i chip AI stranieri nei progetti pubblici
Microlino, simbolo italiano della mobilità elettrica, potrebbe spostare la produzione in Cina
Apple disattiverà la sincronizzazione delle reti Wi-Fi tra iPhone e Apple Watch in tutta l’UE
Google lancia l'allarme: attenzione ai malware che riscrivono il codice in tempo reale con l’AI
Primo test drive con Leapmotor B10: le cinesi così fanno paura | Video
'Non può essere un robot': l'umanoide di Xpeng si muove così fluidamente da diventare un caso
Monopattino elettrico Segway Ninebot Max G2E in offerta: 450W di potenza e freni su entrambe le ruote, ora a 549€ su Amazon
Syberia Remastered è disponibile: il ritorno poetico di Kate Walker su PS5, Xbox e PC
Sony scopre che tutti i modelli AI hanno pregiudizi razziali: ecco cosa è emerso con il dataset FHIBE
Amazon nasconde un -15% su 'Seconda Mano' — ecco come accaparrarselo subito
Due occasioni Apple su Amazon: iPhone 16 e MacBook Air M4 a prezzi super scontati
Verso la fine della TV tradizionale? I giovani guardano sempre più TikTok e YouTube
Cassa JBL a 39€, portatili, smartphone, TV e robot scontati di centinaia di Euro: le migliori offerte Amazon con diverse idee regalo









23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMa infatti, chi l'ha mai incontrata una persona che avesse un modello di linguaggio large?
il funzionamento è quello mi sembra assurdo che a te faccia strano
Forse ho capito male, ma stai seriamente affermando che un LLM riproduce il funzionamento del cervello?
Dipende dal cervello.
Buon punto
Nella nostra testa ci son miliardi di neuroni che ricevono segnali elettrici in ingresso e ne buttano fuori di conseguenza altri verso altri neuroni.
Le reti neurali funzionano più o meno uguale, hanno nodi che ricevono numeri in input, li macinano e in output ne fanno uscire altri in direzione di altri nodi.
In pratica si basano su come "pensiamo" funzioni il cervello. Non c'è reale corrispondenza funzionale o strutturale profonda, alla fine elaborano pattern statistici su larga scala, ma lo imitano, tant'è che Dario Amodei, il CEO di Anthropic che sviluppano Claude, qui
https://www.darioamodei.com/post/th...nterpretability
dice che nessuno sa che succeda davvero dentro un LLM, sono come delle blackbox, e che l'obiettivo è creare una sorta di "MRI per l'AI", uno strumento diagnostico per analizzare modelli avanzati, come facciamo col nostro cervello.
Il funzionamento a livello base base, a differenza del software classico, in cui si deve prevedere qualsiasi input e gestire qualsiasi output altrimenti il sw non capisce, crasha o si blocca, è che le reti neurali si basano sull'essere istruite e poi se la cavano da sole. Ad esempio, ho una lista di altezza + peso = genere (maschio/femmina). Per addestrare una IA a darmi il genere passando qualsiasi peso e altezza, dovrei istruirla con dei dati reali, tanti dati reali. Come si fa? Semplice, gli passo altezza e peso, questi valori vengono trasformati in numeri, passano attraverso n nodi e alla fine esce un valore numerico che potremmo semplificare in 0 (maschio) e 1 (femmina). Lo confronto col dato che mi aspetto e, usando formule matematiche, "peso" l'errore (loss function). Se l'errore è superiore a un margine che ritengo accettabile (che so 0.1 per maschio 0.9 per femmina), calcolo di quanto devo modificare i parametri dentro ai nodi per avvicinarmi, e faccio rigirare il tutto. Più ho dati corretti, più faccio ripetizioni, più i nodi verranno modificati e alla fine dovrei avere dell'intera base di dati iniziale risultati statisticamente (margine di errore 0.1) corretti. A quel punto se gli dò un peso e un'altezza qualsiasi la rete neurale (dovrebbe) fornire il genere corretto con un margine di errore accettabile.
Ora gli LLM sono molto più complessi, usano architetture come i Transformer (la T di GPT) e sono addestrati su enormi corpora testuali, da qui i costi, e l'esempio sopra si basa su IA predittiva, non generativa come sono gli LLM, ma in linea di massima sono così.
Quindi possiamo dire che gli LLM imitano il cervello e, siccome non sappiamo bene quel che succeda dentro, possono benissimo avere pregi e difetti del cervello stesso e magari, come noi, ogni tanto si "rimbecilliscono" se li nutriamo solo di contenuti virali.
Le reti neurali funzionano più o meno uguale, hanno nodi che ricevono numeri in input, li macinano e in output ne fanno uscire altri in direzione di altri nodi.
...
si si, proprio uguale
tranquillo bro
tranquillo bro
Uguale uguale, anche io ogni tanto mi sveglio la mattina, applico una funzione di attivazione non lineare ai miei input sensoriali e aggiorno i miei pesi sinaptici con la retropropagazione dell'errore. Classico lunedì. Per fortuna è sabato.
Ovviamente non è proprio uguale, l'analogia serve a spiegare il principio base. I neuroni del cervello elaborano segnali elettrici, quelli delle reti neurali elaborano numeri. Si chiamano reti neurali per quello. Il modo in cui trasformano input in output è simile. È come dire che un aereo e un uccello volano: non lo fanno nello stesso modo, ma il paragone aiuta a capire il meccanismo.
Ovviamente non è proprio uguale, l'analogia serve a spiegare il principio base. I neuroni del cervello elaborano segnali elettrici, quelli delle reti neurali elaborano numeri. Si chiamano reti neurali per quello. Il modo in cui trasformano input in output è simile. È come dire che un aereo e un uccello volano: non lo fanno nello stesso modo, ma il paragone aiuta a capire il meccanismo.
tu ti svegli alla mattina e crei un nuovo nickname per scrivere belinate su hw
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".