Anche gli LLM possono "rimbecillirsi" come cervelli umani in overdose da social

Anche gli LLM possono "rimbecillirsi" come cervelli umani in overdose da social

Un nuovo studio statunitense suggerisce che il pre-addestramento degli LLM su grandi quantità di contenuti superficiali e virali possa causare un declino cognitivo simile a quello umano, sollevando l'allarme sulla qualità dei dati usati per l'intelligenza artificiale

di pubblicata il , alle 16:31 nel canale Scienza e tecnologia
 

Un gruppo di ricercatori statunitensi del Texas A&M, University of Texas e della Purdue University ha condiviso un documento in attesa di revisione formale che introduce la “LLM brain rot hypothesis”, ovvero l'ipotesi secondo cui l'esposizione prolungata a dati di bassa qualità porterebbe i modelli linguistici di grandi dimensioni (LLM) a sviluppare comportamenti paragonabili al "declino cognitivo" umano.

Ispirandosi a studi neuroscientifici sul consumo eccessivo di contenuti banali e superficiali online, gli studiosi hanno cercato di quantificare in che misura l'allenamento su dati “spazzatura” possa degradare le capacità di ragionamento e memoria degli LLM. L’obiettivo è comprendere se il pre-addestramento continuo su testi di bassa qualità possa tradursi in un deterioramento delle prestazioni del modello nel lungo periodo.

Definire cosa sia “junk” non è semplice

Il problema, però, è che il concetto di “junk web text” non ha confini oggettivi e netti: per trovare una via percorribile, i ricercatori hanno analizzato il dataset Twitter100M presente su Hugging Face, che include 100 milioni di tweet, e ne hanno estratto campioni distinti tra contenuti “junk” e “di controllo”.

Partendo dall’ipotesi che la “brain rot” negli esseri umani derivi da un abuso di contenuti che stimolano l’engagement in modo banale, hanno identificato i tweet “junk” come quelli con numeri elevati di mi piace, retweet e risposte, ma di lunghezza ridotta. In altre parole, post virali ma brevi, che possono essere sintomi di un certo grado di superficialità contenutistica.

Una seconda metrica ha preso spunto dal marketing per valutare la “qualità semantica” dei testi. Utilizzando un complesso prompt basato su GPT-4o, è stato selezionato un insieme di tweet concentrati su temi superficiali o sensazionalistici, come le varie teorie del complotto, affermazioni esagerate, contenuti lifestyle o linguaggio di tipo "-bait". Un campione casuale di questi risultati è stato poi verificato manualmente da tre studenti universitari, registrando una corrispondenza del 76% con le classificazioni automatiche.

Con i due dataset “junk” e “control” pronti, i ricercatori hanno pre-addestrato quattro LLM utilizzando proporzioni diverse dei due insiemi di dati. Le prestazioni sono state poi valutate attraverso una serie di benchmark: il test di ragionamento ARC, la memoria a lungo contesto (RULER), la conformità a norme etiche (AdvBench e HH-RLHF) e le caratteristiche della “personalità” (TRAIT).

I risultati hanno mostrato che una maggiore presenza di dati “junk” nell'addestramento si traduce in un peggioramento significativo delle capacità di ragionamento e della memoria a lungo termine. Gli effetti sono apparsi più eterogenei negli altri test: in particolare, un mix equilibrato (50% junk, 50% control) nel modello Llama 8B ha prodotto risultati curiosamente positivi in alcune metriche legate ai tratti di personalità, oltre a una migliore adesione a norme etiche.

Rischio di “contaminazione cognitiva”

Gli autori concludono che una dipendenza eccessiva dai dati provenienti dal web espone i LLM a un “trappola di contaminazione dei contenuti” e sottolineano l'importanza di una revisione urgente delle pratiche di raccolta e pre-addestramento dei dati, sottolineando la necessità di una selezione più rigorosa e controlli di qualità per evitare danni cumulativi nei modelli futuri.

Il pericolo è amplificato dal fatto che una quantità sempre maggiore dei contenuti online è ormai prodotta da altre IA, tornando quindi al rischio di "collasso" del modello, un processo in cui i modelli si allenano su dati generati da sé, perdendo progressivamente capacità e diversità informativa.

23 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
GianMi24 Ottobre 2025, 17:03 #1
Ma li pagano anche questi ricercatori? Perché mi sembra azzardato, per usare un eufemismo, stabilire parallelismi tra il nostro cervello e i LLM. Io li candiderei per l'IgNobel
Mo4224 Ottobre 2025, 19:47 #2
Originariamente inviato da: GianMi
Ma li pagano anche questi ricercatori? Perché mi sembra azzardato, per usare un eufemismo, stabilire parallelismi tra il nostro cervello e i LLM. Io li candiderei per l'IgNobel


Ma infatti, chi l'ha mai incontrata una persona che avesse un modello di linguaggio large?
coschizza24 Ottobre 2025, 20:24 #3
Originariamente inviato da: GianMi
Ma li pagano anche questi ricercatori? Perché mi sembra azzardato, per usare un eufemismo, stabilire parallelismi tra il nostro cervello e i LLM. Io li candiderei per l'IgNobel


il funzionamento è quello mi sembra assurdo che a te faccia strano
GianMi24 Ottobre 2025, 23:13 #4
Originariamente inviato da: coschizza
il funzionamento è quello mi sembra assurdo che a te faccia strano

Forse ho capito male, ma stai seriamente affermando che un LLM riproduce il funzionamento del cervello?
Mo4224 Ottobre 2025, 23:16 #5
Originariamente inviato da: GianMi
Forse ho capito male, ma stai seriamente affermando che un LLM riproduce il funzionamento del cervello?


Dipende dal cervello.
GianMi24 Ottobre 2025, 23:17 #6
Originariamente inviato da: Mo42
Dipende dal cervello.


Buon punto
mozzarello25 Ottobre 2025, 08:29 #7
Originariamente inviato da: GianMi
Forse ho capito male, ma stai seriamente affermando che un LLM riproduce il funzionamento del cervello?


Nella nostra testa ci son miliardi di neuroni che ricevono segnali elettrici in ingresso e ne buttano fuori di conseguenza altri verso altri neuroni.
Le reti neurali funzionano più o meno uguale, hanno nodi che ricevono numeri in input, li macinano e in output ne fanno uscire altri in direzione di altri nodi.

In pratica si basano su come "pensiamo" funzioni il cervello. Non c'è reale corrispondenza funzionale o strutturale profonda, alla fine elaborano pattern statistici su larga scala, ma lo imitano, tant'è che Dario Amodei, il CEO di Anthropic che sviluppano Claude, qui
https://www.darioamodei.com/post/th...nterpretability
dice che nessuno sa che succeda davvero dentro un LLM, sono come delle blackbox, e che l'obiettivo è creare una sorta di "MRI per l'AI", uno strumento diagnostico per analizzare modelli avanzati, come facciamo col nostro cervello.

Il funzionamento a livello base base, a differenza del software classico, in cui si deve prevedere qualsiasi input e gestire qualsiasi output altrimenti il sw non capisce, crasha o si blocca, è che le reti neurali si basano sull'essere istruite e poi se la cavano da sole. Ad esempio, ho una lista di altezza + peso = genere (maschio/femmina). Per addestrare una IA a darmi il genere passando qualsiasi peso e altezza, dovrei istruirla con dei dati reali, tanti dati reali. Come si fa? Semplice, gli passo altezza e peso, questi valori vengono trasformati in numeri, passano attraverso n nodi e alla fine esce un valore numerico che potremmo semplificare in 0 (maschio) e 1 (femmina). Lo confronto col dato che mi aspetto e, usando formule matematiche, "peso" l'errore (loss function). Se l'errore è superiore a un margine che ritengo accettabile (che so 0.1 per maschio 0.9 per femmina), calcolo di quanto devo modificare i parametri dentro ai nodi per avvicinarmi, e faccio rigirare il tutto. Più ho dati corretti, più faccio ripetizioni, più i nodi verranno modificati e alla fine dovrei avere dell'intera base di dati iniziale risultati statisticamente (margine di errore 0.1) corretti. A quel punto se gli dò un peso e un'altezza qualsiasi la rete neurale (dovrebbe) fornire il genere corretto con un margine di errore accettabile.

Ora gli LLM sono molto più complessi, usano architetture come i Transformer (la T di GPT) e sono addestrati su enormi corpora testuali, da qui i costi, e l'esempio sopra si basa su IA predittiva, non generativa come sono gli LLM, ma in linea di massima sono così.

Quindi possiamo dire che gli LLM imitano il cervello e, siccome non sappiamo bene quel che succeda dentro, possono benissimo avere pregi e difetti del cervello stesso e magari, come noi, ogni tanto si "rimbecilliscono" se li nutriamo solo di contenuti virali.
barzokk25 Ottobre 2025, 08:33 #8
Originariamente inviato da: mozzarello
Nella nostra testa ci son miliardi di neuroni che ricevono segnali elettrici in ingresso e ne buttano fuori di conseguenza altri verso altri neuroni.
Le reti neurali funzionano più o meno uguale, hanno nodi che ricevono numeri in input, li macinano e in output ne fanno uscire altri in direzione di altri nodi.
...

si si, proprio uguale
tranquillo bro

Originariamente inviato da: Mo42
Dipende dal cervello.

mozzarello25 Ottobre 2025, 08:45 #9
Originariamente inviato da: barzokk
si si, proprio uguale
tranquillo bro


Uguale uguale, anche io ogni tanto mi sveglio la mattina, applico una funzione di attivazione non lineare ai miei input sensoriali e aggiorno i miei pesi sinaptici con la retropropagazione dell'errore. Classico lunedì. Per fortuna è sabato.

Ovviamente non è proprio uguale, l'analogia serve a spiegare il principio base. I neuroni del cervello elaborano segnali elettrici, quelli delle reti neurali elaborano numeri. Si chiamano reti neurali per quello. Il modo in cui trasformano input in output è simile. È come dire che un aereo e un uccello volano: non lo fanno nello stesso modo, ma il paragone aiuta a capire il meccanismo.
barzokk25 Ottobre 2025, 08:53 #10
Originariamente inviato da: mozzarello
Uguale uguale, anche io ogni tanto mi sveglio la mattina, applico una funzione di attivazione non lineare ai miei input sensoriali e aggiorno i miei pesi sinaptici con la retropropagazione dell'errore. Classico lunedì. Per fortuna è sabato.

Ovviamente non è proprio uguale, l'analogia serve a spiegare il principio base. I neuroni del cervello elaborano segnali elettrici, quelli delle reti neurali elaborano numeri. Si chiamano reti neurali per quello. Il modo in cui trasformano input in output è simile. È come dire che un aereo e un uccello volano: non lo fanno nello stesso modo, ma il paragone aiuta a capire il meccanismo.

tu ti svegli alla mattina e crei un nuovo nickname per scrivere belinate su hw

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^