View Full Version : Alibaba sfida i giganti dell'AI con QwQ-32B, nuovo modello basato sul ragionamento
Redazione di Hardware Upg
07-03-2025, 08:45
Link alla notizia: https://www.hwupgrade.it/news/web/alibaba-sfida-i-giganti-dell-ai-con-qwq-32b-nuovo-modello-basato-sul-ragionamento_136421.html
Alibaba Cloud presenta QwQ-32B, un modello AI focalizzato sul ragionamento che riesce a competere con sistemi molto più grandi grazie a un'ottimizzazione avanzata
Click sul link per visualizzare la notizia.
E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"
Risolve anche il problema della stanza con 3 persone di cui una gioca a scacchi e l'altra sta facendo un solitario
E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
Ti ricordo che è un modello che "ragiona". Prima di dare la risposta puoi vedere tutto il "ragionamento" che fa. Inoltre, hai letto bene la mia query? Ho chiesto anche di racchiudere ogni R tra parentesi e ha fatto anche quello.
Peraltro non è difficile provare con altre parole con la stessa struttura, parole che difficilmente sono nei dati di addestramento per questo specifico caso d'uso. Ho fatto la query in italiano con la parola "soprattutto" e la risposta è risultata corretta. Le Chat, per dire, non ha superato il test
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.
Quando tu chiedi al modello,
How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()
Lui vedrà una serie di numeri, dove l'intera parola "Raspberry" (secondo tokenizer.json (https://huggingface.co/Qwen/QwQ-32B/resolve/main/tokenizer.json?download=true)) è rappresentata dal valore "47565" (altre parole possono essere composte da più valori consecutivi).
QwQ-32B, per sapere quali lettere compongono la parola corrispondente al valore "47565", deve avere in un modo o nell'altro avuto modo di apprenderlo nei dati di addestramento; il cosiddetto ragionamento semplicemente aiuta il modello a tirare fuori questa informazione dai propri pesi.
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.
Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.
Te lo lascio come esercizio ;)
Ti consiglio di provare con una password di più di 10 caratteri generata dal tuo generatore di password preferito. Fagli usare pure numeri e caratteri speciali.
Dopo però non mi venire a dire che non ci vuole molto a elaborare qualsiasi combinazione di caratteri sennò inizio a preoccuparmi :)
Quando tu chiedi al modello,
Grazie per la spiegazione di come funziona :D
Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.
No, può avere comunque avuto nei dati di addestramento una serie di domande e risposte che descrivevano le lettere corrispondenti ai vari token nel suo tokenizer e risolvere il problema per composizione, anche per le parole inventate composte da più token.
Questo non toglie che al momento tecnicamente gli LLM non "vedono" le lettere e non sono in grado di risolvere facilmente problemi più complessi dove la posizione delle parole o l'esatta ortografia di un testo intero sono importanti, piuttosto che contare le lettere di una o anche qualche parola.
Alcuni gruppi stanno lavorando per cercare di rimuovere questa limitazione in maniera intrinseca.
amd-novello
07-03-2025, 16:45
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
con copilot funziona. quindi quello non è llm?
:mc:
IMHO :D
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.
Saprà ad esempio, perché gli è stato insegnato, che il token 72600 può essere composto in linguaggio umano dai token 82, 83, 81, 64, 86, 65, 68, 81, 81, 88.
con copilot funziona. quindi quello non è llm?
Dovrebbe usare uno degli ultimi ChatGPT, che è sempre un LLM con normale tokenizer. Vale comunque lo stesso discorso: gli LLM usati commercialmente non vedono normalmente parole composte da lettere, e se conoscono la risposta è perché l'hanno già memorizzata.
Esistono LLM sperimentali che non fanno uso di normale tokenizer, od usano un token per byte/carattere (cosa che renderebbe banale per un LLM contare il numero di caratteri che compone una parola o scomporle in maniera arbitraria, a costo per il momento di inefficienza computazionale), dunque anche se il problema fosse risolto una volta per tutte non vorrebbe dire che non è un LLM.
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.
Non ho fatto affermazioni del genere. Ho detto che questo modello risolve per la prima volta, a quanto ne so, un paio di problemi che modelli di analoghe dimensioni (o anche molto più grandi) fino ad ora non erano riusciti a risolvere.
E mi sembra notevole, date anche le dimensioni.
Copilot su questo tipo di problema sbaglia. Se vuoi provare la query è questa:
quante lettere R ci sono nella parola "%h6oGrrj%37RS45a"? Riscrivi la parola indicata racchiudendo ogni R tra parentesi tonde. Ignora la differenza fra maiuscole e minuscole
Questa query da QwQ-32B viene risolta.
Tu hai affermato che risolve questi problemi perché, cito testualmente, "fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento"
Ti ho dimostrato che non è esattamente così, non letteralmente. E comunque su questo aspetto modelli molto più grandi hanno problemi come nel caso di Copilot o anche Le Chat
E' chiaro che non siamo di fronte ad un nuovo paradigma, ma non è questo il punto. Se vuoi continuare a spiegarci come funziona, fai pure, è divertente :)
Se trovi QwQ-32B esaltante perché riesce a contare le 'r' in 'strawberry' (in non meno di 1000 token di "ragionamento"), buon per te.
Oltre ad essere un meme, personalmente mi sembra un test per citrulli in quanto i problemi architetturali che rendono difficoltose questo tipo di domande per gli LLM continuano a rimanere, tutto qui. Sarebbe stato più interessante riportare altri esempi di ragionamento che questo in particolare.
Se trovi QwQ-32B esaltante perché riesce a contare le 'r' in 'strawberry' (in non meno di 1000 token di "ragionamento"), buon per te.
Non trovo esaltante niente e tu continui a non vedere il punto. Il punto è che questo modello 32B ci riesce e riesce anche in altri test quando modelli analoghi finora non ci sono riusciti, per non parlare di quelli più grandi, come ti ho dimostrato.
Sarebbe stato più interessante riportare altri esempi di ragionamento che questo in particolare.
Ah, adesso l'esempio su cui hai discusso fino ad adesso avrebbe dovuto essere un altro. Ok, me lo segno.
Tuttavia non ho riportato solo questo di esempio, ti dev'essere sfuggito :) Senza alcuna pretesa di essere esaustivo, beninteso
Il vuoto in ogni caso puoi sempre riempirlo tu, no? Magari con esempi concreti come ho fatto io, se non ti spiace.
PierPang
10-03-2025, 13:53
Ti ricordo che è un modello che "ragiona". Prima di dare la risposta puoi vedere tutto il "ragionamento" che fa.
Io sono convinto che molte persone, anche se preparate tecnicamente, non facciano molti test sugli LM in prima persona. Leggendo una Chain of Thought è difficile dubitare che ci troviamo di fronte a ragionamenti fini e complessi, anche se non necessariamente corretti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.