Alibaba sfida i giganti dell'AI con QwQ-32B, nuovo modello basato sul ragionamento

Alibaba sfida i giganti dell'AI con QwQ-32B, nuovo modello basato sul ragionamento

Alibaba Cloud presenta QwQ-32B, un modello AI focalizzato sul ragionamento che riesce a competere con sistemi molto più grandi grazie a un'ottimizzazione avanzata

di pubblicata il , alle 09:45 nel canale Web
Alibaba
 

Alibaba Cloud ha annunciato QwQ-32B, un nuovo modello di intelligenza artificiale progettato per eccellere nel ragionamento e nella risoluzione di problemi complessi. Basato sulla piattaforma Qwen2.5-32B, il modello utilizza 32,5 miliardi di parametri e riesce a competere con DeepSeek R1, che ne impiega ben 671 miliardi. I numeri evidenziano l'importanza dell'ottimizzazione e dell'addestramento mirato rispetto alla sola scala dei parametri.

Le prestazioni di QwQ-32B sono state confermate da test interni che lo hanno visto ottenere il 65,2% nel GPQA (test di ragionamento scientifico avanzato), il 50% nell'AIME (matematica avanzata) e un notevole 90,6% nel benchmark MATH-500, dedicato a problemi matematici complessi. Il modello si distingue in particolare per le capacità nei calcoli e nella programmazione, ambiti in cui l'allenamento tramite Reinforcement Learning ha mostrato miglioramenti progressivi.

QwQ-32B

L'accoglienza della comunità AI è stata entusiasta, con esperti e sviluppatori che hanno elogiato la capacità di QwQ-32B nel raggiungere risultati competitivi nonostante le sue dimensioni contenute. Alcuni, come Julien Chaumond di Hugging Face, hanno definito il modello un punto di riferimento nel settore.

A rafforzare l'adozione di QwQ-32B, Ollama e Groq, due realtà emergenti nel settore dell'intelligenza artificiale, hanno annunciato il supporto per il modello e che consentiranno agli sviluppatori di integrarlo in applicazioni open-source, insieme alla possibilità di sfruttare le elevate velocità di inferenza offerte dall'infrastruttura Groq.

Nonostante i suoi punti di forza, QwQ-32B presenta alcune limitazioni. Può incontrare difficoltà nella gestione di lingue miste e, dovendo seguire le normative locali cinesi, potrebbe fornire risposte non esaustive relativamente a temi politicamente sensibili.

QwQ-32B

Alibaba ha reso QwQ-32B disponibile come software open-source sotto licenza Apache 2.0, una strategia che lo differenzia da molti modelli occidentali accessibili solo tramite abbonamenti a pagamento. Il rilascio segue quello di Qwen 2.5-Max, avvenuto a gennaio, e conferma il sempre più determinante ruolo della Cina nello sviluppo dell'intelligenza artificiale.

L'azienda considera questa evoluzione solo un primo passo. "Stiamo espandendo l'uso del Reinforcement Learning per migliorare le capacità di ragionamento, convinti che modelli più solidi e risorse computazionali scalabili ci porteranno più vicini all'Intelligenza Artificiale Generale (AGI)", ha dichiarato Alibaba nel suo annuncio ufficiale.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
GianMi07 Marzo 2025, 15:08 #1

Notevole

E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"

Risolve anche il problema della stanza con 3 persone di cui una gioca a scacchi e l'altra sta facendo un solitario
s12a07 Marzo 2025, 15:13 #2
Originariamente inviato da: GianMi
E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"

Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
GianMi07 Marzo 2025, 15:55 #3
Originariamente inviato da: s12a
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.

Ti ricordo che è un modello che "ragiona". Prima di dare la risposta puoi vedere tutto il "ragionamento" che fa. Inoltre, hai letto bene la mia query? Ho chiesto anche di racchiudere ogni R tra parentesi e ha fatto anche quello.

Peraltro non è difficile provare con altre parole con la stessa struttura, parole che difficilmente sono nei dati di addestramento per questo specifico caso d'uso. Ho fatto la query in italiano con la parola "soprattutto" e la risposta è risultata corretta. Le Chat, per dire, non ha superato il test
s12a07 Marzo 2025, 16:24 #4
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.

Quando tu chiedi al modello,

How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()


Lui vedrà una serie di numeri, dove l'intera parola "Raspberry" (secondo tokenizer.json) è rappresentata dal valore "47565" (altre parole possono essere composte da più valori consecutivi).

QwQ-32B, per sapere quali lettere compongono la parola corrispondente al valore "47565", deve avere in un modo o nell'altro avuto modo di apprenderlo nei dati di addestramento; il cosiddetto ragionamento semplicemente aiuta il modello a tirare fuori questa informazione dai propri pesi.
GianMi07 Marzo 2025, 16:48 #5
Originariamente inviato da: s12a
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.

Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.

Te lo lascio come esercizio

Ti consiglio di provare con una password di più di 10 caratteri generata dal tuo generatore di password preferito. Fagli usare pure numeri e caratteri speciali.

Dopo però non mi venire a dire che non ci vuole molto a elaborare qualsiasi combinazione di caratteri sennò inizio a preoccuparmi

Originariamente inviato da: s12a
Quando tu chiedi al modello,


Grazie per la spiegazione di come funziona
s12a07 Marzo 2025, 17:29 #6
Originariamente inviato da: GianMi
Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.


No, può avere comunque avuto nei dati di addestramento una serie di domande e risposte che descrivevano le lettere corrispondenti ai vari token nel suo tokenizer e risolvere il problema per composizione, anche per le parole inventate composte da più token.

Questo non toglie che al momento tecnicamente gli LLM non "vedono" le lettere e non sono in grado di risolvere facilmente problemi più complessi dove la posizione delle parole o l'esatta ortografia di un testo intero sono importanti, piuttosto che contare le lettere di una o anche qualche parola.

Alcuni gruppi stanno lavorando per cercare di rimuovere questa limitazione in maniera intrinseca.
GianMi07 Marzo 2025, 17:41 #7
Originariamente inviato da: s12a
...




IMHO
amd-novello07 Marzo 2025, 17:45 #8
Originariamente inviato da: s12a
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.


con copilot funziona. quindi quello non è llm?
s12a07 Marzo 2025, 18:49 #9
Originariamente inviato da: GianMi


IMHO


Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.

Saprà ad esempio, perché gli è stato insegnato, che il token 72600 può essere composto in linguaggio umano dai token 82, 83, 81, 64, 86, 65, 68, 81, 81, 88.

Originariamente inviato da: amd-novello
con copilot funziona. quindi quello non è llm?


Dovrebbe usare uno degli ultimi ChatGPT, che è sempre un LLM con normale tokenizer. Vale comunque lo stesso discorso: gli LLM usati commercialmente non vedono normalmente parole composte da lettere, e se conoscono la risposta è perché l'hanno già memorizzata.

Esistono LLM sperimentali che non fanno uso di normale tokenizer, od usano un token per byte/carattere (cosa che renderebbe banale per un LLM contare il numero di caratteri che compone una parola o scomporle in maniera arbitraria, a costo per il momento di inefficienza computazionale), dunque anche se il problema fosse risolto una volta per tutte non vorrebbe dire che non è un LLM.
GianMi07 Marzo 2025, 19:24 #10
Originariamente inviato da: s12a
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.

Non ho fatto affermazioni del genere. Ho detto che questo modello risolve per la prima volta, a quanto ne so, un paio di problemi che modelli di analoghe dimensioni (o anche molto più grandi) fino ad ora non erano riusciti a risolvere.

E mi sembra notevole, date anche le dimensioni.

Copilot su questo tipo di problema sbaglia. Se vuoi provare la query è questa:

quante lettere R ci sono nella parola "%h6oGrrj%37RS45a"? Riscrivi la parola indicata racchiudendo ogni R tra parentesi tonde. Ignora la differenza fra maiuscole e minuscole

Questa query da QwQ-32B viene risolta.

Tu hai affermato che risolve questi problemi perché, cito testualmente, "fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento"

Ti ho dimostrato che non è esattamente così, non letteralmente. E comunque su questo aspetto modelli molto più grandi hanno problemi come nel caso di Copilot o anche Le Chat

E' chiaro che non siamo di fronte ad un nuovo paradigma, ma non è questo il punto. Se vuoi continuare a spiegarci come funziona, fai pure, è divertente

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^