|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/al...to_136421.html
Alibaba Cloud presenta QwQ-32B, un modello AI focalizzato sul ragionamento che riesce a competere con sistemi molto più grandi grazie a un'ottimizzazione avanzata Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
Notevole
E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"
Risolve anche il problema della stanza con 3 persone di cui una gioca a scacchi e l'altra sta facendo un solitario |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11128
|
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS ∞ |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
Quote:
Peraltro non è difficile provare con altre parole con la stessa struttura, parole che difficilmente sono nei dati di addestramento per questo specifico caso d'uso. Ho fatto la query in italiano con la parola "soprattutto" e la risposta è risultata corretta. Le Chat, per dire, non ha superato il test |
|
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11128
|
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.
Quando tu chiedi al modello, Quote:
QwQ-32B, per sapere quali lettere compongono la parola corrispondente al valore "47565", deve avere in un modo o nell'altro avuto modo di apprenderlo nei dati di addestramento; il cosiddetto ragionamento semplicemente aiuta il modello a tirare fuori questa informazione dai propri pesi.
__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS ∞ Ultima modifica di s12a : 07-03-2025 alle 15:29. |
|
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
Quote:
Te lo lascio come esercizio ![]() Ti consiglio di provare con una password di più di 10 caratteri generata dal tuo generatore di password preferito. Fagli usare pure numeri e caratteri speciali. Dopo però non mi venire a dire che non ci vuole molto a elaborare qualsiasi combinazione di caratteri sennò inizio a preoccuparmi ![]() Grazie per la spiegazione di come funziona ![]() |
|
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11128
|
Quote:
Questo non toglie che al momento tecnicamente gli LLM non "vedono" le lettere e non sono in grado di risolvere facilmente problemi più complessi dove la posizione delle parole o l'esatta ortografia di un testo intero sono importanti, piuttosto che contare le lettere di una o anche qualche parola. Alcuni gruppi stanno lavorando per cercare di rimuovere questa limitazione in maniera intrinseca.
__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS ∞ |
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 20044
|
con copilot funziona. quindi quello non è llm?
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490 su Tiscali 936/288 |
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11128
|
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.
Saprà ad esempio, perché gli è stato insegnato, che il token 72600 può essere composto in linguaggio umano dai token 82, 83, 81, 64, 86, 65, 68, 81, 81, 88. Quote:
Esistono LLM sperimentali che non fanno uso di normale tokenizer, od usano un token per byte/carattere (cosa che renderebbe banale per un LLM contare il numero di caratteri che compone una parola o scomporle in maniera arbitraria, a costo per il momento di inefficienza computazionale), dunque anche se il problema fosse risolto una volta per tutte non vorrebbe dire che non è un LLM.
__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS ∞ |
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
Quote:
E mi sembra notevole, date anche le dimensioni. Copilot su questo tipo di problema sbaglia. Se vuoi provare la query è questa: quante lettere R ci sono nella parola "%h6oGrrj%37RS45a"? Riscrivi la parola indicata racchiudendo ogni R tra parentesi tonde. Ignora la differenza fra maiuscole e minuscole Questa query da QwQ-32B viene risolta. Tu hai affermato che risolve questi problemi perché, cito testualmente, "fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento" Ti ho dimostrato che non è esattamente così, non letteralmente. E comunque su questo aspetto modelli molto più grandi hanno problemi come nel caso di Copilot o anche Le Chat E' chiaro che non siamo di fronte ad un nuovo paradigma, ma non è questo il punto. Se vuoi continuare a spiegarci come funziona, fai pure, è divertente ![]() |
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 11128
|
Se trovi QwQ-32B esaltante perché riesce a contare le 'r' in 'strawberry' (in non meno di 1000 token di "ragionamento"), buon per te.
Oltre ad essere un meme, personalmente mi sembra un test per citrulli in quanto i problemi architetturali che rendono difficoltose questo tipo di domande per gli LLM continuano a rimanere, tutto qui. Sarebbe stato più interessante riportare altri esempi di ragionamento che questo in particolare.
__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS ∞ Ultima modifica di s12a : 07-03-2025 alle 18:47. |
![]() |
![]() |
![]() |
#13 | ||
Senior Member
Iscritto dal: Oct 2008
Messaggi: 303
|
Quote:
Quote:
Tuttavia non ho riportato solo questo di esempio, ti dev'essere sfuggito ![]() Il vuoto in ogni caso puoi sempre riempirlo tu, no? Magari con esempi concreti come ho fatto io, se non ti spiace. |
||
![]() |
![]() |
![]() |
#14 |
Member
Iscritto dal: Mar 2008
Messaggi: 31
|
Io sono convinto che molte persone, anche se preparate tecnicamente, non facciano molti test sugli LM in prima persona. Leggendo una Chain of Thought è difficile dubitare che ci troviamo di fronte a ragionamenti fini e complessi, anche se non necessariamente corretti.
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 15:48.