Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

ASUS ROG Swift OLED PG34WCDN recensione: il primo QD-OLED RGB da 360 Hz
ASUS ROG Swift OLED PG34WCDN recensione: il primo QD-OLED RGB da 360 Hz
ASUS ROG Swift OLED PG34WCDN è il primo monitor gaming con pannello QD-OLED Gen 5 a layout RGB Stripe Pixel e 360 Hz su 34 pollici: lo abbiamo misurato con sonde colorimetriche e NVIDIA LDAT. Ecco tutti i dati
Recensione Nothing Phone (4a) Pro: finalmente in alluminio, ma dal design sempre unico
Recensione Nothing Phone (4a) Pro: finalmente in alluminio, ma dal design sempre unico
Nothing Phone (4a) Pro cambia pelle: l'alluminio unibody sostituisce la trasparenza integrale, portando una solidità inedita. Sotto il cofano troviamo uno Snapdragon 7 Gen 4 che spinge forte, mentre il display è quasi da top dig amma. Con un teleobiettivo 3.5x e la Glyph Matrix evoluta, è la prova di maturità di Carl Pei. C'è qualche compromesso, ma a 499EUR la sostanza hardware e la sua unicità lo rendono un buon "flagship killer" in salsa 2026
WoW: Midnight, Blizzard mette il primo, storico mattone per l'housing e molto altro
WoW: Midnight, Blizzard mette il primo, storico mattone per l'housing e molto altro
Con Midnight, Blizzard tenta il colpaccio: il player housing sbarca finalmente su Azeroth insieme a una Quel'Thalas ricostruita da zero. Tra il dramma della famiglia Ventolesto e il nuovo Prey System, ecco com'è la nuova espansione di World of Warcraft
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 07-03-2025, 08:45   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://www.hwupgrade.it/news/web/al...to_136421.html

Alibaba Cloud presenta QwQ-32B, un modello AI focalizzato sul ragionamento che riesce a competere con sistemi molto più grandi grazie a un'ottimizzazione avanzata

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 14:08   #2
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Notevole

E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"

Risolve anche il problema della stanza con 3 persone di cui una gioca a scacchi e l'altra sta facendo un solitario
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 14:13   #3
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11239
Quote:
Originariamente inviato da GianMi Guarda i messaggi
E' il primo modello open source di queste dimensioni, che io sappia, che risolve correttamente la query: "How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()"
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 14:55   #4
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Quote:
Originariamente inviato da s12a Guarda i messaggi
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
Ti ricordo che è un modello che "ragiona". Prima di dare la risposta puoi vedere tutto il "ragionamento" che fa. Inoltre, hai letto bene la mia query? Ho chiesto anche di racchiudere ogni R tra parentesi e ha fatto anche quello.

Peraltro non è difficile provare con altre parole con la stessa struttura, parole che difficilmente sono nei dati di addestramento per questo specifico caso d'uso. Ho fatto la query in italiano con la parola "soprattutto" e la risposta è risultata corretta. Le Chat, per dire, non ha superato il test
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 15:24   #5
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11239
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.

Quando tu chiedi al modello,

Quote:
How many R letters are in the word Raspberry? Rewrite the word Raspberry enclosing each R in ()
Lui vedrà una serie di numeri, dove l'intera parola "Raspberry" (secondo tokenizer.json) è rappresentata dal valore "47565" (altre parole possono essere composte da più valori consecutivi).

QwQ-32B, per sapere quali lettere compongono la parola corrispondente al valore "47565", deve avere in un modo o nell'altro avuto modo di apprenderlo nei dati di addestramento; il cosiddetto ragionamento semplicemente aiuta il modello a tirare fuori questa informazione dai propri pesi.
__________________
~

Ultima modifica di s12a : 07-03-2025 alle 15:29.
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 15:48   #6
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Quote:
Originariamente inviato da s12a Guarda i messaggi
Perché pensi che sia difficile che questi dati siano presenti nei dati di addestramento? Non ci vuole molto ad elaborare i dizionari nelle varie lingue mondiali mediante un semplice script in Python per produrre domande/risposte da inserire nei dati di addestramento del modello assieme a tutti gli altri. E per Qwen, Alibaba ha già menzionato nei vari report tecnici dei suoi modelli di usare dati sintetici per aumentarne le prestazioni, non solo libri e web.
Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.

Te lo lascio come esercizio

Ti consiglio di provare con una password di più di 10 caratteri generata dal tuo generatore di password preferito. Fagli usare pure numeri e caratteri speciali.

Dopo però non mi venire a dire che non ci vuole molto a elaborare qualsiasi combinazione di caratteri sennò inizio a preoccuparmi

Quote:
Originariamente inviato da s12a Guarda i messaggi
Quando tu chiedi al modello,
Grazie per la spiegazione di come funziona
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 16:29   #7
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11239
Quote:
Originariamente inviato da GianMi Guarda i messaggi
Quindi secondo te con una parola totalmente inventata non dovrebbe funzionare.
No, può avere comunque avuto nei dati di addestramento una serie di domande e risposte che descrivevano le lettere corrispondenti ai vari token nel suo tokenizer e risolvere il problema per composizione, anche per le parole inventate composte da più token.

Questo non toglie che al momento tecnicamente gli LLM non "vedono" le lettere e non sono in grado di risolvere facilmente problemi più complessi dove la posizione delle parole o l'esatta ortografia di un testo intero sono importanti, piuttosto che contare le lettere di una o anche qualche parola.

Alcuni gruppi stanno lavorando per cercare di rimuovere questa limitazione in maniera intrinseca.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 16:41   #8
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Quote:
Originariamente inviato da s12a Guarda i messaggi
...


IMHO
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 16:45   #9
amd-novello
Senior Member
 
L'Avatar di amd-novello
 
Iscritto dal: Aug 2001
Città: Novara (NO)
Messaggi: 20172
Quote:
Originariamente inviato da s12a Guarda i messaggi
Gli LLM attuali non sono tecnicamente in grado di "vedere" le lettere che compongono le parole; fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento.
con copilot funziona. quindi quello non è llm?
__________________
ASUS N76VZ +crucial m500 Dell Latitude E5430 iPad 2017 Huawei nova 5t con Very samsung tv 55m5500 ps4,wiiu
exVODA 82/18-78/16-77/13-90/11 exWIND 95/14-95/19-85/19-81/22 fritzbox 7490
su Tiscali 936/288
amd-novello è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 17:49   #10
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11239
Quote:
Originariamente inviato da GianMi Guarda i messaggi


IMHO
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.

Saprà ad esempio, perché gli è stato insegnato, che il token 72600 può essere composto in linguaggio umano dai token 82, 83, 81, 64, 86, 65, 68, 81, 81, 88.

Quote:
Originariamente inviato da amd-novello
con copilot funziona. quindi quello non è llm?
Dovrebbe usare uno degli ultimi ChatGPT, che è sempre un LLM con normale tokenizer. Vale comunque lo stesso discorso: gli LLM usati commercialmente non vedono normalmente parole composte da lettere, e se conoscono la risposta è perché l'hanno già memorizzata.

Esistono LLM sperimentali che non fanno uso di normale tokenizer, od usano un token per byte/carattere (cosa che renderebbe banale per un LLM contare il numero di caratteri che compone una parola o scomporle in maniera arbitraria, a costo per il momento di inefficienza computazionale), dunque anche se il problema fosse risolto una volta per tutte non vorrebbe dire che non è un LLM.
__________________
~
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 18:24   #11
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Quote:
Originariamente inviato da s12a Guarda i messaggi
Se hai un'idea generale di come funziona un tokenizer in un moderno LLM (e QwQ-32B non è un'eccezione alla regola), non puoi dire che tale LLM possa direttamente vedere le lettere in una parola a meno di artifici vari.
Non ho fatto affermazioni del genere. Ho detto che questo modello risolve per la prima volta, a quanto ne so, un paio di problemi che modelli di analoghe dimensioni (o anche molto più grandi) fino ad ora non erano riusciti a risolvere.

E mi sembra notevole, date anche le dimensioni.

Copilot su questo tipo di problema sbaglia. Se vuoi provare la query è questa:

quante lettere R ci sono nella parola "%h6oGrrj%37RS45a"? Riscrivi la parola indicata racchiudendo ogni R tra parentesi tonde. Ignora la differenza fra maiuscole e minuscole

Questa query da QwQ-32B viene risolta.

Tu hai affermato che risolve questi problemi perché, cito testualmente, "fargli questa domanda verifica solamente se la stessa era presente nei dati di addestramento"

Ti ho dimostrato che non è esattamente così, non letteralmente. E comunque su questo aspetto modelli molto più grandi hanno problemi come nel caso di Copilot o anche Le Chat

E' chiaro che non siamo di fronte ad un nuovo paradigma, ma non è questo il punto. Se vuoi continuare a spiegarci come funziona, fai pure, è divertente
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 18:43   #12
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11239
Se trovi QwQ-32B esaltante perché riesce a contare le 'r' in 'strawberry' (in non meno di 1000 token di "ragionamento"), buon per te.

Oltre ad essere un meme, personalmente mi sembra un test per citrulli in quanto i problemi architetturali che rendono difficoltose questo tipo di domande per gli LLM continuano a rimanere, tutto qui. Sarebbe stato più interessante riportare altri esempi di ragionamento che questo in particolare.
__________________
~

Ultima modifica di s12a : 07-03-2025 alle 18:47.
s12a è offline   Rispondi citando il messaggio o parte di esso
Old 07-03-2025, 18:55   #13
GianMi
Senior Member
 
Iscritto dal: Oct 2008
Messaggi: 361
Quote:
Originariamente inviato da s12a Guarda i messaggi
Se trovi QwQ-32B esaltante perché riesce a contare le 'r' in 'strawberry' (in non meno di 1000 token di "ragionamento"), buon per te.
Non trovo esaltante niente e tu continui a non vedere il punto. Il punto è che questo modello 32B ci riesce e riesce anche in altri test quando modelli analoghi finora non ci sono riusciti, per non parlare di quelli più grandi, come ti ho dimostrato.

Quote:
Originariamente inviato da s12a Guarda i messaggi
Sarebbe stato più interessante riportare altri esempi di ragionamento che questo in particolare.
Ah, adesso l'esempio su cui hai discusso fino ad adesso avrebbe dovuto essere un altro. Ok, me lo segno.

Tuttavia non ho riportato solo questo di esempio, ti dev'essere sfuggito Senza alcuna pretesa di essere esaustivo, beninteso

Il vuoto in ogni caso puoi sempre riempirlo tu, no? Magari con esempi concreti come ho fatto io, se non ti spiace.
GianMi è offline   Rispondi citando il messaggio o parte di esso
Old 10-03-2025, 13:53   #14
PierPang
Member
 
Iscritto dal: Mar 2008
Messaggi: 31
Quote:
Originariamente inviato da GianMi Guarda i messaggi
Ti ricordo che è un modello che "ragiona". Prima di dare la risposta puoi vedere tutto il "ragionamento" che fa.
Io sono convinto che molte persone, anche se preparate tecnicamente, non facciano molti test sugli LM in prima persona. Leggendo una Chain of Thought è difficile dubitare che ci troviamo di fronte a ragionamenti fini e complessi, anche se non necessariamente corretti.
PierPang è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


ASUS ROG Swift OLED PG34WCDN recensione: il primo QD-OLED RGB da 360 Hz ASUS ROG Swift OLED PG34WCDN recensione: il prim...
Recensione Nothing Phone (4a) Pro: finalmente in alluminio, ma dal design sempre unico Recensione Nothing Phone (4a) Pro: finalmente in...
WoW: Midnight, Blizzard mette il primo, storico mattone per l'housing e molto altro WoW: Midnight, Blizzard mette il primo, storico ...
Ecovacs Goat O1200 LiDAR Pro: la prova del robot tagliaerba con tagliabordi integrato Ecovacs Goat O1200 LiDAR Pro: la prova del robot...
Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere? Recensione Samsung Galaxy S26+: sfida l'Ultra, m...
John Deere accetta un accordo da 99 mili...
Gli astronauti di Artemis II osservano i...
OpenAI lancia ChatGPT Pro da 100 dollari...
Allarme rosso: CPU-Z e HWMonitor, segnal...
Arriva su Instagram la funzione per modi...
Le offerte del mondo Apple: iPhone 17 e ...
Italia sotto assedio: il settore governa...
Microsoft fa marcia indietro sull'IA: Co...
Windows 11 24H2 e 25H2: bug negli update...
Mac OS X Cheetah gira su Nintendo Wii gr...
Tineco Floor One S9 Artist Steam Pro: la...
Metal Gear Solid, Sony rilancia il film ...
Il robot umanoide Unitree R1 si pu&ograv...
La Francia scarica Windows: Linux divent...
L'Electronic Froniter Foundation via da ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:53.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1