|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75166
|
Link alla notizia: https://www.hwupgrade.it/news/sistem...ai_144780.html
NVIDIA ha introdotto ufficiale DGX Spark, il supercomputer AI più compatto mai realizzato: 1 petaFLOP di potenza, 128 GB di memoria unificata e architettura Grace Blackwell in un sistema desktop da 3.000 dollari. Pensato per sviluppatori e ricercatori, permette di eseguire localmente modelli fino a 200 miliardi di parametri senza cloud. Click sul link per visualizzare la notizia. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: Dec 2008
Messaggi: 17613
|
pauroso il grafico, anche se effettivamente 9 anni sono un'eternità a livello informatico
|
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6281
|
Tra qualche anno quel pezzo autografato varrà qualche milione.
|
|
|
|
|
|
#4 |
|
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5568
|
È già disponibile su AliExpress e con il choice
|
|
|
|
|
|
#5 |
|
Senior Member
Iscritto dal: Apr 2007
Città: Umbria Età:33
Messaggi: 1771
|
Attenzione: la tabella confronta calcoli a 16 bit di precisione con calcoli a 4 bit di precisione
|
|
|
|
|
|
#6 |
|
Member
Iscritto dal: May 2006
Città: Pordenone
Messaggi: 33
|
Impressionante l'efficienza energetica per il petaflop di potenza...
|
|
|
|
|
|
#7 |
|
Junior Member
Iscritto dal: Jun 2015
Messaggi: 3
|
e una operazione di marketing
|
|
|
|
|
|
#8 |
|
Senior Member
Iscritto dal: Aug 2000
Città: In mezzo alla pianura Padana
Messaggi: 2170
|
"Impressionante", anche se i 3000$ poi diventano 4000-1... Forse l'articolo è stato scritto in precisione fp4
Andando a leggere le specifiche il tutto torna nei parametri della normalità... ad esempio la memoria non è HBM come ci si aspetterebbe su un sistema pensato per l'AI, ma è una semplice LPDDR5 con bus a 256bit e appena 273GB/s di banda :/
__________________
Ryzen 5700 X3D + Aorus B550 Elite + 32 Gb DDR4 3600 + RX6800 ref. + Sharkoon SilentStorm 650W Ultima modifica di ferro75 : 15-10-2025 alle 08:22. |
|
|
|
|
|
#9 | |
|
Senior Member
Iscritto dal: May 2008
Messaggi: 13054
|
Quote:
16 bit sono un ordine di grandezza ben differente di 4 bit.. ha senso ?
__________________
https://www.ansa.it/sito/notizie/cro...46d9c33ec.html |
|
|
|
|
|
|
#10 |
|
Junior Member
Iscritto dal: Aug 2005
Messaggi: 11
|
4 bit sono la massima quantizzazione a cui si può scendere senza perdite sensibili di prestazioni di un modello AI, anche se su questo ci sarebbe da discutere, ad esempio per i modelli di generazione immagini già a 8 bit la perdita di prestazioni si nota. Inoltre blackwell ha introdotto ottimizzazione per i calcoli in FP4 e INT4 (https://developer.nvidia.com/blog/introducing-nvfp4-for-efficient-and-accurate-low-precision-inference/), quindi confrontando con le passate generazioni (a 16bit!) ci sono guadagni astronomici.
Questo Spark in realtà è pensato per training, non per l'inferenza. 128GB di memoria a 270GB/S consentono di fare training in locale che prima si poteva fare solo in cloud, mentre per l'inferenza sono decisamente numeri bassi. D'altra parte NVidia non si fa certo concorrenza in casa! |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:07.




















