NVIDIA consegna il suo mini supercomputer a Elon Musk: inizia una nuova era dell'AI

NVIDIA consegna il suo mini supercomputer a Elon Musk: inizia una nuova era dell'AI

NVIDIA ha introdotto ufficiale DGX Spark, il supercomputer AI più compatto mai realizzato: 1 petaFLOP di potenza, 128 GB di memoria unificata e architettura Grace Blackwell in un sistema desktop da 3.000 dollari. Pensato per sviluppatori e ricercatori, permette di eseguire localmente modelli fino a 200 miliardi di parametri senza cloud.

di pubblicata il , alle 08:41 nel canale Sistemi
NVIDIA
 

NVIDIA ha ufficialmente introdotto DGX Spark, il più piccolo supercomputer AI mai realizzato. A partire da domani 15 ottobre, DGX Spark sarà disponibile su NVIDIA.com e tramite i principali partner - tra cui Acer, ASUS, Dell Technologies, GIGABYTE, HP, Lenovo e MSI - con l'obiettivo di trasformare la scrivania in una vera piattaforma per lo sviluppo di intelligenze artificiali avanzate.

Il sistema è stato progettato per portare la potenza dell'architettura Grace Blackwell direttamente sul desktop di sviluppatori e ricercatori. Derivato dal concept "Project Digits" mostrato al CES, racchiude in un formato poco più grande di un NUC un superchip NVIDIA GB10 Grace Blackwell, capace di fornire fino a 1 petaFLOP di potenza AI con precisione FP4. La configurazione include 128 GB di memoria unificata CPU-GPU, connessa tramite NVLink-C2C - cinque volte più veloce del PCIe 5.0 - e networking ConnectX-7 da 200 Gb/s.

Nonostante il peso contenuto di circa 1,2 kg, DGX Spark è concepito per carichi che tradizionalmente richiedevano infrastrutture datacenter. Le caratteristiche tecniche permettono agli sviluppatori di eseguire inferenze su modelli di IA con fino a 200 miliardi di parametri e di ottimizzare localmente modelli con fino a 70 miliardi di parametri, senza ricorrere al cloud. NVIDIA lo descrive come una "nuova classe di computer", progettata per lo sviluppo di AI agentiche e fisiche, robotica, visione artificiale e ricerca su modelli linguistici di grandi dimensioni.

Il sistema arriva preconfigurato con una distribuzione Linux personalizzata e l'intero stack software NVIDIA AI, che include CUDA, librerie, framework, modelli preaddestrati e microservizi NIM. In pratica, è pronto all'uso per applicazioni come la personalizzazione del modello di image generation FLUX.1 di Black Forest Labs, la creazione di agenti multimodali con NVIDIA Cosmos Reason, o chatbot basati su Qwen3 ottimizzati per l'hardware locale.

Durante il lancio, Jensen Huang ha consegnato personalmente una delle prime unità a Elon Musk presso la base SpaceX di Starbase, Texas, in un gesto che richiama il 2016, quando lo stesso Huang consegnò il primo DGX-1 al nascente team di OpenAI. "Con DGX Spark vogliamo tornare a mettere la potenza dell'AI nelle mani di ogni sviluppatore", ha dichiarato Huang.

Tra i primi ad adottare DGX Spark figurano aziende e istituti come Meta, Microsoft, Google, Hugging Face, Anaconda, LM Studio, JetBrains, ComfyUI e il Global Frontier Lab della New York University, che lo utilizza per la ricerca su algoritmi sensibili alla privacy. La possibilità di collegare due DGX Spark tramite le interfacce Ethernet QSFP consente di raddoppiare le capacità di calcolo, arrivando a gestire inferenze su modelli da oltre 400 miliardi di parametri.

Con un prezzo di partenza attorno ai 3.000 dollari, DGX Spark non è pensato per il pubblico mainstream, ma rappresenta una piattaforma compatta e accessibile per sviluppatori, ricercatori e creativi che desiderano un petaflop di potenza AI a portata di mano.

Evoluzione dell'AI Computing: da NVIDIA DGX-1 a DGX Spark
 DGX-1 (2016)DGX Spark (2025)
Architettura GPU  NVIDIA Pascal NVIDIA Blackwell
Memoria GPU  128 GB (16 GB per GPU) 128 GB unified system memory
Prestazioni AI 170 TFLOPS (FP16) 1 PFLOP (FP4)
Consumo 3.200 W 240 W
Dimensioni 866 x 444 x 131 mm 150 x 150 x 50.5 mm
Peso 60.8 kg 1.2 kg
Prezzi $129.000 $3.999
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano14 Ottobre 2025, 08:46 #1
pauroso il grafico, anche se effettivamente 9 anni sono un'eternità a livello informatico
Unrue14 Ottobre 2025, 11:16 #2
Tra qualche anno quel pezzo autografato varrà qualche milione.
supertigrotto14 Ottobre 2025, 11:40 #3
È già disponibile su AliExpress e con il choice
Damy0614 Ottobre 2025, 13:33 #4
Attenzione: la tabella confronta calcoli a 16 bit di precisione con calcoli a 4 bit di precisione
Fox82i14 Ottobre 2025, 16:51 #5
Impressionante l'efficienza energetica per il petaflop di potenza...
fenixpoint14 Ottobre 2025, 19:45 #6
e una operazione di marketing
ferro7515 Ottobre 2025, 07:17 #7
"Impressionante", anche se i 3000$ poi diventano 4000-1... Forse l'articolo è stato scritto in precisione fp4

Andando a leggere le specifiche il tutto torna nei parametri della normalità... ad esempio la memoria non è HBM come ci si aspetterebbe su un sistema pensato per l'AI, ma è una semplice LPDDR5 con bus a 256bit e appena 273GB/s di banda :/
Notturnia15 Ottobre 2025, 08:45 #8
Originariamente inviato da: Damy06
Attenzione: la tabella confronta calcoli a 16 bit di precisione con calcoli a 4 bit di precisione


avevo notato anche io.. ma perchè si degrada a 4 bit ?.. c'è un motivo ?
16 bit sono un ordine di grandezza ben differente di 4 bit.. ha senso ?
tenebreoscure17 Ottobre 2025, 21:37 #9
4 bit sono la massima quantizzazione a cui si può scendere senza perdite sensibili di prestazioni di un modello AI, anche se su questo ci sarebbe da discutere, ad esempio per i modelli di generazione immagini già a 8 bit la perdita di prestazioni si nota. Inoltre blackwell ha introdotto ottimizzazione per i calcoli in FP4 e INT4 (https://developer.nvidia.com/blog/i...sion-inference/), quindi confrontando con le passate generazioni (a 16bit!) ci sono guadagni astronomici.
Questo Spark in realtà è pensato per training, non per l'inferenza. 128GB di memoria a 270GB/S consentono di fare training in locale che prima si poteva fare solo in cloud, mentre per l'inferenza sono decisamente numeri bassi. D'altra parte NVidia non si fa certo concorrenza in casa!

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^