PDA

View Full Version : Blackwell Ultra: NVIDIA svela i dettagli del nuovo mostro per l'intelligenza artificiale


Redazione di Hardware Upg
26-08-2025, 11:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/blackwell-ultra-nvidia-svela-i-dettagli-del-nuovo-mostro-per-l-intelligenza-artificiale_142545.html

NVIDIA ha svelato i dettagli Blackwell Ultra, evoluzione della sua architettura AI con 208 miliardi di transistor e 288 GB di memoria HBM3E. L'acceleratore raggiunge 15 PetaFLOPS con precisione NVFP4 e può gestire modelli da oltre 300 miliardi di parametri.

Click sul link per visualizzare la notizia.

CrapaDiLegno
26-08-2025, 12:33
Decisamente un mostro in tutto.
Dai che la Cina con i suoi 7nm e 8 fasi di multipatterning e infinite risorse economiche riesce a realizzare qualcosa di simile e non dipendere da Nvidia per il suo progresso in campo AI.:mc:

supertigrotto
26-08-2025, 17:11
Aveva ragionissimo IBM ,ancora prima che Nvidia lavorasse ai suoi acceleratori,la IA ha bisogno di roba da 8 bit,già i 16 erano da considerarsi inutili.
Avevano dimostrato che si poteva fare cose meravigliose con dei vecchi 6800 modificati e roba con architettura più vecchia.
In teoria Larrabee,se avessero portato avanti il progetto per la IA (Gelsinger lo disse ma fu fermato) sarebbe stata una architettura ottima e scalare ma poi sappiamo come è andata.

CrapaDiLegno
27-08-2025, 01:16
Aveva ragionissimo IBM ,ancora prima che Nvidia lavorasse ai suoi acceleratori,la IA ha bisogno di roba da 8 bit,già i 16 erano da considerarsi inutili.
Avevano dimostrato che si poteva fare cose meravigliose con dei vecchi 6800 modificati e roba con architettura più vecchia.
In teoria Larrabee,se avessero portato avanti il progetto per la IA (Gelsinger lo disse ma fu fermato) sarebbe stata una architettura ottima e scalare ma poi sappiamo come è andata.

No non era scalabile, non quanto una GPU o un ASICS fatto ad hoc come una NPU.
Larrabee era una matrice di core x86 semplicissimi connessi ognuno a due unità vettoriali (e non matriciali). Per poter parallelizzare un calcolo era necessario coordinare i core x86 tra loro che è ben diverso rispetto alla coordinazione nelle GPU dove al loro interno ci sono migliaia di ALU e centinaia di unità matriciali cui non serve parlare continuamente con un core dall'altro lato del chip per sapere cosa fare.
Le latenze in Larrabee erano deleterie, così come i consumi dato che non sfruttavano nulla delle architetture più moderne, veloci e maggiormente dense delle nascenti GPU per il calcolo generale. Semplici core x86 connesse ad un bus a matrice con gestione della comunicazione interna orribile.
Tenendo conto che questi core+AVX erano grandissimi con parti completamente inutili (i core x86 praticamente non facevano che da passacarte) ci si è resi subito conto che il sistema non era scalabile quanto le GPU e infatti, nonostante i PP di vantaggio che aveva (ai tempi Intel aveva ancora i PP migliori rispetto a TMSC), Intel ha mollato la presa dopo che la sua ultima creazione pur essendo enorme e consumando uno sproposito non raggiungeva le prestazioni della migliore GPU Nvidia del tempo (G100).
La fandonia della programmazione facile perché i core erano x86 ha avuto (fortunatamente) le gambe corte. Come se i problemi della programmazione parallela possa essere eliminato usando una ISA conosciuta (ma chi più programma in ASM, soprattutto x86?), per di più la peggiore ISA mai creata per l'elaborazione seriale.