Redazione di Hardware Upg
26-08-2025, 11:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/blackwell-ultra-nvidia-svela-i-dettagli-del-nuovo-mostro-per-l-intelligenza-artificiale_142545.html
NVIDIA ha svelato i dettagli Blackwell Ultra, evoluzione della sua architettura AI con 208 miliardi di transistor e 288 GB di memoria HBM3E. L'acceleratore raggiunge 15 PetaFLOPS con precisione NVFP4 e può gestire modelli da oltre 300 miliardi di parametri.
Click sul link per visualizzare la notizia.
CrapaDiLegno
26-08-2025, 12:33
Decisamente un mostro in tutto.
Dai che la Cina con i suoi 7nm e 8 fasi di multipatterning e infinite risorse economiche riesce a realizzare qualcosa di simile e non dipendere da Nvidia per il suo progresso in campo AI.:mc:
supertigrotto
26-08-2025, 17:11
Aveva ragionissimo IBM ,ancora prima che Nvidia lavorasse ai suoi acceleratori,la IA ha bisogno di roba da 8 bit,già i 16 erano da considerarsi inutili.
Avevano dimostrato che si poteva fare cose meravigliose con dei vecchi 6800 modificati e roba con architettura più vecchia.
In teoria Larrabee,se avessero portato avanti il progetto per la IA (Gelsinger lo disse ma fu fermato) sarebbe stata una architettura ottima e scalare ma poi sappiamo come è andata.
CrapaDiLegno
27-08-2025, 01:16
Aveva ragionissimo IBM ,ancora prima che Nvidia lavorasse ai suoi acceleratori,la IA ha bisogno di roba da 8 bit,già i 16 erano da considerarsi inutili.
Avevano dimostrato che si poteva fare cose meravigliose con dei vecchi 6800 modificati e roba con architettura più vecchia.
In teoria Larrabee,se avessero portato avanti il progetto per la IA (Gelsinger lo disse ma fu fermato) sarebbe stata una architettura ottima e scalare ma poi sappiamo come è andata.
No non era scalabile, non quanto una GPU o un ASICS fatto ad hoc come una NPU.
Larrabee era una matrice di core x86 semplicissimi connessi ognuno a due unità vettoriali (e non matriciali). Per poter parallelizzare un calcolo era necessario coordinare i core x86 tra loro che è ben diverso rispetto alla coordinazione nelle GPU dove al loro interno ci sono migliaia di ALU e centinaia di unità matriciali cui non serve parlare continuamente con un core dall'altro lato del chip per sapere cosa fare.
Le latenze in Larrabee erano deleterie, così come i consumi dato che non sfruttavano nulla delle architetture più moderne, veloci e maggiormente dense delle nascenti GPU per il calcolo generale. Semplici core x86 connesse ad un bus a matrice con gestione della comunicazione interna orribile.
Tenendo conto che questi core+AVX erano grandissimi con parti completamente inutili (i core x86 praticamente non facevano che da passacarte) ci si è resi subito conto che il sistema non era scalabile quanto le GPU e infatti, nonostante i PP di vantaggio che aveva (ai tempi Intel aveva ancora i PP migliori rispetto a TMSC), Intel ha mollato la presa dopo che la sua ultima creazione pur essendo enorme e consumando uno sproposito non raggiungeva le prestazioni della migliore GPU Nvidia del tempo (G100).
La fandonia della programmazione facile perché i core erano x86 ha avuto (fortunatamente) le gambe corte. Come se i problemi della programmazione parallela possa essere eliminato usando una ISA conosciuta (ma chi più programma in ASM, soprattutto x86?), per di più la peggiore ISA mai creata per l'elaborazione seriale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.