|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75166
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...le_142545.html
NVIDIA ha svelato i dettagli Blackwell Ultra, evoluzione della sua architettura AI con 208 miliardi di transistor e 288 GB di memoria HBM3E. L'acceleratore raggiunge 15 PetaFLOPS con precisione NVFP4 e può gestire modelli da oltre 300 miliardi di parametri. Click sul link per visualizzare la notizia. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4167
|
Decisamente un mostro in tutto.
Dai che la Cina con i suoi 7nm e 8 fasi di multipatterning e infinite risorse economiche riesce a realizzare qualcosa di simile e non dipendere da Nvidia per il suo progresso in campo AI. |
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5644
|
Aveva ragionissimo IBM ,ancora prima che Nvidia lavorasse ai suoi acceleratori,la IA ha bisogno di roba da 8 bit,già i 16 erano da considerarsi inutili.
Avevano dimostrato che si poteva fare cose meravigliose con dei vecchi 6800 modificati e roba con architettura più vecchia. In teoria Larrabee,se avessero portato avanti il progetto per la IA (Gelsinger lo disse ma fu fermato) sarebbe stata una architettura ottima e scalare ma poi sappiamo come è andata. |
|
|
|
|
|
#4 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4167
|
Quote:
Larrabee era una matrice di core x86 semplicissimi connessi ognuno a due unità vettoriali (e non matriciali). Per poter parallelizzare un calcolo era necessario coordinare i core x86 tra loro che è ben diverso rispetto alla coordinazione nelle GPU dove al loro interno ci sono migliaia di ALU e centinaia di unità matriciali cui non serve parlare continuamente con un core dall'altro lato del chip per sapere cosa fare. Le latenze in Larrabee erano deleterie, così come i consumi dato che non sfruttavano nulla delle architetture più moderne, veloci e maggiormente dense delle nascenti GPU per il calcolo generale. Semplici core x86 connesse ad un bus a matrice con gestione della comunicazione interna orribile. Tenendo conto che questi core+AVX erano grandissimi con parti completamente inutili (i core x86 praticamente non facevano che da passacarte) ci si è resi subito conto che il sistema non era scalabile quanto le GPU e infatti, nonostante i PP di vantaggio che aveva (ai tempi Intel aveva ancora i PP migliori rispetto a TMSC), Intel ha mollato la presa dopo che la sua ultima creazione pur essendo enorme e consumando uno sproposito non raggiungeva le prestazioni della migliore GPU Nvidia del tempo (G100). La fandonia della programmazione facile perché i core erano x86 ha avuto (fortunatamente) le gambe corte. Come se i problemi della programmazione parallela possa essere eliminato usando una ISA conosciuta (ma chi più programma in ASM, soprattutto x86?), per di più la peggiore ISA mai creata per l'elaborazione seriale. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 09:53.




















