View Single Post
Old 19-03-2025, 09:42   #3
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3574
Mi piacerebbe capire cosa TU hai capito della news.
Da nessuna parte c'è scritto che Nvidia ha inventato qualcosa di nuovo.
C'è scritto che con i nuovi Tensor che supportano FP4 si raggiungono quelle prestazioni.
Secondo la tua affermazione, i calcoli "con i numeri piccoli" sono così semplici da implementare che chiunque, già da quando Huang giocava con i pupazzetti, era in grado di farli.
Ebbene, nel 2025, dopo 3 iterazioni della propria architettura, la maggior concorrente di Nvidia ancora non li supporta.

Poi però la stessa concorrente va in giro a spacciare bench fake dove compara quello che vuole con le ottimizzazioni che vuole, senza test di scaling, per dimostrare che le sue unità di accelerazione sono uno sputo superiori alle GPU di Nvidia della scorsa (o anche quella pima) generazione.
Nella realtà la differenza è abissale, soprattutto quando si parla di datacenter da migliaia e migliaia di acceleratori che devono lavorare in parallelo.
Sarà anche per questo che una azienda ha il 90% del mercato e le altre si litigano le briciole facendo passare le misere percentuali di vendita come una vittoria su cui investire.

P.S: i calcoli FP64 non sono mai serviti alla AI. Nvidia li ha messi in secondo piano da circa 8 anni nelle architetture per server e non li ha mai presi in considerazione per il mercato consumer. E infatti sta dove sta mica per nulla. Forse è perché è l'unica ad aver capito cosa realmente server per avere architetture super prestazionali ed efficienti per l'accelerazione AI.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 
1