|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...gtc_68587.html
Il CEO di NVIDIA ha fatto una serie di annunci durante il keynote della GPU Technology Conference che si tiene a San Jose, California. Principalmente si è parlato delle prime applicazioni della nuova architettura Volta, che espanderà ulteriormente il potenziale di Pascal. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Quote:
Vedremo cosa ci sarà di nuovo sulle Volta consumer, ma credo ci fermeremo al 1.5x delle prestazioni con 1.5x delle risorse. Il nuovo PP non sembra permettere di migliorare molto la densità (meno del 10%) però a quanto pare abbatterà i costi, che vuol dire che forse potremmo ritornare ad avere chip grandi a prezzi decenti. P.S: ma se la GPU è 815mm^2, quanto sarà grande l'interposer? |
|
![]() |
![]() |
![]() |
#3 | ||
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
Quote:
Credo che ti sia confuso con il FFC. Ultima modifica di tuttodigitale : 11-05-2017 alle 14:56. |
||
![]() |
![]() |
![]() |
#4 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Quote:
Quote:
Quindi vuol dire prezzi ancora più alti ![]() |
||
![]() |
![]() |
![]() |
#5 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
nvidia va controcorrente...Mentre AMD sta estendendo per quanto possibile la flessibilità, riducendo il peso delle logiche fisse, nvidia con Volta, o almeno in questa specifica iterazione (che secondo me sarà ben diversa da quelle consumer e non mi riferisco semplicemente alle dimensioni e all'utilizzo delle HBM) usa i "tensor core", che non sono altro che unità spcializzate nell'esecuzione di matrici 4x4, con un tasso di esecuzione di ben 64 operazioni FMA per ciclo di clock ![]() Come tutte le unità con compiti specifici il loro beneficio è fortemente dipendente dal codice eseguito. La cosa curiosa che AMD ha pubblicizzato un miglioramento netto (pari a 3x) con le sue librerie opensource rispetto a deepbench gemm (lo standard del settore). senza toccare minimamente l'HW in quanto a trarne beneficio è pure Fiji, che ricordo che nel test è più veloce ed efficiente di GP100... ![]() GEMM è una funzione il cui acronimo sta per GEneral Matrix to Matrix Multiplication. E stando a quanto detto da Google in una rete neurale questa funzione è attiva per il 90% del tempo di esecuzione...viene da sé che avere HW dedicato non è poi una così cattiva idea... un approccio completamente differente...credo che nvidia abbia in questo specifico settore la meglio....potrei anche sbagliarmi ![]() Come ho detto su, i tensor core NON sono mostruosi per il GENERAL PURPOSE, ma sono unità specifiche progettate espressamente per dare il meglio con la funzione GEMM. Fuori da questo contesto estremamente specifico perde la ragione di esistere di queste unità di calcolo. Ultima modifica di tuttodigitale : 20-05-2017 alle 14:25. |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 22:52.