|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/cpu/goo...ale_68728.html
Il processore che Google ha sviluppato specificatamente per Intelligenza Artificiale e Machine Learning sfrutta ora le capacità del cloud: sarà inoltre a disposizione di ricercatori che ptoranno condurre gratuitamente i propri esperimenti Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3560
|
I numeri sembrano uno sproposito, ma se non sono paragonati a quello che offrono gli altri non hanno molto senso.
Sopratutto non ha senso se non si parla di consumi. nvidia offre 120TFLOPS per il DeepLearning con il nuovo GV100 in 300W. AMD non si sa con Vega, visto che non sappiamo se e come è in grado di effettuare calcoli matriciali di questo tipo. Di certo non è che Google è mille anni avanti al resto della ciurma con le sue soluzioni ad hoc (che fanno quello è poi basta). |
![]() |
![]() |
![]() |
#3 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
V100... GV100 non esiste ancora e come 100 la serie G è difficile che la facciano arrivare cosi' in alto (magari stesso numero di unità, ma in cut per resa).
120TF INT8 se consideri 15TF FP32, ma non è detto che quando calcoli in INT8 con quella macchina rimani a 300W o che comunque vada alla stessa frequenza... si sà ancora troppo poco su quel chip. per questo TPU probabilmente si parla di 180TF FP16 (sono espressamente indicati in floating point e di solito la base piu' usata sul deep learning è FP16); oltre questo non si sà nulla se non che un rack da 19x12" come standard ha 2X300W... ma chi li segue gli standard, ormai? comunque per 11.5PF, non meno di un MW oggigiorno (e già cosi' sarebbe il doppio piu' efficiente di qualsiasi cosa vista con elevata densità, quindi mettiamoci almeno 2MW, con 2 PSU system standard). ma senza dati son solo 4 chiacchere.. |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Mar 2012
Messaggi: 8665
|
180 mila miliardi di operazioni Floating Point al secondo
![]() con quali consumi?
__________________
Pixel 5 - Galaxy S21 - Galaxy Tab S7 - Yoga Slim 7 Ryzen 7 16gb RAM - NUC i5-1145G7 /32Gb RAM /NVME 1Tb + SSD SATA 1Tb - BenQ EX2780Q + BenQ PD2500Q - XBOX Series S |
![]() |
![]() |
![]() |
#5 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3560
|
Quote:
A parte che il chip si chiama GV100: http://www.anandtech.com/show/11367/...ator-announced ed è la scheda a chiamarsi Tesla V100 (con Pascal era GP100 e la scheda Tesla P100), quello che tu definisci "GP100", cioè la versione per Geforce non ci sarà, perché ci sarà il GV102 come c'è stato il GP102 nella fascia enthusiast per Pascal. Detto questo che corregge la prima inesattezza, prima di fare i calcoli della serva finendo con un "ma senza dati son solo 4 chiacchiere" magari dovresti leggere un po' di più di quel che esiste nel mondo reale così impari che ci sono altri che sanno fare calcoli molto meglio di te: dallo stesso link (te lo evidenzio che magari fai fatica a leggere l'inglese e dopo mezz'ora non sei ancora arrivato al punto): Quote:
Poi come queste operazioni si trasformino in performance reali non lo so, così come non so quei 180TFLOPS dell'ASIC di Google come e dove operano (che banda hanno a disposizione?). Non si sa nemmeno se i tensor core possono funzionare insieme alle unità INT32 come fanno le unità FP32. Ultima modifica di CrapaDiLegno : 18-05-2017 alle 13:32. |
||
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4353
|
Quote:
ovviamente se fino a ieri si sono appoggiate alle soluzioni come la S9300x2 e la P100, qualche dubbio è legittimo...ma se permetti ho qualche dubbio anche sul miglioramento reale della soluzione nvidia... |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:47.