|
|
|
|
Strumenti |
17-11-2014, 15:37 | #1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75175
|
Link all'Articolo: http://www.businessmagazine.it/artic...elo_index.html
In occasione di SC14 NVIDIA annuncia la nuova proposta top di gamma della famiglia Tesla, una scheda dotata di due GPU montate sullo stesso PCB in abbinamento ciascuna a 12 Gbytes di memoria video. Ampio spazio anche a NVLink, la connessione tra GPU e CPU in arrivo dal 2016 che dovrebbe permettere di incrementare sensibilmente le prestazioni nei sistemi server per GPU Computing Click sul link per visualizzare l'articolo. |
17-11-2014, 16:04 | #2 |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?
|
17-11-2014, 17:27 | #3 |
Senior Member
Iscritto dal: Jun 2014
Messaggi: 3008
|
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).
__________________
Trattative positive nel forum : molte! |
17-11-2014, 18:38 | #4 | |
Senior Member
Iscritto dal: Jan 2004
Messaggi: 3480
|
Quote:
Esatto non ha nessuna uscita video,ma è solo un'acceleratore grafico per algoritmi più impegnativi,calcoli scientifici.Per chi fa simulazioni numeriche e offrono una potenza necessaria per eseguire simulazioni di dimensioni maggiori ma con una velocità nettamente superiore. Piccolo esempio delle capacità che può svolgere una NVIDIA TESLA.
__________________
Cooler Master Cosmos Infinity 30th Anniversary Full-Tower Intel Core i9-14900K - Cores:24/32 - 36MB Smart Cache + 32MB Cache L2 - (5,8 GHz) + Thermal Grizzly Contact Frame + EK®-Quantum Velocity² DDC 4.2 PWM D-RGB - 480 mm - Asus ROG Maximus Z790 Extreme [E-ATX]
Corsair Dominator Platinum DDR5 (2x32GB) 64GB (6400 MHz) - EK-Quantum Vector² Trio RTX 4090 D-RGB - 420 mm {24GB GDDR6X} - DELL UltraSharp 49" - 32:9: 5K Dual QHD 5120 x 1440 Ultima modifica di bombolo_flint : 17-11-2014 alle 18:46. Motivo: Aggiunta 4.0 |
|
17-11-2014, 20:11 | #5 |
Senior Member
Iscritto dal: Dec 2002
Città: Milano
Messaggi: 2436
|
Con un paio di queste in SLI gira pure Unity!
__________________
Ryzen 58000x3d, Kraken x62, Aorus b550 elite v2, Sapphire rx6900xt, Kingston FURY Renegade 2x16G 3600 c16, Kingston FURY Renegade PCIe 4.0 NVMe , Seasonic 620w, NZXT h500, Quest 2, Xiaomi 34 gaming monitor 1440p 144hz. |
17-11-2014, 21:22 | #6 |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Quindi nVidia stessa taglia la testa al toro e ci dice che non ci sarà nessuna Titan Maxwell a 28nm per natale... anzi non ci sarà proprio fino al nuovo PP. Altrimenti non avrebbe senso il lancio di questa scheda che ad occhio e croce dovrebbe costare sui 10000€.
|
17-11-2014, 21:53 | #7 | ||
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
Quote:
Quote:
e se qualcuno vi avesse detto che Titan / Titan-Z hanno prestazioni pessime in double precision rispetto a Tesla K40 / K80 cosa pensereste quindi? castrazioni a livello driver nvidia? quel qualcuno è un incapace? altro? |
||
17-11-2014, 23:42 | #8 |
Bannato
Iscritto dal: Jun 2013
Messaggi: 3016
|
Beh ma è ovvio che le Titan sono castrate in DP, altrimenti che senso avrebbero le Quadro e Tesla. Chi necessita del DP svolge lavori molto complessi che richiedono HW e SW certificato che deve macinare calcolo 24 su 24 per mesi se non anni ed ecco che quindi vengono tagliate le freq, i cura core, in modo da avere stabilità assoluta e contenere i consumi entro limiti accettabili.
|
18-11-2014, 00:58 | #9 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Che poi una schiera di bimbimink@ abbia pensato di investirci uno stipendio per giocare a BF4 et Co e poi abbia espresso profonda delusione quando è uscita la 780Ti che andava di più e costava la metà, è una cosa che ancora una volta dimostra come sia giusto che qualcuno strizzi la mammella della mucca sprovveduta ogni tanto. Cosa cambia da una Titan ad una Tesla? Sono 2 cose completamente diverse. A parte che le Tesla non sono schede grafiche e al max le Titan si possono paragonare alle Quadro, le Titan non hanno la memoria ECC e non sono pensate per missioni critiche e come le Tesla (o Quadro), così come non hanno i driver e librerie certificate. Le Tesla non costano 4000 euro ciascuna per nulla. Anche se molti pensano che basta mettere mille mila core su un processore per avere il meglio del meglio per il calcolo, quello che conta sono sostanzialmente 2 cose: in primi l'efficienza. Se ho una scheda che va il 10% in meno ma consuma la metà, è molto meglio. Se proprio voglio potenza aggiungo le schede in più che mi servono ma risparmio enormemente sull'energia. Consumo di energia che non è quello di casa vostra: si parla di MW/h ed è il costo preponderante del funzionamento di un server HPC. Il costo di acquisto e installazione dei componenti è secondario. La seconda cosa importante è il supporto: a chi sta facendo dei calcoli critici che una scheda ci metta la metà del tempo non interessa nulla se non ha la massima garanzia che i conti effettuati siano corretti al 100%. Pensate di fare una settimana di calcolo di fila per scoprire alla fine (o dopo qualche tempo) che le simulazioni sono sbagliate perché un algoritmo di una libreria o un chip di memoria è fallato. O anche il compilatore stesso. Anche loro possono avere bachi, anche seri. E infatti si certificano pure quelli. Allo stesso tempo uno vuole che il proprio tempo (ed energia) sia usato al meglio, per cui non gliene frega niente di usare una libreria "open" gratuita (che tanto fa moda) ma che gli fa perdere il doppio del tempo di calcolo rispetto ad una certificata ma chiusa e a pagamento. CUDA vive e sopravvive per questo, per buona pace dei bimbetti nutellosi che credono che far girare 2 filtri di Photoshopp più velocemente in OpenCL sia la summa di tutta la scienza informatica di un pezzo di silicio. E' chiaro che nvidia e AMD si muovo su due piani differenti per quanto riguarda la questione calcolo tramite GPU. Mentre AMD è più concentrata a fare in modo che tale tecnica diventi più diffusa a livello consumer, usando quindi "tecnologia tradizionale", anche nel tentativo di sopperire al deficit che ha accumulato lato CPU rispetto a Intel, nvidia si è concentrata nel mercato di nicchia del super computer/server di calcolo dove può usare tecnologia diversa (più avanzata) e dove ha la possibilità di guadagnare molto di più. Il suo accordo con IBM per la tecnologia nvlink sotto questo punto di vista è interessante. Perché se davvero funziona come promesso può davvero permettere a IBM e nvidia di costruire i super computer più efficienti del pianeta mentre Intel è alle prese ancora con i sui 50+ Pentium castrati su un bus non ben definito che a quanto pare non è riuscita a descriverne i vantaggi all'ultima conferenza di presentazione della loro remota nuova incarnazione di Knight Landing e dall'altra parte AMD propone schede (peraltro da gioco) da oltre 600W che non arrivano alla potenza di una Tesla da 300W. Non parliamo delle sue CPU. Ancora, se davvero una GPU ha una capacità di calcolo parallela che sovrasta una "comune" CPU come ARM/x86 (i Power non sono proprio comuni da questo punti di vista), è possibile ottenere un server efficiente abbinando ad una"semplice" CPU ARM con nvlink una scheda (o più) di calcolo dedicata. Altra maniera di creare nuovi prodotti potenzialmente interessanti, mentre Intel si strozza da sola sempre di più con la propria (ormai costosissima) architettura che non va più da nessuna parte, stretta tra l'avanzata dell'armata ARM (che tra un po' sarà anche sui server non necessariamente adibiti al puro calcolo) e da quello che appare essere un grande balzo nel prossimo futuro della concorrenza nel campo HPC, molto prima che possa arrivare a sfruttare i 10nm e ottenere nuovamente un vantaggio dovuto al processo produttivo piuttosto che dalla creazione di una migliore architettura. Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO). Oltre alla GPU esterna è possibile che IBM abbia intenzione di usare anche altro. Anche qui si gioca su due livelli ben diversi. Ultima modifica di CrapaDiLegno : 18-11-2014 alle 01:01. |
|
18-11-2014, 07:51 | #10 |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
grazie, a me interessava solo la conferma che in una sessione di test una Titan ed una K40 ottengono risultati del tutto paragonabili in DP
|
18-11-2014, 08:09 | #11 | ||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"... Quote:
Quote:
Quote:
No, non è un PR di Intel ad aver fatto quella dichiarazione. Quote:
Quote:
E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato. Quote:
Comunque concordo sui "bambini nutellosi": il web, purtroppo, ne è pieno, e si vede da post come questi, per l'appunto...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||
18-11-2014, 12:18 | #12 | ||
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.
[quote=cdimauro;41795293]Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.[(/quote] Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso. Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince. [quote=cdimauro;41795293]D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...[/quoyte] Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste. D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel. Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti. Peccato che questo giro non ci sia riuscita (*). Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista, mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM. L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza. Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba! I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni). Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel. E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro. Quote:
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo. E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM. E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti. L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra). Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo. Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa. Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata. Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni). E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare). Quote:
Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione. Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso. Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile (se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine). (*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni) E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani. |
||
18-11-2014, 15:17 | #13 |
Senior Member
Iscritto dal: May 2004
Messaggi: 6500
|
|
18-11-2014, 15:24 | #14 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 6500
|
Quote:
|
|
18-11-2014, 15:26 | #15 | |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
Quote:
2 domande - sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP? - cosa cambia da GK110 a GK210? |
|
18-11-2014, 15:33 | #16 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 6500
|
Quote:
http://www.anandtech.com/show/8729/n...-k80-gk210-gpu |
|
18-11-2014, 15:37 | #17 | |
Bannato
Iscritto dal: Nov 2000
Messaggi: 15499
|
Quote:
|
|
18-11-2014, 16:58 | #18 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3287
|
Quote:
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione. Peccato ce ancora non abbia capito che la parte x86 non serve (ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola). |
|
18-11-2014, 23:54 | #19 | ||||||||||||||||||||||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Quote:
Quote:
Adesso torni nuovamente alla carica sullo stesso argomento. Non mi pare intellettualmente onesto. Quote:
Quote:
Quote:
Direi che di carne al fuoco Intel ne ha messa e ne continuerà a mettere ancora, qualunque sparata tu possa fare in merito. Quote:
Quote:
Infatti esistono già da tempo (micro) server basati su ARM, ma che non hanno sfondato. Dunque il fatto che ARMv8 sia una nuova architettura lascia il tempo che trova (anche perché tanto nuova non è ormai). Quote:
Comunque la divisione server di Intel continua a crescere, e dunque più che di rubare quote di mercato a Intel sono gli altri produttori di soluzioni server che si stanno vedendo mancare il terreno da sotto i piedi... Quote:
Di fatti, e senza nemmeno avere queste conoscenze, il solo fatto che ci siano soltanto 10 mila GPU (SE ci sono) rispetto alle centina di migliaia di CPU utilizzate è una chiara prova / indicazione di come vanno realmente le cose. Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
Se cerchi qui, proprio in questa sezione, troverai discussioni in merito già da ben prima che venisse presentato, e in cui ciò che fu scritto si è poi puntualmente verificato. Cell va benissimo in ambiti di tipo DSP-like, ma non era certo un buon processore da infilare in una console o da pensare di essere usato in ambito desktop o server. Infatti è defunto. Quote:
Quote:
Quote:
Quote:
Quote:
Quote:
- l'86% dei supercomputer nella TOP500 fa uso di processori Intel (bada bene: non ho considerato AMD); - il 97% delle nuove entrate fa uso di processori Intel; - il 17% dei supercomputer fa uso di processori di Xeon Phi. Dati ufficiali, ovviamente. Con buona pace dei gufi... Quote:
Sarebbe interessante, invece, capire cosa ci guadagni un pinco pallino qualsiasi a lanciare "campagne d'odio" e di disinformazione nei confronti di aziende "nemiche", fino al punto di farsi sputtanare pubblicamente (vabbé, l'anonimato dei nick è molto comodo per coprirsi le spalle). Ma magari lo scopriremo su Kazzenger...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||||||||||||||||||||||
19-11-2014, 00:01 | #20 | ||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
|
Quote:
Quote:
Quote:
Quote:
Vediamo se qualche risposta, possibilmente con qualche fondamento tecnico, la fornirai finalmente, perché ti capisci solo tu.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 07:33.